Künstliche Intelligenz
Greifbare Pixel durch Laser und Luftkammern
Bildschirme mit Flüssigkristallen, Quantenpunkten oder organischen LEDs dominieren unseren Alltag. Doch sie teilen eine Einschränkung: Sie übermitteln Daten ausschließlich optisch. Die sonst für den Alltag wichtige haptische Wahrnehmung fehlt. Touchscreens erlauben zwar Fingersteuerung und Smartphones liefern Vibrationsrückmeldungen, der angezeigte Inhalt bleibt jedoch zweidimensional und flach. Er lässt sich nicht durch Berührung erfahren beziehungsweise ertasten.
Weiterlesen nach der Anzeige
Wie Science Robotics berichtet, haben Max Linnander und sein Team von der University of California in Santa Barbara ein Display entwickelt, das Inhalte gleichzeitig sichtbar und greifbar darstellt. Aktive Bildpunkte sorgen dabei nicht nur für die gewohnte zweidimensionale Darstellung, sondern heben entsprechend markierte Bereiche als kleine „Buckel“ hervor. Dazu integrieren sie winzige, mit Luft gefüllte Hohlräume unter der flexiblen Oberfläche. Laserlicht bestrahlt diese Elemente, erhitzt das Gas darin und lässt die Schicht sich spürbar nach oben wölben. Der Vorteil: Diese haptischen Punkte sind nicht nur für statische Bilder geeignet, sondern wechseln fast so rasch wie herkömmliche Bildschirmelemente das Erscheinungsbild. Die ersten Prototypen erreichen Reaktionszeiten von 2 bis 100 Millisekunden bei maximal 1511 adressierbaren Pixeln.
Greifbare Bildinhalte
Linnander und sein Team prüften in Versuchen mit Teilnehmern, wie zuverlässig dieses haptische System im Einsatz funktioniert. Die Probanden sollten allein durch Fingerberührung Formen und Dynamiken wie die Bewegungsrichtung oder Rotation eines Objekts erkennen. Ergebnis: Die Nutzer identifizieren die Inhalte in 93 bis 100 Prozent der Durchgänge korrekt. Der im Test verwendete Prototyp des Displays verfügte über 1.511 Elemente auf 15 x 15 Zentimetern. „Das ist bereits ein Vielfaches der bisher verfügbaren taktilen Displays mit ähnlichen Merkmalen“, sagt Linnander.
<ir_inline itemname=inread type=0>
Verfügbare haptische Displays
Bis diese Technik die Serienreife erreicht und nicht nur als Prototyp in Forschungseinrichtungen und Entwicklungslabors zur Verfügung steht, müssen sich Maker und DIY-Enthusiasten mit weniger leistungsfähigen Lösungen auf anderer technischer Basis begnügen. Für Maker und DIY-Enthusiasten bieten sich Aktuatoren wie ERM- und LRA-Vibrationsmotoren (beispielsweise von TITAN Haptics oder Precision Microdrives) an. Zusätzlich sind piezoelektrische Elemente für Surface-Haptics (wie von KEMET oder Novasentis) und weiche EAP-Aktuatoren für flexible Interfaces verfügbar. Open-Source-Projekte wie der SmartKnob View auf ESP32-Basis mit programmierbarem Feedback sind ebenfalls brauchbare Lösungen für den DIY-Bereich.
<ir_inline itemname=inline_branding type=0>
(usz)
Künstliche Intelligenz
EnBW eröffnet Solarpark mit Speicher aus Autoakkus
Strom aus erneuerbaren Quellen steht nicht immer verlässlich zur Verfügung und braucht deshalb Speicher. In Baden-Württemberg ist ein Solarpark mit einem angeschlossenen Speicher eröffnet worden. Der besteht aus Autoakkus.
Weiterlesen nach der Anzeige
Der Solarpark in Aach bei Konstanz hat nach Angaben des Betreibers EnBW eine installierte Leistung von 14,2 Megawatt – das reiche aus, um rund 5.500 Haushalte mit drei Personen und einem durchschnittlichen Stromverbrauch von 2.900 Kilowattstunden zu versorgen, teilte das Energieunternehmen mit.
Um den Solarstrom speichern zu können, wenn er nicht ins Netz eingespeist werden kann, verfügt der Solarpark zudem über ein Batteriesystem. Es hat eine Kapazität von 2,34 Megawattstunden und stellt eine Leistung von rund 810 Kilowatt bereit. Damit lassen sich laut EnBW rechnerisch rund 2.400 Haushalte etwa drei Stunden lang mit Strom versorgen.
Der Speicher kommt von einer Bahn-Tochter
Das Speichersystem liefert die Deutsche-Bahn-Tochter encore | DB. Es besteht aus 360 Modulen, – etwa so viele wie in 40 Elektroautos verbaut sind.
Der Speicher ist so aufgebaut, dass er sowohl mit gebrauchten als auch mit neuen Akkus aus Elektroautos betrieben werden kann. Aktuell sind dort neue Module verbaut, die aus Überproduktion stammen und noch nicht in Fahrzeugen im Einsatz waren. Sie können später durch gebrauchte ersetzt werden.
Akkus sind der empfindlichste Teil von Elektroautos. Wenn deren Kapazität unter eine bestimmte Schwelle fällt, sind sie für den Einsatz in Fahrzeugen nicht mehr geeignet. Das bedeutet aber nicht, dass sie unbrauchbar werden: Ob in einem stationären Batteriespeicher einige Zellen ausfallen, ist nicht relevant. So kann ein Autoakku durchaus eine Betriebsdauer von 20, 25 Jahren bekommen.
Weiterlesen nach der Anzeige
„Dieser Speicher ist ein schönes Beispiel dafür, wie Mobilitätswende und die Transformation des Energiesystems Hand in Hand gehen“, sagte Arnim Wauschkuhn, Leiter Batteriespeicherlösungen bei der EnBW. „Mit dem Hochlauf der E-Mobilität werden immer mehr Fahrzeug-Akkus produziert und es kommen immer mehr leistungsstarke Batteriespeicher in den Umlauf. Und diese Batterien können wir auch für stationäre Speicher nutzen. Das spart wertvolle Ressourcen und ermöglicht gleichzeitig die Nutzung von Solarstrom auch bei geringer Sonneneinstrahlung oder nachts.“
(wpl)
Künstliche Intelligenz
KI und Quantencomputer: So wollen Sicherheitsexperten die Zukunft absichern
Noch sind Quantencomputer nicht in der Lage, gängige Verschlüsselungsmethoden zu knacken. Aber in fünf Jahren könnte das der Fall sein. Dann würden auch heute verschickte Nachrichten rückwirkend entschlüsselt werden können.
Weiterlesen nach der Anzeige
Kryptografische Methoden gegen Angriffe
Daher arbeiten Sicherheitsexperten schon länger daran, quantensichere Lösungen zu finden. Es gehe folglich darum, kryptografische Methoden zu entwickeln, „die uns effektiv gegen Angreifer aus der Zukunft schützen“, wie die Sicherheitsexpertin Yael Tauman Kalai, Professorin am MIT, der taz erklärte.
Kalai zufolge gebe es mittlerweile „quantensichere Lösungen für praktisch alle Bereiche der Kryptografie“. Mehrere solcher Methoden seien in den USA schon zertifiziert worden. Aber: Das Upgrade von einer herkömmlichen auf eine quantensichere Verschlüsselung ist angesichts der großen, komplexen Systeme eine Herausforderung – letztlich aber eine wirtschaftliche Frage, so Kalai.
KI als Gefahr für Gesundheit und Datenschutz
Viel größere Sorgen bereitet der Sicherheitsforscherin daher aktuell der Hype um Künstliche Intelligenz (KI). Dabei geht es nicht nur um das Halluzinieren, das etwa bei Ernährungs- und Gesundheitstipps auch durchaus gefährlich sein könne, sondern etwa auch um das Thema Datenschutz.
Hier gelte es, sich zu fragen, was die KI-Firmen mit den Informationen anstellten, die Nutzern Chatbots anvertrauten. Wie lässt sich ein Missbrauch verhindern? Und: Wie lässt sich sicherstellen, dass KI-Systeme von Terroristen nicht dazu genutzt werden, um etwa chemische oder biologische Waffen zu entwickeln?
Weiterlesen nach der Anzeige
Sicherheitsexpertin: KI als Angreifer ansehen
Bei Letzterem könnten Ansätze aus der Kryptografie dazu beitragen, die Risiken zu senken, so Kalai gegenüber der taz. So müsse KI als möglicher Gegner betrachtet und ein Schutz erarbeitet werden. Dabei helfe, die Ziele zu verstehen und eine Strategie zu entwickeln, die verhindert, dass Angreifer Erfolg haben.
Für Kalai hat KI freilich auch viel positives Potenzial. Allerdings bestehe die Gefahr, dass die Entwicklung zu schnell voranschreite. „Die Technologie ist noch ganz jung, wir sind gesellschaftlich nicht bereit für sie und wissen nicht, ob KI wirklich sicher ist“, so die Sicherheitsexpertin.
KI-Mitarbeiter haben Angst vor KI-Gefahren
Kalai hat eigenen Angaben zufolge viele Freunde, die bei Anthropic, OpenAI oder Google arbeiten; ihr Mann ist bei OpenAI angestellt. Ihr zufolge haben die Menschen dort Angst. Sie machten sich große Sorgen, „dass KI nicht sicher ist“.
Ein Ausweg wäre, wenn sich die Beteiligten weltweit zurücknehmen und ihre Rechenkraft begrenzen würden, ähnlich wie beim Atomwaffensperrvertrag. „Das würde Tempo herausnehmen und uns Zeit geben, mit den Risiken besser umzugehen“, so Kalai.
Initiative für mehr KI-Sicherheit
Die Sicherheitsexpertin sieht eine Chance, dass alle beteiligten großen Unternehmen sich auf eine solche Aktion einigen könnten – möglicherweise geführt von einer entsprechenden Initiative aus der Politik. Schließlich hätten ja alle dasselbe Ziel: „Wir wollen den Nutzen der KI ausschöpfen und zugleich die Risiken minimieren“.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)
Künstliche Intelligenz
Interview: „Open Source allein ist nicht die Lösung“
Digitale Souveränität ist Europas Schlüssel zur Unabhängigkeit. Die Entscheidung ist für viele untrennbar mit Open Source verbunden. Warum digitale Selbstbestimmung mehr ist als eine Frage der Lizenzmodelle und weshalb Europa offene wie proprietäre Wege braucht, um technologisch souverän zu bleiben, darüber spricht Oliver Grün, Vorstand des Bundesverbands IT-Mittelstand (BITMi), im Interview mit heise online.
Weiterlesen nach der Anzeige
heise online: Was verstehen Sie unter digitaler Souveränität?
Oliver Grün: Digitale Souveränität bedeutet für uns, dass Europa über seine digitale Infrastruktur, Software und Daten selbstbestimmt verfügen kann. Das setzt voraus, dass die Rechte am geistigen Eigentum in Europa liegen und Anbieter europäischer Gesetzgebung unterliegen. Denn nur dann ist auch sichergestellt, dass europäische Werte und Rechtsstandards eingehalten werden.
Dr. Oliver Grün ist Gründer sowie CEO der GRÜN Software Group GmbH, einer mittelständischen Software-Unternehmensgruppe mit Hauptsitz in Aachen.
(Bild: Oliver Grün)
Oft wird digitale Souveränität fast automatisch mit dem Einsatz von Open-Source-Software gleichgesetzt. Sie sehen das anders – warum?
Wir haben nichts gegen Open Source, im Gegenteil: Es ist ein wertvoller Ansatz. Etwa 20 Prozent unserer Mitglieder arbeiten damit. Aber 80 Prozent setzen auf proprietäre, also Closed-Source-Lösungen. Das hat sich in der Marktwirtschaft so ergeben. Wenn man digitale Souveränität ausschließlich mit Open Source verknüpfen würde, hieße das, 80 Prozent der europäischen Anbieter auszuschließen. Das kann nicht der richtige Weg sein.
Open Source ist für bestimmte Anwendungen sehr sinnvoll, und wir unterstützen es nach wie vor. Aber wir halten es für falsch, wenn die öffentliche Hand nur noch Open Source vorschreibt. Entscheidend sollte sein: Welche Lösung ist die beste und gleichzeitig europarechtstreu – egal ob Open Source oder Closed Source?
Weiterlesen nach der Anzeige
Gibt es Bereiche, in denen Open Source mehr Sinn ergibt als in anderen?
Ja, bei horizontalen Anwendungen, die branchenübergreifend funktionieren – wie etwa Nextcloud oder generische Tools. Bei sehr branchenspezifischer Software, zum Beispiel für Sozialämter oder spezielle Industrieprozesse, hat sich Open Source dagegen weniger durchgesetzt. Dort ist der Markt nach 30 Jahren klar verteilt.
Ein Argument für Open Source ist Transparenz und die Möglichkeit, gemeinsam an Code zu arbeiten. Warum überzeugt Sie das nicht?
Prinzipiell finde ich es großartig, wenn viele in einer Community zusammenarbeiten und Verbesserungen teilen – Wikipedia ist ein gutes Beispiel. Aber in vielen Bereichen geht es nun einmal um Geschäftsgeheimnisse. Unternehmen oder auch Verwaltungen möchten nicht, dass ihre jahrzehntelangen Entwicklungen und geschäftskritischen Prozesse offenliegen. Außerdem entsteht auch bei Open Source eine Abhängigkeit, weil am Ende doch ein bestimmtes Unternehmen für Wartung und Betrieb einsteht.
Also reduziert Open Source Abhängigkeiten aus Ihrer Sicht nicht?
Ganz genau. Abhängigkeiten hat man immer – sei es zum Hersteller einer Closed-Source-Software oder zu einem Dienstleister, der Open Source wartet. Auch hier gibt es oft faktisch nur einen Anbieter. Deshalb ist der Unterschied geringer, als manche behaupten.
Was wäre Ihrer Meinung nach eine gute Lösung, um digitale Souveränität zu sichern?
Wir schlagen vor, den Fokus nicht auf die Lizenzform – Open Source oder Closed Source – zu legen, sondern auf die Europarechtstreue. Das bedeutet: Anbieter müssen garantieren, dass ausschließlich europäisches Recht gilt und auch angewendet wird – insbesondere IT-Recht und Datenschutz. US-Anbieter wie Microsoft oder Amazon können das nicht, weil sie gleichzeitig Gesetzen wie dem FISA Act unterliegen. Europäische Anbieter, ob Open oder Closed Source, können das sehr wohl. So wäre der gesamte Markt einbezogen, und das beste Produkt könnte gewinnen.
Viele argumentieren mit „Public Money, Public Code“. Also: Wenn der Staat bezahlt, soll der Quellcode allen offenstehen. Wie sehen Sie das?
Das ist eine legitime Haltung, aber sie muss nicht immer die Beste sein. In bestimmten Fällen kann es auch sinnvoll sein, dass der Staat die Rechte am Code selbst erhält – oder dass ein Anbieter bestehende Software lizenziert. Es gibt also mehrere Modelle, und wir sollten offen für alle sein.
Wir wollen nicht Open Source gegen Closed Source ausspielen. Beide Modelle haben ihre Berechtigung. Wichtig ist, dass die Software aus Europa kommt, dem europäischen Recht unterliegt und damit unsere digitale Souveränität stärkt. Was wir nicht akzeptieren können, ist eine ideologische Einschränkung, die von vornherein 80 Prozent der Anbieter ausschließt. Europa muss die beste Lösung wählen – egal in welchem Lizenzmodell.
(mack)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Monaten
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Monat
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Social Mediavor 4 Wochen
Schluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?