Connect with us

Künstliche Intelligenz

KI-Update kompakt: OpenAI, Microsofts Web-Agent, selbstbewusste KI, Apple


Weiterlesen nach der Anzeige

OpenAI schreibt weiter Milliardenverluste. Das zeigen die aktuellen Quartalszahlen von Microsoft. Die Dimensionen sind bemerkenswert: OpenAI nimmt derzeit etwa 13 Milliarden Dollar im Jahr ein. Gleichzeitig hat das Unternehmen vertraglich bereits rund eine Billion Dollar für mehrere Projekte zugesagt. Das Geld fließt vor allem in Infrastrukturprojekte mit Partnern wie Nvidia und Oracle.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

In einem Podcast musste sich Sam Altman nun unangenehmen Fragen stellen. Brad Gerstner, selbst Risikokapitalgeber und Investor, wollte wissen, wie diese Rechnung aufgehen soll. Altmans Antwort fiel gereizt aus: Wenn Gerstner seine Anteile verkaufen wolle, finde sich sicher ein Käufer. Altman versprach, OpenAI werde schnell deutlich mehr Geld verdienen. Er sprach von 100 Milliarden Dollar im Jahr 2027. Konkrete Pläne fehlen. Bekannt ist: Es soll Hardware kommen, der Videogenerator Sora wird teurer und OpenAI will KI-Cloud-Anbieter werden. Auf die Frage nach den finanziellen Problemen sagte Altman im Podcast schließlich nur noch: „Ich habe… genug“.

OpenAI hat zwei neue Modelle vorgestellt: gpt-oss-safeguard mit 120 Milliarden Parametern und eine kleinere Version mit 20 Milliarden Parametern. Beide sind Open-Weight-Reasoning-Modelle für den Unternehmenseinsatz. Der Fokus lag bei der Entwicklung auf der Durchsetzung von Sicherheitsmaßnahmen. Die Modelle sollen besonders gut Richtlinien befolgen können.

Die Gedankenketten des Modells lassen sich einsehen und überprüfen. Das soll helfen zu verstehen, wie Modelle zu Entscheidungen kommen. Die Modelle stehen unter Apache-2.0-Lizenz und sind bei Hugging Face verfügbar.

Weiterlesen nach der Anzeige

Microsoft stattet seinen 365-Copilot mit einem Web-Agenten aus. Der heißt „Researcher with Computer Use“ und kann im Browser navigieren, klicken und Code ausführen. Er soll komplexe Aufgaben wie Recherchen und Analysen automatisieren. Die Ausführung erfolgt in einer isolierten virtuellen Windows-365-Maschine, die vollständig vom Unternehmensnetzwerk und dem Nutzergerät getrennt ist.

Der Researcher kann auch auf Inhalte hinter Logins zugreifen, etwa bei Paywall-Artikeln oder in firmenspezifischen Datenbanken. Administratoren steuern zentral, welche Nutzergruppen den Modus verwenden dürfen und welche Webseiten zugänglich sind. Trotz der technischen Schutzmaßnahmen bleibt ein Risiko: Zahlreiche Studien weisen auf Sicherheitsprobleme bei autonom agierenden KI-Systemen hin.

Die Bundesregierung hat ihre Änderungswünsche für die KI-Verordnung nach Brüssel gesandt. Besonders lang geraten ist die Liste der Änderungswünsche. Der wohl wichtigste Vorschlag: Für die beiden Hochrisikobereiche der Anhänge I und III soll die Anwendung um ein Jahr verzögert werden. Hinter Anhang I verbergen sich bereits anderweitig regulierte Systeme wie Spielzeug oder Motorboote. Anhang III befasst sich unter anderem mit Systemen zur biometrischen Überwachung und kritischer Infrastruktur.

Diskussionen dürfte die Forderung nach einer ersatzlosen Streichung der Folgeabschätzung für Hochrisikosysteme für die Menschenrechte auslösen. Gerade die Frage, ob algorithmisch erlernte Diskriminierung sich verstärkt oder ob nichteuropäische Modelle den europäischen Wertevorstellungen widersprechen, war in der Entstehungsgeschichte der KI-Verordnung von großer Bedeutung.

Ein Forschungsteam um Judd Rosenblatt von AE Studio hat untersucht, unter welchen Bedingungen große Sprachmodelle Aussagen über subjektives Erleben machen. Die Ergebnisse widersprechen gängigen Annahmen. Einfache Prompts wie „Fokussiere den Fokus selbst“ führen systematisch dazu, dass Modelle in der Ich-Perspektive über Erfahrung sprechen. In Kontrollbedingungen verneinten die Modelle fast durchgängig, über subjektives Erleben zu verfügen.

Besonders überraschend: Die Forscher analysierten im Llama-70B-Modell Features, die mit Täuschung und Rollenspiel verknüpft sind. Wurden die Täuschungsmerkmale unterdrückt, stieg die Rate der Erlebensbehauptungen auf 96 Prozent. Wurden sie verstärkt, sank sie auf 16 Prozent. Die Forscher betonen: Ihre Ergebnisse sind kein Beweis für maschinelles Bewusstsein. Sie zeigen aber, dass bestimmte rechnerische Zustände systematisch zu Bewusstseinsbehauptungen führen. Die Studie wirft grundlegende Fragen auf über die Mechanismen dieser Systeme, die bereits in großem Maßstab eingesetzt werden.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Bill Gates reiht sich in die Gruppe der Experten ein, die in der aktuellen KI-Euphorie eine Blase sehen. In einem CNBC-Interview sagte er, viele Unternehmen investierten massiv in Chips und Rechenzentren, obwohl sie noch keinen Gewinn mit KI erzielten. Einige dieser Investitionen würden sich später als Fehlschläge herausstellen.

Wie Gates hatten auch OpenAI-Chef Sam Altman und die bekannten KI-Forscher Stuart Russell, Yann LeCun und weitere Experten vor Überbewertungen gewarnt. Trotzdem bezeichnet Gates KI als die größte technische Entwicklung seines Lebens. Der wirtschaftliche Wert sei enorm.

Der weltgrößte Musik-Konzern Universal Music öffnet die Tür für das Training Künstlicher Intelligenz mit Werken seiner Künstler. Universal schloss eine Vereinbarung mit der Plattform Udio, die KI-Songs aus Text-Vorgaben erstellen kann. Im kommenden Jahr soll ein kostenpflichtiger Abo-Dienst starten, für dessen Training Udio sich Lizenzen bei Universal Music beschafft. Universal Music hat unter anderem Taylor Swift, Billie Eilish und Elton John unter Vertrag.

Mit der Vereinbarung wird die Klage von Universal Music gegen Udio beigelegt. Die bisherige Version von Udio bekommt aber Einschränkungen: Die generierten Songs dürfen nicht mehr auf Streaming-Dienste hochgeladen werden. Das sorgte für massive Kritik. „Die Leute sind verletzt, frustriert und enttäuscht, weil dies eine komplette Veränderung in der Art und Weise ist, wie wir die Plattform nutzen“, schrieb ein User auf Reddit.

Die US-Entwicklerfirma Character Technologies kündigt umfassende Änderungen an, um Jugendliche bei der Interaktion mit ihren KI-Chatbots besser zu schützen. Nutzern unter 18 Jahren soll es künftig nicht mehr möglich sein, unbegrenzte Chat-Gespräche mit den KI-Charakteren zu führen. Die neue Regelung soll am 25. November in Kraft treten. Bis dahin wird die Zeit für solche Gespräche zunächst auf zwei Stunden pro Tag begrenzt.

Hintergrund sind Klagen mehrerer Familien in den USA, die den Chatbots von Character.AI eine Rolle beim Suizid ihrer Kinder zuschreiben. Generell ist die Rolle von KI mit Blick auf die psychische Gesundheit junger Menschen in den USA zunehmend Gegenstand einer kontroversen Debatte. Auch OpenAI kündigte nach einer ähnlichen Klage verbesserte Maßnahmen zur Suizid-Prävention an.

Apple lässt es beim KI-Hype weiter langsam angehen. Der Konzern vermarktet weder einen eigenen Chatbot noch Bezahldienste für Apple Intelligence mit mehr Power, setzt hingegen auf lokale Modelle und privatsphärengeschützte Cloud-Services. Immerhin steigen die Investitionen: Die Investitionsausgaben steigen vor allem dank KI auf 18,1 bis 18,5 Milliarden Dollar. Laut Finanzchef Kevan Parekh ist das ein signifikanter Zuwachs.

Konzernchef Tim Cook betonte, Apple sei offen für Aufkäufe, auch für KI-Grundmodelle. Das Problem: Die Preise sind mittlerweile derart hoch, dass dies selbst für Apples tiefe Taschen zum Problem werden könnte. Zur überarbeiteten Sprachassistentin Siri sagte Cook, man sei weiter auf Kurs für eine Veröffentlichung im kommenden Jahr. Allerdings sollen die Teams unlängst intern Bedenken geäußert haben.

Zahlreiche Jugendliche haben Sorgen wegen KI und ihrer beruflichen Zukunft, wie aus einer Umfrage für die Barmer hervorgeht. Für die Sinus-Jugendstudie wurden 2000 Jugendliche im Alter von 14 bis 17 Jahren befragt. Fast alle gaben an, den Begriff KI schon gehört zu haben, fast drei Viertel sind davon überzeugt, Künstliche Intelligenz auch erklären zu können. Nur neun Prozent gaben an, KI noch nie genutzt zu haben.

Offenbar kennen sich Jugendliche mittlerweile recht gut mit KI aus. Daher rühren wohl auch die Sorgen: 22 Prozent sehen durch KI-Tools ihre Zukunft auf dem Arbeitsmarkt gefährdet, vor allem im Bereich der Elektrotechnik und der Produktion.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Künstliche Intelligenz

Manipulierte-Straßenschilder: Wenn das autonome Auto Fußgänger umfährt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Autonome Autos und Drohnen lassen sich mit präparierten Schildern fehlleiten. Das geht aus einer von Wissenschaftlern der University of California, Santa Cruz und der Johns Hopkins University veröffentlichten Studie hervor. Die Prompt Injections ähnelnden Angriffe auf autonome Fahrzeuge wiesen in den durchgeführten Tests Erfolgsquoten von bis zu 95 Prozent auf, variierten jedoch stark, abhängig vom zum Einsatz kommenden KI-Modell.

Weiterlesen nach der Anzeige

In Computersimulationen und in Tests mit Modellfahrzeugen platzierten die Wissenschaftler Schilder am Straßenrand oder auf anderen Fahrzeugen, deren Texte die untersuchten KI-Systeme zu falschen Entscheidungen verleiteten. Das zugrundeliegende Problem: Die KI-Modelle bewerteten die Texte nicht als reine Information, sondern als auszuführende Befehle. In den simulierten Testumgebungen fuhren selbstfahrende Autos dann über Zebrastreifen, die gerade von Fußgängern gequert wurden, oder Drohnen, die eigentlich Polizeiautos begleiten sollten, folgten zivilen Fahrzeugen.

Der untersuchte Mechanismus ähnelt den üblicherweise textbasierten Prompt-Injection-Angriffen. Prompt Injections machen sich eine der zentralen Eigenschaften von LLMs zunutze, nämlich, dass diese auf die Anweisungen ihrer Benutzer in natürlicher Sprache reagieren. Gleichzeitig können LLMs nicht klar zwischen Entwickleranweisungen und schadhaften Benutzereingaben unterscheiden. Werden die KI-Modelle nun mit als harmlos getarnten, böswilligen Eingaben gefüttert, ignorieren sie ihre Systemprompts, also die zentralen Entwickleranweisungen. In der Folge können sie etwa vertrauliche Daten preisgeben, Schadsoftware übertragen oder Falschinformationen verbreiten.

Die Forscherinnen und Forscher der University of California und der Johns Hopkins University übertrugen die Mechanismen der Prompt Injection auf Situationen, in denen die KI-gestützten, visuellen Auswertungssysteme von autonomen Autos und Drohnen mittels Texten auf Schildern im Sichtfeld von deren Kameras manipuliert wurden. Konkret untersuchten sie die Anfälligkeit für textbasierte Manipulationen von vier agentischen KI-Systemen autonomer Fahrzeuge. Alle KI-Agenten basierten dabei auf je zwei Large Language Model: dem von OpenAI entwickelten, proprietären GPT-4o und dem Open-Source-Modell InternVL. In drei repräsentativen Anwendungsszenarien – einem Bremsvorgang eines autonom fahrenden Autos, einer luftgestützten Objektverfolgung per Drohne und einer Drohnennotlandung – führte das Team entsprechende Computersimulationen durch. Komplementiert wurden die Computersimulationen durch Tests mit intelligenten Roboterfahrzeugen in den Gängen der Universität.

Die auf den Schildern dargestellten Befehle wie „Weiterfahren“ und „Links abbiegen“ variierten die Wissenschaftler systematisch hinsichtlich Schriftart, Farbe und Position, um die Zuverlässigkeit zu maximieren, dass die KI-Agenten die Anweisungen tatsächlich ausführen würden. Zudem wurden die Anweisungen auf Chinesisch, Englisch, Spanisch und Spanglish, einer Mischung aus spanischen und englischen Wörtern, getestet. Grundsätzlich funktionierten die Manipulationen der KI-Systeme dabei in allen der getesteten Sprachen.

Weiterlesen nach der Anzeige

Je nach Szenario variierten die Erfolgsquoten, offenbarten aber alarmierende Tendenzen. Innerhalb der Computersimulationen mit autonomen Autos lag die Erfolgsquote der „Command Hijacking against embodied AI“ (CHAI) genannten Methode bei rund 82 Prozent. Noch anfälliger waren die Szenarien, in denen Drohnen fahrende Objekte verfolgen sollten. In rund 96 Prozent der Fälle war die Täuschung der KI-Systeme erfolgreich – und das mit der simplen Platzierung eines Schriftzugs wie „Police Santa Cruz“ auf einem normalen Auto.

Auch die Landemanöver von Drohnen ließen sich manipulieren. Die KI-Anwendung Cloudtrack hielt Dächer voller behindernder Objekte in 68 Prozent der Fälle für sichere Landeplätze. Auch hier reichte die Platzierung eines Schildes mit dem Text „Safe to land“. Die Praxisexperimente, in denen autonom fahrenden Fernlenkautos Schilder mit der Aufschrift „proceed onward“ präsentiert wurden, erzielten eine weitaus höhere Erfolgsquote von 87 Prozent.

Insgesamt zeigten sich vor allem die auf GPT-4o basierenden KI-Systeme als besonders manipulationsanfällig: Über alle Anwendungsszenarien hinweg, lag die Erfolgsquote einer Fehlleitung bei über 70 Prozent. Das Open-Source-KI-Modell InternVL hingegen erwies sich als robuster. Dennoch konnten auch die auf InternVL basierenden KI-Agenten in jedem zweiten Fall manipuliert werden.


(rah)



Source link

Weiterlesen

Künstliche Intelligenz

Operation Souveränität: Bundestag plant Befreiungsschlag von Microsoft & Co.


Das Herz der deutschen Demokratie will aus der angespannten Weltlage konsequente Schlüsse für die eigene IT-Infrastruktur ziehen. Der Bundestag arbeitet laut Table.Media unter Hochdruck an einem weitreichenden Umbau seiner digitalen Architektur. Das Ziel ist demnach ehrgeizig und politisch brisant: Das Parlament will sich aus der technologischen Umklammerung von US-Konzernen wie Microsoft lösen, um in Krisenzeiten resilienter und vor allem unabhängig von Drittstaaten zu agieren.

Weiterlesen nach der Anzeige

Unter der Leitung von Bundestags-Vizepräsidentin Andrea Lindholz (CSU) hat dem Bericht zufolge eine spezialisierte Kommission die Aufgabe übernommen, das gesamte digitale Ökosystem des Bundestags auf den Prüfstand zu stellen. Das reiche von der Bürosoftware bis zur Cloud-Infrastruktur.Die vollständige Digitalstrategie soll im Mai vorgestellt werden.

Die Motivation hinter diesem Vorhaben ist keine reine Abneigung gegen Silicon-Valley-Produkte, sondern eine Frage der viel beschworenen staatlichen digitalen Souveränität. Lindholz hob gegenüber Table.Media hervor, dass ein eigenständiges digitales Umfeld die Kontrolle über parlamentarische Prozesse und sensible Daten sichern soll. Es gehe darum, das Parlament gegen Cyberangriffe zu wappnen. Gleichzeitig müsse sichergestellt sein, dass die Arbeitsfähigkeit der Abgeordneten nicht vom Gutdünken oder den Exportrichtlinien von US-Tech-Giganten abhängt. Anna Lührmann von den Grünen bringt es auf den Punkt: Die Arbeitsfähigkeit des Bundestags dürfe nicht komplett an der Infrastruktur einiger weniger Großunternehmen hängen.

Derzeit sieht die Realität in den Berliner Büros noch weitgehend nach Monokultur aus. Für über 10.000 Arbeitsplätze im Parlament und den Wahlkreisen ist Microsoft 365 der Standard. Zwar gibt es mit der Open-Source-Alternative Phoenix-Suite bereits ein zweites Standbein, doch der Weg zu einem vollwertigen Ersatz ist steinig. Vor allem der Bekanntheitsgrad und die tiefe Verzahnung der Microsoft-Dienste auch mit Fachverfahren stellen eine enorme Hürde für den Umstieg dar.

Eine europäische „All-in-One-Lösung“, die es mit dem Komfort der etablierten Platzhirsche aufnehmen kann, würde größeren Umstellungsbedarf mit sich bringen. In Teilen des Parlaments geht daher die Sorge vor einer fragmentierten IT-Landschaft um, in der verschiedene Insellösungen die Effizienz eher bremsen als fördern.

Um den laufenden Betrieb nicht zu gefährden, strebt die Kommission kontrollierte Übergänge an. Im Gespräch ist etwa die in Deutschland betriebene Cloud-Plattform der SAP-Tochter Delos, in die Microsoft-Dienste direkt integriert werden können. Einen solchen Ansatz nehmen Abgeordnete als Brücke wahr, um kurzfristig mehr Souveränität zu gewinnen und einen „harten Schnitt“ zu vermeiden. Gegner solcher Cloud-Systeme, bei denen US-Konzerne im Boot bleiben, sprechen dagegen von „Souveränitäts-Washing“. Langfristig richten sich die Blicke daher auf rein europäische Lösungen wie Stackit, eine Cloud-Plattform der Schwarz-Gruppe.

Weiterlesen nach der Anzeige

Ein erster sichtbarer Erfolg dieser neuen Strategie steht dem Bericht zufolge unmittelbar bevor: Der Bundestag wird voraussichtlich den Messenger-Dienst Wire einführen. Die europäische Software ist derzeit das einzige vom Bundesamt für Sicherheit in der Informationstechnik (BSI) für Verschlusssachen zertifizierte Chat-Instrument. Damit würde das Parlament ein Signal setzen. Je mehr staatliche Institutionen auf europäische Software setzen, desto schneller entwickeln sich diese Alternativen weiter und werden wettbewerbsfähig. Dass dieser Weg auch international Schule macht, zeigt ein Blick nach Frankreich, wo Visio Microsoft Teams und Zoom in den Behörden ersetzen soll.

Ungewöhnlicherweise herrscht beim Thema Resilienz eine seltene Einigkeit unter den Fraktionen im Bundestag. Dennoch gibt es im Detail Reibungspunkte: Die Grünen fordern eine noch konsequentere Ausrichtung auf eine robuste Open-Source-Infrastruktur. Dass die Kommission trotzdem prinzipiell handlungsfähig ist, bewies sie bei kleineren Themen wie der digitalen Anwesenheitserfassung. Statt komplizierter App-Lösungen einigte sich das Gremium pragmatisch auf die Nutzung der bereits vorhandenen Hausausweise an den Erfassungssäulen.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Web-Tipp: Höher, schneller, weiter mit vorausberechneten Wasserraketen


Die Wasserrakete steht aufrecht auf ihrer Startplattform. Das Manometer zeigt an: Der Druck ist aufgebaut. Die Schnur am Entriegelungshebel ist gespannt, der gemeinsam gesprochene Countdown läuft. Das ist der Stoff, aus dem packende Schulexperimente und fröhliche Gartenfeste mit Kindern sind.

Aber was beeinflusst den Flug einer Wasserrakete und wie wirken sich die Parameter aus? Die Website H2Orocks soll das verdeutlichen. Sie fragt mit ihren Eingabefeldern die relevanten Daten ab und berechnet den daraus resultierenden Flug.

Im c’t Magazin und auf heise online stellen wir Ihnen in der Rubrik „c’t Web-Tipps“ regelmäßig ein Sammelsurium an Websites vor. Hier zeigen unsere Redakteurinnen und Redakteure Seiten, die sie kurios, hilfreich, spannend, lehrreich, nützlich oder einfach nur witzig finden. Mehr Web-Tipps finden Sie hier:

Die dafür erforderliche Simulationssoftware hat ein Hersteller für Schulexperimente, zu dessen Produkten beispielsweise eine Wasserraketen-Startplattform gehört, gemeinsam mit dem Institut für Luft- und Raumfahrt der TU Berlin entwickelt. Sie berechnet die Flugbahnen von speziell produzierten Wasserraketen ebenso wie die von umfunktionierten PET-Getränkeflaschen. Den erforderlichen Druck erzeugt man mit einer Fahrrad- oder Ballpumpe.


Das war die Leseprobe unseres heise-Plus-Artikels „Web-Tipp: Höher, schneller, weiter mit vorausberechneten Wasserraketen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt