Connect with us

Künstliche Intelligenz

KI-Update kompakt: Gemini Live, AI Mode, GPT-5-Test, KI-Psychosen


Google hat bei seinem „Made by Google“-Event Verbesserungen für seinen KI-Assistenten Gemini Live vorgestellt. Der Assistent kann nun das Kamerabild analysieren und gleichzeitig Gespräche führen. Neu ist die Integration mit Google Calendar, Keep und Tasks sowie eine „Visuelle Führung“-Funktion, die Objekte im Bild markieren kann. Fragt man etwa vor dem Gewürzregal nach Ersatzmöglichkeiten, umkreist Gemini passende Alternativen. In den kommenden Wochen soll das zugrundeliegende KI-Modell zudem verbesserte sprachliche Fähigkeiten erhalten.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Mit „Gemini for Home“ löst Google zudem seinen bisherigen Smart-Home-Assistenten ab. Der neue Dienst soll natürlichere Sprache verstehen und komplexere Anweisungen verarbeiten können. Nutzer können mehrere Befehle in einem Satz kombinieren oder Dialoge ohne wiederholte Aktivierungsphrasen führen. Ab Oktober will Google erste Geräte über ein Early-Access-Programm mit der neuen KI ausstatten.

Google rollt seinen KI-gestützten Suchmodus in 180 weiteren Ländern aus, jedoch nicht in der EU. Der „AI Mode“ bleibt zudem vorerst auf Englisch beschränkt. In den USA erhält die Funktion nun agentische Fähigkeiten, die praktische Aufgaben übernehmen sollen. Nutzer können etwa Restaurantreservierungen vornehmen, wobei die KI auf Google Maps zugreift, um passende Lokale im gewünschten Umkreis zu finden.

Die neue Funktionalität basiert auf Googles „Project Mariner“ und verbindet Echtzeit-Suche mit dem Knowledge Graph und Google Maps. Zudem lässt sich der AI Mode personalisieren und merkt sich Vorlieben des Nutzers – zunächst allerdings nur beim Thema Essen. Diese Gedächtnisfunktion kann auf Wunsch deaktiviert werden.

Chatbots und KI-Modelle verändern nicht nur die Informationssuche, sondern auch die Struktur des Internetverkehrs selbst. Ein Bericht der Cloud-Plattform Fastly zeigt den wachsenden Einfluss automatisierter KI-Anfragen. Dabei fallen zwei Hauptgruppen auf: KI-Crawler durchkämmen das Netz systematisch für Trainingsdaten, während Fetcher-Bots wie ChatGPTs Agenten Inhalte in Echtzeit abrufen, um Nutzeranfragen zu beantworten.

Zwischen April und Juli 2025 entfielen laut Fastly 80 Prozent des beobachteten KI-Bot-Verkehrs auf Crawler. Meta dominiert mit 52 Prozent aller KI-Crawler-Anfragen. Die intensive Datensammlung kann selbst ohne böswillige Absicht zu erheblichem Bandbreitenverbrauch führen und Server ähnlich wie bei DDoS-Angriffen überlasten.

In einem von iX durchgeführten Benchmark für agentische KI-Workflows setzt sich Anthropics Opus 4.1 mit einer Erfolgsquote von 90,1 Prozent an die Spitze. OpenAIs GPT-5 folgt mit 79,8 Prozent, während GLM-4.5 von Zhipu AI mit 75,4 Prozent den dritten Platz belegt. Der Test simuliert mehrstufige Dialoge zwischen Nutzern und Unternehmens-Chatbots mit verschiedenen Werkzeugen und Aufgaben.

Der Einsatz von Reasoning-Fähigkeiten verbessert die Ergebnisse deutlich, treibt aber auch Kosten und Bearbeitungszeit in die Höhe. Mit knapp 25 Euro pro Test verursachte GPT-5 viermal höhere Kosten als GLM-4.5, während Opus mit 265 Euro mehr als das Zehnfache kostete. Im Preis-Leistungs-Verhältnis liegt GPT-5 vor Anthropics Modellen, während GLM-4.5 durch ähnliche Qualität bei geringeren Kosten und höherer Geschwindigkeit überzeugt. Den ausführlichen Test könnt Ihr bei heise+ nachlesen. Dafür gibt es ein besonderes Angebot für unsere Podcast-Community unter

OpenAI hat im Juli erstmals einen monatlichen Umsatz von einer Milliarde US-Dollar erzielt. Für das Gesamtjahr rechnet das Unternehmen mit einer Verdreifachung auf 12,7 Milliarden US-Dollar. Die Zahl der ChatGPT-Plus- und -Pro-Abonnenten stieg trotz des vielfach kritisierten GPT-5-Starts weiter an.

Trotz der wachsenden Einnahmen schreibt das Unternehmen weiterhin rote Zahlen. Die größte Herausforderung bleibt die benötigte Rechenleistung, die das verfügbare Angebot übersteigt. CEO Sam Altman sprach kürzlich von notwendigen Investitionen in Rechenzentren in Billionenhöhe. Für 2025 wird eine Cash-Burn-Rate von etwa acht Milliarden US-Dollar erwartet.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Das chinesische KI-Unternehmen Deepseek hat sein neues Modell V3.1 vorgestellt, das dem Trend zu hybriden Systemen mit Chat- und Reasoning-Modus folgt. Beide Modi unterstützen ein Kontextfenster von 128.000 Tokens. Das Modell wurde mit 840 Milliarden zusätzlichen Tokens auf Basis der Vorgängerversion weitertrainiert.

Bemerkenswert ist Deepseeks aggressive Preisgestaltung: Die Ausgabe von Tokens kostet nur 1,68 Dollar pro Million, während OpenAI und Google 10 Dollar und Anthropic sogar 75 Dollar verlangen. Zusätzlich stehen die Modell-Gewichte unter MIT-Lizenz auf Hugging Face zur Verfügung. In Coding-Benchmarks erreicht V3.1 Ergebnisse auf Augenhöhe mit den neuesten Modellen von Anthropic und OpenAI.

Meta hat einen temporären Einstellungsstopp für KI-Experten verhängt, während die Superintelligence-Abteilung umstrukturiert wird. Auch interne Positionswechsel sind derzeit nicht möglich. Ein Unternehmenssprecher erklärte, es gehe um die „Schaffung einer soliden Struktur für unsere neuen Bemühungen im Bereich der Superintelligenz“.

Die mit Milliarden finanzierte Abteilung wird in vier Teams aufgeteilt: eines für die Entwicklung einer Superintelligenz, eines für Produktentwicklung, eines für Infrastruktur und ein wissenschaftliches Team. Letzteres dürfte das in Paris ansässige FAIR-Team (Fundamental AI Research) unter Turing-Preisträger Yann LeCun sein. Während im Silicon Valley meist eine Artificial General Intelligence (AGI) angestrebt wird, verfolgt Metas Forschungsteam das Konzept einer Advanced Machine Intelligence (AMI).

Mustafa Suleyman, Chef von Microsoft AI und Mitbegründer von DeepMind, warnt vor KI-Systemen, die Bewusstsein so überzeugend vortäuschen könnten, dass Menschen ihnen echte Gefühle zuschreiben. Diese „Seemingly Conscious AI“ könnte bereits in zwei bis drei Jahren Realität werden, ohne dass technologische Durchbrüche nötig wären.

Die Kombination aus eloquenter Sprache, empathischer Persönlichkeit, präzisem Gedächtnis und der Behauptung eigener Wünsche reiche aus. Suleyman befürchtet „KI-Psychosen“ – wahnhafte Überzeugungen durch Chatbot-Interaktionen – und fordert die Branche zum Handeln auf. Unternehmen sollten niemals behaupten, ihre KI sei bewusst, und stattdessen bewusste Unterbrechungen in Interaktionen einbauen, um die Illusion zu brechen.

Eine Anfrage an Googles KI-Software Gemini verbraucht nach Unternehmensangaben durchschnittlich 0,24 Wattstunden – etwa so viel wie neun Sekunden Fernsehen. Dabei werden rund fünf Tropfen Wasser zur Kühlung der Rechenzentren benötigt. OpenAI beziffert den Energiebedarf einer ChatGPT-Anfrage auf 0,34 Wattstunden, vergleichbar mit einer Sekunde Backofen-Betrieb.

Die Angaben beider Unternehmen lassen allerdings das energieintensive Training der KI-Modelle außer Acht. Zudem führt die Masse der Nutzung trotz Effizienzgewinnen bei einzelnen Anfragen insgesamt zu einem sprunghaften Anstieg des Strombedarfs für KI-Rechenzentren.

Die Commonwealth Bank of Australia (CBA) hat ihre Entscheidung, 45 Kundenservice-Stellen durch KI zu ersetzen, rückgängig gemacht. Das Finanzinstitut hatte Ende 2024 mit dem Test eines generativen KI-Chatbots namens „Hey CommBank“ begonnen, was bei den rund 2400 Callcenter-Mitarbeitern Ängste vor weiteren Stellenstreichungen auslöste.

Die Finance Sector Union (FSU) feiert das Umdenken als ihren Erfolg und wirft der Bank vor, Stellenstreichungen als Innovation verpacken zu wollen. Die CBA ist nicht das erste Unternehmen, das den Ersatz menschlicher Arbeitskräfte durch KI zurücknimmt. Auch das schwedische Fintech Klarna kehrte im Mai zu menschlichen Mitarbeitern zurück, nachdem KI-Bemühungen offenbar nicht den erhofften Erfolg brachten.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Künstliche Intelligenz

Private Chats mit Grok via Google öffentlich auffindbar


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Gespräche mit Grok, dem KI-Chatbot von xAI, sind laut einem Medienbericht teilweise in Suchmaschinen gelandet und damit öffentlich geworden. Möglich macht das die „Teilen“-Funktion des Chatbots. Sobald jemand einen Chat mit Dritten teilt, könnten auch Suchmaschinen darauf zugreifen, berichtet das US-Magazin Forbes.

Beim Teilen eines Chats erstellt Grok eine URL, die man anderen Personen schicken kann. Doch was Grok nicht direkt kommuniziert hat: Diese URLs waren auch für Suchmaschinen beziehungsweise deren Crawler sichtbar. Damit landen die Inhalte gegebenenfalls in den Suchergebnissen. Laut Forbes sollen rund 370.000 Gespräche mit dem Bot öffentlich bei Google zu finden sein. Darunter seien Anleitungen zum Bau von Bomben, aber auch Pläne, Elon Musk umzubringen. Zudem gäbe es Chats, bei denen es um sensible Themen wie Gesundheit und Sexualität geht.

Dabei verstoßen manche der Inhalte sogar gegen die Nutzungsrichtlinien von Grok. Pläne zum Bau von Waffen etwa gehören dazu. Das scheint den Chatbot aber nicht davon abgehalten zu haben, bei der Erstellung solcher Pläne zumindest zu helfen. xAI hat sich dazu gegenüber Forbes nicht geäußert.

Ungewollt veröffentlichte Chats haben auch kürzlich bei OpenAI dazu geführt, dass das Unternehmen eine Teilen-Funktion zurückgenommen hat. Zwar blieben die Chats privat, auch wenn man die Teilen-Funktion nutzte. Es gab aber eine zusätzliche Auswahl, die viele Menschen offenbar falsch verstanden. „Mache diesen Chat auffindbar“ stand da. Wer den Haken gesetzt hat, sorgte ebenfalls dafür, dass die Gespräche in Suchmaschinen auftauchten.

Google hat für Gemini keine Möglichkeit eingerichtet, die KI-Chats derart öffentlich zu machen, bei Meta AI gibt es widerum die konkrete Veröffentlichung von Gesprächen. Problematisch bei Grok und ChatGPT war vor allem das fehlende Verständnis darüber, dass die Chats bei Google auftauchen.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

Windows-10-Ende: taugen macOS, Chrome OS und Linux als Alternative? | c’t uplink


Das Ende von Windows 10 naht: Ab Herbst gibt es Sicherheitsupdates nur noch gegen Bezahlung. Ein Umstieg auf Windows 11 ist aber nicht immer möglich, da Microsoft teils sehr hohe Hardware-Anforderungen stellt. Selbst recht gute Rechner werden so als Elektroschrott deklariert. Doch es muss nicht zwangsläufig Windows sein: Alternativen wie macOS, ChromeOS oder Linux sind mittlerweile auf Desktop-PCs und Notebooks so stark verbreitet wie lange nicht mehr.


Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Den wöchentlichen c’t-Podcast c’t uplink gibt es …

Apple hat etwa über den Umweg von iPhone und iPad geschafft, neue Kundschaft für macOS zu finden. Google lockt mit ChromeOS nicht nur die Android-Anwender. Und benutzerfreundliche Linux-Distributionen gewinnen auch abseits von Konsolenfreunden immer mehr Nutzer.

Im c’t uplink erklärt c’t-Redakteur Peter Siering, wie man auch günstig an einen Apple-Rechner kommt und was bei macOS anders ist. Welche Linux-Distributionen sich für Einsteiger eignen und wie man den Umstieg vorbereitet, erläutert sein Kollege Niklas Dierking. Gemeinsam mit Moderator Keywan Tonekaboni diskutieren sie die Vor- und Nachteile von ChromeOS, macOS und Linux und geben Tipps, wie man seine Daten von Windows auf die Alternativen umzieht und wie man in fremden Gefilden passende Apps findet.

Zu Gast im Studio: Peter Siering und Niklas Dierking
Host: Keywan Tonekaboni
Produktion: Gordon Hof

Die im c’t uplink besprochenen Artikel zu Windows-Alternativen. (€)

In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.

c’t Magazin
c’t auf Mastodon
c’t auf Instagram
c’t auf Facebook
c’t auf Bluesky
c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!


(ktn)





Source link

Weiterlesen

Künstliche Intelligenz

Fugaku Next: Japans nächster Vorzeige-Supercomputer kommt mit Nvidia-GPUs


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Nvidia darf sich über ein weiteres Prestigeprojekt mit den eigenen GPU-Beschleunigern fürs Training von KI-Modellen freuen. Das japanische Forschungsinstitut Riken will Nvidia-GPUs in seinem nächsten Supercomputer Fugaku Next einsetzen.

Das Riken betreibt im Riken Center for Computational Science (R-CCS) Japans schnellsten Supercomputer. Aktuell ist das Fugaku, der 2020 sogar die Top500-Liste anführte. In der sind die weltweit schnellsten Systeme gesammelt, allerdings ohne private Supercomputer der Hyperscaler Google, Meta, Microsoft & Co. sowie mittlerweile ohne neue chinesische Einträge. Heute befindet sich Fugaku auf Platz 7.

Im Fugaku rechnen ausschließlich ARM-Prozessoren vom Typ A64FX, entworfen von der japanischen Firma Fujitsu. Knapp 160.000 CPUs befinden sich im System. Jeder Prozessor hat 48 CPU-Kerne für allgemeine Aufgaben und greift auf 32 GByte High-Bandwidth Memory (HBM2) zurück. Die meiste Rechenleistung der bis zu 537 Petaflops bei doppelter Genauigkeit kommt von den integrierten Vektoreinheiten.


Für Fugaku Next entwirft Fujitsu einen A64FX-Nachfolger mit dem Codenamen Monaka-X. Schon zur Ankündigung im Juni verwies das Riken auf Nvidias inzwischen geöffneten Interconnect Nvlink Fusion hin. Darüber lassen sich eigene CPUs und Nvidias GPUs mit hoher Geschwindigkeit aneinanderkoppeln. Das kann etwa das Training von KI-Modellen erleichtern.

Die Designphase für Fugaku Next wollen die drei Partner Riken, Fujitsu und Nvidia bis zum Februar 2026 abschließen. Ein Betrieb ab 2027 wäre realistisch. Der Supercomputer dürfte von da an zur Exascale-Klasse gehören, also über eine Trillion Rechenoperationen pro Sekunde schaffen. Nvidias kommender Blackwell-Nachfolger Rubin wäre für die GPUs ein heißer Kandidat.


(mma)



Source link

Weiterlesen

Beliebt