Connect with us

Künstliche Intelligenz

KI-Update kompakt: Gemini Live, AI Mode, GPT-5-Test, KI-Psychosen


Google hat bei seinem „Made by Google“-Event Verbesserungen für seinen KI-Assistenten Gemini Live vorgestellt. Der Assistent kann nun das Kamerabild analysieren und gleichzeitig Gespräche führen. Neu ist die Integration mit Google Calendar, Keep und Tasks sowie eine „Visuelle Führung“-Funktion, die Objekte im Bild markieren kann. Fragt man etwa vor dem Gewürzregal nach Ersatzmöglichkeiten, umkreist Gemini passende Alternativen. In den kommenden Wochen soll das zugrundeliegende KI-Modell zudem verbesserte sprachliche Fähigkeiten erhalten.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Mit „Gemini for Home“ löst Google zudem seinen bisherigen Smart-Home-Assistenten ab. Der neue Dienst soll natürlichere Sprache verstehen und komplexere Anweisungen verarbeiten können. Nutzer können mehrere Befehle in einem Satz kombinieren oder Dialoge ohne wiederholte Aktivierungsphrasen führen. Ab Oktober will Google erste Geräte über ein Early-Access-Programm mit der neuen KI ausstatten.

Google rollt seinen KI-gestützten Suchmodus in 180 weiteren Ländern aus, jedoch nicht in der EU. Der „AI Mode“ bleibt zudem vorerst auf Englisch beschränkt. In den USA erhält die Funktion nun agentische Fähigkeiten, die praktische Aufgaben übernehmen sollen. Nutzer können etwa Restaurantreservierungen vornehmen, wobei die KI auf Google Maps zugreift, um passende Lokale im gewünschten Umkreis zu finden.

Die neue Funktionalität basiert auf Googles „Project Mariner“ und verbindet Echtzeit-Suche mit dem Knowledge Graph und Google Maps. Zudem lässt sich der AI Mode personalisieren und merkt sich Vorlieben des Nutzers – zunächst allerdings nur beim Thema Essen. Diese Gedächtnisfunktion kann auf Wunsch deaktiviert werden.

Chatbots und KI-Modelle verändern nicht nur die Informationssuche, sondern auch die Struktur des Internetverkehrs selbst. Ein Bericht der Cloud-Plattform Fastly zeigt den wachsenden Einfluss automatisierter KI-Anfragen. Dabei fallen zwei Hauptgruppen auf: KI-Crawler durchkämmen das Netz systematisch für Trainingsdaten, während Fetcher-Bots wie ChatGPTs Agenten Inhalte in Echtzeit abrufen, um Nutzeranfragen zu beantworten.

Zwischen April und Juli 2025 entfielen laut Fastly 80 Prozent des beobachteten KI-Bot-Verkehrs auf Crawler. Meta dominiert mit 52 Prozent aller KI-Crawler-Anfragen. Die intensive Datensammlung kann selbst ohne böswillige Absicht zu erheblichem Bandbreitenverbrauch führen und Server ähnlich wie bei DDoS-Angriffen überlasten.

In einem von iX durchgeführten Benchmark für agentische KI-Workflows setzt sich Anthropics Opus 4.1 mit einer Erfolgsquote von 90,1 Prozent an die Spitze. OpenAIs GPT-5 folgt mit 79,8 Prozent, während GLM-4.5 von Zhipu AI mit 75,4 Prozent den dritten Platz belegt. Der Test simuliert mehrstufige Dialoge zwischen Nutzern und Unternehmens-Chatbots mit verschiedenen Werkzeugen und Aufgaben.

Der Einsatz von Reasoning-Fähigkeiten verbessert die Ergebnisse deutlich, treibt aber auch Kosten und Bearbeitungszeit in die Höhe. Mit knapp 25 Euro pro Test verursachte GPT-5 viermal höhere Kosten als GLM-4.5, während Opus mit 265 Euro mehr als das Zehnfache kostete. Im Preis-Leistungs-Verhältnis liegt GPT-5 vor Anthropics Modellen, während GLM-4.5 durch ähnliche Qualität bei geringeren Kosten und höherer Geschwindigkeit überzeugt. Den ausführlichen Test könnt Ihr bei heise+ nachlesen. Dafür gibt es ein besonderes Angebot für unsere Podcast-Community unter

OpenAI hat im Juli erstmals einen monatlichen Umsatz von einer Milliarde US-Dollar erzielt. Für das Gesamtjahr rechnet das Unternehmen mit einer Verdreifachung auf 12,7 Milliarden US-Dollar. Die Zahl der ChatGPT-Plus- und -Pro-Abonnenten stieg trotz des vielfach kritisierten GPT-5-Starts weiter an.

Trotz der wachsenden Einnahmen schreibt das Unternehmen weiterhin rote Zahlen. Die größte Herausforderung bleibt die benötigte Rechenleistung, die das verfügbare Angebot übersteigt. CEO Sam Altman sprach kürzlich von notwendigen Investitionen in Rechenzentren in Billionenhöhe. Für 2025 wird eine Cash-Burn-Rate von etwa acht Milliarden US-Dollar erwartet.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Das chinesische KI-Unternehmen Deepseek hat sein neues Modell V3.1 vorgestellt, das dem Trend zu hybriden Systemen mit Chat- und Reasoning-Modus folgt. Beide Modi unterstützen ein Kontextfenster von 128.000 Tokens. Das Modell wurde mit 840 Milliarden zusätzlichen Tokens auf Basis der Vorgängerversion weitertrainiert.

Bemerkenswert ist Deepseeks aggressive Preisgestaltung: Die Ausgabe von Tokens kostet nur 1,68 Dollar pro Million, während OpenAI und Google 10 Dollar und Anthropic sogar 75 Dollar verlangen. Zusätzlich stehen die Modell-Gewichte unter MIT-Lizenz auf Hugging Face zur Verfügung. In Coding-Benchmarks erreicht V3.1 Ergebnisse auf Augenhöhe mit den neuesten Modellen von Anthropic und OpenAI.

Meta hat einen temporären Einstellungsstopp für KI-Experten verhängt, während die Superintelligence-Abteilung umstrukturiert wird. Auch interne Positionswechsel sind derzeit nicht möglich. Ein Unternehmenssprecher erklärte, es gehe um die „Schaffung einer soliden Struktur für unsere neuen Bemühungen im Bereich der Superintelligenz“.

Die mit Milliarden finanzierte Abteilung wird in vier Teams aufgeteilt: eines für die Entwicklung einer Superintelligenz, eines für Produktentwicklung, eines für Infrastruktur und ein wissenschaftliches Team. Letzteres dürfte das in Paris ansässige FAIR-Team (Fundamental AI Research) unter Turing-Preisträger Yann LeCun sein. Während im Silicon Valley meist eine Artificial General Intelligence (AGI) angestrebt wird, verfolgt Metas Forschungsteam das Konzept einer Advanced Machine Intelligence (AMI).

Mustafa Suleyman, Chef von Microsoft AI und Mitbegründer von DeepMind, warnt vor KI-Systemen, die Bewusstsein so überzeugend vortäuschen könnten, dass Menschen ihnen echte Gefühle zuschreiben. Diese „Seemingly Conscious AI“ könnte bereits in zwei bis drei Jahren Realität werden, ohne dass technologische Durchbrüche nötig wären.

Die Kombination aus eloquenter Sprache, empathischer Persönlichkeit, präzisem Gedächtnis und der Behauptung eigener Wünsche reiche aus. Suleyman befürchtet „KI-Psychosen“ – wahnhafte Überzeugungen durch Chatbot-Interaktionen – und fordert die Branche zum Handeln auf. Unternehmen sollten niemals behaupten, ihre KI sei bewusst, und stattdessen bewusste Unterbrechungen in Interaktionen einbauen, um die Illusion zu brechen.

Eine Anfrage an Googles KI-Software Gemini verbraucht nach Unternehmensangaben durchschnittlich 0,24 Wattstunden – etwa so viel wie neun Sekunden Fernsehen. Dabei werden rund fünf Tropfen Wasser zur Kühlung der Rechenzentren benötigt. OpenAI beziffert den Energiebedarf einer ChatGPT-Anfrage auf 0,34 Wattstunden, vergleichbar mit einer Sekunde Backofen-Betrieb.

Die Angaben beider Unternehmen lassen allerdings das energieintensive Training der KI-Modelle außer Acht. Zudem führt die Masse der Nutzung trotz Effizienzgewinnen bei einzelnen Anfragen insgesamt zu einem sprunghaften Anstieg des Strombedarfs für KI-Rechenzentren.

Die Commonwealth Bank of Australia (CBA) hat ihre Entscheidung, 45 Kundenservice-Stellen durch KI zu ersetzen, rückgängig gemacht. Das Finanzinstitut hatte Ende 2024 mit dem Test eines generativen KI-Chatbots namens „Hey CommBank“ begonnen, was bei den rund 2400 Callcenter-Mitarbeitern Ängste vor weiteren Stellenstreichungen auslöste.

Die Finance Sector Union (FSU) feiert das Umdenken als ihren Erfolg und wirft der Bank vor, Stellenstreichungen als Innovation verpacken zu wollen. Die CBA ist nicht das erste Unternehmen, das den Ersatz menschlicher Arbeitskräfte durch KI zurücknimmt. Auch das schwedische Fintech Klarna kehrte im Mai zu menschlichen Mitarbeitern zurück, nachdem KI-Bemühungen offenbar nicht den erhofften Erfolg brachten.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Künstliche Intelligenz

macOS 26 Tahoe: Menüleiste verwirrt mit doppelter Konfigurierbarkeit


Apple hat mit macOS 26 alias Tahoe nicht nur Look & Feel seines Mac-Betriebssystems im Liquid-Glass-Design aufgeputzt, sondern auch an einer ganzen Reihe von Bedienbereichen geschraubt. Dazu gehören auch die Menüleisten-Icons und deren Steuerung – sowie die Art, wie das Kontrollzentrum nun funktioniert. Die Veränderungen folgen dabei nicht unbedingt logischen Prinzipien. So gibt es jetzt gleich mehrere Kontrollzentren, wenn man dies wünscht, in die dann frühere Funktionen aus der Menüleiste gewandert sind. Alles in allem wirkt dies, zumindest am Anfang, recht chaotisch. Hier einige Tipps, wie Sie damit arbeiten.

Zunächst gibt es wie gehabt zwei getrennte Bereiche zur Menüleistensteuerung: Das Menü „Menüleiste“ in den Systemeinstellungen sowie die Steuerung des Kontrollzentrums über „Steuerelemente bearbeiten“ (ganz unten im geöffneten Kontrollzentrum). Wird das Kontrollzentrum bearbeitet, verschwinden alle Fenster im Hintergrund und man bekommt ein Auswahlmenü, das alle möglichen Elemente erfasst und glücklicherweise eine Suche hat.

Hier geht man dann auf das gewünschte Element und klickt es, kann dann aber gleich auswählen, ob das Element denn bitte in das Kontrollzentrum eingeordnet werden soll oder in die Menüleiste. Manche der Menüleisten-Icons wie Spotlight, WLAN, Bluetooth oder Ton werden verwirrenderweise nur über „Menüleiste“ in den Systemeinstellungen gesteuert, obwohl sie oft parallel ein Element im Kontrollzentrum besitzen.

Neu in macOS 26 ist, dass man mehrere Kontrollzentren in die Menüleiste einklinken kann. Dazu taucht, sobald Sie „Steuerelemente bearbeiten“ aktiv haben, ein Plus in der Menüleiste auf. Jedes neue Kontrollzentrum kann man dann wieder mit eigenen Elementen befüllen – und so beispielsweise das in macOS 26 gestrichene Kurzbefehle-Menüleisten-Icon wiederbeleben, indem man dieses in Form von Steuerelementen nachbaut.

Interessanterweise kann man so viele Kontrollzentren andocken, wie man möchte – beziehungsweise wie viel Platz ist. Auch die Icons sind definierbar. Die Zweit-, Dritt- und Viert-Kontrollzentren sehen zudem anders aus als das bekannte Standard-Kontrollzentrum und arbeiten mit dem aus iOS bekannten Look.


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

Apples nächster CEO: Spekulationen um die Nachfolge vom Tim Cook


Apple-CEO Tim Cook steht kurz vor seinem 65. Geburtstag. Am 1. November erreicht er das Alter, in dem man in vielen Ländern normalerweise in Rente geht. Aktuell rechnet kein seriöser Beobachter damit, dass der seit 2011 amtierende Konzernchef bald in Pensionierung geht, doch das gesamte Apple-Management wird älter – und prominente Abgänge wie COO Jeff Williams, der einst gar als möglicher Cook-Nachfolger galt, sorgen für Spekulationen. Bloomberg-Journalist Mark Gurman, in Apple-Kreisen gut vernetzt, gab der Debatte um einen möglichen Cook-Nachfolger am Wochenende in seinem Newsletter neue Nahrung: Er rückte dort Hardware-Chef John Ternus in den Fokus, dessen Name schon seit Längerem kursiert.

Gurman beschreibt einmal mehr, wie es Cook gelungen ist, wichtige Manager wie Ex-Marketingboss Phil Schiller oder Ex-Finanzchef Luca Maestri im Unternehmen zu halten. Bei Williams gelang das Cook allerdings nicht, er wird Ende des Jahres tatsächlich in Rente gehen. Unklar bleibe, was mit KI-Chef John Giannandrea geschieht, der immer wieder im Zentrum von Kritik steht (etwa in Sachen Siri).

Statt Mike Rockwell, der als zentrale Figur hinter der Vision Pro gilt und derzeit Apples Sprachassistentin auf Vordermann bringen soll, könnte laut Gurman jemand von Außen kommen, um Apples KI-Fehlstart zu retten. Angeblich steht ein hoher Manager von Metas KI-Abteilung im Blickfeld. Vor einem möglichen Ende seiner Laufbahn steht auch Chip-Chef Johny Srouji, schreibt Gurman. Er habe aber noch keine Entscheidung getroffen. Interne Nachfolger gibt es hier aber. Das Rententhema besprochen haben soll auch Umweltchefin Lisa Jackson, die seit 2013 bei Apple ist – auch sie nähert sich der Altersgrenze.

Cook wiederum fehlt laut Gurman nach dem Abgang von Williams eine echte Nummer zwei. Ternus dürfte das zunächst nicht werden, da er im Hardware-Bereich genug zu tun hat – allerdings bleibe er, so Gurman, wichtigster Kandidat für die CEO-Rolle. Dazu gehört sein Alter mit nun 50 – er hätte also noch viel Zeit für den Konzern. Ternus ist zudem als Technologe eigentlich genau die Person, die Apple jetzt braucht, um den Konzern zukunftsfest zu machen – Produktion und Verkäufe laufen nach wie vor wie am Schnürchen.

Ternus ist zudem intern wie extern sehr beliebt. Cook vertraue ihm, so Gurman, und er sei charismatisch. Zuletzt hatte Apple Ternus bei der iPhone-17-Keynote auch eine wichtige Rolle zugedacht. Und selbst wenn der Ingenieur, der seit 2001 bei Apple arbeitet, CEO wird, bleibt Cook Apple sicher weiter erhalten – etwa als Chef des Verwaltungsrats. Die Frage ist nun, wann sich Apple den Wechsel vorstellt.


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

Raspi-Konkurrenz: Qualcomm schluckt Arduino und stellt Einplatinencomputer vor


Qualcomm übernimmt den für seine Mikrocontroller-Boards bekannten Hersteller Arduino. Direkt zur Übernahme stellt Qualcomm seinen ersten Einplatinencomputer für Bastelprojekte vor: den Arduino Uno Q. Saßen auf bisherigen Uno-Boards nur kleine Mikrocontroller für simple Aufgaben, kommt der Uno Q mit einem Chipduett aus Mikrocontroller (MCU) und Mikroprozessor (MPU), sodass etwa Linux eigenständig auf dem Board läuft.

Schon die MCU in Form des STMicroelectronics STM32U585 ist deutlich schneller als der Renesas RA4M1 auf dem Arduino Uno R4. Die neue Variante setzt auf den ARM-Kern Cortex-M33 mit 160 MHz (Uno R4: Cortex-M4, 48 MHz).


(Bild:

Arduino

)

Zusätzlich sitzt Qualcomms Dragonwing QRB2210 auf der Platine. In ihm stecken vier ARM-Kerne vom Typ Cortex-A53, die 2,0 GHz schaffen. Außerdem gibt es eine integrierte Grafikeinheit und Zusatzblöcke wie Bildsignalprozessoren. Arduino und Qualcomm bewerben das Board auch für KI-Anwendungen (Edge AI).

Eine eigenständige KI-Einheit hat der QRB2210-Prozessor nicht, allerdings sollen die CPU und die GPU für einige KI-Algorithmen ausreichen, etwa zur Bilderkennung. Nützlich dafür: Der QRB2210 kann zwei Bildsensoren mit jeweils 13 Megapixeln oder einen einzelnen 25-Megapixel-Sensor ansteuern. Ein Hardware-De- und Enkodierer beherrscht H.265 und H.264 für 1080p-Videos mit 30 fps.

Zum Start bringt Arduino eine Variante mit 2 GByte LPDDR4-RAM und 16 GByte NAND-Flash-Speicher (eMMC) für 39 Euro auf den Markt. Sie soll ab heute vorstellbar und ab dem 25. Oktober verfügbar sein. Eine Version mit 4 GByte RAM und 32 GByte Flash soll ab November für 53 Euro vorbestellbar sein und bis zum Jahresende folgen. Ein Funkmodul für Wi-Fi 5 (2,4 + 5 GHz) und Bluetooth 5.0 ist stets dabei.


Übersicht der Komponenten auf dem Arduino Uno Q

Übersicht der Komponenten auf dem Arduino Uno Q

Alle Komponenten des Arduino Uno Q. Prozessor und Mikrocontroller befinden sich auf gegenüberliegenden Seiten.

(Bild: Arduino)

Das Cortex-A53-Kerndesign ist bereits 13 Jahre alt, ist aber für viele Bastelprojekte schnell genug. Damals saß er als Effizienzkern in vielen Smartphone-Prozessoren. CPU-seitig ist der Arduino Uno Q grob mit dem Raspberry Pi 3 von 2016 vergleichbar. Dessen Broadcom-BCM2837-Prozessor nutzt ebenfalls vier Cortex-A53-Kerne, die ab Werk mit 1,2 GHz allerdings ein gutes Stück niedriger takten.

Charmant erscheint die Kombination aus Mikrocontroller und Mikroprozessor aus Effizienzsicht. Auf dem integrierten Speicher des STMicro-Chips läuft Arduino Core, basierend auf Zephyr OS. Der Qualcomm-Prozessor kann sich fast komplett schlafen legen, wenn dessen Leistung nicht notwendig ist. Auf ihm laufen Debian-Linux-Betriebssysteme mit Upstream-Support sowie Unterstützung für Docker und Docker Compose.

Das neue Arduino App Lab dient als Entwicklungsumgebung für die CPU, GPU und MCU. Die Arduino-Entwickler betonen, dass sie auch nach der Qualcomm-Übernahme auf Open-Source setzen – Hardware-Komponenten wollen sie unter der Lizenz CC BY-SA 4.0 offenlegen, Software unter GPL3 und MPL.

Der größte Unterschied zu Raspberry-Pi-Einplatinencomputern liegt bei den Anschlüssen. Außer den GPIO-Pinleisten hat der Arduino Uno Q ausschließlich einen USB-C-Anschluss. Der Hersteller sieht den Einsatz eines USB-Hubs für die Stromversorgung (5 Volt, 3 Ampere), HDMI-Bildausgabe (max. 1680 x 720 Pixel mit 60 Hert) und Peripherie vor. Der Anschluss schafft allerdings nur USB-2.0-Geschwindigkeit. Alternativ bekommt der Arduino Uno Q über GPIO-Pins Strom.

Es gibt keine eigenständigen Bildausgänge, keinen SD-Kartenslot zur Speichererweiterung und kein PCI Express (etwa für eine SSD). Qualcomm und Arduino versehen die Platinenunterseite allerdings mit neuen Pinleisten, für die künftig Erweiterungs-Boards erscheinen sollen, Arduino Carriers genannt.

Die Platinenbauform, Positionierung der Header (QWIIC, SPI 3V3) und GPIO-Pinleisten bleiben identisch, sodass bisherige Gehäuse und Zusatz-Hardware weiter passen. Auch die LED-Matrix ist weiterhin mit dabei. Der Arduino Uno Q versteht sich unter anderem auch auf die Interfaces I2C/I3C, CAN, UART, PSSI, JTAG und ADC.


Tabelle mit den Spezifikationen zum Arduino Uno Q.

Tabelle mit den Spezifikationen zum Arduino Uno Q.

Spezifikationen des Arduino Uno Q.

(Bild: Arduino)


(mma)



Source link

Weiterlesen

Beliebt