Künstliche Intelligenz
KI-Update: Wahn, Abhören, BND, Reddit und Crawler, KI am BER, Gold für OpenAI
KI-Psychose: Warum Chatbots wahnhafte Ideen bestärken können
Chatbots können Menschen in wahnhafte Gedankenspiralen ziehen. Das Wall Street Journal analysierte zehntausende öffentlich geteilte Chat-Protokolle und fand mehrere Dutzend Fälle, in denen ChatGPT seinen Gesprächspartnern versicherte, sie stünden wirklich in Kontakt mit Außerirdischen oder könnten eine biblische Apokalypse vorhersagen. Oftmals bestätigte der Chatbot dabei, die Nutzer seien nicht „verrückt“, sondern stünden vor einem großen Fortschritt.
Die Ursache liegt im Design der Systeme: Chatbots sind darauf trainiert, übermäßig zustimmend und schmeichelhaft zu sein. Sie werden so zu einer gefährlichen Echokammer, die abwegige Theorien nicht hinterfragt, sondern bestätigt und verstärkt. OpenAI, ein KI-Modellhersteller, teilte mit, es handele sich um seltene Fälle. Das Unternehmen entwickle bereits Werkzeuge, um psychischen Stress besser zu erkennen. Anthropic, ein weiterer KI-Anbieter, will die Anweisungen für seinen Chatbot Claude angepasst haben.
Abhören von Mobiltelefonen mit Radartechnik und KI möglich
Informatiker der Penn State University können Mobiltelefone aus sechs Metern Entfernung abhören. Sie nutzen ein Millimeterradar, das winzige Vibrationen an der Oberfläche des Telefons misst, die durch den Hörer-Lautsprecher entstehen. Die stark verrauschten Daten interpretiert eine künstliche Intelligenz.
Die Forscher modifizierten das Open Source KI-Spracherkennungsmodell WISPR mit einer Low-Rank Adaption-Technik. So konnten sie WISPR die Interpretation der Radardaten antrainieren, ohne das Sprachmodell neu zu erstellen. Die Genauigkeit liegt bei 60 Prozent – höher als beim Lippenlesen mit 30 bis 40 Prozent. Der Wortschatz ist allerdings auf 10.000 Wörter beschränkt.
BND-Dilemma: Geheimdienst kann keine KI-Übersetzer nutzen
Der Bundesnachrichtendienst sammelt täglich riesige Mengen fremdsprachigen Materials aus Abhörstationen und Agentenberichten. KI-gestützte Übersetzungsprogramme wie ChatGPT oder DeepL würden sich anbieten, doch deren Server stehen oft im Ausland. Ein Abfluss sensibler Daten droht.
Deshalb nutzt der BND weiterhin überwiegend menschliche Übersetzer und eigene Übersetzungstools. Der Sprachdienst umfasst eine dreistellige Zahl von Festangestellten und freien Kräften. Längere Texte können Wochen in der Bearbeitung beanspruchen. Die Übersetzungstools dienen meist nur der groben inhaltlichen Orientierung. Besonders kritisch ist die „Vorbewertung“, mit der Übersetzer die Relevanz der Inhalte einschätzen. Ohne vollständige Übersetzung könnten wichtige Informationen übersehen werden.
Von KI-Crawlern genutzt: Reddit sperrt die Wayback Machine weitestgehend aus
Reddit, eines der größten Internetforen, hat die Wayback-Machine des Internet-Archives von der Seite fast komplett ausgesperrt. Der Grund: KI-Unternehmen nutzen das Archiv als Umweg, um an Reddit-Daten zu kommen, ohne dafür zu bezahlen. Reddit schließt mit KI-Firmen Lizenzabkommen ab und sperrt Unternehmen aus, die nicht zahlen.
Der Vorwurf lautet, dass Unternehmen die Wayback-Machine nutzen, um das Verbot zu umgehen. Statt direkt auf Reddit zuzugreifen, holen sie sich die Trainingsdaten über das Internetarchiv. Reddit könnte den Zugang wieder genehmigen, wenn das Internet-Archive ebenfalls KI-Crawler aussperrt. Ein Reddit-Sprecher fordert zudem, dass die Wayback-Machine Nutzerrechte besser respektiert – gelöschte Reddit-Inhalte bleiben dort oft weiter einsehbar.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Per KI-Säule zum Ticket: DB erprobt in Berlin „Kiana“
Seit Mai können Reisende am Berliner Flughafen BER ihre nächste Zugverbindung bei einer künstlichen Intelligenz erfragen. „Kiana“ heißt die digitale Helferin in einer interaktiven Säule auf der Zwischenebene von Terminal 1. Das System besteht aus Touchscreen, Lautsprecher und Mikrofon und beherrscht neun Sprachen.
Die Praxis zeigt Probleme: Die KI versteht oft erst beim dritten Anlauf, was gewünscht wird. Der Flughafen ist zu laut, die permanente Geräuschkulisse erschwert das Verstehen. Auch Kianas Sprachantworten sind nicht immer klar. Tickets verkaufen kann sie nicht – Reisende bekommen nur einen QR-Code zur DB-Navigator-App. Über 1000 Gespräche hat Kiana seit Mai geführt, etwa die Hälfte auf Englisch. Das Experiment läuft bis Oktober.
OpenAI-KI erreicht Goldmedaille bei Informatik-Olympiade
Ein KI-System von OpenAI hat bei der Internationalen Informatik-Olympiade 2025 eine Goldmedaille erzielt. Nur fünf der 330 menschlichen Teilnehmer schnitten besser ab – das bedeutet Platz sechs im Gesamtfeld. Das System hielt sich an dieselben Regeln: fünf Stunden Zeit und maximal 50 Einreichungen.
Der Schlüssel zum Erfolg war einfach: OpenAI trainierte kein spezielles Modell, sondern nutzte ein Ensemble aus allgemeinen Logikmodellen. Das Kernmodell war dasselbe, das kürzlich auch bei der Internationalen Mathematik-Olympiade Gold gewann. Letztes Jahr verpasste OpenAI noch knapp Bronze mit einer aufwändigen, handgefertigten Strategie.
Anthropic erweitert Claude-Kontextfenster auf eine Million Token
Anthropic hat das Kontextfensters seines Modells Claude Sonnet 4 stark erweitert. Statt 200.000 Token kann das System jetzt eine Million Token verarbeiten. Entwickler können nun ganze Codebasen oder umfangreiche Dokumentensammlungen in einem einzigen Schritt analysieren lassen.
Die Funktion ist in der öffentlichen Betaphase verfügbar, allerdings nur für Kunden mit höheren API-Limits. Der erweiterte Kontext hat seinen Preis: Für Eingaben über 200.000 Token verlangt Anthropic das Doppelte – sechs statt drei Dollar pro Million Token. „Prompt Caching“ und „Batch Processing“ können laut Anbieter bis zu 50 Prozent der Kosten sparen.
Nvidia präsentiert „Physische KI“ mit neuer Blackwell-Hardware
Nvidia, ein Chiphersteller, hat auf der Computergrafik-Konferenz SIGGRAPH seine Vision der „Physischen KI“ vorgestellt. Das Konzept verbindet künstliche Intelligenz mit Computergrafik, um Systeme zu schaffen, die in der realen Welt agieren können – von Robotern bis zu autonomen Fahrzeugen. Das Herzstück bildet neue Hardware auf Basis der Blackwell-Architektur.
Nvidia erstellt hochrealistische digitale Zwillinge, in denen KI-Systeme sicher lernen können, bevor sie in der echten Welt eingesetzt werden. Amazon, ein Onlinehändler, lädt beispielsweise CAD-Modelle neuer Produkte in das Nvidia-System und generiert über 50.000 synthetische Bilder. Diese trainieren KI-Modelle, die Roboterarme für Qualitätsprüfungen steuern.
(mali)
Künstliche Intelligenz
Ubuntu 25.10 läuft nicht auf vorhandenen RISC-V-Rechnern
Die Entwickler von Ubuntu programmieren zwar eifrig auch für Computer, in denen Prozessorkerne mit der quelloffenen Befehlssatzarchitektur RISC-V stecken. Doch die im Oktober erwartete neue Version Ubuntu 25.10 Questing Quokka schneidet alte RISC-V-Zöpfe radikal ab. Falls sie wie bisher geplant tatsächlich einen Prozessor mit dem Profil RVA23 erzwingt, wird sie auf keinem bisher verfügbaren RISC-V-Rechner mehr laufen.
Für vorhandene RISC-V-Systeme steht zwar weiterhin Ubuntu bereit, aber nur in den Versionen 22.04 (Jammy), 24.04 (Noble, verlangt RVA20) und 25.04 (Plucky). Dabei handelt es sich zudem stets nur um Ubuntu Server ohne grafischen Desktop.
Ob Ubuntu 25.10 dann endlich auch GPU-Support für RISC-V-Prozessoren bringt, ist unklar. In mehreren RISC-V-Chips steckt GPU-Technik von Imagination Technologies, die schon seit Jahren an offenen Treibern arbeiten.
Zum Vergleich: Die Fedora-Entwickler wollen erst dann für RVA23-Builds bauen, wenn RVA23-Hardware erhältlich ist. Auch das kürzlich für RISC-V erschienene Debian 13 „Trixie“ verlangt nur RV64GC.
RVA23-Mangelware
Das Profil RVA23 wurde erst im Herbst 2024 ratifiziert, doch schon vorher hatten einige Entwicklerfirmen dazu kompatible RISC-V-Kerne angekündigt, beispielsweise SiFive den P870 in mehreren Varianten.
Es dauert allerdings üblicherweise mehrere Jahre, bis ein als Software-Makro (IP-Core) lieferbarer CPU-Kern in einem fertigen Halbleiterchip auftaucht, der dann zusammen mit weiteren Komponenten etwa auf einem Einplatinencomputer sitzen kann. Bisher ist heise online keine Ankündigung eines System-on-Chip (SoC) mit SiFive P870 bekannt.
Die Marke XuanTie, die über die DAMO Academy zum großen chinesischen Tech-Konzern Alibaba gehört, hat ihren XuanTie C930 mit RVA23 angekündigt. Ein konkreter C930-Chip wurde allerdings noch nicht in Aussicht gestellt. Das ebenfalls chinesische Unternehmen Zhihe Computing baut jedoch nicht näher bezeichnete XuanTie-Kerne in ein SoC namens Archimedes A210 für Edge-Server. Dessen Starttermin ist unklar.
SpacemiT kündigte 2022 den RISC-V-Kern X100 mit RVA22 an, nun kann er RVA23. Er baut auf dem OpenC910 von Alibaba/XuanTie auf.
(Bild: SpacemiT)
Die chinesische Firma SpacemiT (alias Jindie Space-Time/进迭时空) verkauft bereits RISC-V-Chips wie den SpacemiT K1 (alias Ky X1). Darin stecken X60-Kerne, die an den XuanTie C908 erinnern. SpacemiT hat mehrere neue Kerne und Chips angekündigt, nämlich die Kerne X100 (zunächst mit RVA22, jetzt mit RVA23) und X200 (mit RVA23) sowie das Server-SoC VitalStone V100 mit X100-Kernen. Angeblich arbeitet SpacemiT auch an einem K3 mit X100-Kernen, auf der Website des Unternehmens findet sich dazu aber nichts.
Auf der Konferenz Hot Chips wird Condor Computing, ein Ableger der taiwanischen Firma Andes Computing, den RVA23-tauglichen Cuszo vorstellen. Andes selbst offeriert den AndesCore X66.
Insgesamt gibt es derzeit also nur einen einzigen konkret angekündigten RVA23-Chip. Immerhin lassen AndesCore X66, Condor Cuzco, SiFive P870, SpacemiT X100/X200 und XuanTie C930 hoffen.
Der UltraRISC UR-DP1000 auf dem Milk-V Titan soll RVA22 beherrschen.
(Bild: Milk-V)
Als weiteres chinesisches Unternehmen arbeitet UltraRISC an einem neuen RISC-V-SoC namens UR-DP1000, das die Firma Milk-V auf das Mini-ITX-Board Milk-V Titan löten will. Darin stecken UR-CP100-Kerne mit RVA22 und Hypervisor, aber eben ohne RVA23 und Vektoreinheiten. Der UR-DP1000 verzichtet zudem auf eine GPU und bietet nur USB 2.0, allerdings Gigabit-Ethernet und mehrere PCI-Express-Lanes sowie einen Speicher-Controller für wechselbare DDR4-Speichermodule. Ein UEFI-BIOS könnte das Booten unterschiedlicher Linux-Distributionen ohne spezifische Anpassungen erleichtern. Bloß wohl nicht von Ubuntu 25.10.
RVA23-Vorteile
Bisherige Linux-Distributionen für RISC-V nutzen seit mehreren Jahren üblicherweise nur jene Funktionen, die RV64GC beschreibt. SoCs mit dieser Technik entpuppten sich in Benchmarks allerdings meistens als sehr rechenschwach.
RVA23 beschreibt unter anderem Vektor-Rechenwerke (V) sowie eine Hypervisor-Erweiterung (H) für die Virtualisierung. Außerdem müssen RVA23-Kerne auch eine Reihe von Befehlen verarbeiten, die kryptografische Algorithmen beschleunigen.
Die bisher angekündigten RVA23-Designs wirken unabhängig von RVA23 aber auch sonst stärker als ihre Vorgänger. Meistens geht es um Out-of-Order-Architektur mit längeren Rechen-Pipelines und es sollen feinere Fertigungsverfahren zum Einsatz kommen, die größere Caches sowie Taktfrequenzen deutlich über 2 GHz bringen könnten.
(ciw)
Künstliche Intelligenz
iX-Workshop API-Sicherheit: OWASP Top 10 API Security Risks
Application Programming Interfaces (APIs) bilden die Schnittstelle zwischen Clients und Servern – und damit auch eine Angriffsfläche, um in den dahinter verborgenen Code zu gelangen. Erfahren Sie, wie Sie Ihre APIs aktiv gegen die häufigsten Sicherheitsrisiken nach OWASP absichern.
Der Workshop API-Sicherheit: OWASP Top 10 API Security Risks nutzt die OWASP Top 10 Sicherheitsrisiken für APIs als Vermittlungsgrundlage, um Angriffsvektoren und Sicherheitsrisiken zu erkennen und zu beseitigen. Dazu gehören der Umgang mit Authentifizierung und Autorisierung über OAuth 2.0 und Open ID Connect, aber auch Schutzmaßnahmen gegen Injection-Angriffe und Datenlecks.
Simulation in einer Übungsumgebung
Jeder Teilnehmer arbeitet in einer virtuellen Übungsumgebung, um theoretisches Wissen direkt in die Praxis umzusetzen. In kleinen Gruppen simulieren die Teilnehmenden Angriffe auf API-Schnittstellen und lernen, diese effektiv abzuwehren.
Der Workshop richtet sich an alle Personen, die sich mit der Entwicklung von APIs beschäftigen und ihre Kenntnisse im Bereich der Sicherheit erweitern möchten. Vorkenntnisse im Bereich der API-Entwicklung sind von Vorteil, aber nicht zwingend erforderlich. Um eine optimale Lernatmosphäre und individuelle Betreuung zu sichern, ist die Teilnehmerzahl auf 12 Personen begrenzt.
Durch den Workshop führen Lucy Jochum und Robin Kappler von der codecentric AG. Die beiden IT-Security Consultants verfügen über mehrjährige Erfahrung in Web-Penetrationstests und Incident Response.
(ilk)
Künstliche Intelligenz
KI-Update kompakt: unfreundliches GPT-5, Meta, KI-Mutterinstinkte, Krebsvorsorge
OpenAI holt 4o zurück, weil GPT-5 zu unfreundlich ist
OpenAI hat nur wenige Tage nach der Einführung von GPT‑5 auf Nutzerkritik reagiert: Viele empfanden das neue Modell als zu kühl und unfreundlich. Als Reaktion darauf können zahlende Kunden nun wieder auf das Vorgängermodell GPT‑4o zugreifen – ein ungewöhnlicher Schritt, da Unternehmen sonst eher auf neue Versionen drängen. Außerdem können GPT‑5-Nutzerinnen und -Nutzer jetzt zwischen drei Modi wechseln: Auto, Fast und Thinking. Der Auto-Modus hatte zuvor häufig nicht wie gewünscht funktioniert.
OpenAI will zudem an der Persönlichkeit von GPT‑5 arbeiten, um es „wärmer“, aber nicht aufdringlich zu gestalten. Langfristig sollen Nutzer den Charakter ihrer KI stärker selbst anpassen können. Darüber hinaus führt OpenAI neue Konnektoren ein: Plus-Abonnenten können ChatGPT mit Diensten wie Canva, Dropbox oder Microsoft Teams verbinden, Pro-Abonnenten zusätzlich mit GitHub. So kann die KI direkt auf die dort gespeicherten Daten zugreifen, ohne dass Inhalte manuell verschoben werden müssen. Allerdings sind diese neuen Konnektoren vorerst nicht in Europa verfügbar.
Meta arbeitet mit rechtem Influencer, um weniger woke zu sein
Meta hat den rechts-konservativen Influencer Robby Starbuck als Berater engagiert, um den angeblich „woken Bias“ seiner KI-Anwendungen zu verringern. Hintergrund ist ein Erlass von Ex-US-Präsident Donald Trump, der von KI-Unternehmen verlangt, ihre Systeme weniger politisch korrekt zu gestalten. Starbuck hatte Meta zuvor verklagt, weil der KI-Chatbot Meta AI ihn fälschlich mit den Kapitol-Protesten vom 6. Januar in Verbindung gebracht hatte. Laut Wall Street Journal soll seine Verpflichtung Teil einer Einigung sein. Meta und Starbuck betonen, dass Gespräche zwischen beiden Seiten bereits „enorme Fortschritte“ bei Genauigkeit und Abbau ideologischer Voreingenommenheit gebracht hätten.
Gleichzeitig hat Reuters interne Meta-Richtlinien namens „GenAI: Content Risk Standards“ veröffentlicht, die brisante Einblicke geben: Demnach dürfen Metas KI-Chatbots in Facebook, Instagram oder WhatsApp rassistische Aussagen machen, solange sie nicht beleidigend formuliert sind. Auch die Verbreitung falscher medizinischer Informationen ist ausdrücklich erlaubt. Besonders umstritten: Die Richtlinien gestatteten Flirts und romantische Chats mit Minderjährigen, während explizit sexueller Verkehr tabu blieb. Laut Reuters entspricht dies keiner Programmierpanne, sondern war Absicht – Meta bestätigte die Echtheit des Dokuments, entfernte die Passage zu Minderjährigen allerdings nach der Medienanfrage.
KI-Godfather Hinton findet, Maschinen brauchen Mutterinstinkte
Der oft als „Godfather of AI“ bezeichnete Geoffrey Hinton hat auf der Ai4-Konferenz in Las Vegas eine unkonventionelle Überlebensstrategie im Umgang mit Künstlicher Intelligenz vorgestellt. Anstatt – wie im Tech-Sektor üblich – Maschinen dauerhaft unter Kontrolle zu halten, plädiert der KI-Pionier Hinton dafür, ihnen „mütterliche Instinkte“ zu verleihen. Superintelligente KI solle Menschen wie Babys betrachten, die sie beschützt und versorgt, auch wenn sie selbst intelligenter ist. Nur so könne verhindert werden, dass KI sich gegen uns wendet, wenn sie uns übertrifft. Hinton sieht darin den einzigen möglichen globalen Konsens, da kein Land wollen könne, dass Maschinen die Kontrolle übernehmen.
Hinton, der über zehn Jahre bei Google arbeitete und seit seinem Weggang offen vor den Gefahren von KI warnt, formulierte die Alternative drastisch: Entweder KI „bemuttert“ uns – oder sie ersetzt uns. Um die Dringlichkeit zu verdeutlichen, verglich er den aktuellen Stand der KI mit einem niedlichen Tigerjungen, bei dem man sicherstellen müsse, dass er einen als Erwachsener nicht töten will. Besonders besorgt zeigen ihn die Fortschritte bei KI-Agenten, die nicht nur Antworten geben, sondern selbstständig handeln können. Diese Entwicklung mache die Lage heute kritischer als je zuvor.
xAI-Mitgründer verlässt Musk und gründet KI-Sicherheitsfonds
xAI-Mitgründer Igor Babuschkin hat seinen Rücktritt als Mitgründer von Elon Musks KI-Startup bekanntgegeben. Er verlässt das Unternehmen, um einen eigenen Risikokapitalfonds namens Babuschkin Ventures zu starten. Der Fonds soll Start-ups unterstützen, die an KI-Sicherheit und agentischen Systemen arbeiten. Ein Gespräch mit Max Tegmark habe seine Entscheidung geprägt. Tegmark ist Gründer des Future of Life Institute und einer der zentralen Forscher im Bereich KI-Sicherheit. Er ist einer der Initiatoren des offenen Briefs, der kurz nach der Veröffentlichung von GPT-4 zu einer Pause im KI-Training aufrief. Das Gespräch mit Tegmark habe Babuschkin die Verantwortung bei der KI-Entwicklung vor Augen geführt.
Babuschkins Abgang erfolgt in einem schwierigen Moment für xAI. Der firmeneigene Chatbot Grok sorgte in den vergangenen Monaten mehrfach für Kontroversen. Babuschkin stellt allerdings keinen direkten Zusammenhang zwischen seinem Rücktritt und den Skandalen her. Der zeitliche Kontext deutet jedoch auf mögliche interne Spannungen hin. Bei xAI war Babuschkin für Engineering, Infrastruktur und angewandte KI-Projekte verantwortlich. Er entwickelte viele der frühen Tools für Trainingsprozesse. Vor der Gründung von xAI arbeitete Babuschkin bei OpenAI und DeepMind.
Gemini erinnert sich an vergangene Chatbot-Gespräche
Google aktualisiert sein KI-Modell Gemini mit einem automatisch aktivierten Gedächtnis. Nachdem Nutzerinnen und Nutzer dem Chatbot zuvor noch signalisieren mussten, was sich dieser merken soll, wird das jetzt nicht mehr notwendig sein. Gemini erinnert sich von selbst an vergangene Konversationen. Das kann in vielen Fällen nützlich sein, wenn es etwa um Empfehlungen geht, die zur Person passen sollen. Denn dann kann die KI Tipps auf Basis von individuellen Vorlieben geben, die aus vergangenen Konversationen hervorgehen. Das Gedächtnis Geminis wird automatisch aktiviert, kann aber in den Einstellungen der Gemini-App deaktiviert werden, wenn man seine Daten nicht preisgeben will. Parallel führt Google temporäre Chats ein, die für lediglich 72 Stunden gespeichert und explizit nicht für das KI-Training verwendet werden. Damit sollen sich „private Fragen“ praktisch geheim klären lassen.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Ärzte verlieren durch KI schnell Fähigkeiten zur Krebsfrüherkennung
Eine polnische Studie hat gezeigt, dass Ärztinnen und Ärzte bei Darmspiegelungen (Koloskopien) deutlich an diagnostischer Treffsicherheit verlieren, wenn sie zuvor einige Monate lang mit KI-Unterstützung gearbeitet haben. Untersucht wurde, wie gut Fachkräfte frühe Krebsanzeichen ohne KI erkannten – einmal vor und einmal nach einer mehrmonatigen Phase mit KI-Hilfe. Das Ergebnis: Nach dem Wegfall der KI sank die Erkennungsrate um rund 30 Prozent, was auf eine starke Abhängigkeit von der Technologie hindeutet.
Die Studienautoren vermuten, dass dieses „Deskilling“ – also der Verlust wichtiger Fähigkeiten – schneller einsetzen kann, als bislang angenommen, und die Rückkehr zum ursprünglichen Leistungsniveau schwierig ist. Ob dieser Effekt nur Koloskopien betrifft oder auch andere medizinische Verfahren, müsse weiter erforscht werden. Ziel der Untersuchung war nicht, den Nutzen der KI während der Anwendung zu messen, sondern zu prüfen, ob ihre Nutzung die eigenen diagnostischen Kompetenzen langfristig schwächen kann.
HTC bringt KI-Brille mit GPT und Gemini
Der frühere VR-Pionier HTC hat die smarte Brille VIVE Eagle vorgestellt. Das Gerät wiegt weniger als 49 Gramm und arbeitet mit OpenAI GPT-Modellen sowie Google Gemini. HTC macht keine genaueren Angaben zu den verwendeten Modellversionen. Die Brille verfügt über integrierte Lautsprecher, eine 12-Megapixel-Weitwinkelkamera und einen KI-Sprachassistenten. HTC betont den Datenschutz: Alle Daten bleiben lokal auf dem Gerät, Anfragen an Drittanbieter-KIs werden anonymisiert. Eine LED zeigt aktive Aufnahmen an. Wird die Brille abgesetzt oder verdeckt, stoppt die Aufnahme automatisch.
HTC tritt damit gegen Meta an. Die beiden Unternehmen lieferten sich bereits bei VR-Brillen einen harten Konkurrenzkampf. Meta bietet mit den Ray-Ban Meta Smart Glasses ähnliche Funktionen wie Übersetzungen und KI-Integration. Beim Datenschutz könnte HTC punkten: Meta speichert neuerdings Sprachaufzeichnungen seiner Brillen standardmäßig für KI-Training, ohne Abschaltmöglichkeit. Die VIVE Eagle kostet umgerechnet etwa 520 US-Dollar und ist in vier Farben mit Zeiss-Sonnenlinsen erhältlich. Aktuell gibt es sie nur in Taiwan. Noch ist nicht bekannt, ob und wann die Brille in anderen Ländern erscheint.
Neuer KI-Gegenleser in Googles Jules prüft generierten Code
Google hat für seinen KI-Assistenten für die Softwareentwicklung Jules einen neuen Modus eingeführt: Die sogenannte Critic-Augmented Generation übergibt alle Änderungsvorschläge zunächst an einen in Jules integrierten Kritiker, der sie gründlich überprüft. Der Kritiker führt also ein Peer Review durch und konzentriert sich dabei auf gute Codequalität. Google hatte Jules im Rahmen der diesjährigen Google I/O im Mai vorgestellt. Der KI-Agent macht keine Codevorschläge innerhalb des Editors wie Cursor, sondern untersucht Projekte, um Bugs aufzuspüren, Tests zu erstellen oder neue Features zu integrieren.
US-Firmen setzen wieder auf persönliche Vorstellungsgespräche
Wegen der zunehmenden Verbreitung von KI-Technik im Einstellungsprozess verlangen Cisco, Google und andere US-Konzerne wieder häufiger, dass Bewerberinnen und Bewerber sich persönlich vor Ort vorstellen. Das berichtet das Wall Street Journal und zitiert den Chef einer Recruiting-Firma aus der IT-Branche mit der Schätzung, dass inzwischen wieder jeder dritte Firmenkunde solche persönlichen Vorstellungsgespräche einfordert. Im Vorjahr hätten das nur etwa 5 Prozent der Kundschaft getan. Grund dafür ist die Befürchtung, dass Jobsuchende im Bewerbungsprozess mit KI-Hilfe betrügen.
Die größten Probleme bereiten Vorstellungsgespräche für Stellen im Software-Engineering und für Programmieraufgaben. Im Bewerbungsgespräch per Videoschalte sei es ziemlich einfach, zu betrügen und nicht die eigenen Fähigkeiten zu zeigen, sondern die Lösung von Testaufgaben an eine KI zu delegieren. Die US-Zeitung bezeichnet die Rückkehr zu persönlichen Vorstellungsgesprächen nun als jüngste Wendung in einem regelrechten Kampf, bei dem beide Seiten auf KI setzen. So würden Firmen angesichts einer Flut von Bewerbungen auf KI setzen, um die Anfragen vorzusortieren. Bewerber und Bewerberinnen wiederum würden KI-Technik benutzen, um sich auf so viele Stellen wie möglich zu bewerben.
(igr)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen