Connect with us

Künstliche Intelligenz

KI-Update kompakt: AI Impact Summit, Security Dashboard, Ring-Kameras, KI-Bremse


Weiterlesen nach der Anzeige

Deutschland und Indien haben beim AI Impact Summit in Neu-Delhi ein KI-Abkommen unterzeichnet. Bundesdigitalminister Karsten Wildberger und sein indischer Amtskollege wollen indische IT-Expertise mit dem deutschen Mittelstand und der Industrie zusammenbringen. Im Fokus stehen Mobilität, Energieversorgung, Gesundheitswesen und smarte Produktion. Beide Seiten betonten zudem, KI im Einklang mit demokratischen Werten entwickeln zu wollen.

Sam Altman, Chef von OpenAI, nutzte den Gipfel, um vor einer Superintelligenz zu warnen, die schon in zwei Jahren Realität werden könne. Er forderte eine weltweite Aufsichtsbehörde nach dem Vorbild der Atomenergiebehörde. Allerdings passt das nur bedingt zu OpenAIs bisheriger Praxis, neue Modelle schnell auf den Markt zu bringen und Sicherheit nachzulagern. Die geforderte Regulierung dürfte eher darauf abzielen, wer KI entwickeln und betreiben darf. Zudem dienen solche Warnungen auch dem Marketing: Wer vor der eigenen Technologie warnt, lässt sie mächtiger erscheinen. Ob große Sprachmodelle überhaupt zu Superintelligenz führen können, bezweifeln zahlreiche Experten.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Microsoft hat auf dem Gipfel in Neu-Delhi angekündigt, bis Ende des Jahrzehnts 50 Milliarden US-Dollar in KI-Infrastruktur für Länder des globalen Südens zu stecken. Präsident Brad Smith und die verantwortliche KI-Chefin Natasha Crampton begründeten den Schritt mit der wachsenden Kluft zwischen Industrie- und Entwicklungsländern bei der KI-Nutzung.

Das fünfteilige Programm umfasst den Aufbau von KI-Infrastruktur, die Ausweitung von Qualifizierung, die Stärkung mehrsprachiger Fähigkeiten, die Förderung lokaler Innovationen und die Messung der KI-Verbreitung als Grundlage für künftige Strategien.

Weiterlesen nach der Anzeige

Microsoft hat den öffentlichen Test seines „Security Dashboard for AI“ gestartet. Das Werkzeug soll Unternehmen helfen, Sicherheitsrisiken beim Einsatz von KI zentral zu überwachen. Es bündelt Informationen aus verschiedenen Microsoft-Diensten wie Defender, Entra und Purview und liefert eine Echtzeitübersicht über alle genutzten KI-Ressourcen, von Microsoft 365 Copilot über eigene Entwicklungen bis zu Drittanbietern wie OpenAI oder Google Gemini.

Ein Übersichts-Tab macht auf einen Blick sichtbar, wo Risiken liegen, und gibt Empfehlungen zur Verbesserung der KI-Sicherheit. Für Kunden, die bereits Microsofts Sicherheitslösungen nutzen, fallen keine zusätzlichen Lizenzgebühren an. Das Dashboard ist direkt über das Microsoft-Security-Portal erreichbar.

Google hat Gemini 3.1 Pro vorgestellt, ein Upgrade seiner Modellfamilie. Das Modell soll primär beim logischen Schlussfolgern und beim Programmieren zulegen. In einigen von Google herausgestellten Benchmarks liegt es vor OpenAIs GPT-5.2 und Anthropics Claude Opus 4.6. In der Praxis bleibt allerdings ein bekanntes Problem: Googles Modelle setzen Werkzeuge oft weniger effizient ein als die Konkurrenz.

Das Modell ist ab sofort als Vorschau verfügbar, unter anderem über die Gemini-App, Google AI Studio und die Gemini-API. Die API-Preise entsprechen denen von Gemini 3 Pro und liegen deutlich unter denen von Anthropics Opus-Modellen. Google will auf Basis von Nutzerfeedback weitere Verbesserungen vornehmen, bevor eine allgemeine Verfügbarkeit folgt.

Googles Chatbot Gemini kann ab sofort Musik per generativer KI erstellen. Die 30 Sekunden langen Tracks werden mit einem unhörbaren Wasserzeichen versehen, um sie als KI-generiert zu kennzeichnen. Grundlage ist die dritte Version von Google DeepMinds Musikmodell „Lyria“. Nutzer geben lediglich eine Musikrichtung vor, Angaben zu Gesang, Stimmlage oder Tempo sind optional. Auch Bilder oder Videos können als Inspiration hochgeladen werden. Passend zum Musikstück erstellt Gemini automatisch eine Grafik als Cover, produziert vom integrierten Bildgenerator Nano Banana.

Google betont, dass die Generierung keine Urheberrechte verletze und keine Künstler nachahme. Bestehende Musikstücke dienten lediglich als Inspiration.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Anthropic hat die neueste Version von Claude Sonnet veröffentlicht und stuft sie als bisher leistungsfähigste Sonnet-Variante ein. Das Modell soll beim Programmieren, beim Schlussfolgern, bei agentischen Aufgaben und im Design zulegen. Neu ist ein Kontextfenster von einer Million Token. In Anthropics eigenen Benchmarks liegt Sonnet 4.6 nun zwischen Opus 4.5 und Opus 4.6, obwohl Sonnet eigentlich das mittlere Modell der Claude-Familie ist.

Besonders hervor hebt Anthropic die Fähigkeit „Computer Use“, bei der das Modell reguläre Software fast wie ein Mensch bedient. Diese Funktion ist allerdings anfällig für Angriffe wie Prompt Injections, etwa versteckte Anweisungen auf Webseiten. Die neue Version soll solche Angriffe besser erkennen und umgehen, gelöst ist das Problem damit aber nicht. Claude Sonnet 4.6 wurde zunächst als Beta veröffentlicht und wird zum Standardmodell für Nutzer des kostenlosen Chatbots.

Amazons Tochter Ring warb beim Super Bowl für „Search Party“, eine Funktion, mit der Besitzer verlorener Hunde ein Foto hochladen und alle Ring-Türkameras in der Nachbarschaft per KI nach dem Tier suchen lassen können. Schon damals warnten Kritiker, es werde nicht bei Hunden bleiben. Eine nun aufgetauchte interne E-Mail vom Oktober bestätigt diese Befürchtung: Ring-Chef schrieb darin, die Hundesuche sei nur der Anfang, das Ziel sei, die Kriminalität in der Nachbarschaft auf null zu senken.

Ring hat die Echtheit der E-Mail bestätigt, verwies aber auf praktische Anwendungsfälle wie die Suche nach Haustieren oder Warnungen bei Bränden. Kritiker sehen in der Funktion die Vorbereitung einer Massenüberwachung, die mit Technik gewöhnlicher Konsumenten betrieben wird.

Perplexity hat sich vorerst gegen Werbung entschieden, während Konkurrenten wie OpenAI mit ChatGPT Anzeigen testen. Perplexity gehörte 2024 selbst zu den ersten KI-Unternehmen, die gesponserte Antworten einblendeten. Eine Führungskraft erklärte der Financial Times, das Problem sei, dass Nutzer bei Werbung anfangen, die Antworten der KI anzuzweifeln.

Stattdessen konzentriert sich das Unternehmen darauf, die Richtigkeit seiner Antworten zu verbessern. Den Großteil seiner Einnahmen erzielt Perplexity aus kostenpflichtigen Abonnements zwischen 20 und 200 US-Dollar pro Monat.

David Silver, langjähriger KI-Forscher bei Google DeepMind, hat laut der Financial Times rund eine Milliarde Dollar für sein neues Start-up „Ineffable Intelligence“ eingesammelt. Die von Sequoia Capital angeführte Runde bewertet das Londoner Unternehmen mit etwa vier Milliarden Dollar. Silver, der maßgeblich an AlphaGo und Googles Gemini-Modellfamilie mitarbeitete, verließ DeepMind Ende vergangenen Jahres.

Ineffable Intelligence setzt auf Reinforcement Learning, bei dem KI-Systeme durch zahlreiche Versuche selbst lernen statt primär aus großen Textmengen. Im Zentrum stehen sogenannte Weltmodelle, mit denen KI-Agenten die Folgen ihrer Handlungen vorhersagen können. Silver reiht sich damit in eine wachsende Zahl führender KI-Forscher ein, die nicht glauben, dass die aktuelle Transformer-Architektur allein zu Superintelligenz führt.

Accenture, ein Beratungskonzern mit fast 800 000 Beschäftigten weltweit, erfasst seit diesem Monat wöchentlich die KI-Tool-Logins einzelner Senior-Mitarbeiter. Die Nutzung wird zum Beförderungskriterium, wie aus einer internen E-Mail hervorgeht, die die Financial Times einsehen konnte. In zwölf europäischen Ländern sind Beschäftigte von der Regelung ausgenommen.

Intern regt sich Widerstand: Zwei mit der Änderung vertraute Personen bezeichneten einige der Tools als „kaputte Slop-Generatoren“. Führungskräfte anderer großer Beratungsfirmen bestätigen, dass es schwieriger ist, erfahrene Manager zur KI-Nutzung zu bewegen als Nachwuchskräfte. Accenture-Chefin Julie Sweet kündigte an, Mitarbeitende, die sich nicht anpassen, müssten das Unternehmen verlassen. Der Aktienkurs von Accenture ist in zwölf Monaten um 42 Prozent gefallen.

Wissenschaftler der Otto-von-Guericke-Universität Magdeburg haben ein KI-gestütztes Verfahren vorgestellt, das erkennt, wenn die Sensordaten autonomer Fahrzeuge unzuverlässig werden, und im Zweifel eine Notbremsung auslöst. Die Methode kombiniert maschinelles Sehen mit maschineller Selbsteinschätzung: Die KI analysiert nicht nur, was sie wahrnimmt, sondern auch, wie verlässlich die Daten sind. Sinkt die Qualität unter einen Schwellenwert, reagiert das System automatisch.

Getestet wurde das Verfahren an einem autonomen Shuttle auf einem Uni-Testgelände. Bei leichtem Nebel, Regen oder Schneefall korrigierte das System die gestörten Sensordaten sogar eigenständig. Bei starkem Niederschlag stoppte das Fahrzeug kontrolliert. Dem Projektleiter zufolge war das System eher zu vorsichtig als zu riskant. Ob und wann die Technologie in Serienfahrzeuge kommt, ist offen, der Transfer in konkrete Anwendungen ist aber erklärtes Ziel.

Die Frankfurt University of Applied Sciences hat ein Open-Source-Handbuch zum Bau von KI-Drohnen auf GitHub veröffentlicht. Es vermittelt praxisnah die technischen Grundlagen für Objekterkennung, autonome Navigation und automatisches Folgen von Zielen. Das Handbuch erklärt, wie Sensorik, Recheneinheiten und Software kombiniert werden, um Drohnen intelligent agieren zu lassen, und berücksichtigt dabei auch Kosten und Wirtschaftlichkeit.

Die Anleitungen basieren auf Erfahrungen aus dem Projekt „KI-gestützte Drohnenplattformen“ und zielen auf robuste Systeme für Tier- und Objekterkennung, Umweltmonitoring oder Inspektions- und Logistikaufgaben. Das Handbuch steht in Deutsch und Englisch bereit und soll von Studierenden und Forschenden der Fachhochschule laufend aktualisiert werden.

Liebesbetrug im Internet nimmt laut dem Landeskriminalamt seit Jahren deutlich zu, begünstigt durch den Einsatz von KI. Betrüger erstellen massenhaft Fakeprofile in sozialen Netzwerken und generieren mit KI-Tools täuschend echte Profilbilder. Sprachmodelle liefern auf Knopfdruck überzeugende Liebesnachrichten, moderne Übersetzungsprogramme sorgen für nahezu fehlerfreie Kommunikation in verschiedenen Sprachen.

Diese technischen Möglichkeiten senken den Aufwand und erhöhen die Schlagzahl der Angriffe erheblich. International operierende Netzwerke nutzen KI, um ihre Betrugsmaschen effizienter und schwerer erkennbar zu machen.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Künstliche Intelligenz

Tinder jetzt auch mit Events, live und mit KI


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Offline neue Kontakte knüpfen – das ist der neue Plan von Tinder. Der Online-Dating-Dienst bietet eine ganze Reihe neuer Funktionen an. Das klassische Modell des Swipens auf dem Sofa scheint langsam abgelöst zu werden. Zuletzt hatten das auch die Nutzerzahlen bestätigt. Online-Dating ist zumindest bei jüngeren Leuten nicht mehr so beliebt wie früher.

Weiterlesen nach der Anzeige

Die Events sollen allerdings zunächst in Los Angeles getestet werden. Es geht dabei nicht um Events, die Tinder veranstaltet, sondern darum, Matches bei Events zu finden. Die App bekommt eine Discovery-Funktion, in der Veranstaltungen auftauchen. Man kann dann selbst angeben, vor Ort sein zu werden. Tinder schreibt in der Ankündigung, es könne sich sowohl um Quizabende als auch Töpferkurse handeln.

Offenbar auch außerhalb der USA soll es ein neues Video-Speed-Dating geben. Das sind Live-Video-Chat-Events, bei denen man also in Echtzeit Leute kennenlernen kann. Erste Veranstaltungen sind für das Frühjahr geplant. Drei Minuten haben Teilnehmer, sich kennenzulernen und zu entscheiden, ob es ein Match ist. Dann lässt sich die Gesprächszeit verlängern.

Und weil die Welt nicht ohne KI auskommt, setzt freilich auch Tinder auf diese Hilfe. KI soll passendere Matches vorschlagen. Chemistry nennt sich die Funktion, die zunächst in Neuseeland und Australien getestet wurde und nun in die USA und nach Kanada kommt. Warum die EU weiterhin außen vor bleibt, ist unklar.

Die Match Group, die hinter Tinder und auch der Dating-App Hinge steckt, hat eine Kooperation mit OpenAI. Entsprechend dürften GPT-Modelle für die KI-Funktionen genutzt werden. Um welche Version es sich genau handelt, ist allerdings ebenfalls nicht bekannt.

Lesen Sie auch

Um Chemistry zu nutzen, kann man Tinder – oder eben OpenAI – Zugriff auf die eigene Fotobibliothek geben. Daraus leitet die KI dann „Insights“ ab, die auf die Persönlichkeit schließen. Der Learning-Mode soll in Echtzeit lernen, bei welchen Typen man einen grünen Daumen gibt und entsprechend eher weitere Personen vorschlagen, die dazu passen.

Weiterlesen nach der Anzeige

Zur Sicherheit und als Identitätsnachweis muss jeder Nutzer und jede Nutzerin künftig eine Selfie-Prüfung durchlaufen – die wird nun global eingeführt.

KI überprüft zudem bereits das Geschriebene. Bei potenziell verletzender Sprache fragt Tinder nach, ob man das wirklich abschicken möchte. Wer eine erhaltene Nachricht unangemessen findet, kann dies direkt melden. Möglicherweise respektlose Inhalte werden verpixelt.

Zu den bereits vorhandenen Modi, College-Mode und Double-Date-Mode, führt Tinder einen Music-Mode ein. Dahinter verbirgt sich, dass man sein Konto mit dem von Spotify verbinden kann und ein Gegenüber den eigenen Musikgeschmack entdecken kann. Außerdem gibt es künftig einen Astrology-Mode – dabei geht es, na klar, um passende Sternzeichen. Nicht, dass einem Krebs noch ein Widder vorgeschlagen wird.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

DFA: Nächstes EU-Gesetzeswerk vor dem Kippen?


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In den kommenden Monaten sollte er eigentlich vorgestellt werden: ein Vorschlag der EU-Kommission für besseren Verbraucherschutz. Doch seit Monaten wird daran gezweifelt, ob es den „Digital Fairness Act“ (DFA) so wirklich braucht. Mit einem offenen Brief fordern 115 Wissenschaftler und 85 Organisationen von der Europäischen Kommission und den Mitgliedstaaten nun ein klares Bekenntnis zu einem starken Digital Fairness Act. Zu den Unterzeichnern gehören neben den Verbraucherschutzorganisationen auch der Chaos Computer Club (CCC), LobbyControl, Save the Children und die Deutsche Umwelthilfe.

Weiterlesen nach der Anzeige

Die Unterzeichner fordern in ihrem Brief, der heise online vorliegt, unter anderem „verbindliche Vorschriften für Dark Patterns, süchtig machendes Design, unlautere Personalisierung, Influencer-Marketing und unlautere Praktiken in Videospielen“. Wesentlicher Bestandteil des DFA dürften vor allem verbraucherrechtliche Regelungen werden, also konkrete Regelungen zum Verbrauchervertragsrecht und zu unlauteren Werbemethoden, aber auch zur Zusammenarbeit der zuständigen Stellen über die Einzelstaatsgrenzen hinaus.

Die Europäische Union strebt einen einheitlichen digitalen Binnenmarkt an, bei dem Unternehmen und Verbraucher möglichst keinen mitgliedstaatsspezifischen Vorschriften, sondern einem EU-weit einheitlichen Rechtsrahmen unterliegen sollen. Innerhalb der EU-Kommission und auf Seiten der IT-Wirtschaft wurden bereits mehrfach Umfang und Notwendigkeit des Digital Fairness Act diskutiert.

Die für Deutschland im Rat der Mitgliedstaaten zuständige Justiz- und Verbraucherschutzministerin Stefanie Hubig (SPD) hatte sich vor einem Monat noch klar für einen starken DFA ausgesprochen. Im schwarz-roten Koalitionsvertrag sind zumindest weite Teile des Vorhabens als wünschenswert benannt.

Allerdings wird derzeit in Brüssel im Zuge von Deregulierungsvorhaben wie dem Digital-Omnibus über eine weitere Vereinheitlichung und Verschlankung der EU-Gesetzgebung verhandelt. Bei dieser könnten auch Teile des geplanten DFA bereits vorweggenommen, und andere Teile wie die Influencer-Vorgaben könnten im Rahmen der anstehenden Überarbeitung der Richtlinie über Audiovisuelle Mediendienste (AVMD) adressiert werden.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

NAND-Modul im Studio Display 2026 und XDR: Apple gibt reichhaltig


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Besitzer des neuen Studio Display 2026 sowie Studio Display XDR dürfen sich über einen kleinen Bonus freuen: Das darin verbaute, iOS-basierte SoC wurde aufgerüstet – und dabei auch gleich das NAND-Modul. Statt dem veralteten A13 Bionic aus dem iPhone 11 stecken nun A19 (Studio Display 2026) und A19 Pro (Studio Display XDR) in den Geräten. Gleichzeitig wurde das integrierte Flash-Modul von 64 auf 128 GByte vergrößert, wie Macrumors unter Bezug auf Mr. Macintosh meldet.

Weiterlesen nach der Anzeige

Beim A19 beziehungsweise A19 Pro handelt es sich um Apples neueste iPhone-Chips. Sie stecken im iPhone 17 und 17e (A19) sowie im iPhone 17 Pro, 17 Pro Max und Air (A19 Pro). Damit „schlagen“ beide Studio Displays zudem das MacBook Neo, in dem nur ein A18 Pro steckt, dort allerdings mit minimal 256 GByte großem NAND-Modul. Unklar bleibt, wie viel RAM die SoCs mitbringen. Beim A19 sind aus Apples Regal 8 GByte üblich, beim A19 Pro 12 GByte – letzteres wären 4 GByte mehr als beim Neo.

Das SoC hat in den Bildschirmen mehrere Aufgaben. Es hilft etwa beim USB- und Thunderbolt-5-Gerätemanagement, bei der Umsetzung von 3D-Audio über die Lautsprecher, der Ansteuerung und Verarbeitung der Webcam-Signale sowie bei der Farbwiedergabe und womöglich auch beim neu integrierten Adaptive Sync im Studio Display XDR. Für den Nutzer erfolgt dies alles versteckt, es wird zwar regelmäßig eine neue Firmware eingespielt, als iOS-Gerät nutzen kann er das SoC aber nicht.

Unklar bleibt, warum Apple ein derart großes NAND-Modul in den Studio Displays verbaut – voll ausgenutzt werden dürfte dieses in der Praxis wohl kaum. Denkbar ist, dass es den A19 und A19 Pro jedoch nur noch mit 128 GByte NAND in Minimalausstattung gibt und Apple schlicht keine Varianten mit nur 64 GByte mehr produzieren lässt. Die Marge dürfte das kaum schmälern, die Studio Displays sind mit minimal 1699 Euro (Studio Display 2026) respektive 3499 Euro (Studio Display XDR) schließlich auch preislich Oberklasse.

Käufer sollten wie bereits berichtet beachten, dass beide Monitore nicht an Intel-Macs zu betreiben sind. Außerdem ist die erhöhte Bildwiederholfrequenz von 120 Hertz nicht an Macs mit M1, M1 Pro, M1 Max, M1 Ultra, M2 und M3 nutzbar. Bei diesen Maschinen bleibt es bei 60 Hertz. Mit dem iPad Pro M5 gibt es zudem nur ein Apple-Tablet, das das Studio Display XDR mit 120 Hertz ansteuern kann.

Weiterlesen nach der Anzeige


(bsc)



Source link

Weiterlesen

Beliebt