Connect with us

Künstliche Intelligenz

Kommentar: Wer räumt den giftigen KI-Müll weg?


Generative KI vermüllt das Internet. Ein bis zwei Fünftel der Inhalte dort, je nach Schätzung, sind nicht menschengemacht. Zumindest nicht direkt, denn Menschen bedienen die Content-Schleudern.

Weiterlesen nach der Anzeige

Skurrile Videos mit Kindern oder Katzen, Selbstporträts als Actionfigur oder wortreiche SEO-Texte: Solcher KI-Krempel ist zwar schnell und kostengünstig mit wenigen Klicks generiert. Doch die Menschheit und den Planeten könnte diese digitale Müllflut teuer zu stehen kommen.

Lesen Sie auch

Denn um die Nachfrage nach GenAI-Systemen zu befriedigen, ziehen die Anbieter Rechenzentren hoch, die so viel Strom schlucken wie eine Großstadt. Um den in die Höhe schießenden Energiebedarf zu übertünchen, investieren sie in halbgare Zukunftstechnik wie Small Modular Reactors oder Kernfusion. Nach dem Motto: Wird schon irgendwie, Hauptsache, wir können jetzt mit dem Hype Geld scheffeln.

Hinzu kommt, dass der KI-Müll inhaltlich selten so harmlos ist wie KI-generierte Traumstrände und Engelskinder-Fotos. Im Zusammenhang mit dem Krieg im Nahen Osten verbreiten sich irreführende KI-generierte Inhalte unkontrolliert – und das ist nicht das erste Mal. Sobald eine vermeintliche Nachricht ein Narrativ bestätigt, wird sie flugs geteilt, ohne ihren Wahrheitsgehalt zu prüfen. Diese Lügen wieder einzufangen, ist kaum möglich.


Greta Friedrich

Greta Friedrich

Greta Friedrich ist Redakteurin bei c’t. Im Ressort für Internet, Datenschutz und Anwendungen testet sie unter anderem Tools und Apps, recherchiert zu gesperrten Microsoft-Konten, stellt Websites vor und erklärt Messenger. Dabei lernt sie täglich Neues und wenn das Grundlagenwissen aus ihrem Studium im Bereich Technische Redaktion nicht reicht, fragt sie ihre Kolleginnen und Kollegen aus.

Damit sind generative KI-Systeme praktische Werkzeuge für alle, die diffuse Angst säen und schüren wollen. Sie helfen dabei, gefühlte Wahrheiten scheinbar zu bestätigen und so Meinungen zu beeinflussen. Sie machen es zum Beispiel leicht, gefälschte Mobilmachungsbefehle oder Scheinbeweise für Kriegsverbrechen in die Welt zu setzen und wahllos Chaos zu stiften.

Weiterlesen nach der Anzeige

Und sie tragen dazu bei, dass das Vertrauen in seriöse Medien erodiert. Denn die Menschen bekommen zunehmend das Gefühl, ihren Augen nicht mehr trauen zu können. Diese Irritation erreicht sogar das lineare Fernsehen, weil auch etablierte Medien nicht immer sicher im Umgang mit KI-Inhalten sind.

Eine Handvoll Tech-Riesen hätte die Macht, daran etwas zu ändern. Sie besitzen oft sowohl Social-Media-Plattformen als auch KI-Tools: YouTube und Gemini (Google), Face- und Moltbook sowie Meta AI (Meta), X und Grok … Es sind ewige Kreisläufe aus Content und Klicks.

Deren Betreiber müssen endlich Verantwortung übernehmen. Sie müssen maßvoll mit Wasser und Strom umgehen, müssen verbindliche Regeln für ihre Plattformen aufstellen und durchsetzen: Wie kennzeichnen wir KI-Inhalte, wie melden und entfernen wir Schädliches, wer bekommt Werbeeinnahmen und wer nicht? Provokante und irreführende Inhalte mit KI-Hilfe in die Welt zu kippen, darf sich nicht länger lohnen.


(gref)



Source link

Künstliche Intelligenz

Google macht seine KI-Funktion „Search Live“ weltweit verfügbar


Google erweitert den Zugang zu seiner KI-Funktion „Search Live“, mit der Nutzerinnen und Nutzer per Sprache und der Kamera interaktiv nach Informationen suchen können. Der KI-Suchassistent steht laut Google nun in mehr als 200 Ländern und Regionen sowie in Dutzenden Sprachen zur Nutzung bereit. Die Funktion wird sowohl für Android als auch iOS angeboten.

Weiterlesen nach der Anzeige

Das Unternehmen hatte die „Search Live“-Funktion schon im vergangenen Juni in den USA eingeführt und später um die Kamerafunktion ergänzt. Damit können Nutzer etwa die Smartphonekamera auf ein Objekt richten und die KI nach Informationen fragen – etwa wie man ein Regal aufbaut oder andere Dinge. Googles KI-Assistent Gemini gibt darauf eine gesprochene Antwort sowie Links zu weiterführenden Informationen aus.

Die neue Funktion ist Teil des AI-Modes in der Google-App. Sie basiert laut Google auf dem neuen Audio- und Sprachmodell Gemini 3.1 Flash Live, das mehrsprachig ist und natürlichere Gespräche ermöglichen soll. Das neue Modell zeichnet sich dem Unternehmen zudem durch eine verbesserte Reaktionsgeschwindigkeit aus und ermöglicht laut Google „natürlichere und intuitivere Gespräche“. Der Zugriff ist auch über Google Lens möglich.

Mit dieser Funktion baut Google seine KI-gestützte Suche deutlich aus und positioniert sie stärker als sprachbasierten Echtzeit-Assistenten. Die Funktion hatte Google schon im Zuge der Entwicklerkonferenz I/O im Mai 2025 präsentiert und dürfte nicht nur für Smartphones bestimmt sein, sondern auch für die in Entwicklung befindlichen Smart-Glasses auf Basis von Android XR, die im Laufe dieses Jahres erscheinen sollen.

Neben der globalen Bereitstellung der Search-Live-Funktion hat Google zudem angekündigt, die Echtzeit-Übersetzungsfunktion von Google Translate (Übersetzer) auch für iOS einzuführen. Damit können Nutzerinnen und Nutzer von iPhones die App verwenden, um Sprache in Echtzeit aufzunehmen und die Übersetzung über ihre Kopfhörer zu hören. Die Funktion steht laut Googles Ankündigung nun in Deutschland, Spanien, Frankreich, Italien, Großbritannien, Japan und Thailand zur Verfügung.

Weiterlesen nach der Anzeige

Apple hatte eine ähnliche Funktion mit iOS 26 eingeführt. Sie kann zusammen mit aktuellen AirPods-Modellen verwendet werden.

Lesen Sie auch


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

IntelliJ IDEA 2026.1: Kostenfreier Basis-Support für JavaScript und TypeScript


JetBrains hat IntelliJ IDEA 2026.1 veröffentlicht, die erste Hauptversion der Entwicklungsumgebung in diesem Jahr. Für die Verwendung von KI-Agenten gibt es ebenso Neuerungen wie für die Programmiersprachen Java und Kotlin. Der Support für JavaScript und TypeScript ist nun teilweise kostenfrei.

Weiterlesen nach der Anzeige

Die vor allem auf Java und Kotlin ausgelegte IDE IntelliJ IDEA kann mit dem neuesten Release Java 26 umgehen. Diese Sprachversion ließ sich bereits mit dem Minor Update IntelliJ IDEA 2025.3.4 verwenden, das am 17. März pünktlich zum Release erschien. Java 26 bietet unter anderem die zweite Preview für Lazy Constants. Kotlin lässt sich nun in Version 2.3.20 nutzen, mit neuen experimentellen Features.

Auch ohne Ultimate-Abo ist nun die Verwendung der Kernfunktionen von IntelliJ IDEA für JavaScript, TypeScript, HTML, CSS und React möglich. Für erweiterte Produktivitätsfeatures – etwa dedizierte Debugger, Test Runner oder vollen Support für alle Frontend-Frameworks wie Angular oder Vue – ist das Ultimate-Abo jedoch weiterhin notwendig. Laut dem Hersteller ist IntelliJ IDEA nun für große TypeScript-Projekte außerdem performanter.


enterJS Integrate AI

enterJS Integrate AI

(Bild: Stone Story / stock.adobe.com)

Webanwendungen mit KI anreichern, sodass sie wirklich besser werden? Der Online-Thementag enterJS Integrate AI am 28. April 2026 zeigt, wie das geht. Frühbuchertickets und Gruppenrabatte sind im Online-Ticketshop verfügbar.

Das neue Release besitzt integrierten Support für mehr KI-Agenten als bisher, darunter Codex, Cursor und jeden beliebigen mit dem Agent-Client-Protokoll (ACP) kompatiblen Agenten. Ende Januar hatten JetBrains und Zed die ACP Registry vorgestellt, eine kuratierte Sammlung solcher KI-Agenten. Im neuen Release können KI-Agenten Datenquellen nativ modifizieren sowie abfragen und lassen sich darüber hinaus dazu einsetzen, mit Git-Worktrees parallel in mehreren Branches zu arbeiten.

Alle Details zu IntelliJ IDEA 2026.1 bieten der JetBrains-Blogeintrag zur Ankündigung und die „What’s New“-Seite.

Weiterlesen nach der Anzeige

Nicht nur IntelliJ IDEA, sondern auch die anderen Entwicklungsumgebungen und Tools von JetBrains erhalten das neue Release. Zahlreiche wurden bereits damit ausgestattet, darunter WebStorm, PhpStorm und PyCharm. Wie in IntelliJ IDEA ist in PyCharm jetzt ebenfalls Support für JavaScript und TypeScript teilweise außerhalb des Pro-Abonnements verfügbar.

Lesen Sie auch


(mai)



Source link

Weiterlesen

Künstliche Intelligenz

Android 17 Beta 3: App-Bubbles, getrennte WLAN-Kacheln und mehr


Google hat am Donnerstagabend unserer Zeit die dritte Beta von Android 17 für Pixel-Geräte veröffentlicht. Einige der Neuerungen hatte der Hersteller bereits in der experimentellen Android-Canary-Version vom März integriert. Zudem hat Android 17 mit der Beta 3 Plattformstabilität erreicht. Das ist ein wichtiger Meilenstein für die Entwicklung, da damit die finalen SDK/NDK-APIs bereitstehen. Das bedeutet, dass Entwickler ab diesem Zeitpunkt ihre Apps auf SDK 37 abzielen lassen und im Google Play Store veröffentlichen können.

Weiterlesen nach der Anzeige

Mit Android 17 Beta 3 ziehen die App-Bubbles ein, die Google zuvor im Canary-Channel auf Entwickler losgelassen hatte. Jede App lässt sich nun als Bubble (Blase) in einem schwebenden Fenster öffnen. Ein Langdruck auf eine App öffnet ein überarbeitetes Kontextmenü, in dem man die neue Funktion findet.


Screenshots: Android 17 App-Bubbles

Screenshots: Android 17 App-Bubbles

Android 17 erhält „App-Bubbles“.

(Bild: Andreas Floemer / heise medien)

Die „Bubble“ lässt sich an eine beliebige Stelle auf dem Bildschirm verschieben, sie bewegt sich jedoch stets automatisch an den Bildschirmrand, um nicht im Weg zu sein. Um die Bubble zu schließen, bewegt man sie einfach in den unteren Bildschirmbereich, wo ein großes „X“ erscheint. Zudem findet man in der linken unteren Ecke das Feld verwalten – ein Tipp darauf öffnet einen Dialog, mit dem man die Blase schließen kann. Es lassen sich außerdem mehrere App-Blasen gleichzeitig nutzen.

Diese Funktion ist auf Smartphones, Faltgeräten und Tablets verfügbar. Auf Geräten mit größerem Bildschirm, wie Foldables und Tablets, können Nutzerinnen und Nutzer auch lange auf ein App-Symbol in der Taskleiste drücken und das Symbol dann per Drag-and-Drop in eine untere Ecke ziehen.

Weiterlesen nach der Anzeige

Google vollführt mit der Beta 3 in den Schnelleinstellungen eine Kehrtwende und bringt separate Kacheln für WLAN- und Mobilfunkempfang zurück. Google hatte mit Android 12 eine einzige „Internet“-Kachel für beide Konnektivitäts-Optionen in die Schnelleinstellungen integriert, sodass es umständlicher war, eine der beiden Funktionen abzuschalten.


 WLAN und mobile Daten sind in den Schnelleinstellungen getrennt

 WLAN und mobile Daten sind in den Schnelleinstellungen getrennt

Android 17: WLAN und mobile Daten sind in den Schnelleinstellungen wieder getrennt.

(Bild: Andreas Floemer / heise medien)

Zudem verfügen die beiden Kacheln über zwei verschiedene Berührungsbereiche: Durch Antippen des Symbols wird die jeweilige Funktion ein- oder ausgeschaltet, während durch Antippen des jeweiligen Textfelds die vollständige Bedienoberfläche geöffnet wird. Diese Änderung reduziert die Anzahl der erforderlichen Eingaben zum Ein- und Ausschalten von WLAN und mobilen Daten, während der Zugriff auf das vollständige Internet-Bedienfeld weiterhin erhalten bleibt.

Überarbeitet hat Google außerdem die Bildschirmaufzeichnung, sie verfügt nun über eine verbesserte Bedienoberfläche und neue Funktionen. Wenn man in den Schnelleinstellungen auf die Kachel für die Bildschirmaufzeichnungsfunktion tippt, erscheint nun eine schwebende Symbolleiste, über die Nutzer einfacher auf die Aufzeichnungssteuerung und die Aufnahmeeinstellungen zugreifen können. Beendet man die Aufzeichnung, lässt sich das Video sofort ansehen, bearbeiten, löschen oder direkt teilen.


animierte Grafik: Android 17 Beta 3 mit vom System bereitgestellter Standort-Schaltfläche

animierte Grafik: Android 17 Beta 3 mit vom System bereitgestellter Standort-Schaltfläche

(Bild: Google)

Android 17 Beta 3 erhält zudem eine neue Standort-Schaltfläche für mehr Datenschutz, mit der Nutzer Apps Zugriff auf ihren genauen Standort gewähren können. Das Update enthält ein vom System gerendertes Standort-Bedienfeld, das Apps mithilfe einer Jetpack-Bibliothek direkt in ihr Layout einbinden können. Wenn ein Nutzer auf die neue Schaltfläche tippt, erhält die App nur für die aktuelle Sitzung Zugriff auf den genauen Standort. Bei weiteren Klicks während der Nutzung der App wird die Berechtigung sofort und ohne Systemdialog erteilt. Für Entwickler und Interessierte erklärt Google die neue Funktion in einem Blogbeitrag.

Weitere neue Funktionen sind die Möglichkeit, die Lautstärke des Sprachassistenten unabhängig von der Medienlautstärke zu regulieren. Damit kann man etwa Gemini oder andere in Android als Standard eingestellte Chatbots leiser oder bei Bedarf auch lauter als Musik oder andere Inhalte ertönen lassen. Bisher wirkten sich Änderungen der Medienlautstärke in der Regel automatisch auf die Lautstärke des Assistenten aus und umgekehrt.

Lesen Sie auch

In Android 17 Beta 3 hat Google außerdem eine neue Einstellung hinzugefügt, mit der Nutzer eine Benachrichtigung erhalten können, wenn die Uhr ihres Smartphones eine geplante Zeitumstellung vornimmt – beispielsweise wenn die Winter- oder Sommerzeit enden.

Überdies können Nutzer die App- und Ordnernamen auf dem Startbildschirm ausblenden – eine Funktion, die manche Launcher-Apps und Bedienoberflächen einiger Hersteller schon seit Jahren bieten. Dies gilt nicht für den App-Drawer oder für Ordner selbst. Um auf die neue Einstellung zuzugreifen, öffnet man in den Einstellungen oder per Langdruck auf dem Homescreen die Option „Hintergrund & Design“. Hier tippt man auf „Startbildschirm“, und wählt „Symbole“. Ganz unten findet man den Reiter „Namen“ und schaltet dort die Option „App-Namen anzeigen“ ein oder aus.


Android 17: Screenshots: App-Bezeichnungen ausblenden

Android 17: Screenshots: App-Bezeichnungen ausblenden

In der Android 17 Beta 3 lassen sich App-Bezeichnungen ausblenden.

(Bild: Andreas Floemer / heise medien)

Neu in Android 17 Beta 3 ist die Möglichkeit, das mit Android 16 QPR2 eingeführte erweiterte dunkle Design, das sich in erster Linie an Menschen mit Sehbeeinträchtigungen oder Lichtempfindlichkeit richtet, anzupassen. Wenn die Option aktiviert ist, wendet das System das dunkle Design automatisch auf die meisten Apps an, die es standardmäßig nicht unterstützen. Da die Funktion bei manchen Apps zu Anzeigefehlern führen kann, lässt sich die Funktion in der neuen Beta für einzelne Apps deaktivieren.

Zudem führt Google mit Android 17 eine standardisierte Methode ein, mit der VPN-Apps Funktionen zum Ausschluss bestimmter Apps (Split-Tunneling) anbieten können. Damit können Nutzer Anwendungen auswählen, die den VPN-Tunnel umgehen sollen. Der Datenverkehr von ausgeschlossenen Apps wird direkt über das zugrunde liegende Netzwerk geleitet, was für Dienste nützlich ist, die nicht mit VPNs kompatibel sind, erklärt Google. Vom Nutzer vorgenommene Änderungen werden sofort wirksam, sofern das VPN aktiv ist, oder bei der nächsten Verbindung.

Überdies ist die Beta 3 die erste Android-Version, in der Google ein neues APK-Signaturschema v3.2 einführt, um Post-Quanten-Kryptografie (PQC) zu unterstützen. Dieses Schema nutzt laut Google einen hybriden Ansatz, bei dem eine klassische Signatur mit einer ML-DSA-Signatur kombiniert wird. Erst kürzlich hatte Google den Schutz von Android vor künftigen Angriffen mit Quantencomputern angekündigt.

Primär für den Desktop-Modus und Tablets bringt Google einen Interactive Picture-in-Picture-Modus. Damit können Fenster angeheftet und stets über anderen Fenstern angezeigt werden und sind weiterhin bedienbar.

Darüber ermöglicht Google Entwicklern, das Fotoauswahlwerkzeug (Photo-Picker) optisch an das eigene App-Design anzupassen. App-Entwickler können damit etwa das Raster von quadratisch auf ein 9:16-Hochformat umstellen.


Screenshot Android 17 Beta 3 Photo Picker

Screenshot Android 17 Beta 3 Photo Picker

Entwickler können den Photo-Picker ab Android 17 Beta 3 für ihre App anpassen.

(Bild: Google)

Für mehr Sicherheit: Apps, die auf Android 17 zielen, haben standardmäßig keinen Zugriff mehr auf das lokale Netzwerk. Hierfür bietet Google es neue Berechtigungen an.

Android 17 bringt außerdem Support für das RAW14-Bildformat – „der De-facto-Industriestandard für die High-End-Digitalfotografie“, so Google. Das Format bietet unter anderem Vorteile in der Nachbearbeitung. Weiter integriert Google APIs, um abzufragen, welche Kamera genutzt wird – kommt etwa eine interne Kamera, eine USB-Webcam oder eine virtuelle Kamera zum Einsatz. Auch herstellerspezifische Kamera-Funktionen (etwa „Super Resolution“ oder KI-Funktionen der Hardware-Partner) lassen sich jetzt besser über Erweiterungen ansprechen.

Für Hörgeräteträgerinnen und -träger spannend: Damit nicht jede eingehende Nachricht im Hörgerät zu vernehmen ist, können Nutzer künftig Benachrichtigungstöne auf den Lautsprecher des Smartphones beschränken. Darüber hinaus können Nutzer die Wiedergabe von Klingeltönen und Benachrichtigungen über die Lautsprecher des Telefons sowie über ihre Hörgeräte oder In-Ohr-Implantate vollständig unterbinden. Hierfür werden Pixel-Geräten auf der Seite „Hörgeräte“ unter den Einstellungen für Barrierefreiheit zwei neue Schaltflächen angezeigt: eine für Benachrichtigungstöne und eine für Klingeltöne und Wecktöne.

Eine ausführlichere Übersicht weiterer Funktionen und Informationen für Entwickler finden sich im Android-Developers-Blog.


(afl)



Source link

Weiterlesen

Beliebt