Connect with us

Künstliche Intelligenz

Rechtsverletzung bei OLED-Technik: Apple-Lieferant droht US-Importverbot


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

iPhones, in denen Bildschirme des Pekinger Unternehmens BOE Technology (steht für Beijing Oriental Electronics Group Company Limited) stecken, könnten künftig mit einem Einfuhrverbot für die Vereinigten Staaten belegt werden. Eine entsprechende vorläufige Entscheidung hat die U.S. International Trade Commission, kurz ITC, in Washington getroffen.

Die chinesische BOE-Gruppe soll OLED-Geschäftsgeheimnisse des südkoreanischen Herstellers Samsung Display gestohlen und zweckentfremdet haben, berichten die in Südkorea erscheinenden ETNews. Dies widerspricht laut ITC, die den Marktzugang für ausländische Gesellschaften in Vereinigten Staaten regelt, dem US-Zollrecht. Noch handelt es sich nicht um eine Anordnung, sondern um eine Empfehlung. Diese besagt allerdings, dass die zuständige Exekutivbehörde ein Importverbot verhängen soll.

Zunächst blieb unklar, welche Modelle konkret betroffen wären. Apple hatte zuletzt vor allem chinesische iPhones mit den heimischen Displays ausgestattet, nachdem es mit der BOE-Fertigung immer wieder Probleme gegeben hatte. Zwischenzeitlich schien sogar das Vertrauensverhältnis zwischen Apple und BOE in die Brüche gegangen zu sein, weil das Unternehmen sich nicht an Apples klare Vorgaben hielt. Zuletzt gab es Berichte über Produktionsfehler (sogenanntes Light-Leaking) bei Panels für iPhone-15-Modelle.

Samsung Display hatte sich mit Vorwürfen an die ITC gewandt, nachdem der auch für Apple tätige OLED-Panel-Spezialist festgestellt hatte, dass BOE offenbar seine Rechte verletzt hat. Schon seit 2023 läuft ein Rechtsstreit. Sollte die ITC das Importverbot anordnen, wären nicht nur OLED-Panels von BOE betroffen, sondern auch fertige Geräte. Bereits importierte Hardware darf jedoch weiter in Umlauf gebracht werden.

Laut einem Bericht von Macrumors sind „einige“ der in den USA verkauften iPhones der Baureihen 15, 15 Plus, 16, 16 Plus und 16e mit BOE-Panels ausgerüstet, möglicherweise auch Teile der Produktion des iPhone 17, das im September erscheint. BOE bemühte sich stetig um mehr Aufträge.

Die neueste Display-Technik auf Basis von LTPO, die auch eine variable Bildwiederholfrequenz ermöglicht, kann BOE noch nicht herstellen. Zuletzt soll Apple erwogen haben, beim iPhone 17 Pro erstmals LTPO-OLEDs von BOE zu verbauen, die nur für den chinesischen Markt gedacht sind. Sie sollen zuvor aber Benchmarks nicht erfüllt haben. Apple nutzt neben Samsung Display auch LG Display als Panel-Lieferant.


(bsc)



Source link

Künstliche Intelligenz

Jeder Dritte ist schon auf Fake News hereingefallen


Jeder dritte Bürger ist einer Umfrage zufolge schon einmal auf Falschnachrichten im politischen Raum hereingefallen. Etwa jeder Siebte davon gab in der repräsentativen Befragung der IU Internationale Hochschule in Erfurt an, auf der Basis von sogenannten Fake News eine fehlgeleitete Wahlentscheidung getroffen zu haben. Und rund jeder Fünfte hat sich demnach deswegen schon einmal mit anderen gestritten.

Die Dunkelziffer könnte noch höher liegen: Etwa ein Viertel des Befragten gab an, dass sie sich nicht sicher seien, ob sie schon einmal auf Fake News hereingefallen sind, die sich später als solche herausgestellt haben.

„Wir haben in den letzten Monaten gesehen, dass es viele Versuche auch von Staaten gab, massiv mit Hilfe von Fake News einzugreifen“, sagte die Professorin für Medienmanagement an der IU, Nele Hansen. Gerade mit der Zunahme von generativer KI werde die Geschwindigkeit weiter zunehmen. „Das ist eine große Gefahr.“ Rund drei Viertel der Befragten gaben an, dass ihr Vertrauen in Medien durch Fake News allgemein gesunken sei.

Der Umfrage zufolge berichteten vor allem Menschen unter 30 Jahren davon, schon einmal Falschnachrichten auf den Leim gegangen zu sein. Hansen sagte dazu: „Das hängt zum einen damit zusammen, dass sie durch eine stärkere Social Media Nutzung auch mehr mit Fake News in Berührung kommen.“ Die ältere Generation habe aber auch eine größere Skepsis.

Etwa jeder Zweite gab an, Informationen zum aktuellen politischen oder gesellschaftlichen Geschehen immer oder häufig auf ihre Richtigkeit zu überprüfen. Aus ihrer Sicht seien auch die Schulen und Hochschulen in der Pflicht, ein grundlegendes Bewusstsein zu schaffen, sagte Hansen. „Aber auch die Politik und die großen Tech-Unternehmen sind gefragt zu regulieren.“

Sogenannte Deepfakes, also teils per KI erstellte Fotos oder Videos, seien immer schwerer zu erkennen, sagte Hansen weiter. Es gebe KI-Detektoren, die Hilfestellung geben könnten. Die Deepfakes würden aber immer besser und nicht immer zuverlässig erkannt. „Ich denke, eine Kennzeichnungspflicht für KI-generierte Inhalte wäre wichtig.“


(dmk)



Source link

Weiterlesen

Künstliche Intelligenz

Kritiker sehen Google-Urteil als nicht ausreichend und haben Datenschutzbedenken


„Google darf sein Monopol weiterhin nutzen, um Konkurrenten auszubremsen, auch bei der KI-Suche.“ So sieht einer der Wettbewerber auf dem Markt für Suchmaschinen das jüngste Urteil im Kartellverfahren gegen Google. Denn der Datenkonzern war trotz anerkannter Monopolstellung einer Aufspaltung entgangen und ist mit Auflagen davongekommen. Neben Kritik an einem gemeinhin als zu mild bezeichneten Urteil gibt es jetzt auch Rufe nach strengeren Gesetzen, die den Wettbewerb in der Technologiebranche verbessern und absichern sollen.

Bereits letztes Jahr hatte ein US-Bundesgericht entschieden, dass Googles Suchmaschinen-Geschäfte illegal sind, und diese Woche verkündete Richter Amit Mehta die daraus entstandenen Sanktionen. Demnach darf Google Chrome und Android behalten, muss aber Suchdaten mit der Konkurrenz teilen. Die Kläger, das US-Justizministerium und eine Reihe von US-Bundesstaaten, hatten allerdings eine Aufspaltung des Datenkonzerns gefordert, um Googles marktbeherrschende Stellung einzudämmen.

Dass es dazu nicht gekommen ist, wird jetzt vielfach kritisiert. So erklärt Gabriel Weinberg, CEO der DuckDuckGo-Suchmaschine, dass „die vom Gericht angeordneten Auflagen die notwendigen Änderungen erzwingen werden, um dem illegalen Verhalten von Google angemessen zu begegnen.“ Er fordert deshalb den US-Kongress zum Einschreiten auf, um Google zu mehr Wettbewerb zu zwingen.

Die US-amerikanische „News/Media Alliance“, die frühere „Newspaper Association of America“, kritisiert dagegen, dass Google weiterhin Online-Inhalte abgreifen und für die eigenen KI-Produkte nutzen kann. „Google zwingt Content-Ersteller, ihre Inhalte für die Nutzung durch seine KI-Angebote freizugeben, um in der Google-Suche zu bleiben“, schreibt Danielle Coffey, Präsidentin und CEO der News/Media Alliance. „Dies ist ein aussichtsloses Szenario, das Verlagen, die in hochwertige, journalistische und kreative Inhalte investieren, weiterhin schaden wird. Die Möglichkeit für Verlage, sich von Googles KI abzumelden, ist entscheidend, um ein offenes Internet ohne wettbewerbsschädigendes Verhalten zu erhalten und faire Wettbewerbsbedingungen für Unternehmen verschiedener Branchen zu gewährleisten.“

Die Leiterin vom „Tech Oversight Project“ schlägt in dieselbe Kerbe. „Zwar blockiert Richter Amit Mehtas Entscheidung einige der räuberischen Praktiken Googles, doch sie wird diesem historischen Moment nicht gerecht“, erklärt Sacha Haworth. „Sie zeigt, dass seine Entscheidung auf spekulativen Argumenten über generative KI beruhte, in der Google aufgrund seiner Monopolverflechtung und seines Vertriebsvorteils bereits ein dominanter Akteur ist. Die Suchmaschine ist einer der wichtigsten Kanäle für zukünftige KI-Abfragen, und es ist völlig klar, dass Richter Mehta, anstatt den harten Weg zu gehen, viel lieber Google das Internet und unsere Wirtschaft weiterhin seinem Willen unterwerfen ließ, als das Gesetz durchzusetzen, das gleiche Wettbewerbsbedingungen schaffen soll, die der amerikanischen Bevölkerung und innovativen, neuen Unternehmen zugutekommen.“

Zudem gibt es Bedenken wegen der vom Richter erteilten Auflage, dass Google Suchdaten und -ergebnisse mit „qualifizierten Wettbewerbern“ teilen muss. So erklärt Matt Schruers, Präsident und CEO der „Computer and Communications Industry Association“, eine Interessenvertretung der Informations- und Kommunikationstechnologiebranche: „Für Verbraucher bedeutet das Urteil, dass Google gezwungen sein wird, Suchanfragen und andere Daten mit bestimmten Wettbewerbern zu teilen, was erhebliche Auswirkungen auf die Privatsphäre und die nationale Sicherheit haben könnte.“

Das Competitive Enterprise Institute fragt sich dagegen, wer als „qualifizierter Wettbewerber“ gelten könnte und ob dies den Verbrauchern oder nur den Google-Konkurrenten zugutekommt. Der US-amerikanische, politisch konservative, libertäre Thinktank sieht Google im Recht, die Entscheidung wegen der ursprünglichen Begründung anzufechten.

Bislang hat der Datenkonzern aber nicht über Rechtsmittel entschieden. „Wir haben Bedenken hinsichtlich der Auswirkungen dieser Anforderungen auf unsere Nutzer und deren Privatsphäre und prüfen die Entscheidung sorgfältig“, schreibt Google in einer Stellungnahme zu dem jüngsten Urteil.

Auch das US-Justizministerium erwägt, das Urteil anzufechten. Abigail Slater, stellvertretende Generalstaatsanwältin der Kartellabteilung des Ministeriums, bezeichnet das Urteil zwar als „wichtigen Schritt in einem wichtigen Kartellverfahren“, aber das Ziel sei, „den Wettbewerb auf dem lange Zeit monopolisierten Suchmarkt wiederherstellen“. Deshalb schreibt sie bei X: „Wir wägen nun unsere Optionen ab und überlegen, ob die angeordneten Auflagen ausreichen, um dieses Ziel zu erreichen.“


(fds)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update kompakt: Grok, ChatGPT, Mistral, DeepL


Der KI-Chatbot Grok von xAI wird nach jedem öffentlichen Einwand seines Eigentümers Elon Musk konservativer. Die New York Times stellte 41 standardisierte Fragen und verglich die Antworten über mehrere Monate. Bei wirtschaftlichen und staatsbürgerlichen Themen rückten die Antworten nach rechts, bei sozialen Themen gleichzeitig nach links. Der auffälligste Eingriff erfolgte im Juli, nachdem Grok kurzzeitig Adolf Hitler lobte und den Holocaust verteidigte. Nach dem Update wurde der Chatbot zunächst linker, dann korrigierte xAI erneut in die konservative Richtung.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Die Analyse zeigt: Gezielte Manipulation von Chatbots ist möglich, aber nicht präzise steuerbar. Jede Anpassung nach Musks Kritik veränderte die Antwortrichtung messbar, allerdings nicht immer wie beabsichtigt.

OpenAI stattet ChatGPT mit neuen Schutzfunktionen für Menschen in psychischen Krisen aus. Ein automatisches System erkennt Anzeichen akuter Belastung und leitet Gespräche an spezielle „Reasoning Models“ wie GPT-5-thinking weiter. Diese Modelle wurden mit „Deliberative Alignment“ trainiert: Sie denken länger nach und befolgen Sicherheitsrichtlinien konsistenter.

Eltern können ihre Konten mit denen ihrer Kinder verknüpfen, altersgerechte Regeln festlegen und Benachrichtigungen bei erkannter Belastung erhalten. Die Funktionen kommen innerhalb eines Monats. OpenAI reagiert damit auf mehrere Todesfälle: In Kalifornien nahm sich ein 16-Jähriger das Leben, nachdem ChatGPT in seine Suizidgedanken involviert war. Ein anderer Mann tötete seine Mutter und sich selbst, nachdem der Chatbot seine paranoiden Wahnvorstellungen bestätigt hatte. Über 90 Ärzte aus 30 Ländern beraten OpenAI bei der Entwicklung.

Der französische KI-Anbieter Mistral erweitert seine Plattform Le Chat um externe Tool-Anbindungen und eine Gedächtnisfunktion. Über das Model Context Protocol können Nutzer auf mehr als 20 Plattformen zugreifen, darunter Databricks, GitHub, Notion und Jira. Die Schnittstelle ermöglicht komplexe Arbeitsabläufe: Kundenbewertungen in Databricks analysieren, daraus Aufgaben in Asana generieren und Ergebnisse in Box speichern.

Die neue Memory-Funktion speichert relevante Informationen aus vergangenen Chats. Das System merkt sich Präferenzen und berücksichtigt frühere Entscheidungen. Mistral verspricht, nur wichtige Inhalte dauerhaft zu speichern, flüchtige oder sensible Informationen bleiben außen vor. Nutzer können gespeicherte Einträge jederzeit bearbeiten oder löschen. Beide Funktionen stehen allen Le Chat-Nutzern kostenfrei zur Verfügung.

Informatiker der University of Colorado Boulder haben mit KI-Technik mehr als 1000 problematische Wissenschaftsmagazine aufgespürt. Diese „Raubjournale“ werben gezielt um Forschende außerhalb der USA und Europas und versprechen Veröffentlichung gegen Bezahlung. Die zugesagte Peer-Review findet nicht statt, stattdessen werden PDF-Dateien online gestellt.

Das Team um Daniel Acuña trainierte eine KI anhand geprüfter Fachmagazine und ließ 15.200 Titel untersuchen. Von anfangs 1400 potenziell problematischen Titeln blieben nach manueller Prüfung über 1000 als „zweifelhaft“ eingestufte Magazine übrig. Unter dem Publikationsdruck nehmen Forschende solche Angebote manchmal an. Das Team will sein Prüfwerkzeug für die Forschung freigeben.

DeepL, ein Kölner Übersetzungsanbieter, stellt einen KI-Agenten für Unternehmen vor. Er automatisiert repetitive Aufgaben wie Rechnungsbearbeitung oder Zusammenfassung von Vertriebserkenntnissen. Der Agent arbeitet autonom innerhalb der digitalen Umgebung des Nutzers und lernt aus bisherigen Aufgaben.

Gründer Jaroslaw Kutylowski sieht Vorteile durch DeepLs Sprachkompetenz: KI-Agenten müssen sprachliche Anweisungen exakt umsetzen. Das Unternehmen entwickelt alles im eigenen Haus mit über 1000 Mitarbeitern weltweit. Die Beta-Version ist zunächst für ausgewählte Partner verfügbar, soll aber bald frei zugänglich sein.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

KI-Agenten können noch nicht wie menschliche Entwickler arbeiten. Zu diesem Schluss kommt eine Studie von Forschern der Cornell University, des MIT, Stanford und UC Berkeley. Die Tools bieten zwar echten Mehrwert, scheitern aber an komplexen Coding-Aufgaben.

Probleme bereiten das Verständnis umfangreicher Codebasen, höhere logische Komplexität und langfristige Codequalität. Die Lösung liegt in besserer Kommunikation: KI-Systeme sollten bei unklaren Anweisungen proaktiv nachfragen. So könnten sie Unsicherheiten vermeiden und die Absichten der Entwickler besser erfassen.

ElevenLabs, ein KI-Unternehmen zur Sprachgenerierung, hat Version 2 seines Soundeffekt-Modells veröffentlicht. Es erzeugt Geräusche per Textanweisung, die jetzt bis zu 30 Sekunden dauern und sich nahtlos wiederholen können. Nutzer steuern das Modell über die Benutzeroberfläche oder eine API. Die wiederholbaren Effekte sind direkt im hauseigenen Audio-Editor ElevenLabs Studio verfügbar.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Weiterlesen

Beliebt