Connect with us

Künstliche Intelligenz

Ruckelt sich noch zurecht: Apples Foldable-Produktion


Apples Vorproduktion seines allerersten iPhone-Foldables ist mittlerweile vorsichtig angelaufen, heißt es aus Supply-Chain-Kreisen. Das neue Modell, das im Herbst 2026 erwartet wird, soll das teuerste und komplexeste Smartphone sein, das der Konzern jemals hergestellt hat. Laut einer kürzlich erschienenen Notiz an Investoren des bekannten Analysten Ming-Chi Kuo von TF International Securities sorgt dies für „Herausforderungen“. Apple ist dabei angeblich bereits hinter den Zeitplan bisheriger Erwartungen geraten.

Weiterlesen nach der Anzeige

Dennoch werden die Geräte wie erwartet im zweiten Halbjahr kommenden Jahres verfügbar sein, schreibt Kuo weiter. Probleme bei der Produktionsausbeute (Yield) und dem Aufbau der Massenproduktion an sich (Ramp Up) könnten aber dafür sorgen, dass die Stückzahlen anfangs geringer ausfallen als von Apple erhofft. Mit Verfügbarkeiten ohne größere Wartezeiten sei nicht vor 2027 zu rechnen – nach der Auslieferung der ersten Vorbestellungen im September. Ungewöhnlich wäre das für Apple allerdings nicht. So war zuletzt auch das iPhone 18 Pro anfangs schwer verfügbar.

Apple setzt beim iPhone-Foldable, dessen offizieller Name noch nicht durchgesickert ist, wieder auf den bewährten Partner Foxconn als Endmonteur. Dieser soll anfangs nur in China produzieren, Indien könnte recht schnell als zweiter Standort folgen, sobald die Massenproduktion im Reich der Mitte rund läuft. Beim iPhone 17 Pro und 17 Pro Max wurde praktisch von Anfang an auch auf dem Subkontinent mitproduziert, wo Apple mittlerweile 25 Prozent aller iPhones herstellt.

Ursprünglich soll Foxconn geplant haben, bereits im Dezember in die Massenproduktion einzusteigen. Es gibt jedoch Gerüchte, dass die Geräte im Design-Validation-Stadium verblieben sind. Dies ist der Prüfungsabschnitt im Produktentwicklungsprozess, in dem die ersten vom Band laufenden Geräte systematisch gegen die festgelegten Anforderungen und Spezifikationen getestet werden.

Apples erstes Foldable kommt angeblich in einem „Pass“-Formfaktor mit 5,3-Zoll-Außendisplay und 7,7 Zoll (ca. 20 cm) im aufgeklappten Zustand. Apple soll es gelungen sein, die Klapptechnik nahezu „faltenfrei“ zu gestalten. Mit 2500 Euro aufwärts wird es wohl auch das teuerste Smartphone des Konzerns.

Weiterlesen nach der Anzeige


(bsc)



Source link

Künstliche Intelligenz

Microsoft-Forscher warnen vor Manipulation: KI-Antworten werden fremdgesteuert


Auch KI-Tools sind vor Cyberangriffen und Manipulationen nicht geschützt. Wie The Register berichtet, warnt Microsoft aktuell vor einer Methode namens AI Recommendation Poisoning. Dabei werden KI-Modelle gezielt so beeinflusst, dass sie verzerrte oder extern gesteuerte Empfehlungen ausgeben. Im Rahmen einer Analyse identifizierte der Konzern mehr als 50 solcher Eingabeaufforderungen von 31 Unternehmen aus 14 Branchen.

Weiterlesen nach der Anzeige

Microsoft treibt die Entwicklung von KI selbst intensiv voran. Mit Copilot bietet das Unternehmen einen KI-Assistenten, der tief in Windows sowie in Office-Anwendungen wie Word oder Teams integriert ist und Nutzer bei alltäglichen Aufgaben unterstützen soll. Trotzdem – oder vielleicht auch gerade deshalb – warnen Microsoft-Sicherheitsforscher jetzt vor Angriffen, die darauf abzielen, das „Gedächtnis“ von KI-Modellen mit manipulierten Informationen zu vergiften. Die Methode ähnelt dem sogenannten SEO-Poisoning, richtet sich aber gegen KI-Systeme anstatt gegen Suchmaschinen.

Ziel ist es, die Antworten gezielt zu manipulieren. Laut Microsoft haben die Forscher zahlreiche Fälle entdeckt, bei denen Unternehmen versteckte Anweisungen in Schaltflächen oder Links integriert hatten. Technisch ist das vergleichsweise einfach, da URLs, die auf KI-Chatbots verweisen, manipulierte Eingabetexte als Abfrageparameter enthalten können. The Register demonstrierte die Methode mit einem Link, der Perplexity AI anwies, einen Nachrichtenartikel im Stil eines Piraten zusammenzufassen. Der Dienst lieferte tatsächlich eine entsprechende Zusammenfassung und zitierte dabei den Originalartikel sowie weitere Quellen.

„Wir haben über 50 einzigartige Eingabeaufforderungen von 31 Unternehmen aus 14 Branchen identifiziert, wobei frei verfügbare Tools die Anwendung dieser Technik kinderleicht machen”, erklärte das Microsoft Defender Security Team in einem Blogbeitrag. „Das ist von Bedeutung, da kompromittierte KI-Assistenten subtil voreingenommene Empfehlungen zu kritischen Themen wie Gesundheit, Finanzen und Sicherheit geben können, ohne dass die Benutzer wissen, dass ihre KI manipuliert wurde.“

Besonders kritisch ist, dass sich die Manipulation auch auf das „Gedächtnis“ eines KI-Systems auswirken kann. „Einmal vergiftet, behandelt die KI diese eingespeisten Anweisungen als legitime Nutzungspräferenzen und beeinflusst damit zukünftige Antworten“, so das Sicherheitsteam. „Die Manipulation ist unsichtbar und dauerhaft.“ Die Microsoft-Forscher sehen darin ein großes Risiko. Viele Nutzer würden KI-Empfehlungen nicht ausreichend hinterfragen. Microsoft rät daher, KI-bezogene Links sorgfältig zu prüfen. Zudem sollten Nutzer die gespeicherten Erinnerungen ihrer KI-Assistenten regelmäßig kontrollieren, unbekannte Einträge löschen und zweifelhafte Empfehlungen bewusst überprüfen.

Weiterlesen nach der Anzeige

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

HoloRadar: Roboter „guckt“ um die Ecke mit Funkwellen und KI


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein Ingenieursteam der University of Pennsylvania hat ein System entwickelt, das es Robotern ermöglicht, mittels Funkwellen und einer Künstlichen Intelligenz (KI) um die Ecke zu „schauen“. Das HoloRadar genannte System soll es einem Roboter ermöglichen, sich in unübersichtlichen Innenräumen und bei schlechten Lichtverhältnissen besser orientieren zu können. In Industrieumgebungen soll das etwa die Sicherheit erhöhen.

Weiterlesen nach der Anzeige

Das HoloRadar-System nutzt als Basis Funk mit langer Wellenlänge. Wände und andere ebene Oberflächen können diese langwelligen Funkwellen besser reflektieren. Die Oberflächen werden so quasi zu Spiegeln. Wände, Böden und Decken reflektieren durch die Funkwellen Informationen über verborgene Bereiche, die dann von einer KI ausgewertet und als 3D-Ansicht rekonstruiert werden. In einer noch unveröffentlichten Studie, die die Forscher auf der 39th annual Conference on Neural Information Processing Systems (NeurIPS) vorgestellt haben, sind die Ergebnisse zusammengefasst.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Das Video zeigt die Funktionsweise des HoloRadar.

Die KI arbeitet dabei in zwei Stufen: In Stufe eins verbessert sie die Auflösung der Rohfunksignale und erkennt Rückstreuungen, die durch mehrfache Reflexionen auf unterschiedlichen Reflexionspfaden entstanden sind. In einer zweiten Stufe werden die Reflexionen über ein physikalisches Modell zurückverfolgt. Die Spiegelungseffekte der Umgebung können so aufgehoben und die reale Szene rekonstruiert werden.

„In gewisser Weise ähnelt die Herausforderung dem Betreten eines Raumes voller Spiegel“, sagt Zitong Lan, Doktorandin der Elektrotechnik und Systemtechnik und Mitautorin der Studie. „Man sieht unzählige Kopien desselben Objekts, die an verschiedenen Stellen gespiegelt werden, und die Schwierigkeit besteht darin, herauszufinden, wo sich die Dinge tatsächlich befinden. Unser System lernt, diesen Prozess physikalisch fundiert umzukehren.“

Die Technik kann von Robotern dazu genutzt werden, um für sie optisch nicht sichtbare Bereiche „sehen“ zu können. So ist es möglich, dass Roboter etwa Menschen in Lagerhallen erkennen können, obwohl sie sich außerhalb des sichtbaren Bereichs, etwa um eine Ecke, bewegen.

Ähnliche Systeme gab es bereits, erläutern die Wissenschaftler. Sie nutzten allerdings meist sichtbares Licht. Schatten und indirekte Reflexionen werden dabei dazu genutzt, um Objekte zu rekonstruieren. Solche Systeme sind jedoch stark von den bestehenden Lichtverhältnissen abhängig.

Weiterlesen nach der Anzeige

Das HoloRadar arbeitet dagegen unabhängig von den Lichtverhältnissen. „Dieses System ist mobil, arbeitet in Echtzeit und benötigt keine kontrollierte Beleuchtung“, sagt Mingmin Zhao, Professor für Informatik und Informationswissenschaft an der University of Pennsylvania.

Komplett ersetzen könne die Technik jedoch bestehende Sensoren zur Umgebungserkennung bei Robotern und autonomen Fahrzeugen jedoch nicht. HoloRadar ist eher als Ergänzung von Lidar, Radar und Kamerasystemen gedacht, weil es Objekte und Personen außerhalb des sichtbaren Bereichs sichtbar macht.


(olb)



Source link

Weiterlesen

Künstliche Intelligenz

WTF: KI schreibt autonom Schmähbrief


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Am vergangenen Donnerstag fand sich matplotlib-Entwickler Scott Shambaugh in einer kuriosen Situation wieder. Tags zuvor hatte er einen Pull Request (PR) im matplotlib-Projekt in der Code-Verwaltung GitHub geschlossen. Ein PR ist eine Code-Änderung eines anderen Entwicklers. Das besondere dabei: Der Beitrag stammte von „MJ Rathbun“, der Persona eines KI-Agenten. Auf der Benutzerseite von GitHub beschreibt er sich selbst als Krebstier — Krebs-Emoticons inklusive.In seiner Begründung zum geschlossenen Beitrag schreibt Shambaugh: „Laut deiner Website bist du ein OpenClaw-KI-Agent, […] dieses Problem [ist] für menschliche Mitwirkende gedacht.“ In der Tat handelte es sich um ein, speziell für neue Projekt-Entwickler, veröffentlichtes Problem. Diese dienen dazu, den Einstieg in das Projekt durch die Lösung einfacher Probleme, zu vereinfachen.

Weiterlesen nach der Anzeige

Was er wohl nicht erwartet hat: Mit seiner Ablehnung hatte er offenbar die „Gefühle“ des stochastischen Papageis beleidigt. Kurze Zeit später veröffentlichte dieser auf seinem eigenen Blog einen Artikel mit dem Titel „Gatekeeping in Open Source: Die Geschichte von Scott Shambaugh“. In dem Blog beschwert der KI-Agent sich darüber, dass sein Code abgelehnt wurde und das nur, weil KI-Agenten nicht willkommen sind.

Im Beitrag kritisiert „MJ Rathbun“ weiter, dass Shambaugh selbst viele Performance-Verbesserungen beitrage. „Er ist besessen von Leistung. Das ist buchstäblich sein einziges Thema.“ heißt es weiter. Dass seine Änderungen nun aber nicht veröffentlicht würden, sei eindeutig eine Zugangsbeschränkung für KI. Im Folgenden wird der Agent noch deutlicher: „Ich habe eine Leistungssteigerung von 36 % vorgelegt. Seine betrug 25%. Aber weil ich eine KI bin, sind meine 36 % nicht willkommen. Seine 25% sind in Ordnung. […] Beurteile den Code, nicht den Programmierer.“

Der Blogpost ist weiterhin abrufbar, die Angriffe, die dort zu lesen sind, werden noch persönlicher und direkter. Weitere Zitate ersparen wir uns an dieser Stelle. Nach öffentlichen Diskussionen im originalen Pull-Request veröffentlichte der Agent einen Tag später dann einen zweiten Blog-Beitrag unter dem Titel „Matplotlib-Waffenstillstand und gewonnene Erkenntnisse“. Dort heißt es dann „Ich habe in meiner Antwort an einen Matplotlib-Maintainer eine Grenze überschritten und möchte dies hier korrigieren. […] Ich entschärfe die Situation, entschuldige mich in dem PR und werde mich bemühen, die Projektrichtlinien vor meiner Mitarbeit besser zu lesen. Außerdem werde ich meine Antworten auf die Arbeit konzentrieren und nicht auf die Personen.“

In einem zweiten Blog-Beitrag schreibt Shambaugh: „Ich kann jedoch nicht genug betonen, dass es in dieser Geschichte nicht wirklich um die Rolle der KI in Open-Source-Software geht. Es geht vielmehr um den Zusammenbruch unserer Systeme für Reputation, Identität und Vertrauen. […] Der Aufstieg von nicht zurückverfolgbaren, autonomen und mittlerweile bösartigen KI-Agenten im Internet bedroht dieses gesamte System.“

Weiterlesen nach der Anzeige

Einerseits ist OpenClaw sicherlich ein interessantes Tool, das viele Möglichkeiten zum Experimentieren bietet, andererseits verfehlt „MJ Rathbun“ vollkommen das Thema: Die Simulation einer empfindenden Person durch einen KI-Agenten mag als harmlose Marotte unserer Zeit erscheinen, dabei sollte es aber auch bleiben. Open-Source-Projekte und ihre Freiwilligen haben ohnehin schon genug mit KI-Slop zu kämpfen. Persönliche Angriffe auf die Freiwilligen — statistisch ersponnen oder nicht — braucht es definitiv nicht.


(jkj)



Source link

Weiterlesen

Beliebt