Connect with us

Künstliche Intelligenz

Samsung überholt angeblich TSMC bei 2-Nanometer-Fertigungstechnik


Samsung will als erster Hersteller ein Smartphone mit einem Prozessor der 2-Nanometer-Klasse auf den Markt bringen. Und diese SoCs aus eigener Entwicklung (Exynos 2600) und von Qualcomm (Snapdragon 8 Elite 2) soll auch die Samsung-Fertigungssparte herstellen. Wenn der Plan aufgeht, könnte Samsung Foundry mit der Fertigungstechnik SF2 die N2-Technik des Erzrivalen TSMC überholen.

Intel will mit Intel 18A noch früher starten, allerdings nicht bei Smartphones. Südkoreanischen Brachenblättern zufolge arbeitet Samsung hart daran, die neuen SF2-Chips rechtzeitig für die kommende Smartphone-Generation Galaxy S26 fertigzustellen, die dem bisherigen Jahresrhythmus folgend im Frühjahr 2026 erscheinen dürfte. Das wäre ein wichtiger Erfolg für Samsung Foundry, die mit ihrer SF3-Technik wenig Glück hatte, sodass TSMCs N3 den Markt dominiert.

Schon in bisherigen Galaxy-Smartphones setzt Samsung je nach Marktregion und Geräteklasse sowohl Exynos-SoCs aus eigener Entwicklung und Fertigung ein als auch Snapdragon-SoCs von Qualcomm. New Daily hat vor kurzem berichtet, dass der kommende Exynos 2600 dieser Tage in die „Prototypen-Massenproduktion“ gegangen ist. Damit dürfte gemeint sein, dass Samsung Foundry die Massenproduktion in SF2 anhand des Exynos 2600 testet und optimiert.

Prozessorbauer benutzen für diesen Vorgang gerne den Begriff Pipe-Cleaning. Beim ersten Chip in einem neuen Fertigungsprozess läuft noch nicht alles rund. Vor allem das Verhältnis von nutzbaren Chips zu unbrauchbarem Ausschuss, der sogenannte Yield, tendiert anfangs stark hin zu Ausschuss. Im Gegenzug für dieses Risiko beziehungsweise die damit verbundenen höheren Kosten bekommt der Erstkunde vor allen anderen exklusiven Zugriff auf allerneueste Fertigungstechnik.

Bei TSMC war der Pipe-Cleaner bei den letzten Prozesseinführungen immer Apple. Dadurch konnte Apple früher als die Konkurrenz verbesserte Prozessoren verkaufen. Die Familie der M-Prozessoren enteilte auf diese Weise der x86-Konkurrenz.

Apple dürfte künftig weiterhin auf TSMC setzen – mit Folgen. Zwar steht das Hochfahren von TSMC N2 ähnlich wie für Samsung SF2 in der zweiten Jahreshälfte 2025 an. Apple hat jedoch einen anderen Smartphone-Zyklus als Samsung: Das nächste iPhone (iPhone 17) steht voraussichtlich schon im Herbst 2025 an und nicht erst wie das Galaxy S26 im Frühjahr 2026.

Deshalb kommt TSMCs N2 wohl zu spät für die iPhones des Jahres 2025; laut Spekulationen werden Apples A19 und A19 Pro wohl eine verbesserte Version von TSMC N3 nutzen. Vermutlich setzt Apple erst beim A20 für das iPhone 18 (Herbst 2026) auf TSMC N2.

Samsung wiederum nutzt in seinen High-End-Galaxy-Smartphones für manche Märkte auch Qualcomms High-End-Snapdragon. Das derzeitige Topmodell Snapdragon 8 Elite wurde Ende 2024 enthüllt und läuft in TSMCs N3-Prozess vom Band. Der Chip war der erste mit Oryon-Kernen in dieser Prozessstufe; der Notebookprozessor Snapdragon X Elite wird noch in N4 gebaut.

Da die Aktualisierung des letzteren viel dringender ist – der Chip wurde schon Ende 2023 vorgestellt – und Qualcomm die Oryon-Kerne auch noch in Server bringen möchte, dürfte der nächste Smartphone-Snapdragon eher einen kleinen Schritt nach vorne machen, er könnte bei einer neueren Version von TSMC N3 bleiben. Das wiederum stellt Samsung vor das Dilemma, dass es ein Galaxy S26 mit 2-Nanometer-CPU (Eyxnos) und eines mit 3-Nanometer-CPU (Snapdragon) geben würde. Der Sachverhalt wäre fürs Marketing unglücklich – erst recht, weil Samsung anno 2026 sicherlich plant, Apple mit Verweis auf 2-Nanometer-Fertigung die Butter vom Brot zu nehmen.

Die angebliche Lösung: Samsung setzt laut Business Post den nächsten Smartphone-Snapdragon, den Qualcomm für TSMC N3 entwickelt (Codename Kaanapali), selbst für den SF2-Prozess um (Kaanapali S). Es liegt die Vermutung nahe, dass Samsung den SF2-Snapdragon dann exklusiv verwenden darf. Schon im Galaxy S25 kommt nicht der Snapdragon 8 Elite von der Stange zum Einsatz, sondern eine Sonderversion namens Snapdragon 8 Elite for Galaxy. Das erinnert an frühere Zeiten, in denen Microsoft die erste bis dritte Generation des Notebookprozessors Snapdragon 8cx in den exklusiven Varianten SQ1 bis SQ3 für seine Surface-Pro-Tablets verwendete. Wobei damals der Namensunterschied viel mehr suggerierte als auf technischer Basis tatsächlich dahinter steckte …

Qualcomm scheint nicht nur beim Sonder-Snapdragon mit Samsung als Auftragsfertiger zu liebäugeln. Bei Samsung soll auch ein SF2-Chip mit dem Codename Trailblazer in Auftrag gegeben worden sein, bei dem es sich um eine Automotive-CPU handeln könnte. Glaubt man anderen Gerüchteköchen, so ist auch Nvidia an SF2 interessiert. Nvidia war einer der Kunden, den Samsung bei SF3 verloren hat, weil dieser nicht die nötige Reife erreicht hat. Samsung soll dadurch auch Apple und Google als potenzielle Kunden verloren haben.

Dass sich Samsung wieder erfolgreicher als Silizium-Auftragsfertiger in Szene setzt, hört man dieser Tage auch an anderen Stellen. So soll auch AMD Interesse zeigen, und zwar ganz konkret hinsichtlich des I/O-Chiplets, das ein Teil kommender Ryzen-Prozessoren werden soll. Dafür ist aber nicht SF2 nötig, sondern es genügt SF4. Zum Vergleich: Bei aktuellen Ryzen-CPUs für Desktop-PCs läuft das I/O-Chiplet bei TSMC in N6 vom Band.


(mue)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

2Lock: Regensburger Startup zeigt smartes Nabenschloss für E-Bikes


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Auf der Eurobike in Frankfurt stellen neben den Branchenriesen auch zahlreiche kleine Unternehmen ihre Neuheiten vor. Mittendrin ist in diesem Jahr das Regensburger Startup 2Lock, das ein integriertes Nabenschloss für E-Bikes entwickelt hat.

Das 2Lock-Schloss steckt, optisch unauffällig, in der Vorderradnabe. Die primäre Sicherung ist die Wegfahrsperre, die verhindert, dass das Rad sich dreht. Die Konstruktion verhindert, dass das Schloss während der Fahrt blockiert, es kann ausschließlich im Stillstand verriegeln. Die Bewegungssensoren im Rad sollen, so das 2Lock-Konzept, zudem einen lauten akustischen Alarm auslösen, wenn das System einen Diebstahlversuch erkennt, der nur durch das entsprechende Kommando mit dem Smartphone beendet werden kann. Die entstehende Aufmerksamkeit soll Langfinger ebenfalls abschrecken.

Neben der Wegfahrsperre ist das zweite zentrale Element von 2Lock die Ausbausperre. Ist das Schloss verriegelt, lässt sich das Vorderrad nicht mehr auf normalen Wege ausbauen. Um es zu entfernen, müsste man die Achse ausbohren oder die Gabel zerstören – beides ist mit viel Aufwand verbunden und damit für Fahrraddiebe einigermaßen unattraktiv.

Das 2Lock-Schloss wird in ein bestehendes E-Bike-System integriert. Der jeweilige Hersteller baut die entsprechenden Funktionen dafür in der App zum Rad ein, die für die allermeisten E-Bikes ohnehin bereits dazu gehört. Eine eigene App für die Ver- und Entriegelung gibt es nicht, diese Funktion wird in die jeweilige Hersteller-App integriert. Der Nachteil dabei: Nachrüsten lässt sich das 2Lock-Schloss kaum, separat verkauft wird es nicht.

Zu den Partnern, die 2Lock bereits gewinnen konnte, zählen der bayerische Radhersteller Hepha sowie das estnische Unternehmen Comodule, das IoT-Module zur digitalen Vernetzung von E-Bikes entwickelt. Comodule integriert das 2Lock-Schloss in sein Ökosystem, das mittlerweile auch von Yamaha für deren PW-Link-System verwendet wird. Hepha baut das Nabenschloss in das 3000 Euro teure Trekking-E-Bike Urban 8 ein, das der Hersteller ebenfalls in Frankfurt auf der Eurobike präsentierte.


(sht)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update kompakt: Microsoft vs OpenAI, Meta, kritische Infrastuktur, Sprache


Hinter den Kulissen von Microsoft und OpenAI tobt ein Machtkampf um die Kontrolle der künftigen KI-Landschaft. Der Streit entzündet sich an einer Vertragsklausel von 2019, die OpenAI das Recht gibt, Microsoft den Zugang zu seiner Technologie zu entziehen, sobald eine „Künstliche Allgemeine Intelligenz“ (AGI) entwickelt wurde. Was einst als theoretische Fantasie galt, steht nun im Zentrum harter Verhandlungen. Besonders brisant: Laut Wall Street Journal darf Microsoft bis 2030 keine eigene AGI entwickeln, was den Konzern in eine gefährliche Abhängigkeit bringt.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Die Spannungen verschärfen sich durch OpenAIs Börsenpläne, die Microsoft blockiert. Als Kompromiss wird erwogen, den Begriff AGI durch „Künstliche Superintelligenz“ zu ersetzen – ein semantischer Trick, der die Zielmarke in die Zukunft verschiebt. Während OpenAI-Chef Sam Altman andeutet, AGI sei in Sichtweite, tut Microsoft-CEO Satya Nadella die Debatte als übertriebenen Hype ab. Der Ausgang dieses Machtkampfs könnte die Zukunft einer Technologie bestimmen, die es streng genommen noch gar nicht gibt.

Bayern und Wien haben sich als Standorte für europäische KI-Gigafabriken ins Rennen gebracht. Die EU-Kommission plant, solche Rechenzentren mit bis zu 20 Milliarden Euro zu fördern, wobei die Privatwirtschaft fast zwei Drittel der Kosten tragen soll. Beide Bewerber haben rasch Konsortien mit lokalen Unternehmen gebildet.

Mit dieser Initiative will Europa den Anschluss an die globalen KI-Großmächte USA und China nicht verlieren. Nach der aktuellen Interessenbekundung folgt im vierten Quartal 2025 ein vertiefter Auswahlprozess. Die Gigafabriken sollen dann 2028 in Betrieb gehen – ein ambitionierter Zeitplan für Europas technologischen Aufholversuch.

Ein kalifornisches Gericht hat Meta im Rechtsstreit um die Nutzung urheberrechtlich geschützter Bücher für KI-Training überraschend Recht gegeben. Obwohl der Konzern einräumte, Bücher aus illegalen „Schattenbibliotheken“ per BitTorrent für das Training seiner KI Lama verwendet zu haben – ein Vorgehen, das Mark Zuckerberg persönlich genehmigte – scheiterte die Klage von 13 Autoren, darunter die Komikerin Sarah Silverman.

Der Richter begründete sein Urteil damit, dass die Kläger die falschen Argumente vorgebracht hätten. Die kurzen reproduzierten Textfragmente seien rechtlich unbedenklich, und ein Anspruch auf einen Lizenzmarkt bestehe nicht. Bemerkenswert: Der Richter deutete an, dass ein Fokus auf die Gefahr KI-generierter Texte, die den Markt mit ähnlichen Inhalten überfluten könnten, ein erfolgversprechenderes Argument gewesen wäre. Das Urteil gilt nur für diesen Einzelfall – künftigen Klagen mit besserer Argumentation räumt der Richter durchaus Erfolgsaussichten ein.

Creative Commons entwickelt neue Kennzeichnungen, um die faire Nutzung von Datensätzen für KI-Training zu regeln. Die Organisation hat vier Signale erarbeitet, die allesamt die Nennung der Verantwortlichen vorschreiben. Zudem können Dateninhaber finanzielle Bedingungen festlegen – entweder als direkte Zahlung oder als Beitrag zum zugehörigen Ökosystem.

Ein weiteres Signal erlaubt die Einschränkung, dass Daten nur für das Training offener KI-Systeme verwendet werden dürfen. Das Ziel ist klar: das offene Internet bewahren, indem transparente Regeln für die Nutzung von Inhalten im KI-Training geschaffen werden. Damit reagiert Creative Commons auf die wachsende Sorge, dass KI-Unternehmen sich an fremden Inhalten bedienen, ohne deren Schöpfer zu entschädigen.

Bremen wagt als erstes Bundesland den Schritt zum eigenen KI-Chatbot im Klassenzimmer. „Telli“, Teil des länderübergreifenden Projekts „Adaptives Intelligentes System“ (AIS), soll Lehrern und Schülern einen datenschutzkonformen Zugang zu generativer KI bieten. Der Chatbot arbeitet ausschließlich mit pseudonymisierten Daten und wird vollständig innerhalb der EU gehostet.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Moderne Kriegsführung findet längst nicht mehr nur auf dem Schlachtfeld statt. Cyberangriffe auf kritische Infrastruktur können ganze Volkswirtschaften lahmlegen. Cybersecurity-Expertin Sarah Fluchs warnt im c’t Podcast „They Talk Tech“ vor einer besonders gefährlichen Entwicklung: KI-Tools automatisieren zunehmend Entscheidungen, die für Menschen nicht mehr nachvollziehbar sind.

Meta hat drei hochkarätige KI-Forscher von OpenAI abgeworben – ein strategischer Coup im Kampf um die besten Köpfe der Branche. Die Spezialisten für maschinelles Lernen und Bildverarbeitung arbeiteten zuletzt im Zürcher Büro von OpenAI, das sie selbst mit aufgebaut hatten. Zuvor waren sie bei Google DeepMind tätig.

Die US-Sanktionen zeigen Wirkung: Das chinesische KI-Unternehmen Deepseek muss den Start seines neuen Modells R2 verschieben. Der Grund liegt im Mangel an Nvidia-Chips, insbesondere dem inzwischen verbotenen H20-Chip. CEO Liang Wenfeng ist mit der Leistung von R2 noch unzufrieden – ein direktes Resultat der verschärften US-Exportregeln.

Das Max-Planck-Institut für Bildungsforschung hat Alarmierendes entdeckt: KI-Modelle verändern bereits unsere Sprache. Nach Analyse von fast 280.000 YouTube-Videos stellten Forscher fest, dass Wissenschaftler in ihren Vorträgen innerhalb von nur 18 Monaten nach ChatGPTs Einführung deutlich häufiger typische KI-Wörter verwendeten.

Besonders bemerkenswert: In 58 Prozent der Fälle wurden diese Begriffe spontan gesprochen, nicht abgelesen. Erstmals passt sich der Mensch der Maschine an, nicht umgekehrt.

„AI Slop“ – KI-Abfall – überschwemmt zunehmend das Internet. Damit gemeint sind massenhaft produzierte KI-generierte Bilder, Videos und Texte minderer Qualität, die nur darauf abzielen, schnell Aufmerksamkeit auf Social-Media-Plattformen zu erregen. Das Problem verschärft sich, da KI-Tools immer besser werden: Bilder wirken realistischer, Videos lassen sich automatisch vertonen.

Der Medienphilosoph Thomas Sommerer von der Johannes Keppler Universität Linz warnt vor den Konsequenzen: „Ein digitales Informationsnetzwerk, das menschliche Interaktionen repräsentiert, hat sich jetzt in eine unkontrollierbare Masse von künstlich generierten Texten und Bildern entwickelt, die die virtuelle Welt dominieren.“


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Weiterlesen

Künstliche Intelligenz

VR- und KI-Brillen sind nur Brücken: Der heimliche Star heißt Augmented Reality


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Während Virtual Reality sich seit Jahrzehnten in Wellen durch mediale Euphorie und technologische Dämpfer hangelt, zieht Augmented Reality anscheinend beiläufig, aber konsequent in den Alltag ein. Der Unterschied? AR will nicht entführen, sondern begleiten – und genau das macht sie zur wahrscheinlich zukunftsfähigsten Spielart immersiver Technologien.

Ein Blick auf aktuelle Geräte wie Apple Vision Pro oder Meta Quest 3 zeigt: Das, was heute als Mixed Reality verkauft wird, ist in Wahrheit eine temporäre Zweckallianz aus VR und AR. Die Headsets sind noch immer weit entfernt davon, eine normale Brille zu ersetzen – zu schwer, zu auffällig, zu exklusiv im Preis. Doch sie erfüllen einen Zweck: Sie bereiten uns auf das vor, was kommt.

Diese Geräte sind nicht das Ziel, sondern die Brücke. Hersteller wie Meta, Apple oder auch Samsung und Google nutzen sie, um Ökosysteme vorzubereiten und uns Schritt für Schritt an neue Interaktionsformen heranzuführen: Gesten statt Maus, Sprache statt Touchscreen, Kontext statt Menüführung. Die Alltagstauglichkeit ist das Ziel.

Genau in diese Richtung bewegen sich Smart Glasses mit KI-Unterstützung wie die Ray-Ban Meta Glasses. Sie setzen auf Sprachsteuerung, KI-Assistenz, Audioausgabe und kamerabasierte Kontextanalyse. Auch visuelle Projektionen in das Sichtfeld werden bereits erprobt. Das sieht weniger nach Science-Fiction aus, funktioniert aber (meist) zuverlässig und unauffällig. Es sind diese Zwischenlösungen, die die notwendigen Erfahrungen liefern – sei es bei der Miniaturisierung der Hardware, der Energieverwaltung oder dem Zusammenspiel zwischen Mensch, Maschine und Umgebung.

Der eigentliche Paradigmenwechsel liegt aber nicht in der Hardware, sondern im Konzept. Virtual Reality sperrt uns aus der realen Welt aus – mit allen Vor- und Nachteilen. Augmented Reality hingegen macht genau das Gegenteil: Sie hält uns in der Realität und ergänzt sie. Sie bringt bereits bekannte Funktionen auf ein neues Level, macht sie praktischer. Das reicht von simplen Navigationseinblendungen bis zu komplexen Assistenzsystemen im Gesundheitswesen oder der Industrie.

Mit zunehmender Verfügbarkeit der Technologie, werden sich die Einsatzmöglichkeiten noch erweitern. Entwickler Stijn Spanhove hat beispielsweise mithilfe von Snap Spectacles und einer KI-App eine Art Adblocker für die reale Welt programmiert. Plakate im öffentlichen Raum werden „ausgeblendet“, das Blickfeld personalisiert. Technisch rudimentär, aber konzeptionell wegweisend: AR wird nicht nur zur Anzeigeplattform, sondern zum Filter – und damit zum Interface für das, was wir sehen wollen – oder eben nicht. Eine personalisierte Sicht auf die Realität.

Diese Entwicklungen zeigen, dass AR kein Spektakel braucht, um relevant zu sein, sie muss unterstützen. Und das macht sie anschlussfähig für den Alltag – anders als VR, das seine Stärken dort ausspielt, wo Realität keine Rolle spielt: bei Simulationen, Trainings oder Spielen. Virtual Reality bleibt ein faszinierendes Medium, aber eines mit klarem Anwendungsprofil. Augmented Reality hingegen hat das Potenzial, sich wie ein Betriebssystem über den Alltag zu legen. Nicht, weil sie spektakulär ist, sondern weil sie nützlich ist. Nicht, weil sie uns entführt, sondern weil sie uns begleitet.

Dass AR-Brillen heute noch mit Einschränkungen kämpfen – sei es beim Sichtfeld, Gewicht oder Akku – ist kein Geheimnis. Doch die Richtung ist klar: Mixed-Reality-Geräte und KI-Brillen übernehmen die Rolle des Eisbrechers, lösen technische Probleme im Feld und gewöhnen uns an neue Formen der Informationsverarbeitung. Die Tech-Konzerne testen, wie viel (oder wenig) Display wir akzeptieren, wie viel Kamera wir tolerieren und wie viel Assistenz wir benötigen, bevor es zu viel wird. Datenschutz, Energieverbrauch und soziale Akzeptanz werden nicht im Labor, sondern im Alltag verhandelt.

In der Rückschau wird diese Phase wohl als Übergangszeit gesehen werden – eine Art Betriebssystem-Update für die Realität. Nur ohne großes Pop-up-Fenster. Die eigentliche AR-Brille wird irgendwann einfach da sein. Klein, leicht, integriert. Und wir werden uns fragen, wie wir vorher ohne kontextsensitive Informationen im Sichtfeld leben konnten. Denn das ist vielleicht die größte Stärke von Augmented Reality: Sie drängt sich nicht auf – sie schleicht sich ein. Und sie verändert, wie wir uns in der Welt bewegen, ohne dass wir es merken. Vorausgesetzt, das Sichtfeld wird nicht zur Litfaßsäule. Aber das ist eine andere Geschichte.


(joe)



Source link

Weiterlesen

Beliebt