Connect with us

Apps & Mobile Entwicklung

TSMC-Neuheiten: SoIC-„X3D“-Stapeln weit vor CoPoS und Glas-Substrat wichtig


TSMC-Neuheiten: SoIC-„X3D“-Stapeln weit vor CoPoS und Glas-Substrat wichtig

Bild: TSMC

SoIC wurde dank des Ryzen X3D groß bekannt, in Zukunft soll es viel weiter greifen. An anderen Stellen schaltet TSMC aber einen Gang zurück, das betrifft unter anderem die Themen geändertes Packaging als auch Glas-Substrat, die unter Strich wohl erst ab 2030+ in den Fabriken von TSMC Einzug halten werden.

SoIC (System on Integrated Chip) steht für das direkte Stapeln von Chips mittels TSV übereinander. In diesem Jahr wird dort erstmals N3P gestapelt auf N4 umgesetzt, ab 2027 folgt dann N2P auf N3P, ehe dies zu N2P auf N2P und ab 2029 A14 auf A14 wechselt.

SoIC-Roadmap (Stand April 2025)
SoIC-Roadmap (Stand April 2025)

Die neue Roadmap hat dabei einige Anpassungen erfahren, wie der Blick ein Jahr zurück zeigt (siehe 2. Bild). Während die aktuellen Umsetzungen wohl einfach alle etwas später kommen – und so ein neuer Ryzen X3D und auch Venice-X mit N2P+N3P quasi als 2027er Produkt bestätigt ist – werden die Schritte danach neu sortiert und ergänzt. Ein geplanter 5-Micron-Pitch bereits für nächstes Jahr entfällt, dafür setzt 2029 A14 direkt auf A14 mit 4,5 Micron Pitch. Dies ist dem zusätzlichen Einsatzgebiet geschuldet, welches in Zukunft über Prozessoren hinaus geht. Insofern muss TSMC jedes Jahr Fortschritt anbieten können, nur für den L3-Cache-Slice bei Ryzen- und Epyc-Prozessoren war das noch nicht nötig.

TSMC will (fast) alles aus einer Hand anbieten
TSMC will (fast) alles aus einer Hand anbieten (Bild: TSMC)

Am Ende wird es die Kombination sein, die TSMC heute bereits im Marketing verkauft. Mit SoIC gestapelte Chips nutzen HBM mit TSMC-Base-Dies auf dem Package, dazu nutzen sie eine Co-Packaged-Optics-Lösung wie TSMC COUPE, komplett gepackt mittels CoWoS. Die jeweiligen Einzelteile und möglichen Kombinationen versprechen deutliche Skalierungen und Leistungszuwächse.

Technologien kombinieren verspricht große Boni (Bild: TSMC)

Da das Packaging stetig wichtiger wird, betont TSMC zum Summit in den USA natürlich auch, dass die geplante Packaging-Fabrik in Arizona SoIC und CoWoS gemeinsam anbieten wird. Doch das wird noch einige Jahre dauern, frühestens ab 2028 und dann 2029 in größerer Menge soll Packaging von TSMC auch in den USA geschehen. Dazu passend wird die zweite Chip-Fabrik ab dem nächsten Jahr für 3-nm-Chips die Produktion aufnehmen – diese braucht es gemäß Roadmap für das geplante Packaging.

PLP und Glas noch nicht geplant

Viel geredet wurde in den vergangenen Wochen über das Next-Gen-Packaging, welches PLP heißt: Panel Level Packaging. Bei TSMC hätte es wohl die Bezeichnung CoPoS bekommen, Chips on Panel on Substrate. Aktuell ergebe dies wirtschaftlich noch gar keinen Sinn, gab TSMC in der Presserunde zu verstehen. Die Ausbeute bei CoWoS (von über 98 Prozent) mit einem sehr gut eingespielten Verfahren bleibt absehbar das Maß der Dinge. Werden die Packages dann aber Anfang der 2030er Jahre noch größer, wird PLP entsprechend interessanter.

Gleiches gilt für die Thematik des Glas-Substrats. Dies hat gewisse Vorteile, aber die ständigen Anpassungen und Erweiterungen bei Interposern lassen auch hier die ersten Versuche bei verblassen. Unterm Strich sei das Thema letztlich wohl sogar noch später wichtig als PLP, gab TSMC zu verstehen. Konkurrenten wollen erste Schritte ab 2028 gehen.

Weitere Meldungen und Neuheiten von der Auftaktveranstaltung für dieses Jahr gibt es auf der Themenseite:

  • TSMC Technology Symposium 2026

ComputerBase hat Informationen zu diesem Artikel von TSMC vorab unter NDA erhalten. Die einzige Vorgabe war der frühestmögliche Veröffentlichungszeitpunkt.



Source link

Apps & Mobile Entwicklung

Retro-Handheld: Evercade Nexus ab sofort auch über Amazon vorbestell­bar


Retro-Handheld: Evercade Nexus ab sofort auch über Amazon vorbestell­bar

Bild: Blaze Entertainment

Blaze Entertainment hat die Vorbestellung für das bereits Ende März vorgestellte Handheld Evercade Nexus ausgeweitet und bietet die Konsole nun auch über Amazon an. Zuvor war eine Reservierung nur bei wenigen ausgewählten Händlern möglich, während die limitierte N64-Version bereits nach 24 Stunden vergriffen war.

Das Evercade Nexus ist mit einem 5,8 Zoll großen Display ausgestattet, das mit 840 × 512 Pixeln auflöst und eine Helligkeit von 500 Nits erreicht. Im Inneren soll ein nicht näher benanntes SoC mit vier Kernen und einem Takt von 1,5 GHz für ausreichend Leistung sorgen, der von 4 GB eMMC-Speicher unterstützt wird. Als Schnittstellen stehen WiFi 6 in den Bändern 2,4 und 5 GHz sowie Bluetooth zur Verfügung. Der fest verbaute Akku mit einer Kapazität von 5.000 mAh soll bis zu fünf Stunden Spielzeit ermöglichen und wird über USB-C geladen.

Für die Steuerung kommen zwei Analogsticks, ein D-Pad und Fronttasten sowie hintere Bumper- und Trigger-Tasten zum Einsatz, ergänzt durch strukturierte Griffflächen. Zudem unterstützt die Konsole den TATE-Modus für hochkant dargestellte Spiele. Darüber hinaus ist ein anpassbares RGB-Leuchtlogo integriert. Ein Anschluss an ein TV-Gerät ist hingegen nicht vorgesehen.

Kultspiel inklusive

Zum Lieferumfang gehört außerdem das „Banjo Kazooie Double Game Pack“ mit „Banjo-Kazooie“ und „Banjo-Tooie“ auf einer physischen Kassette, das sich per EverSync auch mit einem weiteren Nexus gemeinsam spielen lässt. Zusätzliche Inhalte lassen sich unter anderem über die Evercade-Bibliothek auf das Handheld übertragen, die mehr als 700 Spiele auf über 80 Kassetten umfasst. Die auf 2.000 Exemplare limitierte und innerhalb von 24 Stunden ausverkaufte N64-Edition beinhaltet zusätzlich eine Hartschalenhülle.

Auslieferung im Oktober

Das Evercade Nexus ist nun auch bei Amazon* vorbestellbar und wird zu einer unverbindlichen Preisempfehlung von 199,99 Euro angeboten. Die Auslieferung ist für Ende Oktober dieses Jahres vorgesehen.

(*) Bei den mit Sternchen markierten Links handelt es sich um Affiliate-Links. Im Fall einer Bestellung über einen solchen Link wird ComputerBase am Verkaufserlös beteiligt, ohne dass der Preis für den Kunden steigt.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Einfluss von ChatGPT: Ermittlungen gegen OpenAI nach Amoklauf an Universität


Knapp ein Jahr nach dem schweren Attentat auf dem Gelände der Florida State University, bei dem zwei Menschen ums Leben kamen und sechs weitere verletzt wurden, prüfen Ermittlungsbehörden in Florida, in welchem Umfang ChatGPT den mutmaßlichen Täter bei der Planung seiner Tat unterstützt haben könnte.

ChatGPT soll wichtige Informationen gegeben haben

Generalstaatsanwalt James Uthmeier erklärte laut einem Bericht der New York Post am Dienstag, seine Behörde habe Ermittlungen aufgenommen, nachdem sie Konversationen zwischen ChatGPT und dem mutmaßlichen Schützen Phoenix Ikner ausgewertet habe. Diese Gespräche soll Ikner im Vorfeld der Tat am 17. April 2025 mit dem KI-Bot geführt haben. Uthmeier vertritt dabei die Auffassung, dass ChatGPT dem Täter wesentliche Hinweise zur Umsetzung seines Plans geliefert habe.

Demnach soll ChatGPT unter anderem Hinweise zur Auswahl geeigneter Waffen und passender Munition gegeben haben sowie dazu, welche Waffen sich für bestimmte Distanzen am besten eignen. Auch Informationen darüber, welche Bereiche des Campus zu welchen Zeiten besonders stark frequentiert seien, führte der Generalstaatsanwalt in einer Pressekonferenz weiter aus. Die Vorwürfe gegen OpenAI fallen entsprechend schwer aus: „Meine Staatsanwälte haben sich das angesehen und mir gesagt, wenn es eine Person am anderen Ende des Bildschirms gewesen wäre, würden wir sie wegen Mordes anklagen“, erklärte Uthmeier.

OpenAI im Zentrum der Ermittlungen

Vor diesem Hintergrund hat die Staatsanwaltschaft nun Vorladungen an OpenAI, den Betreiber von ChatGPT, erlassen, um Einblick in interne Richtlinien und Schulungsmaßnahmen im Umgang mit Nutzern zu erhalten, die Selbstverletzung oder Gewalt gegen andere androhen. Darüber hinaus forderten die Ermittler weitere Informationen an, darunter Angaben zur Geschäftsleitung, zu Mitarbeitern sowie sämtliche Pressemitteilungen, die im Zusammenhang mit der Tat veröffentlicht wurden.

Mitschuld schwierig zu beweisen

Eine strafrechtliche Mitschuld von OpenAI nachzuweisen dürfte sich jedoch als schwierig erweisen. Laut Neama Rahmani, einem ehemaligen Staatsanwalt und heute als Anwalt tätigen Juristen, stehe die Generalstaatsanwaltschaft bei einem entsprechenden Vorgehen vor erheblichen rechtlichen Hürden. Insbesondere der Nachweis von Vorsatz und Kausalität dürfte schwer zu führen sein. Hinzu kommen Aspekte wie der erste Verfassungszusatz sowie Haftungsprivilegien, von denen Technologie-Unternehmen bei Straftaten ihrer Nutzer in der Regel profitieren. Rahmani zufolge bewege sich die Staatsanwaltschaft damit auf juristischem Neuland. Da gegen ein Unternehmen keine Freiheitsstrafe verhängt werden kann, käme im Falle einer Verurteilung für ihn ohnehin lediglich eine Geldstrafe infrage. Eine Zivilklage, wie sie derzeit von Angehörigen eines der Todesopfer angestrebt wird, sei seiner Ansicht nach deutlich aussichtsreicher.

OpenAI weist Schuld von sich

OpenAI stellt die Situation hingegen anders dar. Zwar kooperiere das Unternehmen mit den Ermittlungsbehörden, sehe jedoch keine Verantwortung bei seinem Chatbot. Ein Sprecher erklärte, sämtliche von ChatGPT in diesem Zusammenhang bereitgestellten Informationen seien auch aus öffentlich zugänglichen Quellen verfügbar gewesen. Nach Darstellung des Unternehmens habe das System weder illegale noch schädliche Aktivitäten angeregt oder gefördert. Nachdem OpenAI von dem Vorfall erfahren hatte, wurde ein mit dem Verdächtigen in Verbindung gebrachtes ChatGPT-Konto identifiziert und die entsprechenden Informationen proaktiv an die Strafverfolgungsbehörden weitergeleitet.

Zugleich kündigte das Unternehmen an, seine Sicherheitsmaßnahmen weiter zu verschärfen, um Nutzer mit „schädlichen Absichten“ künftig besser erkennen und angemessen darauf reagieren zu können.

Attentat bereits ein Jahr her

Phoenix Ikner, Student an der Florida State University, eröffnete am 17. April 2025 vor dem Studentenwerk auf dem Campus in Tallahassee, Florida, mit der Dienstwaffe seiner Stiefmutter, die als Deputy beim Sheriff-Büro von Leon County tätig war, das Feuer. Dabei tötete er zwei Menschen und verletzte sechs weitere. Das Motiv des mutmaßlichen Täters ist trotz der inzwischen langen Ermittlungsdauer weiterhin unklar, den bisherigen Erkenntnissen zufolge kannte Ikner seine Opfer nicht. Gegen ihn wird derzeit unter anderem wegen Mordes ersten Grades, versuchten Mordes sowie weiterer damit zusammenhängender Straftaten ermittelt.



Source link

Weiterlesen

Apps & Mobile Entwicklung

ChatGPT Images 2.0: Neuer Bildgenerator setzt vor allem auf besseres Verständ­nis


OpenAI hat die zweite Version seines Bildgenerators für ChatGPT vorgestellt und will damit vor allem zu Googles Nano Banana 2 aufschließen. Im Mittelpunkt der Weiterentwicklung steht weniger die reine Bilderzeugung als vielmehr ein verbessertes Verständnis der Nutzereingaben, um präzisere Ergebnisse zu liefern.

Bessere Schlussfolgerungen und besseres Verständnis

Mit ChatGPT Images 2.0 rückt OpenAI insbesondere die Fähigkeit zu Schlussfolgerungen sowie eine gesteigerte Genauigkeit in den Fokus. Im Gegensatz zum vor einem Jahr veröffentlichten Vorgänger setzt das Modell nicht mehr ausschließlich auf die direkte Umsetzung von Eingaben in Bilder, sondern interpretiert diese stärker im Kontext der beabsichtigten Nutzung. ChatGPT verfolgt damit einen bewussteren Ansatz und „denkt“ darüber nach, welches Ziel der Anwender mit seiner Eingabe verfolgen könnte. Dieses erweiterte „Verständnis der Welt“ soll sich unmittelbar in der Qualität der Bildgenerierung niederschlagen. Grundlage bildet ein Wissensstand bis Dezember 2025.

Ein Bildgenerator, der sich nicht wie ein Bildgenerator anfühlen soll

Darüber hinaus kann das Modell aus einer einzelnen Eingabe nun bis zu acht Varianten generieren, bei denen die zugrunde liegende Idee erhalten bleiben soll und gezielt weiterverarbeitet werden kann. OpenAI zielt damit auf eine Arbeitsweise ab, die sich weniger wie die Nutzung eines klassischen Bildgenerators anfühlt, sondern eher wie die Zusammenarbeit mit einem unterstützenden Werkzeug. Das Unternehmen beschreibt ChatGPT Images 2.0 in diesem Zusammenhang auch als „visuellen Denkpartner“. Wird bei der Generierung ein Thinking- oder Pro-Modell verwendet, kann Images 2.0 zudem in Echtzeit online recherchieren und die gewonnenen Informationen einfließen lassen.

„Make a sample page of a colorized Japanese shonen adventure manga. The page should vividly depict our main character found a magical quill. The name of the quill is called the Quill of GPT Image. Make it dramatic. The magical quill has strong power sealed inside it.“
„Make a sample page of a colorized Japanese shonen adventure manga. The page should vividly depict our main character found a magical quill. The name of the quill is called the Quill of GPT Image. Make it dramatic. The magical quill has strong power sealed inside it.“ (Bild: OpenAI)

Bessere Verarbeitung von komplexeren Anforderungen verbunden mit besseren Ergebnissen

Durch diesen Ansatz soll ChatGPT komplexe Eingaben deutlich besser, schneller und präziser verarbeiten können. In der Praxis führt das zu weniger notwendigen Korrekturen und damit zu einer schnelleren Erstellung von Bildern, die den Vorstellungen des Nutzers möglichst exakt entsprechen. Gleichzeitig sollen dadurch auch die Kosten sinken. Zudem verspricht OpenAI eine höhere Konsistenz über mehrere generierte Ergebnisse hinweg, was wiederum die Zuverlässigkeit steigert. Auch das Einbetten von Texten in Bildern, das in der Vergangenheit für viele KI-Tools eine Herausforderung darstellte, wurde laut OpenAI deutlich verbessert.

„cantor's diagonalization proof, infographic“
„cantor’s diagonalization proof, infographic“ (Bild: OpenAI)

Damit soll Images 2.0 in der Lage sein, feinere Details wie kleine Texte, Ikonografie, UI-Elemente, komplexe Kompositionen und subtile stilistische Vorgaben präziser darzustellen, an denen frühere Modelle häufig scheiterten. Unterstützt werden Auflösungen von bis zu 2K. Darüber hinaus profitieren Anwender von größerer Flexibilität bei den Seitenverhältnissen, was die Bandbreite möglicher Ergebnisse erweitert. Auch die Darstellung nicht-lateinischer Schriftsysteme wie Bengali, Hindi, Japanisch, Koreanisch und Mandarin wurde verbessert, sodass erzeugte Texte nicht nur korrekt wiedergegeben werden, sondern auch sprachlich kohärent bleiben.

Bilder mit realem Nutzen

Die Ausrichtung der Neuerungen zeigt, dass OpenAI sich stärker vom reinen Trenddenken im Bereich KI-Bildgeneratoren entfernt und den praktischen Nutzen in den Vordergrund stellt. Das verbesserte Verständnis von Eingaben, die präzisere Bildgenerierung und die erweiterte Textunterstützung sollen ChatGPT Images 2.0 insbesondere für Präsentationen, Inhalte in sozialen Medien oder das schnelle Festhalten spontaner Ideen prädestinieren. In Kombination mit Codex lässt sich das Modell zudem für Aufgaben in Design, Marketing, Produktentwicklung, Vertrieb sowie Aus- und Weiterbildung einsetzen. So können etwa mehrere UI-Richtlinien, Konzepte und Prototypen erzeugt, Varianten zügig verglichen und ausgewählte Ergebnisse direkt in produktive Anwendungen oder Websites überführt werden, ohne die Codex-App zu verlassen.

„A photorealistic candid travel scene of a person standing at a coastal roadside turnout on an overcast morning, shot on 35mm film. Natural imperfect framing, visible grain, ambient light, muted colors, wind in clothing and hair, cinematic realism, and the feeling of a lived-in documentary photograph.“
„A photorealistic candid travel scene of a person standing at a coastal roadside turnout on an overcast morning, shot on 35mm film. Natural imperfect framing, visible grain, ambient light, muted colors, wind in clothing and hair, cinematic realism, and the feeling of a lived-in documentary photograph.“ (Bild: OpenAI)

Noch lange nicht perfekt

Trotz der Fortschritte betont OpenAI, dass ChatGPT Images 2.0 weiterhin nicht fehlerfrei arbeitet. Insbesondere Aufgaben, die ein umfassendes und konsistentes Verständnis physischer Zusammenhänge erfordern, können das Modell vor Herausforderungen stellen. Als Beispiele nennt das Unternehmen unter anderem Origami-Anleitungen oder komplexe Puzzles wie den Rubik’s Cube sowie Situationen, in denen Details auf verdeckten, schrägen oder umgekehrten Oberflächen korrekt dargestellt werden müssen. Auch sehr dichte oder sich wiederholende visuelle Strukturen, wie etwa feine Sandkörner, können die Leistungsfähigkeit des Modells an ihre Grenzen bringen.

Ab heute verfügbar

ChatGPT Images 2.0 steht ab sofort allen Nutzern von ChatGPT und Codex zur Verfügung. Erweiterte Funktionen im Thinking-Modus sind jedoch ausschließlich Abonnenten der Plus-, Pro-, Business- und Enterprise-Tarife vorbehalten. Auch die zugehörige API ist bereits verfügbar, wobei die Kosten je nach gewählter Bildqualität und Auflösung variieren.



Source link

Weiterlesen

Beliebt