Künstliche Intelligenz
LG Electronics: Kerngeschäft schwächelt, Roboter sind die Zukunft
LG Electronics will sein KI- und Robotikgeschäft ausbauen und sieht darin einen zentralen Wachstumstreiber angesichts des schwächelnden Kerngeschäfts. Die Lieferketten in den USA will das Unternehmen stärken.
Weiterlesen nach der Anzeige
Wie aus einem Bericht der Korea Times hervorgeht, plant der Konzern, seine Expertise aus Haushaltsgeräten sowie Industrie- und Servicerobotik auf humanoide KI-Roboter zu übertragen. LG habe in den vergangenen Jahren Know-how in Bereichen wie Motoren, Aktuatoren und autonomer Navigation aufgebaut und wolle diese Kompetenzen nun bündeln, erklärte Finanzchef Kim Chang-tae während einer Telefonkonferenz zu den Ergebnissen des vierten Quartals 2025.
Bereits auf der CES hatte LG den Haushaltsroboter CLOiD gezeigt, wie er Wäsche in eine Waschmaschine lädt. Der Roboter bewegt sich auf Rädern, hat zwei Arme mit sieben Achsen und Hände mit fünf Fingern. Sein Kopf enthält Recheneinheit, Sensoren und Anzeige. Der Roboter ist Teil von LGs Konzept eines weitgehend automatisierten Haushalts, in dem Maschinen alltägliche Aufgaben selbstständig erledigen. Das Motto: „Zero labor Home“.
Zudem hatte LG jüngst eine Zusammenarbeit mit dem US-Robotikunternehmen Boston Dynamics bekannt gegeben. Künftig sollen die Forschungsteams von Boston Dynamics und LG Innotek eng zusammenarbeiten, um neue Vision-Sensing-Systeme zu entwickeln, die es dem humanoiden Atlas-Roboter ermöglichen, seine Umgebung besser wahrzunehmen und Objekte besser zu erkennen.
Ein Grund für den neuen Fokus: Das Kerngeschäft schwächelt. Zwar erzielte LG Electronics 2025 mit 89,2 Billionen Won (circa 55 Milliarden Euro) einen Rekordumsatz, wie unter anderem der Korea Herald berichtet. Der operative Gewinn sank jedoch um 27,5 Prozent auf 2,48 Billionen Won. Im vierten Quartal rutschte der Konzern mit einem operativen Verlust von 109 Milliarden Won in die Verlustzone. Besonders das Kerngeschäft um TV-Geräte und Displays entwickelte sich schwach, während Haushaltsgeräte, die B2B-Sparten für Automobilkomponenten sowie Heizungs-, Lüftungs- und Klimatechnik Rekordergebnisse erzielten.
Für das laufende Jahr rechnet LG mit anhaltenden Belastungen durch globale wirtschaftliche Unsicherheiten, Zölle und steigende Komponentenpreise. Um gegenzusteuern, will der Konzern unter anderem seine Lieferketten in den USA ausbauen und die Effizienz in den drei dortigen Produktionsstandorten erhöhen.
(rbr)
Künstliche Intelligenz
2028 kommen gestapelte GPUs | heise online
Gestapelte Logikchips sollen 2028 Realität werden. Nvidia will bei seiner übernächsten Generation Feynman mehrere GPU-Dies für seine KI-Beschleuniger übereinanderstapeln. Das bestätigte Firmenchef Jensen Huang bei der Eröffnung der Hausmesse GTC 2026 (im Video ab 2:12:33).
Weiterlesen nach der Anzeige
Eine GPU-Skizze auf Nvidias Roadmap sieht daher deutlich kleiner aus als die nächsten beiden KI-Beschleuniger Rubin sowie Rubin Ultra. Dort sitzen GPU-Dies und Speicherstapel nebeneinander, wobei ein Silizium-Interposer die Datenverbindungen herstellt. Diese Konstruktion nennen Hersteller 2,5D-Stacking.

Feynman folgt auf Rubin und Rubin Ultra.
(Bild: Nvidia)
Hitzeentwicklung problematisch
3D-Stacking mit mehreren Logikchips übereinander hat Vorteile, vor allem bei der Signalführung. Bisher konnten Chipfertiger allerdings ein Problem noch nicht für ein Serienprodukt lösen: die Wärmeabfuhr der unteren Dies. Die Kühllösung wird bei Feynman besonders spannend, da der KI-Beschleuniger über 2000 Watt elektrische Leistungsaufnahme gehen könnte. Zu den Details hat sich Nvidia bislang allerdings nicht geäußert.
3D-Stacking gibt es bislang nur mit Cache-Chiplets in größerem Maßstab. Der Chipauftragsfertiger TSMC und AMD etwa stapeln bei den Ryzen-X3D-Prozessoren CPU-Chiplets und Level-3-Cache. In dem Fall erzeugt der Speicher wenig Abwärme, sodass die Kühlung hinhaut. AMD forscht ebenfalls an komplexeren 3D-Stacking-Konstruktionen.
Erste Generation mit angepasstem HBM
Weiterlesen nach der Anzeige
Zusätzlich zur Stapelbauweise will Nvidia bei Feynman erstmals Custom High-Bandwidth Memory (cHBM) einsetzen. Dabei handelt es sich um einen Vorstoß der Speicherhersteller Samsung, SK Hynix und Micron sowie Zulieferern wie Marvell: Kunden wie Nvidia können beim cHBM eigene Logik zur Ansteuerung der Speicherstapel entwerfen und diese in eigene Prozessoren oder GPUs integrieren.
Bisher sitzt die Logik immer in einem Basis-Die, das die Speicherhersteller produzieren und unter die DRAM-Ebenen setzen. Der größte Nachteil dabei: Die Fertigungstechnik der Speicherhersteller ist auf DRAM spezialisiert. Wandern die Basis-Die-Transistoren in eine CPU oder GPU, kann sie etwa TSMC mit Logikfokus produzieren. Das spart potenziell Platz und erhöht die Effizienz. Zudem können Kunden die cHBM-Ansteuerung so an die eigenen Bedürfnisse anpassen.
Zusätzlich zu Feynman erscheint 2028 eine Fülle neuer Chips: Nvidias eigener ARM-Prozessor Rosa, der Netzwerkprozessor Bluefield-5, mehrere Switches und der auf Inferenz spezialisierte KI-Beschleuniger LP40 in Kooperation mit Groq.
(mma)
Künstliche Intelligenz
Bolt setzt für Robotaxis auf Nvidia-Technik
Der estnische Fahrdienstvermittler Bolt plant eine Zusammenarbeit mit Nvidia im Bereich Robotaxis. Während Nvidia die Technologie liefern soll, will Bolt Daten aus seinem Fahrbetrieb beisteuern.
Weiterlesen nach der Anzeige
Die technische Grundlage liefert Nvidias Drive Hyperion, eine Plattform, die Hardware, Sensorik und Software für den Einsatz von Robotaxis auf Level-4-Niveau bündelt. Bolt wiederum will seine umfangreichen Fahrdaten nutzen, um darauf basierende KI-Systeme zu trainieren. Darüber hinaus bleibt die Partnerschaft vage: Konkrete Schritte und ein Zeitplan nennen die Partner nicht.
Wahrung der Privatsphäre
Bolt stellt heraus, dass die Verarbeitung der Flottendaten unter Wahrung der Privatsphäre erfolgen und den Anforderungen der DSGVO sowie europäischen Cybersicherheitsstandards entsprechen soll. Zudem will das Unternehmen zentrale Werkzeuge, Schnittstellen, Referenzimplementierungen und mehr als Open Source zugänglich machen, um europäische Unternehmen und Forschungseinrichtungen zu stärken und die Abhängigkeit von außereuropäischen Ökosystemen zu verringern.
Für Bolt ist die Partnerschaft ein strategischer Schritt, um sich im entstehenden Markt für autonome Fahrdienste zu positionieren, ohne selbst die zugrunde liegende Technologie entwickeln zu müssen.
Mehrere Partnerschaften
Ende 2025 hatte Bolt bereits eine Zusammenarbeit mit dem Autokonzern Stellantis angekündigt sowie eine Partnerschaft mit dem chinesischen Entwickler Pony.ai, der in China fahrerlose Robotaxi-Dienste betreibt. Mit Stellantis will Bolt Testfahrzeuge für den Einsatz in europäischen Ländern entwickeln mit dem Ziel einer industriellen Produktion ab 2029.
Weiterlesen nach der Anzeige
US-Anbieter treiben derweil eigene Robotaxi-Projekte voran: Waymo betreibt in den USA bereits kommerzielle Robotaxi-Dienste und plant, diese 2026 nach London auszuweiten. Auch Uber und Lyft treiben entsprechende Projekte voran und wollen dort noch in diesem Jahr erste Robotaxi-Tests starten. Beide Unternehmen planen zudem Tests in Deutschland. Bis zu einem kommerziellen Einsatz dürfte allerdings noch einige Zeit vergehen.
(tobe)
Künstliche Intelligenz
Framework: Gas Town orchestriert Coding-Agenten nach Kubernetes-Vorbild
Coding-Agenten wie Claude Code und Codex CLI versprechen eine schnellere Entwicklung, doch Studien zeigen, dass der Aufwand sich häufig ins Promptschreiben, in Codereviews und das Warten auf Ergebnisse verschiebt. Hier setzt das in Go geschriebene Open-Source-Framework Gas Town an: Statt einzelne Agenten zu verbessern, orchestriert es viele Agenten gleichzeitig, die nach festen Rollen zusammenarbeiten und deren Fehler durch die Orchestrierungsschicht kompensiert werden.
Der Entwickler Steve Yegge hat Gas Town nach den Konzepten von Temporal und Kubernetes im Dezember 2025 entwickelt und Anfang Januar 2026 der Öffentlichkeit vorgestellt (Beitrag auf Medium und GitHub).
Der Name Gas Town ist der gleichnamigen postapokalyptischen Raffineriestadt aus der Mad-Max-Filmreihe entlehnt. Die chaotischen Zustände in der Stadt repräsentieren das Chaos, das sich oft bei der Koordination mehrerer Coding-Agenten ergibt. Um dieses Chaos Herr zu werden, gibt es feste Rollen und Abläufe.
Das war die Leseprobe unseres heise-Plus-Artikels „Framework: Gas Town orchestriert Coding-Agenten nach Kubernetes-Vorbild“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
