Künstliche Intelligenz
Milliarden-Deal: Nvidia steigt bei Marvell ein
Die KI-Branche läuft weiter heiß. Der US-Chip-Konzern Nividia hat zwei Milliarden US-Dollar in Marvell Technology investiert. Beide Unternehmen gehen zudem eine strategische Partnerschaft ein. Diese soll Kunden, die auf Nvidia-Architekturen aufbauen, die Nutzung der von Marvell entwickelten, kundenspezifischen KI-Chips in Kombination mit Nvidias Netzwerkkomponenten und Prozessoren erleichtern. Das teilten beide Unternehmen am Dienstag in gleichlautenden Erklärungen mit.
Weiterlesen nach der Anzeige
Durch die Partnerschaft erhalten die Kunden „mehr Auswahl und Flexibilität bei der Entwicklung von Infrastrukturen der nächsten Generation“, heißt es. Marvell wird demnach kundenspezifische Chips und mit Nvidias NVLink Fusion kompatible Netzwerklösungen beisteuern, während der Nvidia unterstützende Technologien wie CPUs, Netzwerkkarten und Verbindungen bereitstellt.
„Der Wendepunkt in der KI-Entwicklung ist erreicht. Die Nachfrage nach Token-Generierung steigt rasant, und weltweit wird mit Hochdruck an der Entwicklung von KI-Fabriken gearbeitet“, wird Nvidia-CEO Jensen Huang in der Mitteilung zitiert. „Gemeinsam mit Marvell ermöglichen wir unseren Kunden, das KI-Infrastruktur-Ökosystem von Nvidia zu nutzen und spezialisierte KI-Rechenkapazitäten zu skalieren.“
Die Partnerschaft mit Nvidia unterstreiche die wachsende Bedeutung von Hochgeschwindigkeitsverbindungen, optischen Verbindungen und beschleunigter Infrastruktur für die Skalierung von KI, erklärte der CEO von Marvell, Matt Murphy. „Durch die Verbindung von Marvells führender Expertise in den Bereichen analoge Hochleistungselektronik, optische digitale Signalverarbeitung (DSP), Siliziumphotonik und kundenspezifische Siliziumtechnologie mit Nvidias wachsendem KI-Ökosystem mittels NVLink Fusion ermöglichen wir unseren Kunden den Aufbau skalierbarer und effizienter KI-Infrastrukturen.“
Skalierbarkeit und Energieeffizienz immer wichtiger
Jacob Bourne, Analyst bei dem Marktforschungsunternehmen eMarketer verweist gegenüber der Nachrichtenagentur Reuters darauf, dass bei KI-Systemen und -Rechenzentren deren Skalierbarkeit sowie Bandbreite und Energieeffizienz eine Schlüsselrolle spielen. „Die Übernahme [von Marvell, Anm.] erweitert Nvidias Ökosystem um spezialisiertere Siliziumchips und stärkt damit Nvidias Position als zentraler Zugangspunkt für zunehmend vielfältige KI-Workloads“, so der Experte.
Beide Unternehmen werden außerdem zusammenarbeiten, um fortschrittliche Netzwerklösungen für KI voranzutreiben, darunter optische Verbindungslösungen und Siliziumphotoniktechnologie, die eine schnelle und energieeffiziente Datenübertragung ermöglichen, kündigten sie an.
Angesichts des weltweiten KI-Booms investieren die großen Tech-Konzerne derzeit Milliarden in den Aufbau von KI-Infrastruktur. Im vergangenen Herbst kündigte Nvidia zusammen mit OpenAI das „größte KI-Infrastrukturprojekt der Geschichte“ an und dafür insgesamt 100 Milliarden US-Dollar in den ChatGPT-Entwickler zu investieren. Geplant wurden mehrere Rechenzentren, die mit zehn Gigawatt einen Energiebedarf aufweisen sollten, welcher der Leistung von zehn Kernkraftwerken entsprechen würde. Mittlerweile klingen die OpenAI-Pläne von Nvidia weniger forsch. Zwar dementierte Nvidia-CEO Huang Medienberichte, wonach die Investitionspläne auf Eis gelegt wurden. Aber auch die ursprünglich genannte Summe von 100 Milliarden US-Dollar erscheint nunmehr unrealistisch. Nvidia will zwar weiter in OpenAI investieren – aber keine 100 Milliarden.
Weiterlesen nach der Anzeige
(akn)
Künstliche Intelligenz
Von vor der Haustür bis ins All: Die Bilder der Woche 20
Diese Woche haben es ästhetische Ansichten von Frauen gleich zweimal in die Auswahl der Bilder der Woche geschafft. Gleichauf liegen Vogelporträts. Die Naturaufnahmen reichen von Tauben im urbanen Raum vor der Haustür und saisonal passenden Magnolienblüten bis zu einer Sanddüne, auf der eine Frau einen roten Schirm aufspannt. Ein Motiv verlässt unseren Heimatplaneten jedoch und blickt tief ins All. Viel Freude mit dieser spannenden Mischung aus verschiedenen Welten!
Weiterlesen nach der Anzeige
Elisa von M.Schröder

Elisa
(Bild: M.Schröder)
Vor einem weißen Hintergrund steht eine Frau als scharfe Silhouette vor einem Reifen. Das Schwarz-Weiß reduziert die Szene auf Kontur, Haltung und Kreisform. Die exakte Komposition setzt Körper und Ring mittig ins Bild und hält die Linien klar in Balance. Die ruhige Pose macht aus dieser Sportfotografie ein stilles Porträt und gibt dem Bild eine starke Präsenz.
Der rote Schirm von Reiner von der Schlei

Der rote Schirm
(Bild: Reiner von der Schlei)
Eine Frau mit einem roten Schirm bewegt sich durch eine Dünenlandschaft aus Sand und Gräsern. Der Hintergrund des Fotos ist nicht ganz eindeutig, was die Szene gerade deshalb spannend macht. Die ungewöhnliche Bildaufteilung rückt die Figur weit an den linken Bildrand und lässt die freien Flächen dadurch stärker wirken. Erdtöne, Rot und Schwarz, treffen in einer interessanten Komposition aufeinander. Das Bild wirkt zugleich ruhig, rätselhaft und stark.
Weiterlesen nach der Anzeige
In die Sonne von katzefudder

In die Sonne
(Bild: katzefudder)
Zwei Tauben auf einem Geländer im Stadtraum. Einer der Vögel scheint in diesem Moment zu landen und spreizt die Flügel. Dabei erfasst das Weitwinkelobjektiv die Umgebung mit Geländer, Pflaster, Gebäuden und Himmel und setzt sie dynamisch ins Bild. Durch die Schwarz-Weiß-Umsetzung werden die Kontraste, die Wolken und die Bewegungen verstärkt. So wird aus einer simplen Alltagsszene ein actionreiches Streetfoto mit viel Dramatik.
Rosettennebel NGC 2237 von Frenchi81

Rosettennebel NGC 2237
(Bild: Frenchi81)
Dieses Deep-Sky-Bild zeigt glühende Gaswolken, die sich wie Blütenblätter durch das Zentrum des Bildes ziehen. Der Rosettennebel leuchtet in kräftigen Orange- und Rottönen, während feine Sternpunkte die dunklen Bereiche des Weltalls durchbrechen. Die kreisförmige Struktur lenkt den Blick direkt in den offenen Sternhaufen im Zentrum. Das Bild besteht aus 124 Aufnahmen à 30 Sekunden, für die die Programme Siril, GraXpert, Starnet++ und Photoshop genutzt wurden. Durch Kontraste und eine starke Nachbearbeitung werden selbst kleinste Details aus dem Motiv herausgeholt und der Aufnahme wird eine fast plastische Wirkung verliehen.
Pretty Flamingo von Addi Beck

Pretty Flamingo
(Bild: Addi Beck)
Nur der Hals und der Kopf dieses Flamingos tauchen aus dem tiefschwarzen Hintergrund auf. Das kräftige Pink im Gesicht und der dunkle Schnabel ziehen den Blick sofort auf sich. Durch die enge Freistellung wird das Motiv auf klare Formen und starke Linien reduziert. Der geschwungene Hals führt elegant durch das Bild und verleiht dem Vogel gleichzeitig etwas Fremdartiges. Licht und Kontrast arbeiten die feinen Strukturen im Gefieder heraus und geben dem Porträt eine fast gemalte Anmutung.
Magnolie von bkl

Magnolie
(Bild: bkl)
Zarte rosa Blüten öffnen sich zwischen den feinen Ästen der Magnolie. Der weiße Hintergrund löst die Pflanze aus ihrer Umgebung heraus und lenkt den Blick auf die Farben und Formen. Die verzweigten Linien der Äste ziehen sich wie Pinselstriche durch das Bild und geben der ruhigen Komposition Struktur. Licht und sanfte Kontraste verleihen der Aufnahme zudem eine malerische Wirkung. Das Ergebnis ist ein Bild, das eher an eine Kunstzeichnung als an klassische Naturfotografie erinnert.
Susanna von Thomas Ruppel

Susanna
(Bild: Thomas Ruppel)
Dieses Schwarz-Weiß-Porträt lebt von weichem Licht und feinen Abstufungen zwischen Schatten und hellen Hauttönen. Der Kopf der jungen Frau ist an ihren Arm gelehnt und ihr Blick ist direkt in die Kamera gerichtet. Durch die enge Bildkomposition werden Gesicht, Blick und Haltung in den Mittelpunkt gerückt. Haare, Arme und Schultern formen geschwungene Linien, die dem Bild Ruhe und Nähe verleihen.
(vat)
Künstliche Intelligenz
„Doom“ läuft jetzt auch auf Meta Ray-Ban Smart Glasses
Sieben Monate nach Erscheinen der Meta Ray-Ban Display können Entwickler jetzt erste Apps für Metas erste Smart Glasses mit integriertem Display bauen. Der Entwickler Timur Abdrakhimov (Linkedin) demonstriert die neuen Möglichkeiten mit einer Portierung des Ego-Shooters „Doom“.
Weiterlesen nach der Anzeige
Das Spiel erscheint auf dem Wellenleiter-Display der smarten Brille, das über ein diagonales Sichtfeld von 20 Grad verfügt. Gesteuert wird es über Fingerbewegungen, die das Meta Neural Band in Computerbefehle übersetzt. Die Anzeige der Meta Ray-Ban Display ist nur für das rechte Auge sichtbar, wodurch sich die Brille nur bedingt für längere Spielesessions eignet. Als Machbarkeitsnachweis ist das Experiment dennoch interessant, zumal „Doom“ zuvor bereits auf Taschenrechnern, Rasenmähern und sogar elektrischen Zahnbürsten zum Laufen gebracht wurde.
Die Meta Ray-Ban Display ist derzeit wegen Lieferengpässen nur in den USA erhältlich. In der EU erschweren zudem Vorgaben zu Batterien und KI die Markteinführung. Einem Bericht zufolge plant Meta noch für dieses Jahr eine zweite Generation der Smart Glasses. Möglicherweise hebt sich Meta die weltweite Einführung für dieses Nachfolgemodell auf.
Zwei Wege zu Apps für die Meta Ray-Ban Display
Entwicklern stehen zwei Ansätze für die Entwicklung von Apps für die Meta Ray-Ban Display offen. Einer davon ist das Meta Wearables Device Access Toolkit, ein SDK für iOS und Android, das Meta seit Ende des letzten Jahres für seine displaylosen Brillen anbietet und nun um Display-Funktionen erweitert hat. Entwickler können damit erstmals bestehende Smartphone-Apps auf das Brillendisplay ausweiten und dort Elemente wie Text, Bilder oder Videowiedergabe darstellen. Entwickelt wird mit Swift für iOS und Kotlin für Android.
Eine zweite Möglichkeit sind die neuen „Web Apps“. Entwickler können diese eigenständigen Anwendungen mit HTML, CSS und JavaScript im Browser entwickeln und testen und anschließend per URL auf der Brille starten. Dabei haben sie Zugriff auf Bewegungs- und Orientierungsdaten, GPS-Daten des Smartphones, Eingaben des Meta Neural Band sowie lokalen Speicher. Meta sieht Web Apps vor allem für schnelles Prototyping und schlanke Anwendungen. Auch Abdrakhimovs „Doom“-Portierung basiert auf diesem Ansatz. In einem eigens von Meta eingerichteten Subreddit finden sich weitere frühe Experimente mit den Entwicklerwerkzeugen.
Weiterlesen nach der Anzeige
Beide Entwicklungswege sind zunächst nur als Developer Preview verfügbar, was heißt, dass Entwickler ihre Anwendungen zwar bauen und testen, aber noch nicht regulär an Endnutzer verteilen können. Weitere Informationen finden sich auf Metas Entwicklerseite für Wearables.
Meta positioniert sich vor neuer Smart-Glasses-Konkurrenz
Meta kündigte außerdem an, dass die im Januar zunächst für Tester eingeführte Fingerschrift nun für alle Nutzer verfügbar gemacht wird. Sie funktioniert unter anderem in Instagram, WhatsApp, Messenger sowie in nativen Nachrichten-Apps unter Android und iOS. Ebenfalls breiter verfügbar wird die im März angekündigte Aufnahmefunktion, die das Display- und Kamerabild in einem Video kombiniert. Die visuelle Fußgängernavigation wird zudem auf die gesamten USA ausgeweitet und soll auch in internationalen Großstädten wie London, Paris oder Rom funktionieren. Live-Untertitel, die gesprochene Sprache bei Gesprächen oder Telefonaten transkribieren, kommen zudem für WhatsApp, Facebook Messenger und Instagram Direct. Metas neues KI-Modell Muse Spark soll diesen Sommer für Meta Ray-Ban Display erscheinen.
Der Zeitpunkt der Entwicklerankündigungen dürfte kein Zufall sein. Google könnte bereits kommende Woche auf der Entwicklerkonferenz Google I/O erste Smart Glasses auf Basis von Android XR ankündigen. Apple verfolgt ebenfalls Smart-Glasses-Pläne und könnte auf der WWDC im Juni erste Hinweise darauf geben. Zudem wird erwartet, dass Snap noch in diesem Jahr eine erste AR-Brille für Konsumenten präsentiert, deren Vorstellung wohl nicht mehr lange auf sich warten lässt.
Mit der zunehmenden Verbreitung smarter Brillen wachsen auch die Kontroversen rund um die Geräte. Meta geriet zuletzt mehrfach in die Kritik, etwa wegen angeblicher Pläne zu Gesichtserkennung und wegen intimer Brillenvideos, die zur Datenannotation bei Clickworkern landeten. Hinzu kommt die Sorge, dass Smart Glasses heimliche Aufnahmen im öffentlichen Raum erleichtern.
(tobe)
Künstliche Intelligenz
Makey:Lab: Technik verstehen statt nur über Bildschirme zu wischen
Smartphones bedienen, durch Feeds wischen, Apps installieren: Digitale Geräte bestimmen für viele Jugendliche den Alltag. Doch die meisten erleben Technik dabei vor allem passiv: als fertiges Produkt, nicht als etwas, das sich verstehen, verändern oder selbst gestalten lässt.
Weiterlesen nach der Anzeige
Dafür gibt es jetzt Makey:Lab: ein Experimentierlabor für alles, was blinkt, misst, piept, reagiert und Daten verarbeitet. Im Mittelpunkt steht die Freude daran, selbst zu experimentieren, Dinge auszuprobieren und eigene Ideen umzusetzen – ganz gleich, ob Jugendliche bereits löten und programmieren oder bisher kaum Berührung mit Mikrocontrollern, Sensoren oder eigener Elektronik hatten.
Die Hardware bringt dafür Sensoren, Display, Mikrofon, Lautsprecher und RGB-LEDs direkt mit. Zusätzliche Module und Erweiterungen lassen sich unkompliziert anschließen. Das erleichtert den Einstieg enorm. Denn gerade erste Experimente sollen neugierig machen – und nicht an Kabeln oder Konfigurationen scheitern.
Dieselbe Idee steckt auch hinter der Software. Statt auf Programmiersyntax, Bibliotheken oder komplizierte Konfigurationen zu setzen, arbeitet die grafische Entwicklungsumgebung „IoT-Werkstatt“ mit vorbereiteten Programmierblöcken, die viele Funktionen bereits mitbringen. Sensorwerte anzeigen, LEDs steuern oder Daten ans Smartphone senden lässt sich dadurch direkt ausprobieren, ohne sich zuerst durch Datenblätter oder Beispielcode arbeiten zu müssen. Ziel sind schnelle Erfolgserlebnisse, die neugierig auf mehr machen.

Die IoT-Werkstatt ist die grafische Programmierumgebung von Makey:Lab. Aus Blöcken entstehen hier echte Projekte – ganz ohne komplizierte Syntax.
Aus ersten Experimenten sollen möglichst schnell eigene Ideen entstehen. Deshalb begleitet ein Playbook mit praxisnahen Experimenten den Einstieg in Sensorik, Mikrocontroller und IoT. Statt abstrakter Übungen entstehen daraus kleine Wetterstationen, Umweltmesssysteme oder vernetzte Alltagshelfer. Fehler machen gehört dabei ausdrücklich dazu, ebenso wie das Weiterentwickeln und Verändern eigener Ideen.
Die Wurzeln dafür liegen in realen IoT- und Nachhaltigkeitsprojekten am Umwelt-Campus Birkenfeld der Hochschule Trier. Dort entstanden in den vergangenen Jahren unter anderem LoRaWAN-Pegelmesser für Flüsse, KI-gestützte Analysewerkzeuge und eine „künstliche Nase“ zur Unterscheidung von Gerüchen. Zusammen mit der Make-Redaktion entwickelte sich daraus die Idee, moderne Sensorik und Mikrocontrollertechnik wieder greifbarer, experimenteller und alltagstauglicher zu machen.
Genau darin sieht auch Prof. Dr. Klaus-Uwe Gollmer vom Umwelt-Campus Birkenfeld einen entscheidenden Punkt: „Uns ging es nie darum, Sensoren einfach auszulesen oder Technik vorzuführen. Im Mittelpunkt steht die niederschwellige Motivation, eigene Ideen umzusetzen. Denn spannend wird Digitalisierung erst dann, wenn daraus persönliche Projekte entstehen und Dinge aus der eigenen Lebenswelt neu gestaltet werden können.“
Weiterlesen nach der Anzeige
Dahinter steckt der Geist der frühen Heimcomputerjahre: Technik durch Ausprobieren entdecken, Fehler machen, experimentieren und eigene Projekte entwickeln. Nicht nur konsumieren, sondern verstehen, verändern und selbst gestalten.
Makey:Lab ist für 119,90 Euro im heise shop erhältlich. Weitere Playbooks und Erweiterungen sind bereits geplant. Für Bildungseinrichtungen und Makerspaces sind außerdem Mehrfach- und Klassensets möglich.
(pan)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
