Connect with us

Künstliche Intelligenz

Ausprobiert: Live-Übersetzung mit iOS 26 und AirPods 4 ANC, Pro 2 und Pro 3


Schon seit Monaten gab es Gerüchte, dass Apple sein KI-System Apple Intelligence um eine Live-Übersetzungsfunktion ergänzen würde. Mit iOS 26 und den neuen AirPods 3 war es dann im September tatsächlich so weit: Bei seiner iPhone-17-Keynote stellte der Konzern „Live Translation“ vor. Sie funktioniert nicht nur mit den AirPods Pro 3, sondern auch mit älteren Modellen nach einem Firmware-Update.

In der Praxis heißt das, dass man auch AirPods 4 mit ANC (aber nicht das günstigere Standardmodell ohne aktive Geräuschunterdrückung) und AirPods Pro 2 (egal ob Lightning- oder USB-C-Version) einsetzen kann. Zur Einordnung: Die AirPods Pro 2 sind bereits seit September 2022 auf dem Markt, erhielten ein Jahr später eine USB-C-Variante. Die AirPods 4 ANC folgten im September 2024.

Daneben ist für die Live-Übersetzung auch ein zu Apple Intelligence kompatibles iPhone notwendig (ab iPhone 15 Pro / iPhone 16). Also eines von insgesamt elf Modellen aus der Zeit seit Herbst 2023 – iPhone 14 und früher sowie iPhone 15 und 15 Plus fallen heraus. Apple-Intelligence-fähige iPads mit M-Chip unterstützt Apple leider bislang nicht für die Live-Übersetzung.


Das war die Leseprobe unseres heise-Plus-Artikels „Ausprobiert: Live-Übersetzung mit iOS 26 und AirPods 4 ANC, Pro 2 und Pro 3“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Künstliche Intelligenz

China wird 2025 fast 8 Millionen E-Autos bauen, Tendenz kräftig steigend


China baut seine weltweit dominierende Position in der Elektroauto-Produktion weiter aus. In den ersten neun Monaten des Jahres waren es 6,5 Millionen Fahrzeuge, sagt Branchenkenner Ferdinand Dudenhöffer, 45 Prozent mehr als vor einem Jahr. Bis zum Jahresende erwartet er 7,9 Millionen und auch darüber hinaus steigende Zahlen.

Weiterlesen nach der Anzeige

Der Anstieg der Produktion in China ist auch deswegen bedeutsam, weil er schneller verläuft als das Wachstum bei den weltweiten Verkaufszahlen batterieelektrischer Autos. Diese waren nach Zahlen der Unternehmensberatung PwC im selben Zeitraum nur um 36 Prozent gestiegen. China steigert damit seinen Anteil an der weltweiten Produktion. Zum Vergleich: In Deutschland wurden in den ersten neun Monaten nach den Zahlen des VDA (Verband der Automobilindustrie) knapp 916.000 batterieelektrische Autos gebaut. In Europa liegen nach den Zahlen des ACEA, der Interessenvertretung der Autoindustrie in Europa (European Automobile Manufacturers’ Association) die Verkaufszahlen hinter den angestrebten deutlich zurück.

Größter Elektroauto-Produzent in China ist BYD, deren Elektroautos inzwischen auch in europäischen Ländern erhältlich sind. Mit knapp 1,6 Millionen ist sie fast für ein Viertel der chinesischen Elektroautoproduktion verantwortlich. Dahinter folgen Geely mit 836.000 und Tesla mit 603.000.

Der Erfolg der Elektroautos in China wird von Analysten zunächst auf staatliche Subventionen zurückgeführt. Bis Mitte 2025 förderten lokale Abwrackprämien mit maximaler Förderung für den Kauf eines Elektroautos den Umstieg. Sie hatte die Verkäufe kurz vor ihrem Ende im Juni mit einem Anstieg um 18 Prozent kurzfristig noch einmal kräftig beflügelt. Die aktuelle Tendenz weist indes auf einen selbsttragenden Aufschwung hin.

Mehr über die chinesische Automarke BYD


(fpi)



Source link

Weiterlesen

Künstliche Intelligenz

c’t-Webinar: Next Level Midjourney | heise online


Die Bild- und Video-KI Midjourney erzeugt visuelle Inhalte für berufliche oder private Anwendungen. Durch präzise Eingaben und zahlreiche Stiloptionen dient Midjourney als flexibles Werkzeug für eigene Gestaltungsideen. Dank neuer Funktionen lassen sich kurze, animierte Videos erstellen, die einfache Szenen oder Abläufe visualisieren.

Weiterlesen nach der Anzeige

In diesem Webinar lernen die Teilnehmer, wie sie ihre Vorstellungen Schritt für Schritt in Midjourney umsetzen. Der Referent zeigt zentrale Funktionen, typische Fallstricke und erkennbare Grenzen des Systems. Dabei liegt der Fokus auf realen Arbeitsabläufen.

Die Inhalte des Webinars reichen vom Aufbau wirkungsvoller Prompts über die Bildbearbeitung mit dem Midjourney-Editor bis zu fortgeschrittenen Techniken wie der Verwendung von Referenzbildern für konsistente Charaktere und Stile. Auch das Zusammenspiel mit anderen Tools zur Nachbearbeitung und die Integration in Workflows kommen zur Sprache. Ein eigener Themenblock widmet sich Midjourneys Animationsfunktion.

Die Teilnehmer entwickeln ein Verständnis dafür, wie sie eigene Konzepte visuell ausarbeiten, ohne auf generisches Stockmaterial zurückzugreifen. Die Veranstaltung richtet sich an Anwender, die belastbare visuelle Assets benötigen – vom Marketingteam über Content Creator bis zu Agenturen, Trainern und Künstlern.

Referent Adrian Rohnfelder ist mehrfach ausgezeichneter Profifotograf und Midjourney-Experte. Er verbindet seine kreative Erfahrung mit neuesten KI-Tools und gibt sein Wissen als Dozent und Speaker weiter. Für die Teilnahme sind keine Vorkenntnisse nötig, erste Erfahrungen mit Midjourney sind jedoch von Vorteil.

Das Webinar bietet damit einen praxisorientierten Überblick über KI-gestützte Bild- und Videoproduktion. Teilnehmende erhalten konkrete Anleitungen, um Midjourney effizient in Projekte einzubinden.

Weiterlesen nach der Anzeige

  • Termin: 28. Januar 2026
  • Uhrzeit: 14:00 bis 17:00 Uhr
  • Preis: 59,00 / 69,00 Euro (Frühbucher / Standard)

Zur Teilnahme benötigen Sie lediglich einen aktuellen Browser. Weitere Informationen zum Webinar sowie Details zur Anmeldung finden Sie auf der Webseite der heise academy.


(abr)



Source link

Weiterlesen

Künstliche Intelligenz

Meta Hyperscape: Fotorealistische 3D-Scans jetzt mit Multiplayer-Funktion


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit Meta Quest 3 lassen sich seit September Räume und ganze Umgebungen scannen und zu erstaunlich realistischen digitalen Kopien verarbeiten, die man später in Virtual Reality besuchen kann. Der Scanvorgang dauert etwa 15 Minuten und setzt keinerlei technisches Vorwissen oder spezielle Ausrüstung voraus. Selbst Außenräume und Landschaften werden eindrucksvoll eingefangen, wie unser Hyperscape-Test zeigte.

Weiterlesen nach der Anzeige

Die Hyperscapes konnten bislang nur deren Ersteller besuchen. Nun rollt Meta eine Multiplayer-Funktion aus, die es Nutzern ermöglicht, andere Menschen in die eigenen Hyperscapes, etwa die der eigenen Wohnung, einzuladen.

Dazu öffnet man die Hyperscape-App, wählt ein Hyperscape aus und lädt Familie oder Freunde direkt oder per Link ein. VR-Nutzer benötigen eine Meta Quest 3 oder Meta Quest 3S und erscheinen als Meta-Avatare. Alternativ kann man das Hyperscape auch über die Smartphone-App „Meta Horizon“ besuchen, eine VR-Brille wird also nicht zwingend benötigt. Die Ersteller eines Hyperscapes können Einladungen jederzeit widerrufen.

Technisch hält das Update einige Überraschungen bereit: Die Hyperscapes werden jetzt nicht mehr in der Cloud gerendert und in die VR-Brille gestreamt, sondern lokal auf dem Quest-Gerät berechnet. Dadurch sinkt die Latenz und es wird keine schnelle Internetverbindung mehr vorausgesetzt.

Wichtig aus Gründen der Privatsphäre: Die initiale Verarbeitung der Scan-Daten zu Hyperscapes findet nach wie vor auf Metas Servern statt. Wer seine Privaträume nicht mit Meta teilen möchte, sollte sich dessen bewusst sein.

Ermöglicht wird das lokale Rendering der Hyperscapes durch Metas neue Horizon Engine. Die Hyperscapes werden damit zu privaten Destinationen von Metas Metaverse-Plattform „Horizon Worlds“. Bis zu acht Personen können sich gleichzeitig in einem Hyperscape aufhalten, und Meta arbeitet daran, diese Zahl künftig zu erhöhen.

Weiterlesen nach der Anzeige

Neben dem lokalen Rendering hat Meta zwei weitere Wünsche erfüllt, die wir in unserem Hyperscape-Test äußerten: Für noch mehr Immersion kann man sich nun per Analogstick fließend durch die Hyperscapes bewegen, statt nur per Teleportation. Außerdem wird jetzt Audio unterstützt, wobei noch unklar ist, wie die Audio-Komponente implementiert ist und ob beim Scannen eine Geräuschkulisse aufgenommen wird.

Das Update wird nach und nach an Nutzer ausgerollt und es kann eine Weile dauern, bis es alle erreicht. Hyperscapes, die man vor dem Update erstellt hat, lassen sich weiterhin besuchen, aber nicht mit anderen Nutzern teilen. Nur neu gescannte Orte bieten die Multiplayer-Funktion.

Die Möglichkeit, ganze Räume auf einfache Weise mit einer VR-Brille zu erfassen und anschließend in hoher Qualität zu rendern, ist derzeit einzigartig auf dem VR-Markt.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Meta sieht in Hyperscape-Welten eine Möglichkeit, das Metaverse attraktiver zu gestalten. Und es ist leicht zu erkennen, wie eine solche Anwendung nicht nur für die Bewahrung von Erinnerungen und für soziale Aktivitäten mit räumlich entfernten Familienmitgliedern und Freunden von Wert sein könnte, sondern auch im Tourismus, im Immobiliengeschäft, in der Bildung und in Museen Nutzen stiften kann. Dafür müsste Metas App jedoch erst zu einer Plattform werden, sodass man Hyperscapes auch öffentlich teilen kann. Über die Zeit könnte Hyperscape so zu einem YouTube für 3D-Scans realer Orte werden.

Für das Scannen und Teilen von Hyperscapes wird die Hyperscape-App aus dem Meta Horizon Store benötigt.


(tobe)



Source link

Weiterlesen

Beliebt