Connect with us

Künstliche Intelligenz

Jetzt können wirklich alle programmieren


Wer sich vor einem halben Jahr eine Meinung über KI-Coding gebildet hat, sollte noch einmal aktuelle Tools ausprobieren: Claude Code, OpenAI Codex und Co haben immens an Kompetenz gewonnen und kommen inzwischen auch mit komplexen Projekten klar. In einer 2,5-stündigen Vibecoding-Session erklärt der Entwickler Benjamin Thorstensen, was man bei der Arbeit mit Claude Code und OpenAI Codex beachten muss.

Weiterlesen nach der Anzeige

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Eine kurze Ansage, bevor das Video losgeht. Das Thema KI – und vor allem code-schreibende KI – löst bei vielen von euch und auch bei mir starke Gefühle aus, oft negative. Es ist immer noch nicht klar, was KI mit dem IT-Arbeitsmarkt macht, gerade für jüngere Menschen, und was KI mit Open Source macht, was KI-Slop mit dem Internet macht. Sicher ist auf jeden Fall, dass viele Open-Source-Projekte in KI-generierten Pull Requests ertrinken – und dass GitHub, die größte Code-Plattform der Welt, das jetzt auch eingestanden hat und nachbessern will. Mit KI. Im folgenden Video lassen wir jetzt aber diese riesigen, also wirklich riesigen Meta-Probleme außen vor und konzentrieren uns auf das Thema selbst, nämlich Vibe-Coding oder, vornehmer, agentische Softwareentwicklung. Ich verspreche euch aber, dass in Zukunft hier auf diesem Channel auch KI-kritische Videos zu den großen Themen kommen werden. Und jetzt: let’s go.

Guckt mal hier: Das habe ich heute vibecodet – einen Rezept-Extraktor, auf den ich jegliches Kochrezept, was mir so über den Browser läuft, draufwerfen kann: von YouTube, Instagram, TikTok, sonst wo im Web. Und dann wird das Rezept da rausgezogen und in meine Notion-Datenbank reingeschrieben, genau mit den von mir vorgegebenen Attributen. Ja, und guckt euch mal bitte das Design von der Web-App hier an. Also für mich sieht das ziemlich professionell aus. Und ganz wichtig: Ich kann überhaupt nicht programmieren. Also ich kann mit diesen Tools Dinge tun, für die ich vorher monatelang hätte lernen müssen.

Also das ist wirklich so, als hätte ich so ein kleines Coding-Alien auf der Schulter sitzen, oder ich würde in so einem Riesen-Coding-Mech durch die Gegend fliegen oder so. Das ist wirklich ein gutes Gefühl. Ich habe mich wirklich mächtiger gefühlt damit. Wirklich mächtiger ist, glaube ich, das richtige Wort.

In diesem Video zeige ich euch den ganzen Prozess, also wie ich das gemacht habe mit dieser Rezepte-App. Und obwohl das wirklich jede und jeder von euch hinbekommen würde, fand ich wichtig, mir jemanden dazu zu holen, der das Ganze professionell beurteilen und erklären kann. Ich will euch ja keinen Quatsch erzählen, ne? Und ich hatte ja gesagt: Ich bin kein Entwickler.

Ja, und der Entwickler, das ist auf jeden Fall Benjamin Thorstensen, der seit 14 Jahren als Softwareentwickler und seit einiger Zeit auch sehr intensiv mit KI-Tools arbeitet. Ihr erfahrt im Video also auch noch ein paar Experten-Tricks.

Weiterlesen nach der Anzeige

Coden lassen haben wir einmal Claude Code mit Opus 4.6. Da braucht man ein kostenpflichtiges Abo oder zahlt halt jeden Token einzeln per API. Und parallel auch Codex von OpenAI, das man noch bis Anfang März mit einem kostenlosen ChatGPT-Account nutzen kann. Die fertige Kochrezept-Software läuft in einer der beiden Versionen übrigens ausschließlich mit lokaler KI.

Ja, und diese Vibe-Coding-Session, die hat dann doch ziemlich lange gedauert. Ich weiß aber, dass viele von euch wirklich sowas gerne im Detail sehen wollen. Deshalb habe ich das auch nur leicht geschnitten. Und alle anderen, die das eben nicht in dieser Ausführlichkeit sehen wollen, die können einfach zum Ende skippen. Wir haben da so einen Kapitelmarker gemacht, der heißt „Zusammenfassung“. Und da seht ihr dann nur die wichtigsten Erkenntnisse und das Fazit. Bleibt dran.

*Ab hier jetzt eine mehrstündige, ungeskriptete Coding-Session, deshalb kein Transkript*

So, jetzt die Zusammenfassung: Ja, Vibe Coding funktioniert und es ist so einfach, dass es wirklich alle benutzen können. Man gibt einfach ein, was man will, und dann wird das Programm erzeugt. Und das ist wirklich so einfach. Es klingt jetzt immer so, so ist es einfach, aber es ist wirklich so einfach. Man sagt einfach: Machen wir ein Programm, was Schafe zählt und mad, und dann macht es das. Und wenn man was nicht verstanden hat, dann tippt man das auch ein und fragt das und dann beantwortet es das. Und wenn man irgendwas anders haben will, wenn man irgendwas verändert haben will, dann kann man es auch einfach eintippen und das funktioniert.

Man braucht auch keine Entwicklungsumgebung dafür wie früher, sondern man braucht nur das Coding Tool wie zum Beispiel CodeCode. Man kann natürlich in einer Entwicklungsumgebung wie VS Code oder Cursor vibe-coden, aber das muss man nicht.

Wenn ihr jetzt sagt: Ja, aber ChatGPT, die ja doch schon vor Jahren in der ganz normalen Webansicht Code erzeugt. Ja, aber das funktioniert a) laut meiner Erfahrung nicht wirklich immer so zuverlässig und b) können die Coding Tools viel mehr selbst machen, zum Beispiel auch direkt Tools auf dem Rechner aufrufen. Und die können auch zum Beispiel, wenn ihr Kontextspeicher voll ist, einfach eine Zusammenfassung von sich selbst abspeichern, also was noch zu tun ist in der Programmierarbeit. Und dann können die auch nach gelöschtem Kontext einfach weitermachen. Also sind auch größere Projekte möglich.

Und hier mal kurz, was man zum Vibe Coding braucht oder was wir empfehlen. Also der Klassiker ist ja Claude Code von Anthropic, das man am besten mit dem Modell Opus 4.6 verwendet. Kostet Geld. Zum Beispiel braucht man das Pro-Abo. Das kostet monatlich kündbar 21,42. Ich hatte mir für dieses Video für einen Monat ein Max-Abo gekauft. Das kostet sage und schreibe 107,10 Euro im Monat. Kann man aber ja monatlich kündigen.

Ansonsten hat auch Codex von OpenAI viele Fans. Das kann man bis Anfang März 2026 sogar mit einem Nicht-Abo verwenden, also mit dem kostenlosen Account. Und dann gibt es auch noch Google Gemini. Das ist in Sachen Coding so ein bisschen der Underdog. Das kommt aber so langsam. Also will man Gemini zum Web-Coding benutzen, braucht man auch so ein Pro-Abo für 22 Euro. Also, und alle drei kann man natürlich auch ohne Abo per Token über API-Zugang bezahlen. Das geht dann aber sehr, sehr schnell richtig ins Geld.

Ja, und ganz wichtig: Man kann auch ein lokales Modell kostenlos auf eigene Hardware verwenden, zum Beispiel Qwen 3 Coder aus China. Dafür braucht man aber natürlich passende Hardware und zum Beispiel das Coding Tool Open Code. Aber auch in CodeCode kann man lokale LLMs einbinden. Die beste Qualität liefern aber zurzeit die Sprachmodelle Anthropic Opus 4.6 und OpenAI Codex.

Laut Benjamin hier aus dem Video unterscheiden die sich dadurch, dass Codex quasi der Entwickler ist, der, bevor er zu programmieren beginnt, erst mal eine Stunde damit verbringt, das Problem zu verstehen und dann mit einer sauberen Lösung kommt, hat aber einen Charakter wie trockenes Brot und ist nicht besonders kreativ, sondern macht vor allem das, was man ihm vorgibt. Opus ist so mehr der Senior Dev, der sofort loslegt, der sich ein neues Framework überlegt und manchmal ein bisschen an der Lösung vorbeischießt, aber oft auch mit einer Lösung kommt, an die man selber gar nicht gedacht hat. Bei Opus sagt Benjamin, hat er mehr dieses Lotterie-Gefühl, wo er dann vorher nicht weiß, ob er jetzt da den Jackpot knackt oder eben nicht.

Außerdem hat Opus im Gegensatz zu Codex nicht in der Design-Schule geschlafen, vor allem mit dem Add-on, dazu aber später noch mal mehr. Benjamin sagt, dass beide, also sowohl Claude Code als auch Codex, beide ihre Daseinsberechtigung haben. Er benutzt auch beide je nach Aufgabe. Bei Google Gemini, was er jetzt gerade erst in der Version Gemini 3.1 Pro ausgerollt wird, da sagt Benjamin, dass das überall so ein bisschen geschlafen hat in der Coding-Schule, nur nicht beim Design. Also was daraus kommt, sagt er, das ist echt ziemlich gut.

So, jetzt aber noch mal kurz zu den Coding Tools selbst oder den Harnesses, wie man in der KI-Szene sagt, also den Gurtgeschirren, also wie bei Pferden. Also das sind alle Tools und Fähigkeiten, die dem Modell extern zur Verfügung gestellt werden. Also was weiß ich, im Internet suchen oder Files öffnen. Die Harnesses sind sich alle recht ähnlich, funktionieren aber natürlich am besten mit den hauseigenen Modellen. Also Claude Code mit Opus, Codex mit Codex und so weiter.

Es gibt die alle in mindestens einer grafischen Version und in einer Kommandozeilen-Version. Die meisten laufen auf allen drei großen Betriebssystemen, einzelne mal nicht unter Windows oder mal nicht unter Linux. Hier mal kurz die Namen, damit ihr wisst, was ihr runterladen müsst. Die Kommandozeilentools heißen bei Anthropic Claude Code, bei OpenAI codex-cli, bei Google gemini-cli. Die grafischen Varianten sind bei Anthropic einfach die Claude-App, bei OpenAI heißt sie Codex, bei Google ist das zum Beispiel Antigravity.

Ja, und ich muss sagen, ich mag die Kommandozeilen-Varianten irgendwie lieber. Das ist irgendwie nice mit dieser ASCII-Art, Retro-Ästhetik. Außerdem klingt kurios, aber ich finde die sogar einfacher zu bedienen als die GUI-Tools, weil man da ja wirklich nichts anderes machen kann, als einfach einzutippen, was man will, in Menschensprache. Also man kann auch sagen, wenn das Ding fertig ist: Starte das Programm oder lösch das oder was weiß ich. Es macht einfach, was man will und das ist praktisch.

Beachten sollte man auf jeden Fall, dass man Claude Code am Anfang immer in den Planungsmodus schaltet. Das geht mit Shift+Tab. Da plant er dann erst mal das Vorgehen, bevor es dann richtig losgeht. Bei Codex muss man das nicht unbedingt machen, der entscheidet automatisch zwischen Planen und drauflos coden. Ganz gut.

Ja, okay. Und wie waren jetzt die Ergebnisse? Ja, funktioniert haben beide, also Claude Code und Codex. Die haben beide was Funktionierendes rausgegeben. Die haben beide auch die Audiospur zum Beispiel aus Videos in Text transkribiert. Die haben auch absolut problemlos die Daten in Notion reingepumpt. Also die haben problemlos mit der API zusammengearbeitet.

Die Qualität der Rezepte, die da dann am Ende in Notion standen, die, das habe ich mir auch schon gedacht: Qualität steht und fällt halt mit dem LLM, was da intern benutzt wird für die Rezepteanalyse, weil das muss halt erkennen, was ist hier jetzt Rezept, was ist Quatsch, was muss ich umrechnen und so weiter.

Ich fand interessant, dass das super kleine Open-Weights-LLM, das auf meinem MacBook lief, schon so einigermaßen brauchbare Ergebnisse ausgegeben hat. Das OpenAI-LLM in der Cloud war etwas besser von den Ergebnissen her, aber auch nicht viel. Sowohl Claude als auch Codex, die haben beide eine Web-App gebaut, die ich auf meinem Rechner lokal ausgeführt habe. Vom Aussehen der Web-App war Claude aber deutlich besser und das hat echt vor allem mit diesem offiziellen Plug-in, das heißt Frontend Design, zu tun. Sobald das läuft, sieht das alles wirklich richtig gut aus, was das so ausgibt, also frontendmäßig.

Ich habe hier auch noch einen wilden Einschub, denn am Ende hat die beste Rezeptqualität geliefert, was wirklich nur wenige Minuten gedauert hat, nämlich das war OpenClaw, einfach über Telegram mit diesem Prompt hier. Falls ihr von OpenClaw noch nie gehört habt, dazu gibt es ein Video, ein richtiger Hype gerade. Das zeigt mir eigentlich, dass man in Zukunft vielleicht gar keine UI braucht, sondern dass man einfach mit seinem privaten Bot schreibt oder spricht und der macht dann einfach die Sachen, die man haben will.

Aber ich meine, dass OpenClaw hier die beste Rezeptqualität produziert hat, das liegt auch natürlich vor allem daran, dass OpenClaw auch für die Rezepteaufbereitung Opus 4.6 verwendet hat, also einem der besten Sprachmodelle, die es zurzeit gibt. Die anderen beiden vibe-gecodeten Projekte, die haben das Rezept ja intern mit viel kleineren Sprachmodellen verarbeitet. Das macht halt einen riesen Unterschied aus.

Ja, krass. Ich muss immer wieder an einen Kommentar neulich im Heise-Forum denken, wo jemand über KI-generierten Code schrieb: Ja, man kann Dinge auf Hello-World-Niveau oder zusammengeklaute Funktionen aus den Sources der Welt generieren lassen, selbst das jedoch fehlerhaft und nur mit viel Kontrolle, Nacharbeit benutzbar. Und ich muss sagen, das stimmt nicht. Man kann den erzeugten Code sicher kritisieren, aber ihr seht es ja im Video: Er funktioniert. Und für mich als Nicht-Coder ist das ein unglaubliches Hilfsmittel.

Früher, wenn ich eine Idee für eine App oder so hatte, musste ich halt überlegen: Ist die Idee so toll, dass ich jetzt irgendwie überlege, wo ich ein Team her bekomme, will ich das irgendwie finanzieren oder so? Und hier mache ich einfach an einem Abend Prototypen fertig. Und ja, das verändert natürlich die Technikwelt. Das muss man, glaube ich, nicht mehr diskutieren.

Problematisch wird es natürlich jetzt, wenn ich jetzt denke, dass ich meinen App-Prototypen einfach veröffentliche, ohne dass ich überhaupt verstehe, was da intern passiert. Das ist natürlich gefährlich. Deshalb haben wir auch neulich in unserem Podcast c’t 4004 darüber fabuliert, dass man eigentlich einen Vibe-Coding-Führerschein einführen müsste, damit man zumindest ansatzweise versteht, was für einen Schaden so die eigene vibe-gecodete Software im schlimmsten Fall anrichten kann.

Aber wie gesagt, hier reden wir jetzt über Software, die man veröffentlichen oder sogar verkaufen will. Für so private Tools und lokale Experimente, wie in diesem Video, wie dieses Rezept-Tool, das können auf jeden Fall auch nicht technische Leute vibe-coding-mäßig ausprobieren. Ich finde, das demokratisiert wirklich die Softwareentwicklung. Vor allem, wenn das irgendwann alles genauso gut mit lokalen LLMs geht, dann verlassen die Daten nicht mal mehr den eigenen Rechner. Vielleicht geht das ja irgendwann auch auf ’n Smartphone lokal. Wer weiß. Ja, wird auf jeden Fall alles interessant.

Wie seht ihr das? Gerne alles in die Kommentare schreiben. Ich lese die zumindest in den ersten Tagen nach Veröffentlichung alle.

c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Künstliche Intelligenz

Neue Übersicht: iOS 26.4 macht Hotspot-Abrechnung leichter


Im Rahmen der Einführung von iOS 26.4 hat Apple auch eine Funktion freigegeben, die den Überblick über die Verwendung der iPhone-Datenweitergabefunktion verbessert. Mit dem sogenannten persönlichen Hotspot lässt sich das Datenvolumen von Apple-Handys per WLAN an andere Geräte verteilen, seien es nun iPhones, Android-Geräte, Macs oder iPads. Das neue Feature sorgt dafür, dass man direkt sehen kann, welches Gerät wie viele M- oder GBytes verbraucht hat – statt nur eine Gesamtsumme wie bislang. Allerdings hängt die Genauigkeit der Anzeige bei Apple-Geräten davon ab, welche Software auf der versorgten Hardware läuft.

Weiterlesen nach der Anzeige

Die Infos zum persönlichen Hotspot findet man direkt vom ersten Einstellungsbildschirm aus: Sie sind unter „Mobilfunk“ angeordnet (wo sie zuvor nur einen Teilbereich darstellten). Wartet man kurz, taucht dann auch gleich der Datenverbrauch auf, der unter „Kompatibilität maximieren“ angeordnet wurde, einer Funktion die dazu dient, auch ältere WLAN-Geräte einbinden zu können.

Neu ist nun, dass Apple versucht, die Hotspot-Verwendung einzelnen Geräten zuzuordnen. Diese werden dann auch mit Namen und jeweiligem Verbrauch genannt. Wie bereits zuvor gibt es auch eine Zahl für den Gesamtdatenverbrauch, die bereits im Hotspot-Hauptbildschirm auftaucht. Geräte mit Android-Betriebssystemen, Windows-PCs sowie Macs mit macOS 15.3 oder älter sowie iPhones und iPads mit iOS und iPadOS 18.3 oder älter werden nicht einzeln aufgeführt, landen bei „sonstige Geräte“.

Im direkten Versuch war die neue Funktion allerdings zunächst noch nicht sehr zuverlässig. So wurden Geräte trotz passendem Betriebssystem nicht unterschieden beziehungsweise ihr Name nicht übertragen. Möglicherweise benötigt das System hier mehr Daten.

Apple schreibt zudem, dass man sich auf die Verbrauchsanzeige nur teilweise verlassen kann: Letztlich sei der Mobilfunkanbieter die Instanz, die die Endabrechnung durchführt. Daher ist es sinnvoll, bei intensiver Hotspot-Nutzung ohne Flatrate immer in der jeweiligen App oder auf der jeweiligen Website des Netzbetreibers nachzusehen, ob man sich noch im Rahmen seines Limits befindet.

Weiterlesen nach der Anzeige


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

Radiologen & KI scheitern oft an der Erkennung manipulierter Röntgenbilder


Erstmals ist es für Laien dank KI-Modellen wie ChatGPT möglich, allein durch einfache Textbefehle anatomisch plausible, KI-generierte Röntgenbilder zu erstellen. Was in der medizinischen Ausbildung zur Simulation seltener Krankheiten nützlich sein könnte, birgt laut Forschern enorme Risiken für Missbrauch wie Versicherungsbetrug, juristische Auseinandersetzungen oder die gezielte Manipulation von Forschungsdaten.

Weiterlesen nach der Anzeige

Wissenschaftler des Mount Sinai Hospital in New York haben untersucht, wie gut 17 erfahrene Radiologen aus sechs Ländern und verschiedene aktuelle KI-Modelle darin sind, „Deepfakes“ von Röntgenbildern zu erkennen. Die Ergebnisse zeigen eine besorgniserregende Problematik auf.

Die Forscher nutzten für ihre Untersuchung zwei Datensätze. Der erste bestand aus 154 Röntgenbildern, die verschiedene Körperregionen wie Brustkorb, Wirbelsäule, Arme und Beine abdeckten. Bei der Hälfte der Bilder handelte es sich jedoch nicht um echte Röntgenaufnahmen, sondern um KI-Bilder, die von GPT-4o erstellt wurden. Der zweite Datensatz enthielt spezifische Brustkorb-Aufnahmen eines spezialisierten KI-Modells für die Generierung medizinischer Bilder.

Die Studie lief in drei Phasen ab:

  1. Blindphase: Die Radiologen sollten die technische Qualität bewerten und Diagnosen stellen. Sie wurden hierbei nicht informiert, dass KI-Bilder enthalten waren.
  2. Identifikationsphase: Nachdem die Ärzte über die Deepfakes informiert wurden, mussten sie entscheiden, welche Bilder echt und welche KI-generiert waren.
  3. KI-Vergleich: Vier führende KI-Modelle (GPT-4o, GPT-5, Gemini 2.5 Pro und Llama 4 Maverick) wurden ebenfalls getestet, ob sie erkennen konnten, welche Bilder echt und welche KI-generiert waren.

Weiterlesen nach der Anzeige

Die Treffsicherheit bei der Erkennung von KI-generierten Röntgenbildern war überraschend gering und hing nicht von der Berufserfahrung der Mediziner ab.

In der Blindphase äußerten lediglich 41 Prozent der Radiologen (7 von 17) spontan Verdacht, dass sich KI-generierte Bilder im Datensatz befinden könnten. Die restlichen Experten hielten die Deepfakes für authentische klinische Fälle. Aber auch in der Identifikationsphase (nachdem die Radiologen explizit aufgefordert wurden, nach KI-Fälschungen zu suchen), lag ihre durchschnittliche Genauigkeit bei nur etwa 75 Prozent. Das bedeutet, dass jedes vierte Bild falsch beurteilt wurde.

Interessanterweise schnitten auch erfahrene Radiologen mit bis zu 40 Dienstjahren nicht signifikant besser ab als Assistenzärzte. Die Fähigkeit, Deepfakes zu erkennen, scheint eine völlig neue Kompetenz zu sein, die nicht durch klassische klinische Erfahrung erworben wird.

Ähnliche Schwierigkeiten in der Unterscheidung KI-generierter Röntgenbilder von echten Aufnahmen hatten auch KI-Modelle selbst. Keines der getesteten Modelle war in der Lage, die synthetischen Bilder zuverlässig zu erkennen.

Während die OpenAI-Modelle jedoch zumindest eine Genauigkeit von etwa 83 bis 85 Prozent erreichten, waren Googles Gemini 2.5 Pro und Metas Llama 4 Maverick deutlich schlechter und erzielten Werte zwischen 56 und 59 Prozent (was kaum besser ist als reines Raten). Auch GPT-4o, welches ja verwendet wurde, um die synthetischen Bilder zu erstellen, konnte diese nicht zuverlässig von echten Aufnahmen unterscheiden.

Trotz der hohen Qualität der Deepfakes gibt es laut der Studie aber bestimmte Merkmale, die auf eine KI-Generierung hindeuten. So wirken Knochenstrukturen oft übermäßig glatt und haben nicht die feinen, unregelmäßigen Texturen, die im echten biologischen Gewebe vorkommen. Ein weiterer technischer Hinweis findet sich auch darin, wie „verrauscht“ die Röntgenaufnahme ist. Während das übliche Bildrauschen bei echten Aufnahmen aufgrund der physikalischen Eigenschaften der Strahlung unregelmäßig ist, wirkt das Körnungsmuster der KI oft unnatürlich gleichmäßig über das gesamte Bild verteilt. Zudem scheitern die KI-Modelle teils an anatomischen Feinheiten. Subtile Details wie die Schatten von Nagelbetten an den Fingern oder die feinen Gefäßverläufe in der Lunge werden von der KI oft unterschlagen oder falsch dargestellt, was ein Hinweis auf eine Manipulation sein kann.

Die Autoren warnen davor, dass die technische Hürde für die Erstellung täuschend echter medizinischer Bilder massiv gesunken ist. Wie sie schreiben, reicht ein einfacher Textprompt heute aus, um einen Knochenbruch oder einen Tumor zu erfinden, der selbst Experten täuscht.

Um das Vertrauen in die digitale Radiologie zu sichern, empfehlen die Autoren der Studie eine mehrstufige Sicherheitsstrategie. Zum einen sollten spezielle Schulungen für Radiologinnen und Radiologen durchgeführt werden, um deren Blick gezielt für die subtilen Artefakte und Unstimmigkeiten KI-generierter Bilder zu schärfen. Zum anderen sehen die Experten die Einführung robuster technischer Schutzmaßnahmen als unumgänglich an, wobei digitale Signaturen, unsichtbare Wasserzeichen oder Blockchain-basierte Herkunftsnachweise die Authentizität medizinischer Aufnahmen garantieren sollen. Ergänzt werden sollten diese Ansätze durch die Entwicklung unabhängiger, automatisierter Detektoren, die mittels tiefgehender Pixelanalyse Deepfakes im klinischen Alltag eigenständig erkennen und verlässlich markieren können.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Elektro-SUVs und Hybride im Vergleich: Das kosten BMW iX3 und Mercedes-Benz GLC


Die Zulassungsstatistik ist eindeutig: Im Prestige-Duell der Premium-Mittelklasse-SUVs hat Mercedes-Benz seinen Mitbewerber BMW klar abgehängt. Mit dem neuen iX3 wollen die Münchener das Blatt aber wenden. Das markentypisch sportlich getrimmte Elektro-SUV trifft auf den ebenfalls rein elektrisch angetriebenen GLC EQ, der eine auf Komfort und Gediegenheit orientierte Kundschaft ansprechen soll. Einiges dürfte aber von den Unterhaltskosten abhängen, die wir für beide Elektroautos und die weiterhin erhältlichen Plug-in-Hybride analysiert haben.

In den vergangenen Jahren war das Ergebnis zumindest in Deutschland eindeutig: Zwischen 2020 und 2025 konnte Mercedes fast 207.000 Erstzulassungen für den GLC verzeichnen, bei BMW reichte es für rund 153.000. Ob sich daran etwas ändert, dürfte auch von der Preisgestaltung abhängen. Die Mitte April 2026 einzigen beiden erhältlichen Varianten schlagen mit 70.900 Euro (BMW iX3 50 xDrive) und 71.281 Euro (Mercedes-Benz GLC 400 4Matic) zu Buche. Auch wenn Mercedes den ersten Nachlass schon im Konfigurator einräumt: Das ist viel Geld für SUVs der 4,8-Meter-Klasse, allerdings handelt es sich auch um die – vorläufigen – Topvarianten. Mit dem iX3 40 hat BMW für 63.400 Euro hat BMW bereits eine günstigere Konfiguration konkret angekündigt, bei Mercedes fehlt eine solche noch.


Hyundai Inster

Hyundai Inster

  • BMW bietet Wartungspakete an, die vor finanziellen Überraschungen bewahren können. Ob sie sich lohnen, hängt vom Einzelfall ab.
  • Beim Wertverlust gibt es keinen klaren Gewinner, die beiden Elektro-SUVs landen nicht immer vorn.
  • Ist Leasing eine Option, lässt sich damit im Fall zweier Plug-in-Hybride unter Umständen viel Geld sparen.

Entsprechend beschränken wir uns im Kostenvergleich auf die Topmodelle der beiden Elektroautos. Ihnen stellen wir insgesamt drei Plug-in-Hybride (PHEV) gegenüber: den BMW X3 30e xDrive (66.900 Euro) sowie die beiden Mercedes-SUVs GLC 300 e (68.889,10 Euro) und GLC 300 de (70.436,10 Euro). Die Besonderheit des 300 de: Mercedes bietet mit ihm weiterhin einen PHEV an, in dem ein Dieselmotor als Verbrenner dient. Ein Konzept, von dem sich andere Hersteller, die das jemals anboten, wieder verabschiedet haben und das Auswirkungen auf die Unterhaltskosten hat. Für diese greifen wir unter anderem auf die Ausgaben für Kfz-Versicherung und -steuern, Wartung und Verschleiß, Fahrenergie sowie den Wertverlust zurück. Als Ausgangspunkt dienen dabei vier Szenarien mit drei und fünf Jahren Laufzeit sowie 10.000 und 15.000 km pro Jahr.


Das war die Leseprobe unseres heise-Plus-Artikels „Elektro-SUVs und Hybride im Vergleich: Das kosten BMW iX3 und Mercedes-Benz GLC“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt