Künstliche Intelligenz
Zertifikate: BGH-Urteil bringt Anbieter von Online-Lernkursen auf die Barrikaden
Der Bundesgerichtshof (BGH) hat mit einem jetzt veröffentlichten Urteil vom 2. Oktober (Az.: III ZR 173/24) Anbieter von Online-Lernkursen unter Druck gesetzt. Die Karlsruher Richter erklärten damit ein gut 7000 Euro teures Online-Coaching-Programm ohne behördliche Zulassung für nichtig. Auf Basis ihrer fortlaufenden Rechtsprechung stellten sie klar: Angebote wie der sogenannte „E-Commerce Master Club“, die Kenntnisse und Fähigkeiten vermitteln und bei denen Lehrende und Lernende räumlich getrennt sind, fallen unter das Fernunterrichtsschutzgesetz (FernUSG). Eine Zulassung durch die Staatliche Zentralstelle für Fernunterricht (ZFU) ist demnach zwingend, da ihr Fehlen den Vertrag nach Paragraf 7 FernUSG ungültig macht. Der BGH betont, dass der Schutz des FernUSG auch für Existenzgründer und Kleinunternehmer gilt, nicht nur für klassische Verbraucher.
Weiterlesen nach der Anzeige
Dieses Urteil katapultiert die digitale Bildungswirtschaft nach eigener Darstellung in einen „rechtlichen Albtraum“. In einem heise online vorliegenden Brandbrief an Bundesbildungsministerin Karin Prien (CDU) beklagten die Anbieter schon im August, dass das FernUSG aus dem Jahr 1976 – entworfen für den Postverkehr – heute voll auf die digitale Gegenwart pralle. Sie monierten, das Gesetz sei „realitätsfern, innovationsfeindlich“ und gefährde „massiv den digitalen Bildungsstandort“. Die völlig unzeitgemäße Auslegung zentraler Rechtsbegriffe schaffe ein „Klima der Angst und rechtlichen Unberechenbarkeit“. Der neue BGH-Spruch bedeutet laut dem Anbieter Digistore24, dass letztlich jeder Online-Zeichenkurs genauso zertifiziert werden müsse wie eine berufliche Weiterbildung. Da das Zulassungsverfahren langwierig, teuer und bürokratisch sei, stünden viele Kurse vor dem Aus. Zugleich zielten tausende Gerichtsverfahren auf eine Rückzahlung der Kursgebühren ab.
Reformstau als bildungspolitisches Versagen
Die Rechtsunsicherheit wird seit Langem durch widersprüchliche Auslegungen der Gerichte befeuert. So urteilte etwa das Oberlandesgericht (OLG) Oldenburg, dass die „räumliche Trennung“ bei Online-Schulungen trotz Live-Setting gegeben sei, da sich Lehrende und Lernende in unterschiedlichen Räumen aufhielten. Im Gegensatz dazu sah das OLG Nürnberg die räumliche Trennung in einem virtuellen Klassenraum als nicht gegeben an, da ähnlicher Kontakt wie im Präsenzunterricht möglich sei. Auch beim Merkmal der „Überwachung des Lernerfolgs“ herrscht Uneinigkeit: Das OLG Stuttgart wertete bereits die Option, Fragen zu stellen, als Lernkontrolle. Das OLG Köln lehnte dagegen eine „WhatsApp-Fragen-Flatrate“ ab, da eine Überprüfung des Erfolgs durch den Lehrenden erfolgen müsse. Die Branche sieht den jahrelangen Reformstau als bildungspolitisches Versagen. Sie warnt, dass ein weiteres Abwarten zur „mutwilligen Gefährdung eines gesamten Wirtschaftssegments“ und zum Verlust des Anschlusses an die digitale Bildungszukunft führe.
Die Anbieter digitaler Wissensvermittlung fordern angesichts der BGH-Linie, die etwa die Lernkontrolle so weit fasst wie das OLG Stuttgart, von der Bundesregierung entschlossenes Handeln. Sie verlangen die sofortige Reform des FernUSG, um digitale Lernrealitäten widerzuspiegeln und die Wettbewerbsfähigkeit zu sichern. Nötig sei ein sofortiges Moratorium für die Anwendung des veralteten Gesetzes, bis eine zeitgemäße Reform verabschiedet ist. Anstelle des langsamen und unflexiblen Zulassungsverfahrens soll ein digitales, abgestuftes Zertifizierungsmodell etabliert werden, das Start-ups nicht ausbremst und Markteintrittsbarrieren abbaut. Ziel der von Schwarz-Rot im Koalitionsvertrag versprochenen FernUSG-Modernisierung müsse ein Verbraucherschutz sein, der Vertrauen schafft und Orientierung gibt.
(nie)
Künstliche Intelligenz
ChatGPT als Arzt-Ersatz? Studie zeigt ernüchternde Ergebnisse
Große Sprachmodelle wie GPT-4o erreichen bei medizinischen Wissenstests inzwischen nahezu perfekte Ergebnisse. Sie bestehen die US-Ärzte-Zulassungsprüfung, fassen Patientenakten zusammen und können Symptome einordnen. Gesundheitsbehörden weltweit prüfen deshalb, ob KI-Chatbots als erste Anlaufstelle für Patienten dienen könnten – eine Art „neue Eingangstür zum Gesundheitssystem“, wie es in einem Strategiepapier des britischen NHS heißt.
Weiterlesen nach der Anzeige
Doch die Studie „Reliability of LLMs as medical assistants for the general public: a randomized preregistered study“ von Forschern der Universität Oxford dämpft diese Hoffnungen erheblich. Die Arbeit erscheint im Fachjournal Nature Medicine, eine Vorabversion ist auf arXiv verfügbar. Das zentrale Ergebnis: Das klinische Wissen der Modelle lässt sich nicht auf die Interaktion mit echten Menschen übertragen.
1298 Teilnehmer, zehn medizinische Szenarien
Für die randomisierte, kontrollierte Studie rekrutierten die Forscher 1298 Teilnehmer aus Großbritannien. Jeder Proband erhielt eines von zehn alltagsnahen medizinischen Szenarien – etwa plötzliche starke Kopfschmerzen, Brustschmerzen in der Schwangerschaft oder blutigen Durchfall. Die Aufgabe: Einschätzen, welche Erkrankung vorliegen könnte und ob ein Arztbesuch, die Notaufnahme oder gar ein Krankenwagen nötig ist.
Die Teilnehmer wurden zufällig in vier Gruppen eingeteilt. Drei Gruppen erhielten Zugang zu je einem KI-Modell, das zu Studienbeginn aktuell war – GPT-4o, Llama 3 oder Command R+. Die Kontrollgruppe durfte beliebige Hilfsmittel nutzen, etwa eine Internetsuche.
KI allein brilliert – mit Menschen versagt sie
Weiterlesen nach der Anzeige
Die Ergebnisse offenbaren eine bemerkenswerte Diskrepanz. Ohne menschliche Beteiligung identifizierten selbst die inzwischen nicht mehr aktuellen Sprachmodelle in 94,9 Prozent der Fälle mindestens eine relevante Erkrankung. Bei der Frage nach der richtigen Handlungsempfehlung – Selbstbehandlung, Hausarzt, Notaufnahme oder Rettungswagen – lagen sie im Schnitt in 56,3 Prozent der Fälle richtig.
Sobald jedoch echte Menschen die Modelle befragten, brachen die Werte ein. Teilnehmer mit KI-Unterstützung erkannten relevante Erkrankungen nur in maximal 34,5 Prozent der Fälle – signifikant schlechter als die Kontrollgruppe mit 47 Prozent. Bei der Wahl der richtigen Handlung schnitten alle Gruppen gleich ab: rund 43 Prozent Trefferquote, unabhängig davon, ob ein Chatbot half oder nicht.
Doppeltes Kommunikationsversagen
Die Forscher analysierten die Chat-Protokolle zwischen Nutzern und KI-Modellen, um die Ursachen zu verstehen. Sie identifizierten zwei zentrale Schwachstellen: Erstens gaben die Teilnehmer den Modellen oft unvollständige Informationen. Zweitens verstanden die Nutzer die Antworten der KI nicht richtig – obwohl die Modelle in 65 bis 73 Prozent der Fälle mindestens eine korrekte Diagnose nannten, übernahmen die Teilnehmer diese nicht zuverlässig.
Dr. Anne Reinhardt von der LMU München sieht hier eine grundsätzliche Schere: „Viele Menschen vertrauen KI-Antworten auf Gesundheitsfragen schnell, weil sie leicht zugänglich sind. Sie klingen auch sprachlich sehr überzeugend – selbst dann, wenn der Inhalt eigentlich medizinisch absolut falsch ist.“
Benchmarks führen in die Irre
Die Forscher verglichen die Leistung der Modelle auf dem MedQA-Benchmark – einem Standardtest mit Fragen aus Ärzte-Prüfungen – mit den Ergebnissen der Nutzerstudie. In 26 von 30 Fällen schnitten die Modelle bei den Multiple-Choice-Fragen besser ab als bei der Interaktion mit echten Menschen. Selbst Benchmark-Werte von über 80 Prozent korrespondierten teilweise mit Nutzer-Ergebnissen unter 20 Prozent.
Prof. Ute Schmid von der Universität Bamberg ordnet die hohe Leistung der Modelle „allein“ kritisch ein: „Etwas irreführend finde ich die Aussage, dass die Performanz der Sprachmodelle ‚alleine‘ deutlich höher ist als bei den Nutzenden. In diesem Fall wurden die Anfragen vermutlich von fachlich und mit LLMs erfahrenen Personen formuliert.“
Was müsste ein medizinischer Chatbot können?
Die Experten sind sich einig, dass spezialisierte medizinische Chatbots anders gestaltet werden müssten als heutige Allzweck-Modelle. Prof. Kerstin Denecke von der Berner Fachhochschule formuliert die Anforderungen: „Ein medizinisch spezialisierter Chatbot müsste evidenzbasierte, aktuelle Informationen bieten. Außerdem müsste er Notfallsituationen zuverlässig erkennen, individuelle Risikofaktoren berücksichtigen und transparent seine Grenzen kommunizieren. Er sollte eine strukturierte Anamnese erheben, um zuverlässig triagieren zu können. Und er sollte sich nicht dazu hinreißen lassen, eine Diagnose zu stellen.“
Die Hürden für einen solchen Einsatz seien allerdings erheblich, so Denecke: „Große Hürden sind zum einen die Regulierung – je nach Funktion als Medizinprodukt oder Hochrisiko-KI. Zum anderen sind es die Haftung, der Datenschutz sowie die technische Integration in Versorgungsprozesse.“
Tests mit echten Nutzern unerlässlich
Die Schlussfolgerung der Oxford-Forscher ist eindeutig: Bevor KI-Systeme im Gesundheitswesen eingesetzt werden, müssten sie mit echten Nutzern getestet werden – nicht nur mit Prüfungsfragen oder simulierten Gesprächen. Schmid plädiert für einen differenzierten Ansatz: „Qualitätsgeprüfte Chatbots könnten beispielsweise über die gesetzlichen Krankenkassen angeboten und von Hausarztpraxen als Erstzugang empfohlen werden. Allerdings sollten Menschen nicht gezwungen werden, diese Angebote zu nutzen.“
(mack)
Künstliche Intelligenz
Temu und Shein: Handelsverband HDE bringt Importstopp ins Spiel
In einem Brief an Bundeskanzler Friedrich Merz (CDU) bringt der Handelsverband HDE einen Importstopp für Waren chinesischer Internethändler wie Temu oder Shein ins Spiel. Alexander von Preen und Geschäftsführer Stefan Genth beklagen in dem Schreiben ungleiche Wettbewerbsbedingungen.
Weiterlesen nach der Anzeige
Chinesische Onlineanbieter wie Temu oder Shein würden sich systematisch über die nach EU-Recht geltenden Sicherheits- und Umweltstandards hinwegsetzen, kritisieren die Verbandschefs. In Deutschland ansässige Händler seien deshalb nicht mehr konkurrenzfähig.
Der HDE fordert von Bundeskanzler Merz, sich beim am 12. Februar stattfindenden Sondergipfel der EU für faire Wettbewerbsbedingungen und gegen Wachstumshemmnisse einzusetzen. Ultima Ratio müssten auch drastische Maßnahmen wie ein Importstopp von chinesischen Billigwaren in Erwägung gezogen werden. „Wer sich nicht an die Regeln hält, darf auf unserem Markt nicht mitspielen“, zitiert das Redaktionsnetzwerk Deutschland aus dem Schreiben.
Außerdem befürchtet der HDE, dass die Umsetzung von EU-Richtlinien die Bürokratielasten für den Einzelhandel im Laufe des Jahres erhöht. Mit der 2026 in Kraft tretenden Verschärfung des Entgelttransparenzgesetzes oder der ab Ende dieses Jahres gültigen EU-Entwaldungsverordnung würden zusätzliche bürokratische Hemmnisse entstehen. Wachstums- und Wettbewerbsfähigkeiten des Einzelhandels würden so lahmgelegt.
Temu und Shein wachsen in Deutschland
Laut einer Mitte vergangenen Jahres veröffentlichten Studie „E-Commerce-Markt Deutschland 2025“ des Handelsforschungsinstituts EHI und der Datenplattform ECDB stieg die Popularität chinesischer Onlineshopping-Portale in Deutschland im Jahr 2024 stark an.
Der Nettoumsatz des chinesischen Modekonzerns Shein wuchs 2024 um 18 Prozent 1,1 Milliarden Euro, womit Shein erstmals in die Top Ten der größten Onlineshops in Deutschland aufstieg. Stand September 2025 ist das Unternehmen der siebtgrößte Onlinehändler in Deutschland – 2023 lag das Unternehmen noch auf Platz 18.
Bei Online-Marktplätzen machte Temu 2024 den größten Sprung. Das chinesische Portal vervierfachte sein Bruttohandelsvolumen in Deutschland nahezu auf 3,4 Milliarden Euro, was einem Wachstum von 285 Prozent entspricht. Dieser Wert entspricht dem Gesamtwert aller Bestellungen. Der Konzern stieg damit vom elften auf den fünften Platz der B2C-Marktplätze in Deutschland auf.
Weiterlesen nach der Anzeige
Amazon größte Konkurrenz des deutschen Einzelhandels
Unterdessen bleibt Amazon laut der Studie nicht nur wichtigster Online-Shop Deutschlands, sondern auch der größte Online-Marktplatz. Mit einem Nettoumsatz von 15 Millionen Euro und einem Bruttohandelsvolumen von 52 Millionen Euro im Jahr 2024 schlägt das US-Unternehmen die Konkurrenz weit ab.
Shein kommt mit einem Jahresumsatz von rund einer Million Euro nicht einmal auf ein Zehntel des Jahresumsatzes von Amazon in Deutschland. Auch Temu, der mittlerweile fünftgrößte Online-Marktplatz, verzeichnet mit rund 3,4 Millionen Euro nur ein Fünfzehntel des jährlichen Handelsvolumens von Amazon.
Temu und Shein bereits im Fokus der EU-Kommission
Temu und Shein sind schon seit Längerem im Fokus der EU-Kommission. Gegen Temu läuft derzeit ein Untersuchungsverfahren, weil die Kommission dem Konzern vorwirft, den Verpflichtungen aus dem Digital Services Act (DSA) nicht ausreichend nachzukommen.
Mitte letzten Jahres veröffentlichte die EU-Kommission ein vorläufiges Untersuchungsergebnis, demzufolge der Anfangsverdacht bestätigt werden konnte. Für Verbraucher bestehe ein hohes Risiko, auf dem Online-Marktplatz an Produkte zu gelangen, die nicht den innerhalb der EU geltenden Regeln entsprechen. Andere wichtige Aspekte des Verfahrens, etwa ob Temu unzulässig Verbraucher mit sogenannten Dark Pattern beeinflusst, untersucht die Kommission unabhängig davon weiter.
Im vergangenen Jahr hatte die EU-Kommission ebenfalls angekündigt, härter gegen den Online-Modehändler Shein vorgehen zu wollen. Einer Untersuchung der Kommission und des Netzwerks der Verbraucherbehörden der EU-Länder zufolge führt das chinesische Unternehmen Verbraucher systematisch mit sogenannten Dark Pattern in die Irre. Diese verkaufsfördernden, teils manipulativen Methoden können etwa Scheinrabatte, willkürliche Fristen oder irreführende Nachhaltigkeitsaussagen sein und verstoßen gegen das EU-Verbraucherrecht, erklärte die Kommission damals.
(rah)
Künstliche Intelligenz
Cisco AI Summit: Nach dem KI-Durchbruch 2025 kommt der KI-Durchbruch 2026
Die Tech-Industrie hat sich beim zweiten Cisco AI Summit gegenseitig versichert, dass 2026 endlich das Jahr der produktionsreifen KI wird. Zwischen bemerkenswerten Einsichten und reichlich Wunschdenken zeichnet sich vor allem eines ab: Der Kampf um die KI-Infrastruktur hat begonnen
Weiterlesen nach der Anzeige
Cisco positioniert sich dabei klar als Infrastrukturlieferant für die KI-Ära, und eine sechsstündige Bühnenshow mit Jensen Huang, Sam Altman und Fei-Fei Li ist dafür keine schlechte Kulisse. Dennoch lohnt ein genauerer Blick: Hinter dem üblichen Superlativ-Gewitter stecken durchaus interessante Verschiebungen in der Debatte.
Von Chatbots zu KI-Fabriken
Die auffälligste Erzählung des Tages kam von Nvidias Jensen Huang. KI sei kein Feature, sondern eine Neuerfindung des gesamten Computing-Stacks. Statt Code zu schreiben, definierten Entwickler künftig Absichten – der Übergang von expliziter zu impliziter Programmierung. Neu war weniger diese These als die Konsequenz, die Huang daraus zieht: Unternehmen bräuchten nicht einzelne KI-Tools, sondern sogenannte „AI Factories“ – integrierte Systeme aus Rechenleistung, Netzwerk und Sicherheit, die Intelligenz industriell produzieren.
Bemerkenswert war auch Huangs Rat an Führungskräfte, in frühen Phasen von KI-Initiativen nicht primär nach klassischem ROI zu fragen, sondern zunächst explorativ vorzugehen und herauszufinden, wo KI den größten strategischen Hebel entfalten kann. Renditemaßstäbe wie bei einem klassischen ERP-Rollout könne man hier nicht anlegen.
Das Agenten-Versprechen
Sam Altman lieferte die erwartbare Steigerung: KI werde sich vom Werkzeug zum Teammitglied entwickeln, das eigenständig Computer bedient, Software schreibt und komplexe Aufgaben Ende-zu-Ende erledigt. Er prognostizierte, dass sich bis Ende 2026 die Bandbreite der Probleme, die KI-Systeme sinnvoll bearbeiten können, massiv erweitern werde. Aaron Levie von Box ergänzte diese Perspektive mit der These, Unternehmen könnten künftig ein Vielfaches an KI-Agenten im Vergleich zur Zahl ihrer Mitarbeitenden einsetzen.
Solche Aussagen klingen eindrucksvoll, bleiben aber erklärungsbedürftig, solange offenbleibt, wie Fortschritt konkret gemessen wird. Altman relativierte die Vision und räumte ein, dass die größten Engpässe derzeit nicht bei den Modellen liegen, sondern bei Energie, Infrastruktur und der schleppenden Einführung von KI in Organisationen.
Weiterlesen nach der Anzeige
Infrastruktur als eigentliches Schlachtfeld
Fast alle der prominenten Sprecher landeten am Ende bei der Infrastruktur. Googles Amin Vahdat formulierte es besonders klar: Nicht primär die Modelle entschieden über den Erfolg im KI-Wettbewerb, sondern Rechenleistung, Netzwerke und Energieversorgung. Der Abschied von allgemeinen Standardarchitekturen ermögliche erhebliche Effizienzgewinne – in der Größenordnung des Faktors zehn –, setze aber voraus, dass Hardwarezyklen von bislang rund drei Jahren deutlich verkürzt würden. Vahdat brachte sogar weltraumgestützte Rechenzentren als langfristiges Gedankenspiel ins Spiel, um physische Skalierungsgrenzen zu überwinden.
AWS-Chef Matt Garman blieb bodenständiger. Viele KI-Projekte scheiterten weniger an der Technik als daran, dass Unternehmen vorab keine klaren Erfolgskriterien definierten. Fortschritte entstünden nicht durch einzelne clevere Experimente, sondern durch systematisch aufgebauten Kontext – etwa in Form von Daten, Prozessen und integriertem Fachwissen. Eine nüchterne Einsicht, die im Rauschen der großen Visionen beinahe unterging.
China als unbequeme Benchmark
Die geopolitisch brisanteste Passage des Summits lieferte Intel-CEO Lip-Bu Tan. China habe den eingeschränkten Zugang zu High-End-GPUs genutzt, um eigene CPU- und GPU-Ökosysteme aufzubauen und technologische Abhängigkeiten systematisch abzubauen. Der westliche Vorsprung existiere noch, könne aber schrumpfen – auch durch gezielte Personalrekrutierung, etwa bei Huawei.
Tans eigentlicher Punkt ging darüber hinaus: Die Unterschiede im KI-Fortschritt seien weniger technologischer als regulatorischer Natur. Während in westlichen Demokratien der Ausbau von Energieinfrastruktur durch langwierige Genehmigungsverfahren gebremst werde, setze China politische Entscheidungen deutlich schneller in Bauvorhaben um. Anne Neuberger und Brett McGurk ergänzten diese Analyse aus sicherheitspolitischer Perspektive: Wenn demokratische Staaten ihre eigene KI-Entwicklung stark ausbremsten, während geopolitische Rivalen schneller skalierten, könne daraus ein realer strategischer Nachteil entstehen.
Wie sich Softwareentwicklung verändert
Jenseits der großen Erzählungen gab es zwei Bereiche, in denen die Veränderungen bereits greifbar sind. In der Softwareentwicklung berichteten mehrere Speaker von deutlich steigenden Anteilen KI-gestützter Codeerstellung. Microsofts CTO Kevin Scott konstatierte nüchtern, der Engpass habe sich verschoben – weg von der reinen Code-Erstellung hin zu Bewertung, Qualitätssicherung und der Frage, ob Software das „richtige“ Problem löst.
Mike Krieger von Anthropic beschrieb, wie sich die menschliche Rolle stärker auf Produktvision und Architektur verlagere, während Figma-CEO Dylan Field voraussagte, dass Designer perspektivisch produktive Codebasen direkt über Design-Oberflächen beeinflussen könnten.
Wo sind die belastbaren Zahlen?
Was auf dem Summit weitgehend ausblieb, war eine ehrliche Bilanz des vergangenen Jahres. Auch 2025 war als Durchbruchsjahr angekündigt worden. Wie viele der damaligen Versprechen wurden tatsächlich eingelöst? Wo blieben belastbare Zahlen zu Produktivitäts- oder ROI-Effekten, deren Erhebung selbst Befürworter wie Jensen Huang für verfrüht halten?
HUMAIN-CEO Tareq Amin sprach offen aus, dass die bisherigen Produktivitätsgewinne vielerorts begrenzt seien, weil KI häufig nur auf bestehende Legacy-Plattformen aufgesetzt werde. Sein Ansatz, ein komplett neues, von Grund auf KI-zentriertes Betriebssystem zu bauen, ist radikal gedacht – ob er praxistauglich ist, bleibt offen.
Ebenfalls auffällig: Der Begriff „Halluzination“ fiel kaum. Fragen des Vertrauens wurden zwar unter dem Label Sicherheit diskutiert, aber vor allem im Kontext von Cyberangriffen und Geopolitik – weniger im Hinblick auf KI-Systeme, die schlicht falsche oder irreführende Ergebnisse produzieren.
Der Cisco AI Summit 2026 war aufschlussreicher als viele vergleichbare Branchenevents – weniger wegen einzelner Visionen als wegen der Linien, die sich zwischen ihnen abzeichnen. Die Debatte verschiebt sich von der Frage „Was kann KI?“ hin zu „Wer verfügt über die Infrastruktur, um KI im großen Maßstab zu betreiben?“. Für Unternehmen, die heute KI-Strategien definieren, bleibt die Erkenntnis: Nicht die Modelle sind das größte Problem, sondern Energie, Daten, Integration – und der Mut, bestehende Prozesse grundlegend umzubauen. Wer die Interviews des Cisco AI Summits nachsehen möchte, findet sie thematisch einzeln aufbereitet hier.
(axk)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
