Künstliche Intelligenz
KI-Update kompakt: 3 Jahre ChatGPT, KI-Gedächtnis, KI-Assistent, Genesis-Mission
Drei Jahre ChatGPT: Erfolg ohne Geschäftsmodell
Weiterlesen nach der Anzeige
ChatGPT ging am 30. November 2022 online und wurde schnell zur ersten Anlaufstelle für Trainingspläne, Urlaubsplanung und Hausaufgaben. Heute nutzen weltweit etwa 800 Millionen Menschen pro Woche den Chatbot. In Deutschland setzen ihn Nutzer primär zum Schreiben, für Ratschläge, Informationssuche und Gesundheitstipps ein. Der Erfolg löste einen Boom am Kapitalmarkt aus, den viele bereits als „KI-Blase“ bezeichnen.

Denn ein tragbares Geschäftsmodell fehlt weiterhin. Die Kosten für Training und Betrieb übersteigen die Einnahmen deutlich. Größter Gewinner ist Nvidia, das die Hardware liefert. Die Umweltfolgen sind erheblich: Microsoft steigerte seine CO₂-Emissionen um 40 Prozent, Google um 13 Prozent. Dazu kommt ein enormer Wasserverbrauch zur Kühlung der Rechenzentren. OpenAI-Chef Sam Altman treibt trotzdem die Entwicklung einer allgemeinen künstlichen Intelligenz voran, die jede intellektuelle Aufgabe des Menschen bewältigen soll.
US-Patentamt behandelt KI wie Laborausrüstung
Das US-Patentamt hat seine Leitlinien zur Patentierbarkeit von KI-gestützten Erfindungen geändert. Direktor John Squires stellt klar: Systeme wie ChatGPT, Gemini oder Claude sind analog zu Laborausrüstung, Computersoftware oder Forschungsdatenbanken zu betrachten. KI darf Dienste leisten und Ideen generieren, kann aber niemals als Erfinderin oder Miterfinderin genannt werden.
Entscheidend bleibt die geistige Schöpfung des Menschen. Eine natürliche Person muss eine „bestimmte und dauerhafte Idee der vollständigen Erfindung“ im Kopf geformt haben. Die neuen Vorgaben sollen die Rechtsunsicherheit beenden, wenn Forscher KI als intensiven Entwicklungspartner nutzen. Sie werden nun rechtlich so behandelt, als hätten sie ein fortgeschrittenes Mikroskop oder eine komplexe Simulationssoftware benutzt.
Google kürzt kostenlose Nutzung von Gemini 3 Pro drastisch
Weiterlesen nach der Anzeige
Google hat die kostenlosen Nutzungslimits seines KI-Modells Gemini 3 Pro stark eingeschränkt. Nutzer ohne kostenpflichtiges Abonnement erhalten nur noch „Basic Access“ mit täglich wechselnden Limits. Zuvor waren bis zu fünf Prompts pro Tag garantiert. Beim Bildgenerator Nano Banana Pro können Gratisnutzer statt drei nur noch zwei Bilder täglich erstellen.
Google begründet die Maßnahme mit „hoher Nachfrage“. Die Limits können sich häufig ändern und werden täglich zurückgesetzt. Der Erfolg von Gemini 3 Pro scheint das Unternehmen überrascht zu haben. Bei seiner Veröffentlichung katapultierte sich das Modell an die Spitze wichtiger Benchmarks und überholte erstmals ChatGPT. Google hat nicht mitgeteilt, wann die ursprünglichen Gratis-Kontingente wiederhergestellt werden.
Neues Gedächtnissystem soll KI-Datenverlust verhindern
Ein Forschungsteam aus China und Hongkong hat eine neue Speicherarchitektur für KI-Agenten vorgestellt. Das System „GAM“ soll verhindern, dass KI-Modelle in langen Konversationen wichtige Details vergessen. Das Problem ist als „Context Rot“ bekannt: Wenn Chats zu umfangreich werden, erreichen Modelle die Grenzen ihres Kontextfensters und verlieren den Überblick oder halluzinieren.
Die Wissenschaftler übertragen das Prinzip der „Just-in-Time Compilation“ auf KI-Gedächtnisse. Informationen werden erst im Moment der Abfrage für die spezifische Situation aufbereitet. Ein „Memorizer“ speichert den kompletten Gesprächsverlauf in einer Datenbank. Ein „Researcher“ führt erst bei konkreten Fragen eine tiefe Recherche im eigenen Gedächtnis durch. In Tests übertraf das System laut den Autoren herkömmliche Methoden mit statischen Zusammenfassungen deutlich.
KI-Assistenten fördern oberflächliches Lernen bei Programmierern
Der Einsatz von KI-Tools wie GitHub Copilot führt bei Programmieranfängern zu oberflächlichem Lernverhalten. Das zeigt eine Studie der Universität des Saarlandes unter Leitung von Sven Apel. Die Untersuchung verglich studentische Paare, die entweder mit oder ohne KI-Unterstützung arbeiteten. Nutzer von KI-Assistenten übernehmen die Code-Vorschläge oft unkritisch und gehen davon aus, dass die Lösung korrekt ist.
In KI-gestützten Teams drehte sich die Kommunikation fast ausschließlich um den Code selbst. Menschliche Paare ohne KI-Hilfe stellten mehr Fragen und diskutierten breiter über Lösungswege. Die Forscher warnen vor langfristigen Folgen: Wenn Entwickler den Code nicht tiefgehend verstehen, können später Fehler entstehen, deren Behebung aufwendig ist. Apel betont, dass KI zwar bei Routineaufgaben hilft, komplexe Probleme aber weiterhin menschlichen Austausch und kritisches Hinterfragen erfordern.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
GPT-5 löst komplexen Mathematik-Beweis in Rekordzeit
Ein Forscher von OpenAI berichtet von erheblichen Zeitgewinnen durch das kommende Modell GPT-5. Sebastian Bubeck schreibt auf der Plattform X, dass das Modell eine hochkomplexe mathematische Aufgabe an einem Nachmittag gelöst habe. Ein Mensch hätte dafür rund einen Monat benötigt. Der Prozess war mehrstufig: GPT-5 entwarf den Lösungsweg, führte eine Simulation zur Überprüfung einer Formel durch und verfasste anschließend einen vollständigen mathematischen Beweis.
Bubeck bezeichnet dies als die bislang stärkste Leistung eines großen Sprachmodells, die er gesehen habe. Auch der renommierte Mathematiker Terence Tao berichtete kürzlich von Zeitersparnissen durch KI, allerdings in anderer Form. Er nutzte KI-Modelle zur Überprüfung eigener theoretischer Annahmen, nicht im autonomen Modus. Ein Bericht von OpenAI legt nahe, dass GPT-5 darauf ausgelegt ist, Forschungsprozesse in verschiedenen wissenschaftlichen Disziplinen deutlich zu beschleunigen.
Trumps Genesis-Mission: Große Pläne, unklare Umsetzung
US-Präsident Donald Trump hat die „Genesis-Mission“ gestartet. Sie soll die technologische Vorherrschaft der USA sichern und ausbauen. Innerhalb eines Jahres soll das Department of Energy eine Plattform mit der „weltgrößten Sammlung an Forschungsdaten“ und Zugriff auf Supercomputing-Ressourcen bereitstellen. Qualifizierte Unternehmen und Forschungseinrichtungen sollen damit KI-Modelle und Agenten trainieren, die Hypothesen testen und Experimente durchführen, vorwiegend in den Bereichen Energie, Biotechnologie, Materialforschung und Quantentechnologie.
Die Umsetzung ist fraglich. Die USA haben früher mit großangelegten Förderprogrammen Technologie erfolgreich vorangebracht, etwa bei Exaflop-Supercomputern. Doch zwei Probleme bleiben: die Datenlage und der Stand der KI-Technik. Maschinelles Lernen funktioniert nur bei guten und großen Datensätzen, die nur punktuell existieren. Zudem können KI-Modelle gut das nächste Problem vorhersagen, wenn es ähnlich in den Trainingssätzen vorkam.
Black Friday: KI-Tools treiben Online-Umsatz
Der Anbieter von CRM-Lösungen Salesforce hat für den vergangenen Black Friday weltweit einen Online-Umsatz von 79 Milliarden US-Dollar beobachtet. Das entspricht einem Wachstum von sechs Prozent gegenüber dem Vorjahr. Zwischen 10 und 14 Uhr gaben Online-Shopper allein in den USA im Schnitt jede Minute 12 Millionen Dollar aus, berichtet Forbes.
Sowohl Adobe als auch Salesforce stellten fest, dass viele Menschen nicht mehr Suchmaschinen oder Preisvergleichsportale nutzen, sondern über KI-Tools zu den Shops gelangen. Adobe stellte ein Wachstum von 805 Prozent gegenüber dem Vorjahr fest. Salesforce beziffert die Umsätze durch KI auf 14,2 Milliarden weltweit und 3 Milliarden in den USA. Das bestätigt den Trend, dass viele Menschen direkt Chatbots oder ähnliche Tools für die Suche nach Informationen benutzen.

(igr)
Künstliche Intelligenz
DocuSeal 2.3.0: Open-Source-Alternative zu DocuSign mit KI-Features
DocuSeal hat Version 2.3.0 seines Open-Source-Tools für elektronische Unterschriften veröffentlicht. Das Update bringt vor allem Verbesserungen für den Formular-Editor sowie eine wichtige Sicherheitsänderung für Docker-Installationen.
Weiterlesen nach der Anzeige
Hauptneuerung ist eine KI-gestützte Felderkennung, die Formularfelder in PDF-Dokumenten automatisch identifiziert. Nutzer können die Funktion über das neue Kontextmenü aufrufen, per Rechtsklick auf Felder. Damit lassen sich Formulare schneller für elektronische Signaturen vorbereiten. Das Kontextmenü umfasst darüber hinaus Funktionen zum Konfigurieren, Kopieren und Einfügen von Feldern.
Ein weiteres Feature ist der neue Select-Modus, den Anwender über die Tab-Taste oder das Kontextmenü aktivieren können. Im Select-Modus lassen sich mehrere Felder gleichzeitig auswählen und gemeinsam verschieben, skalieren oder konfigurieren. Die Mehrfachauswahl funktioniert wie gewohnt über Strg+Klick.
Mehr Sicherheit in Docker-Umgebungen
Für Docker-Nutzer bringt Version 2.3.0 eine wichtige Sicherheitsverbesserung: Die Docker-App läuft nun mit der Rolle docuseal:docuseal statt mit Root-Rechten. Dies erhöht die Sicherheit bei Standard-Docker-Compose-Installationen, bei denen Speicher und Umgebungsvariablen auf dem Host-System liegen. Nutzer mit alternativen Installationen, die Umgebungsvariablen anders einbinden oder S3-Speicher verwenden, sind von dieser Änderung nicht betroffen.
Open-Source-Alternative zu DocuSign
DocuSeal bezeichnet sich als selbst gehostete Alternative zu proprietären Diensten wie DocuSign. Die Software steht unter AGPL-3.0-Lizenz und lässt sich auf eigenen Servern oder in der Cloud betreiben.
Weiterlesen nach der Anzeige
Die Plattform bietet einen WYSIWYG-PDF-Formular-Editor mit zwölf Feldtypen, darunter Signatur-, Datums-, Datei- und Checkbox-Felder. Mehrere Unterzeichner können gleichzeitig an einem Dokument arbeiten. Die Software versendet automatisierte E-Mails über SMTP und speichert Daten wahlweise lokal, auf AWS S3, Google Cloud Storage oder Microsoft Azure. Die elektronischen Signaturen sind nach PDF-Standard verifizierbar.
Zusätzlich zur kostenlosen Version bietet DocuSeal Pro-Features wie White-Labeling, Nutzerrollen, Erinnerungen, SMS-Verifikation, bedingte Felder, Massen-Versand über CSV oder XLSX sowie Single Sign-on per SAML. Die Plattform ist SOC-2- und ISO-27001-zertifiziert.
DocuSeal lässt sich per Docker mit wenigen Befehlen installieren und nutzt standardmäßig SQLite als Datenbank. Optional unterstützt die Software PostgreSQL und MySQL. Weitere Informationen finden sich auf der GitHub-Seite des Projekts.
(fo)
Künstliche Intelligenz
Abzug aus USA: Bund gibt 30 Millionen Euro für unabhängige Forschungsdaten
Die Zeiten, in denen sich die deutsche Wissenschaft blind auf die kostenlose Bereitstellung medizinischer Forschungsdaten aus den USA verlassen konnte, scheinen endgültig vorbei zu sein. Die Bundesregierung blickt mit wachsender Sorge auf die volatile Lage jenseits des Atlantiks und zieht nun erste finanzielle Konsequenzen: Der Bund stellt ein Sofortbudget von rund 30 Millionen Euro bereit, um gefährdete Forschungsdatenbestände zu sichern. Das geht aus einer Antwort der Exekutive auf eine Anfrage der Bundestagsfraktion der Grünen hervor.
Weiterlesen nach der Anzeige
Die Finanzmittel werden laut der Auskunft über die Deutsche Forschungsgemeinschaft (DFG) in einem wissenschaftsgeleiteten Verfahren vergeben. Die ersten Anträge durchlaufen bereits die Begutachtungsphase.
Hintergrund ist die veränderte Schwerpunktsetzung in der US-Haushaltspolitik, die den Betrieb zentraler Infrastrukturen wie der Literaturdatenbank PubMed oder des Studienregisters ClinicalTrials.gov ins Wanken bringen könnte. Besonders die Befürchtung, dass die US-Regierung unter Donald Trump die Mittel für die National Institutes of Health (NIH) drastisch kürzt, sorgt für Unruhe. Zudem gibt es Bedenken, dass politische Einflussnahmen die wissenschaftliche Integrität und den freien Zugang zu diesen globalen Standardressourcen beeinträchtigen könnten. PubMed, betrieben von der National Library of Medicine (NLM) als Abteilung der NIH, ist mit über 30 Millionen Zitaten die weltweit wichtigste Ressource für biomedizinische Literatur.
Dass diese Sorgen nicht unbegründet sind, zeigte sich bereits Anfang März 2025, als PubMed kurzzeitig komplett ausfiel. Die Plattform war zwar einen Tag später wieder erreichbar. Das federführende Forschungsministerium betont auch, dass bisher keine dauerhaften signifikanten Einschränkungen vorlägen. Trotzdem wird die uneingeschränkte Verfügbarkeit dieser Ressourcen in Berlin nicht mehr als selbstverständlich erachtet.
Europäische Wissenschaftscloud im Fokus
Die Deutsche Zentralbibliothek für Medizin (ZB MED) hat bereits angekündigt, mit dem Projekt Open Life Science Publication Database (OLSPub) eine offene, zuverlässige und nachhaltige europäische Alternative zu PubMed schaffen zu wollen. Ziel ist es, die technologische Unabhängigkeit mit Offenheit und Transparenz zu verbinden, um die Innovationskraft der Forschung zu schützen. Das Projekt wird aktuell im Rahmen der DFG-Fördermaßnahmen begutachtet.
Die Bundesregierung setzt parallel dazu auf eine langfristige europäische Datensouveränität. Um diesen Prozess zu koordinieren, hat sie eine nationale Arbeitsgruppe ins Leben gerufen, die den Austausch mit der Wissenschaftscommunity und den europäischen Partnern bündeln soll. Als zentraler Ankerpunkt dient dabei insbesondere die European Open Science Cloud (EOSC). Im Rahmen dieser Initiative werden laut der Exekutive Fragen zur Sicherung bedrohter Datenbestände bereits „mit sehr großem Anwendungs- und Umsetzungsbezug diskutiert und perspektivisch koordiniert“.
Weiterlesen nach der Anzeige
Trotz dieser Ambitionen bleibt die diplomatische Informationslage dünn. Ein offizieller Austausch mit US-Behörden über künftige Finanzierungsentscheidungen finde auf Regierungsebene nicht statt, heißt es. Auch ein systematisches Monitoring für US-Haushaltsentscheidungen existiert bisher nicht. Stattdessen vertraut die Exekutive auf die bestehende Vernetzung innerhalb der Forschung und die finanzielle Beteiligung an europäischen Großprojekten wie dem EMBL-EBI, das eine wichtige Spiegelung der PubMed-Inhalte betreibt. Die mobilisierten 30 Millionen Euro sind so ein erster Schutzwall, um die hiesige Wissenschaft vor dem Verlust von Datenzugängen abzuschirmen.
(mack)
Künstliche Intelligenz
Die vergessenen App Stores: Ein Nachruf auf große Erwartungen
Erinnert sich noch jemand an die alternativen App Stores? Richtig, da war doch was! Sie waren nach der Darstellung des iPhone-Herstellers der drohende Untergang des Apple-Landes und ein Quell unentwegter öffentlicher Streitereien zwischen dem iPhone-Hersteller und der EU-Kommission. Der Stein des Anstoßes: Die EU hat Apple per Digital Markets Act (DMA) dazu verpflichtet, in seiner virtuellen Marktstraße neben dem eigenen App-Kaufhaus auch anderen Geschäftsleuten die Eröffnung eines Ladenlokals zu ermöglichen.
Weiterlesen nach der Anzeige

Malte Kirchner ist seit 2022 Redakteur bei heise online. Neben der Technik selbst beschäftigt ihn die Frage, wie diese die Gesellschaft verändert. Sein besonderes Augenmerk gilt Neuigkeiten aus dem Hause Apple. Daneben befasst er sich mit Entwicklung und Podcasten.
Die Meldung, dass Setapp seinen App-Marktplatz bereits schließt, dürfte das Thema bei vielen überhaupt erst wieder ins Bewusstsein gerückt haben. Und auch wenn dies nur ein Anbieter von insgesamt vier bis fünf bekannten Stores ist, so ist es doch recht bezeichnend, dass der erste Laden schon wieder schließt, bevor es überhaupt irgendeine Art von Blütephase gegeben hat.
Keine Begeisterung hervorgerufen
Die Gelehrten streiten bereits darüber, woran es gelegen hat. Diejenigen, die den DMA für ein fehlgeleitetes Bürokratiemonster mit Risiken und Nebenwirkungen halten und damit auf der Seite Apples stehen, sehen sich in ihren Prophezeiungen bestätigt. Andere werfen Apple vor, die Maßgaben des DMA extra umständlich umgesetzt zu haben, sodass auf diesem toxischen Boden gar nichts gedeihen konnte. In dieses Horn stößt auch Setapp in seiner Begründung.
Die Wahrheit dürfte, wie so oft, irgendwo in der Mitte liegen. Nicht wegzudiskutieren ist allerdings, dass das in Brüssel ersonnene Konzept der alternativen Marktplätze niemals so recht Begeisterung bei Entwicklern und Nutzern hervorgerufen hat. Die meisten von ihnen dürften eher Verbesserungen im Vorhandenen herbeigesehnt haben, anstatt neue Marktplätze zu schaffen.
Woran liegt das?
Weiterlesen nach der Anzeige
Zuvorderst dürfte eine Rolle spielen, dass Europa zwar ein großer Wirtschaftsraum ist. Im Kontext der digitalen Märkte ist aber selbst ein Gebilde mit 440 Millionen Einwohnern und einer immensen Wirtschaftskraft für sich genommen zu wenig, dass Entwickler den Aufwand auf sich nehmen, nur für Europa – oder mittlerweile Europa und Japan – einen Sonderweg zu beschreiten. Das ist auch bei anderen Vorgaben des DMA zu sehen, etwa bei den Browser-Engines. Wenn selbst Google mit seinen immensen Geld- und Personalressourcen nicht motiviert ist, seine Browser-Engine in Europa an den Start zu schicken: Wer kann es dann den vielen kleinen und mittleren Entwicklern verdenken, dass sie diesem Beispiel folgen?
Was die Regulierung bewirkt hat
War die ganze Regulierung damit also für die Katz? Gab es vielleicht gar nicht das dem staatlichen Eingreifen zugrundeliegende klassische Marktversagen? Also eine Situation, in der Nutzer und Entwickler unter einem Problem leiden, das sie selbst nicht lösen können?
So einfach ist es auch nicht. Der DMA ist der Versuch einer Lösung für ein Problem, das von Entwicklern – großen wie kleinen – seit Jahren beklagt wird. Sie monierten, dass die großen Plattformbetreiber, wie Apple und Google, mangels geeigneter Mitbewerber in ihren Ökosystemen die Verkaufsprovisionen willkürlich festlegen können. Im Wettbewerb sehen die Regulierer die Möglichkeit, dass der Markt die Preise auf ein angemessenes Maß einpegelt.
Apple versucht, dieses Problem auf die großen Player wie Epic und Spotify zu reduzieren. Schon vor dem DMA hat Apple mit dem Small Business Program für kleinere Entwickler die Möglichkeit geschaffen, der vorher starren 30-Prozent-Abgabe zu entkommen. Am eigentlichen Kritikpunkt änderte das allerdings wenig.
Nicht völlig erfolglos
Der DMA ist in Sachen Apps nicht völlig erfolglos geblieben. Er hat bewirkt, dass Entwickler unabhängig von ihrer Größe von Gebührensenkungen profitieren, die durch die Druckkulisse der Regulierung ausgelöst wurden. Apple wird natürlich stets behaupten, dass das kein Verdienst des DMA ist. Andererseits räumte der iPhone-Hersteller jüngst nach einer von ihm selbst finanzierten Studie selbst ein, dass die Entwickler von gesunkenen Abgaben profitieren. 86 Prozent davon gingen zwar an Entwickler außerhalb der EU und die geben die Ersparnis nicht an die Käufer weiter, heißt es darin – das stärkt also nicht primär den Europäischen Wirtschaftsraum. Aber eine Bevorzugung europäischer Unternehmen hätte den DMA angreifbar gemacht und war auch nie dessen Absicht.
Die Nutzer hätten nach der Lesart des DMA durch einen Wettbewerb der Marktplätze von sinkenden Preisen profitiert. Dies würde aber voraussetzen, dass die App-Stores mit den gleichen Apps gegeneinander antreten. Das passiert in der Realität aktuell aber nicht, weshalb Nutzer keinen Vorteil für sich sehen.
Neben der Flaute der alternativen App-Stores sind auch viele Sorgen verpufft, die Apple der EU-Anordnung entgegensetzte. Die befürchtete Kompromittierung der Sicherheit ist bislang ausgeblieben. Vielleicht verläuft die Einführung DMA-ähnlicher Regeln in Japan auch deshalb geräuschloser, weil Apple aus der EU einige Erkenntnisse mitbrachte – und nicht nur, weil die Japaner nach Ansicht Apples behutsamer vorgegangen sind.
Neuer Hauptschauplatz Interoperabilität
Die Hauptschauplätze des Konflikts zwischen Apple und der EU haben sich indessen verlagert: Inzwischen wird um mehr Interoperabilität gerungen. In iOS 26.3 werden neue Funktionen eingeführt, die von der EU angewiesen wurden. Und es ist zu erwarten, dass die EU weitere Schneisen in Apples geschlossenes Ökosystem schlägt. Apple wiederum wird damit reagieren, dass neue Features teilweise später, teilweise gar nicht in die EU kommen – aus Sicherheitsgründen, wie es heißt.
Man kann über die Glücklosigkeit der bisherigen Regulierung lachen, man kann und sollte sicher auch einiges infrage stellen, auch die Radikalität der Gangart und die Polarisierung, die von beiden Seiten betrieben wurde. Fairerweise muss den Regulierern aber auch die Chance eingeräumt werden, erst einmal zu erlernen, wie eine angemessene Ordnung für die digitalen Märkte aussehen kann. Es darf aber vom Bürger vorausgesetzt werden, dass auch wirklich die Bereitschaft da ist, etwas zu lernen und nicht einfach nur stur weiterzumachen. Auch daran haben uns die bei vielen bereits wieder in Vergessenheit geratenen alternativen Marktplätze erinnert.
(mki)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 3 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 1 MonatKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGoogle „Broadwing“: 400-MW-Gaskraftwerk speichert CO₂ tief unter der Erde
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
