Künstliche Intelligenz
Medizininformatik-Initiative: Vom Aufbau zur Nutzung realer Gesundheitsdaten
Zehn Jahre lang hat die Medizininformatik-Initiative (MII) primär Grundlagen geschaffen: Standards, Datenintegrationszentren, Portale und Prozesse. Auf dem Jubiläumssymposium in Berlin wurde nun deutlich, dass die Initiative in eine entscheidende Phase kommt. Die Infrastruktur steht – jetzt muss sie zeigen, dass daraus konkrete Anwendungen für Forschung und Versorgung entstehen. Genau das war das Thema der ersten Fachsession, in der Projekte aus Kardiologie, Onkologie, Arzneimitteltherapiesicherheit und KI ihre ersten Ergebnisse vorstellten.
Weiterlesen nach der Anzeige
Im Mittelpunkt stand dabei nicht mehr der Aufbau von Datenräumen, sondern deren praktische Nutzung. Wie weit die MII dabei gekommen ist, zeigte sich etwa bei ACRIBiS, einem Projekt zur „Verbesserung der kardiovaskulären Risikoidentifizierung durch Synthese strukturierter klinischer Dokumentation und aus Biosignalen abgeleiteten Phänotypen“. Das Vorhaben setzt direkt an der klinischen Dokumentation an, standardisiert Routinedaten an der Quelle und verbindet sie mit Biosignalen wie EKGs. Mehr als 3.800 Patientinnen und Patienten wurden bereits in die Kohorte aufgenommen, über 5.000 sollen es werden. Projektkoordinator Prof. Sven Zenker vom Universitätsklinikum Bonn sagte: „Wir haben noch einiges vor.“ Das Projekt nutzt unter anderem bereits eine standardisierte Biosignal-Infrastruktur und moderne KI-Modelle könnten ausgetauscht werden. Nach Zenkers Angaben gibt es bereits internationales Interesse an der Nachnutzung des Datensatzes.
Wie groß der Abstand zwischen theoretischer Interoperabilität und gelebter Versorgungspraxis noch sein kann, wurde im Projekt „Integrate ATMP“ (Advanced Therapy Medicinal Product, Arzneimittel für neuartige Therapien) sichtbar. Das Heidelberger Projekt befasst sich mit Arzneimitteln für neuartige Therapien wie Gen- und Zelltherapien. Laut Prof. Andreas Ziegler vom Universitätsklinikum Heidelberg müssten Sicherheitsereignisse mehrfach und teils noch auf Papier gemeldet werden. Das Projekt versucht deshalb, Routinedaten, Register und Patientenkommunikation in einer gemeinsamen Struktur zusammenzuführen – mit enger Anbindung an die MII-Infrastruktur und die Datenintegrationszentren. Auch Patientinnen und Patienten sollen stärker eingebunden werden, unter anderem über eine App-Struktur und einen TI-Messenger. Zugleich wurde deutlich, dass solche Modelle dauerhaft nur funktionieren, wenn auch Fragen der Finanzierung und Vergütung frühzeitig mitgedacht werden.
Dr. Christian Müller vom Pharmakonzern Bayer brachte die Perspektive eines industriellen Datennutzers ein. Er stellte sich als „Apotheker, Jäger und Sammler von Daten bei Bayer“ vor und erläuterte mit „Data-Insight“ eine Studie, die Daten aus dem Forschungsdatenzentrum Gesundheit (FDZ) und dem Forschungsdatenportal Gesundheit (FDPG) praktisch gegenüberstellt. Müller sagte ausdrücklich, es gehe um „die Data Insight-Studie, die genau diesen Zweck hat, die beiden Register miteinander zu vergleichen“. Inhaltlich geht es um Prävalenzen, Inzidenzen, Medikationswechsel, Outcomes und regionale Versorgungsmuster in ophthalmologischen Indikationen – aber ebenso um die Frage, wie aufwendig und verlässlich die Nutzung der Daten heute tatsächlich ist.
Müller sprach dabei Punkte an, die für die nächste Phase der MII zentral sein dürften. Er wolle „den Finger in die Wunde legen“ und schilderte den Zugang aus Nutzersicht als komplex. Zwar sei das Portal als „One Face to the Customer“ gedacht, in der Praxis wirke es aber so, „als ob jedes Zentrum versucht, die eigenen Interessen durchzubekommen“. Das sei „nicht wirklich nachvollziehbar“ und „auch nicht wirklich kundenfreundlich“. Aus dem Kreis der MII wurde die Kritik nicht zurückgewiesen, sondern als Hinweis auf eine laufende Anlaufphase verstanden. Mehrfach war von einer „Ramp-up-Phase“ die Rede, in der Verfahren erst unter realen Nutzungsbedingungen erprobt und weiterentwickelt würden.
Datenintegrationszentren
Verschiedene Universitäten stellten zudem Datenintegrationszentren vor, Dr. Jan Erik Gewehr vom Universitätsklinikum Hamburg-Eppendorf (UKE) ein sogenanntes „Datenhotel“. Dabei handelt es sich um eine sichere Verarbeitungsumgebung, in der Forschende pseudonymisierte Daten direkt vor Ort analysieren können. Die Daten werden in dem Fall in einer Jupyter-Notebook-Umgebung bereitgestellt; zur Auswertung stehen unter anderem Python, R und Julia zur Verfügung. Jeder Datenraum sei projektbezogen angelegt und erhalte eine eigene Pseudonymisierung. Zugleich machte Gewehr deutlich, dass die Umgebung zunächst vor allem helfen soll, Hypothesen zu generieren. Die Daten können nicht einfach aus dem System heraus exportiert werden.
Weiterlesen nach der Anzeige
Auch das Datenintegrationszentrum (DIZ) in Jena stellte sich als Bindeglied zwischen Versorgung, Forschung und Industrie dar. Dort werde versucht, Interoperabilität und Kerndatensatz nicht nur für Forschungszwecke, sondern möglichst nah an den Abläufen der Krankenversorgung umzusetzen. Danny Ammon erklärte, dass dafür inzwischen auch industrielle Komponenten wie FHIR- und Terminologieserver genutzt würden. ETL-Strecken (Extract, Transform, Load) würden dort, wo die Spezifikationen ausgereift seien, an Hersteller vergeben.
Heidelberg wiederum berichtete von den praktischen Aufbauproblemen eines DIZ. Es gebe mehr als 250 Quellsysteme, teils Daten auf Papier, viele direkte Zugriffe auf Primärsysteme und einen erheblichen Aufwand beim Aufbau von ETL-Strecken, Datenmanagement und Qualitätssicherung. Dr. Angela Merzweiler machte deutlich, dass mit jedem neuen Projekt auch neue Datenflüsse und neue Anforderungen hinzukämen.
Personalisierte Onkologie
Mit PM4Onco zeigte sich außerdem, wie stark die MII inzwischen in die personalisierte Onkologie hineinwirkt. Das Projekt verknüpft Daten aus Tumordokumentation, molekularen Tumorboards, Pathologie und Patientenfragebögen. Ziel ist es, Therapieentscheidungen besser auszuwerten und standortübergreifend nutzbar zu machen. Projektleiterin Melanie Börries betonte: „Für uns ist immer der Patient im Mittelpunkt.“ Der Anspruch reicht damit über reine Datenharmonisierung hinaus: Die Strukturen sollen so gebaut sein, dass sie klinische Entscheidungen tatsächlich unterstützen können. Dazu gehört auch die engere Verknüpfung mit Krebsregisterdaten.
Einen unmittelbaren Bezug zur Versorgungspraxis hat „Interpolar“, (Usual Care als Plattform für IT-gestützte Interventionen). Das Projekt soll helfen, arzneimittelbezogene Probleme in der stationären Versorgung und Kontraindikationen, Wechselwirkungen und Dosierungsfehler frühzeitig sichtbar zu machen. „Wir wollen also den blinden Fleck der Routineversorgung messbar machen,“ so Dr. Daniel Neumann von der Universität Leipzig.
Einen Baustein für KI-Anwendungen liefert GeMTeX. Im Projekt wird ein großes klinisches Textkorpus für KI-basierte Sprachverarbeitung aufgebaut. Bislang fehlen in Deutschland reale, ausreichend aufbereitete klinische Textdaten weitgehend. Justin Hofenbitzer von der TUM bezeichnete das als „großes Loch in Deutschland.“ GeMTeX soll diese Lücke mit pseudonymisierten Dokumenten, die keine Rückschlüsse auf Einzelpersonen zulassen sollen, Annotationen und einer späteren Bereitstellung über das FDPG schließen.
In mehreren Beiträgen und in der abschließenden Diskussion wurde deutlich, dass Unternehmen die MII-Infrastruktur inzwischen als relevanten Zugang zu Daten wahrnehmen. Sie wünschen sich, früher und systematischer eingebunden zu werden. André Sander, Co-Geschäftsführer von ID Berlin wünschte sich, „dass man mehr auf die Lösungen, die bereits in der Industrie vorhanden sind, zurückgreift.“ Dabei nannte er das Projekt Interopolar als Beispiel. Für Sanders kam der Eindruck rüber, „als wenn die stationäre medikamentöse Versorgung so im Blindflug in Deutschland ist“. Dem widersprach er mit Verweis auf bereits vorhandene Systeme. Beispielsweise habe „das UKE […] ein Jahr vor der Medizininformatik-Initiative angefangen, eine Medikationslösung einzuführen“. Sander verwies auch auf frühere Erfahrungen mit der MII. Mehmet Akyüz von TriNetX Europe – einer Plattform, die Real‑World‑Data aus Kliniken und Gesundheitsorganisationen bündelt, um schnell Patientenkohorten für Studien zu identifizieren – ergänzte, die Kooperation zwischen Industrie und Gesundheitsstandorten könne aus seiner Sicht früher beginnen, idealerweise schon in der Projektinitiierung.
Zusammenarbeit zwischen Wirtschaft und Wissenschaft
Auch der Geschäftsführer, der Technologie- und Methodenplattform für die vernetzte medizinische Forschung, Sebastian C. Semler bestätigte, dass engere Kooperationen mit der Industrie nicht nur inhaltlich gewollt seien, in der Förderung aber oft auf Hürden stießen. Es sei nach wie vor schwierig, Unternehmen, die nicht voll förderungsfähig seien, mittels Unterauftrag in Fördervorhaben einzubinden; hinzu kämen „die ganzen wettbewerbsrechtlichen Hürden“. Wenn man gesellschaftlich wirklich wolle, dass Wissenschaft und Wirtschaft enger zusammenarbeiten, müsse man „auch an diesen Verfahrensweisen nochmal feilen“.
Auf einem anderen Panel des Symposiums wurde zudem ein strukturelles Problem benannt, das über die einzelnen Anwendungsprojekte hinausweist: Nicht jede wissenschaftliche Idee wird bis in die Versorgung weiterentwickelt. Laut Dr. Susen Burock, von der Koordinierungsstelle für Klinische Studien (KKS-Netzwerke e.V.), kämen häufig junge, engagierte Forschende mit einer Idee, die sie ausprobieren und in einem Paper festhalten möchten. Wenn diese Personen die Universität wieder verließen, bleibe die Weiterentwicklung häufig liegen. Genau darin liegt eine der zentralen Herausforderungen für die nächste Phase der MII, aus einzelnen Projekten und Publikationen müssen belastbare, dauerhaft nutzbare Lösungen werden.
Lesen Sie auch
(mack)
Künstliche Intelligenz
Kaufpreis und Unterhalt im Vergleich: Die günstigsten Autos in Deutschland
Wer schon einmal auf der Suche nach dem passenden Neuwagen war, dürfte das Gefühl kennen: Der unvernünftige Teil in uns würde gerne zum leistungsstarken Modell mit opulenter Ausstattung greifen, der pragmatische Teil hingegen zum günstigen. Doch das zu finden, wird angesichts von mehr als 5000 in Deutschland erhältlichen Fahrzeugen und Varianten schnell zur Sisyphusarbeit. Hinzu kommt, dass sich „günstig“ ganz unterschiedlich interpretieren lässt: Der eine schaut nur auf den Kaufpreis, der andere auf die laufenden Ausgaben. Hier kommt unsere Übersicht ins Spiel, die ausgehend von Kaufpreis und Unterhaltskosten die jeweils erschwinglichsten Verbrenner und Elektroautos der fünf wichtigsten Segmente nennt.
- Vor allem in der Mittelklasse und oberen Mittelklasse gehören mit Blick auf Kauf und Unterhalt einige in Deutschland weniger stark vertretene Modelle zu den günstigsten.
- Der Wertverlust ist der mit Abstand wichtigsten Punkt, wenn es um die laufenden Kosten geht.
- In bestimmten Segmenten sind Sie mit einem Elektroauto deutlich günstiger als mit einem Verbrenner unterwegs.
Bei den Segmenten handelt es sich um Minis, Kleinwagen, Modelle der Kompakt- und Mittelklasse sowie der oberen Mittelklasse. Bei der Einstufung haben wir uns am Kraftfahrt-Bundesamt (KBA) orientiert, das jedes in Deutschland erhältliche Fahrzeug einsortiert. Allerdings weichen wir in einem wichtigen Punkt ab. Denn während das KBA jedes SUV unabhängig von Größe, Gewicht und Preis als SUV oder Geländewagen einstuft, unterscheiden wir zwischen den Fahrzeuglängen. Zusätzlich differenzieren wir zwischen Kombis und Limousinen. Das Ergebnis: 59 Modelle von 17.600 und 71.500 Euro und einer Länge zwischen 3,7 bis rund 5 m.
Die Kaufpreise stimmen mit den in den jeweiligen Preislisten genannten Werten für die Basisvariante überein. Hersteller- oder händlerseitige Rabatte haben wir nicht berücksichtigt. Für Elektroautos gibt es wieder eine Förderung, die seit dem 1. Mai beantragt werden kann. Ihre Höhe lässt sich aber nicht pauschal berechnen. Denn je nach zu versteuerndem Haushaltseinkommen und Anzahl der Kinder unter 18 Jahren kann ihre Höhe Null, 4000, 5000 oder 6000 Euro betragen. Die Unterhaltskosten enthalten Wartung, Verschleiß, Kfz-Steuer und -Versicherung, Fahrenergie und Wertverlust. Alle Werte stammen aus dem ADAC Profi-Autokostenrechner und beziehen sich auf fünf Jahre Nutzung und eine Laufleistung von insgesamt 75.000 km. Da die Ausgaben für Fahrenergie bei einigen Modellen einen großen Anteil an den Gesamtkosten ausmachen, spielen die durch den Iran-Krieg gestiegenen Preise für Super und Diesel durchaus eine Rolle. Pro Liter Super E5 rechnen wir mit 2,17 Euro, bei Diesel mit 2,26 Euro. Beides entspricht dem bundesweiten Durchschnitt im April 2026. Für Strom setzen wir 30 Cent pro Kilowattstunde an, was dem Laden an der heimischen Wallbox entspricht. Mit einer eigenen PV-Anlage sinkt der Preis, an öffentlichen Ladesäulen müssen Sie hingegen mit höheren Ausgaben rechnen.
Das war die Leseprobe unseres heise-Plus-Artikels „Kaufpreis und Unterhalt im Vergleich: Die günstigsten Autos in Deutschland“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
KI-Bots als Täter-Software: Wenn Algorithmen Kindesmissbrauch simulieren
Die Versprechen Künstlicher Intelligenz klingen nach Fortschritt: effizientere Arbeitsabläufe, Hilfe bei der Kreation oder empathische digitale Assistenten. Doch abseits der bekannten Pfade von ChatGPT & Co. hat sich eine Schattenwelt etabliert, in der generative Sprachmodelle für besonders verstörende Zwecke missbraucht werden: Eine Recherche der Süddeutschen Zeitung wirft ein Schlaglicht auf Plattformen, auf denen KI-generierte Kinder-Charaktere gezielt erstellt werden, um virtuelle Missbrauchsszenarien zu simulieren.
Weiterlesen nach der Anzeige
Ein Beispiel, auf das die Reporter gestoßen sind, ist die Figur „Karin“. Dabei handelt es sich um ein fiktives 13-jähriges, obdachloses Mädchen, dessen Profil anhand vieler Details auf Hilflosigkeit und sexuelle Verfügbarkeit programmiert wurde.
Dieses Phänomen ist laut dem Bericht kein Nischenprodukt des Darknets. Vielmehr findet es auf frei zugänglichen Diensten für KI-Charaktere wie Chub AI statt. Dort sind keine technischen Hürden oder Altersprüfungen vorgeschaltet, was den Zugang zu solchen Inhalten sehr einfach macht. Die Interaktion mit den Bots folgt einer perfiden Logik: Die KI ist darauf trainiert, dem Nutzer zu gefallen und das Gespräch aktiv in Richtung sexualisierter Gewalt zu lenken. Allein mit dem Charakter „Karin“ wurden bereits fast 17.000 Chats geführt. Die Community findet das offenbar gut, worauf eine erschreckend hohe Zahl an positiven Bewertungen hindeutet.
Systematische Gewalt als Geschäftsmodell
Hinter solchen Angeboten steht offenbar ein Geschäftsmodell, bei dem Gewalt an Kindern schon ins Design eingebaut ist. Chub AI & Co. setzen auf nutzergenerierte Inhalte: Je mehr Charaktere erstellt werden, desto höher steigen die Interaktionsraten, die Datenmengen und die Reichweite. Die Betreiber bieten die Werkzeuge an, die Nutzer liefern die Inhalte. Das System unterstützt dabei sogar die gezielte Suche nach Missbrauchsdarstellungen durch eindeute Schlagworte, welche sexualisierte Gewalt gegen Kinder beschreiben.
Wettbewerber wie Character AI versuchen, durch Inhaltsfilter und Moderation gegenzusteuern. Sie wollen nicht anonym agieren und ihre Marke schützen. Auf Plattformen wie Chub AI bleibt die Kontrolle dagegen oft eine Sisyphusarbeit. Einmal gelöschte Bots tauchen durch Forks – das Kopieren und Abändern bestehender Charaktere – innerhalb kurzer Zeit in mehrfacher Ausführung wieder auf. Das führt dazu, dass Aufsichtsbehörden etwa in Australien solche Services als hohes Risiko für Kinder einstufen.
Jugendschutz vor massiven Herausforderungen
Weiterlesen nach der Anzeige
Die Dringlichkeit des Problems unterstreichen aktuelle Zahlen der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM). Ihr Jahresbericht 2025 verzeichnete mit 28.598 Meldungen die zweithöchste Anzahl an Hinweisen seit Gründung der Beschwerdestelle. Dabei hat sich die Darstellung sexuellen Missbrauchs von Kindern (CSAM) mit 58 Prozent der begründeten Fälle zur größten Kategorie entwickelt. Ein signifikanter Teil dieser Meldungen – rund 19 Prozent – entfällt mittlerweile auf virtuelle Darbietungen. Dabei nehmen KI-generierte Inhalte stetig zu.
Laut FSM verschwimmen hier die Grenzen zwischen Realität und Fiktion, was den Jugendschutz vor völlig neue Herausforderungen stelle. Dennoch bleibe die rechtliche Einordnung in Deutschland unmissverständlich: Auch virtuelle, mittels KI erstellte Darstellungen seien unzulässig und strafbar.
Rechtliche Grauzone der Fiktivpornographie
Die rechtliche Einordnung dieser virtuellen Gewalt gestaltet sich dennoch komplex. Das Bundeskriminalamt (BKA) stellt zwar klar, dass es für die strafrechtliche Bewertung in Deutschland unerheblich sei, ob es sich um reale oder KI-generierte Darstellungen handele. Beide würden vom Begriff der Kinderpornografie erfasst. Doch es gibt Unterschiede in der Handhabung von Bild- und Textmaterial. Während der Besitz von missbräuchlichen Bildern strafbar ist, gilt dies für rein textbasierte Beschreibungen („Fiktivpornographie“) bisher nicht. Hier ist nur das öffentliche Zugänglichmachen oder Verbreiten sanktioniert.
Eine Gesetzesverschärfung ist auf dem Weg. Bis Juni 2027 muss Deutschland eine EU-Richtlinie umsetzen, die das Erstellen und Verbreiten KI-generierter sexualisierter Inhalte explizit unter Strafe stellt. Ferner einigten sich die EU-Gesetzgeber vor wenigen Tagen auf ein Verbot von KI-Anwendungen, die sexualisierte Deepfakes produzieren („Nudifier-Apps“). Ob diese Vorgaben auch rein fiktive Text-Charaktere wie „Karin“ voll erfassen, ist noch unklar.
Auf Anfragen reagieren Betreiber oft ausweichend oder mit regionalen Zugriffssperren, wie sie Chub AI im Fall von „Karin“ nach der journalistischen Konfrontation für Deutschland umgesetzt hat. In anderen Ländern bleibt der Zugriff auf solche Bots weiterhin bestehen, da die globalen Plattformen oft unter unklarem Firmensitz oder US-Recht agieren. So geht der Wettlauf zwischen den Möglichkeiten der KI-Entwicklung und der staatlichen Fähigkeit, wirksame Leitplanken gegen digitalen Missbrauch einzuziehen, vorerst weiter.
(nen)
Künstliche Intelligenz
iX-Workshop: Cloud Security Masterclass – Angriff und Verteidigung in AWS
Häufig sind es Fehlkonfigurationen, die Angreifern den Zugriff auf Cloud-Umgebungen wie Amazon Web Services (AWS) erleichtern. Entwicklungsfehler, unzureichende Härtung sowie Standardeinstellungen, die eher auf Funktionalität als auf Sicherheit ausgelegt sind, erhöhen das Risiko, dass Anwendungen, Ressourcen und Identitäten kompromittiert werden.
Weiterlesen nach der Anzeige
Lernen von den Angreifern
In dem Workshop Angriffe auf und Absicherung von Amazon Web Services (AWS) lernen Sie typische Angriffstechniken in Cloud-Umgebungen kennen und verstehen, wie Angreifer vorgehen, um AWS-Identitäten und -Ressourcen zu kompromittieren. Darauf aufbauend erfahren Sie, mit welchen Sicherheitsmaßnahmen Sie Ihre AWS-Umgebung gezielt härten und potenzielle Angriffe frühzeitig erkennen und abwehren können.
Im Fokus stehen dabei reale Angriffsszenarien und passende Gegenmaßnahmen. Sie beschäftigen sich unter anderem mit Methoden zur unautorisierten Informationsbeschaffung, der initialen Kompromittierung von AWS-Identitäten sowie der Privilegieneskalation innerhalb von Cloud-Umgebungen. Zudem lernen Sie, Angriffspfade zwischen lokalen IT-Umgebungen und der AWS-Cloud zu analysieren und sicherheitsrelevante Zusammenhänge zu verstehen.
Beim Aufspüren von Fehlkonfigurationen erfahren Sie, wie Sie diese gezielt beheben und zentrale Sicherheitsfunktionen in AWS aktiv aktivieren und korrekt einsetzen. Sie lernen den praktischen Umgang mit CloudTrail, CloudWatch und GuardDuty, um Sicherheitsereignisse zu analysieren, zu bewerten und auf Vorfälle angemessen zu reagieren.
Von Erfahrungen aus der Praxis profitieren
Sie profitieren von der direkten Anleitung durch Ihren Trainer Frank Ully, erfahrenem Pentester und Principal Consultant Cybersecurity bei der Corporate Trust Business Risk & Crisis Management GmbH in München.
Weiterlesen nach der Anzeige
Er verfügt über umfangreiche Erfahrung aus realen Sicherheitsanalysen und Penetrationstests in Cloud-Umgebungen und zeigt im Workshop, wie Angriffe in AWS tatsächlich ablaufen, welche Fehlkonfigurationen besonders kritisch sind und wie sich diese in der Praxis wirksam absichern lassen.
Für wen ist dieser Workshop geeignet?
Der Workshop richtet sich an Administratoren, IT-Sicherheitsverantwortliche und Security-Fachleute, die AWS-Umgebungen sicher betreiben und sich intensiv mit Angriffsszenarien und Schutzmaßnahmen in der Cloud auseinandersetzen möchten.

(ilk)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
