Künstliche Intelligenz
Google Echtzeit-Übersetzer: Mehr als Wort zu Wort Übersetzungen
Mitten im Meeting Englisch sprechen, während das Gegenüber die Worte in perfektem Spanisch hört – in Echtzeit. Was lange als Science-Fiction galt, rollt Google nun mit Meet und auf Pixel-Geräten aus. Hinter der Funktion steckt dieselbe KI, die auch Gemini antreibt – und ein komplexes Zusammenspiel spezialisierter Übersetzungsmodelle und generativer Sprach-Module.
Weiterlesen nach der Anzeige
Wir haben mit Googles Director Product Management, Niklas Blum, über die zugrunde liegende Technik gesprochen: Wie funktioniert die End-to-End-Sprachübersetzung, die sogar die Originalstimme erhält? Wie arbietet das internationale Team? Und wo liegen die größten Hürden bei der Übersetzung von gesprochener Sprache?
Mit Google Meet kann jeder in einer anderen Sprache sprechen – in Echtzeit. Das klappt mittels KI, konkret ist es derselbe Übersetzer wie in Gemini. Wie funktioniert das? Was passiert in dem Modell?
Aktuell setzen wir spezialisierte Modelle für die Übersetzung und Gemini für die Sprachgenerierung ein. Diese Architektur setzt auf das AudioLM-Framework sowie Transformer-Blöcke und ist darauf ausgelegt, kontinuierliche Audioströme zu verarbeiten. Das ermöglicht es dem Modell, selbstständig zu entscheiden, wann die Übersetzung ausgegeben wird. Wir haben dazu kürzlich einen technischen Research-Blogpost veröffentlicht, der die Funktionsweise dieser End-to-End Speech-to-Speech Translation (S2ST) unter Beibehaltung der Originalstimme erläutert.

Niklas Blum, Director Product Management bei Google
(Bild: Youtube)
Wie kommt es, dass an dem Echtzeit-Übersetzer ein Team aus Deutschland arbeitet?
Unser Team und unsere Kunden sind global aufgestellt. Die Teams, die an diesem Feature arbeiten, verteilen sich auf Berlin, Stockholm, Zürich, New York und Mountain View. Das Google-Team in Stockholm ist dabei ein zentraler Hub für Googles Echtzeitkommunikation.
Wofür lässt sich der Echtzeit-Übersetzer bisher nutzen? Er ist in Google Meet verfügbar, aber wo kommt er noch zum Einsatz, was ist geplant?
Weiterlesen nach der Anzeige
Die Technologie zur Echtzeit-Übersetzung ist auch auf Pixel-10-Geräten für Anrufe und in Google Translate verfügbar. Bei Google Meet konzentrieren wir uns speziell auf Anwendungsfälle für Echtzeit-Gespräche in Unternehmen, die in verschiedenen Märkten tätig sind und mit Sprachbarrieren zu tun haben. Wir glauben, dass diese Technologie, auch wenn sie noch am Anfang steht, sich rasant weiterentwickeln wird. Echtzeit-Übersetzungen haben das Potenzial, Menschen zu verbinden und Gespräche zu ermöglichen, die so vorher kaum realisierbar waren.
Der Übersetzer ist ein „Lookahead“
Gesprochene Sprache ist fehlerhafter als geschriebene Sprache. Wie geht das Modell damit um? Wird eins zu eins übersetzt, also auch jedes “ähm” und im Zweifelsfall ein abgebrochener Satz? Denn so sprechen wir manchmal ja. Oder zieht der Echtzeit-Übersetzer auch Schlüsse und bereinigt die Sprache quasi?
Unser Modell zur Echtzeit-Übersetzung nutzt Transformer-Blöcke und besteht aus zwei Hauptkomponenten: einem Streaming-Encoder, der die Quell-Audiodaten basierend auf den vorangegangenen zehn Sekunden der Eingabe zusammenfasst, und einem Streaming-Decoder. Letzterer sagt das übersetzte Audio autoregressiv vorher und nutzt dabei den komprimierten Encoder-Status sowie Vorhersagen aus früheren Iterationen.
Die Transformer-Blöcke ermöglichen es dem Modell, selbstständig zu entscheiden, wann die Übersetzung ausgegeben wird. Basierend auf den Trainingsdaten ist das Modell in der Lage, über reine Wort-für-Wort-Übersetzungen hinauszugehen. Das ist besonders hilfreich bei Redewendungen oder dem Erkennen von Eigennamen. Begriffe wie die „Golden Gate Bridge” werden nicht übersetzt.
Was ist die größte Schwierigkeit bei der Übersetzung gesprochener Sprache? Wo hapert es vielleicht auch manchmal noch?
Bei der Übersetzung gesprochener Sprache stehen drei wesentliche Herausforderungen in Konkurrenz zueinander: Wir wollen eine möglichst hohe Übersetzungsqualität, eine minimale Verzögerung und gleichzeitig die originale Stimmcharakteristik beibehalten. Für Echtzeit-Gespräche wird aktuell eine Standardverzögerung von zwei Sekunden genutzt, was für die meisten Sprachen gut funktioniert. Ein längerer „Lookahead“ des Modells würde durch den zusätzlichen Kontext zwar die Übersetzungsqualität verbessern, beeinträchtigt aber das Echtzeit-Erlebnis. Eine optimale Übersetzungsqualität in möglichst kurzer Zeit zu erzielen, bleibt die zentrale Herausforderung und ein Bereich für weitere Verbesserungen.
Generell haben die Fortschritte bei der KI-Audioverarbeitung und der Modellqualität zuletzt große Sprünge gemacht. Das dürfte der Grund sein, weshalb branchenweit eine zunehmende Integration von Sprachübersetzung in verschiedene Produkte stattfindet.
Es gab eine Zeit, da haben Google und auch andere Anbieter ähnliche Übersetzungstools nicht veröffentlicht, weil Missbrauch drohte. Was hat sich geändert?
Wir integrieren diese Funktion nun in unsere Produkte, weil die Technologie einen gewaltigen Sprung nach vorn gemacht hat. Ich glaube, dass es bis vor Kurzem nicht möglich war, wirklich hochwertige dialogorientierte Dienste zu entwickeln, die den erforderlichen Qualitätsstandards entsprechen.
Wie steht es um die Gefahren vor Missbrauch, vor Deepfakes? Welche Schutzmaßnahmen gibt es?
Wir sind natürlich zum Einhalten der geltenden Datenschutzgesetze verpflichtet. Im Laufe der Jahre haben wir eng mit Datenschutzbehörden auf der ganzen Welt zusammengearbeitet und strenge Datenschutzmaßnahmen umgesetzt. So haben wir für Meet klare Richtlinien, wie unser Tool genutzt werden darf. Nutzer:innen ist es beispielsweise nicht gestattet, Meet zu verwenden, um sich als eine andere Person auszugeben.
Technisch gesehen funktioniert die Übersetzungsfunktion ähnlich wie die bestehende Audiokodierung, nur mit der zusätzlichen Funktion der Übersetzung. Jeder Ton, der an das Modell gesendet wird, erzeugt eine Ausgabe. Das Modell arbeitet mit einem 10-Sekunden-Kontextfenster und hat außerhalb dieses Fensters keine semantische Wahrnehmung des gesprochenen Inhalts.
(emw)
Künstliche Intelligenz
KI-Kontroverse: „Clair Obscur – Expedition 33“ verliert Preis „Spiel des Jahres“
Die Indie Game Awards entziehen dem Rundentaktik-Rollenspiel „Clair Obscur – Expedition 33“ nachträglich den Preis für das beste Spiel des Jahres 2025 (Game of the Year, GOTY). Den erhielt das französische Studio Sandfall Interactive erst Mitte Dezember für sein Erstlingswerk. Grund ist eine Kontroverse um den Einsatz Künstlicher Intelligenz (KI).
Weiterlesen nach der Anzeige
Die Indie Game Awards erlauben nur Nominierungen für Spiele, die ohne KI-Werkzeuge entstanden sind. Im Bewerbungsprozess gibt es allerdings offenbar keine Prüfung. Die Entwickler müssen lediglich versichern, keine KI eingesetzt zu haben. Das soll laut Mitteilung der Indie Game Awards auch ein Vertreter Sandfall Interactives getan haben.
Jedoch war schon im April 2025 klar, dass das technisch nicht ganz stimmt: Spieler entdeckten eine Litfaßsäule mit unleserlichem Kauderwelsch, den offenbar eine KI erstellt hatte. Sandfall Interactive ersetzte die betroffenen Texturen innerhalb der ersten Woche nach Spielveröffentlichung.
„Ein bisschen KI“
In einem damaligen Interview mit dem spanischen Magazin El País erklärte Produzent François Meurisse: „Wir nutzen ein bisschen KI, aber nicht viel.“ Im Anschluss des Interviews reichte Sandfall eine Ausführung mit mehr Details nach.
Demnach hätten einige Entwickler intern „kurz mit KI-Tools herumexperimentiert, um vorübergehende Platzhalter-Texturen zu erstellen“. Weiter hieß es: „Nach der Veröffentlichung wurden Instanzen einer Platzhaltertextur innerhalb von fünf Tagen entfernt und durch die korrekten Texturen ersetzt, die ursprünglich für die Veröffentlichung vorgesehen waren, aber während des Qualitätssicherungsprozesses übersehen worden waren.“ Die Verantwortlichen der Indie Game Awards haben laut eigener Aussage am Tage der diesjährigen Award-Verleihung von dem Interview erfahren.
Jetzt erhält das Spiel mit den zuvor zweitmeisten Stimmen die Auszeichnung als Spiel des Jahres 2025: das Puzzle-Adventure-Spiel „Blue Prince“ von Entwickler Dogubomb. „Clair Obscur – Expedition 33“ verliert außerdem den Debut Game Award, der stattdessen an das Survival-Horror-Spiel „Sorry We’re Closed“ von A la Mode Games geht.
Weiterlesen nach der Anzeige
(mma)
Künstliche Intelligenz
IT-Sicherheit in Europa kontra USA: „Den Traum habe ich verstanden“
Die wilde Welt der Cybersecurity wird dank KI noch wilder – und IT-Sicherheitsabteilungen spüren den Druck von außen wie innen. Während Malware dank KI ständig gefährlicher und für Nutzer schwerer erkennbar wird, versuchen Unternehmen zu sparen, indem sie Aspekte ihrer Security KI-fizieren, mit Ergebnissen, die durchaus umstritten sind.
Weiterlesen nach der Anzeige
Im Interview mit heise online spricht Zac Warren, oberster Cyber-Security-Berater EMEA beim Endpoint-Security-Spezialisten Tanium, über die aktuelle Lage. Der Sicherheitsexperte hat eine interessante Perspektive: Er ist in den USA geboren und aufgewachsen, kennt den dortigen IT-Security-Markt gut, ist aber seit 30 Jahren auch in der EU aktiv und hat die feinen, kleinen Unterschiede am eigenen Leib spüren können.
heise online: Herr Warren, wie beurteilen Sie die aktuelle Cybersicherheitslage – speziell in Europa und der EMEA-Region? Wo liegen aus Ihrer Sicht die größten Schmerzpunkte im Vergleich zu anderen Märkten?
Zac Warren: Zunächst einmal gilt: Europa ist nicht gleich Europa. Es gibt sehr viele unterschiedliche Länder, Sprachen und Erwartungen an IT und Organisationen. Wenn man dann noch auf Deutschland schaut, wo ich selbst lebe, spielt der Mittelstand als wirtschaftliches Rückgrat eine ganz besondere Rolle.

Zac Warren, Chief Security Advisor EMEA bei Tanium.
(Bild: Tanium)
Genau daraus ergeben sich für mich viele sicherheitsrelevante Fragen. Nehmen wir große Automobilhersteller – und all die mittelständischen Zulieferer, die an ihnen hängen. Da mache ich mir vor allem Sorgen über Supply-Chain-Angriffe. Kann ich meinen Partnern wirklich vertrauen? Investieren sie genauso ernsthaft in Cybersicherheit wie ich selbst? Ich kann alles richtig machen, alle Vorgaben erfüllen, mich stark auf EU-Compliance fokussieren – das ist ja auch ein europäisches Alleinstellungsmerkmal. Aber wenn meine Partner das nicht tun, fast nichts oder nicht genug in Sicherheit investieren, dann schwächt ihre Nachlässigkeit am Ende auch meine eigene Sicherheitslage.
Ihnen ist sicher auch der Begriff „Neuland“ geläufig, mit dem wir hier in Deutschland so tun, als seien das alles unbekannte Probleme, die noch niemand kannte.
Ja, da muss ich ehrlich gesagt ein bisschen schmunzeln, wenn es in Deutschland um Digitalisierung geht. Wir reden darüber schon seit 1998 – da war ich das erste Mal hier. Ich habe viel mit Behörden zu tun, und als US-Amerikaner, der in Deutschland arbeitet, ist das manchmal schon etwas irritierend. Meine Frau ist als Lehrerin selbst Beamtin, ich weiß also, wovon ich rede. Das hat viel Gutes, kann aber auch bremsen.
Weiterlesen nach der Anzeige
Es gibt die berühmten kulturellen Besonderheiten in Europa – eine gewisse Zurückhaltung gegenüber Innovation oder auch ein fehlendes Verständnis dafür. Viele Menschen sind stark auf Sicherheit bedacht, vor allem auf Jobsicherheit. Fehler zu machen, schnell zu scheitern und daraus zu lernen – das ist in den USA viel stärker akzeptiert. In Großbritannien, Frankreich oder Deutschland sehe ich oft, dass genau diese Angst vor Fehlern Innovation ausbremst.
Gleichzeitig ist Europa aber auch die Region, die besonders stark auf Regulierung und Aufsicht und Transparenz drängt – etwa bei KI oder Cybersicherheit. Und das halte ich durchaus für positiv.
Europa will oft erst einmal alle Beweise sehen, dass etwas funktioniert.
Absolut. In den USA, vor allem in Kalifornien, verkauft man den Leuten gerne den Traum. In Deutschland heißt es dann: Den Traum habe ich verstanden, jetzt erzählen Sie mir bitte, wie es technisch funktioniert. Gebt mir die Bits und Bytes. Das passt zur Ingenieurskultur hier – man will die Details kennen. Das schätze ich sehr, weil man dann wirklich in die Tiefe gehen und belastbare Sicherheitsarchitekturen aufbauen kann.
Zurück zur Cybersicherheit: Wo sehen Sie aktuell die größten Bedrohungen? Insider-Angriffe? Ransomware? Selbst der von Ihnen erwähnte Mittelstand scheint ständig unter Beschuss zu stehen.
Aus meiner Sicht kommt der größte Angriffsvektor immer noch von innen. Meist ist er selbst verschuldet – und nicht böswillig. Menschen machen einfach Fehler, weil sie nicht ausreichend für Cybersicherheit sensibilisiert sind. Auch wenn wir ein Technologieunternehmen sind, versuche ich in Gesprächen mit CIOs und CISOs immer wieder, den Fokus auf den Faktor Mensch zu lenken. Cybersecurity-Schulungen müssen ernst genommen werden. Mitarbeiterinnen und Mitarbeiter müssen verstehen, wie ihre tägliche Arbeit Sicherheitsrisiken verursachen kann.
Haben Sie konkrete Beispiele?
Ich war in IT-Abteilungen, die nicht wussten, wie sie Endgeräte einfacher absichern könnten. Oft sind es Basics: USB-Sticks sollten in Unternehmensumgebungen schlicht nicht erlaubt sein – wegen Datenabfluss und Malware. Und doch findet man viele Organisationen, die sich damit noch nie beschäftigt haben.
Das sind aus meiner Sicht größere Risiken als staatliche Akteure wie Russland, China oder Iran. Die größte Gefahr sind ganz banale Fehler. Dagegen kann man viel tun – und genau da setzt Tanium mit seiner Software an: bei Transparenz und Sichtbarkeit. Wir sagen intern gerne scherzhaft: Warum sollte ich mir Sorgen über Ninjas machen, die durchs Dachfenster kommen, wenn Türen und Fenster offenstehen?
Der deutsche Mittelstand investiert aktuell sehr viel Energie in den Schutz vor den „Ninjas“. Aber oft stehen die Fenster sperrangelweit offen. In vielen Umgebungen könnte ein Angreifer problemlos geistiges Eigentum abziehen.
Über die Risiken durch KI-gestützte Malware haben wir noch gar nicht gesprochen.
Das ist spannend. Viele KI-Anbieter wie OpenAI, Microsoft oder Google bauen bewusst Schutzmechanismen ein, sogenannte Guardrails. Wenn ich eine KI bitte, Schadsoftware zu schreiben, bekomme ich ein klares Nein. Im Darknet sieht das anders aus. Ein frustrierter Ex-Mitarbeiter ohne Programmierkenntnisse kann sich dort Malware-as-a-Service oder KI-Tools zur Malware-Entwicklung besorgen.
Hinzu kommt: Spear Phishing ist dank KI extrem gut geworden. Ich habe kürzlich eine solche Mail gesehen – zum Glück abgefangen. Auf den ersten Blick war sie perfekt. Angeblich von Microsoft, alles sah normal aus. Erst bei genauem Hinsehen fiel auf, dass ein Buchstabe – ich glaube ein „S“ – eigentlich ein kyrillisches Zeichen war. Das war kaum zu erkennen.
Wo sehen Sie den echten Mehrwert von KI in der Cyber-Verteidigung? Vieles wirkt derzeit sehr gehypt.
Richtig eingesetzt kann KI enorm helfen. Zum Beispiel bei der Ausbildung junger Security-Analysten. Statt sie monatelang einem Senior über die Schulter schauen zu lassen, kann man sie mit KI-Agenten arbeiten lassen – etwa bei niedrig priorisierten Fällen. Das beschleunigt den Lernprozess enorm, ohne die erfahrenen Kollegen zu blockieren.
Was ich für gefährlich halte, ist aber der Versuch, die erste Analysten-Ebene komplett durch KI zu ersetzen. Irgendwann gehen die Seniors in Rente oder wechseln den Job – ich habe das selbst erlebt, ich war selbst mal ein Senior Analyst, heute mache ich etwas anderes. Ohne Nachwuchs fehlt dann die Erfahrung. KI sollte unterstützen, nicht ersetzen.
Auf Ihrer Hausmesse war oft von „Autonomous IT“ die Rede. Was meinen Sie damit konkret?
Es geht darum, Menschen von Routineaufgaben zu entlasten – etwa vom ständigen Patchen von Systemen. Das ist zwar wichtig, aber nicht die beste Nutzung hochqualifizierter Fachkräfte. Diese Zeit sollte für kreatives, strategisches Denken genutzt werden. Dafür müssen wir allerdings auch viele Menschen weiterqualifizieren, die früher ihre Karriere auf der Patcherei aufbauen konnten.
Gleichzeitig setzen wir KI ein, um Muster zu erkennen und Malware frühzeitig zu identifizieren – idealerweise, bevor sie überhaupt Schaden anrichten kann. Früher musste man Schadsoftware in einer Sandbox ausführen, um zu sehen, was passiert. Heute sehen wir große Fortschritte bei der Erkennung, ohne diesen Umweg zu gehen. Dafür müssen die Trainingsdaten natürlich gut sein.
Der Autor reiste auf Einladung von Tanium zur Tanium Converge 2025.
(bsc)
Künstliche Intelligenz
Little Red Dots: Galaxien – oder verkleidete Schwarze Löcher?
Weiterlesen nach der Anzeige
Winzige, extrem helle und auffallend rote Lichtpunkte aus der Frühzeit des Kosmos haben Astronomen seit den ersten Tiefenaufnahmen des James-Webb-Weltraumteleskops (JWST) beschäftigt. Zunächst wirkten diese „Little Red Dots“ wie überraschend reife Galaxien in einem Universum, das dafür eigentlich zu jung ist. Inzwischen verdichtet sich eine andere Deutung: Viele dieser Objekte könnten aktive Schwarze Löcher mit dichten Gashüllen sein – ihr Spektrum gleicht eher dem eines einzelnen heißen Himmelskörpers als dem einer Galaxie aus Milliarden Sternen.
Vom Galaxienkern zum „Black Hole Star“
Eine im November bei arXiv veröffentlichte Analyse von 116 Little Red Dots im Rotverschiebungsbereich 2,3 < z < 9,3 liefert entscheidende Hinweise: Das UV- bis optische Kontinuum dieser Objekte lässt sich durch modifizierte Schwarzkörperstrahlung beschreiben – typischerweise mit Temperaturen um 5000 Kelvin und einem Strahlungsmaximum bei etwa 0,65 Mikrometern. Das entspricht eher einer Sternatmosphäre als dem Licht von Milliarden Einzelsternen.
Die Energiequelle sitzt im Zentrum: ein aktiv Materie verschlingendes Schwarzes Loch. Die umgebende Gashülle absorbiert die harte Strahlung und gibt sie als rötliches, thermalisiertes Leuchten wieder ab. Hauptautorin Anna de Graaff der Arbeit erklärt den Mechanismus im New Scientist: „Wenn Material in das Schwarze Loch fällt, wird viel Gravitationsenergie freigesetzt, und das könnte die gesamte Gaskugel drum herum zum Leuchten bringen wie einen Stern.“
Die Bezeichnung „Black Hole Star“ (BH*) geht auf frühere Arbeiten desselben Teams zurück. Obwohl im Inneren keine Kernfusion stattfindet, erscheint das Objekt von außen wie ein riesiger Stern – angetrieben nicht von Fusionsenergie, sondern von der Schwerkraft des zentralen Schwarzen Lochs.
De Graaff räumt ein: „Der Name ist sicherlich noch kontrovers, aber ich denke, es gibt inzwischen einen ordentlichen Konsens in der Community, dass wir auf ein akkretierendes Schwarzes Loch schauen, das in dichtes Gas eingehüllt ist.“
Weiterlesen nach der Anzeige
Die Autoren ziehen eine Analogie zur Sternentwicklung: Die Little Red Dots liegen auf einer Sequenz im Hertzsprung-Russell-Diagramm der Sternentwicklungsphasen, die dem sogenannten Hayashi-Track entspricht – jenem Entwicklungspfad, den junge Sterne durchlaufen.
Spektrale Signaturen als Schlüssel
Die Studie zeigt enge lineare Beziehungen zwischen der Hα-Linienemission – eine zur Balmer-Serie gehörende Wasserstoff-Emissionslinie – und dem optischen Kontinuum sowie zwischen Hα und der sogenannten OI-8446-Linie. Heißere Little Red Dots zeigen dabei starke Balmer-Sprünge (abrupte Helligkeitsänderungen im Spektrum, die durch Wasserstoffabsorption entstehen), rote UV-Spektralindizes und hohe optische Leuchtkräften. Kühlere Objekte weisen schwächere Balmer-Sprünge und größere spektrale Vielfalt auf.
Ein weiterer Befund: Das Balmer-Dekrement – das Intensitätsverhältnis der Wasserstoff-Emissionslinien – nimmt mit Leuchtkraft und Stärke des Balmer-Sprungs zu. Das spricht für dichteabhängige Prozesse in den Gashüllen, etwa kollisionsgetriebene Anregung und Resonanzstreuung. Die [O III]-Emission stammt laut der Analyse überwiegend aus Sternentstehung in den Wirtsgalaxien, nicht vom AGN selbst.
Puzzleteil für das frühe Universum
Die BH*-Hypothese fügt sich in das Bild, das JWST seit seiner Inbetriebnahme zeichnet: Supermassereiche Schwarze Löcher scheinen von Anfang an dabei gewesen zu sein – fast wie Bausteine oder Samen für Galaxien. Auch die Entdeckung von „Monstersternen“ der Population III, die als Vorläufer besonders massereicher Schwarzer Löcher gelten, passt in dieses Szenario.
Ob Black Hole Stars tatsächlich eine eigene Objektklasse darstellen, ist noch nicht abschließend geklärt. Die Autoren der Studie betonen, dass ihre Arbeit eine einheitliche empirische Beschreibung der Little Red Dots liefert und einen Referenzrahmen für künftige Modelle zu frühen, gasverhüllten aktiven Galaxienkernen setzt.
Für die Kosmologie wäre das mehr als eine Randnotiz. Es würde bedeuten, dass Schwarze Löcher nicht das späte Nebenprodukt der Galaxienentwicklung sind, sondern womöglich zu deren frühesten Architekten gehören.
(vza)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
