Künstliche Intelligenz
Von LibreOffice bis Linux: Schleswig-Holstein setzt konsequent auf OSS
Die Landesregierung Schleswig-Holsteins verabschiedet sich zunehmend von proprietären Softwarelösungen und setzt stattdessen auf Open-Source-Alternativen wie LibreOffice und Linux. Ziel ist nicht nur, Kosten zu sparen, sondern vor allem digitale Souveränität zu gewinnen.
Während andere Bundesländer weiter auf langfristige Verträge mit privatwirtschaftlichen Anbietern setzen, legt Schleswig-Holstein den Fokus auf Transparenz und Kontrolle über eigene Daten und Prozesse. Erste Pilotprojekte zum „digital souveränen Arbeitsplatz“ sind bereits angelaufen, wie Schleswig-Holsteins Digitalminister Dirk Schrödter (CDU) Anfang des Jahres im Interview mit c’t betonte.
Wie sich diese Strategie aktuell in der Praxis entwickelt und welche Erfahrungen dabei gemacht wurden, haben wir mit Jan Kürschner (Bündnis 90/Die Grünen) besprochen. Er ist Landtagsabgeordneter, Sprecher für Innen, Recht, Medien, Datenschutz und Open Data sowie Vorsitzender des Innen- und Rechtsausschusses – und setzt sich seit vielen Jahren für Open Source ein.
Jan Kürschner ist Fachanwalt für Strafrecht in Kiel, Vorsitzender des Innen- und Rechtsausschusses im Schleswig-Holsteinischen Landtag.
heise online: Schleswig-Holstein stellt seine IT-Infrastruktur umfassend auf Open Source um. Können Sie uns kurz schildern, was die Motivation hinter diesem Schritt ist?
Kürschner: Der wichtigste Punkt ist Transparenz und Souveränität: Mit Open-Source-Software wissen wir genau, was die Programme tun, wohin die Daten fließen und wo sie gespeichert sind. Das ist ein klarer Unterschied zu kommerzieller Software wie Microsoft Teams. Die Landesregierung spricht dabei ausdrücklich von „digitaler Souveränität“ – also Unabhängigkeit von internationalen Konzernen und besserer Kontrolle über die eigenen Daten und Prozesse.
Spielt dabei also vor allem Datenschutz eine Rolle?
Ja, Datenschutz und IT-Sicherheit sind zentrale Aspekte. Aber auch finanzielle Überlegungen: Open Source entlastet langfristig den Landeshaushalt. Zwar entstehen zunächst Ausgaben für Migration, Pflege oder externe IT-Dienstleistungen, aber Lizenzkosten für Microsoft-Produkte entfallen. Das zahlt sich auch bereits positiv aus. Schleswig-Holstein hat entschieden, bestehende Microsoft-Verträge nur noch bis 2029 laufen zu lassen. Damit verzichten wir bewusst auf die nächste Vertragsrunde mit Microsoft.
Welche Strategie verfolgt das Land bei der Einführung von Open Source?
Schleswig-Holstein verfolgt eine „Upstream-only-Strategie“, das heißt: Entwicklungen fließen direkt in die internationalen Projekte zurück. Das Land will keine eigenen Forks pflegen, sondern alle Verbesserungen direkt in die Hauptprojekte geben und auf diese Weise zur Entwicklung für die Allgemeinheit beitragen. Dieses Prinzip wurde schon bei Nextcloud erprobt.
Wie läuft die Umstellung praktisch ab?
Schrittweise. Der Start erfolgte schon im Jahr 2024 mit der Einführung von LibreOffice, die vollständige Migration der Verwaltung dauert noch zwei bis drei Jahre. Erste Pilotbehörden arbeiten schon mit Phoenix-Komponenten, ohne Datenverluste oder größere Sicherheitsprobleme. Herausforderungen gibt es vor allem bei Schulungen der Mitarbeitenden.
Gibt es schon Synergien mit Projekten auf Bundesebene?
Ja. Schleswig-Holstein nutzt zum Beispiel einen auf dem Matrix-Protokoll basierenden Messenger, genau wie der Bund. Schon heute können Kommunen, Unis oder Feuerwehren damit arbeiten.
Es heißt, Open Source sei nicht unbedingt günstiger, da auch Entwicklungsaufwand anfällt.
Das stimmt, es braucht Investitionen. Doch das Geld fließt in eigene Strukturen, in die Weiterentwicklung von Nextcloud, LibreOffice & Co, statt in proprietäre Systeme. Mit der bereits erwähnten Upstream-only-Strategie kann etwas zurückgegeben werden. Ein Beispiel ist die Arbeit an der Phoenix Suite von Dataport – einem Open-Source-Arbeitsplatz auf Basis von Nextcloud, Collabora Office, Open-Xchange und Matrix. Damit wird die Software nicht nur für Schleswig-Holstein, sondern für alle öffentlich nutzbar.
Was braucht es für nachhaltige Finanzierung?
Vor allem ein verlässliches, langfristiges IT-Budget. Open-Source-Strategie darf nicht durch kurzfristige Sparzwänge ausgebremst werden. In Schleswig-Holstein wurde politisch vereinbart, dass das Land nicht „draufzahlen“ soll, sondern durch die Umstellung langfristig gleich viel oder weniger ausgibt – zugleich aber mehr Unabhängigkeit und Sicherheit gewinnt.
Zu Beginn dürften die Betriebskosten einschließlich der Umstellungskosten zum Digital Souveränen Arbeitsplatz (DSAP) noch annähernd gleich hoch wie der Betrieb einer vergleichbaren proprietären Infrastruktur mit entsprechenden Lizenzkosten sein. Die Projektkosten zur Umstellung auf die Komponenten des DSAP werden aktuell mit zehn Millionen Euro veranschlagt. Langfristig wird aber eine haushaltswirksame Einsparung von fünf Millionen Euro jährlich durch den Einsatz des DSAP erwartet. Das nenne ich vorausschauende Politik.
Es darf in diesem Zusammenhang nicht vergessen werden, dass auch eine Fortschreibung proprietärer Infrastrukturen erhebliche Projektkosten verursachen würde. Insbesondere durch die Abkündigung von Betriebssystemen, neue Versionen der Office-Produkte oder entfallende Funktionalitäten sowie steigende Lizenzkosten wäre ohne die Umstellung auf Open Source der Landtag gefordert, im Landeshaushalt erneut finanzielle Mittel in ganz erheblicher Höhe für geschlossene Geschäftsmodelle und Lizenzierungen bereitzustellen.
Neben Kosten und Datenschutz: Gibt es weitere politische Ziele?
Ja, wir wollen ein digitales Ökosystem schaffen, wie es Estland vorgemacht hat. Dort nutzt nicht nur der Staat Open Source, auch die Wirtschaft baut darauf auf. Je stärker Verwaltung und Ministerien OSS einsetzen, desto eher folgen auch lokale IT-Unternehmen und Zivilgesellschaft.
Welche Rückmeldungen haben Sie aus den Pilotbehörden erhalten – eher Skepsis oder Zuspruch?
Es gibt Kritik an der Nutzerfreundlichkeit. Die Anwender müssen sich erst einmal umgewöhnen, das ruckelt am Anfang einfach.
Wie reagieren Ihre Kolleginnen und Kollegen in der Politik?
In Schleswig-Holstein gibt es wenig Widerstand. Schon in der Jamaika-Koalition bis 2022 bestand Konsens, seit der schwarz-grünen Koalition 2022 wurde der Kurs weitergeführt. Auch die CDU unterstützt die OSS-Strategie. Kritik kommt eher von externen Dienstleistern, die stark auf Microsoft spezialisiert sind.
In manchen Kommunen scheint es Widerstände zu geben?
Ja. Viele kommunale IT-Dienstleister hängen aus Gewohnheit oder durch günstige Konditionen an Microsoft & Co. Dazu kommt: Schleswig-Holstein hat über 1.100 Kommunen, jede mit eigener IT. Manche setzen noch Software aus den 90ern ein.
Mängel bei der Cybersicherheit sind bei den Kommunen auch ein Thema. Was könnte da helfen?
Es ist an sich nicht verkehrt, dass es eine kommunale Ebene gibt, wo Land und Bund nicht ohne Weiteres hineinregieren können. Allerdings kommt damit auch ein Flickenteppich und das können wir uns im IT-Sicherheitsbereich eigentlich nicht leisten.
In den Kommunen werden verschiedene Programme eingesetzt, teilweise irgendetwas Selbstgebautes. Das ist in der Cyberabwehr schwierig. Die Kommunen in Schleswig-Holstein sind teilweise richtig kleine Einheiten. Da macht dann der Datenschutzbeauftragte quasi in Personalunion die IT-Verteidigung. Es ist nicht möglich, dass sie sich mit den Ressourcen erfolgreich gegen ernsthafte Angriffe verteidigen. Das können die Kommunen nicht schaffen, sie müssen freiwillig einheitlich werden. Eine einheitliche, transparente Infrastruktur erhöht die Cyber-Resilienz.
Wir können den Status quo auf keinen Fall so lassen – sonst kommt es dann eben zu solchen Fällen wie in Anhalt-Bitterfeld, wo nichts mehr ging. Dabei geht es nicht nur darum, dass eine Baugenehmigung fehlt. Es geht auch um Sozialleistungen. In solchen Fällen wäre es vollkommen unsinnig, dass etwa Familien mit kleinen Kindern ihren Lebensunterhalt aus dem Rathaus abholen können, schon gar nicht in großen Städten.
Es ist keine Frage, ob etwas passiert, sondern nur, wann. Ich verstehe nicht, warum man da so schnarchnasig ist.
Betrifft das auch die Schulen?
Ja. Die Schulausstattung liegt bei den Kommunen. Manche kaufen massenhaft iPads ein. Sie sind attraktiv, aber führen in Apples Cloud-Ökosystem und damit in eine neue Abhängigkeit. Schleswig-Holstein stellt deshalb Alternativen bereit – etwa auf Basis von iServ oder der Phoenix-Suite, die auch für Schulen nutzbar ist. Bereits heute nutzen viele Bildungseinrichtungen die landeseigene Nextcloud.
Was sagen Sie zur aktuellen Debatte um die Einführung von Palantir in verschiedenen Bundesländern. Gibt es keine Alternativen?
Das ist Quatsch, es gibt einsetzbare Alternativen. Gäbe es sie nicht, müsste man diese selbst entwickeln. Ich halte es für gefährlich, gerade in so sensiblen Bereichen Software aus Staaten einzusetzen, bei denen man das Entstehen einer weiteren Abhängigkeit fürchten muss. Europa muss in diesem Bereich eigenständig werden, das ist unausweichlich.
Wir wissen außerdem nicht, was eine solche Software genau tut und ob der Anbieter stets zuverlässig Updates zur Verfügung stellen würde. Im Koalitionsvertrag haben wir vereinbart, dass wir „predictive policing” ablehnen, bei dem die KI das Gesamtverhalten der Polizei insgesamt steuert. In Schleswig-Holstein heißt es also: „Peter Thiel, Du kommst nicht vorbei!” Das Land Schleswig-Holstein hat mit „@rtus“ eine eigene leistungsfähige Polizeisoftware, auf die auch die Bundespolizei, Bremen und Sachsen-Anhalt setzen. Darauf sollten wir aufbauen und den in Deutschland bestehenden Flickenteppich der Polizeisoftware endlich entsorgen. Der Austausch von Festplatten auf Autobahnraststätten an den Grenzen von Bundesländern durch unterschiedliche Polizeibehörden gehört nicht ins 21. Jahrhundert.
(mack)
Künstliche Intelligenz
IT-Security: Eine aktuelle Bestandsaufnahme zu Bedrohungen im Unternehmen
Neue Entwicklungen in der IT führen fast immer auch zu neuen Schwachstellen. Schnell nutzen Kriminelle sie aus, um ihre Opfer zu betrügen oder um in Unternehmensnetze einzudringen. Durch die neuen Entwicklungen entstehen aber meist auch neue Sicherheitstechniken, mit denen man sich vor Angriffen schützen kann.
Die Einführung von Smartphones, der Trend zu Cloud-Services oder die neuen technischen Möglichkeiten durch künstliche Intelligenz zeigen dies deutlich. Aber auch unabhängig von technischen Neuerungen kann man einen Wettlauf zwischen Angreifern und Verteidigern beobachten.
- Neue Entwicklungen in der IT gehen oft mit neuen Bedrohungstrends einher und ziehen neue Klassen von Sicherungstechniken und Schutzprodukten nach sich.
- Die mittlere Zeit zwischen der Veröffentlichung eines Patches und der Ausnutzung der damit behobenen Schwachstelle ist auf fünf Tage gesunken.
- Viele Schwachstellen werden zudem meist schon als Zero Days für Angriffe genutzt.
- Der erste Schritt zu mehr Sicherheit ist, sich kontinuierlich über Trends und neue Entwicklungen zu informieren und diese im eigenen Organisationskontext zu bewerten.
Ein offensichtliches Beispiel ist die Authentisierung. Nachdem vor langer Zeit Passwörter eingeführt wurden, um unbefugten Zugriff auf IT-Systeme zu verhindern, wurden ihre Schwächen schnell ausgenutzt und Angreifer haben Passwörter mit Brute-Force-Angriffen erraten. Erste Maßnahmen wie temporäres Sperren nach mehreren Fehlversuchen hebelten sie mit Password Spraying oder Phishing aus. Noch vor wenigen Jahren galt dann eine Zwei-Faktor-Authentisierung (2FA) als die Lösung schlechthin. Mittlerweile haben wohl fast alle Unternehmen ihre externen Zugänge mit 2FA-Token oder entsprechenden Apps auf Smartphones abgesichert. Das wiederum hat die Angreifer motiviert nachzurüsten: Sie griffen beim Phishing per „Adversary in the Middle“ an, das gängige 2FA-Methoden umgehen kann. Als Konsequenz sind Unternehmen gezwungen, ihre Anmeldungen auf phishingresistente Methoden wie Passkeys oder FIDO-Keys umzustellen.
Das war die Leseprobe unseres heise-Plus-Artikels „IT-Security: Eine aktuelle Bestandsaufnahme zu Bedrohungen im Unternehmen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
CLC 2025 setzt auf Praxis: Platform Engineering und KI-Integration im Fokus
Die Softwareentwicklung und -bereitstellung stecken mitten in einem Paradigmenwechsel. Während Developer- und Ops-Teams unter dem Druck stehen, schneller zu liefern und gleichzeitig sicherer zu werden, entstehen neue Rollen und Ansätze, die das traditionelle DevOps-Modell erweitern. Das Programm der von iX und dpunkt.verlag organisierten CLC-Konferenz setzt gezielt Schwerpunkte, die der Realität in Entwicklung und Betrieb Rechnung tragen – von KI-getriebenen Plattformen über Developer Experience bis hin zu Security, Observability und effektiven Delivery-Strategien. Jetzt noch Tickets zur CLC 2025 sichern.
Weiterlesen nach der Anzeige
KI und Platform Engineering als Schwerpunktthemen
Das Vortragsprogramm behandelt verschiedene Aspekte der KI-Integration. Mario-Leander Reimer von QAware zeigt in „Von der Idee zur Wirkung: Architektur und Aufbau einer Cloud-nativen AI-Plattform„, wie sich robuste KI-Infrastrukturen gestalten lassen. Robert Hoffmann von AWS demonstriert in „Works on my LLM„, wie KI-Coding-Assistenten entstehen, die über einfache Autocomplete-Funktionen hinausgehen. Thorsten Maier und Steffen Schluff von Accenture behandeln in „The Agentic Shift„, wie vernetzte KI-Agenten die Entwicklungsarbeit verändern.
Im Bereich Platform Engineering präsentiert Alex Krause von QAware in „Make developers fly: Principles for platform engineering„, wie Plattformteams Mehrwert für Entwickler schaffen können. Lian Li beleuchtet in „Many Cooks, One Platform“ Ownership und Kollaboration in großen Plattformstrukturen. Hossein Salahi und Fabian Brundke von Liquid Reply stellen mit „Composable Platforms: Modular Platform Engineering with Kratix and Backstage“ einen modularen Ansatz für Kubernetes-Teams vor. Alexander Troppmann und Bruno Margula zeigen bei „Effiziente Multi-Tenant-Architekturen: GitOps mit Argo CD in der Praxis“ praxiserprobte Lösungen.
Alexander Troppmann und Bruno Margula geben Einblick in ihr GitOps-Projekt bei Zeiss.
Keynotes zu KI-Transformation und digitaler Souveränität
In seiner englischsprachigen Keynote „Why AI is Eating the World“ beleuchtet Mirko Novakovic, CEO von Dash0, die transformative Kraft von künstlicher Intelligenz in der Softwareentwicklung. Dabei schlägt Novakovic eine Brücke zu seiner Keynote bei der ersten Ausgabe der CLC-Konferenz vor über einem Jahrzehnt, die den Titel „Why Software is Eating the World“ trug. Vieles von dem, was damals prognostiziert wurde, ist wahr geworden: Nahezu jede Branche ist mittlerweile softwaregesteuert, und Entwicklerinnen und Entwickler stehen im Mittelpunkt der geschäftlichen Innovation. In seinem aktuellen Vortrag resümiert er die Lehren des vergangenen Jahrzehnts und untersucht, wie KI das Programmieren, die Observability und die Automatisierung im Platform Engineering weiter verändern wird.
Die zweite Keynote hält Kurt Garloff, Open-Source-Befürworter und Kopf der Sovereign Cloud Stack-Bewegung, unter dem Titel „Digitale Resilienz oder Digitale Kolonie?„. Er wirft einen kritischen Blick auf moderne IT-Abhängigkeiten. Trotz vereinfachter Entwicklung hochkomplexer Softwaresysteme zeigen sich im Betrieb Schattenseiten wie hohe Kosten für Managed Services, eingeschränkte Flexibilität und problematischer Datenschutz. Die Gesellschaft für Informatik spricht angesichts der zahlreichen Abhängigkeiten sogar von Europa als digitaler Kolonie.
Weiterlesen nach der Anzeige
Zu den Themen beider Keynotes sind jeweils moderierte Podiumsdiskussionen mit verschiedenen Expertinnen und Experten geplant, bei denen das Publikum vor Ort herzlich eingeladen ist, sich mit Fragen und Kommentaren zu beteiligen.
Observability, Security und Developer Experience
Das Programm widmet sich auch der Observability als Grundpfeiler moderner Softwareprojekte. Johannes Koch von FICO liefert Antworten auf „Why Do We Need Observability for CI/CD Pipelines?„. Dominik Schmidle von Giant Swarm zeigt die Skalierung von Observability-Plattformen für große Umgebungen. Matej Gera von E.ON vergleicht aktuelle eBPF-Möglichkeiten im Monitoring mit klassischen Ansätzen.
Im Bereich Security bespricht Marius Shekow von SprintEins die Wahl sicherer Container-Images. Dominik Guhr von INNOQ erklärt Unterschiede und Einsatzmöglichkeiten der Autorisierung mit RBAC, ABAC, PBAC und ReBAC.
Chris Kühl (Kinvolk)
Bei der Developer Experience sprechen Miriam Greis und Daniel Kocot von codecentric über „Developer Experience für APIs stärken„. Sandra Parsick stellt neue Konzepte für lokale Entwicklungsumgebungen vor. Dominik Münch von Celonis und Tal Zwick von MetalBear zeigen in „Please don’t cry: How we fixed local development experience with mirrord„, wie sich das Einrichten lokaler Entwicklungsumgebungen erleichtern lässt. Wie Entwickler bei der Arbeit mit Kubernetes von einer erweiterbaren UI-Plattform profitieren können, erläutert Chris Kühl (Microsoft/Kinvolk) in seinem englischsprachigen Talk zum CNCF-Projekt Headlamp.
Praxisnahe Workshops am Vortag der Konferenz
Am 18. November, dem Vortag der eigentlichen Konferenz, finden vier ganztägige Workshops statt. Nicholas Dille führt durch CI/CD-Workflows mit GitLab von der Pipeline-Definition bis zur Absicherung der Lieferkette. Heiko Rupp und Benedikt Bongartz zeigen, wie sich mit OpenTelemetry verteilte Systeme durchgängig beobachten lassen. Thorsten Wussow behandelt GitOps mit Flux, inklusive Automatisierung, Rollbacks und Sicherheitsaspekten. Mario-Leander Reimer gibt Einblick in den Aufbau einer skalierbaren, Cloud-nativen KI-Plattform.
Die Workshops richten sich an IT-Fachleute wie Senior-Softwareentwickler, Softwarearchitekten, DevOps Engineers, Platform Engineers, Infrastructure/Cloud Engineers, Team- und Projektleiter sowie Administratoren. Die Teilnehmerzahl ist begrenzt, um den Austausch und individuelles Lernen zu fördern.
Ticketpreise und Rabatte
Interessierte können sich Konferenztickets noch zum Preis von 1349 Euro (alle Preise zzgl. MwSt.) sichern, für das Kombiticket aus Konferenz und 1-Tages-Workshop fallen 1899 Euro an. Die ganztägigen Workshops lassen sich auch einzeln zum Preis von 649 Euro buchen. Teams oder Gruppen ab drei Personen erhalten im Ticketshop automatisch mindestens 10 Prozent Nachlass. Schülerinnen und Schüler, Studierende und Hochschulangehörige erhalten auf Anfrage Rabatt.
Wer über die Konferenz auf dem Laufenden bleiben möchte, kann sich auf der Website der CLC 2025 für den Newsletter registrieren oder den Veranstaltern auf LinkedIn und unter dem Hashtag #CLC_Conf folgen.
(map)
Künstliche Intelligenz
Kommentar: Nobelpreis für codeknackende Supermaschinen vergeben
Weiterlesen nach der Anzeige
Jedes Jahr diskutieren Wissenschaftler vor der Verkündung des Nobelpreises für Physik im Internet darüber, an wen die heiß begehrte Auszeichnung wohl gehen könnte. Niemand weiß es, auch Journalisten bekommen keine Vorabinformationen, aber in fast jeder Prognose stand: Quantencomputing. Dennoch hatte dieser Favorit einen Schönheitsfehler, denn obwohl Quantenrechner viel versprechen, leisten sie bisher: nichts.
In der Ankündigung, die traditionell erst auf Schwedisch und dann auf Englisch erfolgt, prophezeite bereits das Wörtchen „kvant“ den Irrtum. Der Preis ging an drei Forscher „für die Entdeckung des makroskopischen quantenmechanischen Tunnelns und der Energiequantisierung in einem elektrischen Schaltkreis“.
Ein komplizierter Titel, der weder Qubits noch Quantencomputer erwähnt. Aber Quantenphysiker wissen: Dies ist ein Preis für die Vorarbeiten zum Quantencomputer. In meinem Kopf lief das so ab: Das Nobelpreiskomitee sitzt zusammen und denkt sich: „Es ist internationales Quantenjahr, alles schaut gespannt auf Quantencomputer, aber für einen Nobelpreis ist es zu früh. Wie vergeben wir einen Nobelpreis für Quantencomputer, ohne einen Nobelpreis für Quantencomputer zu vergeben?“
Siehe da, sie haben es geschafft! Denn die von den Preisträgern untersuchten „elektrischen Schaltkreise“ sind allgemein bekannter unter dem Namen „supraleitende Qubits“. Statt jedoch explizit die Entwicklung supraleitender Qubits auszuzeichnen, zeichnen sie schlitzohrig die Eigenschaft aus, die die Schaltkreise zu Qubits macht („Energiequantisierung“).
An diesem Preis sind zwei Dinge bemerkenswert. Zum einen wird implizit eine Technologie ausgezeichnet, die ihr wahres Potenzial noch gar nicht gezeigt hat. Zum anderen birgt sie das Risiko, die Welt in die Datenapokalypse zu treiben. Denn Quantencomputer könnten den heutigen Verschlüsselungsstandard in kürzester Zeit knacken. Ein mutiger Schritt des Nobelpreiskomitees, aber klug versteckt. Denn falls in 30 Jahren, wenn die Cybersicherheit wirklich deswegen den Bach runtergegangen ist, jemand fragt, was sich das Komitee dabei gedacht habe, könnte es sich dezent rausreden: „Es ging uns doch eigentlich um …, äh … Tunneln und Quantisierung und so.“
Weiterlesen nach der Anzeige
(spa)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Monaten
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Monat
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 4 Tagen
Illustrierte Reise nach New York City › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen