Entwicklung & Code
Von Bitnami müssen wir uns allerdings verabschieden
Ende August werden große Teile des Bitnami-Katalogs kostenpflichtig und über Arrow teuer vermarktet. Kunden befürchten Kosten von 50.000 US-Dollar im Jahr und mehr. Die jetzige Sammlung wandert in einen Legacy-Katalog, den Broadcom aber nicht mehr pflegen wird. Anwenderinnen und Anwender müssen nach Alternativen suchen.

Johannes Kleinlercher ist Senior Cloud-Native Platform Engineer bei der Firma suXess-it in Österreich und berät gerne Kunden im Bereich Kubernetes, Cloud-Native und Platform-Engineering. Mit der Internal Developer Platform Distribution kubriX bietet suXess-it eine Out-Of-The-Box IDP auf Basis von Kubernetes an, um schnell und unkompliziert eigene Self-Service-Plattformen aufzubauen.
heise developer spricht mit dem Cloud-native-Experten Johannes Kleinlercher darüber, wie Anwender sich behelfen können, welche Alternativen es gibt und welche Perspektiven sich für die Open-Source-Community ergeben.
Manche Images und Charts bleiben bei Bitnami ja offen. Aber welche für Developer wichtigen hat Broadcom konkret hinter die Paywall geschoben?
Welche Bitnami-Images weiterhin offen bleiben, sieht man jetzt schon vorab unter https://hub.docker.com/u/bitnamisecure. Für Helm-Charts ist das hingegen gar nicht so leicht offiziell herauszufinden. Bitnami erwähnt nur das populäre Chart sealed-secrets. Das heißt, man muss davon ausgehen, dass mehr oder weniger alle anderen nicht mehr frei zur Verfügung stehen.
Der Sourcecode der Helm-Charts bleibt allerdings unter der Apache-2.0-Lizenz frei zur Verfügung, nur die gebauten und versionierten OCI-Artefakte verschwinden hinter der Paywall. Um herauszufinden, welche Images ein Helm-Chart heranziehen, empfehle ich das Plug-in helm-images. Und um alle transitiven Abhängigkeiten von Helm-Charts ausgeben zu lassen, das Plugin helm cascade.
In meiner Firma suXess-it verwendeten wir bis vor Kurzem für die Internal Developer Platform kubriX die Charts von Keycloak und PostgreSQL. Gerade das Keycloak-Chart von Bitnami ist bei sehr vielen Entwicklerinnen und Entwicklern beliebt, weil das offizielle Keycloak-Projekt zwar einen Operator für Kubernetes zur Verfügung stellt, aber kein Helm-Chart für diesen oder für eine klassische Keycloak-Installation.
Aber auch bei anderen Applikationen wie Kafka findet man bei einer Suche an erster Stelle immer das Bitnami-Chart. Bitnami hat in seinem Repository 118 Helm-Charts, wie ArgoCD, verschiedene Grafana-Projekte, Nginx, RabbitMQ, Kafka, Gitea, WildFly, Tomcat, WordPress und so weiter. Alle 118 sind je nach Branche mehr oder weniger populär. Viele Firmen verlassen sich auf Bitnami-Charts und -Images, weil sie sehr gut gehärtet und laufend aktualisiert werden.
Welche Folgen ergeben sich für die Projekte, die auf Bitnami bauen?
Die müssen nun aufpassen, ob nicht Helm-Charts als Abhängigkeit – auch indirekte – irgendwo auf ein Bitnami-Chart verweisen, ohne es wirklich zu wissen. Sehr spannend ist auch, dass populäre Helm-Charts wie Kyverno und Velero immer noch in ihrer aktuellsten Version das kubectl-Image von Bitnami integrieren und erst neue Releases herausbringen müssen, wo sie auf Alternativen umstellen, wie die beiden Issues von Kyverno und Velero zeigen. Vermutlich gibt es noch einige andere Charts, die ähnliche Themen haben.
Durch die Umstellung von Broadcom können also tatsächlich viele Probleme entstehen. Ich sehe den Vorfall auch als Weckruf, sich mehr um die Cloud-native Supply Chain zu kümmern und nicht unbedacht Charts oder Images in Projekte zu integrieren. Wichtig ist, die Abhängigkeiten zu verstehen und ordentlich zu managen.
Wie stark ist die Abhängigkeit der Entwicklungs-Branche von Bitnami? Können die Nutzer als Konsequenz einfach auf andere Anbieter umsteigen oder selbst etwas aufsetzen?
Wie bereits erwähnt, nutzten viele Personen oder Firmen in der Vergangenheit Bitnami-Images oder -Charts, weil sie sehr sicher und aktuell gehalten wurden. Dafür muss man sich bei Bitnami bedanken, aber auch bei allen freiwilligen, externen Contributoren, die dazu beigetragen haben.
Bei einigen Charts wie Keycloak gab es auch gar keine Alternative. Ich schätze die generelle Abhängigkeit in der Industrie deshalb als sehr hoch ein. In meiner Firma haben wir mit Keycloak die Erfahrung gemacht, dass wir nicht ohne Weiteres auf einen anderen Anbieter umsteigen können oder sollten. Wenn man irgendwo im Internet eine Alternative findet, muss man sich viele Fragen stellen:
- Wie sicher und vertrauenswürdig ist die Quelle?
- Welche Maintainer stecken dahinter?
- Unter welcher Lizenz wird das Chart oder das Image angeboten?
- Wann wurde das Projekt das letzte Mal aktualisiert?
- Entspricht der Code gängigen Security-Best-Practices?
Natürlich kann man auch immer selbst die Images und Helm-Charts pflegen, aber bei Software, die sich laufend weiterentwickelt, darf man den Wartungsaufwand nicht unterschätzen. Auch die Frage „Was muss ich für die neue Keycloak-Version im Dockerfile oder Helm-Chart anpassen?“ stellt sich dann laufend. Aus diesem Grund entstehen oft Open-Source-Projekte. Nicht weil alles gratis ist, sondern weil man gemeinsam einen Mehrwert für viele schafft, der sonst für einzelne fast unmöglich zu erarbeiten wäre.
Es gibt auch gute Gründe, keine Charts aus der Community zu verwenden. Wenn eine Firma zum Beispiel komplett unabhängig sein will oder eine konkret auf die eigene Umgebung abgestimmte Lösung benötigt.
Für Keycloak gibt es ja erste Überlegungen, eine Alternative ins Leben zu rufen. Wie reagiert die Open-Source-Community auf die neue Paywall?
Für uns in der Firma war klar, dass wir eine nachhaltige Lösung für uns, aber auch für die Community suchen wollen. Ich habe deshalb über LinkedIn und Github-Issues in den jeweiligen Projekten versucht, gemeinsam mit der Community mögliche Alternativen zu finden. Es hat sich herausgestellt, dass die beste Alternative wäre, ein Helm-Chart so nahe wie möglich bei den Keycloak-Maintainern zu entwickeln. Das steigert den Wert des Projekts selbst und macht auch eine halbwegs effiziente Wartung möglich.
Einige Keycloak-Maintainer und -Contributoren stehen dem auch sehr offen gegenüber, wenngleich auch deren Kapazitäten knapp sind. Es geht jetzt also darum, das Ganze wirklich als Gemeinschaftsprojekt zu sehen, und nicht einfach jemandem die Aufgabe zu übergeben und dann nur zu konsumieren. Ob sich das bis zur Einführung der Paywall am 28. August noch ausgeht, steht leider noch nicht fest.
Was können Keycloak-Anwender jetzt tun?
Derzeit empfehle ich allen, die jeweiligen Kubernetes-Manifeste des Keycloak-Operators in der passenden Version ins eigene Helm-Chart zu integrieren und eine eigene Keycloak-CustomResource zu definieren. Wenn eine neue Version des Keycloak-Operators erscheint, muss man entsprechend die Kubernetes-Manifeste aus dem oben erwähnten Git-Repository beim neuen Versions-Tag herunterladen und bei sich integrieren.
Sobald dann ein offizielles Helm-Chart für den Keycloak-Operator zur Verfügung steht, wird dieses Vorgehen mit einem Update der Helm-Chart-Version um einiges komfortabler und Entwickler können es mit dem populären Tool renovate einfacher managen.
Unser Open-Source-Projekt kubriX wird auf jeden Fall nach der Umstellung am 28. August keine Bitnami-Images oder Helm-Charts mehr benötigen.
Eins ist mir noch wichtig festzuhalten: Es steht jeder Firma natürlich frei, ihr Geschäftsmodell rund um ihre Open-Source-Projekte so zu wählen, wie es ihr gefällt. Und jedem muss klar sein, dass Firmen auch im Open-Source-Umfeld Geld verdienen müssen. Sonst überlebt das beste Projekt nicht. Allerdings sind die kolportierten Preismodelle von Broadcom wohl nicht darauf ausgelegt, die breite Masse anzusprechen, obwohl sehr viele Contributoren in der Vergangenheit zur Qualität der Bitnami-Charts und -Images beigetragen haben.
Dementsprechend bin ich gespannt, wo sich das Bitnami-Projekt hinbewegt. Wir unterstützen auf jeden Fall weiterhin diverse Open-Source-Projekte und -Organisationen, von Bitnami müssen wir uns allerdings verabschieden.
Johannes, vielen Dank für das Gespräch!
(who)
Entwicklung & Code
Spring Framework 7 bringt neues Konzept für Null Safety und setzt auf Java 25
VMWare Tenzu hat Spring Framework 7 veröffentlicht. Das quelloffene Framework für die Java-Plattform bringt im aktuellen Release unter anderem neue Funktionen für verbesserte Resilienz, Null Safety, API-Versionierung und Java-Messaging.
Weiterlesen nach der Anzeige
Beim JDK zielt Spring Framework 7 auf das aktuelle Java 25, und für Enterprise-Java ist Jakarta EE 11 die Basis. Für das Zusammenspiel mit Kotlin setzt es auf Version 2.2 der Programmiersprache, und für Unit-Tests arbeitet es mit JUnit 6.0 zusammen.
Null Safety mit JSpecify
Um Fehler durch den Umgang mit Null-Pointern zu verhindern – der Erfinder der Null-Referenz Tony Hoare hat sich 2009 für den „Milliarden-Dollar-Fehler“ entschuldigt –, setzt das aktuelle Spring Framework auf JSpecify. Damit gelten die bisherigen Annotationen nach dem JSR 305 (Java Specification Request) als überholt (deprecated).
JSpecify bietet Annotationen, die Null-Pointer-Fehler verhindern helfen: @Nullable zeigt an, dass der Wert potenziell null sein kann, während mit @NonNull annotierte Typen niemals null sein dürfen.
Weitere Details zu den Vorteilen von JSpecify zeigt ein Beitrag auf dem Spring-Blog.
Resilienz für Spring-Anwendungen
Weiterlesen nach der Anzeige
Das Spring-Team hat neue Features für die Resilienz eingeführt, die das nun in den Ruhestand geschickte Projekt Spring Retry ersetzen. In Spring Framework 7 sind die Features in org.springframework.core.retry enthalten, das unter anderem RetryTemplate und RetryPolicy enthält.
Die Annotation @Retryable legt unter anderem fest, wie oft und mit welcher Verzögerung die Anwendung versuchen soll, einen fehlgeschlagenen Aufruf zu erneuern, wie folgendes Beispiel aus der Spring-Dokumentation zeigt:
@Retryable(
includes = MessageDeliveryException.class,
maxAttempts = 5,
delay = 100,
jitter = 10,
multiplier = 2,
maxDelay = 1000)
public void sendNotification() {
this.jmsClient.destination("notifications").send(...);
}
Ob die Resilienzfunktionen greifen oder ignoriert werden, lässt sich über die Konfiguration @EnableResilientMethods festlegen.
API-Versionierung, Java-Messaging und mehr
Spring Framework 7 führt ein neues Konzept für die API-Versionierung ein. Entwicklerinnen und Entwickler konfigurieren, wie die API-Version aufgelöst und validiert wird. Clients können die API-Version bei Anfragen an den RestClient, WebClient und für HTTP-Clients festlegen. Auch im Testing lässt sich die Versionierung mit dem WebTestClient nutzen. Ein Beitrag auf dem Spring-Blog bringt eine detaillierte Ausführung zur API-Versionierung.
Spring bekommt im aktuellen Release zudem den JMSClient, der Funktionen zum Versenden und Empfangen von Nachrichten über die JMS-API (Jakarta Messaging) bietet.
Nennenswert ist zudem noch der neue RestTestClient als Variante des WebTestClient, der den RestClient um ein Testing-Interface erweitert. Außerdem gibt es mit dem Interface BeanRegistrar eine neue Methode, um Beans zu registrieren.
Weitere Neuerungen und einige entfernte oder als überholt markierte Funktionen lassen sich den Release Notes zu Spring 7 entnehmen.
(rme)
Entwicklung & Code
10 Jahre CNCF: Neuigkeiten von Kubernetes – Cloud-Native und KI wachsen zusammen
Vom 11. bis 14. November 2025 ist Atlanta in den USA das Zentrum von Kubernetes und Cloud-Native. Auf ihrer Hausmesse KubeCon + CloudNativeCon NA feiert die Cloud Native Computing Foundation (CNCF) ihr 10. Jubiläum. Die Veranstaltung ist wie immer vollgepackt mit Neuerungen aus der Welt von Cloud-Native.
Weiterlesen nach der Anzeige
Einfacheres Kubernetes-Versionsmanagement
Das Flaggschiff-Projekt der CNCF, Kubernetes, wartet ebenfalls mit Neuerungen auf. Seit wenigen Tagen lässt sich ein Upgrade der Control-Plane auf Unterversionsebenen rückgängig machen. Startend mit Version 1.33 können Administratoren beispielsweise von 1.35 auf 1.34 zurückgehen, falls es Probleme mit der neueren Version gibt. Technisch funktioniert das über einen kleinen Trick: eine emulierte Version. Nach dem Upgrade der Binärdateien verhalten sich diese zunächst wie die alte Version. Sie emulieren also die Vorgänger, es ist aber neuer Code. Kommt es zu Problemen, ist der Rücktausch der Binärdateien einfach. Die emulierte Version hatte sich nicht geändert (siehe Abbildung 1).

Neue Up- und Downgrade-Optionen für Kubernetes (KEP-4330)
(Bild: Google)
Doch damit nicht genug. Es lassen sich nun auch Versionen im Upgrade-Prozess überspringen. Wollte man bislang von Version 1.33 auf 1.35 wechseln, dann war der „Umweg“ über 1.34 nötig. Dieser entfällt jetzt. Beide Änderungen sind Teil desselben KEPs (Kubernetes Enhancement Proposals).
Neue Helm-Hauptversion nach sechs Jahren
Helm, der defacto-Standard als Paketmanager für Kubernetes, ist nun in Version 4.0 verfügbar. Dies ist die erste neue Hauptversion seit sechs Jahren. Helm war eines der ersten Projekte unter der Schirmherrschaft der CNCF und ist seit Juni 2018 dabei. In Version 4 haben die Helm-Entwickler das SDK (Software Development Kit) überarbeitet. Es verwendet nun die Logging-Schnittstelle von Go und kann auch die neuesten Funktionen der aktuellen Kubernetes-Version nutzen. Außerdem ist dabei ein neues Plug-in-System. Anwender können nun auch WASM (Web Assembly) einsetzen. Damit sollten die Plug-ins auf einfache Weise plattformübergreifend verwendbar sein.
Auch unter der Motorhaube fanden große Umbauten statt. Da ist natürlich das Entfernen von altem Ballast und die Verwendung neuester Funktionen. Sichtbar für Anwender sind neue Chart-Features. Helm fährt dabei zweigleisig. Über eine Versionierung (v3) lassen sich aber neue Funktionen ausprobieren. Die bisherigen Charts (v2) funktionieren weiter wie gewohnt. Im Gespräch mit iX erklärt Helm-Entwickler Matt Butcher, dass Stabilität und Kompatibilität von Anfang an wichtige Aspekte von Helm waren. Mit der Versionierung der Charts sei nun Innovation ohne Gefährdung der gesetzten Standards möglich.
Weiterlesen nach der Anzeige
Cloud-Native und KI wachsen zusammen
Natürlich ist auch auf dieser Konferenz Künstliche Intelligenz (KI) omnipräsent. Laut Jonathan Bryce (seit Juni 2025 Chef der CNCF) bleibt das auch auf absehbare Zeit so. Cloud-Native und KI wachsen zusammen. Ein jüngst erschienener Bericht sagt, dass sich 41 Prozent der professionellen KI-Entwickler als Cloud-Native bezeichnen. In Zahlen ausgedrückt sind das über sieben Millionen Leute. Der prozentuale Anteil von KI auf Kubernetes-Clustern wächst ebenfalls. Laut CNCF lag er im August 2025 bereits bei 60 Prozent. Jonathan Bryce gibt das neue Ziel vor und sagt: In den vergangenen 10 Jahren war es Aufgabe der CNCF, die Entwicklung von Kubernetes und Co. zu fördern und zu unterstützen. Die nächsten 10 Jahre gilt es, das Gleiche für das Fundament für KI zu tun. Dabei stehen nicht zwingend KI-Agenten im Fokus. Es geht vielmehr darum, die Infrastrukturen für Training und Inferenz aufzubauen, die als Fundament für die KI-Agenten erforderlich sind.
Was gibt es Neues in der CNCF-KI-Welt? Den Anfang macht natürlich Kubernetes. DRA (Dynamic Resource Allocator) ist mit Kubernetes 1.34 für alle verfügbar. Er behandelt GPUs oder auch FPGAs ebenso wie CPUs und ist damit sofort für KI-Anwendungen geeignet. Neu ist außerdem die „Agent Sandbox„. Das Projekt will das Verwalten von einzelnen KI-Applikationen als auch Agenten vereinfachen. Dazu gehört die Entwicklung von CRDs (Customer Resource Definitions) und Kontrollern für Kubernetes. Das Projekt ist noch sehr jung, die ersten Code-Zeilen stammen vom August 2025.
Kubernetes-AI-Conformance-Programm
Gemeinsam mit der CNCF hat die Kubernetes-Community ein KI-Konformitätsprogramm entwickelt. Das Kubernetes-AI-Conformance-Programm definiert Standards und Anforderungen, um die entsprechenden Anwendungen stabil und auch interoperabel betreiben zu können. Dazu gehört beispielsweise die Unterstützung der APIs von DRA und des Kubernetes Gateway. Das Konformitätsprogramm ist ein Prozess, der nicht kostenlos ist und idealerweise am Ende ein Zertifikat übergibt.
Zentrale Registratur für alle KI-Artefakte
Unter den weiteren Neuigkeiten auf der KubeCon findet sich die agentregistry von Solo.io. Die Idee dahinter ist, eine zentrale Registratur für alle KI-Artefakte zu schaffen, beispielsweise MCP-Server (Model Context Protocol), Agenten oder schlichte Informationen. Es gibt damit einen singulären Punkt für die Pflege, Verwaltung und insbesondere auch zum Implementieren von Richtlinien und Sicherheit. Das Projekt steht noch ganz am Anfang und ist nur wenige Wochen alt.

Mit der agentregistry will Solo.io eine zentrale Registratur für alle KI-Artefakte schaffen,
(Bild: Solo.io )
Auch alteingesessene Softwarehersteller sind längst auf den KI-Zug aufgesprungen, beispielsweise Oracle mit der AI Datenbank 26ai. Unter Verwendung von LLMs und MCP-Servern lassen sich Abfragen über KI-Agenten-basierte Arbeitsabläufe ausbauen. Damit sollen sich die Ergebnisse korrekter oder umfangreicher gestalten und bei Bedarf sogar zusätzliche Daten anfordern lassen. Anwenderinnen und Anwender können sogar KI-Agenten innerhalb der Datenbank definieren und ausführen. Der Vorgang lässt sich direkt über die REST-Schnittstelle oder über MCP-Server starten.
Oracle hat zudem eine KI-Agent-Spezifikation entwickelt, die den Einsatz mit verschiedensten Rahmenwerken und Arbeitsabläufen der unterschiedlichen Mitspieler in diesem Umfeld ermöglichen soll. Derzeit sieht der Vorstoß nach einer alleinigen Oracle-Initiative aus. Mit kagent gibt es allerdings ein CNCF-Projekt, das eine ähnliche Ausrichtung hat. In diesem Fall ist Kubernetes als Fundament und Rahmenwerk festgelegt.
(map)
Entwicklung & Code
Docker Desktop 4.50: KI-Integration und kostenlose Debug-Tools für Entwickler
Das Unternehmen Docker, Inc. hat Version 4.50 von Docker Desktop veröffentlicht. Die Entwicklungsumgebung für Container-Anwendungen liefert unter anderem einige auf Developer zugeschnittene Neuerungen, darunter kostenfreie Debug-Funktionen, erweiterte KI-Features für das Bauen von Anwendungen und mehr Kontrolle bei unternehmensweiten Sicherheitsrichtlinien.
Weiterlesen nach der Anzeige
Debugging und IDE-Integration für alle Nutzer
Docker Debug – bisher nur in kostenpflichtigen Abonnements verfügbar – steht ab sofort allen Nutzern kostenfrei parat und soll sich noch besser in VSCode, Cursor und vergleichbare IDEs integrieren. Mit dem Dockerfile-Debugger in der VSCode-Extension beispielsweise können Entwicklerinnen und Entwickler Build-Prozesse direkt im Editor Schritt für Schritt durchlaufen. Windows-Nutzer sollen von höherer Stabilität bei der WSL2-Integration profitieren.
Um den Prozess von den ersten Entwicklungsschritten bis zum produktiven Bereitstellen von Anwendungen zu beschleunigen, steht mit Compose-to-Kubernetes eine Funktion bereit, die lokale Multi-Service-Anwendungen in produktionsreife Kubernetes-Deployments übersetzt. Ergänzend unterstützt das cagent-Toolkit beim Entwickeln von Agenten. Mit cagent lassen sich spezialisierte Agenten bauen und betreiben, die über individuelle Kenntnisse und Fähigkeiten verfügen. Dank Support für MCP-Server lassen sich dabei auch externe Tools und Dienste einbinden.
MCP-Integration mit über 270 Servern
Über das Docker MCP Toolkit erhalten Entwicklerinnen und Entwickler nun Zugriff auf über 270 MCP-Server im Docker MCP Catalog, darunter mehr als 60 Remote-Server mit integrierter OAuth-Authentifizierung. Auch One-Click-Verbindungen für Claude Code und Codex sind verfügbar. Die OAuth-Integration soll die Credential-Verwaltung vereinfachen, Services wie Notion und Linear lassen sich direkt anbinden, ohne Token manuell verwalten oder Config-Files pflegen zu müssen.
Weiterlesen nach der Anzeige
Docker führt zudem Dynamic MCPs ein, die es KI-Agenten ermöglichen, Tools autonom zu entdecken, zu konfigurieren und zu kombinieren. Die Funktionen Smart Search und Tool Composition erlauben den Agenten, den MCP-Katalog zu durchsuchen, die benötigten Tools zu laden und Code für Multi-Tool-Workflows zu generieren. Die Ausführung erfolgt in einer abgeschirmten Umgebung, die zu reduzierter Token-Nutzung und weniger Context-Bloat beitragen soll.
Security-Funktionen ohne Workflow-Unterbrechung
Mit Docker Desktop 4.50 sollen sich auch das Umsetzen von Sicherheitsmaßnahmen sowie die Einhaltung organisationsübergreifender Security Policies nahtlos in die Entwicklungsprozesse integrieren. Administratoren können unter anderem Proxy-Einstellungen via macOS Configuration Profiles zentral vorgeben sowie PAC-Files (Proxy Auto-Configuration) und Embedded PAC Scripts über Installer-Flags für macOS und Windows spezifizieren. Ein schnellerer Release-Zyklus mit kontinuierlichen Updates soll darüber hinaus gewährleisten, dass Entwickler automatisch die neueste stabile Version mit Sicherheits-Patches erhalten.
Die Docker CLI verarbeitet nun auch Zertifikate von Certificate Authorities (CAs), die negative Seriennummern verwenden. Zwar schreibt der X.509-Standard positive Seriennummern vor, einige Enterprise-PKI-Systeme liefern dennoch nicht regelkonforme Zertifikate. In diesen Fällen mussten Organisationen bisher zwischen dem Einhalten ihrer CA-Konfiguration oder dem Erhalt der Docker-Kompatibilität entscheiden.
Weitergehende Informationen
Docker Desktop 4.50 steht in verschiedenen Versionen für Windows, macOS und Linux zum Download bereit. Weitergehende Informationen und mehr Details zu den Neuerungen finden sich in den Release Notes und im Docker-Blog.
(map)
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Datenschutz & Sicherheitvor 2 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
UX/UI & Webdesignvor 4 WochenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
