Entwicklung & Code
KI-Überblick 1: Was hinter dem Begriff „Künstliche Intelligenz“ wirklich steckt
Kaum ein Begriff wird derzeit so häufig verwendet wie „Künstliche Intelligenz“. Ob in Nachrichten, Marketingbroschüren oder Strategiepapieren – „KI“ soll Unternehmen effizienter, Produkte smarter und ganze Branchen zukunftsfähig machen. Allerdings bleibt oft unklar, was damit konkret gemeint ist. Viele Personen verbinden den Begriff mit futuristischen Vorstellungen von Maschinen, die denken oder gar fühlen können. In der Realität beschreibt „Künstliche Intelligenz“ jedoch ein breites Spektrum an Verfahren und Technologien, die weit weniger mystisch sind.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Diese neunteilige Blogserie widmet sich unterschiedlichen Aspekten von KI. Im ersten Beitrag möchte ich den Begriff KI systematisch aufdröseln, seine Entwicklung nachzeichnen und eine erste Einordnung geben, die die Grundlage für die weiteren Folgen der Serie bildet.
KI, ML, DL – was bedeutet das eigentlich?
Wenn von „KI“ gesprochen wird, ist häufig eine ganze Familie von Verfahren gemeint. Die gebräuchlichsten Abkürzungen sind dabei:
- KI (Künstliche Intelligenz) ist ein Oberbegriff, der alle Ansätze umfasst, Maschinen so zu gestalten, dass sie Aufgaben übernehmen können, die gemeinhin als „intelligent“ gelten. Dazu zählen etwa Sprache verstehen, Probleme lösen, lernen und planen.
- ML (Machine Learning) ist ein Teilbereich der KI, der sich darauf fokussiert, dass Maschinen auf Basis von Daten Muster erkennen und daraus Vorhersagen oder Entscheidungen ableiten.
- DL (Deep Learning) ist wiederum ein Teilbereich des Machine Learning, der komplexe neuronale Netze verwendet, um besonders tiefgehende Muster in Daten zu erkennen.
Maschinelles Lernen und Deep Learning sind also Unterkategorien der Künstlichen Intelligenz. In vielen Diskussionen werden diese Begriffe jedoch unscharf verwendet, was Missverständnisse begünstigt.
Von Expertensystemen zu lernenden Maschinen
Historisch begann die Forschung an Künstlicher Intelligenz nicht mit maschinellem Lernen, sondern mit sogenannten symbolischen Ansätzen. In den 1950er- und 1960er-Jahren entstanden Programme, die Wissen in Form von Regeln und Fakten speicherten. Daraus entwickelten sich später Expertensysteme, die etwa in der medizinischen Diagnose oder technischen Fehleranalyse eingesetzt wurden. Diese Systeme arbeiteten mit klar formulierten Wenn-Dann-Regeln. Ihr Vorteil war, dass ihre Entscheidungen transparent und nachvollziehbar waren. Ihr Nachteil bestand darin, dass sie nicht selbstständig lernen konnten und bei unvollständigem oder unscharfem Wissen schnell an ihre Grenzen stießen.
In den 1980er- und 1990er-Jahren rückte deshalb das maschinelle Lernen stärker in den Vordergrund. Statt einer Maschine explizit zu sagen, wie sie zu entscheiden hat, begann man, ihr Daten zu geben, aus denen sie selbst Regeln ableiten konnte. Damit wurden Systeme möglich, die flexibler auf neue Situationen reagieren konnten.
Ein einfaches Beispiel ist die Spam-Erkennung in E-Mails. Während ein Expertensystem vielleicht nur nach festen Schlüsselwörtern sucht, lernt ein Spam-Filter auf Basis vieler Beispiele von Spam- und Nicht-Spam-Nachrichten, typische Muster zu erkennen. Das erlaubt es, auch neue Formen von Spam zu identifizieren, ohne dass jemand manuell Regeln dafür hinterlegen muss.
Warum „Künstliche Intelligenz“ oft in die Irre führt
Der Begriff „Künstliche Intelligenz“ weckt häufig leicht falsche Assoziationen. Menschen neigen dazu, Maschinen Eigenschaften zuzuschreiben, die diese gar nicht besitzen. Ein Chatbot, der in flüssigen Sätzen antwortet, wirkt schnell so, als „wüsste“ er etwas. Tatsächlich basiert er jedoch lediglich auf komplexen statistischen Modellen, die aus unzähligen Beispielen gelernt haben, welche Wortfolgen wahrscheinlich aufeinanderfolgen.
Auch Programme, die Brettspiele meistern oder Bilder erkennen, verfügen nicht über ein Verständnis im menschlichen Sinne. Sie optimieren ihre Entscheidungen auf der Basis von Mustern in den Daten, ohne dass sie deren Bedeutung begreifen. Daher sprechen manche Fachleute lieber von „statistischer Mustererkennung“ statt von Intelligenz. Das mag sperrig klingen, trifft jedoch den Kern wesentlich besser.
Warum der Hype trotzdem berechtigt ist
Trotz dieser Einschränkungen hat Künstliche Intelligenz in den vergangenen Jahren beeindruckende Fortschritte gemacht. Rechnerische Ressourcen, größere Datenmengen und neue Algorithmen haben dazu geführt, dass Maschinen heute Aufgaben bewältigen können, die vor wenigen Jahren noch als Domäne des Menschen galten. Sprachmodelle wie GPT-4 formulieren Texte, Bildgeneratoren erschaffen fotorealistische Szenen und Algorithmen analysieren in Sekunden medizinische Aufnahmen.
Diese Erfolge beruhen jedoch nicht auf Magie, sondern auf systematischen Verfahren. Wenn Sie verstehen, was hinter Begriffen wie „Machine Learning“ und „Deep Learning“ steckt, können Sie besser einschätzen, was KI-Systeme tatsächlich leisten können – und wo ihre Grenzen liegen. Genau das soll diese Serie leisten.
Wohin die Reise geht
In den folgenden Beiträgen werden wir die verschiedenen Teilgebiete schrittweise vertiefen. Wir werden uns ansehen, wie Maschinen lernen, was neuronale Netze auszeichnet und warum Deep Learning „deep“ ist. Zudem werden wir beleuchten, wie Transformer-Architekturen die Sprachverarbeitung revolutioniert haben und was Large Language Models von früheren Ansätzen unterscheidet.
Das Ziel ist, dass Sie am Ende dieser Serie nicht nur einzelne Schlagworte einordnen können, sondern ein Gesamtverständnis dafür entwickeln, wie die verschiedenen Konzepte zusammenhängen. Damit können Sie fundierter entscheiden, ob und wie Künstliche Intelligenz für Ihre Projekte oder Ihr Unternehmen sinnvoll sein könnte.
Ergänzend zu dieser Serie seien an dieser Stelle die Blogposts von Michael Stal über den Aufbau von Neuronalen Netzen empfohlen.
(rme)
Entwicklung & Code
Meta integriert KI-Chats in Empfehlungen auf Facebook und Instagram
Ab dem 16. Dezember 2025 will Meta Gespräche mit seinen KI-Funktionen in die Personalisierung von Facebook und Instagram einbeziehen. Damit sollen nicht nur Likes, Kommentare oder geteilte Inhalte eine Rolle spielen, sondern auch Text- und Sprachinteraktionen mit „Meta AI“. Diese zusätzlichen Datenpunkte erweitern laut Ankündigungsbeitrag die Möglichkeiten des Unternehmens, Empfehlungen gezielter auf die Interessen der Nutzerinnen und Nutzer abzustimmen.
Als Beispiel nennt Meta eine Unterhaltung übers Wandern: Wer ein solches Thema mit der KI bespricht, kann künftig Empfehlungen zu passenden Facebook-Gruppen, Reels über Outdoor-Themen oder Werbung für Ausrüstung sehen. Das Vorgehen folgt derselben Logik wie bisherige Personalisierungsmechanismen, erweitert diese jedoch um den direkten Austausch mit den KI-Funktionen.
Umgang mit sensiblen Daten
Meta betont, sensible Informationen nicht für Werbezwecke nutzen zu wollen. Dazu zählen Angaben zu Religion, sexueller Orientierung, politischer Einstellung, Gesundheit, ethnischer Herkunft oder Gewerkschaftszugehörigkeit. Gespräche über diese Themen sollen weder Inhalte im Feed noch personalisierte Anzeigen beeinflussen.
Damit versucht das Unternehmen, Sorgen vor einer zu tiefgehenden Auswertung privater Themen zu adressieren. In den offiziellen Informationen unterstreicht Meta, dass diese Grenzen bereits bei der bisherigen Datennutzung gelten und auch in den neuen KI-basierten Systemen eingehalten werden sollen.
Kontrolle für Nutzerinnen und Nutzer
Neben den automatischen Personalisierungen sollen weiterhin individuelle Anpassungen möglich sein. Über die bekannten Werkzeuge wie Ads Preferences oder Feed-Kontrollen können Nutzende ihre Anzeige- und Inhaltseinstellungen verändern. Damit bleibt es ihnen selbst überlassen, den Einfluss von KI-Empfehlungen einzugrenzen oder zu verstärken.
Außerdem können Menschen entscheiden, wie sie mit Meta AI interagieren möchten – per Spracheingabe oder Text. Bei Sprachbefehlen erscheint ein Hinweislicht, das signalisiert, dass das Mikrofon aktiv genutzt wird. Meta betont, dass eine Aufnahme nur erfolgt, wenn die Zustimmung vorliegt und eine entsprechende Funktion bewusst Verwendung findet.
Kontenverknüpfung entscheidet über Reichweite
Ein zentraler Punkt ist die Verknüpfung verschiedener Meta-Dienste über das Accounts Center. Nur wenn Nutzerinnen und Nutzer ihre Konten dort registrieren, fließen die Daten auch plattformübergreifend in die Empfehlungen ein. Wer beispielsweise WhatsApp nicht mit dem Accounts Center verbindet, muss laut Ankündigungsbeitrag nicht damit rechnen, dass KI-Chats aus dem Messenger das Facebook- oder Instagram-Erlebnis beeinflussen.
Auf diese Weise versucht Meta, den Nutzenden selbst mehr Kontrolle über die Reichweite ihrer Interaktionen zu geben. Die Entscheidung, welche Informationen zwischen den Plattformen geteilt werden, liegt bei denjenigen, die ihre Konten verknüpfen oder getrennt halten.
Zeitplan und weitere Pläne
Die geplanten Änderungen treten am 16. Dezember 2025 in Kraft. Meta kündigt an, Nutzerinnen und Nutzer vorab per Benachrichtigungen und E-Mails zu informieren, sodass ausreichend Zeit bleiben soll, Einstellungen zu überprüfen oder anzupassen.
Die Einführung soll schrittweise erfolgen. Zunächst wird das Update in den meisten Regionen umgesetzt, später möchte das Unternehmen die Funktion weltweit bereitstellen.
(mdo)
Entwicklung & Code
Jakarta EE Developer Survey 2025 zeigt Wachstum bei Java 21 und Cloud
Die Eclipse Foundation hat die Ergebnisse des 2025 Jakarta EE Developer Survey veröffentlicht. Mit über 1.700 Teilnehmenden – ein Plus von 20 Prozent gegenüber dem Vorjahr – liefert die Befragung einen umfangreichen Einblick in den Stand von Enterprise Java weltweit. Die Resultate unterstreichen den wachsenden Einfluss von Jakarta EE, insbesondere im Kontext von Cloud-nativen Anwendungen und moderner Java-Entwicklung.
Die Eclipse Foundation ist eine der größten Open-Source-Organisationen und betreut Projekte wie Jakarta EE. Mit dem jährlichen Jakarta EE Developer Survey erhebt sie Trends und Prioritäten der weltweiten Java-Community.
Jakarta EE überholt Spring
Zum ersten Mal liegt die Java-Plattform Jakarta EE mit 58 Prozent Nutzung vor Spring (56 Prozent). Dieser Wechsel markiert einen Meilenstein in der Enterprise-Java-Welt. Ausschlaggebend sei einerseits die Veröffentlichung von Jakarta EE 11, andererseits eine wachsende Aufmerksamkeit dafür, dass Spring selbst auf Jakarta-EE-Spezifikationen basiert.
Das Balkendiagramm zeigt die Nutzung von Spring/Spring Boot, Jarkata EE und MicroProfile. Spring liegt erstmals vorne.
(Bild: Eclipse Foundation)
Obwohl die vollständige Plattformversion erst nach Abschluss der Umfrage erschien, setzen bereits 18 Prozent der Befragten auf Jakarta EE 11. Besonders dominant ist der frühe Einsatz in kleineren Unternehmen (weniger als 500 Mitarbeitende), doch auch Großunternehmen ab 10.000 Beschäftigten zeigen signifikantes Interesse.
(Bild: Playful Creatives / Adobe Stock)
Am 14. Oktober dreht sich bei der betterCode() Java 2025 alles um das frisch veröffentlichte Java 25. Die von iX und dpunkt verlag ausgerichtete Online-Konferenz behandelt in sechs Vorträgen die wesentlichen Neuerungen. Eine Keynote von Adam Bien zu 30 Jahren Java rundet den Tag ab.
Java 21 setzt sich durch
Ein klarer Trend: 43 Prozent der Entwicklerinnen und Entwickler nutzen bereits Java 21 – ein deutlicher Sprung von 30 Prozent im Jahr 2024. Gleichzeitig geht die Nutzung älterer Versionen wie Java 8 und 17 zurück. Java 11 erlebt dagegen ein leichtes Comeback und erreicht 37 Prozent.
Die Grafik zeigt Nutzung der Java-Versionen: Java 8 führt vor Java 17; Platz 3 belegt Java 21 und am wenigsten genutzt wird Java 11.
(Bild: Eclipse Foundation)
Cloud-Strategien bleiben vielfältig – Unsicherheit wächst
Die Strategien zur Cloud-Migration sind weiterhin unterschiedlich verteilt. Zwar bleibt Lift-and-Shift mit 22 Prozent führend, doch gleichzeitig steigt offenbar die Unsicherheit: 20 Prozent der Befragten haben 2025 noch keine klare Cloud-Strategie, fast doppelt so viele wie im Vorjahr.
Die Prioritäten der Community verschieben sich gemäß Umfrage deutlich in Richtung Cloud-native Readiness und eine schnellere Implementierung von Jakarta-EE-Spezifikationen in Applikationsservern. Developer wünschen sich zudem offenbar praxistaugliche Kubernetes-Features wie Health Checks, Secrets-Management und Telemetrie-Unterstützung.
Ein Wendepunkt für Enterprise-Java
Die Ergebnisse der diesjährigen Umfrage zeigen, wie sich Enterprise Java Schritt für Schritt weiterentwickelt. Entwicklerinnen und Entwickler setzen verstärkt auf Jakarta EE, nutzen schneller neue Java-Versionen wie Java 21 und greifen zunehmend auf Cloud-native Ansätze zurück.
Viele Teams arbeiten bereits aktiv an Cloud-Migrationen, doch ein Teil sucht offenbar noch nach der passenden Strategie. Gleichzeitig gestalten Unternehmen ihre Architekturen flexibler und passen bestehende Systeme an moderne Anforderungen an. Damit rückt Jakarta EE verstärkt in den Mittelpunkt der aktuellen Entwicklungen im Java-Ökosystem.
Weitere Informationen sowie der Zugang zum Survey finden sich im Blogbeitrag auf der Seite der Eclipse Foundation.
(mdo)
Entwicklung & Code
Proxmox Mail Gateway 9.0 mit mehr Schutz und einfacherem Quarantäne-Management
Die Proxmox Server Solutions GmbH aus Wien hat mit dem Proxmox Mail Gateway 9.0 ihre Open-Source-Plattform für sichere E-Mail aktualisiert. Ebenso wie die Virtualisierungslösung Proxmox VE 9.0 und der Proxmox Backup Server 4.0 arbeitet das Mail Gateway damit auf Basis von Debian GNU/Linux 13.0 „Trixie“. Während Debian standardmäßig einen Linux-Kernel 6.12 LTS verwendet, habe sich das Proxmox-Entwicklerteam für einen angepassten Linux-Kernel 6.14.11-2 entschieden.
Das Dateisystem ZFS hat gerade den zweiten Release Candidate für Version 2.4 veröffentlicht (zfs-2.4.0-rc2), Proxmox setzt jedoch auf die neueste stabile ZFS-Version 2.3.4. Als Datenbank-Engine kommt PostgreSQL 17 zum Einsatz. Gegen Spam, Viren, Trojaner und Phishing-E-Mails sollen unter anderem Open-Source-Technologien wie ClamAV 1.4.3 und SpamAssassin 4.0.2 mit aktualisierten Rulesets schützen.
In der Statistik-Ansicht erhalten Nutzerinnen und Nutzer eine Übersicht über ein- und ausgehende sowie Junk-, Virus-Mails und Bounces.
(Bild: Proxmox Server Solutions GmbH)
Überarbeitetes Quarantäne-Interface für Mobilgeräte
Das neue Quarantäne-Interface wurde speziell für Mobilgeräte optimiert und ermöglicht es seinen Benutzern, ihre quarantänisierten Nachrichten komfortabel über eine überarbeitete Weboberfläche zu verwalten. Entwickelt mit dem Rust-basierten Yew-Framework soll es die bisherige Implementierung komplett ersetzen.
Die Authentifizierungsfunktionen und SSO-Integration (Single Sign-On) wurden deutlich erweitert: OpenID-Connect-Realms lassen sich nun vollständig über die grafische Oberfläche konfigurieren, inklusive Claim-Zuordnungen und automatischer Rollenvergabe. Dadurch wird eine nahtlose Anbindung an gängige Identity- und Access-Management-Lösungen wie Keycloak, Zitadel oder LemonLDAP::NG ermöglicht.
Mehr Sicherheit soll die Anpassung der Content-Type-Filter-Engine erreichen, die aktualisierten MIME-Typen für Microsoft-Ausführungsdateien zuverlässiger erkennen und blockieren kann.
Verfügbarkeit und Preise
Alle Verbesserungen und Änderungen, aber auch mögliche auftretende Probleme beim Umstieg von vorherigen Versionen des Proxmox Mail Gateway sind in dem Wiki dokumentiert.
Das Proxmox Mail Gateway 9.0 steht als Open-Source-Software ab sofort zum Download bereit und darf kostenlos eingesetzt werden. Der Zugriff auf das Enterprise-Repository kostet 180 Euro (netto) pro Jahr, professioneller Support ist von 510 bis 1800 Euro (netto) pro Jahr erhältlich.
(mdo)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 3 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 2 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 2 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows