Connect with us

Künstliche Intelligenz

CLC 2025: KI-Integration und Platform Engineering im Fokus der IT-Konferenz


KI-Integration, Plattformskalierung, Security-Automatisierung und Developer Experience sind vier der Kernthemen bei der diesjährigen CLC-Konferenz am 19. und 20. November 2025 in Mannheim. Damit richtet sich das Event an alle Senior-Softwareentwickler, Softwarearchitekten, DevOps Engineers, Platform Engineers, Infrastructure/Cloud Engineers sowie Team- und Projektleiter, die sich über wichtige Trends informieren und auf Augenhöhe mit Gleichgesinnten austauschen wollen.


Mirko Novakovic

Mirko Novakovic

Mirko Novakovic (Dash0)

Das Programm der von iX und dpunkt.verlag organisierten Konferenz umfasst deutsch- und englischsprachige Vorträge, Workshops, Panels und zwei Keynotes. Mirko Novakovic, CEO von Dash0, hält eine englischsprachige Keynote mit dem Titel „Why AI is Eating the World„. Darin beleuchtet er die transformative Kraft künstlicher Intelligenz in der Softwareentwicklung. Novakovic schlägt dabei eine Brücke zu seiner Keynote bei der ersten CLC-Ausgabe vor über einem Jahrzehnt, die den Titel „Why Software is Eating the World“ trug. In seinem aktuellen Vortrag resümiert er die Lehren des vergangenen Jahrzehnts und untersucht, wie KI das Programmieren, die Observability und die Automatisierung im Platform Engineering weiter verändern wird.


Kurt Garloff

Kurt Garloff

Kurt Garloff (S7n Cloud Services)

Die zweite Keynote hält Kurt Garloff, Open-Source-Befürworter und Kopf der Sovereign Cloud Stack-Bewegung, unter dem Titel „Digitale Resilienz oder Digitale Kolonie?„. Garloff wirft einen kritischen Blick auf moderne IT-Abhängigkeiten. Trotz vereinfachter Entwicklung hochkomplexer Softwaresysteme zeigten sich im Betrieb Schattenseiten wie hohe Kosten für Managed Services, eingeschränkte Flexibilität und problematischer Datenschutz. Die Gesellschaft für Informatik spreche laut Garloff angesichts zahlreicher Abhängigkeiten sogar von Europa als digitaler Kolonie.

Das Vortragsprogramm behandelt verschiedene Aspekte der KI-Integration. Mario-Leander Reimer von QAware zeigt in „Von der Idee zur Wirkung: Architektur und Aufbau einer Cloud-nativen AI-Plattform„, wie sich robuste KI-Infrastrukturen gestalten lassen. Robert Hoffmann von AWS demonstriert in „Works on my LLM„, wie KI-Coding-Assistenten entstehen, die über einfache Autocomplete-Funktionen hinausgehen. Thorsten Maier und Steffen Schluff von Accenture behandeln in „The Agentic Shift„, wie vernetzte KI-Agenten die Entwicklungsarbeit verändern.


Lian Li

Lian Li

Lian Li

Im Bereich Platform Engineering zeigt Alex Krause von QAware in „Make developers fly: Principles for platform engineering„, wie Plattformteams Mehrwert für Entwickler schaffen. Lian Li beleuchtet in „Many Cooks, One Platform“ Ownership und Kollaboration in großen Plattformstrukturen. Hossein Salahi und Fabian Brundke von Liquid Reply präsentieren mit „Composable Platforms: Modular Platform Engineering with Kratix and Backstage“ einen modularen Ansatz für Kubernetes-Teams.

Das Programm widmet sich auch der Observability als Grundpfeiler moderner Softwareprojekte. Johannes Koch von FICO liefert Antworten auf „Why Do We Need Observability for CI/CD Pipelines?„. Dominik Schmidle von Giant Swarm zeigt die Skalierung von Observability-Plattformen für große Umgebungen. Matej Gera von E.ON vergleicht aktuelle eBPF-Möglichkeiten im Monitoring mit klassischen Ansätzen.

Security-Themen ziehen sich durch weitere Sessions. Marius Shekow von SprintEins bespricht die Wahl sicherer Container-Images. Dominik Guhr von INNOQ erklärt Unterschiede und Einsatzmöglichkeiten der Autorisierung mit RBAC, ABAC, PBAC und ReBAC. Prerit Munjal von InfraOne zeigt die Absicherung der Software Supply Chain mit GUAC und GraphQL.

Bei der Developer Experience sprechen Miriam Greis und Daniel Kocot von codecentric über „Developer Experience für APIs stärken„. Sandra Parsick stellt neue Konzepte für lokale Entwicklungsumgebungen vor. Dominik Münch von Celonis und Tal Zwick von MetalBear zeigen in „Please don’t cry: How we fixed local development experience with mirrord„, wie sich das Einrichten lokaler Entwicklungsumgebungen erleichtern lässt.

Am 18. November, dem Vortag der Konferenz, finden vier ganztägige Workshops statt. Nicholas Dille führt durch CI/CD-Workflows mit GitLab von der Pipeline-Definition bis zur Absicherung der Lieferkette. Heiko Rupp und Benedikt Bongartz zeigen, wie sich mit OpenTelemetry verteilte Systeme durchgängig beobachten lassen. Thorsten Wussow behandelt GitOps mit Flux, inklusive Automatisierung, Rollbacks und Sicherheitsaspekten. Mario-Leander Reimer gibt Einblick in den Aufbau einer skalierbaren, Cloud-nativen KI-Plattform.

Die Workshops richten sich an IT-Fachleute wie Senior-Softwareentwicklern, Softwarearchitekten, DevOps Engineers, Platform Engineers, Infrastructure/Cloud Engineers, Team- und Projektleitern sowie Administratoren, die Werkzeuge und Methoden praktisch anwenden wollen. Die Teilnehmerzahl ist begrenzt, um Austausch und individuelles Lernen zu ermöglichen.


Eindrücke von der Konferenz CLC 2024

Eindrücke von der Konferenz CLC 2024

Noch bis zum 2. Oktober kostet das Konferenzticket mit Frühbucherrabatt nur 1149 Euro (alle Preise zzgl. MwSt.), für das Kombiticket aus Konferenz und 1-Tages-Workshop fallen 1699 Euro an. Die ganztägigen Workshops lassen sich einzeln zum Preis von 649 Euro buchen. Teams oder Gruppen ab drei Personen erhalten im Ticketshop zudem automatisch mindestens 10 Prozent Rabatt.

Interessierte können sich auf der Website der CLC 2025 für den Newsletter registrieren oder den Veranstaltern auf LinkedIn und unter dem Hashtag #CLC_Conf folgen.


(map)



Source link

Künstliche Intelligenz

Microsoft investiert Milliarden in portugiesisches KI-Rechenzentrum


Auf der Suche nach Rechenkraft für Künstliche Intelligenz und die Cloud ist Microsoft in Portugal fündig geworden. In der Hafenstadt Sines, etwa 90 Kilometer Luftlinie südlich der Hauptstadt Lissabon, entsteht ein Campus, der 1,2 Gigawatt Leistung ziehen soll. Eine von insgesamt sechs geplanten Anlagen steht bereits. Nun verspricht Microsoft zehn Milliarden US-Dollar, rund 8,6 Milliarden Euro, beizusteuern.

Weiterlesen nach der Anzeige

Das hat Microsofts President Brad Smith der portugiesischen Tageszeitung Jornal de Negócios anlässlich des in Lissabon stattfindenden Web Summits erzählt. Wie viel des Geldes Miete oder Nutzungsgebühren sind, und wie viel Kapital in Aktien oder andere Beteiligungsformen fließt, ist undeutlich. Auch der Zeitraum für den Geldfluss ist bislang nicht bekannt. Nicht weniger als 12.600 High-End-GPUs der nächsten Generation Nvidias sollen eines Tages in Sines rechnen.

Partner Microsofts sind der britische Hyperscaler Nscale sowie das portugiesische Unternehmen Start Campus. Es hat sich Bau und Betrieb von Rechenzentren im KI-Maßstab verschrieben. Die Anlagen in Sines sollen ausschließlich mit Strom aus erneuerbarer Energie betrieben werden. Zur Kühlung der enormen Anlagen wird das Meer gewärmt. Auch Start Campus hält sich mit Details bislang bedeckt. Es begrüßt Microsofts Ankündigung und hält fest, dass diese sowohl den bestehenden Campus-Teil als auch die geplanten Erweiterungen betrifft.

Neben Zugang zu Meereswasser hat der Standort Sines weitere strategische Vorteile: Ein Unterseekabel führt von dort nach Brasilien sowie bald Französisch Guyana; wohl mehr Einfluss hat, dass Google kommendes Jahr eine Nuvem genannte Glasfaserverbindung an die US-Ostküste eröffnen wird. Unterdessen wälzt die portugiesische Regierung Pläne, Sines zu einem wichtigen NATO-Standort auszubauen. Es ist schon jetzt der größte künstliche Hafen des Atlantiklandes.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

Wikipedia wird kostenpflichtig für KI-Bots


Die Wikipedia und verwandte Projekte der Wikimedia-Stiftung sind ein gefundenes Fressen für KI-Firmen. Sie grasen die wertvollen Daten laufend ab, um damit ihre großen Sprachmodelle zu füttern. Das verursacht Wikimedia erhebliche Kosten, weshalb sie die KI-Bots bremsen wollte. Da sich die Bots zunehmend als Menschen tarnen, hat das nur bedingt funktioniert. Jetzt versucht Wikimedia es mit einer separaten Schnittstelle (API).

Weiterlesen nach der Anzeige

Sie wird als Wikimedia Enterprise vermarktet und erlaubt die automatisierte, strukturierte Abfrage der Inhalte. Gelegentliche Nutzung ist gebührenfrei, für intensive Nutzung hingegen fallen Gebühren an. Diese Einnahmen sollen den Serverbetrieb und laufend notwendige juristische Verteidigung finanzieren helfen.

Die exakten Tarife sind offenbar Verhandlungssache und hängen davon ab, ob der Kunde alle Updates in Echtzeit, in stündlichen oder täglichen Zusammenstellungen oder nur auf aktiven Abruf erhalten möchte. Auch Zusagen hinsichtlich Verfügbarkeit und Geschwindigkeit der Antwort auf Unterstützungsanfragen sind relevante Faktoren.

Mit Geld alleine ist es nicht getan: Die Kunden müssen, wenn sie die von zahllosen Freiwilligen zusammengetragenen und strukturierten Daten nutzen, die Quelle angeben. Tantiemen für die Inhalte selbst fallen nicht an.

„In einer Welt, die immer mehr in KI untergeht, ist das menschliche Wissen der Wikipedia für die Welt wertvoller denn je“, heißt es in Wikimedias Vorstellung des Enterprise-Angebots. Sie hebt hervor, dass KI ohne von Menschen bereitgestellte Information sterben würde; mit der Zeit müssten überwiegend KI-generierte Inhalte zum KI-Training herangezogen werden, was zum Zusammenbruch der KI-Modelle führte.

Menschen trügen zur Schaffung von Wissen in einer Weise bei, die nicht durch KI ersetzbar sei. Während aktuelle KI-Werkzeuge Zusammenfassungen schreiben könnten, seien sie zu Diskussion und Konsensbildung, wie freiwillige Wikipedia-Mitarbeiter es täglich tun, unfähig. Künstliche Intelligenz „ist nicht in der Lage, etwas in einem Archiv Vergrabenes aufzustöbern, noch kann sie ein Foto einer Veranstaltung oder eines nicht erfassten Ortes schießen, um Wissen zu verbessern.“

Weiterlesen nach der Anzeige

Überdies sei die Wikipedia in über 300 Sprachen online, häufig von Muttersprachlern geschrieben. Diese Vielsprachigkeit unterstütze die Entwicklung inklusiver KI-Modelle mit Kulturkompetenz.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

Gigawattstunden-Netzspeicher wird in Brandenburg gebaut


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Vom fossilen zum erneuerbaren Energieort: Im Jänschwalde bei Cottbus soll ein riesiger Stromspeicher entstehen. Er wird zu den größten Akkumulator-Anlagen dieser Art weltweit gehören.

Weiterlesen nach der Anzeige

Die GigaBattery Jänschwalde 1000 soll Strom aus Solar- und Windkraftanlagen speichern und in Zeiten, wenn beide nicht zur Verfügung stehen, ins Netz speisen. Die Speicherkapazität soll vier Gigawattstunden betragen. Das reiche aus, um über 1,6 Millionen Haushalten vier Stunden lang mit Strom zu versorgen, teilt der Energieversorger LEAG mit. Der Speicher soll eine Leistung von 1 Gigawatt liefern, die Hälfte dessen, was das nahegelegene Braunkohlekraftwerk Jänschwalde bereitstellt.

Das Projekt ist eine Kooperation von LEAG und Fluence Energy GmbH. Die deutsche Tochter des US-Unternehmens liefert Smartstack-Speichermodule, die Lithium-Eisenphosphat-Zellen nutzen, und richtet ihn ein. Zudem übernimmt Fluence die Systemintegration der elektrotechnischen Anlagen. Siemens schließlich liefert die Schaltanlage für den Anschluss an das 380-Kilovolt-Stromnetz.

Die Anlage gehört zu LEAGs Projekt GigawattFactory: Der Energieversorger will an seinen alten Kraftwerks- und Tagebaustandorten in der Lausitz eine neue Energieinfrastruktur im Gigawattmaßstab aufbauen, mit Wind-, Solaranlagen, Gaskraftwerken und Speichern. Der Braunkohleabbau in Jänschwalde wurde erst Ende 2023 eingestellt. Auf der rekultivierten Fläche des Tagebaus entsteht ein Solarpark, dessen erster Bauabschnitt eine Spitzenleistung von rund 133 Megawatt haben wird.

Baubeginn für den neuen Speicher ist voraussichtlich im Mai oder Juni 2026. Ende 2027 oder Anfang 2028 könnte der Speicher in Betrieb gehen, wie eine LEAG-Sprecherin dem PV Magazine gesagt hat.

Der Speicher in Jänschwalde könnte vorübergehend der mit Abstand größte in Deutschland werden. Die aktuell größten Netzakkus haben Kapazitären von rund drei Gigawattstunden. Größere sind in Bau. In Förderstedt in Sachsen-Anhalt entsteht ein Stromspeicher mit einer Kapazität von 714 Megawattstunden. Wenn er fertig ist, wird er der größte deutsche Akkumulator sein.

Weiterlesen nach der Anzeige


(wpl)



Source link

Weiterlesen

Beliebt