Künstliche Intelligenz
CloudLand 2026: Das prall gefüllte Line-up des Cloud Native Festival steht fest
Vom 19. bis 22. Mai 2026 öffnet das Cloud Native Festival CloudLand zum fünften Mal seine Pforten – erneut im Heide Park Soltau. Das Organisationsteam rund um die deutschsprachige Cloud Native Community der DOAG bleibt dabei seinem Anspruch treu, ein Line-up von der Community für die Community zu präsentieren. Fast 200 Highlights, die sich auf bis zu zehn Streams über die vier Festivaltage verteilen, machen dies deutlich: Statt schlichter Konferenzvorträge erwartet CloudLand-Besucherinnen und -Besucher eine bunte Mischung überwiegend interaktiver Sessions, Hands-ons und Workshops, begleitet von einem umfassenden Rahmenprogramm, das zum aktiven Mitmachen einlädt, bis hin zu Spaß und Unterhaltung im Freizeitpark, bei der Gaming Night und der Summer Night.
Weiterlesen nach der Anzeige
Den Auftakt zum Festival markiert – wie in den vergangenen Jahren – das CloudCamp. Bei diesem Barcamp am 19. Mai entwickeln alle Teilnehmenden die Agenda ganz spontan nach eigenen Wünschen und Interessen. Das Programm an den weiteren Tagen gliedert sich in Streams, die von Themen aus den Cloud-Native-Communities geprägt sind. Das Spektrum der Sessions und Workshops deckt die Bereiche „Cloud-native Software Engineering“, „Architecture“, „AI & ML“, „Data & BI“, „DevOps“, „Public Cloud“, „Security & Compliance“, „Organization & Culture“, „Sovereign Cloud“ sowie die beiden neuen Themenbereiche „Open Source“ und „Platform Engineering“ ab. Darüber hinaus bieten in zahlreichen „Kundenberichten“ Unternehmen spannende Einblicke in reale Projekte.
Kennenlernen und sich engagieren: OSS- und CNCF-Contributor vor Ort
Einen Schwerpunkt am zweiten CloudLand-Tag markieren Workshops, Talks und Contrib-Feste rund um Open Source und verschiedene Projekte aus dem Ökosystem der CNCF (Cloud Native Computing Foundation). In ihrer einführenden Keynote blicken Mario Fahland, Customer Delivery Architect bei Kubermatic und CNFC Ambassador, sowie Simon Schrottner, CNCF Ambassador und Maintainer of OpenFeature, nicht nur zurück auf ein Jahrzehnt CNCF, sondern zeigen auch die nächsten Schritte der Cloud-Native-Community auf. Dabei gehen sie nicht nur der transformativen Kraft von KI nach, sondern diskutieren auch, welche Chancen sich durch die Umstrukturierung der Technical Advisory Groups der CNCF für interessierte und engagierte Unterstützer aus der Community eröffnen. Im weiteren Verlauf bietet das „CNCFLand“ vielfältige Gelegenheit, mit Projekt-Maintainern und -Contributors in den Austausch zu treten. Unter anderem lädt Matthias Bertschy, Principal Maintainer of Kubescape, ein, bei einem Kubernetes New Contributor Orientation (NCO) Meeting Einblicke in die Arbeit sowie die Möglichkeiten der Beteiligung an einem Projekt wie Kubernetes zu erhalten.

(Bild: Moritz Rißmann / Enrico Bartz)
Beim Cloud Native Festival gehen konzentriertes Lernen, der intensive Austausch und gemeinsames Vergnügen Hand in Hand. Denn die CloudLand-Community will nicht nur zum Mitmachen herausfordern, sondern lädt auch zu Spiel und Spaß ein – vom Late Night Get-together über die Gaming-Night bis zur Summernight-Party darf jeden Abend auch ausgelassen gefeiert werden.
Tickets und weitere Informationen
Bis zum 24. März 2026 sind vergünstigte Early-Bird-Tickets über die Website cloudland.org erhältlich. Das Festival findet vom 19. bis 22. Mai 2026 im Heide Park Resort Soltau statt.
Weiterlesen nach der Anzeige
Wer über das Cloud Native Festival auf dem Laufenden bleiben möchte, sollte regelmäßig auf der Event-Website vorbeischauen oder dem CloudLand-Team in den sozialen Medien folgen – bei LinkedIn, Mastodon, Bluesky oder auf X.
(map)
Künstliche Intelligenz
Anthropic stellt Claude Opus 4.6 mit Agent Teams vor
Anthropic hat das neue KI-Modell Opus 4.6 vorgestellt, das primär beim Programmieren deutlich besser abschneiden soll als der Vorgänger. Opus 4.6 ist die erste Version der Opus-Klasse mit einem Kontextfenster von einer Million Token – allerdings noch als Beta-Funktion. Weitere Neuerungen: Agentische Coding-Teams sollen komplexe Aufgaben parallel bearbeiten, Claude passt die Nachdenkzeit automatisch der Fragestellung an und die maximale Ausgabelänge verdoppelt sich. Leistungsfähiger wird die neue Opus-Version obendrein.
Weiterlesen nach der Anzeige
Mehrere KI-Instanzen koordinieren
Eine zentrale Neuerung ist die Agent-Teams-Funktion in Claude Code, die sich aktuell in einer Research Preview befindet. Damit lassen sich mehrere Claude-Code-Instanzen parallel ausführen und koordinieren – ähnlich wie bei der kürzlich vorgestellten Codex-App von OpenAI. Eine federführende Session koordiniert dabei die Arbeit, weist Tasks zu und fasst Ergebnisse zusammen.
Die einzelnen Team-Mitglieder sind unabhängige Sessions mit eigenem Kontextfenster. Sie können direkt miteinander kommunizieren und greifen auf eine gemeinsame Task-Liste zu. Die Team-Mitglieder können sich Tasks selbst zuweisen oder zugewiesen bekommen und arbeiten parallel an verschiedenen Problemen. Aktiviert wird die Funktion über die Umgebungsvariable CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1. Agent Teams verursachen höhere Token-Kosten, weil jede Instanz separat abgerechnet wird. Sie sind für komplexe Zusammenarbeit gedacht, bei der mehrere Perspektiven oder parallele Lösungsansätze gefragt sind.
Im Gegensatz zu den agentischen Teams arbeiten Subagents innerhalb einer einzelnen Session und liefern ihre Ergebnisse nur an den beauftragenden Agenten zurück. Anthropic sieht diese Unteragenten eher für fokussierte Einzelaufgaben vor.
Opus 4.6 bringt weitere neue Funktionen: „Context Compaction“ fasst alte Kontextinformationen zusammen, um Platz für neue Eingaben zu schaffen. „Adaptive Thinking“ verlängert automatisch die Denkzeit des Modells, wenn komplexe Aufgaben dies erfordern. Entwickler können zudem zwischen vier Effort-Levels wählen (low, medium, high, max), um den Rechenaufwand zu steuern. Die maximale Ausgabelänge wurde auf 128.000 Token erhöht.
Benchmark-Anführer
Weiterlesen nach der Anzeige
Opus 4.6 führt laut Anthropic diverse der obligatorischen Benchmarks an: Auf Terminal-Bench 2.0, das agentenbasiertes Programmieren testet, erreicht Opus 4.6 laut Anthropic die höchste Punktzahl aller Modelle. Beim Reasoning-Benchmark „Humanity’s Last Exam“ liege es ebenfalls vorn. Besonders deutlich sei der Vorsprung im GDPval-AA-Test, der prüft, wie gut KI‑Modelle wirtschaftlich relevante Arbeitsaufgaben erledigen können. Hier übertrifft Opus 4.6 OpenAIs GPT-5.2 um 144 Elo-Punkte und den direkten Vorgänger Opus 4.5 um 190 Elo-Punkte.
Bei der Verarbeitung langer Kontexte zeigt sich ein erheblicher Fortschritt gegenüber dem Vorgänger: Im MRCR v2 8-needle 1M-Test erreicht Opus 4.6 eine Erfolgsquote von 76 Prozent, während Sonnet 4.5 nur auf 18,5 Prozent kommt. Der BigLaw Bench attestiert dem Modell mit 90,2 Prozent den höchsten Score, den bisher ein Claude-Modell erreicht hat – 40 Prozent der Antworten waren perfekt, 84 Prozent erreichten eine Bewertung von mindestens 0,8.
Beim Thema Sicherheit liegt Opus 4.6 laut der veröffentlichten System Card auf dem Niveau anderer Frontier-Modelle. Die Rate fehlausgerichteten Verhaltens wie Täuschung oder übermäßige Anpassung an Nutzerwünsche sei gering. Das Modell zeige die gleiche Ausrichtung wie Opus 4.5, das zuvor als am besten ausgerichtet galt, habe aber niedrigere Over-Refusal-Raten. Für Cybersecurity hat Anthropic sechs neue Testszenarien entwickelt. Das Modell erfüllt den ASL-3-Standard von Anthropic.
Die Preise liegen bei 5 US-Dollar pro Million Input-Token und 25 US-Dollar pro Million Output-Token. Für Premium-Anfragen mit mehr als 200.000 Token erhöhen sich die Preise auf 10 respektive 37,50 US-Dollar. Künftig müssen Kunden zudem zehn Prozent Aufschlag zahlen, wenn die Inferenz ausschließlich in den USA laufen soll.
(vza)
Künstliche Intelligenz
Lawinenrettung: Wie Hightech Risiken verringern soll
Eine Skiabfahrt durch unberührten Schnee auf einem einsamen Hang in den winterlichen Alpen: Um so was zu genießen, setzen sich Menschen einer der tückischsten alpinen Gefahren aus. Winter für Winter sterben Tourengeher und Freerider durch Lawinen – in Europa waren es allein in der vergangenen Saison 2024/25 siebzig Menschen. Immer wieder trifft es auch erfahrene Alpinisten, sogar wenn sie bei allgemein geringem Lawinenrisiko unterwegs sind – wie etwa gleich zu Beginn dieses Winters, als fünf deutsche Bergsteiger in Südtirol tödlich verunglückten.
Wenn ein Mensch komplett verschüttet ist, drängt die Zeit: Rettung durch Profis wie Bergwacht oder Hubschrauber kommt oft zu spät, weil die Überlebenswahrscheinlichkeit nach etwa 10 Minuten aufgrund des Sauerstoffmangels rapide sinkt. Dies zeigt eine aktuelle Studie von Eurac Research in Bozen, Schweizer Notfallmedizinern und dem Schweizer Institut für Schnee- und Lawinenforschung SLF; bisher galt ein Richtwert von 15 Minuten. Warum sich diese sogenannte Überlebensphase gegenüber der letzten großen Studie aus den 90er Jahren so stark verkürzt hat, können die Autoren nur vermuten; möglicherweise liege es am Klimawandel und dem dadurch bedingten kompakteren Schnee, der weniger Sauerstoff enthält.
- Lawinentechnik verringert das Risiko einer fatalen Verschüttung im alpinen Wintersport. Pflicht ist dabei das LVS-Gerät, mit dem Tourengeher ihre verschütteten Kameraden rasch selbst orten und bergen können.
- Am häufigsten ist der Tod durch Ersticken, Hightech-Ausrüstung soll dies verhindern: Airbags halten den Körper über den Schneemassen, neuartige Pumpsysteme fächern dem Verschütteten Atemluft vor das Gesicht, um Rettern mehr Zeit zu verschaffen.
- Sicherheitsexperten betonen den absoluten Notfallcharakter dieser Systeme. Sie ersetzen keine gründliche Ausbildung von Alpinisten.
Essenziell ist deshalb die sogenannte Kameradenrettung, also die Soforthilfe durch Begleiter. Dafür müssen jedoch alle Gruppenmitglieder entsprechend ausgerüstet sein. Bei der Ortung helfen Geräte, die mithilfe modernster Digitaltechnik heute wesentlich präziser arbeiten und sich einfacher bedienen lassen als ihre analogen Vorgänger. Außerdem gibt es raffinierte Hightech-Ausrüstung, die die Überlebensaussichten eines Lawinenopfers verbessern kann – etwa indem sie Sauerstoff zuführt oder die Chance erhöht, an der Schneeoberfläche zu bleiben.
Das war die Leseprobe unseres heise-Plus-Artikels „Lawinenrettung: Wie Hightech Risiken verringern soll“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Nach Gemini-Siri-Deal: Google nun Apples „bevorzugter Cloud-Anbieter“
Was bedeutet der große KI-Deal zwischen Apple und Google eigentlich für Datenschutz und Sicherheit von iPhone-Nutzerdaten? Für zusätzliche Verunsicherung sorgte jetzt Google-Chef Sundar Pichai: Google ist jetzt der von Apple „bevorzugte Cloud-Anbieter“, gab der CEO gegenüber Finanzanalysten nach Bekanntgabe der jüngsten Geschäftszahlen in der Nacht auf Donnerstag zu Protokoll, ohne weitere Details zu nennen.
Weiterlesen nach der Anzeige
Er freue sich über die Zusammenarbeit mit dem iPhone-Konzern sowie die gemeinsame Entwicklung „der nächsten Generation von Apples Foundation-Modellen, die auf Gemini-Technik basieren“, so Pichai. Den exakt selben Wortlaut wiederholte kurze Zeit später Googles Chief Business Officer Philipp Schindler, wie aus dem Transkript hervorgeht. Die Nachfrage eines Analysten zu dem Deal ließen die Manager im Anschluss unbeantwortet.
Google-Deal: Auch Tim Cook bleibt wortkarg
Nach Bekanntgabe des Deals im Januar betonten Apple und Google in einer gemeinsamen Mitteilung, dass Apple Intelligence „weiterhin auf Apple-Geräten sowie in Private Cloud Compute“ läuft sowie „Apples branchenführende Datenschutzstandards“ einhält. Siri wurde dabei nicht getrennt erwähnt. Apple-Chef Tim Cook wich Nachfragen von Finanzanalysten Ende Januar ebenfalls aus: „Was die Vereinbarung mit Google angeht, dazu veröffentlichen wir keine Details“, so Cook knapp.
Aktuell laufen manche Sprachmodelle von Apple Intelligence lokal auf den Geräten, bestimmte Anfragen werden an ein größeres Sprachmodell auf Apple-Servern geschickt. Nutzer sehen davon nichts. Apple verspricht, diese Daten in seiner Private Cloud Compute nur zur Umsetzung der jeweiligen Aktion zu verwenden und anschließend zu löschen. Sie würden weder für KI-Training noch für andere Zwecke weiterverarbeitet. Mitarbeiter seien zu keinem Zeitpunkt in der Lage, das einzusehen. Ende-zu-Ende-Verschlüsselung kommt allerdings nicht zum Einsatz. Interaktionen mit Siri werden bislang von Apple grundsätzlich transkribiert und ausgewertet. Wer die ChatGPT-Integration in Siri nutzt, schickt seine Daten an die Server von OpenAI.
Siri-Chatbot von iOS 27 in Google Cloud?
Weiterlesen nach der Anzeige
Nach Informationen von Bloombergs Mark Gurman soll die erste Version der neuen Gemini-basierten Siri auf Apples Cloud-Infrastruktur laufen. Für künftige KI-Funktionen in iOS 27 – darunter ein erwarteter Siri-Chatbot – sei allerdings der Rückgriff auf die Google Cloud im Gespräch, schrieb Gurman. Auch Google präsentierte jüngst eine an Private Cloud Compute angelehnte Lösung; ob diese dafür beispielsweise zum Einsatz kommt, bleibt vorerst offen. Apple setzt schon lange auch auf Google als Cloud-Anbieter, um iCloud-Daten zu hosten.
(lbe)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
