Connect with us

Künstliche Intelligenz

AMD gibt seinen Vulkantreiber Amdvlk final auf


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Wer unter Linux noch AMDs eigenen „Open Source Driver For Vulkan“ (Amdvlk) verwendet, sollte bald auf den alternativen Vulkantreiber Radv wechseln. AMD hat die Entwicklung an Amdvlk schon Mitte September eingestellt und verweist stattdessen auf Radv. Vulkan ist eine Hardware-nahe Grafik-API, analog zu Microsofts DirectX 12.

Radv ist ebenfalls quelloffen, entstand bisher jedoch weitgehend ohne AMDs Beteiligung. Er gehört zur Grafikbibliothek und -Treibersammlung Mesa und verwendet Teile der auch von anderen Mesa-Treibern genutzten Infrastruktur. Die Entwicklung ist Community-getrieben – bisher ist insbesondere Valve daran beteiligt. Die Firma verwendet AMDs Kombiprozessoren im Handheld-PC Steam Deck und ist daher maßgeblich am Fortschritt interessiert.

In einer Stellungnahme über GitHub schreibt ein AMD-Entwickler: „Um die Entwicklung zu optimieren und unser Engagement für die Open-Source-Community zu verstärken, vereinheitlicht AMD seine Linux-Vulkan-Treiberstrategie und hat beschlossen, das Open-Source-Projekt Amdvlk einzustellen. Wir werfen unsere volle Unterstützung nun voll und ganz auf den Radv-Treiber als offiziell unterstützten Open-Source-Vulkan-Treiber für Radeon-Grafikkarten.“

Diese Vereinheitlichung zeichnete sich schon seit Monaten ab. Im Juni gab AMD bereits die letzten Reste seines proprietären 3D-Grafiktreibers für Linux auf.

AMD ermutigt Entwickler weiterhin, sich an der weiteren Entwicklung von Radv zu beteiligen. Daneben gibt es noch den Radeonsi-Treiber für OpenGL.

Radv bringt schon länger in vielen Spielen und Anwendungen höhere Bildraten als der Amdvlk-Treiber. Lediglich bei Raytracing-Grafikeffekten gilt der jetzt eingestellte Treiber bislang als performanter.


(mma)



Source link

Künstliche Intelligenz

Meta Vibes: Meta AI bekommt Feed für KI-Videos


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein cartoonhafter Mark Zuckerberg, eine Katze, die Teig knetet und flauschige Flauschknäuel, die über flauschige Bausteine hüpfen. Das sind Beispiele für die KI-generierten Videos, die man künftig in der Meta AI App anschauen kann. Mark Zuckerberg hat sie bei Instagram gepostet und stellt damit Vibes vor.

Grundsätzlich umfasst Meta AI als App etwa die Funktionen der KI-Brillen von Meta und Ray-Ban sowie Oakley, unter dem Namen Meta AI findet man aber etwa auch den KI-Chatbot in WhatsApp. Nun zieht in die Meta AI App und auf Meta.ai also Vibes ein. Es ist eine Art Social-Media-Funktion innerhalb des Dienstes. Man kann darüber Videos von Freunden entdecken, aber auch von Creatoren oder Communities, schreibt Meta in einem Blogbeitrag. Kein soziales Netzwerk ohne Eigeninitiative: Natürlich ist auch das Erstellen eigener Videos mithilfe von KI möglich. Außerdem können Fotos und Videos bearbeitet werden – und zu einem Video umgewandelt.

Wie bereits bei kurzen Videodiensten üblich, gibt es auch eine Remix-Funktion innerhalb von Vibes. Über diese können fremde Inhalte weiter bearbeitet werden, beispielsweise mit Musik untermalt, der Stil kann geändert und visuelle Elemente können eingefügt werden.

Vibes taucht unter dem Reiter „entdecken“ auf. Freilich ist der Feed personalisiert. Schaut man ein Video länger an, werden künftig eher ähnliche Videos angezeigt. Videos können auch geliked und kommentiert werden. Die Remix-Funktion ist als Karte mit einem Plus zu finden.

Meta AI lässt sich mit anderen Meta-Diensten verknüpfen. Wer ein Video postet, kann dies auf allen Plattformen gleichzeitig machen. Meta AI Videos bei Instagram können auch zu den Vibdes geschickt werden und dort verarbeitet. Vibes könnte in Zukunft auch über das Display der neuen Ray-Ban Meta Display Brille zur Verfügung stehen.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

Dobrindt will mehr Befugnisse für Drohnenabwehr


Bundesinnenminister Alexander Dobrindt will angesichts der Bedrohung durch illegale Drohnenüberflüge die Befugnisse der Bundeswehr ausweiten. „Ich will im Luftsicherheitsgesetz festschreiben, dass die Bundeswehr der Polizei im Inneren Amtshilfe leisten darf – gerade bei Drohnenabwehr-Einsätzen“, sagte der CSU-Politiker der Zeitung „Rheinische Post“. Sein Ziel sei, ein deutsches Drohnen-Kompetenzzentrum aufzubauen, in dem Bund, Länder und Bundeswehr vernetzt sind.

Ein Sprecher des Ministeriums teilte auf Anfrage der dpa mit, derzeit liefen Abstimmungen für eine Reform des Bundespolizeigesetzes sowie einer Anpassung des Luftsicherheitsgesetzes. Zu laufenden Gesetzgebungsverfahren wollte sich das Ministerium nicht näher äußern. Nach Angaben der „Bild“ soll es künftig möglich sein, im Falle einer akuten Bedrohung durch eine Drohne mit Waffengewalt einzugreifen, wenn dies das einzige Mittel zur Abwehr eines schweren Unglücks ist.

Eine entsprechende Änderung des Luftsicherheitsgesetzes hatte die Bundesregierung schon im Januar auf den Weg gebracht. Die Neuregelung sollte den Streitkräften die Anwendung von „Waffengewalt gegen unbemannte Luftfahrzeuge“ ermöglichen. Wegen der vorgezogenen Bundestagswahl wurde das aber nicht mehr umgesetzt.

Lesen Sie auch


Update

27.09.2025,

14:19

Uhr

Am Mittag trat Innenminister Dobrindt vor die Presse und konkretisierte seine Pläne. Demnach soll das Luftsicherheitsgesetz so geändert werden, dass die Bundeswehr „im Rahmen der Amtshilfe für die Polizei in die Drohnenabwehr einsteigen kann.“ Das, so der Minister weiter, „umfasst auch den Abschuss oder die Abschussmöglichkeit von Drohnen“. Um das Gesetz schnell durch den Bundestag zu bringen, will der CSU-Politiker mit dem SPD-geführten Verteidigungsministerium zusammenarbeiten.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

CLC 2025: KI-Integration und Platform Engineering im Fokus der IT-Konferenz


KI-Integration, Plattformskalierung, Security-Automatisierung und Developer Experience sind vier der Kernthemen bei der diesjährigen CLC-Konferenz am 19. und 20. November 2025 in Mannheim. Damit richtet sich das Event an alle Senior-Softwareentwickler, Softwarearchitekten, DevOps Engineers, Platform Engineers, Infrastructure/Cloud Engineers sowie Team- und Projektleiter, die sich über wichtige Trends informieren und auf Augenhöhe mit Gleichgesinnten austauschen wollen.


Mirko Novakovic

Mirko Novakovic

Mirko Novakovic (Dash0)

Das Programm der von iX und dpunkt.verlag organisierten Konferenz umfasst deutsch- und englischsprachige Vorträge, Workshops, Panels und zwei Keynotes. Mirko Novakovic, CEO von Dash0, hält eine englischsprachige Keynote mit dem Titel „Why AI is Eating the World„. Darin beleuchtet er die transformative Kraft künstlicher Intelligenz in der Softwareentwicklung. Novakovic schlägt dabei eine Brücke zu seiner Keynote bei der ersten CLC-Ausgabe vor über einem Jahrzehnt, die den Titel „Why Software is Eating the World“ trug. In seinem aktuellen Vortrag resümiert er die Lehren des vergangenen Jahrzehnts und untersucht, wie KI das Programmieren, die Observability und die Automatisierung im Platform Engineering weiter verändern wird.


Kurt Garloff

Kurt Garloff

Kurt Garloff (S7n Cloud Services)

Die zweite Keynote hält Kurt Garloff, Open-Source-Befürworter und Kopf der Sovereign Cloud Stack-Bewegung, unter dem Titel „Digitale Resilienz oder Digitale Kolonie?„. Garloff wirft einen kritischen Blick auf moderne IT-Abhängigkeiten. Trotz vereinfachter Entwicklung hochkomplexer Softwaresysteme zeigten sich im Betrieb Schattenseiten wie hohe Kosten für Managed Services, eingeschränkte Flexibilität und problematischer Datenschutz. Die Gesellschaft für Informatik spreche laut Garloff angesichts zahlreicher Abhängigkeiten sogar von Europa als digitaler Kolonie.

Das Vortragsprogramm behandelt verschiedene Aspekte der KI-Integration. Mario-Leander Reimer von QAware zeigt in „Von der Idee zur Wirkung: Architektur und Aufbau einer Cloud-nativen AI-Plattform„, wie sich robuste KI-Infrastrukturen gestalten lassen. Robert Hoffmann von AWS demonstriert in „Works on my LLM„, wie KI-Coding-Assistenten entstehen, die über einfache Autocomplete-Funktionen hinausgehen. Thorsten Maier und Steffen Schluff von Accenture behandeln in „The Agentic Shift„, wie vernetzte KI-Agenten die Entwicklungsarbeit verändern.


Lian Li

Lian Li

Lian Li

Im Bereich Platform Engineering zeigt Alex Krause von QAware in „Make developers fly: Principles for platform engineering„, wie Plattformteams Mehrwert für Entwickler schaffen. Lian Li beleuchtet in „Many Cooks, One Platform“ Ownership und Kollaboration in großen Plattformstrukturen. Hossein Salahi und Fabian Brundke von Liquid Reply präsentieren mit „Composable Platforms: Modular Platform Engineering with Kratix and Backstage“ einen modularen Ansatz für Kubernetes-Teams.

Das Programm widmet sich auch der Observability als Grundpfeiler moderner Softwareprojekte. Johannes Koch von FICO liefert Antworten auf „Why Do We Need Observability for CI/CD Pipelines?„. Dominik Schmidle von Giant Swarm zeigt die Skalierung von Observability-Plattformen für große Umgebungen. Matej Gera von E.ON vergleicht aktuelle eBPF-Möglichkeiten im Monitoring mit klassischen Ansätzen.

Security-Themen ziehen sich durch weitere Sessions. Marius Shekow von SprintEins bespricht die Wahl sicherer Container-Images. Dominik Guhr von INNOQ erklärt Unterschiede und Einsatzmöglichkeiten der Autorisierung mit RBAC, ABAC, PBAC und ReBAC. Prerit Munjal von InfraOne zeigt die Absicherung der Software Supply Chain mit GUAC und GraphQL.

Bei der Developer Experience sprechen Miriam Greis und Daniel Kocot von codecentric über „Developer Experience für APIs stärken„. Sandra Parsick stellt neue Konzepte für lokale Entwicklungsumgebungen vor. Dominik Münch von Celonis und Tal Zwick von MetalBear zeigen in „Please don’t cry: How we fixed local development experience with mirrord„, wie sich das Einrichten lokaler Entwicklungsumgebungen erleichtern lässt.

Am 18. November, dem Vortag der Konferenz, finden vier ganztägige Workshops statt. Nicholas Dille führt durch CI/CD-Workflows mit GitLab von der Pipeline-Definition bis zur Absicherung der Lieferkette. Heiko Rupp und Benedikt Bongartz zeigen, wie sich mit OpenTelemetry verteilte Systeme durchgängig beobachten lassen. Thorsten Wussow behandelt GitOps mit Flux, inklusive Automatisierung, Rollbacks und Sicherheitsaspekten. Mario-Leander Reimer gibt Einblick in den Aufbau einer skalierbaren, Cloud-nativen KI-Plattform.

Die Workshops richten sich an IT-Fachleute wie Senior-Softwareentwicklern, Softwarearchitekten, DevOps Engineers, Platform Engineers, Infrastructure/Cloud Engineers, Team- und Projektleitern sowie Administratoren, die Werkzeuge und Methoden praktisch anwenden wollen. Die Teilnehmerzahl ist begrenzt, um Austausch und individuelles Lernen zu ermöglichen.


Eindrücke von der Konferenz CLC 2024

Eindrücke von der Konferenz CLC 2024

Noch bis zum 2. Oktober kostet das Konferenzticket mit Frühbucherrabatt nur 1149 Euro (alle Preise zzgl. MwSt.), für das Kombiticket aus Konferenz und 1-Tages-Workshop fallen 1699 Euro an. Die ganztägigen Workshops lassen sich einzeln zum Preis von 649 Euro buchen. Teams oder Gruppen ab drei Personen erhalten im Ticketshop zudem automatisch mindestens 10 Prozent Rabatt.

Interessierte können sich auf der Website der CLC 2025 für den Newsletter registrieren oder den Veranstaltern auf LinkedIn und unter dem Hashtag #CLC_Conf folgen.


(map)



Source link

Weiterlesen

Beliebt