Künstliche Intelligenz
FFmpeg 8.0 integriert Whisper: Lokale Audio-Transkription ohne Cloud
FFmpeg, das weitverbreitete Multimedia-Framework, integriert Whisper: Mit der neuen Funktion können Nutzer ihre Audioinhalte direkt innerhalb von FFmpeg automatisch transkribieren. Das auf maschinellem Lernen basierende Spracherkennungssystem stammt von OpenAI. Die Neuerung ist Teil von FFmpeg 8.0, das in den kommenden Wochen freigegeben werden soll.
Der neue Whisper-Filter in FFmpeg arbeitet lokal, überträgt also keine Inhalte in die Cloud. Voraussetzung ist die whisper.cpp-Library, anschließend aktiviert ein --enable-whisper
das Feature. Standardmäßig erkennt die Software die Sprache automatisch, Whisper kann Audioaufzeichnungen in über 90 Sprachen transkribieren. Im Zweifel lässt sich aber eine Sprache vorgeben; dasselbe gilt für den Einsatz einer GPU, der im Default aktiviert ist.
Auf Wunsch kann der neue Filter auch SRT-Dateien für Videos erstellen oder für Live-Übertragungen den Ton transkribieren. Ferner lassen sich die per Whisper übertragenen Informationen in FFmpeg weiterverwenden oder in einem automatisierten Workflow an andere Anwendungen weiterreichen. Bislang mussten Nutzer und Entwickler für solche Funktionen auf mehrere Tools zurückgreifen, was die Integration erschwerte.
FFmpeg erscheint als Open-Source-Software; dasselbe gilt für Whisper. Ein erster Einblick in die Integration findet sich hier.
(fo)
Künstliche Intelligenz
Ubuntu 25.10 läuft nicht auf vorhandenen RISC-V-Rechnern
Die Entwickler von Ubuntu programmieren zwar eifrig auch für Computer, in denen Prozessorkerne mit der quelloffenen Befehlssatzarchitektur RISC-V stecken. Doch die im Oktober erwartete neue Version Ubuntu 25.10 Questing Quokka schneidet alte RISC-V-Zöpfe radikal ab. Falls sie wie bisher geplant tatsächlich einen Prozessor mit dem Profil RVA23 erzwingt, wird sie auf keinem bisher verfügbaren RISC-V-Rechner mehr laufen.
Für vorhandene RISC-V-Systeme steht zwar weiterhin Ubuntu bereit, aber nur in den Versionen 22.04 (Jammy), 24.04 (Noble, verlangt RVA20) und 25.04 (Plucky). Dabei handelt es sich zudem stets nur um Ubuntu Server ohne grafischen Desktop.
Ob Ubuntu 25.10 dann endlich auch GPU-Support für RISC-V-Prozessoren bringt, ist unklar. In mehreren RISC-V-Chips steckt GPU-Technik von Imagination Technologies, die schon seit Jahren an offenen Treibern arbeiten.
Zum Vergleich: Die Fedora-Entwickler wollen erst dann für RVA23-Builds bauen, wenn RVA23-Hardware erhältlich ist. Auch das kürzlich für RISC-V erschienene Debian 13 „Trixie“ verlangt nur RV64GC.
RVA23-Mangelware
Das Profil RVA23 wurde erst im Herbst 2024 ratifiziert, doch schon vorher hatten einige Entwicklerfirmen dazu kompatible RISC-V-Kerne angekündigt, beispielsweise SiFive den P870 in mehreren Varianten.
Es dauert allerdings üblicherweise mehrere Jahre, bis ein als Software-Makro (IP-Core) lieferbarer CPU-Kern in einem fertigen Halbleiterchip auftaucht, der dann zusammen mit weiteren Komponenten etwa auf einem Einplatinencomputer sitzen kann. Bisher ist heise online keine Ankündigung eines System-on-Chip (SoC) mit SiFive P870 bekannt.
Die Marke XuanTie, die über die DAMO Academy zum großen chinesischen Tech-Konzern Alibaba gehört, hat ihren XuanTie C930 mit RVA23 angekündigt. Ein konkreter C930-Chip wurde allerdings noch nicht in Aussicht gestellt. Das ebenfalls chinesische Unternehmen Zhihe Computing baut jedoch nicht näher bezeichnete XuanTie-Kerne in ein SoC namens Archimedes A210 für Edge-Server. Dessen Starttermin ist unklar.
SpacemiT kündigte 2022 den RISC-V-Kern X100 mit RVA22 an, nun kann er RVA23. Er baut auf dem OpenC910 von Alibaba/XuanTie auf.
(Bild: SpacemiT)
Die chinesische Firma SpacemiT (alias Jindie Space-Time/进迭时空) verkauft bereits RISC-V-Chips wie den SpacemiT K1 (alias Ky X1). Darin stecken X60-Kerne, die an den XuanTie C908 erinnern. SpacemiT hat mehrere neue Kerne und Chips angekündigt, nämlich die Kerne X100 (zunächst mit RVA22, jetzt mit RVA23) und X200 (mit RVA23) sowie das Server-SoC VitalStone V100 mit X100-Kernen. Angeblich arbeitet SpacemiT auch an einem K3 mit X100-Kernen, auf der Website des Unternehmens findet sich dazu aber nichts.
Auf der Konferenz Hot Chips wird Condor Computing, ein Ableger der taiwanischen Firma Andes Computing, den RVA23-tauglichen Cuszo vorstellen. Andes selbst offeriert den AndesCore X66.
Insgesamt gibt es derzeit also nur einen einzigen konkret angekündigten RVA23-Chip. Immerhin lassen AndesCore X66, Condor Cuzco, SiFive P870, SpacemiT X100/X200 und XuanTie C930 hoffen.
Der UltraRISC UR-DP1000 auf dem Milk-V Titan soll RVA22 beherrschen.
(Bild: Milk-V)
Als weiteres chinesisches Unternehmen arbeitet UltraRISC an einem neuen RISC-V-SoC namens UR-DP1000, das die Firma Milk-V auf das Mini-ITX-Board Milk-V Titan löten will. Darin stecken UR-CP100-Kerne mit RVA22 und Hypervisor, aber eben ohne RVA23 und Vektoreinheiten. Der UR-DP1000 verzichtet zudem auf eine GPU und bietet nur USB 2.0, allerdings Gigabit-Ethernet und mehrere PCI-Express-Lanes sowie einen Speicher-Controller für wechselbare DDR4-Speichermodule. Ein UEFI-BIOS könnte das Booten unterschiedlicher Linux-Distributionen ohne spezifische Anpassungen erleichtern. Bloß wohl nicht von Ubuntu 25.10.
RVA23-Vorteile
Bisherige Linux-Distributionen für RISC-V nutzen seit mehreren Jahren üblicherweise nur jene Funktionen, die RV64GC beschreibt. SoCs mit dieser Technik entpuppten sich in Benchmarks allerdings meistens als sehr rechenschwach.
RVA23 beschreibt unter anderem Vektor-Rechenwerke (V) sowie eine Hypervisor-Erweiterung (H) für die Virtualisierung. Außerdem müssen RVA23-Kerne auch eine Reihe von Befehlen verarbeiten, die kryptografische Algorithmen beschleunigen.
Die bisher angekündigten RVA23-Designs wirken unabhängig von RVA23 aber auch sonst stärker als ihre Vorgänger. Meistens geht es um Out-of-Order-Architektur mit längeren Rechen-Pipelines und es sollen feinere Fertigungsverfahren zum Einsatz kommen, die größere Caches sowie Taktfrequenzen deutlich über 2 GHz bringen könnten.
(ciw)
Künstliche Intelligenz
iX-Workshop API-Sicherheit: OWASP Top 10 API Security Risks
Application Programming Interfaces (APIs) bilden die Schnittstelle zwischen Clients und Servern – und damit auch eine Angriffsfläche, um in den dahinter verborgenen Code zu gelangen. Erfahren Sie, wie Sie Ihre APIs aktiv gegen die häufigsten Sicherheitsrisiken nach OWASP absichern.
Der Workshop API-Sicherheit: OWASP Top 10 API Security Risks nutzt die OWASP Top 10 Sicherheitsrisiken für APIs als Vermittlungsgrundlage, um Angriffsvektoren und Sicherheitsrisiken zu erkennen und zu beseitigen. Dazu gehören der Umgang mit Authentifizierung und Autorisierung über OAuth 2.0 und Open ID Connect, aber auch Schutzmaßnahmen gegen Injection-Angriffe und Datenlecks.
Simulation in einer Übungsumgebung
Jeder Teilnehmer arbeitet in einer virtuellen Übungsumgebung, um theoretisches Wissen direkt in die Praxis umzusetzen. In kleinen Gruppen simulieren die Teilnehmenden Angriffe auf API-Schnittstellen und lernen, diese effektiv abzuwehren.
Der Workshop richtet sich an alle Personen, die sich mit der Entwicklung von APIs beschäftigen und ihre Kenntnisse im Bereich der Sicherheit erweitern möchten. Vorkenntnisse im Bereich der API-Entwicklung sind von Vorteil, aber nicht zwingend erforderlich. Um eine optimale Lernatmosphäre und individuelle Betreuung zu sichern, ist die Teilnehmerzahl auf 12 Personen begrenzt.
Durch den Workshop führen Lucy Jochum und Robin Kappler von der codecentric AG. Die beiden IT-Security Consultants verfügen über mehrjährige Erfahrung in Web-Penetrationstests und Incident Response.
(ilk)
Künstliche Intelligenz
KI-Update kompakt: unfreundliches GPT-5, Meta, KI-Mutterinstinkte, Krebsvorsorge
OpenAI holt 4o zurück, weil GPT-5 zu unfreundlich ist
OpenAI hat nur wenige Tage nach der Einführung von GPT‑5 auf Nutzerkritik reagiert: Viele empfanden das neue Modell als zu kühl und unfreundlich. Als Reaktion darauf können zahlende Kunden nun wieder auf das Vorgängermodell GPT‑4o zugreifen – ein ungewöhnlicher Schritt, da Unternehmen sonst eher auf neue Versionen drängen. Außerdem können GPT‑5-Nutzerinnen und -Nutzer jetzt zwischen drei Modi wechseln: Auto, Fast und Thinking. Der Auto-Modus hatte zuvor häufig nicht wie gewünscht funktioniert.
OpenAI will zudem an der Persönlichkeit von GPT‑5 arbeiten, um es „wärmer“, aber nicht aufdringlich zu gestalten. Langfristig sollen Nutzer den Charakter ihrer KI stärker selbst anpassen können. Darüber hinaus führt OpenAI neue Konnektoren ein: Plus-Abonnenten können ChatGPT mit Diensten wie Canva, Dropbox oder Microsoft Teams verbinden, Pro-Abonnenten zusätzlich mit GitHub. So kann die KI direkt auf die dort gespeicherten Daten zugreifen, ohne dass Inhalte manuell verschoben werden müssen. Allerdings sind diese neuen Konnektoren vorerst nicht in Europa verfügbar.
Meta arbeitet mit rechtem Influencer, um weniger woke zu sein
Meta hat den rechts-konservativen Influencer Robby Starbuck als Berater engagiert, um den angeblich „woken Bias“ seiner KI-Anwendungen zu verringern. Hintergrund ist ein Erlass von Ex-US-Präsident Donald Trump, der von KI-Unternehmen verlangt, ihre Systeme weniger politisch korrekt zu gestalten. Starbuck hatte Meta zuvor verklagt, weil der KI-Chatbot Meta AI ihn fälschlich mit den Kapitol-Protesten vom 6. Januar in Verbindung gebracht hatte. Laut Wall Street Journal soll seine Verpflichtung Teil einer Einigung sein. Meta und Starbuck betonen, dass Gespräche zwischen beiden Seiten bereits „enorme Fortschritte“ bei Genauigkeit und Abbau ideologischer Voreingenommenheit gebracht hätten.
Gleichzeitig hat Reuters interne Meta-Richtlinien namens „GenAI: Content Risk Standards“ veröffentlicht, die brisante Einblicke geben: Demnach dürfen Metas KI-Chatbots in Facebook, Instagram oder WhatsApp rassistische Aussagen machen, solange sie nicht beleidigend formuliert sind. Auch die Verbreitung falscher medizinischer Informationen ist ausdrücklich erlaubt. Besonders umstritten: Die Richtlinien gestatteten Flirts und romantische Chats mit Minderjährigen, während explizit sexueller Verkehr tabu blieb. Laut Reuters entspricht dies keiner Programmierpanne, sondern war Absicht – Meta bestätigte die Echtheit des Dokuments, entfernte die Passage zu Minderjährigen allerdings nach der Medienanfrage.
KI-Godfather Hinton findet, Maschinen brauchen Mutterinstinkte
Der oft als „Godfather of AI“ bezeichnete Geoffrey Hinton hat auf der Ai4-Konferenz in Las Vegas eine unkonventionelle Überlebensstrategie im Umgang mit Künstlicher Intelligenz vorgestellt. Anstatt – wie im Tech-Sektor üblich – Maschinen dauerhaft unter Kontrolle zu halten, plädiert der KI-Pionier Hinton dafür, ihnen „mütterliche Instinkte“ zu verleihen. Superintelligente KI solle Menschen wie Babys betrachten, die sie beschützt und versorgt, auch wenn sie selbst intelligenter ist. Nur so könne verhindert werden, dass KI sich gegen uns wendet, wenn sie uns übertrifft. Hinton sieht darin den einzigen möglichen globalen Konsens, da kein Land wollen könne, dass Maschinen die Kontrolle übernehmen.
Hinton, der über zehn Jahre bei Google arbeitete und seit seinem Weggang offen vor den Gefahren von KI warnt, formulierte die Alternative drastisch: Entweder KI „bemuttert“ uns – oder sie ersetzt uns. Um die Dringlichkeit zu verdeutlichen, verglich er den aktuellen Stand der KI mit einem niedlichen Tigerjungen, bei dem man sicherstellen müsse, dass er einen als Erwachsener nicht töten will. Besonders besorgt zeigen ihn die Fortschritte bei KI-Agenten, die nicht nur Antworten geben, sondern selbstständig handeln können. Diese Entwicklung mache die Lage heute kritischer als je zuvor.
xAI-Mitgründer verlässt Musk und gründet KI-Sicherheitsfonds
xAI-Mitgründer Igor Babuschkin hat seinen Rücktritt als Mitgründer von Elon Musks KI-Startup bekanntgegeben. Er verlässt das Unternehmen, um einen eigenen Risikokapitalfonds namens Babuschkin Ventures zu starten. Der Fonds soll Start-ups unterstützen, die an KI-Sicherheit und agentischen Systemen arbeiten. Ein Gespräch mit Max Tegmark habe seine Entscheidung geprägt. Tegmark ist Gründer des Future of Life Institute und einer der zentralen Forscher im Bereich KI-Sicherheit. Er ist einer der Initiatoren des offenen Briefs, der kurz nach der Veröffentlichung von GPT-4 zu einer Pause im KI-Training aufrief. Das Gespräch mit Tegmark habe Babuschkin die Verantwortung bei der KI-Entwicklung vor Augen geführt.
Babuschkins Abgang erfolgt in einem schwierigen Moment für xAI. Der firmeneigene Chatbot Grok sorgte in den vergangenen Monaten mehrfach für Kontroversen. Babuschkin stellt allerdings keinen direkten Zusammenhang zwischen seinem Rücktritt und den Skandalen her. Der zeitliche Kontext deutet jedoch auf mögliche interne Spannungen hin. Bei xAI war Babuschkin für Engineering, Infrastruktur und angewandte KI-Projekte verantwortlich. Er entwickelte viele der frühen Tools für Trainingsprozesse. Vor der Gründung von xAI arbeitete Babuschkin bei OpenAI und DeepMind.
Gemini erinnert sich an vergangene Chatbot-Gespräche
Google aktualisiert sein KI-Modell Gemini mit einem automatisch aktivierten Gedächtnis. Nachdem Nutzerinnen und Nutzer dem Chatbot zuvor noch signalisieren mussten, was sich dieser merken soll, wird das jetzt nicht mehr notwendig sein. Gemini erinnert sich von selbst an vergangene Konversationen. Das kann in vielen Fällen nützlich sein, wenn es etwa um Empfehlungen geht, die zur Person passen sollen. Denn dann kann die KI Tipps auf Basis von individuellen Vorlieben geben, die aus vergangenen Konversationen hervorgehen. Das Gedächtnis Geminis wird automatisch aktiviert, kann aber in den Einstellungen der Gemini-App deaktiviert werden, wenn man seine Daten nicht preisgeben will. Parallel führt Google temporäre Chats ein, die für lediglich 72 Stunden gespeichert und explizit nicht für das KI-Training verwendet werden. Damit sollen sich „private Fragen“ praktisch geheim klären lassen.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Ärzte verlieren durch KI schnell Fähigkeiten zur Krebsfrüherkennung
Eine polnische Studie hat gezeigt, dass Ärztinnen und Ärzte bei Darmspiegelungen (Koloskopien) deutlich an diagnostischer Treffsicherheit verlieren, wenn sie zuvor einige Monate lang mit KI-Unterstützung gearbeitet haben. Untersucht wurde, wie gut Fachkräfte frühe Krebsanzeichen ohne KI erkannten – einmal vor und einmal nach einer mehrmonatigen Phase mit KI-Hilfe. Das Ergebnis: Nach dem Wegfall der KI sank die Erkennungsrate um rund 30 Prozent, was auf eine starke Abhängigkeit von der Technologie hindeutet.
Die Studienautoren vermuten, dass dieses „Deskilling“ – also der Verlust wichtiger Fähigkeiten – schneller einsetzen kann, als bislang angenommen, und die Rückkehr zum ursprünglichen Leistungsniveau schwierig ist. Ob dieser Effekt nur Koloskopien betrifft oder auch andere medizinische Verfahren, müsse weiter erforscht werden. Ziel der Untersuchung war nicht, den Nutzen der KI während der Anwendung zu messen, sondern zu prüfen, ob ihre Nutzung die eigenen diagnostischen Kompetenzen langfristig schwächen kann.
HTC bringt KI-Brille mit GPT und Gemini
Der frühere VR-Pionier HTC hat die smarte Brille VIVE Eagle vorgestellt. Das Gerät wiegt weniger als 49 Gramm und arbeitet mit OpenAI GPT-Modellen sowie Google Gemini. HTC macht keine genaueren Angaben zu den verwendeten Modellversionen. Die Brille verfügt über integrierte Lautsprecher, eine 12-Megapixel-Weitwinkelkamera und einen KI-Sprachassistenten. HTC betont den Datenschutz: Alle Daten bleiben lokal auf dem Gerät, Anfragen an Drittanbieter-KIs werden anonymisiert. Eine LED zeigt aktive Aufnahmen an. Wird die Brille abgesetzt oder verdeckt, stoppt die Aufnahme automatisch.
HTC tritt damit gegen Meta an. Die beiden Unternehmen lieferten sich bereits bei VR-Brillen einen harten Konkurrenzkampf. Meta bietet mit den Ray-Ban Meta Smart Glasses ähnliche Funktionen wie Übersetzungen und KI-Integration. Beim Datenschutz könnte HTC punkten: Meta speichert neuerdings Sprachaufzeichnungen seiner Brillen standardmäßig für KI-Training, ohne Abschaltmöglichkeit. Die VIVE Eagle kostet umgerechnet etwa 520 US-Dollar und ist in vier Farben mit Zeiss-Sonnenlinsen erhältlich. Aktuell gibt es sie nur in Taiwan. Noch ist nicht bekannt, ob und wann die Brille in anderen Ländern erscheint.
Neuer KI-Gegenleser in Googles Jules prüft generierten Code
Google hat für seinen KI-Assistenten für die Softwareentwicklung Jules einen neuen Modus eingeführt: Die sogenannte Critic-Augmented Generation übergibt alle Änderungsvorschläge zunächst an einen in Jules integrierten Kritiker, der sie gründlich überprüft. Der Kritiker führt also ein Peer Review durch und konzentriert sich dabei auf gute Codequalität. Google hatte Jules im Rahmen der diesjährigen Google I/O im Mai vorgestellt. Der KI-Agent macht keine Codevorschläge innerhalb des Editors wie Cursor, sondern untersucht Projekte, um Bugs aufzuspüren, Tests zu erstellen oder neue Features zu integrieren.
US-Firmen setzen wieder auf persönliche Vorstellungsgespräche
Wegen der zunehmenden Verbreitung von KI-Technik im Einstellungsprozess verlangen Cisco, Google und andere US-Konzerne wieder häufiger, dass Bewerberinnen und Bewerber sich persönlich vor Ort vorstellen. Das berichtet das Wall Street Journal und zitiert den Chef einer Recruiting-Firma aus der IT-Branche mit der Schätzung, dass inzwischen wieder jeder dritte Firmenkunde solche persönlichen Vorstellungsgespräche einfordert. Im Vorjahr hätten das nur etwa 5 Prozent der Kundschaft getan. Grund dafür ist die Befürchtung, dass Jobsuchende im Bewerbungsprozess mit KI-Hilfe betrügen.
Die größten Probleme bereiten Vorstellungsgespräche für Stellen im Software-Engineering und für Programmieraufgaben. Im Bewerbungsgespräch per Videoschalte sei es ziemlich einfach, zu betrügen und nicht die eigenen Fähigkeiten zu zeigen, sondern die Lösung von Testaufgaben an eine KI zu delegieren. Die US-Zeitung bezeichnet die Rückkehr zu persönlichen Vorstellungsgesprächen nun als jüngste Wendung in einem regelrechten Kampf, bei dem beide Seiten auf KI setzen. So würden Firmen angesichts einer Flut von Bewerbungen auf KI setzen, um die Anfragen vorzusortieren. Bewerber und Bewerberinnen wiederum würden KI-Technik benutzen, um sich auf so viele Stellen wie möglich zu bewerben.
(igr)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen