Künstliche Intelligenz
Unternehmen setzen KI ein und laufen bei der Governance hinterher
Wenn es um Governance und Souveränität beim KI-Einsatz geht, hapert es laut einer Studie des Open-Source-Anbieters Red Hat noch in deutschen Unternehmen. Demnach hätten nur 57 Prozent der befragten Firmen eine Exit-Strategie für den Fall, dass ihr primärer KI-Anbieter den Zugang beschränkt. 37 Prozent gaben an, dass ein Wechsel moderate bis erhebliche Auswirkungen auf die Geschäftskontinuität hätte.
Weiterlesen nach der Anzeige
Auch bei der Steuerung des KI-Einsatzes deutet die Studie auf Defizite: Lediglich 30 Prozent der befragten deutschen Firmen gaben an, über ausgereifte Governance-Strukturen für KI-Agenten zu verfügen. Weitere 29 Prozent sprachen von lückenhaften Regelwerken, 27 Prozent erklärten, nur grundlegende Aspekte abzudecken. „Die Ergebnisse zeigen eine deutliche Kluft. KI ist in den Unternehmen angekommen, aber Kontrolle und Steuerbarkeit halten nicht im gleichen Tempo Schritt“, kommentierte Red Hats Deutschlandchef Gregor von Jagow die Studie.
Mehrheit hat Transparenz bei Daten
Das Wissen, was beim KI-Einsatz mit den Daten passiert, gewinnt natürlich auch an Bedeutung. 51 Prozent schreiben sich dabei zu, vollständig nachvollziehen zu können, wo ihre Daten gespeichert und verarbeitet werden sowie potenziell zugänglich sind. 46 Prozent gaben zu, keinen vollständigen Überblick zu haben, und 3 Prozent räumten erhebliche Lücken ein. Mit 97 Prozent vollständiger oder zumindest teilweiser Transparenz erreichten deutsche Unternehmen laut Red Hat einen starken Wert im europäischen Vergleich. Italien und die Niederlande kamen demnach auf 90 Prozent.
Open-Source-Ansätze könnten aus Sicht von über zwei Drittel der Befragten (69 Prozent) dabei helfen, Transparenz und Steuerung bei KI zu verbessern. Sie erwarten von offenen Technologien in den nächsten drei Jahren vor allem mehr Vertrauen durch Kontrolle über Entwicklung und Betrieb (69 Prozent), bessere Anpassbarkeit an geschäftliche und regulatorische Anforderungen (68 Prozent) sowie erhöhte Transparenz und Prüfbarkeit (68 Prozent). Zudem zeigten sich 72 Prozent offen dafür, dass der Gesetzgeber Open-Source-Prinzipien wie Transparenz, Prüfbarkeit und Lizenzmodelle vorgibt, um KI-Souveränität zu fördern.
Für die Untersuchung befragte das Marktforschungsunternehmen Censuswide im Auftrag von Red Hat insgesamt 500 IT-Entscheider aus fünf europäischen Ländern, darunter je 100 aus Deutschland, Frankreich, Großbritannien, Italien und den Niederlanden. Wie andere US-Techfirmen auch hat der zu IBM gehörige Linuxspezialist Red Hat Angebote vorgelegt, die sich europäische Souveränität auf die Fahnen schreiben: So stellte das Unternehmen im November souveränen Support für die EU vor. Im Februar folgte ein Tool, das Unternehmen helfen soll, ihre eigene digitale Souveränität einzuschätzen.
(axk)
Künstliche Intelligenz
OpenAI stellt GPT-Rosalind vor: KI-Modell speziell für Biologieforschung
OpenAI hat ein neues KI-Modell speziell für die Lebenswissenschaften angekündigt. GPT-Rosalind – benannt nach der DNA-Forscherin Rosalind Franklin – ist auf Biologie, Wirkstoffentdeckung und translationale Medizin zugeschnitten, also der Umsetzung von Forschungsergebnissen in der Gesundheitsversorgung. Das Frontier-Reasoning-Modell soll Forschern bei der Evidenzsynthese, Hypothesengenerierung und Experimentplanung helfen und damit frühe Phasen der Medikamentenentwicklung beschleunigen, die in den USA typischerweise zehn bis 15 Jahre dauern.
Weiterlesen nach der Anzeige
Wie OpenAI in seinem Blog erläutert, versteht GPT-Rosalind vertiefte Zusammenhänge in Chemie, Protein-Engineering und Genomik. Zudem kann das Modell über ein neues Life-Sciences-Plug-in für Codex auf mehr als 50 wissenschaftliche Tools und Datenquellen zugreifen. Damit reiht es sich in die Strategie ein, nach GPT-5.4-Cyber für die IT-Sicherheit nun auch andere Fachdomänen mit spezialisierten Modellen zu bedienen.
Benchmarks zeigen Verbesserungen
In internen Tests übertrifft GPT-Rosalind laut OpenAI seine Vorgängermodelle GPT-5, GPT-5.2 und GPT-5.4 in Bereichen wie Chemie, Protein-Biochemie, Phylogenetik und Tool-Nutzung. Im Bioinformatik-Benchmark BixBench erreicht es eine Pass-Rate von 0,751 – den höchsten Wert unter den verfügbaren Modellen. Bei LABBench2, einem Benchmark für Literaturrecherche und Protokolldesign, schneidet es in sechs von elf Aufgaben besser ab als GPT-5.4. In einer Zusammenarbeit mit Dyno Therapeutics landeten die Top-10-Vorhersagen des Modells bei der RNA-Sequenz-Prädiktion im 95. Perzentil verglichen mit menschlichen Experten.
OpenAI betont, das Modell gezielt auf Skepsis getunt zu haben, um Halluzinationen und Überkonfidenz zu reduzieren. Die generierten Ergebnisse sollen Forscher ausdrücklich als vorläufig behandeln und eigenständig validieren. Rollenbasierte Zugriffskontrollen und ein „Trusted Access Program“ regeln, wer das Modell nutzen darf – derzeit beschränkt sich der Zugang auf qualifizierte US-Enterprise-Kunden.
Zu den ersten Partnern gehören Amgen, Moderna, das Allen Institute und Thermo Fisher Scientific. OpenAI kündigt GPT-Rosalind als erstes Modell in einer Serie an: Künftige Versionen sollen langfristige, werkzeugintensive Forschungsworkflows noch besser unterstützen. Ob die quantifizierbaren Benchmark-Verbesserungen sich tatsächlich in kürzere Entwicklungszeiten für Medikamente übersetzen lassen, muss die Praxis zeigen.
Konkurrenz im wachsenden Markt
Weiterlesen nach der Anzeige
GPT-Rosalind tritt in einen zunehmend umkämpften Markt ein. Anthropic bietet mit Claude for Life Sciences ein vergleichbares Produkt an, während Google DeepMinds AlphaFold sich auf Proteinfaltung spezialisiert hat. Im deutschsprachigen Raum arbeitet das Start-up Puraite an erklärbarer KI für die Evidenzsynthese – ein Prozess, der manuell sechs Monate bis zwei Jahre dauern kann. Im Unterschied zu diesen Ansätzen positioniert sich OpenAI als Anbieter eines breit einsetzbaren Modells für ganze Forschungsworkflows, von der Sequenzanalyse bis zur Target-Priorisierung.
Allerdings bleibt GPT-Rosalind ein Closed-Access-Modell: Gewichte, detaillierte Fehleranalysen und interne Reasoning-Schritte legt OpenAI nicht offen. Forscher können zwar über die integrierten Datenbanken und Tools nachvollziehen, welche externen Quellen in die Ergebnisse einfließen, das Modell selbst bleibt jedoch geschlossen.
Lesen Sie auch
(vza)
Künstliche Intelligenz
DeepL wird zum Echtzeit-Übersetzer | heise online
Das Kölner Unternehmen für KI-Sprachtechnologie DeepL hat am Donnerstag „die nächste Generation seiner Übersetzungsplattform“ eingeführt. Die neue Produktreihe „DeepL Voice-to-Voice“ ist unter anderem als Alternative zu Googles Angebot zu verstehen, da DeepLs neues Angebot ebenso Sprache-zu-Sprache-Übersetzung in Echtzeit ermöglicht. Es soll sowohl in virtuellen Meetings, persönlichen Gesprächen als auch in „kundenorientierten Touchpoints via API“ eingesetzt werden können. Damit sollen Teams weltweit „mühelos über Sprachbarrieren hinweg zusammenarbeiten“, so das Unternehmen.
Weiterlesen nach der Anzeige
Voice-to-Voice
Mit DeepL Voice-to-Voice sollen Nutzerinnen und Nutzer natürlich in der eigenen Sprache sprechen, während das Gesagte beim Empfänger präzise übersetzt werden soll. „Wir vereinen erstklassige Sprachmodelle mit unserer bewährten KI-Übersetzungstechnologie, die wir kontinuierlich weiterentwickeln“, sagt DeepL-CEO Jarek Kutylowski.
Die neue Echtzeit-Übersetzungsplattform umfasst DeepL zufolge fünf Produkte:
- Voice for Meetings: Ermöglicht Echtzeit-Übersetzung auf Plattformen wie Microsoft Teams und Zoom. Das Early-Access-Programm starte im Juni, während die Registrierung ab sofort möglich sei.
- Ab sofort ist die Funktion Voice for Conversations verfügbar. Auf sie kann sowohl über Mobilgeräte als auch im Web zugegriffen werden. Sie könne dort eingesetzt werden, wo die „Installation von Apps nicht praktikabel oder unzulässig ist“, heißt es.
- Das Feature Gruppenkonversationen soll derweil den mehrsprachigen Austausch in Trainings, Coachings und Workshops erleichtern. Teilnehmerinnen und Teilnehmer erhalten einen QR-Code, über den sie direkt beitreten können. Mithilfe eines „Multi-Device-Zugangs können Teilnehmer gleichzeitig Sprachübersetzungen in Echtzeit empfangen“. Die Funktion soll ab dem 30. April verfügbar sein.
- Mittels einer Voice-to-Voice API können Unternehmen die DeepL-Sprachübersetzung direkt in eigene interne Anwendungen und kundenorientierte Tools integrieren. Ein Startdatum nennt das Unternehmen nicht, interessierte Unternehmen können sich aber schon registrieren.
- Zudem bietet DeepL Optimierungsfunktionen an, „mit denen auch spezifische Terminologie wie Branchenbegriffe, Produktnamen oder Eigennamen auch bei schneller oder technischer Sprache präzise erfasst und übersetzt werden“. Dieses Feature soll ab dem 7. Mai bereitstehen.
40 Sprachen
Zum Start des Angebots unterstützt DeepL Voice alle 24 offiziellen EU-Sprachen sowie Vietnamesisch, Thailändisch, Arabisch, Norwegisch, Hebräisch, Bengalisch und Tagalog. Laut unabhängigen Blindtests von Slator bevorzugten 96 Prozent der Linguisten DeepL Voice gegenüber den nativen Übersetzungslösungen von Google, Microsoft und Zoom. Insgesamt deckt DeepL Voice damit über 40 Sprachen ab, so das Unternehmen.
Weiterlesen nach der Anzeige
Gegenüber TechCrunch sagte Kutylowski, dass die KI das Kundenservice-Erlebnis der kommenden Jahre grundlegend verändern werde. Weiter erklärte er, dass eine „Übersetzungs-Ebene“ (“translation layer“) Unternehmen dabei helfe, Support in Sprachen anzubieten, in denen qualifiziertes Personal rar und teuer einzustellen sei.
Zuletzt hatte DeepL im September 2025 einen KI-Agenten vorgestellt, der Unternehmen in verschiedenen Bereichen unterstützen soll. Als potenzielle Einsatzgebiete nannte das Unternehmen die Bereiche Finanzen, Vertrieb, Marketing, Kundensupport und Lokalisierung. Als Beispiel nannte DeepL Erkenntnisse eines Vertriebsteams zusammenfassen, aber auch Rechnungen in der Finanzabteilung automatisieren. Zudem prüfe das Unternehmen offenbar den Gang an die Börse.
Lesen Sie auch
Siehe auch:
- DeepL: Download schnell und sicher von heise.de
(afl)
Künstliche Intelligenz
Google Photos & Nano Banana 2: KI-Bilder mit nahestehenden Personen
Weniger erklären, mehr gestalten: Google bringt seinen Photos-Dienst und das generative KI-Modell Nano Banana 2 näher zusammen, damit Nutzer einfacher Bilder generieren können, in denen ihnen nahestehende Personen und Objekte auftauchen. Die Funktion setzt allerdings voraus, dass der Nutzer Google über eine Funktion namens Personal Intelligence erlaubt, auf die persönliche Fotosammlung zuzugreifen.
Weiterlesen nach der Anzeige
Nano Banana 2 ist Googles Bildgenerierungsmodell für die Gemini-Familie und erschien im Februar 2026. Beim Start der ersten Version des Bild-KI-Modells war Nano Banana ein großer Erfolg: Nutzer luden massenhaft Fotos hoch, um digitale Miniaturfiguren auf Basis eigener Fotos zu erstellen.
Googles Vorteil gegenüber dem Wettbewerb
Was Datenschützer aufhorchen lassen dürfte, soll nach Darstellung Googles einen häufigen Anwendungsfall deutlich vereinfachen. Zugleich soll es die Gemini-App stärker auf den Nutzer zuschneiden – anstatt ein generisches Werkzeug für alle zu sein. Google hat hier den großen Vorteil, dass viele Nutzer die dafür nötigen Daten mit ihren Fotos sowieso schon bei Google hochgeladen haben. Das Unternehmen arbeitet zudem an einer Gemini-App für macOS, die Bildschirminhalte analysieren kann, um zur Konkurrenz aufzuschließen. Europäer müssen sich vorerst keine Gedanken darüber machen, ob sie die Opt-in-Funktion nutzen wollen: Hier ist die Personal Intelligence gegenwärtig noch nicht verfügbar.
Bislang müssen Nutzer jeweils in ihren Prompts ausführliche Beschreibungen formulieren und Referenzbilder manuell hochladen, wenn sie zum Beispiel Familienmitglieder in KI-Bildern darstellen wollen. Die KI soll aus der persönlichen Fotosammlung aber sogar zu Prompts wie „Gestalte mein Traumhaus“ eine passgenaue Antwort finden.
Keine Verwendung fürs Modelltraining
Die Personal Intelligence soll anhand vergebener Tags und Personenmarkierungen erkennen, wer welche Person in der Fotosammlung ist. Auf diese Weise könnten Vorlagen für Familienmitglieder und Haustiere gefunden werden. Wenn das Ergebnis dennoch nicht gefällt, habe der Nutzer die Möglichkeit, per Texteingabe Korrekturen vorzunehmen oder alternative Referenzbilder auszuwählen. Wer sich fragt, warum genau die KI zum Beispiel eine Person auf eine bestimmte Weise darstellt, kann sich auch die von der KI gewählten Quellen anzeigen lassen.
Weiterlesen nach der Anzeige
Google betont, dass die privaten Google-Photos-Bilder nicht direkt zum Modelltraining verwendet werden sollen. Aktuell wird die Funktion erstmal nur für Abonnenten von Google AI Plus, Pro und Ultra in den USA bereitgestellt. Sie soll später auch für weitere Nutzergruppen freigegeben werden. Die im Januar 2026 eingeführte Personal Intelligence geht noch über die Verknüpfung mit Fotos hinaus: Sie verbindet Gemini wahlweise auch mit Gmail, Google Calendar, Drive, YouTube, Search, Maps und weiteren Google-Apps.
Lesen Sie auch
(mki)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
