Künstliche Intelligenz
Digitale Souveränität: ZB MED startet Fundraising für PubMed-Alternative
Der Streit über unabhängige Forschungsdaten geht in die nächste Runde. Die Bundesregierung hat zwar 30 Millionen Euro in Aussicht gestellt. Doch dieses Geld scheint in den bürokratischen Mühlen oder bei anderen Projekten hängenzubleiben. Für den Aufbau der Open Life Science Publication Database (OLSPub) steht die Deutsche Zentralbibliothek für Medizin (ZB MED) derzeit mit leeren Händen da: eine beantragte Förderung kam nicht zustande. Das zwingt das Kölner Institut zu einem für die Wissenschaft ungewöhnlichen Schritt: Eine groß angelegte Fundraising-Kampagne soll die benötigten 2 Millionen Euro einsammeln, um die europäische Antwort auf den US-Informationsmonopolisten PubMed zu realisieren.
Weiterlesen nach der Anzeige
Aktuell hängen die europäische Forschung, die klinische Versorgung und die medizinische Innovation in hohem Maße von US-finanzierten Diensten ab. Zwar existieren in Europa Spiegelungen der PubMed-Daten. Doch dabei handelt es sich lediglich um technische Kopien, die am seidenen Faden der transatlantischen Verfügbarkeit hängen. Sollte sich der politische Wind in Washington drehen oder sollten wirtschaftliche Interessen den freien Zugang einschränken, stünden europäische Wissenschaftler plötzlich ohne ihre zentralen Informationsquellen da. Für die medizinische Versorgung wäre das eine kritische Lücke, die im schlimmsten Fall Menschenleben kosten könnte.
Rückgrat für humane Medizin
OLSPub soll hier als redundanter Rettungsanker fungieren. Es geht um den Aufbau einer eigenständigen, gemeinwohlorientierten Publikationsdatenbank für die Lebenswissenschaften. Anders als bisherige Systeme soll OLSPub Metadaten und Abstracts direkt bei den Verlagen erheben und so eine echte Unabhängigkeit von der US-Infrastruktur gewährleisten. Damit würde medizinisches Wissen dauerhaft als öffentliches Gut gesichert. Weiteres Anliegen der ZB MED: Nur durch verlässliche, qualitätsgesicherte und politisch unabhängige Datenquellen lasse sich sicherstellen, dass KI-Modelle in der Medizin nicht auf verzerrten oder plötzlich gelöschten Datensätzen basierten.
Dietrich Grönemeyer unterstreicht als prominenter Unterstützer die Dringlichkeit des Vorhabens. Der Mikrotherapeut sieht in OLSPub ein unverzichtbares Rückgrat für eine humane Medizin in Europa. Das aktuelle Finanzierungsvorhaben ist in drei Phasen unterteilt. Es zielt darauf ab, gemeinsam mit der Fach-Community und den Verlagen eine unabhängige europäische Regulierungsstruktur für das Projekt zu etablieren.
(nie)
Künstliche Intelligenz
Google macht seine KI-Funktion „Search Live“ weltweit verfügbar
Google erweitert den Zugang zu seiner KI-Funktion „Search Live“, mit der Nutzerinnen und Nutzer per Sprache und der Kamera interaktiv nach Informationen suchen können. Der KI-Suchassistent steht laut Google nun in mehr als 200 Ländern und Regionen sowie in Dutzenden Sprachen zur Nutzung bereit. Die Funktion wird sowohl für Android als auch iOS angeboten.
Weiterlesen nach der Anzeige
Das Unternehmen hatte die „Search Live“-Funktion schon im vergangenen Juni in den USA eingeführt und später um die Kamerafunktion ergänzt. Damit können Nutzer etwa die Smartphonekamera auf ein Objekt richten und die KI nach Informationen fragen – etwa wie man ein Regal aufbaut oder andere Dinge. Googles KI-Assistent Gemini gibt darauf eine gesprochene Antwort sowie Links zu weiterführenden Informationen aus.
Wohl künftig auch für Smart-Glasses
Die neue Funktion ist Teil des AI-Modes in der Google-App. Sie basiert laut Google auf dem neuen Audio- und Sprachmodell Gemini 3.1 Flash Live, das mehrsprachig ist und natürlichere Gespräche ermöglichen soll. Das neue Modell zeichnet sich dem Unternehmen zudem durch eine verbesserte Reaktionsgeschwindigkeit aus und ermöglicht laut Google „natürlichere und intuitivere Gespräche“. Der Zugriff ist auch über Google Lens möglich.
Mit dieser Funktion baut Google seine KI-gestützte Suche deutlich aus und positioniert sie stärker als sprachbasierten Echtzeit-Assistenten. Die Funktion hatte Google schon im Zuge der Entwicklerkonferenz I/O im Mai 2025 präsentiert und dürfte nicht nur für Smartphones bestimmt sein, sondern auch für die in Entwicklung befindlichen Smart-Glasses auf Basis von Android XR, die im Laufe dieses Jahres erscheinen sollen.
Echtzeitübersetzung für iOS
Neben der globalen Bereitstellung der Search-Live-Funktion hat Google zudem angekündigt, die Echtzeit-Übersetzungsfunktion von Google Translate (Übersetzer) auch für iOS einzuführen. Damit können Nutzerinnen und Nutzer von iPhones die App verwenden, um Sprache in Echtzeit aufzunehmen und die Übersetzung über ihre Kopfhörer zu hören. Die Funktion steht laut Googles Ankündigung nun in Deutschland, Spanien, Frankreich, Italien, Großbritannien, Japan und Thailand zur Verfügung.
Weiterlesen nach der Anzeige
Apple hatte eine ähnliche Funktion mit iOS 26 eingeführt. Sie kann zusammen mit aktuellen AirPods-Modellen verwendet werden.
Lesen Sie auch
(afl)
Künstliche Intelligenz
IntelliJ IDEA 2026.1: Kostenfreier Basis-Support für JavaScript und TypeScript
JetBrains hat IntelliJ IDEA 2026.1 veröffentlicht, die erste Hauptversion der Entwicklungsumgebung in diesem Jahr. Für die Verwendung von KI-Agenten gibt es ebenso Neuerungen wie für die Programmiersprachen Java und Kotlin. Der Support für JavaScript und TypeScript ist nun teilweise kostenfrei.
Weiterlesen nach der Anzeige
Die vor allem auf Java und Kotlin ausgelegte IDE IntelliJ IDEA kann mit dem neuesten Release Java 26 umgehen. Diese Sprachversion ließ sich bereits mit dem Minor Update IntelliJ IDEA 2025.3.4 verwenden, das am 17. März pünktlich zum Release erschien. Java 26 bietet unter anderem die zweite Preview für Lazy Constants. Kotlin lässt sich nun in Version 2.3.20 nutzen, mit neuen experimentellen Features.
JavaScript- und TypeScript-Support kostenfrei – mit Einschränkungen
Auch ohne Ultimate-Abo ist nun die Verwendung der Kernfunktionen von IntelliJ IDEA für JavaScript, TypeScript, HTML, CSS und React möglich. Für erweiterte Produktivitätsfeatures – etwa dedizierte Debugger, Test Runner oder vollen Support für alle Frontend-Frameworks wie Angular oder Vue – ist das Ultimate-Abo jedoch weiterhin notwendig. Laut dem Hersteller ist IntelliJ IDEA nun für große TypeScript-Projekte außerdem performanter.
(Bild: Stone Story / stock.adobe.com)

Webanwendungen mit KI anreichern, sodass sie wirklich besser werden? Der Online-Thementag enterJS Integrate AI am 28. April 2026 zeigt, wie das geht. Frühbuchertickets und Gruppenrabatte sind im Online-Ticketshop verfügbar.
Anbindung an weitere KI-Agenten
Das neue Release besitzt integrierten Support für mehr KI-Agenten als bisher, darunter Codex, Cursor und jeden beliebigen mit dem Agent-Client-Protokoll (ACP) kompatiblen Agenten. Ende Januar hatten JetBrains und Zed die ACP Registry vorgestellt, eine kuratierte Sammlung solcher KI-Agenten. Im neuen Release können KI-Agenten Datenquellen nativ modifizieren sowie abfragen und lassen sich darüber hinaus dazu einsetzen, mit Git-Worktrees parallel in mehreren Branches zu arbeiten.
Alle Details zu IntelliJ IDEA 2026.1 bieten der JetBrains-Blogeintrag zur Ankündigung und die „What’s New“-Seite.
Weiterlesen nach der Anzeige
Version 2026.1 für WebStorm, PyCharm und mehr
Nicht nur IntelliJ IDEA, sondern auch die anderen Entwicklungsumgebungen und Tools von JetBrains erhalten das neue Release. Zahlreiche wurden bereits damit ausgestattet, darunter WebStorm, PhpStorm und PyCharm. Wie in IntelliJ IDEA ist in PyCharm jetzt ebenfalls Support für JavaScript und TypeScript teilweise außerhalb des Pro-Abonnements verfügbar.
Lesen Sie auch
(mai)
Künstliche Intelligenz
Android 17 Beta 3: App-Bubbles, getrennte WLAN-Kacheln und mehr
Google hat am Donnerstagabend unserer Zeit die dritte Beta von Android 17 für Pixel-Geräte veröffentlicht. Einige der Neuerungen hatte der Hersteller bereits in der experimentellen Android-Canary-Version vom März integriert. Zudem hat Android 17 mit der Beta 3 Plattformstabilität erreicht. Das ist ein wichtiger Meilenstein für die Entwicklung, da damit die finalen SDK/NDK-APIs bereitstehen. Das bedeutet, dass Entwickler ab diesem Zeitpunkt ihre Apps auf SDK 37 abzielen lassen und im Google Play Store veröffentlichen können.
Weiterlesen nach der Anzeige
Bubbles
Mit Android 17 Beta 3 ziehen die App-Bubbles ein, die Google zuvor im Canary-Channel auf Entwickler losgelassen hatte. Jede App lässt sich nun als Bubble (Blase) in einem schwebenden Fenster öffnen. Ein Langdruck auf eine App öffnet ein überarbeitetes Kontextmenü, in dem man die neue Funktion findet.

Android 17 erhält „App-Bubbles“.
(Bild: Andreas Floemer / heise medien)
Die „Bubble“ lässt sich an eine beliebige Stelle auf dem Bildschirm verschieben, sie bewegt sich jedoch stets automatisch an den Bildschirmrand, um nicht im Weg zu sein. Um die Bubble zu schließen, bewegt man sie einfach in den unteren Bildschirmbereich, wo ein großes „X“ erscheint. Zudem findet man in der linken unteren Ecke das Feld verwalten – ein Tipp darauf öffnet einen Dialog, mit dem man die Blase schließen kann. Es lassen sich außerdem mehrere App-Blasen gleichzeitig nutzen.
Diese Funktion ist auf Smartphones, Faltgeräten und Tablets verfügbar. Auf Geräten mit größerem Bildschirm, wie Foldables und Tablets, können Nutzerinnen und Nutzer auch lange auf ein App-Symbol in der Taskleiste drücken und das Symbol dann per Drag-and-Drop in eine untere Ecke ziehen.
Getrennte WLAN- und Mobilfunk-Kacheln
Weiterlesen nach der Anzeige
Google vollführt mit der Beta 3 in den Schnelleinstellungen eine Kehrtwende und bringt separate Kacheln für WLAN- und Mobilfunkempfang zurück. Google hatte mit Android 12 eine einzige „Internet“-Kachel für beide Konnektivitäts-Optionen in die Schnelleinstellungen integriert, sodass es umständlicher war, eine der beiden Funktionen abzuschalten.

Android 17: WLAN und mobile Daten sind in den Schnelleinstellungen wieder getrennt.
(Bild: Andreas Floemer / heise medien)
Zudem verfügen die beiden Kacheln über zwei verschiedene Berührungsbereiche: Durch Antippen des Symbols wird die jeweilige Funktion ein- oder ausgeschaltet, während durch Antippen des jeweiligen Textfelds die vollständige Bedienoberfläche geöffnet wird. Diese Änderung reduziert die Anzahl der erforderlichen Eingaben zum Ein- und Ausschalten von WLAN und mobilen Daten, während der Zugriff auf das vollständige Internet-Bedienfeld weiterhin erhalten bleibt.
Screenrecorder und Location
Überarbeitet hat Google außerdem die Bildschirmaufzeichnung, sie verfügt nun über eine verbesserte Bedienoberfläche und neue Funktionen. Wenn man in den Schnelleinstellungen auf die Kachel für die Bildschirmaufzeichnungsfunktion tippt, erscheint nun eine schwebende Symbolleiste, über die Nutzer einfacher auf die Aufzeichnungssteuerung und die Aufnahmeeinstellungen zugreifen können. Beendet man die Aufzeichnung, lässt sich das Video sofort ansehen, bearbeiten, löschen oder direkt teilen.

(Bild: Google)
Android 17 Beta 3 erhält zudem eine neue Standort-Schaltfläche für mehr Datenschutz, mit der Nutzer Apps Zugriff auf ihren genauen Standort gewähren können. Das Update enthält ein vom System gerendertes Standort-Bedienfeld, das Apps mithilfe einer Jetpack-Bibliothek direkt in ihr Layout einbinden können. Wenn ein Nutzer auf die neue Schaltfläche tippt, erhält die App nur für die aktuelle Sitzung Zugriff auf den genauen Standort. Bei weiteren Klicks während der Nutzung der App wird die Berechtigung sofort und ohne Systemdialog erteilt. Für Entwickler und Interessierte erklärt Google die neue Funktion in einem Blogbeitrag.
Assistant-Lautstärke und Zeitumstellung
Weitere neue Funktionen sind die Möglichkeit, die Lautstärke des Sprachassistenten unabhängig von der Medienlautstärke zu regulieren. Damit kann man etwa Gemini oder andere in Android als Standard eingestellte Chatbots leiser oder bei Bedarf auch lauter als Musik oder andere Inhalte ertönen lassen. Bisher wirkten sich Änderungen der Medienlautstärke in der Regel automatisch auf die Lautstärke des Assistenten aus und umgekehrt.
Lesen Sie auch
In Android 17 Beta 3 hat Google außerdem eine neue Einstellung hinzugefügt, mit der Nutzer eine Benachrichtigung erhalten können, wenn die Uhr ihres Smartphones eine geplante Zeitumstellung vornimmt – beispielsweise wenn die Winter- oder Sommerzeit enden.
Homescreen, selektiv erweitertes Dark Theme und VPN
Überdies können Nutzer die App- und Ordnernamen auf dem Startbildschirm ausblenden – eine Funktion, die manche Launcher-Apps und Bedienoberflächen einiger Hersteller schon seit Jahren bieten. Dies gilt nicht für den App-Drawer oder für Ordner selbst. Um auf die neue Einstellung zuzugreifen, öffnet man in den Einstellungen oder per Langdruck auf dem Homescreen die Option „Hintergrund & Design“. Hier tippt man auf „Startbildschirm“, und wählt „Symbole“. Ganz unten findet man den Reiter „Namen“ und schaltet dort die Option „App-Namen anzeigen“ ein oder aus.

In der Android 17 Beta 3 lassen sich App-Bezeichnungen ausblenden.
(Bild: Andreas Floemer / heise medien)
Neu in Android 17 Beta 3 ist die Möglichkeit, das mit Android 16 QPR2 eingeführte erweiterte dunkle Design, das sich in erster Linie an Menschen mit Sehbeeinträchtigungen oder Lichtempfindlichkeit richtet, anzupassen. Wenn die Option aktiviert ist, wendet das System das dunkle Design automatisch auf die meisten Apps an, die es standardmäßig nicht unterstützen. Da die Funktion bei manchen Apps zu Anzeigefehlern führen kann, lässt sich die Funktion in der neuen Beta für einzelne Apps deaktivieren.
Zudem führt Google mit Android 17 eine standardisierte Methode ein, mit der VPN-Apps Funktionen zum Ausschluss bestimmter Apps (Split-Tunneling) anbieten können. Damit können Nutzer Anwendungen auswählen, die den VPN-Tunnel umgehen sollen. Der Datenverkehr von ausgeschlossenen Apps wird direkt über das zugrunde liegende Netzwerk geleitet, was für Dienste nützlich ist, die nicht mit VPNs kompatibel sind, erklärt Google. Vom Nutzer vorgenommene Änderungen werden sofort wirksam, sofern das VPN aktiv ist, oder bei der nächsten Verbindung.
Was noch?
Überdies ist die Beta 3 die erste Android-Version, in der Google ein neues APK-Signaturschema v3.2 einführt, um Post-Quanten-Kryptografie (PQC) zu unterstützen. Dieses Schema nutzt laut Google einen hybriden Ansatz, bei dem eine klassische Signatur mit einer ML-DSA-Signatur kombiniert wird. Erst kürzlich hatte Google den Schutz von Android vor künftigen Angriffen mit Quantencomputern angekündigt.
Primär für den Desktop-Modus und Tablets bringt Google einen Interactive Picture-in-Picture-Modus. Damit können Fenster angeheftet und stets über anderen Fenstern angezeigt werden und sind weiterhin bedienbar.
Darüber ermöglicht Google Entwicklern, das Fotoauswahlwerkzeug (Photo-Picker) optisch an das eigene App-Design anzupassen. App-Entwickler können damit etwa das Raster von quadratisch auf ein 9:16-Hochformat umstellen.

Entwickler können den Photo-Picker ab Android 17 Beta 3 für ihre App anpassen.
(Bild: Google)
Für mehr Sicherheit: Apps, die auf Android 17 zielen, haben standardmäßig keinen Zugriff mehr auf das lokale Netzwerk. Hierfür bietet Google es neue Berechtigungen an.
Android 17 bringt außerdem Support für das RAW14-Bildformat – „der De-facto-Industriestandard für die High-End-Digitalfotografie“, so Google. Das Format bietet unter anderem Vorteile in der Nachbearbeitung. Weiter integriert Google APIs, um abzufragen, welche Kamera genutzt wird – kommt etwa eine interne Kamera, eine USB-Webcam oder eine virtuelle Kamera zum Einsatz. Auch herstellerspezifische Kamera-Funktionen (etwa „Super Resolution“ oder KI-Funktionen der Hardware-Partner) lassen sich jetzt besser über Erweiterungen ansprechen.
Für Hörgeräteträgerinnen und -träger spannend: Damit nicht jede eingehende Nachricht im Hörgerät zu vernehmen ist, können Nutzer künftig Benachrichtigungstöne auf den Lautsprecher des Smartphones beschränken. Darüber hinaus können Nutzer die Wiedergabe von Klingeltönen und Benachrichtigungen über die Lautsprecher des Telefons sowie über ihre Hörgeräte oder In-Ohr-Implantate vollständig unterbinden. Hierfür werden Pixel-Geräten auf der Seite „Hörgeräte“ unter den Einstellungen für Barrierefreiheit zwei neue Schaltflächen angezeigt: eine für Benachrichtigungstöne und eine für Klingeltöne und Wecktöne.
Eine ausführlichere Übersicht weiterer Funktionen und Informationen für Entwickler finden sich im Android-Developers-Blog.
(afl)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 4 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
