Connect with us

Künstliche Intelligenz

Google bringt Nano Banana in die Suche und weitere Dienste


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Google integriert Nano Banana in weitere Dienste: Der von DeepMind entwickelte Bildgenerator soll auch in der Google-Suche über die App Lens und im KI-Werkzeug NotebookLM sowie künftig in Google Fotos verfügbar sein. Das hat der US-Konzern angekündigt. Bisher ist es nur über die Gemini-App nutzbar.

Weiterlesen nach der Anzeige

Google hat das KI-Bildbearbeitungswerkzeug, das offiziell Gemini 2.5 Flash Image heißt, im August vorgestellt. „Seither haben wir viele einzigartige und kreative Anwendungsmöglichkeiten in der Gemini-App gesehen“, schreibt Naina Raisinghani, Produktmanager bei Google DeepMind, in der Ankündigung im Google-Blog. Bis jetzt seien fünf Milliarden Bilder mit dem Werkzeug generiert worden.

In der Suche können Nutzer frisch aufgenommene Bilder oder solche aus der Galerie mit Nano Banana bearbeiten. Dazu öffnen sie die App Lens und können das Bild im „Create“-Modus per Prompteingabe ändern, etwa eine Person in eine andere Umgebung versetzen, den Gesichtsausdruck ändern oder aus einem Farb- ein Schwarz-Weiß-Foto machen.

In NotebookLM soll Nano Banana die Video Overviews verbessern. Das sind KI-generierte Präsentationen, in denen Bilder, Diagramme, Illustrationen und andere Inhalte zusammengefasst werden. Google hat die Video Overviews Ende Juli präsentiert.

Nano Banana ermöglicht es, die Präsentationen grafisch zu gestalten. Dabei stehen sechs Bildstile zur Verfügung. So können Bilder in einem Video Overview etwa wie mit Wasserfarben gemalt sein oder wie Bilder aus dem vergangenen Jahrhundert aussehen.

„In den kommenden Wochen“ werde Google Nano Banana auch in Google Fotos integrieren, schreibt Raisinghani. Einen genauen Termin hat er nicht genannt, auch nicht, welche Anwendungen das KI-Werkzeug in Google Fotos ermöglicht.

Weiterlesen nach der Anzeige


(wpl)



Source link

Künstliche Intelligenz

Scharfe Abrechnung an der ePA: Kelber kritisiert Sicherheit und Reklamekampagne


Als unsicher und intransparent bezeichnet der ehemalige Bundesdatenschutzbeauftragte, Prof. Ulrich Kelber, die Digitalisierung des deutschen Gesundheitswesens und insbesondere die elektronische Patientenakte (ePA). In einem Vortrag bei einer Veranstaltung der freien Ärzteschaft warf er der Politik vor, Vertrauen durch oberflächliche Werbung zu verspielen und grundlegende Sicherheitsstandards zu ignorieren.

Weiterlesen nach der Anzeige

Kelber kritisierte die Kommunikationsstrategie des Bundesgesundheitsministeriums zur ePA scharf. Anstatt Bürgerinnen und Bürger umfassend über Risiken und notwendige Abwägungen aufzuklären, setze das Ministerium auf eine „reine Reklamekampagne“, die das Projekt lediglich als „super und „toll“ anpreise. Wer nur versuche „zu überreden, anstatt zu überzeugen“, so Kelber, der werde auf Dauer nicht vorwärtskommen.

Diese Vorgehensweise führe zu einem Vertrauensverlust, der sich bereits in den Zahlen zeige: Die Widerspruchsquoten gegen die ePA seien mit fünf bis zehn Prozent für ein Opt-out-System ungewöhnlich hoch. Außerdem sei die Gruppe der überzeugten Gegner, die aktiv widersprechen, fast genauso groß oder sogar größer als die Gruppe der überzeugten Befürworter, die sie aktiv nutzen. Die offiziellen Zahlen zur Nutzung schwanken stark zwischen drei und zwölf Prozent. Dies untergrabe laut Kelber auch die Repräsentativität der Daten, die für die Forschung so wichtig sein sollen. Zudem sei die Qualität der Daten, etwa der Abrechnungsdaten, oft unzureichend.

Auch technisch sei das System alles andere als ausgereift. Kelber rechnete vor, dass die offiziell angegebene Betriebsstabilität von 96 Prozent „eine Stunde Ausfall pro Tag“ bedeute. Diese Ausfälle fänden höchstwahrscheinlich nicht nachts, sondern unter Last während der Praxiszeiten statt. Er kritisierte die Haltung der Gematik, die sich zwar unzufrieden zeige, aber auf die Zuständigkeit privater Dienstleister verweise. Das sei „mindestens eine Lücke in dem System“. Bei einem staatlich gelenkten Projekt müsse es wirksame Sanktionsmöglichkeiten gegen unzuverlässige Anbieter geben.

Zusätzlich werde der sichere Zugang für Versicherte systematisch erschwert, nicht nur aufgrund der schwierigen Ersteinrichtung. Die Politik habe dazu ihren Beitrag geleistet. Unter anderem, weil sie es den Krankenkassen durchgehen lasse, die PIN für die elektronische Gesundheitskarte (eGK) nicht zu versenden. „In Wirklichkeit“ lasse sie das Kelber zufolge „auch durchgehen, weil sie auf Dauer das ja gar nicht mehr so haben will“. Gleichzeitig wurde der kostenlose PIN-Rücksetzbrief für den elektronischen Personalausweis aus Kostengründen abgeschafft, was auch diese sichere Alternative unattraktiv mache. Stattdessen würden Nutzer zu unsichereren Methoden wie der biometrischen Anmeldung gedrängt.

Weiterlesen nach der Anzeige

Kelber prangerte zudem den grundlegenden Entwicklungsprozess der Digitalisierungsprojekte an. Er forderte, IT-Systeme im Gesundheitswesen endlich so zu entwickeln, wie es professioneller Standard sei. „Pilotieren, evaluieren, eventuell wieder zurückgehen und nur wenn der Evaluierungsprozess gelaufen ist, dann skalieren, also ausrollen.“ Stattdessen gebe es überhastete Einführungen, die als Tests deklariert werden, aber keine sind. Als Beispiel nannte er die Testphase der ePA in den Modellregionen. Direkt danach sollten sie alle nutzen. Ein solches Vorgehen lasse keine Zeit, „die Ergebnisse zu prüfen“ oder Fehler zu korrigieren. Angesichts von 25 Jahren Versäumnis, so Kelber, komme es auf ein weiteres halbes Jahr für eine qualitativ hochwertige Einführung nicht an.

Den Kern seiner Kritik bildeten die massiven Sicherheitsbedenken. Die ePA sei in ihrem jetzigen Zustand nicht sicher. Anstatt Sicherheitslücken grundlegend zu schließen, würden sie oft nur notdürftig „gestopft“. Kelber bemängelte, dass die Sicherheitsarchitektur nicht transparent gemacht werde und Angriffe, die mit den „Ressourcen eines Staates“ durchgeführt werden, bei der Prüfung von vornherein ausgeschlossen würden. Das sei ein Unding bei einer Datenbank mit den Gesundheitsdaten von rund 70 Millionen Menschen.

Besonders alarmierend sei, dass die Schlüssel zur Verschlüsselung der Gesundheitsdaten bei den Betreibern liegen. Kelber nannte hier explizit die Anbieter: IBM, die dem US-Recht unterliegt und Daten an US-Sicherheitsbehörden herausgeben muss, sowie die österreichische Firma RISE, „die in Österreich vom öffentlichen Dienst wegen ihrer Beziehung zu Wirecard und den russischen Geheimdiensten keine Aufträge mehr bekommt“. Nach wie vor sei nicht geklärt, „ob das wirklich vollständig gestoppt ist“. Dass solche Anbieter Zugriff auf die Schlüssel haben, sei „überhaupt nicht state of the art“.

Auch die geplante Umsetzung des European Health Data Space (EHDS) in Deutschland sieht Kelber kritisch. Insbesondere die Entscheidung, das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) zum zentralen „Health Data Access Body“ zu machen, hält er für „nicht glücklich“. Das Problem sei ein massiver Interessenkonflikt: Da das BfArM eigene Forschungsinteressen habe, würde es damit gleichzeitig über seine eigenen Forschungsanträge entscheiden. Kelber warnte davor, dass „nicht jemand selber seine eigenen Forschungsanträge in einem Haus bewährt“. Eine klare Trennung von Aufsicht und Forschung sei keine unnötige Bürokratie, sondern essenziell, um Vertrauen zu schaffen.

Als weiteren Beleg für die Aushöhlung des Datenschutzes nannte Kelber das geplante EU-Omnibusgesetz. Dieses Gesetz sei „nochmal gefährlicher“ und ein Beispiel für übereilte Gesetzgebung. Kelber kritisierte den Entstehungsprozess scharf. Der Datenschutzteil sei nach seinem Kenntnisstand „innerhalb von fünf Tagen“ geschrieben worden – ohne Folgenabschätzung, ohne Evidenzprüfung und ohne jegliche Debatte oder Beteiligung von Stakeholdern. Das Ergebnis sei ein Gesetz, das grundlegende Definitionen aufweiche: So sollen Daten, die einmal anonymisiert wurden, selbst dann nicht mehr unter die Datenschutzgrundverordnung fallen, wenn sie von Dritten später wieder re-identifiziert werden könnten.

Zudem werde der Begriff der Gesundheitsdaten aufgeweicht. Während die Behandlungsdaten einer Onkologie-Patientin geschützt blieben, würden ihre bloßen Aufenthaltsdaten im Onkologiezentrum nicht mehr als Gesundheitsdaten gelten – derartige Daten entstehen beispielsweise bei Terminbuchungen. Besonders kritisch sah Kelber, dass Training von KI pauschal zu einer Rechtsgrundlage für Datenverarbeitung werden soll – ohne weitere Abwägung, selbst bei hochsensiblen Daten.

Während der geplante European Health Data Space (EHDS) die EU-Staaten auf ein gemeinsames Mindestniveau bei der Datensicherheit zwinge, liege Deutschland aktuell darunter. Seinen Vortrag schloss Kelber mit einer düsteren Anspielung auf J.R.R. Tolkiens „Herr der Ringe“: Anstatt wie früher ein Vorreiter im Datenschutz zu sein, sei Deutschland durch solche Vorhaben zu „einer der dunklen Kräfte in Mittelerde geworden“, die aktiv versuche, europäische Standards zu senken. Die Reise in die Digitalisierung des Gesundheitswesens sei, so Kelber in Anlehnung an Bilbo Beutlin, „eine gefährliche Sache“, bei der man genau aufpassen müsse, wohin die Füße einen tragen.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update kompakt: KI-Urheberrechtsstreit, Limitless, Deep-Research, Politik


Weiterlesen nach der Anzeige

Der Kampf um KI und Urheberrecht nimmt Fahrt auf. In den USA muss OpenAI 20 Millionen Chat-Protokolle herausgeben. Die New York Times will anhand dieser Protokolle prüfen, ob ChatGPT urheberrechtlich geschützte Artikel wortwörtlich wiedergegeben hat. Parallel dazu hat die Zeitung auch Klage gegen die KI-Suchmaschine Perplexity eingereicht. Bei Perplexity geht es um ein ähnliches Problem: Die KI-Suchmaschine nutzt komplette Nachrichtenartikel, um Nutzeranfragen zu beantworten.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Noch schlimmer: Perplexity halluziniert manchmal und die falschen Ergebnisse werden der Zeitung zugeschrieben. Den Medienhäusern geht es nicht darum, der KI komplett zu verbieten, ihre Inhalte zu nutzen. Sie wollen, dass KI-Firmen Lizenzabkommen abschließen und dafür bezahlen. Meta hat bereits etliche neue Verträge unterschrieben, unter anderem mit USA Today, CNN und Fox News.

Das Berliner Abgeordnetenhaus hat eine Novelle des Allgemeinen Sicherheits- und Ordnungsgesetzes beschlossen. Die Reform stattet die Polizei mit Befugnissen aus, die tief in die Grundrechte eingreifen. Der neue Paragraf 28a erlaubt der Polizei den biometrischen Abgleich von Gesichtern und Stimmen mit öffentlich zugänglichen Daten aus dem Internet.

Damit kann die Polizei etwa mit Material aus der Videoüberwachung automatisierte Suchen in sozialen Netzwerken durchführen. Außerdem ermöglicht der neue Paragraf 42d die Weiterverarbeitung von personenbezogenen Daten zum Training von KI-Systemen. Datenschützer kritisieren dies scharf, da KI-Modelle oft Rückschlüsse auf die Trainingsdaten zulassen.

Weiterlesen nach der Anzeige

Der CDU-Landtagswahl-Spitzenkandidat Sven Schulze in Sachsen-Anhalt will künftig stärker auf KI setzen, um Anschläge besser zu verhindern. KI solle herausfinden, ob jemand einen Ort vorab ausspäht. Dabei greifen derartige Systeme auf die Bewegungsmuster der Besucher zurück. Alle Menschen werden gefilmt und ihr Verhalten wird bewertet. Experten und Datenschützer gehen davon aus, dass dabei die umstrittene Software des US-Unternehmens Palantir zum Einsatz kommen könnte. Sie wird bereits in Bayern, Hessen und Nordrhein-Westfalen eingesetzt.

Meta hat das Startup Limitless übernommen und nimmt dessen Produkte sofort vom Markt. Limitless, vormals bekannt als Rewind, entwickelte tragbare Anhänger, die den Alltag der Nutzer aufzeichnen und mittels KI durchsuchbar machen. Der Verkauf ist gestoppt, die zugehörige Software wird eingestellt; Bestandskunden bleibt lediglich eine einjährige Nutzungsfrist. Das Interesse des Konzerns dürfte weniger der Hardware gelten als vielmehr den gesammelten Erfahrungen mit „Always-on“-Geräten und der technischen Auswertung permanenter Audio-Streams.

Das US-Telekommunikationsunternehmen Securus hat ein KI-Modell anhand jahrelang aufgezeichneter Telefon- und Videoanrufe amerikanischer Gefängnisinsassen trainiert. Jetzt testet es dieses Modell, um Anrufe, SMS und E-Mails der Häftlinge zu scannen. So sollen Straftaten vorhergesagt und verhindert werden. Aktivisten für Strafgefangene meinen, dass Securus bereits in der Vergangenheit die Bürgerrechte von Gefangenen verletzt hat. Leaks zeigten, dass es Tausende Anrufe zwischen Insassen und ihren Anwälten unrechtmäßig aufgezeichnet habe.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Eine Studie des chinesischen Smartphoneherstellers Oppo deckt systematische Schwächen von Deep-Research-Systemen auf. Das Problem: Fast ein Fünftel aller Fehler entsteht, weil die Systeme plausibel klingende, aber erfundene Inhalte generieren. Ein System plant etwa eine umfassende Datenbank-Analyse, kann dann aber nicht auf die Datenbank zugreifen. Statt die Strategie anzupassen, füllt es alle geplanten Abschnitte mit selbst generierten Inhalten.

Eine Untersuchung der UC Berkeley, der Stanford University und von IBM Research zeigt: Statt autonomer Super-Systeme dominieren im Alltag der Unternehmen einfache Workflows mit viel menschlicher Kontrolle. 68 Prozent der untersuchten produktiven Agenten führen höchstens zehn Schritte aus, bevor ein Mensch eingreifen muss. Das Hauptproblem bleibt die Zuverlässigkeit. 74 Prozent der produktiven Agenten werden deshalb primär von Menschen bewertet.

Die KI-Suchmaschine Perplexity hat ein Sicherheitssystem für Browser-Agenten vorgestellt. Ein akutes Problem: Sie sehen mehr auf Webseiten als die Nutzer, etwa weiße Schrift auf weißem Grund. So können Angreifer bösartige Befehle verstecken. Der KI-Agent interpretiert diese dann fälschlich als Nutzeranweisungen. Das neue System namens BrowseSafe soll solche Angriffe erkennen, bevor sie Schaden anrichten.

KI-Chatbots können politische Ansichten von Menschen in kurzen Konversationen womöglich effektiver ändern als traditionelle Wahlwerbung. Forscher befragten Menschen zu ihren politischen Überzeugungen und ließen sie danach mit Chatbots diskutieren, die darauf trainiert waren, diese Meinung zu ändern. Bei den Befragungen danach konnten teilweise große Verschiebungen bei den politischen Meinungen konstatiert werden. Was besonders auffallend war: Die Chatbots argumentierten sehr mit vorgeblichen Fakten, aber ungefähr ein Drittel der Antworten war falsch.

Menschliche Fähigkeiten wie Kreativität und Empathie sollen laut dem Weltwirtschaftsforum im Jahr 2030 an erster Stelle stehen, noch vor KI-Kompetenzen. Der Bericht betont jedoch auch, dass gerade diese Kompetenzen in Bildungssystemen bisher zu wenig gefördert werden. Umfragen bestätigen, dass bei Unternehmen schon heute eine hohe Nachfrage nach qualifizierten menschlichen Kompetenzen besteht, während das Angebot nicht mithalten kann.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Weiterlesen

Künstliche Intelligenz

Analyse: Projektsterben in der Cloud-Native-Welt


Blickt man in den Rückspiegel, erscheinen die vergangenen rund 10 Jahre wie das Paradies für Entwickler und Betreiber von Serversoftware im Cloud-Native-Umfeld. Docker hatte 2013 die Containertechnik salonfähig sowie praktikabel gemacht und so den Weg geebnet für vieles, was später kommen sollte. Seither wird Software aller Art als Containerimage bereitgestellt, manch ein Anbieter liefert seine Produkte gar nicht mehr anders aus.

Der nächste Meilenstein folgte zwei Jahre später. Kubernetes 1.0 erschien im Jahr 2015 und hat sich schnell als Industriestandard fürs Betreiben von großen Containerinfrastrukturen etabliert. Ein Erfolgsfaktor: Google hatte viel Geld und Ressourcen in die Entwicklung von Kubernetes gesteckt und dabei seine Erfahrung aus dem Betrieb der internen Plattform Borg einfließen lassen. Kubernetes traf einen Nerv und Google hätte die Chance gehabt, sich und seine eigenen Cloudangebote unersetzlich zu machen. Doch anstatt Kubernetes exklusiv in der Google Cloud zu offerieren, veröffentlichte man die Software unter Apache-Lizenz. Der Code wurde dann an die eigens dafür gegründete CNCF, eine Tochterstiftung der Linux Foundation, übertragen.

Ein altruistisches Geschenk an die Menschheit? Mitnichten. Google wollte mehr als das schnelle Geld, nämlich die ganze Industrie verändern: Auch Amazon AWS und Microsoft stiegen ins Kubernetes-Spiel ein, boten Managed-Kubernetes-Dienste an und steckten Ressourcen in die Weiterentwicklung des Containerorchestrators, anstatt Alternativen zu bauen. Ein herstellerunabhängiger und quelloffener Standard für den Containerbetrieb – das überzeugte viele, ihre Anwendungen in Cloudrechenzentren zu betreiben. Weil Google sein Kind von Anfang an losließ, konnte es so weit wachsen und das Cloudgeschäft so sehr beschleunigen.


Das war die Leseprobe unseres heise-Plus-Artikels „Analyse: Projektsterben in der Cloud-Native-Welt“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt