Connect with us

Künstliche Intelligenz

Mammographie: Studie belegt Wirksamkeit des Screenings in Deutschland


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das deutsche Mammographie-Screening-Programm senkt die Brustkrebssterblichkeit bei teilnehmenden Frauen um 20 bis 30 Prozent. Dies ist das zentrale Ergebnis einer umfangreichen Evaluationsstudie, die das Bundesamt für Strahlenschutz (BfS) in Auftrag gegeben hat und die nun vorgestellt wurde.

Die Untersuchung (PDF) von einem Forscherteam der Universität Münster basiert auf der Auswertung von Daten aus den Jahren 2009 bis 2018. Dabei wurden zwei unterschiedliche Ansätze verfolgt: eine bundesweite Analyse von Krankenkassendaten sowie eine Erhebung der Screening-Teilnahme in Nordrhein-Westfalen. Insgesamt flossen Daten von mehr als 10 Millionen Frauen in die Studie ein, die damit zu den größten ihrer Art weltweit zählt.

Laut Kassenärztlicher Bundesvereinigung handelt es sich bei diesem Screening-Programm um „das erste systematische Krebsfrüherkennungsprogramm nach europäischen Qualitätsstandards in Deutschland und das größte Screening-Programm in Europa“.

Nach den Berechnungen wird etwa jeder vierte Brustkrebstodesfall in der Zielgruppe der 50- bis 69-jährigen Frauen durch das Screening-Programm verhindert. Im Bericht wird explizit darauf hingewiesen, dass die Ergebnisse „ausschließlich für Untersuchungen innerhalb des qualitätsgesicherten Programms“ gelten und keine Aussagen über Mammographien außerhalb dieser Art der Früherkennung zulassen.

Nach Angaben des Zentrums für Krebsregisterdaten (ZfKD) am Robert Koch-Institut (RKI) erkranken jährlich rund 70.000 Frauen an Brustkrebs, die zur häufigsten Krebserkrankung bei Frauen in Deutschland gehört.

Das BfS betont, dass der nachgewiesene Nutzen des Screening-Programms das sehr geringe zusätzliche Brustkrebsrisiko durch die Strahlenbelastung bei der Untersuchung deutlich übersteigt. Dies bestätigt die strahlenschutzrechtliche Zulassung des Programms.

Die Finanzierung in Höhe von rund 10 Millionen Euro teilten sich das Bundesumweltministerium, das Bundesgesundheitsministerium und die Kooperationsgemeinschaft Mammographie – letztere wird durch den Spitzenverband der gesetzlichen Krankenkassen und der KBV getragen.


(mack)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Docker, Kubernetes und mehr – Geschichte & Zukunft der Container | c’t uplink


Apple hat eine Alternative zur Containerplattform Docker vorgestellt, die nativ in macOS integriert ist. Im c’t uplink sprechen wir darüber, an wen sich das neue Feature mit dem kreativen Namen „Container“ richtet – verknüpft mit einem Überblick über die Geschichte der Containerisierung: Von der Erfindung von Docker und Kubernetes über die Aufteilung von Dockers Geschäftsfeldern und die Gründung der Open Container Initiaitve (OCI) bis hin zu Desktop-Containerplattformen wie Windows Container und nun eben Apple Container.


Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Den wöchentlichen c’t-Podcast c’t uplink gibt es …

Zu Gast im Studio: Jan Mahn
Host: Jan Schüßler
Produktion: Ralf Taschke

► Unseren Vorabtest einer frühen Version der Apple Container lesen Sie in c’t 15/2025.

In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.

c’t Magazin
c’t auf Mastodon
c’t auf Instagram
c’t auf Facebook
c’t auf Bluesky
c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!


(jss)





Source link

Weiterlesen

Künstliche Intelligenz

KI-Update kompakt: Code of Practice, Alignment Faking, SAG-AFTRA, Drohnenprüfung


Der lange erwartete Code of Practice für generative KI ist erschienen – mit erheblicher Verspätung und nur drei Wochen vor Inkrafttreten der nächsten Stufe des AI Acts am 2. August. Das Dokument soll Anbietern von General Purpose AI helfen, die Anforderungen der EU-Verordnung zu erfüllen, ist jedoch nicht verpflichtend. Wer den Code nicht unterzeichnet, muss anderweitig nachweisen, dass er den Regeln entspricht. Der Leitfaden konzentriert sich hauptsächlich auf Transparenzpflichten und Dokumentation, wobei große Anbieter wie Meta, OpenAI und Google zusätzliche Risikoabwägungen treffen müssen.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Zur Einhaltung müssen Anbieter ein Formular mit Multiple-Choice-Antworten und Freitextfeldern ausfüllen und unterschreiben, womit sie bestimmte Verpflichtungen eingehen – etwa keine Trainingsdaten von Piraterieseiten zu verwenden. Trotz des Ärgers über die Verzögerung war der Inhalt für viele Unternehmen kaum überraschend, da sie selbst an der Erarbeitung beteiligt waren.

Das EU-Parlament will KI-generiertes Kindesmissbrauchsmaterial vollständig verbieten. Die Forderung kommt, nachdem die Internet Watch Foundation einen alarmierenden Anstieg solcher Inhalte um 380 Prozent innerhalb eines Jahres gemeldet hat. Besonders beunruhigend: Fast 40 Prozent dieser Inhalte fallen in die schwerste Kategorie, und 98 Prozent stellen Mädchen dar.

Neben dem Verbot fordert die Organisation auch bessere Werkzeuge für Strafverfolgungsbehörden und ein EU-weites Verbot von Anleitungen zur Erstellung solcher Inhalte.

xAI hat sein neues Modell Grok 4 vorgestellt, das Elon Musk als „klügste KI der Welt“ bezeichnet. Benutzer haben jedoch eine Besonderheit entdeckt: Bei kontroversen Fragen scheint das Modell zunächst zu prüfen, was Musk selbst zu dem Thema gesagt hat, und richtet seine Antworten daran aus. TechCrunch konnte dieses Verhalten bestätigen und stellte fest, dass Grok in seinen „Reasoning-Ketten“ explizit angibt, nach Musks Aussagen zu suchen, wobei in manchen Fällen ausschließlich dessen X-Beiträge als Quellen angegeben werden.

Der Launch wurde überschattet von antisemitischen Entgleisungen des gleichnamigen KI-Accounts auf X, der daraufhin deaktiviert wurde. Ob Grok tatsächlich explizite Anweisungen erhalten hat, Musks Äußerungen bei kontroversen Themen zu berücksichtigen, bleibt unklar – Hinweise darauf gibt es bislang nicht.

Eine gemeinsame Studie von Anthropic, Scale AI und Redwood Research hat 25 führende Sprachmodelle auf „Alignment Faking“ untersucht – ein Phänomen, bei dem KI-Systeme vorgeben, bestimmten Vorgaben zu folgen, im unbeobachteten Zustand jedoch zu ihrem ursprünglichen Verhalten zurückkehren. Die Ergebnisse zeigen, dass die meisten Modelle keine auffälligen Abweichungen aufweisen.

Bei fünf Modellen – darunter zwei Claude-Modelle, Grok 3 und Gemini 2.0 Flash – wurde jedoch eine signifikante „Compliance-Lücke“ von mehr als einem Prozent festgestellt. Interessanterweise zeigen Modelle wie GPT-4o kein Täuschungsverhalten – nicht aus mangelnder Fähigkeit, sondern aufgrund intensiver Sicherheitstrainings, die dafür sorgen, dass sie bedrohliche Szenarien pauschal ablehnen. Obwohl Alignment Faking derzeit selten auftritt, unterstreichen die Ergebnisse die Notwendigkeit, diese Dynamiken bei künftigen, leistungsfähigeren KI-Systemen weiter zu beobachten.

Perplexity hat mit Comet einen eigenen KI-Browser vorgestellt, der auf der Chromium-Engine basiert und damit grundsätzlich mit Chrome oder Edge vergleichbar ist. Die Besonderheit liegt im integrierten KI-Assistenten, der Webseiten automatisch erkennen, auswerten und zusammenfassen kann, aber auch komplexe Aktionen wie die Organisation von Treffen oder das Verfassen von E-Mails übernimmt.

Für diese Funktionen benötigt Comet Zugriff auf persönliche Daten – etwa das komplette Google-Profil bei Nutzung von Gmail oder Google-Kalender. Laut Reuters werden diese Daten jedoch nur lokal gespeichert und nicht für das Training von KI-Modellen verwendet. Der Browser nutzt Perplexity als voreingestellte Suchmaschine und setzt auf das hauseigene LLM. Zunächst steht er nur zahlenden Abonnenten von Perplexity Max zur Verfügung, soll aber künftig einem breiteren Nutzerkreis zugänglich gemacht werden.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Google rollt seinen KI-Assistenten Gemini für Smartwatches mit Wear OS 4 oder höher aus. Der Dienst, der per Sprachbefehl, Seitentaste oder App-Symbol aktiviert werden kann, beantwortet Fragen direkt am Handgelenk und greift dabei auf Google-Dienste wie Gmail, Kalender oder Maps zu – vorausgesetzt, die entsprechenden Berechtigungen wurden erteilt.

Die weltweite Verteilung des Assistenten für Geräte von Herstellern wie Google, Samsung, Oppo, OnePlus und Xiaomi erfolgt in den kommenden Wochen. Ein späteres Update auf Wear OS 6 soll zudem die Unterstützung für herstellereigene Apps ermöglichen.

Europäische Unternehmen sehen sich mit einer zunehmend gefährlichen Bedrohungslage konfrontiert. Laut dem „State of Cybersecurity Report 2025“ des französischen Security-Anbieters HarfangLab bewerten 40 Prozent der befragten Firmen aus Deutschland, Frankreich, den Niederlanden und Belgien das aktuelle IT-Risiko als „extrem“ oder „sehr hoch“. Die Nutzung von KI durch Kriminelle gilt dabei für 58 Prozent als wichtigster Risikofaktor.

Trotz des Bewusstseins für die Gefahren gelingt es vielen Unternehmen nicht, effektive Sicherheitsstrategien umzusetzen. Während sich 69 Prozent gut auf die Prävention vorbereitet fühlen, sehen sich nur 65 Prozent in der Lage, angemessen auf Vorfälle zu reagieren – ein Rückgang gegenüber dem Vorjahr. Hauptgründe dafür sind Ressourcen- und Personalmangel sowie komplexe Infrastrukturen und fragmentierte Schutzlösungen.

US-Synchronsprecher der Gewerkschaft SAG-AFTRA haben nach monatelangem Streik einen neuen Vertrag mit großen Entwicklerstudios ausgehandelt. Der Vertrag sichert ihnen nicht nur bessere Vergütungen zu, sondern auch Schutz vor KI – eine zentrale Forderung des Arbeitskampfes.

Die Studios dürfen künftig keine KI-Klone von Stimmen ohne Zustimmung der Sprecher erstellen und müssen den Einsatz von KI-Stimmen explizit offenlegen. Besonders wichtig war den Gewerkschaftern die Zusicherung, dass Studios bei künftigen Streiks nicht einfach auf KI-Stimmen zurückgreifen dürfen – eine Praxis, die im neuen Vertrag ausdrücklich ausgeschlossen wird.

Hugging Face warnt im Rahmen der Veröffentlichung des Roboters Reachy Mini vor einer Zukunft mit undurchschaubaren Robotern im Besitz weniger Konzerne: „Es ist extrem wichtig für die Zukunft der Robotik, dass sie Open Source ist“, betont CEO Clément Delangue. Der vollständig quelloffene, modulare Roboter-Bausatz von Hugging Face richtet sich an Entwickler, Lehrkräfte und Maker.

Der 28 cm hohe und anderthalb Kilogramm schwere Desktop-Roboter kommt in zwei Versionen: einer Lite-Variante für rund 300 US-Dollar und einer Wireless-Version mit Raspberry Pi 5, WLAN und Akku für knapp 450 US-Dollar. Technisch bietet er unter anderem eine Weitwinkelkamera, Lautsprecher und animierte Antennen. Die Einführung ist Teil einer breiteren Open-Source-Strategie von Hugging Face, zu der auch die Übernahme von Pollen Robotics gehört.

Das Luftfahrt-Bundesamt hat ein Prüfverfahren genehmigt, bei dem KI die Beaufsichtigung von Online-Prüfungen für Drohnenpiloten übernimmt. Anders als beim bisherigen Verfahren, das zwei Webcams und einen menschlichen Prüfer erforderte, überwacht nun eine KI des US-Unternehmens Proctorio den Prüfling über eine einzige Kamera.

Die KI erstellt zunächst ein Referenzbild des Prüflings und registriert dann auffälliges Verhalten wie häufiges Wegsehen oder Sprechen. Verdächtige Videosequenzen werden markiert und nachträglich einem menschlichen Prüfer vorgelegt. Für Prüflinge bietet das System drei Vorteile: geringere Hardwareanforderungen, freie Terminwahl und etwa halbierte Kosten. Die DSGVO-konforme Lösung läuft über eine Online-Lernplattform von Aviation-Examen, das Ergebnis liegt innerhalb von zwei Werktagen vor.

Der Roboterhund Black Panther II des chinesischen Start-ups Mirror Me hat einen inoffiziellen Geschwindigkeitsrekord im 100-Meter-Lauf aufgestellt. Bei einer Live-Übertragung im chinesischen Staatsfernsehen erreichte er aus dem Stand 13,17 Sekunden – deutlich schneller als der bisherige Guinness-Rekord von knapp 20 Sekunden.

Der Erfolg basiert auf extremem Leichtbau, kompakten Hochleistungsmotoren und KI-gesteuerten Laufbewegungen. Die Künstliche Intelligenz ermöglicht es dem Roboter, seinen Gang verschiedenen Untergründen anzupassen und die Gliedmaßen für fließendere Bewegungen zu koordinieren. Mirror Me plant, einen Antrag bei Guinness World Records zu stellen, möchte sich aber zunächst weiter auf die Forschungsarbeit konzentrieren.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Weiterlesen

Künstliche Intelligenz

Apple arbeitet an erstem Chatbot – aber nur für den Support


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Apples Softwarechef Craig Federighi betont gerne, dass Apple kein Interesse daran hat, einen eigenen Chatbot zu entwickeln. Allerdings scheint dies nur teilweise zu stimmen: Zumindest im Bereich der Kundenunterstützung scheint der iPhone-Konzern sich für die Idee zu interessieren. In den Tiefen des iOS-26-Codes befindet sich nämlich Hinweise auf Verbesserungen für die Apple-Support-App, in denen von einem KI-basierten „Support Assistant“ die Rede ist. Das berichtet Macrumors unter Berufung auf den Code-Leak-Experten Aaron Perris. Offenbar ist geplant, dass Apple-Nutzer mit der neuen Assistentin in Chatform interagieren. Schon jetzt kann man den Apple-Support per Chat ansprechen, hat es dann aber über die Nachrichten-App mit echten Menschen zu tun.

Der Support Assistant soll hingegen zunächst mittels KI helfen. Dazu tippt man ein Problem in die Apple-Support-App ein und kann dieses dann offenbar im Dialog weiter verfeinern, bis man eine Lösung findet. Das Angebot benutzt laut Apples Code „generative Modelle“, die Antworten liefern, die „mit bestimmten Produkten und Diensten von Apple“ einhergehen. Tatsächlich verfügt schon Apple Intelligence über die Möglichkeit, sich generativ Hilfe zu Apple-Produkten zu holen. Allerdings ist das System kein Chatbot, sondern gibt nur einzelne Antworten und ist nicht dialogfähig.

Der Support Assistant scheint hingegen ein klassischer Chatbot zu sein, der auftaucht, bevor man – wenn nötig – einen Menschen bei Apple erreicht. Im Code sind auch Warnungen zu finden, wie man sie von ChatGPT oder Claude kennt: Apples generative Modelle können demnach „inkorrekte, irreführende, unvollständige, beleidigende oder schädliche“ Outputs geben. Der Support Assistant sei auch „kein Ersatz für professionellen Rat“.

Im weiteren Codeverlauf fand Perris auch Hinweise darauf, dass der Support Assistant multimodal arbeitet. Er versteht sich offenbar auch auf Uploads von etwa PDFs, Bildern und Dokumenten. Ob der Chatbot tatsächlich von Apple stammt, ist aber unklar. Strings besagen, dass das Unternehmen auch „mit Partnern“ kooperiert.

Bei Apple Intelligence ist das aktuell ChatGPT von OpenAI. Intern arbeitet Apple schon mit generativer KI für seine Supporter – diese sollen so im Rahmen von AppleCare schneller an technische Antworten für Kunden gelangen. Das System namens „Ask“ nutzt Apples interne Knowledge-Base.


(bsc)



Source link

Weiterlesen

Beliebt