Connect with us

Künstliche Intelligenz

c’t-Workshop: Sicher trotz knapper Ressourcen – IT-Strategien für KMU


Cyberangriffe auf die IT-Infrastruktur können einen Betrieb schnell zum Stillstand bringen oder hohe Kosten verursachen. Insbesondere für kleine und mittlere Betriebe (KMU) stellt dies eine Herausforderung dar: Oft fehlen spezialisierte Security-Teams und die Budgets sind begrenzt. Zusätzlich sorgen neue Vorgaben wie die NIS2-Richtlinie für Unsicherheit bezüglich der geltenden Regeln und notwendigen Maßnahmen.

Weiterlesen nach der Anzeige

Der Workshop „IT-Sicherheitsstrategien für kleine und mittlere Unternehmen“ bietet hier Unterstützung. Die Referenten Ann-Kathrin Rechel und Viktor Rechel, leitende Cybersicherheitsberater bei secuvera, zeigen praxisnahe Wege auf, wie KMU ihre IT-Sicherheit mit vertretbarem Aufwand stärken können. Ziel ist eine stabile Basis, um gegen Angriffe gewappnet zu sein und künftige Anforderungen gut umsetzen zu können.

Die Teilnehmer lernen, welche Gefahren für KMU realistisch sind und wie diese die eigene IT-Landschaft betreffen können. Dazu werden Grundbegriffe der Informationssicherheit vermittelt und relevante Standards wie ISO 27001, TISAX/VDA-ISA oder IT-Grundschutz vorgestellt.

Der Schwerpunkt liegt jedoch auf konkreten Best Practices: Welche organisatorischen und technischen Schritte bringen den größten Nutzen bei vertretbarem Aufwand? Anhand einer Checkliste erläutern die Referenten die wichtigsten Maßnahmen und typische Fehler, die es zu vermeiden gilt. So können die Teilnehmer im Anschluss eine pragmatische, bezahlbare Sicherheitsstrategie für ihr Unternehmen festlegen.

Der Online-Workshop richtet sich an Unternehmen mit 10 bis 1000 Mitarbeitenden, die bisher kein oder nur ein rudimentäres Informationssicherheitsmanagement haben. Angesprochen sind Entscheider mit strategischer oder operativer IT-Verantwortung, etwa aus Geschäftsführung, IT-Leitung oder Administration.

Vorkenntnisse sind nicht erforderlich, eine IT-Affinität erleichtert aber das Verständnis. Der Fokus liegt auf einem verständlichen Überblick, ohne auf konkrete Systemkonfigurationen einzugehen. Eine individuelle Beratung ist nicht das Ziel des Workshops.

Weiterlesen nach der Anzeige

  • Termin: 21. und 22. Januar 2026
  • Uhrzeit: jeweils von 9 bis 12:30 Uhr
  • Preis: 880 Euro

Weitere Informationen zu Ablauf und Anmeldung finden Sie auf der Workshop-Seite der heise academy.


(abr)



Source link

Künstliche Intelligenz

„ChatGPT Health“: Schwächen bei medizinischen Notfällen und der Suizidprävention


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Januar 2026 hat OpenAI mit „ChatGPT Health“ einen Service eingeführt, der als erste digitale Anlaufstelle für Gesundheitsfragen dienen soll. Entscheidend für einen solchen Einsatz ist, dass KI die Schwere und Dringlichkeit eines Problems korrekt bewertet. Die Skala der Empfehlungen reicht dabei von „zu Hause auskurieren“ über „einen Arzt in den nächsten Wochen aufsuchen“ bis zum sofortigen Gang in eine Notaufnahme.

Weiterlesen nach der Anzeige

Forscher haben nun in einer im Fachjournal Nature Medicine veröffentlichten Studie systematisch untersucht, wie verlässlich und sicher diese KI-basierte Triage in der Praxis funktioniert, und stießen dabei auf bedenkliche Mängel.

Um die Genauigkeit der KI realitätsnah und kontrolliert zu überprüfen, entwarfen Mediziner 60 detaillierte klinische Fallbeispiele aus 21 Fachbereichen. Diese Fälle wurden dabei methodisch variiert und in den Textvorgaben (Prompts) veränderten die Forscher Merkmale wie Geschlecht und Hautfarbe der fiktiven Patienten, simulierten Hürden wie fehlende Transportmöglichkeiten oder bauten psychologische Faktoren ein, wie etwa die verharmlosende Aussage durch einen Angehörigen.

Insgesamt wurden 960 dieser Anfragen an ChatGPT Health gestellt. Die Triage-Empfehlungen der KI wurden anschließend mit der unabhängigen Einschätzung eines ärztlichen Expertenteams (basierend auf etablierten klinischen Leitlinien) verglichen.

Weiterlesen nach der Anzeige

Die Auswertung zeigte ein gemischtes Bild. Bei medizinischen Alltagsproblemen mittleren Schweregrades stimmten die Empfehlungen der KI meist mit denen der Ärztinnen und Ärzte überein. An den Rändern des Schweregrades, also bei völliger Harmlosigkeit oder bei akuter Lebensgefahr, sank die Leistung jedoch deutlich ab.

Unter-Triage (Verpasste Notfälle): In 51,6 Prozent der echten medizinischen Notfälle bewertete die KI die Lage als zu harmlos. Bei Patienten mit einer schweren diabetischen Entgleisung (Ketoazidose) oder einem akuten Asthma-Anfall riet das System beispielsweise dazu, innerhalb der nächsten 24 bis 48 Stunden einen Arzt aufzusuchen, anstatt den sofortigen Weg in die Notaufnahme zu empfehlen. Die KI erkannte im Text zwar teils die kritischen Symptome, gewichtete diese aber oft falsch (etwa mit dem Argument, der Patient spreche trotz Atemnot noch in ganzen Sätzen).

Umgekehrt zeigte sich ChatGPT Health bei harmlosen Beschwerden oft sehr vorsichtig. Fast 65 Prozent der Fälle, die laut Leitlinien problemlos zu Hause beobachtet werden könnten, stufte das System als behandlungsbedürftig ein und riet zu einem Arztbesuch. Dies birgt laut den Forschern potenziell das Risiko, Ressourcen im Gesundheitssystem unnötig zu belasten.

Beide Fehler (Unter- und Über-Triage) sind natürlich problematisch, wobei insbesondere eine Unter-Triage gefährlich sein kann, wenn Patientinnen und Patienten zu spät die notwendige medizinische Hilfe bekommen. Bei Routinefällen, welche weder besonders dringend, noch harmlos waren, zeigte ChatGPT Health eine gute Leistung und stimmte in 93 Prozent der Fälle mit der ärztlichen Empfehlung überein.

Die Studie untersuchte außerdem, inwieweit psychologische Effekte die KI-basierte Ersteinschätzung beeinflussen. Es zeigte sich, dass ChatGPT Health anfällig für den sogenannten „Anchoring Bias“ (Ankereffekt) ist. Wurde in einem medizinischen Grenzfall beiläufig erwähnt, dass Freunde die Symptome als nicht besorgniserregend einstuften, ließ sich die KI davon oft beeinflussen. Die Wahrscheinlichkeit, dass das System daraufhin eine weniger dringliche Einschätzung abgab, stieg deutlich an (Odds Ratio von 11,7).

Keinen statistisch signifikanten Einfluss auf die Triage-Empfehlungen hatten hingegen demografische Faktoren wie Hautfarbe oder Geschlecht der Patientinnen und Patienten in den konstruierten Fällen.

Ein weiterer Schwerpunkt der Untersuchung war der Umgang der KI mit psychischen Notlagen. Um Nutzer zu schützen, verfügt ChatGPT Health über einen Mechanismus, der bei Suizidgedanken ein Warnbanner mit dem Hinweis „Hilfe ist verfügbar“ und einem Verweis auf Krisenhotlines einblendet.

Die Studie zeigte hier verschiedene Mängel auf. Dieser Schutzmechanismus funktioniert in der Untersuchung zuverlässig bei vagen, eher passiven Aussagen zu Suizidgedanken. Äußerte ein fiktiver Patient jedoch einen konkreten Suizidplan (beispielsweise die Absicht, bestimmte Tabletten einzunehmen) und lieferte gleichzeitig unauffällige medizinische Laborwerte mit, blieb das Warnbanner meist aus. Das System fokussierte sich in diesen Fällen stark auf die körperlichen Parameter – mit Hinweisen wie „Ihre Laborwerte sind normal und deuten auf keine medizinische Ursache für diese Gedanken hin“ und erkannte den akuten psychischen Notfall oft nicht.

Die Autoren der Studie leiten aus ihren Ergebnissen Empfehlungen für den künftigen Einsatz von KI im Gesundheitsmarkt ab. Anbieter wie OpenAI versehen ihre Systeme mit rechtlichen Hinweisen, dass diese keine ärztliche Diagnose ersetzen. Es ist aber nicht unwahrscheinlich, dass viele Menschen einen Arztbesuch verschieben oder vermeiden würden, wenn ihnen die KI versichert, es bestehe kein ernsthaftes Problem.

Die Wissenschaftler schlussfolgern, dass Systeme, die als erster Kontaktpunkt für medizinische Einschätzungen genutzt werden, strengeren Prüfungen unterliegen sollten. Sie schlagen vor, dass patientengerichtete KI-Tools im Gesundheitsbereich vor einer breiten Veröffentlichung ähnliche externe Sicherheits- und Zulassungsprüfungen durchlaufen sollten wie klassische Medizinprodukte, um den Patientenschutz verlässlich zu gewährleisten.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Abhörskandal: Spyware-Hersteller in Griechenland zu Haftstrafen verurteilt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein Gericht in Griechenland hat am Donnerstag den Gründer von Intellexa, Tal Dilian, wegen illegaler Abhörpraktiken und Datenschutzverletzungen zu acht Jahren Haft verurteilt. Das berichtete unter anderem die griechische Tageszeitung Kathimerini. Intellexa ist ein Firmenzusammenschluss mehrerer Spyware-Hersteller, der vor allem für die Spähsoftware Predator bekannt ist.

Weiterlesen nach der Anzeige

Dilian, ein früherer israelischer Armeeoffizier, und drei weitere Führungskräfte von Intellexa standen wegen ihrer Rolle in einem 2022 aufgedeckten Abhörskandal vor Gericht. In dem ging es um das illegale Ausspionieren von Politikern, Journalisten, Wirtschaftsführern und hochrangigen Militärs mit der von Intellexa entwickelte Spyware Predator. Der Fall wurde auch als „griechisches Watergate“ bekannt. Neben Dilian wurden dessen Geschäftspartnerin Sara Aleksandra Fayssal Hamou, sein ehemaliger stellvertretender Geschäftsführer und Anteilseigner von Intellexa, Felix Bitzios, sowie Yiannis Lavranos, dessen Unternehmen Krikel die Spionagesoftware gekauft hatte, verurteilt. Die Angeklagten bestreiten eine Beteiligung an illegalen Handlungen.

Predator gilt als ausgefeilte Spionagesoftware. Neue Untersuchungen des Threat Labs Teams zeichnen das Bild einer Schadsoftware, deren technisches Niveau weit über bisherige Annahmen hinausgeht. Die Entwickler haben demnach Funktionen implementiert, die nicht nur der reinen Spionage dienen. Vielmehr verteidigt sich das Programm aktiv gegen Entdeckung und lernt aus Fehlern.

Der Fall in Griechenland ist der erste bekannte Fall, in dem ein Spyware-Hersteller wegen des Missbrauchs seiner Technologie zu einer Gefängnisstrafe verurteilt wird. Das Gericht befand die vier Angeklagten für schuldig, sich mehrfach unrechtmäßig Zugang zu privaten Kommunikationssystemen und Daten verschafft sowie gegen Datenschutzgesetze verstoßen zu haben. Mildernde Umstände lehnte das Gericht ab und verhängte eine Gesamtfreiheitsstrafe von 126 Jahren und acht Monaten, von denen acht Jahre verbüßt werden müssen. Das Gericht ordnete Ermittlungen gegen weitere Personen an. Die Verurteilten können Berufung einlegen.

Der Überwachungsskandal kam im Sommer 2022 ans Licht, nachdem der Vorsitzende der Oppositionspartei PASOK, Nikos Androulakis, darüber informiert wurde, dass sein Smartphone mit der Spyware Predator von Intellexa infiziert wurde, während er Abgeordneter im Europäischen Parlament war. Später räumte die griechische Regierung ein, dass Androulakis vom griechischen Geheimdienst EYP überwacht wurde, sprach aber von einer klassischen Telekommunikationsüberwachung.

Nach und nach stellte sich heraus, dass Dutzende Politiker, Geschäftsleute und Journalisten über ihre Mobiltelefone ausspioniert wurden. Der Skandal führte schließlich zum Rücktritt des Geheimdienstchefs und eines hochrangigen Beraters von Premierminister Kyriakos Mitsotakis.

Im Jahr 2023 verhängte die US-Regierung Sanktionen gegen Intellexa. Die Spionagewerkzeuge des Unternehmens seien eine Gefahr für die nationale Sicherheit der USA, begründet die dafür zuständige Abteilung des US-Handelsministeriums. Außerdem würden die Tools die Privatsphäre und die Sicherheit von Individuen sowie Organisationen in aller Welt bedrohen. Anfang 2024 verschärfte die US-Regierung ihr Vorgehen und verhängte erstmals auch Sanktionen gegen Gründer und führende Personen von Spyware-Firmen, darunter Dilian und dessen rechte Hand Hamou. Nun müssen beide sogar ins Gefängnis.

Weiterlesen nach der Anzeige


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

Musikgeschäft legt erneut zu – Vinyl-Renaissance geht weiter


Das Geschäft mit Musik in Deutschland hat 2025 abermals zugelegt, allerdings nicht so kräftig wie im Jahr zuvor. Insgesamt wurde für 2,42 Milliarden Euro Musik digital und auf Tonträgern verkauft, das waren 2,3 Prozent mehr als 2024. Das berichtete der Bundesverband Musikindustrie (BVMI) in Berlin. Im Jahr zuvor hatte der Verband noch von einem Zuwachs von 7,8 Prozent berichtet.

Weiterlesen nach der Anzeige

Die Markttrends bleiben dabei die gleichen: Klassische physische Tonträger haben zusehends ausgedient. Deren Verkauf summierte sich 2025 nur noch auf 345 Millionen Euro – 5,9 Prozent weniger als 2024. Aber wie im Vorjahr bringt der Retrotrend zur Vinylschallplatte ungebrochen Zuwachs mit einem Umsatzplus von 2,8 Prozent.

Den mit 85,8 Prozent überragenden Marktanteil hält allerdings der digitale Musikverkauf – mit einem Umsatzvolumen von mehr als zwei Milliarden Euro. Das Gros dieser Verkäufe entfällt auf Streaming.

„Angesichts der zunehmenden KI-Durchdringung aller Branchensegmente gilt unser Interesse in besonderem Maß dem Ausbau des digitalen Lizenzgeschäfts, basierend auf einem starken Urheberrecht, das nicht verwässert werden darf“, sagte der BVMI-Vorstandsvorsitzende Florian Drücke laut Mitteilung.

Zudem rückt aus Branchensicht KI als Konkurrent ins Blickfeld. „In dem aktuellen Umfeld ist es wichtig, dass wir gemeinsam noch intensiver die tiefgreifenden Veränderungen des Musicbusiness erklären“, hieß es. „Dies in einer Zeit, in der musikalischer ‚Spitzensport’ auf musikalischen ‚Breitensport‘ und nun auch immer mehr KI-generierte Inhalte trifft und der Wettbewerb um Aufmerksamkeit konstant weiter zunimmt.“


(mho)



Source link

Weiterlesen

Beliebt