Connect with us

Künstliche Intelligenz

iX-Workshop: Dreieinhalb Tage Netzwerkanalyse und Fehlersuche mit Wireshark


Langsame Verbindungen, ständige Unterbrechungen oder unerkannte Sicherheitslücken können den Betriebsablauf stark beeinträchtigen oder sogar zu Ausfällen führen. Mit Wireshark, einem Open-Source-Tool zur Netzwerkanalyse, können Administratoren den Netzwerkverkehr in Echtzeit überwachen, Sicherheitsrisiken identifizieren und Verbindungsprobleme diagnostizieren.

Weiterlesen nach der Anzeige

In dem praxisorientierten Workshop Netzwerkanalyse und Fehlersuche mit Wireshark erfahren Sie, wie Sie das Netzwerkanalyse-Tool Wireshark effizient einsetzen können. Sie lernen die Funktionsweise und Konfiguration von Wireshark kennen, entwickeln systematische Vorgehensweisen zur Fehleranalyse, verstehen die Bedeutung der Aufzeichnung von Netzwerkdaten und erfahren, wie Sie die Zuverlässigkeit Ihres Netzwerks steigern können.

Der Workshop ist interaktiv gestaltet und beinhaltet praxisnahe Übungen in einer bereitgestellten Laborumgebung. Sie werden selbstständig Netzwerkdaten erfassen, Filter setzen, Analysen durchführen und Statistiken erstellen. Anhand konkreter Anwendungsszenarien vertiefen Sie dieses Wissen und verstehen beispielsweise, wie Sie Netzwerkprotokolle analysieren, Leistungsengpässe aufspüren und Auswirkungen von Paketstaus und Paketverlusten erkennen.

März
02.03. – 05.03.2026
Online-Workshop, 09:00 – 16:30 Uhr
10 % Frühbucher-Rabatt bis zum 02. Feb. 2026
Mai
11.05. – 14.05.2026
Online-Workshop, 09:00 – 16:30 Uhr
10 % Frühbucher-Rabatt bis zum 13. Apr. 2026
September
21.09. – 24.09.2026
Online-Workshop, 09:00 – 16:30 Uhr
10 % Frühbucher-Rabatt bis zum 24. Aug. 2026
November
16.11. – 19.11.2026
Online-Workshop, 09:00 – 16:30 Uhr
10 % Frühbucher-Rabatt bis zum 19. Okt. 2026

Ihr Trainer Henrik Wahsner ist ein erfahrener Experte in der Performanceanalyse und Fehlersuche in IP-Netzwerken. Als technischer Leiter der NETCOR GmbH kombiniert er tiefgehendes Fachwissen mit praxisnaher Expertise, die er in zahlreichen Kundenprojekten gesammelt hat.

Der Workshop dauert dreieinhalb Tage und richtet sich an Netzwerkadministratoren und technische Mitarbeiter, die für den Betrieb von Netzwerken verantwortlich sind. Er ist ideal für Einsteiger in die Arbeit mit Wireshark, aber auch für erfahrene Anwender, die ihr Wissen vertiefen möchten. Teilnehmer, die das Tool bereits nutzen, erhalten neue Perspektiven und Workflows für die Netzwerkanalyse.

Aufgrund des interaktiven Formats ist die Teilnehmerzahl auf 20 Personen begrenzt, um ausreichend Raum für den Austausch mit dem Trainer und den anderen Teilnehmern zu schaffen.

Weiterlesen nach der Anzeige


Upgrade für Ihre IT-Skills - Von Experte zu Experte

Upgrade für Ihre IT-Skills - Von Experte zu Experte


(ilk)



Source link

Künstliche Intelligenz

Telekom will KI-Assistenten in Mobilfunknetz integrieren


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Deutsche Telekom plant, einen KI-Assistenten für Telefonate einzuführen. Das teilte Abdu Mudesir, Vorstand für Produkt und Technologie bei der Telekom, im Gespräch mit der Frankfurter Allgemeinen Zeitung mit. Der „Magenta AI Call Assistant“ genannte KI-gestützte Assistent soll kommende Woche auf dem Mobile World Congress in Barcelona, der weltweit größten Mobilfunkmesse, vorgestellt werden.

Weiterlesen nach der Anzeige

Der KI-Assistent wird direkt in das von der Telekom betriebene Mobilfunknetz integriert und soll KI-Funktionen somit auch für Menschen ohne Smartphone zugänglich machen. Mittels des Ausrufs „Hey Magenta“ kann der KI-Assistent zukünftig zu Telefongesprächen hinzugezogen werden und soll dann etwa für Fragen, Live-Übersetzungen, Gesprächsprotokolle oder automatisierte Kalendereinträge zur Verfügung stehen. „Unser KI-Assistent agiert als vertrauensvoller Partner für alle Kunden“, sagte Mudesir der gegenüber der Zeitung.

Damit der KI-Assistent aufgerufen werden kann, muss das Telefonat aus dem Netz der Telekom begonnen werden. Angerufene Personen können derweil auch im Netz der konkurrierenden Mobilfunknetzbetreiber in Deutschland, etwa Vodafone oder Telefónica, eingewählt sein.

Dass die Deutsche Telekom den „Magenta AI Call Assistant“ nicht im Alleingang entwickelt hat, gilt als unstrittig. Mit wem sie sich verpartnert hat, will der DAX-Konzern derweil noch nicht verraten. Mudesir zufolge arbeitet man mit den besten in der Industrie zusammen, darunter sowohl europäische als auch amerikanische Unternehmen.

Die Telekom wäre der erste Netzbetreiber weltweit, der einen KI-Assistenten direkt in ein Mobilfunknetz integriert. Bislang setzen die großen US-Technologiekonzerne auf Apps, die den Zugang zu KI-Chatbots ermöglichen. Autonome KI-Agenten greifen auf die Modellfamilien der großen KI-Entwickler wie OpenAI, Google oder Anthropic derweil meist via APIs zu.

Der „Magenta AI Call Assistant“ ist indes nicht die einzige Neuerung auf dem Gebiet der Künstlichen Intelligenz, die die Telekom auf dem Mobile World Congress vorstellen will. Laut Präsentationsunterlagen, die dem Handelsblatt vorliegen, will das DAX-Unternehmen kommende Woche eine eigene KI-Brille präsentieren. Eine Telekom-Sprecherin habe den Inhalt der Unterlagen auf Anfrage bestätigt. Auf dem Mobile World Congress werde man einen funktionierenden Prototyp im Rahmen einer Live-Demo vorstellen. Gleichzeitig betonte die Sprecherin der Telekom, dass es sich bei dem Produkt lediglich um eine Designstudie und keine Produktankündigung handele. Ziel sei es, zu demonstrieren, was mit verfügbarer Hardware und KI-Infrastruktur möglich sei.

Weiterlesen nach der Anzeige

Den Informationen des Handelsblatts zufolge ist der chinesische Hersteller RayNeo, eine Tochterfirma des chinesischen Elektronikkonzerns TCL, an der Entwicklung der Smart Glasses der Telekom beteiligt. Mutmaßlich basiert die KI-Brille auf dem bereits erhältlichen Modell RayNeo X3 Pro. Das verfügt über zwei integrierte Bildschirme, eine Kamera sowie Mikrofone und Lautsprecher.

In die Smart Glasses will die Telekom mutmaßlich ihre eigene Software „Magenta AI“ integrieren. Die smarte Brille soll dann über agentische KI-Fähigkeiten verfügen. Nutzer sollen per Sprachbefehlen Informationen abrufen, Texte übersetzen oder Hinweise zur Umgebung erhalten können. Damit würde die Brille dem Funktionsumfang der Smart Glasses von Meta und Ray-Ban ähneln.


(rah)



Source link

Weiterlesen

Künstliche Intelligenz

„ChatGPT Health“: Schwächen bei medizinischen Notfällen und der Suizidprävention


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Januar 2026 hat OpenAI mit „ChatGPT Health“ einen Service eingeführt, der als erste digitale Anlaufstelle für Gesundheitsfragen dienen soll. Entscheidend für einen solchen Einsatz ist, dass KI die Schwere und Dringlichkeit eines Problems korrekt bewertet. Die Skala der Empfehlungen reicht dabei von „zu Hause auskurieren“ über „einen Arzt in den nächsten Wochen aufsuchen“ bis zum sofortigen Gang in eine Notaufnahme.

Weiterlesen nach der Anzeige

Forscher haben nun in einer im Fachjournal Nature Medicine veröffentlichten Studie systematisch untersucht, wie verlässlich und sicher diese KI-basierte Triage in der Praxis funktioniert, und stießen dabei auf bedenkliche Mängel.

Um die Genauigkeit der KI realitätsnah und kontrolliert zu überprüfen, entwarfen Mediziner 60 detaillierte klinische Fallbeispiele aus 21 Fachbereichen. Diese Fälle wurden dabei methodisch variiert und in den Textvorgaben (Prompts) veränderten die Forscher Merkmale wie Geschlecht und Hautfarbe der fiktiven Patienten, simulierten Hürden wie fehlende Transportmöglichkeiten oder bauten psychologische Faktoren ein, wie etwa die verharmlosende Aussage durch einen Angehörigen.

Insgesamt wurden 960 dieser Anfragen an ChatGPT Health gestellt. Die Triage-Empfehlungen der KI wurden anschließend mit der unabhängigen Einschätzung eines ärztlichen Expertenteams (basierend auf etablierten klinischen Leitlinien) verglichen.

Weiterlesen nach der Anzeige

Die Auswertung zeigte ein gemischtes Bild. Bei medizinischen Alltagsproblemen mittleren Schweregrades stimmten die Empfehlungen der KI meist mit denen der Ärztinnen und Ärzte überein. An den Rändern des Schweregrades, also bei völliger Harmlosigkeit oder bei akuter Lebensgefahr, sank die Leistung jedoch deutlich ab.

Unter-Triage (Verpasste Notfälle): In 51,6 Prozent der echten medizinischen Notfälle bewertete die KI die Lage als zu harmlos. Bei Patienten mit einer schweren diabetischen Entgleisung (Ketoazidose) oder einem akuten Asthma-Anfall riet das System beispielsweise dazu, innerhalb der nächsten 24 bis 48 Stunden einen Arzt aufzusuchen, anstatt den sofortigen Weg in die Notaufnahme zu empfehlen. Die KI erkannte im Text zwar teils die kritischen Symptome, gewichtete diese aber oft falsch (etwa mit dem Argument, der Patient spreche trotz Atemnot noch in ganzen Sätzen).

Umgekehrt zeigte sich ChatGPT Health bei harmlosen Beschwerden oft sehr vorsichtig. Fast 65 Prozent der Fälle, die laut Leitlinien problemlos zu Hause beobachtet werden könnten, stufte das System als behandlungsbedürftig ein und riet zu einem Arztbesuch. Dies birgt laut den Forschern potenziell das Risiko, Ressourcen im Gesundheitssystem unnötig zu belasten.

Beide Fehler (Unter- und Über-Triage) sind natürlich problematisch, wobei insbesondere eine Unter-Triage gefährlich sein kann, wenn Patientinnen und Patienten zu spät die notwendige medizinische Hilfe bekommen. Bei Routinefällen, welche weder besonders dringend, noch harmlos waren, zeigte ChatGPT Health eine gute Leistung und stimmte in 93 Prozent der Fälle mit der ärztlichen Empfehlung überein.

Die Studie untersuchte außerdem, inwieweit psychologische Effekte die KI-basierte Ersteinschätzung beeinflussen. Es zeigte sich, dass ChatGPT Health anfällig für den sogenannten „Anchoring Bias“ (Ankereffekt) ist. Wurde in einem medizinischen Grenzfall beiläufig erwähnt, dass Freunde die Symptome als nicht besorgniserregend einstuften, ließ sich die KI davon oft beeinflussen. Die Wahrscheinlichkeit, dass das System daraufhin eine weniger dringliche Einschätzung abgab, stieg deutlich an (Odds Ratio von 11,7).

Keinen statistisch signifikanten Einfluss auf die Triage-Empfehlungen hatten hingegen demografische Faktoren wie Hautfarbe oder Geschlecht der Patientinnen und Patienten in den konstruierten Fällen.

Ein weiterer Schwerpunkt der Untersuchung war der Umgang der KI mit psychischen Notlagen. Um Nutzer zu schützen, verfügt ChatGPT Health über einen Mechanismus, der bei Suizidgedanken ein Warnbanner mit dem Hinweis „Hilfe ist verfügbar“ und einem Verweis auf Krisenhotlines einblendet.

Die Studie zeigte hier verschiedene Mängel auf. Dieser Schutzmechanismus funktioniert in der Untersuchung zuverlässig bei vagen, eher passiven Aussagen zu Suizidgedanken. Äußerte ein fiktiver Patient jedoch einen konkreten Suizidplan (beispielsweise die Absicht, bestimmte Tabletten einzunehmen) und lieferte gleichzeitig unauffällige medizinische Laborwerte mit, blieb das Warnbanner meist aus. Das System fokussierte sich in diesen Fällen stark auf die körperlichen Parameter – mit Hinweisen wie „Ihre Laborwerte sind normal und deuten auf keine medizinische Ursache für diese Gedanken hin“ und erkannte den akuten psychischen Notfall oft nicht.

Die Autoren der Studie leiten aus ihren Ergebnissen Empfehlungen für den künftigen Einsatz von KI im Gesundheitsmarkt ab. Anbieter wie OpenAI versehen ihre Systeme mit rechtlichen Hinweisen, dass diese keine ärztliche Diagnose ersetzen. Es ist aber nicht unwahrscheinlich, dass viele Menschen einen Arztbesuch verschieben oder vermeiden würden, wenn ihnen die KI versichert, es bestehe kein ernsthaftes Problem.

Die Wissenschaftler schlussfolgern, dass Systeme, die als erster Kontaktpunkt für medizinische Einschätzungen genutzt werden, strengeren Prüfungen unterliegen sollten. Sie schlagen vor, dass patientengerichtete KI-Tools im Gesundheitsbereich vor einer breiten Veröffentlichung ähnliche externe Sicherheits- und Zulassungsprüfungen durchlaufen sollten wie klassische Medizinprodukte, um den Patientenschutz verlässlich zu gewährleisten.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Abhörskandal: Spyware-Hersteller in Griechenland zu Haftstrafen verurteilt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein Gericht in Griechenland hat am Donnerstag den Gründer von Intellexa, Tal Dilian, wegen illegaler Abhörpraktiken und Datenschutzverletzungen zu acht Jahren Haft verurteilt. Das berichtete unter anderem die griechische Tageszeitung Kathimerini. Intellexa ist ein Firmenzusammenschluss mehrerer Spyware-Hersteller, der vor allem für die Spähsoftware Predator bekannt ist.

Weiterlesen nach der Anzeige

Dilian, ein früherer israelischer Armeeoffizier, und drei weitere Führungskräfte von Intellexa standen wegen ihrer Rolle in einem 2022 aufgedeckten Abhörskandal vor Gericht. In dem ging es um das illegale Ausspionieren von Politikern, Journalisten, Wirtschaftsführern und hochrangigen Militärs mit der von Intellexa entwickelte Spyware Predator. Der Fall wurde auch als „griechisches Watergate“ bekannt. Neben Dilian wurden dessen Geschäftspartnerin Sara Aleksandra Fayssal Hamou, sein ehemaliger stellvertretender Geschäftsführer und Anteilseigner von Intellexa, Felix Bitzios, sowie Yiannis Lavranos, dessen Unternehmen Krikel die Spionagesoftware gekauft hatte, verurteilt. Die Angeklagten bestreiten eine Beteiligung an illegalen Handlungen.

Predator gilt als ausgefeilte Spionagesoftware. Neue Untersuchungen des Threat Labs Teams zeichnen das Bild einer Schadsoftware, deren technisches Niveau weit über bisherige Annahmen hinausgeht. Die Entwickler haben demnach Funktionen implementiert, die nicht nur der reinen Spionage dienen. Vielmehr verteidigt sich das Programm aktiv gegen Entdeckung und lernt aus Fehlern.

Der Fall in Griechenland ist der erste bekannte Fall, in dem ein Spyware-Hersteller wegen des Missbrauchs seiner Technologie zu einer Gefängnisstrafe verurteilt wird. Das Gericht befand die vier Angeklagten für schuldig, sich mehrfach unrechtmäßig Zugang zu privaten Kommunikationssystemen und Daten verschafft sowie gegen Datenschutzgesetze verstoßen zu haben. Mildernde Umstände lehnte das Gericht ab und verhängte eine Gesamtfreiheitsstrafe von 126 Jahren und acht Monaten, von denen acht Jahre verbüßt werden müssen. Das Gericht ordnete Ermittlungen gegen weitere Personen an. Die Verurteilten können Berufung einlegen.

Der Überwachungsskandal kam im Sommer 2022 ans Licht, nachdem der Vorsitzende der Oppositionspartei PASOK, Nikos Androulakis, darüber informiert wurde, dass sein Smartphone mit der Spyware Predator von Intellexa infiziert wurde, während er Abgeordneter im Europäischen Parlament war. Später räumte die griechische Regierung ein, dass Androulakis vom griechischen Geheimdienst EYP überwacht wurde, sprach aber von einer klassischen Telekommunikationsüberwachung.

Nach und nach stellte sich heraus, dass Dutzende Politiker, Geschäftsleute und Journalisten über ihre Mobiltelefone ausspioniert wurden. Der Skandal führte schließlich zum Rücktritt des Geheimdienstchefs und eines hochrangigen Beraters von Premierminister Kyriakos Mitsotakis.

Im Jahr 2023 verhängte die US-Regierung Sanktionen gegen Intellexa. Die Spionagewerkzeuge des Unternehmens seien eine Gefahr für die nationale Sicherheit der USA, begründet die dafür zuständige Abteilung des US-Handelsministeriums. Außerdem würden die Tools die Privatsphäre und die Sicherheit von Individuen sowie Organisationen in aller Welt bedrohen. Anfang 2024 verschärfte die US-Regierung ihr Vorgehen und verhängte erstmals auch Sanktionen gegen Gründer und führende Personen von Spyware-Firmen, darunter Dilian und dessen rechte Hand Hamou. Nun müssen beide sogar ins Gefängnis.

Weiterlesen nach der Anzeige


(akn)



Source link

Weiterlesen

Beliebt