Künstliche Intelligenz
Proaktive IT-Security mit Pentesting: Ethical Hacking für Admins
Um die eigenen IT-Systeme effektiv vor Angriffen zu schützen, müssen Admins und IT-Sicherheitsverantwortliche die Techniken und Tools der Hacker kennen. Genau das lernen sie in unserem fünfteiligen Classroom Ethical Hacking für Admins – Pentesting für eine sichere IT. Mithilfe von Penetrationstests (Pentesting) schlüpfen die Teilnehmer in die Rolle von ethischen Hackern und scannen ihre Systeme auf potenzielle Schwachstellen. Starten Sie mit der aktuellen Neuauflage unseres Classrooms sicher in das Jahr 2025!
Weiterlesen nach der Anzeige
Unser erfahrener Security-Experte Frank Ully zeigt, wie Angreifer bei der Informationsbeschaffung über Zielsysteme vorgehen (Open Source Intelligence, OSINT) und welche Werkzeuge sie dabei nutzen. Die Teilnehmenden lernen leistungsstarke Tools wie Nmap und Kali Linux kennen, um Sicherheitslücken in der eigenen Infrastruktur aufzuspüren. Ein besonderer Fokus liegt auf dem Exploit-Framework Metasploit, mit dem Hacker identifizierte Schwachstellen gezielt ausnutzen.
Härtung interner und externer Systeme
In den weiteren Sessions behandelt unser Experte, wie Admins ihre internen Netzwerke mit Fokus auf Active Directory härten und öffentlich erreichbare Systeme absichern, etwa Webanwendungen und APIs. Anhand der OWASP Top 10 erläutert er die häufigsten Sicherheitsrisiken. Zudem widmet sich ein Termin der Härtung von Cloud-Umgebungen, insbesondere von AWS, Azure und der Google Cloud Platform (GCP). Dabei kommen auch spezialisierte Tools zum Einsatz, etwa ScubaGear oder ScoutSuite.
Anhand vieler Praxisbeispiele lernen die Teilnehmenden die einzelnen Phasen eines Hacker-Angriffs kennen – vom initialen Eindringen über Privilegieneskalation bis zum Erreichen des eigentlichen Ziels. Mit diesem Wissen sind Admins in der Lage, Angriffe frühzeitig zu erkennen und bereits im Vorhinein zu erschweren. Nach dem Classroom können sie Schwachstellen proaktiv identifizieren und beheben, um die Widerstandsfähigkeit ihrer IT-Systeme deutlich zu erhöhen. Die Termine sind:
- 03.02.26: Von Hackern lernen: Pentesting-Grundlagen und OSINT für proaktive IT-Sicherheit
- 10.02.26: Sicherheitslücken aufdecken: Portscans, Schwachstellenscanner und Kali Linux im Einsatz
- 17.02.26: Interne Netzwerke absichern: Active Directory und Co. vor Angreifern schützen
- 24.02.26: OWASP Top 10: Sicherheitslücken in Webanwendungen und Web-APIs aufdecken
- 03.03.26: Cloud-Umgebungen härten: Audit-Tools für AWS, Azure und Google Cloud
Praxis- und Expertenwissen – live und für später
Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmer können sich ebenfalls untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive.
Weiterlesen nach der Anzeige
Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
(lomo)
Künstliche Intelligenz
KI-Update kompakt: DSA-Verfahren gegen X, Grokipedia, Anthropic, Justiz
ChatGPT nutzt Grokipedia
Weiterlesen nach der Anzeige
Grokipedia, die KI-generierte Enzyklopädie von xAI, liefert Inhalte an andere Chatbots. Laut Guardian finden sich in der von Elon Musk initiierten Alternative zu Wikipedia problematische Einträge: Pornografie habe direkt zur Aidskrise beigetragen, Transgender-Personen würden abfällig bezeichnet, Rechtfertigungen für Sklaverei tauchten auf. Teile dieser Inhalte erscheinen nun auch bei ChatGPT und Claude.
Beide Chatbots sollen die Quelle verschleiert haben. Obwohl die Informationen eindeutig aus Grokipedia stammten, tauchte diese nicht in den Quellenangaben auf. Die Tests waren klein, doch sie verdeutlichen, wie leicht externe Quellen einen Chatbot beeinflussen können.

Zero-Day-Exploits durch KI sind bereits Realität
Künstliche Intelligenz kann bereits Zero-Day-Exploits entwickeln, wie Sicherheitsforscher Sean Heelan in einer neuen Studie dokumentiert. Für die anspruchsvollste Aufgabe benötigte ChatGPT gut drei Stunden und kostete etwa 50 Dollar. Diese Summe ließe sich leicht vervielfachen, ohne das Budget einer mittelgroßen Cybercrime-Bande zu sprengen.
Das verändert die Bedrohungslage grundlegend. Mit überschaubarem Investment könnte erstmals ein Arsenal funktionierender Exploits für nahezu alle internetfähigen Geräte entstehen. „Für dieses Szenario müssen wir Security neu denken“, sagt heise-Security-Experte Jürgen Schmidt. Die Herausforderung liege darin, bekannte Sicherheitsmethoden so zu verbreiten, dass Lücken zur Ausnahme werden.
Weiterlesen nach der Anzeige
Der Deutsche Verkehrssicherheitsrat empfiehlt den Bundesländern den flächendeckenden Einsatz von Monocams. Diese KI-gestützten Systeme an Brücken oder Straßenrändern erkennen automatisch, ob jemand am Steuer ein Smartphone in der Hand hält. Rheinland-Pfalz hat die Technik nach einer Testphase zum Jahresbeginn in den Regelbetrieb überführt.
Die Forderung steht im Zentrum der Debatte beim 64. Verkehrsgerichtstag Ende Januar in Goslar. DVR-Präsident Manfred Wirsch sieht in der technischen Aufrüstung ein wirksames Mittel gegen uneinsichtige Fahrer. Die Diskussion dreht sich um das Ziel von null Verkehrstoten in einer zunehmend digitalen Welt.
EU-Kommission eröffnet Digital-Services-Act-Verfahren gegen X
Die EU-Kommission hat ein drittes Verfahren gegen Elon Musks Plattform X eingeleitet. Im Fokus steht das Zusammenspiel zwischen dem sozialen Netzwerk und dem KI-Modell Grok. Dieses hatte zuletzt für Aufsehen gesorgt, weil es strafbare Inhalte generierte: Nacktbilder Minderjähriger, Gewaltfantasien und mutmaßlich geschlechtsspezifische Gewaltdarstellungen.
Die Kommission will prüfen, ob X seinen rechtlichen Pflichten nachgekommen ist. Zusätzlich verlangt sie Auskunft über die Empfehlungsalgorithmen der Plattform. Für die Untersuchung arbeitet Brüssel eng mit der irischen Aufsichtsbehörde zusammen, da die europäische X-Tochter in Dublin sitzt. Neben dem Digital Services Act könnten auch nationales Strafrecht und Datenschutzregeln greifen.
Anthropic muss Einstellungstests ständig erneuern, weil Claude sie löst
Anthropic kämpft mit einem ungewöhnlichen Recruiting-Problem: Das Unternehmen musste seinen Programmiertest bereits dreimal überarbeiten, weil jede neue Claude-Version die vorherige Testversion unbrauchbar machte. Mit Claude 3.7 Sonnet hätte über die Hälfte der Kandidaten besser abgeschnitten, wenn sie die Aufgabe komplett an die KI delegiert hätten. Claude Opus 4.5 erreichte schließlich dieselbe Punktzahl wie die besten menschlichen Bewerber.
Ein KI-Verbot kam für Teamleiter Tristan Hume nicht infrage, weil Ingenieure im Arbeitsalltag ebenfalls KI-Assistenten nutzen. Stattdessen orientierte er sich an Programmier-Puzzlespielen mit stark eingeschränkten Umgebungen. Der neue Test nutzt ungewöhnliche Einschränkungen, die in Claudes Trainingsdaten kaum vorkommen. Der Nachteil: Der Test hat weniger mit den realen Aufgaben zu tun. Doch Realismus, sagte Hume, könnte ein Luxus sein, den sich Anthropic nicht mehr leisten könne.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
OpenAI kündigt Codex-Updates mit hohem Cybersecurity-Risiko an
OpenAI plant mehrere Neuerungen für sein Code-Modell Codex im kommenden Monat. CEO Sam Altman warnt dabei ungewöhnlich offen: Das Modell werde erstmals die Stufe „Hoch“ im unternehmenseigenen Cybersecurity-Risikoframework erreichen. Auf dieser Stufe kann ein Modell laut OpenAI bestehende Hürden für Cyberangriffe beseitigen, etwa durch automatisierte Attacken auf gut geschützte Ziele oder das automatische Finden von Sicherheitslücken.
Zunächst will OpenAI mit Produktbeschränkungen verhindern, dass Menschen die Modelle für Cyberkriminalität nutzen. Langfristig sollen die Modelle auch beim Beheben von Lücken helfen. Altman begründet die Veröffentlichung trotz der Risiken damit, dass es bald viele leistungsfähige Modelle geben werde. Deshalb sei es wichtig, aktuelle KI schnell einzusetzen, um Software sicherer zu machen.
Mit KI gesparte Zeit wird genutzt, um KI-Ergebnisse zu korrigieren
Der Einsatz generativer KI in Unternehmen erweist sich als zweischneidig. Laut einer Umfrage des HR- und Finanzsoftwareanbieters Workday sparen zwar 85 Prozent der Befragten eine bis sieben Stunden pro Woche mit KI. Doch bis zu 40 Prozent dieser Zeitersparnis geht für Nacharbeit an fehlerhaften Ergebnissen wieder verloren.
Nur 14 Prozent der Befragten kommen mit KI zu einem durchweg positiven Nettoergebnis und besserer Qualität. Auch messbarer Wert durch KI-Einführung bleibt für die Mehrheit aus: Laut der Beratungsgesellschaft PwC haben bisher nur rund 12 Prozent der Unternehmen Kosteneinsparungen und Wertzuwachs erzielt.
Meta schaltet KI-Charaktere für Teenager ab, zumindest vorerst
Meta will den Zugang von Teenagern zu seinen KI-Charakteren vorübergehend in allen Apps weltweit sperren, bis ein neues Kinderschutzmodell steht. Künftig sollen Eltern die Möglichkeit erhalten, Einzelgespräche ihrer Kinder mit KI-Charakteren zu unterbinden und mehr Einblick in deren KI-Interaktionen zu bekommen.
Die Ankündigung kommt kurz vor einem Verfahren gegen Meta in New Mexico. Dort wird das Unternehmen beschuldigt, Kinder nicht ausreichend vor sexueller Ausbeutung in seinen Apps zu schützen. Meta wies vergangene Woche ähnliche Vorwürfe zurück: Psychische Probleme von Jugendlichen ließen sich nicht direkt auf Social-Media-Nutzung zurückführen.
Sinnvoller Einsatz von KI bei Gericht
Im c’t-Datenschutz-Podcast „Auslegungssache“ spricht Richterin Kristin Benedikt auch über KI am Gericht. Einen „Robo-Richter“ lehnt sie strikt ab. Entscheidungen müssten von Menschen vorbereitet und getroffen werden. Sinnvoll sei KI aber bei unterstützenden Aufgaben, etwa bei Dolmetscherdiensten in Asylverfahren.
Das Problem: Geeignete Dolmetscher für seltene Sprachen oder etwa russische Gebärdensprache sind schwer zu finden. Komplexe juristische Sachverhalte gehen bei der Übersetzung oft verloren. Wenn KI hier unterstützen könne, sei das ein gutes Szenario, sagte Benedikt, die am bayerischen Verwaltungsgericht auch als Datenschutzbeauftragte tätig ist.
Japanische Kreative verlieren Einkommen durch generative KI
Rund zwölf Prozent der japanischen Manga-Künstler, Illustratoren und anderen Kreativen haben im vergangenen Jahr Einkommensverluste durch generative KI erlitten. Das ergab eine Umfrage der Freelance League of Japan mit knapp 25.000 Teilnehmern. Etwa drei Prozent verloren mehr als die Hälfte ihres Einkommens.
Betroffene berichten von kürzeren Fristen und niedrigeren Honoraren, weil Auftraggeber KI-Einsatz voraussetzen. Fast 90 Prozent sehen generative KI als Bedrohung für ihren Lebensunterhalt. Die Liga fordert von der japanischen Regierung Transparenzpflichten für Trainingsdaten, Kennzeichnungspflichten für KI-Werke und neue Systeme zur Gewinnbeteiligung.
Kein Ende des Geldsegens für Anguilla
Die Karibikinsel Anguilla hat die Millionenmarke bei registrierten .ai-Domains überschritten. Die Wachstumsrate liegt bei einem Prozent pro Woche. Premierministerin Cora Richardson Hodge gab die Zahl vergangene Woche bekannt.
Die Regierung des britischen Überseegebiets mit seinen 16.000 Einwohnern investiert die Einnahmen in Straßensanierung, Flughafenausbau und kostenfreie Gesundheitsversicherung für Kleinkinder. Im Dezember kündigte sie den Aufbau eines Staatsfonds an, um die Einnahmen für künftige Generationen zu sichern.

(igr)
Künstliche Intelligenz
Ex-Astronauten kritisieren Nasa für Hitzeschild der Orion-Kapsel bei Artemis-2
Ende 1972 war mit Apollo 17 der bisher letzte bemannte Flug zum Mond gestartet. Anfang Februar 2026 könnte es wieder so weit sein. Denn dann öffnen sich die ersten Startfenster für die Artemis-2-Mission.
Weiterlesen nach der Anzeige
Orion-Hitzeschild bei Artemis 1 beschädigt
In deren Rahmen sollen vier Astronauten in der Orion-Kapsel der NASA den Mond umrunden und anschließend zurückkehren. Eine Mondlandung ist erst mit Artemis 3 geplant. Dennoch ist die anstehende Mission nicht ganz risikofrei, wenn es nach Experten geht. Das Problem ist demnach der Hitzeschild der Kapsel, wie CNN berichtet.
Der Hitzeschild wurde 2022 bei der noch unbemannten Mondmission Artemis 1 beim Wiedereintritt in die Erdatmosphäre in Mitleidenschaft gezogen. Nach Abschluss entsprechender Untersuchungen des Vorfalls ist die NASA aber der Überzeugung, dass sie die Sicherheit der Besatzung gewährleisten könne – auch wenn ein Restrisiko bleibe.
Risiko senken: NASA ändert Wiedereintrittsbahn
Dazu soll es Änderungen bei der Rückkehr zur Erde geben. Hier hatte die NASA 2022 erstmals auf eine neue Wiedereintrittstechnik gesetzt, bei der die Kapsel über die Erdatmosphäre „springt“ – ähnlich wie ein flacher Stein über die Wasseroberfläche. Eine neue Wiedereintrittsbahn soll die Belastung für den Hitzeschild künftig merklich reduzieren.
Dem Hitzeschild-Experten und ehemaligen NASA-Astronauten Charlie Camarda scheint das Risiko derweil dennoch zu hoch zu sein. Er habe Monate damit verbracht, die US-Weltraumbehörde von seinen Warnungen zu überzeugen, schreibt CNN.
Weiterlesen nach der Anzeige
Zusätzliche Schutzschicht bei Orion-Kapsel
Weitere Experten sind ebenfalls überzeugt, dass es trotz der Änderungen zu Schäden an dem Hitzeschild kommen werde. Nicht alle sehen das aber als Gefahr für die Astronauten im Inneren der Kapsel. So gebe es eine zusätzliche Materialschicht, die die extremen Temperaturen von bis zu 2.800 Grad Celsius beim Wiedereintritt kurzzeitig aushalten könne.
Bei der Orion-Kapsel kommt zwar grundsätzlich die gleiche Schutzschicht zum Einsatz wie bei den Apollo-Missionen der 1960er- und 70er-Jahre. Allerdings wurden Material (Avcoat) und Design etwas verändert, um die Effizienz bei Fertigung und Einbau zu erhöhen. Die einstige Wabenstruktur ist einer Blockstruktur gewichen.
Mission wohl trotz Restrisiko nicht gefährdet
Letztlich scheint allen Befürchtungen zum Trotz das Vertrauen der NASA-Ingenieure in den bestehenden Hitzeschild groß genug, um die Mission trotz eines gewissen Restrisikos zu starten. Und auch Kritiker Camarda sieht eine sichere Rückkehr als wahrscheinlich an. Aber: Ein sicherer Flug könne die NASA auf Dauer in falscher Sicherheit wiegen.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)
Künstliche Intelligenz
Bürgerinitiative: 1.294.188 Unterschriften für „Stop Destroying Videogames“
Die EU-Kommission muss sich mit der Bürgerinitiative „Stop Destroying Videogames“ beschäftigen. Die Initiative will das Abschalten von Videospielen stoppen, wie es etwa bei Online-Spielen durch das Herunterfahren von Servern vorkommt. Genau 1.294.188 verifizierte Unterschriften konnten die Organisatoren nun bei der EU einreichen. Mindestens eine Million Unterschriften sind nötig, bevor sich die EU-Kommission mit einer Initiative auseinandersetzen muss.
Weiterlesen nach der Anzeige
Insgesamt konnte die Bürgerinitiative rund 1,45 Millionen Stimmen sammeln. Bevor diese bei der EU-Kommission eingereicht werden können, müssen sie aber verifiziert werden. Dafür sind die Mitgliedsstaaten der einzelnen EU-Länder verantwortlich, in denen die Unterschriften gesammelt wurden. Sie prüfen etwa, ob die Unterzeichner Staatsbürger sind, das nötige Mindestalter erreicht haben und ob alle angegebenen Informationen korrekt und vollständig sind.
Der Großteil der ursprünglich für „Stop Destroying Videogames“ abgegebenen Stimmen hat die Prüfung überlebt. Damit ist es amtlich: Die EU-Kommission hat bis zum 27. Juli 2026 Zeit, eine Antwort auf das Anliegen der Bürgerinitiative zu erarbeiten. Bis dahin wollen sich die EU-Kommissare zuerst mit den Organisatoren treffen, bevor das Europäische Parlament eine öffentliche Anhörung organisiert, heißt es auf der Webseite der Europäischen Union.
233.000 Unterschriften aus Deutschland
Ziel von „Stop Destroying Videogames“ ist es, Spielefirmen davon abzuhalten, ihre Titel komplett abzuschalten. Die EU soll Firmen nach Ansicht der Organisatoren dazu verpflichten, Videospiele in einem funktionalen Zustand zu bewahren. Die Initiative, die Teil des Projekts „Stop Killing Games“ ist, hat der YouTuber Ross Scott angestoßen, nachdem der französische Publisher Ubisoft 2024 sein MMO-Rennspiel „The Crew“ unspielbar gemacht hatte. Bei Online-Spielen ist das ein gängiges Vorgehen. Die Organisatoren fordern, dass solche Spiele zumindest offline spielbar bleiben müssen.
In einem Reddit-Post gehen die Organisatoren näher auf die Verteilung der verifizierten Stimmen ein: Der größte Anteil kam mit rund 233.000 Unterschriften aus Deutschland, gefolgt von Frankreich mit 145.000 und Polen mit 143.000 Unterschriften.
(dahe)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 4 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
