Künstliche Intelligenz
Ethical Hacking für Fortgeschrittene – sich selbst hacken, bevor es andere tun
Mithilfe von Ethical Hacking nutzen Admins und IT-Sicherheitsverantwortliche die Techniken und Tools potenzieller Angreifer, um besser gegen diese gewappnet zu sein. Unser neuer Classroom Fortgeschrittenes Ethical Hacking – Deep Dive ins Pentesting für Admins gibt Ihnen ein noch tiefergehendes Wissen zur Abwehr an die Hand. Lernen Sie in fünf Sessions „richtig zu hacken“, um potenziellen Angriffen frühzeitig zu begegnen, indem Sie eigene Systeme auf Herz und Nieren prüfen.
Unser Experte Frank Ully widmet sich im Rahmen des Classrooms allen relevanten Bereichen, über die potenzielle Angreifer Zugriff auf Ihre Systeme erhalten können: Das betrifft sowohl externe Umgebungen und die eigene öffentliche IT-Infrastruktur als auch interne Netzwerke mit Fokus auf Active Directory (AD). Aber auch Webanwendungen und Web-Schnittstellen (APIs) stellen potenzielle Einfallstore dar, die Sie aus der Angreiferperspektive kennenlernen. Abschließend stehen auch die öffentlichen Clouds im Fokus, mit Schwerpunkt auf der Microsoft-Cloud (Entra ID, Microsoft 365) sowie Amazon Web Services (AWS).
Praxisbeispiele zum Angriff auf die eigenen Systeme
Für zahlreiche Bereiche zeigt unser Experte, in welcher absichtlich verwundbaren Umgebung Sie kostenfrei oder preiswert hacken und sich weiterbilden können – auch weit über diesen Classroom hinaus. Sie lernen das Ausnutzen von Schwachstellen, Erlangen weiterer Privilegien und Erreichen eines Ziels, etwa Ransomware im gesamten Netzwerk auszurollen.
Mit diesem Wissen sind Admins in der Lage, Angriffe frühzeitig zu erkennen und bereits im Vorhinein zu erschweren. Sie kennen und beherrschen die Tools der Hacker und können dieses Wissen gegen potenzielle Angreifer anwenden. Die Termine sind:
- 10.11.25: Fortgeschrittenes Pentesting und OSINT für proaktive IT-Sicherheit
- 17.11.25: Metasploit unter Kali Linux – Command-and-Control- und andere Angriffs-Frameworks für Linux und Windows
- 24.11.25: Windows-Netzwerke angreifen – Dienste im Active Directory und Linux-Systeme proaktiv schützen
- 01.12.25: Schwachstellen in Webanwendungen und Web-APIs nutzen – fortgeschrittene Techniken
- 08.12.25: Unsichere Standardeinstellungen und Fehlkonfigurationen in der Microsoft-Cloud ausnutzen – und AWS weiter härten
Praxis- und Expertenwissen – live und für später
Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmer können sich ebenfalls untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive.
Unser Experte für Cybersicherheit und Pentesting, Frank Ully, ist bereits bestens aus unserem Classroom „Ethical Hacking für Admins – Pentesting für eine sichere IT“ bekannt. Thematisch baut unser neuer Classroom auf diesem auf, eine vorherige Teilnahme wird aber nicht vorausgesetzt, sofern Sie bereits Erfahrungen mit Pentesting und Ethical Hacking besitzen. Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
(cbo)
Künstliche Intelligenz
Jeder Dritte ist schon auf Fake News hereingefallen
Jeder dritte Bürger ist einer Umfrage zufolge schon einmal auf Falschnachrichten im politischen Raum hereingefallen. Etwa jeder Siebte davon gab in der repräsentativen Befragung der IU Internationale Hochschule in Erfurt an, auf der Basis von sogenannten Fake News eine fehlgeleitete Wahlentscheidung getroffen zu haben. Und rund jeder Fünfte hat sich demnach deswegen schon einmal mit anderen gestritten.
Die Dunkelziffer könnte noch höher liegen: Etwa ein Viertel des Befragten gab an, dass sie sich nicht sicher seien, ob sie schon einmal auf Fake News hereingefallen sind, die sich später als solche herausgestellt haben.
„Wir haben in den letzten Monaten gesehen, dass es viele Versuche auch von Staaten gab, massiv mit Hilfe von Fake News einzugreifen“, sagte die Professorin für Medienmanagement an der IU, Nele Hansen. Gerade mit der Zunahme von generativer KI werde die Geschwindigkeit weiter zunehmen. „Das ist eine große Gefahr.“ Rund drei Viertel der Befragten gaben an, dass ihr Vertrauen in Medien durch Fake News allgemein gesunken sei.
Vor allem Jüngere fallen auf Fake News rein
Der Umfrage zufolge berichteten vor allem Menschen unter 30 Jahren davon, schon einmal Falschnachrichten auf den Leim gegangen zu sein. Hansen sagte dazu: „Das hängt zum einen damit zusammen, dass sie durch eine stärkere Social Media Nutzung auch mehr mit Fake News in Berührung kommen.“ Die ältere Generation habe aber auch eine größere Skepsis.
Etwa jeder Zweite gab an, Informationen zum aktuellen politischen oder gesellschaftlichen Geschehen immer oder häufig auf ihre Richtigkeit zu überprüfen. Aus ihrer Sicht seien auch die Schulen und Hochschulen in der Pflicht, ein grundlegendes Bewusstsein zu schaffen, sagte Hansen. „Aber auch die Politik und die großen Tech-Unternehmen sind gefragt zu regulieren.“
Sogenannte Deepfakes, also teils per KI erstellte Fotos oder Videos, seien immer schwerer zu erkennen, sagte Hansen weiter. Es gebe KI-Detektoren, die Hilfestellung geben könnten. Die Deepfakes würden aber immer besser und nicht immer zuverlässig erkannt. „Ich denke, eine Kennzeichnungspflicht für KI-generierte Inhalte wäre wichtig.“
(dmk)
Künstliche Intelligenz
Kritiker sehen Google-Urteil als nicht ausreichend und haben Datenschutzbedenken
„Google darf sein Monopol weiterhin nutzen, um Konkurrenten auszubremsen, auch bei der KI-Suche.“ So sieht einer der Wettbewerber auf dem Markt für Suchmaschinen das jüngste Urteil im Kartellverfahren gegen Google. Denn der Datenkonzern war trotz anerkannter Monopolstellung einer Aufspaltung entgangen und ist mit Auflagen davongekommen. Neben Kritik an einem gemeinhin als zu mild bezeichneten Urteil gibt es jetzt auch Rufe nach strengeren Gesetzen, die den Wettbewerb in der Technologiebranche verbessern und absichern sollen.
Bereits letztes Jahr hatte ein US-Bundesgericht entschieden, dass Googles Suchmaschinen-Geschäfte illegal sind, und diese Woche verkündete Richter Amit Mehta die daraus entstandenen Sanktionen. Demnach darf Google Chrome und Android behalten, muss aber Suchdaten mit der Konkurrenz teilen. Die Kläger, das US-Justizministerium und eine Reihe von US-Bundesstaaten, hatten allerdings eine Aufspaltung des Datenkonzerns gefordert, um Googles marktbeherrschende Stellung einzudämmen.
Kritik an vermeintlich zu mildem Urteil
Dass es dazu nicht gekommen ist, wird jetzt vielfach kritisiert. So erklärt Gabriel Weinberg, CEO der DuckDuckGo-Suchmaschine, dass „die vom Gericht angeordneten Auflagen die notwendigen Änderungen erzwingen werden, um dem illegalen Verhalten von Google angemessen zu begegnen.“ Er fordert deshalb den US-Kongress zum Einschreiten auf, um Google zu mehr Wettbewerb zu zwingen.
Die US-amerikanische „News/Media Alliance“, die frühere „Newspaper Association of America“, kritisiert dagegen, dass Google weiterhin Online-Inhalte abgreifen und für die eigenen KI-Produkte nutzen kann. „Google zwingt Content-Ersteller, ihre Inhalte für die Nutzung durch seine KI-Angebote freizugeben, um in der Google-Suche zu bleiben“, schreibt Danielle Coffey, Präsidentin und CEO der News/Media Alliance. „Dies ist ein aussichtsloses Szenario, das Verlagen, die in hochwertige, journalistische und kreative Inhalte investieren, weiterhin schaden wird. Die Möglichkeit für Verlage, sich von Googles KI abzumelden, ist entscheidend, um ein offenes Internet ohne wettbewerbsschädigendes Verhalten zu erhalten und faire Wettbewerbsbedingungen für Unternehmen verschiedener Branchen zu gewährleisten.“
Bedenken wegen KI und Datenschutz
Die Leiterin vom „Tech Oversight Project“ schlägt in dieselbe Kerbe. „Zwar blockiert Richter Amit Mehtas Entscheidung einige der räuberischen Praktiken Googles, doch sie wird diesem historischen Moment nicht gerecht“, erklärt Sacha Haworth. „Sie zeigt, dass seine Entscheidung auf spekulativen Argumenten über generative KI beruhte, in der Google aufgrund seiner Monopolverflechtung und seines Vertriebsvorteils bereits ein dominanter Akteur ist. Die Suchmaschine ist einer der wichtigsten Kanäle für zukünftige KI-Abfragen, und es ist völlig klar, dass Richter Mehta, anstatt den harten Weg zu gehen, viel lieber Google das Internet und unsere Wirtschaft weiterhin seinem Willen unterwerfen ließ, als das Gesetz durchzusetzen, das gleiche Wettbewerbsbedingungen schaffen soll, die der amerikanischen Bevölkerung und innovativen, neuen Unternehmen zugutekommen.“
Zudem gibt es Bedenken wegen der vom Richter erteilten Auflage, dass Google Suchdaten und -ergebnisse mit „qualifizierten Wettbewerbern“ teilen muss. So erklärt Matt Schruers, Präsident und CEO der „Computer and Communications Industry Association“, eine Interessenvertretung der Informations- und Kommunikationstechnologiebranche: „Für Verbraucher bedeutet das Urteil, dass Google gezwungen sein wird, Suchanfragen und andere Daten mit bestimmten Wettbewerbern zu teilen, was erhebliche Auswirkungen auf die Privatsphäre und die nationale Sicherheit haben könnte.“
Google und Justizministerium prüfen Rechtsmittel
Das Competitive Enterprise Institute fragt sich dagegen, wer als „qualifizierter Wettbewerber“ gelten könnte und ob dies den Verbrauchern oder nur den Google-Konkurrenten zugutekommt. Der US-amerikanische, politisch konservative, libertäre Thinktank sieht Google im Recht, die Entscheidung wegen der ursprünglichen Begründung anzufechten.
Bislang hat der Datenkonzern aber nicht über Rechtsmittel entschieden. „Wir haben Bedenken hinsichtlich der Auswirkungen dieser Anforderungen auf unsere Nutzer und deren Privatsphäre und prüfen die Entscheidung sorgfältig“, schreibt Google in einer Stellungnahme zu dem jüngsten Urteil.
Auch das US-Justizministerium erwägt, das Urteil anzufechten. Abigail Slater, stellvertretende Generalstaatsanwältin der Kartellabteilung des Ministeriums, bezeichnet das Urteil zwar als „wichtigen Schritt in einem wichtigen Kartellverfahren“, aber das Ziel sei, „den Wettbewerb auf dem lange Zeit monopolisierten Suchmarkt wiederherstellen“. Deshalb schreibt sie bei X: „Wir wägen nun unsere Optionen ab und überlegen, ob die angeordneten Auflagen ausreichen, um dieses Ziel zu erreichen.“
(fds)
Künstliche Intelligenz
KI-Update kompakt: Grok, ChatGPT, Mistral, DeepL
KI-Chatbot Grok wird nach Musks Eingriffen konservativer
Der KI-Chatbot Grok von xAI wird nach jedem öffentlichen Einwand seines Eigentümers Elon Musk konservativer. Die New York Times stellte 41 standardisierte Fragen und verglich die Antworten über mehrere Monate. Bei wirtschaftlichen und staatsbürgerlichen Themen rückten die Antworten nach rechts, bei sozialen Themen gleichzeitig nach links. Der auffälligste Eingriff erfolgte im Juli, nachdem Grok kurzzeitig Adolf Hitler lobte und den Holocaust verteidigte. Nach dem Update wurde der Chatbot zunächst linker, dann korrigierte xAI erneut in die konservative Richtung.
Die Analyse zeigt: Gezielte Manipulation von Chatbots ist möglich, aber nicht präzise steuerbar. Jede Anpassung nach Musks Kritik veränderte die Antwortrichtung messbar, allerdings nicht immer wie beabsichtigt.
ChatGPT erhält Sicherheitsfunktionen für psychische Krisen
OpenAI stattet ChatGPT mit neuen Schutzfunktionen für Menschen in psychischen Krisen aus. Ein automatisches System erkennt Anzeichen akuter Belastung und leitet Gespräche an spezielle „Reasoning Models“ wie GPT-5-thinking weiter. Diese Modelle wurden mit „Deliberative Alignment“ trainiert: Sie denken länger nach und befolgen Sicherheitsrichtlinien konsistenter.
Eltern können ihre Konten mit denen ihrer Kinder verknüpfen, altersgerechte Regeln festlegen und Benachrichtigungen bei erkannter Belastung erhalten. Die Funktionen kommen innerhalb eines Monats. OpenAI reagiert damit auf mehrere Todesfälle: In Kalifornien nahm sich ein 16-Jähriger das Leben, nachdem ChatGPT in seine Suizidgedanken involviert war. Ein anderer Mann tötete seine Mutter und sich selbst, nachdem der Chatbot seine paranoiden Wahnvorstellungen bestätigt hatte. Über 90 Ärzte aus 30 Ländern beraten OpenAI bei der Entwicklung.
Mistral stattet Le Chat mit Tool-Anbindungen und Gedächtnis aus
Der französische KI-Anbieter Mistral erweitert seine Plattform Le Chat um externe Tool-Anbindungen und eine Gedächtnisfunktion. Über das Model Context Protocol können Nutzer auf mehr als 20 Plattformen zugreifen, darunter Databricks, GitHub, Notion und Jira. Die Schnittstelle ermöglicht komplexe Arbeitsabläufe: Kundenbewertungen in Databricks analysieren, daraus Aufgaben in Asana generieren und Ergebnisse in Box speichern.
Die neue Memory-Funktion speichert relevante Informationen aus vergangenen Chats. Das System merkt sich Präferenzen und berücksichtigt frühere Entscheidungen. Mistral verspricht, nur wichtige Inhalte dauerhaft zu speichern, flüchtige oder sensible Informationen bleiben außen vor. Nutzer können gespeicherte Einträge jederzeit bearbeiten oder löschen. Beide Funktionen stehen allen Le Chat-Nutzern kostenfrei zur Verfügung.
KI identifiziert über 1000 fragwürdige Wissenschaftsmagazine
Informatiker der University of Colorado Boulder haben mit KI-Technik mehr als 1000 problematische Wissenschaftsmagazine aufgespürt. Diese „Raubjournale“ werben gezielt um Forschende außerhalb der USA und Europas und versprechen Veröffentlichung gegen Bezahlung. Die zugesagte Peer-Review findet nicht statt, stattdessen werden PDF-Dateien online gestellt.
Das Team um Daniel Acuña trainierte eine KI anhand geprüfter Fachmagazine und ließ 15.200 Titel untersuchen. Von anfangs 1400 potenziell problematischen Titeln blieben nach manueller Prüfung über 1000 als „zweifelhaft“ eingestufte Magazine übrig. Unter dem Publikationsdruck nehmen Forschende solche Angebote manchmal an. Das Team will sein Prüfwerkzeug für die Forschung freigeben.
DeepL bringt KI-Agenten für Unternehmensaufgaben
DeepL, ein Kölner Übersetzungsanbieter, stellt einen KI-Agenten für Unternehmen vor. Er automatisiert repetitive Aufgaben wie Rechnungsbearbeitung oder Zusammenfassung von Vertriebserkenntnissen. Der Agent arbeitet autonom innerhalb der digitalen Umgebung des Nutzers und lernt aus bisherigen Aufgaben.
Gründer Jaroslaw Kutylowski sieht Vorteile durch DeepLs Sprachkompetenz: KI-Agenten müssen sprachliche Anweisungen exakt umsetzen. Das Unternehmen entwickelt alles im eigenen Haus mit über 1000 Mitarbeitern weltweit. Die Beta-Version ist zunächst für ausgewählte Partner verfügbar, soll aber bald frei zugänglich sein.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Studie zeigt: Coding-Agenten scheitern an komplexen Aufgaben
KI-Agenten können noch nicht wie menschliche Entwickler arbeiten. Zu diesem Schluss kommt eine Studie von Forschern der Cornell University, des MIT, Stanford und UC Berkeley. Die Tools bieten zwar echten Mehrwert, scheitern aber an komplexen Coding-Aufgaben.
Probleme bereiten das Verständnis umfangreicher Codebasen, höhere logische Komplexität und langfristige Codequalität. Die Lösung liegt in besserer Kommunikation: KI-Systeme sollten bei unklaren Anweisungen proaktiv nachfragen. So könnten sie Unsicherheiten vermeiden und die Absichten der Entwickler besser erfassen.
ElevenLabs verlängert KI-Soundeffekte auf 30 Sekunden
ElevenLabs, ein KI-Unternehmen zur Sprachgenerierung, hat Version 2 seines Soundeffekt-Modells veröffentlicht. Es erzeugt Geräusche per Textanweisung, die jetzt bis zu 30 Sekunden dauern und sich nahtlos wiederholen können. Nutzer steuern das Modell über die Benutzeroberfläche oder eine API. Die wiederholbaren Effekte sind direkt im hauseigenen Audio-Editor ElevenLabs Studio verfügbar.
(igr)
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 2 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
UX/UI & Webdesignvor 5 Tagen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick