Connect with us

Künstliche Intelligenz

Data Profiling: Wie Sie anhand Ihrer digitalen Spuren verfolgt werden


Jeder Schritt, jeder Klick und jede Transaktion hinterlässt digitale Spuren. Während wir uns der Überwachungskameras an öffentlichen Plätzen bewusst sind, weil wir sie sehen, bleiben die meisten Datenspuren unsichtbar. Sie entstehen im Hintergrund, oft ohne aktives eigenes Zutun, während wir unser normales Leben führen. Fügt man alle diese Infoschnipsel zusammen, ergibt sich nicht nur ein beunruhigend vollständiges Abbild Ihres Lebens, sondern auch Ihrer Psyche.

Diese Transparenz ist aber nur einseitig: Die Datensammler und -händler wissen alles, geben über sich aber kaum etwas preis. Um dieses Ungleichgewicht zumindest etwas auszugleichen, fügen wir diese Woche in unserem Online-Schwerpunkt die Puzzlestücke zusammen: An welchen Stellen entstehen digitale Spuren? Wer sammelt sie? Was geschieht mit den Informationen? Und welche Firmen spielen dabei eine Rolle? Außerdem geht es darum, welche Konsequenzen die Schattenprofile für Sie haben.

  • Während Sie Ihr Leben führen, ziehen Sie eine enorme Datenspur hinter sich her, meist ohne es zu merken oder aktiv etwas dazu beizutragen.
  • Der Einzelne bekommt in der Regel auch nicht mit, wer welche Daten über ihn sammelt und verknüpft und was damit geschieht.
  • Die Schattendaten können sich negativ auswirken, wenn Sie mehr kaufen, als Sie eigentlich benötigen, oder fälschlicherweise ins Visier polizeilicher Ermittlungen geraten.

Beginnen wir mit dem Naheliegendsten: dem Smartphone. Dieser ständige Begleiter ist zugleich der größte Datensammler. Jede App darauf ist ein potenzieller Spion. Das liegt manchmal in der Natur der Anwendung. Google Maps etwa kann Ihnen keine Live-Wegbeschreibungen geben, ohne zu wissen, wo Sie sich befinden. Die Landkarten-App funkt daher permanent Ihre Position auf wenige Meter genau zu Googles Servern, wo die Routenberechnungen ablaufen.


Das war die Leseprobe unseres heise-Plus-Artikels „Data Profiling: Wie Sie anhand Ihrer digitalen Spuren verfolgt werden“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Künstliche Intelligenz

IT-Security: Eine aktuelle Bestandsaufnahme zu Bedrohungen im Unternehmen


Neue Entwicklungen in der IT führen fast immer auch zu neuen Schwachstellen. Schnell nutzen Kriminelle sie aus, um ihre Opfer zu betrügen oder um in Unternehmensnetze einzudringen. Durch die neuen Entwicklungen entstehen aber meist auch neue Sicherheitstechniken, mit denen man sich vor Angriffen schützen kann.

Die Einführung von Smartphones, der Trend zu Cloud-Services oder die neuen technischen Möglichkeiten durch künstliche Intelligenz zeigen dies deutlich. Aber auch unabhängig von technischen Neuerungen kann man einen Wettlauf zwischen Angreifern und Verteidigern beobachten.

  • Neue Entwicklungen in der IT gehen oft mit neuen Bedrohungstrends einher und ziehen neue Klassen von Sicherungstechniken und Schutzprodukten nach sich.
  • Die mittlere Zeit zwischen der Veröffentlichung eines Patches und der Ausnutzung der damit behobenen Schwachstelle ist auf fünf Tage gesunken.
  • Viele Schwachstellen werden zudem meist schon als Zero Days für Angriffe genutzt.
  • Der erste Schritt zu mehr Sicherheit ist, sich kontinuierlich über Trends und neue Entwicklungen zu informieren und diese im eigenen Organisationskontext zu bewerten.

Ein offensichtliches Beispiel ist die Authentisierung. Nachdem vor langer Zeit Passwörter eingeführt wurden, um unbefugten Zugriff auf IT-Systeme zu verhindern, wurden ihre Schwächen schnell ausgenutzt und Angreifer haben Passwörter mit Brute-Force-Angriffen erraten. Erste Maßnahmen wie temporäres Sperren nach mehreren Fehlversuchen hebelten sie mit Password Spraying oder Phishing aus. Noch vor wenigen Jahren galt dann eine Zwei-Faktor-Authentisierung (2FA) als die Lösung schlechthin. Mittlerweile haben wohl fast alle Unternehmen ihre externen Zugänge mit 2FA-Token oder entsprechenden Apps auf Smartphones abgesichert. Das wiederum hat die Angreifer motiviert nachzurüsten: Sie griffen beim Phishing per „Adversary in the Middle“ an, das gängige 2FA-Methoden umgehen kann. Als Konsequenz sind Unternehmen gezwungen, ihre Anmeldungen auf phishingresistente Methoden wie Passkeys oder FIDO-Keys umzustellen.


Das war die Leseprobe unseres heise-Plus-Artikels „IT-Security: Eine aktuelle Bestandsaufnahme zu Bedrohungen im Unternehmen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

CLC 2025 setzt auf Praxis: Platform Engineering und KI-Integration im Fokus


Die Softwareentwicklung und -bereitstellung stecken mitten in einem Paradigmenwechsel. Während Developer- und Ops-Teams unter dem Druck stehen, schneller zu liefern und gleichzeitig sicherer zu werden, entstehen neue Rollen und Ansätze, die das traditionelle DevOps-Modell erweitern. Das Programm der von iX und dpunkt.verlag organisierten CLC-Konferenz setzt gezielt Schwerpunkte, die der Realität in Entwicklung und Betrieb Rechnung tragen – von KI-getriebenen Plattformen über Developer Experience bis hin zu Security, Observability und effektiven Delivery-Strategien. Jetzt noch Tickets zur CLC 2025 sichern.

Weiterlesen nach der Anzeige

Das Vortragsprogramm behandelt verschiedene Aspekte der KI-Integration. Mario-Leander Reimer von QAware zeigt in „Von der Idee zur Wirkung: Architektur und Aufbau einer Cloud-nativen AI-Plattform„, wie sich robuste KI-Infrastrukturen gestalten lassen. Robert Hoffmann von AWS demonstriert in „Works on my LLM„, wie KI-Coding-Assistenten entstehen, die über einfache Autocomplete-Funktionen hinausgehen. Thorsten Maier und Steffen Schluff von Accenture behandeln in „The Agentic Shift„, wie vernetzte KI-Agenten die Entwicklungsarbeit verändern.

Im Bereich Platform Engineering präsentiert Alex Krause von QAware in „Make developers fly: Principles for platform engineering„, wie Plattformteams Mehrwert für Entwickler schaffen können. Lian Li beleuchtet in „Many Cooks, One Platform“ Ownership und Kollaboration in großen Plattformstrukturen. Hossein Salahi und Fabian Brundke von Liquid Reply stellen mit „Composable Platforms: Modular Platform Engineering with Kratix and Backstage“ einen modularen Ansatz für Kubernetes-Teams vor. Alexander Troppmann und Bruno Margula zeigen bei „Effiziente Multi-Tenant-Architekturen: GitOps mit Argo CD in der Praxis“ praxiserprobte Lösungen.


Alexander Troppmann und Bruno Margula

Alexander Troppmann und Bruno Margula

Alexander Troppmann und Bruno Margula geben Einblick in ihr GitOps-Projekt bei Zeiss.

In seiner englischsprachigen Keynote „Why AI is Eating the World“ beleuchtet Mirko Novakovic, CEO von Dash0, die transformative Kraft von künstlicher Intelligenz in der Softwareentwicklung. Dabei schlägt Novakovic eine Brücke zu seiner Keynote bei der ersten Ausgabe der CLC-Konferenz vor über einem Jahrzehnt, die den Titel „Why Software is Eating the World“ trug. Vieles von dem, was damals prognostiziert wurde, ist wahr geworden: Nahezu jede Branche ist mittlerweile softwaregesteuert, und Entwicklerinnen und Entwickler stehen im Mittelpunkt der geschäftlichen Innovation. In seinem aktuellen Vortrag resümiert er die Lehren des vergangenen Jahrzehnts und untersucht, wie KI das Programmieren, die Observability und die Automatisierung im Platform Engineering weiter verändern wird.

Die zweite Keynote hält Kurt Garloff, Open-Source-Befürworter und Kopf der Sovereign Cloud Stack-Bewegung, unter dem Titel „Digitale Resilienz oder Digitale Kolonie?„. Er wirft einen kritischen Blick auf moderne IT-Abhängigkeiten. Trotz vereinfachter Entwicklung hochkomplexer Softwaresysteme zeigen sich im Betrieb Schattenseiten wie hohe Kosten für Managed Services, eingeschränkte Flexibilität und problematischer Datenschutz. Die Gesellschaft für Informatik spricht angesichts der zahlreichen Abhängigkeiten sogar von Europa als digitaler Kolonie.

Weiterlesen nach der Anzeige

Zu den Themen beider Keynotes sind jeweils moderierte Podiumsdiskussionen mit verschiedenen Expertinnen und Experten geplant, bei denen das Publikum vor Ort herzlich eingeladen ist, sich mit Fragen und Kommentaren zu beteiligen.

Das Programm widmet sich auch der Observability als Grundpfeiler moderner Softwareprojekte. Johannes Koch von FICO liefert Antworten auf „Why Do We Need Observability for CI/CD Pipelines?„. Dominik Schmidle von Giant Swarm zeigt die Skalierung von Observability-Plattformen für große Umgebungen. Matej Gera von E.ON vergleicht aktuelle eBPF-Möglichkeiten im Monitoring mit klassischen Ansätzen.

Im Bereich Security bespricht Marius Shekow von SprintEins die Wahl sicherer Container-Images. Dominik Guhr von INNOQ erklärt Unterschiede und Einsatzmöglichkeiten der Autorisierung mit RBAC, ABAC, PBAC und ReBAC.


Chris Kühl

Chris Kühl

Chris Kühl (Kinvolk)

Bei der Developer Experience sprechen Miriam Greis und Daniel Kocot von codecentric über „Developer Experience für APIs stärken„. Sandra Parsick stellt neue Konzepte für lokale Entwicklungsumgebungen vor. Dominik Münch von Celonis und Tal Zwick von MetalBear zeigen in „Please don’t cry: How we fixed local development experience with mirrord„, wie sich das Einrichten lokaler Entwicklungsumgebungen erleichtern lässt. Wie Entwickler bei der Arbeit mit Kubernetes von einer erweiterbaren UI-Plattform profitieren können, erläutert Chris Kühl (Microsoft/Kinvolk) in seinem englischsprachigen Talk zum CNCF-Projekt Headlamp.

Am 18. November, dem Vortag der eigentlichen Konferenz, finden vier ganztägige Workshops statt. Nicholas Dille führt durch CI/CD-Workflows mit GitLab von der Pipeline-Definition bis zur Absicherung der Lieferkette. Heiko Rupp und Benedikt Bongartz zeigen, wie sich mit OpenTelemetry verteilte Systeme durchgängig beobachten lassen. Thorsten Wussow behandelt GitOps mit Flux, inklusive Automatisierung, Rollbacks und Sicherheitsaspekten. Mario-Leander Reimer gibt Einblick in den Aufbau einer skalierbaren, Cloud-nativen KI-Plattform.

Die Workshops richten sich an IT-Fachleute wie Senior-Softwareentwickler, Softwarearchitekten, DevOps Engineers, Platform Engineers, Infrastructure/Cloud Engineers, Team- und Projektleiter sowie Administratoren. Die Teilnehmerzahl ist begrenzt, um den Austausch und individuelles Lernen zu fördern.


Eindrücke von der Konferenz CLC 2024

Eindrücke von der Konferenz CLC 2024

Interessierte können sich Konferenztickets noch zum Preis von 1349 Euro (alle Preise zzgl. MwSt.) sichern, für das Kombiticket aus Konferenz und 1-Tages-Workshop fallen 1899 Euro an. Die ganztägigen Workshops lassen sich auch einzeln zum Preis von 649 Euro buchen. Teams oder Gruppen ab drei Personen erhalten im Ticketshop automatisch mindestens 10 Prozent Nachlass. Schülerinnen und Schüler, Studierende und Hochschulangehörige erhalten auf Anfrage Rabatt.

Wer über die Konferenz auf dem Laufenden bleiben möchte, kann sich auf der Website der CLC 2025 für den Newsletter registrieren oder den Veranstaltern auf LinkedIn und unter dem Hashtag #CLC_Conf folgen.


(map)



Source link

Weiterlesen

Künstliche Intelligenz

Kommentar: Nobelpreis für codeknackende Supermaschinen vergeben


Weiterlesen nach der Anzeige

Jedes Jahr diskutieren Wissenschaftler vor der Verkündung des Nobelpreises für Physik im Internet darüber, an wen die heiß begehrte Auszeichnung wohl gehen könnte. Niemand weiß es, auch Journalisten bekommen keine Vorabinformationen, aber in fast jeder Prognose stand: Quantencomputing. Dennoch hatte dieser Favorit einen Schönheitsfehler, denn obwohl Quantenrechner viel versprechen, leisten sie bisher: nichts.

In der Ankündigung, die traditionell erst auf Schwedisch und dann auf Englisch erfolgt, prophezeite bereits das Wörtchen „kvant“ den Irrtum. Der Preis ging an drei Forscher „für die Entdeckung des makroskopischen quantenmechanischen Tunnelns und der Energiequantisierung in einem elektrischen Schaltkreis“.

Ein komplizierter Titel, der weder Qubits noch Quantencomputer erwähnt. Aber Quantenphysiker wissen: Dies ist ein Preis für die Vorarbeiten zum Quantencomputer. In meinem Kopf lief das so ab: Das Nobelpreiskomitee sitzt zusammen und denkt sich: „Es ist internationales Quantenjahr, alles schaut gespannt auf Quantencomputer, aber für einen Nobelpreis ist es zu früh. Wie vergeben wir einen Nobelpreis für Quantencomputer, ohne einen Nobelpreis für Quantencomputer zu vergeben?“

Siehe da, sie haben es geschafft! Denn die von den Preisträgern untersuchten „elektrischen Schaltkreise“ sind allgemein bekannter unter dem Namen „supraleitende Qubits“. Statt jedoch explizit die Entwicklung supraleitender Qubits auszuzeichnen, zeichnen sie schlitzohrig die Eigenschaft aus, die die Schaltkreise zu Qubits macht („Energiequantisierung“).

An diesem Preis sind zwei Dinge bemerkenswert. Zum einen wird implizit eine Technologie ausgezeichnet, die ihr wahres Potenzial noch gar nicht gezeigt hat. Zum anderen birgt sie das Risiko, die Welt in die Datenapokalypse zu treiben. Denn Quantencomputer könnten den heutigen Verschlüsselungsstandard in kürzester Zeit knacken. Ein mutiger Schritt des Nobelpreiskomitees, aber klug versteckt. Denn falls in 30 Jahren, wenn die Cybersicherheit wirklich deswegen den Bach runtergegangen ist, jemand fragt, was sich das Komitee dabei gedacht habe, könnte es sich dezent rausreden: „Es ging uns doch eigentlich um …, äh … Tunneln und Quantisierung und so.“

Weiterlesen nach der Anzeige


(spa)



Source link

Weiterlesen

Beliebt