Connect with us

Künstliche Intelligenz

Dank KI: Kommunikation außerirdischer Zivilisationen zu kurz nachweisbar?


Wenn KI-Technik die Geschwindigkeit der technologischen Entwicklung tatsächlich massiv beschleunigt, dann könnte das auch erklären, warum wir bislang keine Hinweise auf außerirdische Zivilisationen gefunden haben. Die Zeit, in der die für uns nachweisbare Signale aussenden, könnte deshalb deutlich kürzer sein, als bislang angenommen. Das meint zumindest der britische Astronom Michael Garrett, der das Jodrell Bank Centre for Astrophysics an der Universität Manchester leitet und sich schon länger damit beschäftigt, welchen Einfluss KI auf die Entwicklung von Zivilisationen haben könnte. In einem vorab veröffentlichten Forschungsartikel legt er nun dar, dass die transformative Technologie dafür sorgen könnte, dass eine außerirdische Zivilisation nur für Jahrzehnte nachweisbar sein könnte.

Weiterlesen nach der Anzeige

In dem Artikel, der zur Veröffentlichung im Fachmagazin Acta Astronautica angenommen wurde, schlägt Garrett vor, die berühmte Drake-Gleichung anzupassen. Die wurde von dem US-Astrophysiker Frank Drake entwickelt und umfasst verschiedene Faktoren, die bestimmen, wie viele hoch-technisierte, intelligente Zivilisationen es in der Milchstraße geben dürfte, die wir finden können. Die meisten dieser Faktoren waren damals unbekannt, einige sind es bis heute. Einer davon ist die Zeit, in der eine Zivilisation kommunikativ ist und Radiosignale senden kann. Garrett meint jetzt, dass die Sicht falsch herum sei. Entscheidend sei stattdessen, wie lange eine Zivilisation auch tatsächlich nachweisbare Signale aussende. Wenn das immer nur Jahrzehnte sind, wäre es extrem unwahrscheinlich, die jetzt gerade zu finden.

Künstliche Intelligenz (KI) stelle einen fundamentalen Wechsel in der Entwicklungsgeschichte der Menschheit dar, schreibt der Astronom weiter. Anders als revolutionäre Technologien aus der Vergangenheit fungiere sie als Katalysator für Innovation selbst und habe deshalb das Potenzial, die Geschwindigkeit der technologischen Entwicklung massiv zu beschleunigen. Das liege daran, dass damit komplexe Systeme optimiert, neue Materialien entdeckt und vorher unlösbare Probleme in verschiedenen Disziplinen überwunden werden könnten. Eine künstliche allgemeine Intelligenz (AGI) könnte sogar für Entwicklungssprünge sorgen, wie es sie in der Geschichte nie gegeben hat. Die könnten dafür sorgen, dass eine außerirdische Zivilisation nur für Jahrzehnte Signale produziert, die wir empfangen können.

Damit könnte KI die Erklärung für das sogenannte Fermi-Paradox oder die „große Stille“ sein. Das sind Konzepte, die im Grunde besagen, dass wir längst Außerirdische hätten finden müssen, etwa weil die Milchstraße schon lange von intelligenten Wesen besiedelt sein müsste. Garrett meint, „hochentwickelte Zivilisationen können zahlreich und langlebig, aber mit heutigen Methoden zur Suche nach Außerirdischen nicht nachweisbar“ sein. Die Suche müsse man deswegen aber nicht aufgeben, sondern dabei anders vorgehen. Der Astronom schlägt vor, sich dabei nicht auf bestimmte Technik zu fokussieren, sondern nach „anhaltenden, großflächigen Manifestationen von Intelligenz“ zu fahnden, also etwa Abwärme von Megastrukturen oder Anomalien in Messungen über zahlreiche Wellenlängen.

Dass KI die Entwicklung einer Zivilisation so massiv beschleunigen könnte, dass sie rasch auf möglicherweise effizientere Kommunikationsmethoden wechselt, beispielsweise auf Basis von Neutrinos, ist eine deutlich optimistischere Theorie als eine andere von Garrett. Vor anderthalb Jahren hat er vorgeschlagen, dass die Entwicklung einer „Künstlichen Superintelligenz“ in der Art eines Naturgesetzes immer in der Zerstörung der biologischen Zivilisationen mündet. Das könnte ebenfalls erklären, warum wir bislang niemanden gefunden haben. Beide Theorien können wir derzeit nicht bestätigen oder falsifizieren. Die Arbeiten geben aber einer anderen Forschungsgruppe recht, die im Frühjahr erklärt hat, dass und warum auch die bislang vergebliche Suche nach Aliens lehrreich ist.

Weiterlesen nach der Anzeige


(mho)



Source link

Künstliche Intelligenz

IT-Security: Eine aktuelle Bestandsaufnahme zu Bedrohungen im Unternehmen


Neue Entwicklungen in der IT führen fast immer auch zu neuen Schwachstellen. Schnell nutzen Kriminelle sie aus, um ihre Opfer zu betrügen oder um in Unternehmensnetze einzudringen. Durch die neuen Entwicklungen entstehen aber meist auch neue Sicherheitstechniken, mit denen man sich vor Angriffen schützen kann.

Die Einführung von Smartphones, der Trend zu Cloud-Services oder die neuen technischen Möglichkeiten durch künstliche Intelligenz zeigen dies deutlich. Aber auch unabhängig von technischen Neuerungen kann man einen Wettlauf zwischen Angreifern und Verteidigern beobachten.

  • Neue Entwicklungen in der IT gehen oft mit neuen Bedrohungstrends einher und ziehen neue Klassen von Sicherungstechniken und Schutzprodukten nach sich.
  • Die mittlere Zeit zwischen der Veröffentlichung eines Patches und der Ausnutzung der damit behobenen Schwachstelle ist auf fünf Tage gesunken.
  • Viele Schwachstellen werden zudem meist schon als Zero Days für Angriffe genutzt.
  • Der erste Schritt zu mehr Sicherheit ist, sich kontinuierlich über Trends und neue Entwicklungen zu informieren und diese im eigenen Organisationskontext zu bewerten.

Ein offensichtliches Beispiel ist die Authentisierung. Nachdem vor langer Zeit Passwörter eingeführt wurden, um unbefugten Zugriff auf IT-Systeme zu verhindern, wurden ihre Schwächen schnell ausgenutzt und Angreifer haben Passwörter mit Brute-Force-Angriffen erraten. Erste Maßnahmen wie temporäres Sperren nach mehreren Fehlversuchen hebelten sie mit Password Spraying oder Phishing aus. Noch vor wenigen Jahren galt dann eine Zwei-Faktor-Authentisierung (2FA) als die Lösung schlechthin. Mittlerweile haben wohl fast alle Unternehmen ihre externen Zugänge mit 2FA-Token oder entsprechenden Apps auf Smartphones abgesichert. Das wiederum hat die Angreifer motiviert nachzurüsten: Sie griffen beim Phishing per „Adversary in the Middle“ an, das gängige 2FA-Methoden umgehen kann. Als Konsequenz sind Unternehmen gezwungen, ihre Anmeldungen auf phishingresistente Methoden wie Passkeys oder FIDO-Keys umzustellen.


Das war die Leseprobe unseres heise-Plus-Artikels „IT-Security: Eine aktuelle Bestandsaufnahme zu Bedrohungen im Unternehmen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

CLC 2025 setzt auf Praxis: Platform Engineering und KI-Integration im Fokus


Die Softwareentwicklung und -bereitstellung stecken mitten in einem Paradigmenwechsel. Während Developer- und Ops-Teams unter dem Druck stehen, schneller zu liefern und gleichzeitig sicherer zu werden, entstehen neue Rollen und Ansätze, die das traditionelle DevOps-Modell erweitern. Das Programm der von iX und dpunkt.verlag organisierten CLC-Konferenz setzt gezielt Schwerpunkte, die der Realität in Entwicklung und Betrieb Rechnung tragen – von KI-getriebenen Plattformen über Developer Experience bis hin zu Security, Observability und effektiven Delivery-Strategien. Jetzt noch Tickets zur CLC 2025 sichern.

Weiterlesen nach der Anzeige

Das Vortragsprogramm behandelt verschiedene Aspekte der KI-Integration. Mario-Leander Reimer von QAware zeigt in „Von der Idee zur Wirkung: Architektur und Aufbau einer Cloud-nativen AI-Plattform„, wie sich robuste KI-Infrastrukturen gestalten lassen. Robert Hoffmann von AWS demonstriert in „Works on my LLM„, wie KI-Coding-Assistenten entstehen, die über einfache Autocomplete-Funktionen hinausgehen. Thorsten Maier und Steffen Schluff von Accenture behandeln in „The Agentic Shift„, wie vernetzte KI-Agenten die Entwicklungsarbeit verändern.

Im Bereich Platform Engineering präsentiert Alex Krause von QAware in „Make developers fly: Principles for platform engineering„, wie Plattformteams Mehrwert für Entwickler schaffen können. Lian Li beleuchtet in „Many Cooks, One Platform“ Ownership und Kollaboration in großen Plattformstrukturen. Hossein Salahi und Fabian Brundke von Liquid Reply stellen mit „Composable Platforms: Modular Platform Engineering with Kratix and Backstage“ einen modularen Ansatz für Kubernetes-Teams vor. Alexander Troppmann und Bruno Margula zeigen bei „Effiziente Multi-Tenant-Architekturen: GitOps mit Argo CD in der Praxis“ praxiserprobte Lösungen.


Alexander Troppmann und Bruno Margula

Alexander Troppmann und Bruno Margula

Alexander Troppmann und Bruno Margula geben Einblick in ihr GitOps-Projekt bei Zeiss.

In seiner englischsprachigen Keynote „Why AI is Eating the World“ beleuchtet Mirko Novakovic, CEO von Dash0, die transformative Kraft von künstlicher Intelligenz in der Softwareentwicklung. Dabei schlägt Novakovic eine Brücke zu seiner Keynote bei der ersten Ausgabe der CLC-Konferenz vor über einem Jahrzehnt, die den Titel „Why Software is Eating the World“ trug. Vieles von dem, was damals prognostiziert wurde, ist wahr geworden: Nahezu jede Branche ist mittlerweile softwaregesteuert, und Entwicklerinnen und Entwickler stehen im Mittelpunkt der geschäftlichen Innovation. In seinem aktuellen Vortrag resümiert er die Lehren des vergangenen Jahrzehnts und untersucht, wie KI das Programmieren, die Observability und die Automatisierung im Platform Engineering weiter verändern wird.

Die zweite Keynote hält Kurt Garloff, Open-Source-Befürworter und Kopf der Sovereign Cloud Stack-Bewegung, unter dem Titel „Digitale Resilienz oder Digitale Kolonie?„. Er wirft einen kritischen Blick auf moderne IT-Abhängigkeiten. Trotz vereinfachter Entwicklung hochkomplexer Softwaresysteme zeigen sich im Betrieb Schattenseiten wie hohe Kosten für Managed Services, eingeschränkte Flexibilität und problematischer Datenschutz. Die Gesellschaft für Informatik spricht angesichts der zahlreichen Abhängigkeiten sogar von Europa als digitaler Kolonie.

Weiterlesen nach der Anzeige

Zu den Themen beider Keynotes sind jeweils moderierte Podiumsdiskussionen mit verschiedenen Expertinnen und Experten geplant, bei denen das Publikum vor Ort herzlich eingeladen ist, sich mit Fragen und Kommentaren zu beteiligen.

Das Programm widmet sich auch der Observability als Grundpfeiler moderner Softwareprojekte. Johannes Koch von FICO liefert Antworten auf „Why Do We Need Observability for CI/CD Pipelines?„. Dominik Schmidle von Giant Swarm zeigt die Skalierung von Observability-Plattformen für große Umgebungen. Matej Gera von E.ON vergleicht aktuelle eBPF-Möglichkeiten im Monitoring mit klassischen Ansätzen.

Im Bereich Security bespricht Marius Shekow von SprintEins die Wahl sicherer Container-Images. Dominik Guhr von INNOQ erklärt Unterschiede und Einsatzmöglichkeiten der Autorisierung mit RBAC, ABAC, PBAC und ReBAC.


Chris Kühl

Chris Kühl

Chris Kühl (Kinvolk)

Bei der Developer Experience sprechen Miriam Greis und Daniel Kocot von codecentric über „Developer Experience für APIs stärken„. Sandra Parsick stellt neue Konzepte für lokale Entwicklungsumgebungen vor. Dominik Münch von Celonis und Tal Zwick von MetalBear zeigen in „Please don’t cry: How we fixed local development experience with mirrord„, wie sich das Einrichten lokaler Entwicklungsumgebungen erleichtern lässt. Wie Entwickler bei der Arbeit mit Kubernetes von einer erweiterbaren UI-Plattform profitieren können, erläutert Chris Kühl (Microsoft/Kinvolk) in seinem englischsprachigen Talk zum CNCF-Projekt Headlamp.

Am 18. November, dem Vortag der eigentlichen Konferenz, finden vier ganztägige Workshops statt. Nicholas Dille führt durch CI/CD-Workflows mit GitLab von der Pipeline-Definition bis zur Absicherung der Lieferkette. Heiko Rupp und Benedikt Bongartz zeigen, wie sich mit OpenTelemetry verteilte Systeme durchgängig beobachten lassen. Thorsten Wussow behandelt GitOps mit Flux, inklusive Automatisierung, Rollbacks und Sicherheitsaspekten. Mario-Leander Reimer gibt Einblick in den Aufbau einer skalierbaren, Cloud-nativen KI-Plattform.

Die Workshops richten sich an IT-Fachleute wie Senior-Softwareentwickler, Softwarearchitekten, DevOps Engineers, Platform Engineers, Infrastructure/Cloud Engineers, Team- und Projektleiter sowie Administratoren. Die Teilnehmerzahl ist begrenzt, um den Austausch und individuelles Lernen zu fördern.


Eindrücke von der Konferenz CLC 2024

Eindrücke von der Konferenz CLC 2024

Interessierte können sich Konferenztickets noch zum Preis von 1349 Euro (alle Preise zzgl. MwSt.) sichern, für das Kombiticket aus Konferenz und 1-Tages-Workshop fallen 1899 Euro an. Die ganztägigen Workshops lassen sich auch einzeln zum Preis von 649 Euro buchen. Teams oder Gruppen ab drei Personen erhalten im Ticketshop automatisch mindestens 10 Prozent Nachlass. Schülerinnen und Schüler, Studierende und Hochschulangehörige erhalten auf Anfrage Rabatt.

Wer über die Konferenz auf dem Laufenden bleiben möchte, kann sich auf der Website der CLC 2025 für den Newsletter registrieren oder den Veranstaltern auf LinkedIn und unter dem Hashtag #CLC_Conf folgen.


(map)



Source link

Weiterlesen

Künstliche Intelligenz

Kommentar: Nobelpreis für codeknackende Supermaschinen vergeben


Weiterlesen nach der Anzeige

Jedes Jahr diskutieren Wissenschaftler vor der Verkündung des Nobelpreises für Physik im Internet darüber, an wen die heiß begehrte Auszeichnung wohl gehen könnte. Niemand weiß es, auch Journalisten bekommen keine Vorabinformationen, aber in fast jeder Prognose stand: Quantencomputing. Dennoch hatte dieser Favorit einen Schönheitsfehler, denn obwohl Quantenrechner viel versprechen, leisten sie bisher: nichts.

In der Ankündigung, die traditionell erst auf Schwedisch und dann auf Englisch erfolgt, prophezeite bereits das Wörtchen „kvant“ den Irrtum. Der Preis ging an drei Forscher „für die Entdeckung des makroskopischen quantenmechanischen Tunnelns und der Energiequantisierung in einem elektrischen Schaltkreis“.

Ein komplizierter Titel, der weder Qubits noch Quantencomputer erwähnt. Aber Quantenphysiker wissen: Dies ist ein Preis für die Vorarbeiten zum Quantencomputer. In meinem Kopf lief das so ab: Das Nobelpreiskomitee sitzt zusammen und denkt sich: „Es ist internationales Quantenjahr, alles schaut gespannt auf Quantencomputer, aber für einen Nobelpreis ist es zu früh. Wie vergeben wir einen Nobelpreis für Quantencomputer, ohne einen Nobelpreis für Quantencomputer zu vergeben?“

Siehe da, sie haben es geschafft! Denn die von den Preisträgern untersuchten „elektrischen Schaltkreise“ sind allgemein bekannter unter dem Namen „supraleitende Qubits“. Statt jedoch explizit die Entwicklung supraleitender Qubits auszuzeichnen, zeichnen sie schlitzohrig die Eigenschaft aus, die die Schaltkreise zu Qubits macht („Energiequantisierung“).

An diesem Preis sind zwei Dinge bemerkenswert. Zum einen wird implizit eine Technologie ausgezeichnet, die ihr wahres Potenzial noch gar nicht gezeigt hat. Zum anderen birgt sie das Risiko, die Welt in die Datenapokalypse zu treiben. Denn Quantencomputer könnten den heutigen Verschlüsselungsstandard in kürzester Zeit knacken. Ein mutiger Schritt des Nobelpreiskomitees, aber klug versteckt. Denn falls in 30 Jahren, wenn die Cybersicherheit wirklich deswegen den Bach runtergegangen ist, jemand fragt, was sich das Komitee dabei gedacht habe, könnte es sich dezent rausreden: „Es ging uns doch eigentlich um …, äh … Tunneln und Quantisierung und so.“

Weiterlesen nach der Anzeige


(spa)



Source link

Weiterlesen

Beliebt