Connect with us

Künstliche Intelligenz

Einfaches Logmanagement mit Logging Made Easy


Cyberangriffe verlaufen oft lautlos und bleiben ohne zentrales Monitoring unentdeckt – bis es zu spät ist. Gerade die Komplexität verteilter Infrastrukturen verlangt nach einer zentrale Loginstanz, um Sicherheitsvorfälle zeitnah analysieren zu können. Vor allem kleinere Organisationen stehen vor der Herausforderung, eine Infrastruktur für zentrales Logmanagement ressourcenschonend umzusetzen.

Logging Made Easy (LME) bietet einen niedrigschwelligen Einstieg: Die von der US-amerikanischen Cybersecurity and Infrastructure Security Agency (CISA) bereitgestellte Open-Source-Software ermöglicht es, sicherheitsrelevante Logdaten zentral zu sammeln und auszuwerten. Sie hilft auf Basis von Elastic Stack Bedrohungen frühzeitig zu erkennen – ohne großen Lizenz- und Verwaltungsaufwand.

  • Zentrales Logging ist unverzichtbar, um in komplexen IT-Umgebungen Angriffe und Anomalien schnell erkennen und nachvollziehen zu können.
  • Logging Made Easy (LME) kombiniert etablierte Open-Source-Werkzeuge wie Elastic Stack, Wazuh und ElastAlert 2 zu einer leicht installierbaren Komplettlösung.
  • Mit vorkonfigurierten Dashboards und Detection Rules ermöglicht LME einen schnellen Einstieg in Security Monitoring und Alerting – auch ohne eigenes Security Operations Center.

Firewalls, EDR-Systeme (Endpoint Detection and Response) und Intrusion-Detection-Systeme sind fester Bestandteil moderner IT-Sicherheitsarchitekturen. Sie erkennen Angriffe in Echtzeit, blockieren bekannte Bedrohungen oder detektieren verdächtige Verhaltensmuster. Doch so wichtig diese Schutzmechanismen auch sind, liefern sie meist nur Momentaufnahmen oder agieren lokal begrenzt. Was fehlt, ist der Kontext – die Möglichkeit, sicherheitsrelevante Ereignisse systemübergreifend zu erfassen, zu korrelieren und nachvollziehbar zu analysieren. Hier setzt zentrales Logging an.


Das war die Leseprobe unseres heise-Plus-Artikels „Einfaches Logmanagement mit Logging Made Easy“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Künstliche Intelligenz

Anthropic stellt Claude Opus 4.6 mit Agent Teams vor


Anthropic hat das neue KI-Modell Opus 4.6 vorgestellt, das primär beim Programmieren deutlich besser abschneiden soll als der Vorgänger. Opus 4.6 ist die erste Version der Opus-Klasse mit einem Kontextfenster von einer Million Token – allerdings noch als Beta-Funktion. Weitere Neuerungen: Agentische Coding-Teams sollen komplexe Aufgaben parallel bearbeiten, Claude passt die Nachdenkzeit automatisch der Fragestellung an und die maximale Ausgabelänge verdoppelt sich. Leistungsfähiger wird die neue Opus-Version obendrein.

Weiterlesen nach der Anzeige

Eine zentrale Neuerung ist die Agent-Teams-Funktion in Claude Code, die sich aktuell in einer Research Preview befindet. Damit lassen sich mehrere Claude-Code-Instanzen parallel ausführen und koordinieren – ähnlich wie bei der kürzlich vorgestellten Codex-App von OpenAI. Eine federführende Session koordiniert dabei die Arbeit, weist Tasks zu und fasst Ergebnisse zusammen.

Die einzelnen Team-Mitglieder sind unabhängige Sessions mit eigenem Kontextfenster. Sie können direkt miteinander kommunizieren und greifen auf eine gemeinsame Task-Liste zu. Die Team-Mitglieder können sich Tasks selbst zuweisen oder zugewiesen bekommen und arbeiten parallel an verschiedenen Problemen. Aktiviert wird die Funktion über die Umgebungsvariable CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1. Agent Teams verursachen höhere Token-Kosten, weil jede Instanz separat abgerechnet wird. Sie sind für komplexe Zusammenarbeit gedacht, bei der mehrere Perspektiven oder parallele Lösungsansätze gefragt sind.

Im Gegensatz zu den agentischen Teams arbeiten Subagents innerhalb einer einzelnen Session und liefern ihre Ergebnisse nur an den beauftragenden Agenten zurück. Anthropic sieht diese Unteragenten eher für fokussierte Einzelaufgaben vor.

Opus 4.6 bringt weitere neue Funktionen: „Context Compaction“ fasst alte Kontextinformationen zusammen, um Platz für neue Eingaben zu schaffen. „Adaptive Thinking“ verlängert automatisch die Denkzeit des Modells, wenn komplexe Aufgaben dies erfordern. Entwickler können zudem zwischen vier Effort-Levels wählen (low, medium, high, max), um den Rechenaufwand zu steuern. Die maximale Ausgabelänge wurde auf 128.000 Token erhöht.

Weiterlesen nach der Anzeige

Opus 4.6 führt laut Anthropic diverse der obligatorischen Benchmarks an: Auf Terminal-Bench 2.0, das agentenbasiertes Programmieren testet, erreicht Opus 4.6 laut Anthropic die höchste Punktzahl aller Modelle. Beim Reasoning-Benchmark „Humanity’s Last Exam“ liege es ebenfalls vorn. Besonders deutlich sei der Vorsprung im GDPval-AA-Test, der prüft, wie gut KI‑Modelle wirtschaftlich relevante Arbeitsaufgaben erledigen können. Hier übertrifft Opus 4.6 OpenAIs GPT-5.2 um 144 Elo-Punkte und den direkten Vorgänger Opus 4.5 um 190 Elo-Punkte.

Bei der Verarbeitung langer Kontexte zeigt sich ein erheblicher Fortschritt gegenüber dem Vorgänger: Im MRCR v2 8-needle 1M-Test erreicht Opus 4.6 eine Erfolgsquote von 76 Prozent, während Sonnet 4.5 nur auf 18,5 Prozent kommt. Der BigLaw Bench attestiert dem Modell mit 90,2 Prozent den höchsten Score, den bisher ein Claude-Modell erreicht hat – 40 Prozent der Antworten waren perfekt, 84 Prozent erreichten eine Bewertung von mindestens 0,8.

Beim Thema Sicherheit liegt Opus 4.6 laut der veröffentlichten System Card auf dem Niveau anderer Frontier-Modelle. Die Rate fehlausgerichteten Verhaltens wie Täuschung oder übermäßige Anpassung an Nutzerwünsche sei gering. Das Modell zeige die gleiche Ausrichtung wie Opus 4.5, das zuvor als am besten ausgerichtet galt, habe aber niedrigere Over-Refusal-Raten. Für Cybersecurity hat Anthropic sechs neue Testszenarien entwickelt. Das Modell erfüllt den ASL-3-Standard von Anthropic.

Die Preise liegen bei 5 US-Dollar pro Million Input-Token und 25 US-Dollar pro Million Output-Token. Für Premium-Anfragen mit mehr als 200.000 Token erhöhen sich die Preise auf 10 respektive 37,50 US-Dollar. Künftig müssen Kunden zudem zehn Prozent Aufschlag zahlen, wenn die Inferenz ausschließlich in den USA laufen soll.


(vza)



Source link

Weiterlesen

Künstliche Intelligenz

Lawinenrettung: Wie Hightech Risiken verringern soll


Eine Skiabfahrt durch unberührten Schnee auf einem einsamen Hang in den winterlichen Alpen: Um so was zu genießen, setzen sich Menschen einer der tückischsten alpinen Gefahren aus. Winter für Winter sterben Tourengeher und Freerider durch Lawinen – in Europa waren es allein in der vergangenen Saison 2024/25 siebzig Menschen. Immer wieder trifft es auch erfahrene Alpinisten, sogar wenn sie bei allgemein geringem Lawinenrisiko unterwegs sind – wie etwa gleich zu Beginn dieses Winters, als fünf deutsche Bergsteiger in Südtirol tödlich verunglückten.

Wenn ein Mensch komplett verschüttet ist, drängt die Zeit: Rettung durch Profis wie Bergwacht oder Hubschrauber kommt oft zu spät, weil die Überlebenswahrscheinlichkeit nach etwa 10 Minuten aufgrund des Sauerstoffmangels rapide sinkt. Dies zeigt eine aktuelle Studie von Eurac Research in Bozen, Schweizer Notfallmedizinern und dem Schweizer Institut für Schnee- und Lawinenforschung SLF; bisher galt ein Richtwert von 15 Minuten. Warum sich diese sogenannte Überlebensphase gegenüber der letzten großen Studie aus den 90er Jahren so stark verkürzt hat, können die Autoren nur vermuten; möglicherweise liege es am Klimawandel und dem dadurch bedingten kompakteren Schnee, der weniger Sauerstoff enthält.

  • Lawinentechnik verringert das Risiko einer fatalen Verschüttung im alpinen Wintersport. Pflicht ist dabei das LVS-Gerät, mit dem Tourengeher ihre verschütteten Kameraden rasch selbst orten und bergen können.
  • Am häufigsten ist der Tod durch Ersticken, Hightech-Ausrüstung soll dies verhindern: Airbags halten den Körper über den Schneemassen, neuartige Pumpsysteme fächern dem Verschütteten Atemluft vor das Gesicht, um Rettern mehr Zeit zu verschaffen.
  • Sicherheitsexperten betonen den absoluten Notfallcharakter dieser Systeme. Sie ersetzen keine gründliche Ausbildung von Alpinisten.

Essenziell ist deshalb die sogenannte Kameradenrettung, also die Soforthilfe durch Begleiter. Dafür müssen jedoch alle Gruppenmitglieder entsprechend ausgerüstet sein. Bei der Ortung helfen Geräte, die mithilfe modernster Digitaltechnik heute wesentlich präziser arbeiten und sich einfacher bedienen lassen als ihre analogen Vorgänger. Außerdem gibt es raffinierte Hightech-Ausrüstung, die die Überlebensaussichten eines Lawinenopfers verbessern kann – etwa indem sie Sauerstoff zuführt oder die Chance erhöht, an der Schneeoberfläche zu bleiben.


Das war die Leseprobe unseres heise-Plus-Artikels „Lawinenrettung: Wie Hightech Risiken verringern soll“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Nach Gemini-Siri-Deal: Google nun Apples „bevorzugter Cloud-Anbieter“


Was bedeutet der große KI-Deal zwischen Apple und Google eigentlich für Datenschutz und Sicherheit von iPhone-Nutzerdaten? Für zusätzliche Verunsicherung sorgte jetzt Google-Chef Sundar Pichai: Google ist jetzt der von Apple „bevorzugte Cloud-Anbieter“, gab der CEO gegenüber Finanzanalysten nach Bekanntgabe der jüngsten Geschäftszahlen in der Nacht auf Donnerstag zu Protokoll, ohne weitere Details zu nennen.

Weiterlesen nach der Anzeige

Er freue sich über die Zusammenarbeit mit dem iPhone-Konzern sowie die gemeinsame Entwicklung „der nächsten Generation von Apples Foundation-Modellen, die auf Gemini-Technik basieren“, so Pichai. Den exakt selben Wortlaut wiederholte kurze Zeit später Googles Chief Business Officer Philipp Schindler, wie aus dem Transkript hervorgeht. Die Nachfrage eines Analysten zu dem Deal ließen die Manager im Anschluss unbeantwortet.

Nach Bekanntgabe des Deals im Januar betonten Apple und Google in einer gemeinsamen Mitteilung, dass Apple Intelligence „weiterhin auf Apple-Geräten sowie in Private Cloud Compute“ läuft sowie „Apples branchenführende Datenschutzstandards“ einhält. Siri wurde dabei nicht getrennt erwähnt. Apple-Chef Tim Cook wich Nachfragen von Finanzanalysten Ende Januar ebenfalls aus: „Was die Vereinbarung mit Google angeht, dazu veröffentlichen wir keine Details“, so Cook knapp.

Aktuell laufen manche Sprachmodelle von Apple Intelligence lokal auf den Geräten, bestimmte Anfragen werden an ein größeres Sprachmodell auf Apple-Servern geschickt. Nutzer sehen davon nichts. Apple verspricht, diese Daten in seiner Private Cloud Compute nur zur Umsetzung der jeweiligen Aktion zu verwenden und anschließend zu löschen. Sie würden weder für KI-Training noch für andere Zwecke weiterverarbeitet. Mitarbeiter seien zu keinem Zeitpunkt in der Lage, das einzusehen. Ende-zu-Ende-Verschlüsselung kommt allerdings nicht zum Einsatz. Interaktionen mit Siri werden bislang von Apple grundsätzlich transkribiert und ausgewertet. Wer die ChatGPT-Integration in Siri nutzt, schickt seine Daten an die Server von OpenAI.

Weiterlesen nach der Anzeige

Nach Informationen von Bloombergs Mark Gurman soll die erste Version der neuen Gemini-basierten Siri auf Apples Cloud-Infrastruktur laufen. Für künftige KI-Funktionen in iOS 27 – darunter ein erwarteter Siri-Chatbot – sei allerdings der Rückgriff auf die Google Cloud im Gespräch, schrieb Gurman. Auch Google präsentierte jüngst eine an Private Cloud Compute angelehnte Lösung; ob diese dafür beispielsweise zum Einsatz kommt, bleibt vorerst offen. Apple setzt schon lange auch auf Google als Cloud-Anbieter, um iCloud-Daten zu hosten.


(lbe)



Source link

Weiterlesen

Beliebt