Connect with us

Künstliche Intelligenz

KubeCon: Fortschritte, aber auch mehr Arbeit bei Cloud-Native und Cybersecurity


So erfreulich die Fortschritte bei Open-Source- und Cloud-Native-Software auch sind, die die CNCF bei der KubeCon + CloudNativeCon in Atlanta anlässlich ihres 10. Jubiläums gerade feiert – mehr Anwendungen erhöhen zwangsläufig auch die Angriffsfläche für Cyberattacken. Zu den grundlegenden Hausaufgaben von Entwicklerinnen und Entwicklern zählen dabei das Beheben und das Vermeiden von Schwachstellen auf Code-Ebene, die unter Security-Fachleuten als Common Vulnerabilities and Exposures, kurz CVE, bekannt sind.

Weiterlesen nach der Anzeige

Bezogen auf CNCF-Projekte hat sich deren Anzahl 2025 im Vergleich zum Vorjahr um 16 Prozent erhöht. Besorgniserregend sind vor allem die vermehrten Angriffe auf die Lieferkette im Open-Source-Umfeld. Das jüngste Beispiel ist der Wurm Shai-Hulud, der über 500 Pakete des NPM-Ökosystems kompromittiert hat.

Ein Ansatz für Schutzmaßnahmen ist die Auditierung der verwendeten Software. So lässt sich herausfinden, welche CVEs sind dort vorhanden sind. Dabei kann der Open Source Technology Improvement Fund (OSTIF) unterstützen, der inzwischen eine Reihe von CNCF-Projekten untersucht hat. Anfang November kam der Bericht zu KubeVirt heraus, das eine Umgebung bereitstellt, in der sich virtuelle Maschinen und Container gleichermaßen zusammen verwalten lassen. Laut OSTIF fanden sich in dem Projekt 15 Schwachstellen. Dabei sticht CVE-2025-64324 mit einer hohen Kritikalität heraus. Sieben weitere sind als mittelschwer eingestuft.

Unter anderem auch für die CNCF veröffentlicht OSTIF alljährlich einen Bericht, der typischerweise im Dezember erscheint. Für 2025 steht er noch aus, es liegen aber bereits Teilergebnisse vor. Für das Service-Mesh Linkerd sind darin insgesamt sieben Schwachstellen gelistet, eine davon ist mit der Kritikalität hoch eingestuft. 2024 kamen elf CNCF-Projekte auf den Prüfstand. Das Resultat waren 28 Schwachstellen mit mittlerer oder hoher Kritikalität.



Auszug aus dem OSTIF-Bericht zum CNCF-Projekt Linkerd

(Bild: OSTIF)

Insbesondere auf der Ebene der Container-Images sind Schwachstellen immer noch ein großes Problem. Docker reagierte im Mai 2025 darauf mit der Einführung von Docker Hardened Images (DHI). Deren Grundlage sind abgespeckte Versionen der ursprünglichen Container-Images. Aus der geringeren Anzahl enthaltener Softwarekomponenten resultiert dabei automatisch eine verringerte Angriffsfläche.

Weiterlesen nach der Anzeige

Als neuer Mitspieler in diesem Umfeld positioniert sich Minimus. Im Gespräch mit iX ließ CTO und Mitbegründer John Morello durchblicken, dass die Firma und deren Geschäftsidee schon länger existiere, jedoch seien sie bis Mai 2025 im „Tarnmodus“ unterwegs gewesen. Minimus bietet ebenfalls minimalistische Versionen der ursprünglichen Container-Images an, geht aber noch einen Schritt weiter: Das Produkt „Minimal Images“ prüft alle 24 Stunden, ob es aktualisierte Teilkomponenten des Images gibt. Wenn das Update eine bekannte Schwachstelle behebt, generiert Minimus eine neue Version des Container-Images. So erhalten Benutzer tagesaktuelle Software mit minimaler Anzahl von Schwachstellen bereitgestellt. Diese Technik funktioniert allerdings nur mit Container-Images, die vollständig auf Open Source mit öffentlich zugänglichen Software-Verzeichnissen beruhen. Minimus bietet damit zwar keine Universallösung, kann aber speziell im OSS-Umfeld hilfreich sein.

Weitere Herausforderungen im Bereich Cybersecurity zieht der Hype um künstliche Intelligenz (KI) nach sich: Sollen KI-Agenten einander vollständig vertrauen dürfen? Wie sieht es mit dem Zugriff auf Daten für die Arbeitsabläufe oder Entscheidungen aus? Sind Modelle korrekt oder manipuliert? Im Bereich des Identitätsmanagements hat sich unter anderem das Unternehmen Cyberark dieser Fragen angenommen. Für Dezember 2025 kündigte Cyberark ein neues Produkt an, das sich auf die agentenbasierte KI fokussiert. Allerdings erfindet die Firma das Rad nicht neu, sondern behandelt KI-Agenten genauso wie menschliche Benutzer.

Vertrauensverhältnisse beruhen auf Identitäten, Zugriffsrechte sind ebenfalls damit verbunden – genauso wie in den Zeiten vor der KI. Die Neuerungen finden sich im Detail. So müssen im Ansatz von Cyberarks die KI-Agenten über ein Gateway mit den MCP-Servern oder den Datenquellen kommunizieren. Eine zentrale Rolle übernimmt dabei die sogenannte Identity Security Platform. Dort finden die Verwaltung und Zuweisung von Berechtigungen beziehungsweise deren Überprüfung statt. Die gesamte Kommunikation erfolgt verschlüsselt. Im informellen Gespräch mit iX ließen Vertreter von Cyberark durchblicken, dass es Pläne für weitere Sicherheitsmechanismen gebe. So soll künftig etwa auch die Integrität der Modelle mit Signaturen abgesichert beziehungsweise geprüft werden. Über erste Ideen hinausgehende konkrete Informationen lägen dazu aber noch nicht vor.


(map)



Source link

Künstliche Intelligenz

Galaxy XR im Einsatz, Muse-Pencil für die Vision Pro | TNBT-Podcast


Mit ähnlich hochkarätigen Display-Specs, einem niedrigeren Gewicht und dem erheblich günstigeren Preis ist Samsungs Galaxy XR eine spannende Alternative zur Vision Pro – zumindest auf dem Papier. Durch Android XR, Google Maps, YouTube, Netflix und nicht zuletzt Gemini ist obendrein die Software-Geschichte interessant und bringt so manches mit, was visionOS aktuell schmerzlich fehlt.

Weiterlesen nach der Anzeige

In Episode 57 berichtet Mark Zimmermann, Leiter für mobile Lösungen bei EnBW, ausführlich über seine ersten konkreten Erfahrungen mit der Galaxy XR. Dabei geht es um Tragekomfort, Gewicht, Display-Qualität sowie um Details wie den verborgenen USB-C-Port. Wir diskutieren zudem über Android XR, den Nutzen der „sehenden“ Gemini-KI sowie darüber, ob das Gerät nicht letztlich am Markt vorbei entwickelt wurde. Eine Kehrtwende gibt es bei Logitechs Muse zu verzeichnen: visionOS 26.2 – derzeit noch im Betastadium – integriert den Stift tief ins Betriebssystem und macht ihn damit auf einen Schlag nützlich.

1984, 2007, 2024 – Apples Vision Pro tritt in riesige Fußstapfen: Mac und iPhone haben nicht nur Geschichte geschrieben, sondern auch grundlegend verändert, wie wir Computer verwenden.

Mac & i begleitet die Vision Pro sowie die Chancen und Hürden von „räumlichem Computing“ mit einem eigenen Podcast: TNBT – The Next (Big) Thing beleuchtet die jüngsten Entwicklungen rund um die neue Plattform mitsamt den Auswirkungen auf IT-Branche und Gesellschaft.

TNBT ist in allen großen Podcast-Verzeichnissen zu finden und lässt sich mit Apple Podcasts und Spotify hören oder als RSS-Feed in der Podcast-App der Wahl beziehen. Wir freuen uns unter podcast@mac-and-i.de auf Fragen, Anregungen und Kritik.

Weiterlesen nach der Anzeige


(lbe)



Source link

Weiterlesen

Künstliche Intelligenz

PC-Speichermodul mit 128 GByte für Dual-Slot-Mainboards


Der taiwanische Speichermodulhersteller Adata kündigt ein besonderes DIMM mit 128 GByte Kapazität an: Es funktioniert aber wohl nur auf Mainboards, die Clock-Unbuffered-(CU-)DIMMs ansteuern können und zwei Steckfassungen dafür haben. Damit sind folglich maximal 256 GByte Arbeitsspeicher möglich.

Weiterlesen nach der Anzeige

Desktop-PCs und Notebooks sind üblicherweise nur für sogenannte ungepufferte Speicherriegel ausgelegt, kurz UDIMMs. Diese lassen sich bisher mit maximal 64 GByte DDR5-RAM bestücken.

Auf Mainboards mit vier Fassungen für CUDIMMs dürften sich vier der neuen Module mit je 128 GByte nicht gemeinsam ansteuern lassen, weil Adata sich dabei eine Besonderheit zunutze macht: Die 128-GByte-DDR5-CUDIMMs haben vier statt nur zwei Ranks.

Bisher fertigen DRAM-Chiphersteller einzelne DDR5-SDRAM-Chips mit maximal 32 Gigabit (GBit) Kapazität. Acht davon fassen folglich 32 GByte (8 Bit = 1 Byte) und bilden zusammen einen sogenannten Rank. Ein Single-Rank-(SR-)UDIMM speichert also 32 GByte, ein Dual-Rank-(DR-)UDIMM 64 GByte.

Mehr als zwei Ranks sind bei UDIMMs nicht vorgesehen, sondern nur bei Registered DIMMs (RDIMMs), auch buffered DIMMs genannt.

Die Speichercontroller der meisten Desktop-PC-Prozessoren steuern zwei RAM-Kanäle an, von denen jeder höchstens mit zwei DR-UDIMMs bestückt sein darf, also mit insgesamt vier Ranks.

Weiterlesen nach der Anzeige



Der Speicher-Controller typischer Desktop-PC-Prozessoren steuert pro RAM-Kanal maximal vier Ranks an.

(Bild: heise medien)

Bei einem Mainboard mit zwei DIMM-Slots, also nur einem DIMM pro Kanal (1 DIMM per Channel, 1DPC), sind im Prinzip höchstens zwei Ranks vorgesehen. Aber grundsätzlich könnte der Speicher-Controller der CPU noch zwei weitere Ranks ansteuern.

Adata bestückt die neuen 128-GByte-Riegel daher mit vier Ranks (4R), lötet also doppelt so viele DDR5-SDRAM-Chips drauf. Dabei nutzt Adata gleichzeitig einen Clock-Driver-Chip, der die Taktfrequenzsignale stabilisiert. Es handelt sich also um 4R-CUDIMMs.

Laut der Pressemitteilung von Adata laufen Prototypen der 128-GByte-4R-CUDIMMs bereits auf einem MSI-Mainboard mit Z890-Chipsatz für einen Prozessor vom Typ Intel Core Ultra 200.

Preise und Liefertermine nennt Adata bisher nicht. Wegen der zurzeit deutlich steigenden DDR5-RAM-Preise dürfte die Nachfrage nach Speicherriegeln mit extrem hoher Kapazität allerdings gering sein.


(ciw)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update: GPT-5.1, Maschinen menschlich machen, Definierte KI, Anthropic-Invest


Weiterlesen nach der Anzeige

OpenAI hat GPT-5.1 veröffentlicht. Das Modell wird zunächst weltweit zum Standard in ChatGPT und steht Entwicklern über die API zur Verfügung. Die Reasoning-Version GPT-5.1 Thinking soll komplexe Themen verständlicher erklären, GPT-5.1 Instant folgt Anweisungen präziser. Nach Protesten beim letzten Wechsel – Nutzer beklagten einen kühleren, weniger menschlichen Ton – gibt OpenAI dieses Mal eine dreimonatige Übergangsfrist.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Neu ist die erweiterte Konfiguration des Chatbot-Verhaltens. Nutzer können nun aus mehr voreingestellten Stilen wählen oder die Antworten individuell anpassen. OpenAI hält an seiner Strategie fest: erst Technologie verfügbar machen, dann beobachten, wie Menschen damit umgehen.

Ein Team von Google DeepMind in Deutschland will Maschinen beibringen, die Welt ähnlich wie Menschen zu sehen. In der Fachzeitschrift Nature beschreibt das Team den Ansatz „AligNet“. Moderne Bilderkennungssysteme erkennen zwar Muster, fokussieren sich aber auf visuelle Ähnlichkeiten. Menschen denken anders:

Sie gruppieren nach Bedeutung. AligNet trainiert bestehende Modelle mit menschlichen Ähnlichkeitsurteilen. Die angepassten Modelle lagen in Tests deutlich näher an menschlichen Einschätzungen und erwiesen sich als robuster. Die Trainingsdaten und Modelle sind offen verfügbar.

Weiterlesen nach der Anzeige

Der Ausschuss für Beschäftigung und soziale Angelegenheiten des EU-Parlaments hat für einen Gesetzentwurf gestimmt, der den Einsatz von KI in Unternehmen eingrenzen soll. Menschen sollen bei wichtigen Themen die Kontrolle behalten: Beginn und Ende eines Arbeitsverhältnisses, Vertragsverlängerungen, Lohnanpassungen oder Disziplinarmaßnahmen sollen stets von Menschen entschieden werden.

Arbeitnehmer müssen darüber informiert werden, wie KI ihre Arbeitsbedingungen beeinflusst. Der Ausschuss verlangt ein Verbot der Verarbeitung sensibler Daten über den emotionalen, psychologischen oder neurologischen Zustand der Beschäftigten.

Anthropic will 50 Milliarden US-Dollar in amerikanische KI-Infrastruktur investieren. Geplant ist der Bau eigener Rechenzentren in Texas und New York, der Betrieb startet ab 2026. Beobachter warnen vor einer möglichen Investitionsblase.

Der Trend zu immer größeren, oft schuldenfinanzierten Rechenzentren könnte primär darauf abzielen, möglichst viele Investoren finanziell zu involvieren. OpenAI und Anthropic sind weit von der Gewinnzone entfernt.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Google hat sein Tool NotebookLM aktualisiert. Das neueste Update erlaubt es, Video-Zusammenfassungen per Texteingabe frei zu gestalten. Die freie Stileingabe macht aber auch Copyright-Verletzungen möglich. In einem Test generiert das System auf Anfrage eine Präsentation im Stil der Simpsons, ohne erkennbare Einschränkungen. NotebookLM versieht alle Folien mit einem eigenen Copyright-Vermerk, selbst in Szenen mit ausschließlich Simpsons-Inhalten.

SAPs KI-Assistent Joule soll helfen, Geschäftsprozesse zu vereinfachen und zu digitalisieren. Eine Studie zeigt jedoch, dass sechs von zehn Firmen sich noch in der Umstellung auf das aktuelle SAP-System befinden und die KI-Funktionen dabei oft nicht nutzen. Die Studie der Unternehmensberatung Horváth kommt zu dem Schluss, dass sich Unternehmen nicht agil genug zeigen. Eine Systemumstellung entpuppt sich häufig auch ohne KI-Funktionen als herausfordernder als erwartet.

Die Empfehlung: Unternehmen sollten schon jetzt schauen, wie KI-Funktionen in ihre Prozesse passen – gezielt mit wenigen, klaren Automatisierungs-Prozessen beginnen.

Matthew McConaughey wird seinen Newsletter künftig auch in flüssigem Spanisch vorlesen, obwohl er die Sprache nicht spricht. Dafür arbeitet er mit dem KI-Audio-Unternehmen ElevenLabs zusammen, das eine künstlich generierte Version seiner Stimme erstellt. Auch Liza Minelli, Art Garfunkel und Michael Caine arbeiten mit ElevenLabs zusammen.

Das Unternehmen lässt auch Verstorbene wieder aufleben, etwa die Stimmen von Alan Turing oder John Wayne.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(mali)



Source link

Weiterlesen

Beliebt