Künstliche Intelligenz
Kindle Scribe Colorsoft im Test: Amazons erstes E-Ink-Tablet mit Farbdisplay
Optisch unterscheidet sich der Kindle Scribe Colorsoft auf den ersten Blick von seinem Vorgänger. Der Bildschirm mit seiner 11-Zoll-Diagonale ist ein wenig größer als der 10-Zöller des Vorgängers und sitzt nun symmetrisch im Gehäuse. Durch den gleichmäßigen, schmalen Rahmen sieht der Scribe Colorsoft schicker aus als sein Vorgänger mit dem einseitig breiten Rand. In ergonomischer Hinsicht allerdings ist es eine Verschlechterung, denn der breite Rand war praktisch, um das Gerät bei der Lektüre zu halten. Da das Tablet weniger als 400 Gramm wiegt, wird auch beim längeren Lesen der Arm nicht schwer.
Das Gehäuse besteht aus einer Unibody-Rückseite aus Aluminium und einer Bildschirmabdeckung aus mattiertem Kunststoff, nur unterbrochen von einer USB-C-Buchse an der Unterseite und dem Einschalter rechts. Das Gerät macht einen äußerst wertigen Eindruck, allerdings geht das Design zulasten der Reparierbarkeit. Um ans Innere des Tablets zu gelangen, muss der ins Gehäuse geklebte Bildschirm herausgelöst werden – Laien sollten die Finger davon lassen. Ersatzteile oder Reparaturanleitungen liefert Amazon nicht.
Die Hardware hat Amazon im Vergleich zum Erstling aufgemöbelt. Im Innern verrichtet ein nicht näher benannter Vierkernprozessor seinen Dienst, er ersetzt den Zweikerner des Vorgängers. Der Prozessor erreicht eine maximale Taktrate von 2 GHz. Zwar ist bei E-Ink-Tablets in der Regel eher die langsame Bildwiederholrate des Bildschirms der limitierende Faktor als der Prozessor. Doch da der Kindle mit Farbdisplay häufiger mal mit größeren Dateien wie Comics und PDFs hantieren dürfte als sein monochromer Kollege, scheint die Aufstockung angeraten. Amazon verkauft den Kindle in zwei Versionen mit 32 oder 64 GByte Speicher.
Das war die Leseprobe unseres heise-Plus-Artikels „Kindle Scribe Colorsoft im Test: Amazons erstes E-Ink-Tablet mit Farbdisplay“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Compliance-Management: Cloud-Apps absichern – mit oder ohne Agenten
Die IT-Sicherheit befindet sich in einem permanenten Spannungsfeld zwischen der Notwendigkeit granularer Kontrolle und dem Drang nach operativer Geschwindigkeit. Während Containerorchestrierung per Kubernetes und Serverless-Architekturen die Deployment-Frequenz in den Minutenbereich drücken, hinken klassische Sicherheitskonzepte oft Monate hinterher. Der Markt antwortet mit der Fusion ehemals getrennter Disziplinen – Cloud Security Posture Management (CSPM) und Cloud Workload Protection Platform (CWPP) – zur Cloud-native Application Protection Platform (CNAPP).
Allerdings eine schlechte Nachricht für Firmen, die souverän bei EU-Anbietern hosten: Keine CNAPP-Lösung analysiert die mittelständischen Anbieter wie Scaleway, OHV, STACKIT et cetera. Für selbst oder bei mittelständischen Anbietern betriebene Kubernetes-Cluster sieht es besser aus, hier helfen die auf CWPP spezialisierten Werkzeuge.
- Zur Absicherung von Cloud-native-Infrastrukturen hat man die Wahl zwischen agentenlosen Scannern und agentenbasierten Wächtern und somit zwischen reiner Sichtbarkeit und aktiver Gefahrenabwehr zur Laufzeit.
- Compliance ist Pflicht: Alle Maßnahmen sollten auf den BSI-Grundschutz abgestimmt sein.
- Die finanzielle Stabilität und die R&D-Quote der Anbieter sind kritische Indikatoren für die Zukunftsfähigkeit; die Implosion der Bewertung von Lacework dient als Warnsignal gegen einen vorschnellen Vendor Lock-in.
Fragte die erste CSPM-Tool-Generation noch systematisch Cloud-APIs ab, um den Ist- gegen den Sollzustand zu prüfen, hat sich die Bedrohungslage fundamental verschoben. Angreifer nutzen nicht mehr nur simple Fehlkonfigurationen, sondern komplexe Identitätsketten und Schwachstellen innerhalb der Laufzeitumgebung aus. Die bloße API-Abfrage, die einen offenen Port meldet, ist wertlos geworden ohne den Kontext, welcher Prozess dort lauscht, welche Bibliotheken geladen sind und welche Rechte die damit verknüpfte Serviceidentität besitzt.
Das war die Leseprobe unseres heise-Plus-Artikels „Compliance-Management: Cloud-Apps absichern – mit oder ohne Agenten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Disney Channel kommt zu Disney+
Nutzer von Disney+ können künftig auch den Disney Channel im Streaming-Dienst aufrufen. Das teilte Disney unter anderem dem Medienmagazin DWDL mit. Ab Mai ist das lineare Programm des Disney Channels demnach auch über Disney+ aufrufbar. Voraussetzung ist ein aktives Abonnement, ein Aufpreis fällt nicht an.
Weiterlesen nach der Anzeige
Der Disney Channel ist ein vorwiegend an Kinder ausgerichteter, linearer Fernsehsender. In Deutschland ist der im FreeTV zu sehen und ist unter anderem bereits in waipu.tv und MagentaTV integriert. Auch in verschiedenen Satelliten- und Kabelpaketen ist der Disney Channel bereits integriert. Mit dem Einbau in Disney+ gibt es bald einen weiteren Empfangsweg.
„Die Integration des Disney Channel auf Disney+ ist der nächste logische Schritt“, zitiert DWDL die Disney-Managerin Eun-Ky Park. „Wir verbinden Orientierung und gemeinsames Fernseherlebnis mit der Flexibilität von Streaming und bieten unserem Publikum ohne zusätzliche Kosten noch mehr Auswahl.“ Das Programm des Disney Channels ist auf der offiziellen Webseite einsehbar.
ESPN kommt nach Deutschland
Neben dem Disney Channel bringt Disney auch ESPN zu seinem deutschen Streaming-Dienst: Das Angebot des Sportsenders soll in Deutschland stark ausgebaut werden. Unter dem ESPN-Banner wird schon jetzt Frauenfußball und US-amerikanischer College-Sport gebündelt.
Im Verlauf des kommenden Jahres soll über ESPN ein „abwechslungsreiches Portfolio“ aus US-Sportligen wie NBA (Basketball) und NHL (Eishockey) in Deutschland zu sehen sein, kündigte Disney an. Beide Sportligen sollen zur kommenden Saison 2026 bis 2027 international abrufbar sein – auch im Rahmen von Live-Übertragungen, die in Europa teilweise mitten in der Nacht stattfinden. Zusätzlich sollen Abonnenten von Disney+ Zugang zu ESPN-Dokus wie der „30 for 30“-Reihe bekommen und Newsprogramme aus der Sportwelt sehen können.
Künstliche Intelligenz
Nur mit Zertifikat: Long-Term-Support für OpenSearch
Im Rahmen seiner europäischen Hauskonferenz hat die OpenSearch Foundation eine Version mit Langzeitunterstützung (LTS) von OpenSearch angekündigt. Den LTS-Status erhalten zu Beginn die aktuelle Version 3.6 sowie OpenSearch 2.19 als finales Release der vorherigen Hauptversion. Künftig soll es pro Hauptversion eine LTS-Variante geben, die mindestens 18 Monate Support erhält.
Weiterlesen nach der Anzeige
Zertifizierte Drittanbieter übernehmen LTS-Programm
Um einem Vendor-Lock-in vorzubeugen, können Anwender selbst festlegen, welcher Anbieter die LTS-Leistung erbringen soll. Zwar gibt es Dienstleister, die OpenSearch anbieten, für die Bereitstellung des langfristigen Supports ist jedoch eine Zertifizierung durch die OpenSearch Foundation erforderlich. So müssen die Unternehmen belastbare Fristen zum Bereitstellen von Patches, Upgrade-Möglichkeiten und Basisarbeit in der Community nachweisen.
Konkret verspricht die OpenSearch Foundation, dass Sicherheitspatches und Bugfixes nach maximal 60 Tagen bereitstehen und sich Upgrades im laufenden Betrieb einspielen lassen, ohne OpenSearch-Dienste herunterfahren zu müssen. Derzeit gibt es mit Bigdata Boutique, Eliatra und Resolve drei zertifizierte Anbieter.
OpenSearch 3.6: KI-Agent baut Suchanwendungen autonom
Die zentralen Neuerungen in OpenSearch 3.6 liegen im Bereich der agentenbasierten KI. Mit dem neuen OpenSearch Launchpad sollen Anwender innerhalb von Minuten eigene Suchanwendungen erstellen können, ohne technische OpenSearch-Kenntnisse zu benötigen. Stattdessen können Anwender ihre Vorgaben in Dokumenten oder per Chat an die Plattform übergeben, die dann eigenständig eine lokale Anwendung mit grafischer Oberfläche einrichtet.
Launchpad ist die erste Fähigkeit der neuen OpenSearch Agent Skills. Sie enthalten und verknüpfen das technische Wissen für den Bau von Suchanwendungen. Alle darin enthaltenen Werkzeuge sollen sich über das Model Context Protocol (MCP) mit verschiedenen Entwicklungsumgebungen integrieren lassen, darunter Claude Code, Cursor und Kiro.
Anbindung an externe Sprachmodelle
Weiterlesen nach der Anzeige
Eine weitere Neuerung ist der OpenSearch Agent Server. Er gehört zur KI-Agenten-Infrastruktur von OpenSearch. Der Agent Server leitet Anfragen weiter, spricht über MCP mit OpenSearch und kann mit LLM-Anbietern wie AWS Bedrock oder Ollama kommunizieren. Die technischen Voraussetzungen sind Python 3.12 oder neuer, OpenSearch 2.x oder neuer und eine Anbindung an das bevorzugte Sprachmodell.
Zum Agent Server gehört der ebenfalls neue, noch experimentelle OpenSearch Relevance Agent. Mit ihm können Anwender über Anweisungen in natürlicher Sprache das Nutzungsverhalten einer Suche auswerten, datengetriebene Hypothesen generieren und Verbesserungsvorschläge evaluieren lassen. Dazu orchestriert der Relevance Agent die Kommunikation mit spezialisierten KI-Agenten und ist auch über die Chat-Schnittstelle in das Cockpit von OpenSearch integriert. Neben der Weiterleitung von Nachrichten wertet er die erhaltenen Antworten aus und gibt eine Zusammenfassung im Cockpit aus.
Die neuen Funktionen von OpenSearch 3.6 finden sich im Entwicklerblog des Projekts. Nach einem Lizenzstreit spaltete sich OpenSearch im Jahr 2021 als quelloffener Fork von ElasticSearch ab. AWS betrieb das Projekt bis zur Übergabe an die Linux Foundation im Jahr 2024.
(sfe)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
