Künstliche Intelligenz
Top 10: Das beste Digitalradio mit DAB+ und ASA im Test – Warnmeldung im Notfall
Radios mit ASA (Automatic Safety Alert) warnen die Bevölkerung im Katastrophenfall per digitalem Rundfunk (DAB+ und DRM). Wir zeigen die besten Modelle.
„Warn-Apps“ auf Smartphones sind im Ernstfall oft nur eingeschränkt nutzbar: Sie benötigen vergleichsweise viele Daten, zudem brechen Mobilfunknetze bei Großschadenslagen häufig als Erstes zusammen. Abhilfe schaffen sollen datensparsame Cell-Broadcast-Warnungen direkt über die Mobilfunknetze oder ein eigener Warnkanal im Digitalradio DAB+. Allerdings können ältere Endgeräte diese Warnmeldungen häufig nicht empfangen oder auswerten.
Welches DAB+-Radio mit ASA ist das beste?
Testsieger ist das Telestar TOP 250. Es bietet das beste Gesamtpaket und verfügt über Internetradio – was viele Geräte in diesem Testfeld nicht bieten. Zudem ist es mit rund 98 Euro vergleichsweise günstig.
Knapp dahinter folgt das Telestar TOP 300 als Technologiesieger. Zusätzlich zur Ausstattung des TOP 250 bietet dieses Modell noch einen CD-Spieler – falls jemand so etwas nutzt. Mit knapp 141 Euro ist es etwas teurer.
Fehlende Notfallwarnsysteme
Deutschland ist bei Naturkatastrophen bislang vergleichsweise glimpflich davongekommen. Im vergangenen Jahrhundert ragen primär die Hamburger Sturmflut von 1962 sowie die Schneekatastrophe des Winters 1978/1979 heraus, als im Norden Deutschlands nicht nur Verkehrswege blockiert waren, sondern auch Strommasten umknickten. In beiden Fällen leisteten Funkamateure mit Notfunkausrüstung wertvolle Hilfe bei den Einsätzen. Ansonsten blieben der Rundfunk und die Luftschutzsirenen als zentrale Mittel, um die Bevölkerung zu warnen und zu informieren, damit sie sich vorbereiten oder in Sicherheit bringen konnte.
Dass schwere Katastrophen in Deutschland bislang selten sind und das Land weder regelmäßig von Hurrikanen noch von Tsunamis betroffen ist, stellt jedoch keine Garantie für die Zukunft dar. Die Flutkatastrophe im Ahrtal mit Hunderten Todesopfern – begünstigt durch problematischen Landschafts- und Hausbau in Kombination mit Extremwetterlagen – führte schmerzhaft vor Augen, dass auch hierzulande jederzeit mit Katastrophen zu rechnen ist. Neben Naturereignissen sind zudem technische Unglücke wie Chemie- oder Atomunfälle nicht auszuschließen.
Trotz moderner Technik verfügt Deutschland derzeit über kein flächendeckend zuverlässig funktionierendes Katastrophen-Warnsystem. Ein Radio muss erst eingeschaltet werden und hilft bei nachts aufziehenden Gefahrenlagen daher nur eingeschränkt. Die Luftschutzsirenen wurden wiederum in vielen Kommunen nach dem Ende des Kalten Krieges abgebaut. Dabei erfüllten sie neben der Warnung vor Luftangriffen und der Alarmierung der Feuerwehr – die heute überwiegend über stille Funkrufempfänger erfolgt – vorwiegend eine wichtige Aufgabe: die Bevölkerung aus dem Schlaf zu holen und sie so auf weiterführende Informationen etwa über den Rundfunk aufmerksam zu machen.
US-Warnsysteme
Auch im Ausland standen bei der Entwicklung von Alarmsystemen zunächst militärische Bedrohungen im Vordergrund, nicht Naturkatastrophen. In den USA wurde 1951 mit Conelrad (Control of Electromagnetic Radiation) ein Luftschutz-Warnsystem eingeführt, das die Bevölkerung per Rundfunk über rasch wechselnde Senderstandorte auf zwei Mittelwellenfrequenzen informieren sollte. Ziel war es, zu verhindern, dass angreifende Bomber die Rundfunksender als Funkfeuer zur Zielführung nutzen konnten – eine Taktik, die im Zweiten Weltkrieg bei Angriffen auf Deutschland Anwendung fand.
Ab 1957 wurde Conelrad auch für Naturkatastrophen eingesetzt, 1963 löste das Emergency Broadcast System (EBS) es ab. Der Grund: Die größte Bedrohung waren inzwischen nicht mehr Bomber, sondern Interkontinentalraketen. Bomber konnten Radiosignale nutzen, um ihr Ziel zu finden – genau das sollte Conelrad durch ständiges Frequenzwechseln verhindern. Raketen hingegen fliegen auf einer vorprogrammierten Bahn und brauchen dafür kein Radio. Das Frequenzwechselverfahren war damit überflüssig, ein neues Warnsystem musste her.
Die US-amerikanischen Warnsysteme sollten zunächst vorrangig dem Präsidenten ermöglichen, die gesamte Bevölkerung im Kriegsfall oder bei landesweiten Notlagen zu erreichen. Erst schrittweise wurde EBS auch für Warnungen auf Ebene einzelner Bundesstaaten oder lokal eingesetzt. Zwischen 1976 und 1996 wurde das System rund 20.000-mal aktiviert – angesichts der in den USA häufigen extremen Wetterlagen. Ein landesweiter Alarm wurde hingegen nie ausgelöst. Später wurde EBS durch das heute noch genutzte Emergency Alert System (EAS) abgelöst.
Der Vorteil des Nachfolgesystems liegt in der digitalen Codierung: Warnungen lassen sich gezielt auf bestimmte Regionen beschränken, zudem kann der Anlass – etwa Erdbeben oder Hurrikan – mit übertragen werden. Das Vorgängersystem war dagegen anfällig für Fehlalarme. Auslöser war ein analoger, unangenehm klingender Zweiton, der laufende Programme unterbrach und zugleich die automatische Weiterleitung an andere Sender startete. Spielfilme, Nachrichtensendungen oder sogar Werbespots mit Original-Warntönen führten wiederholt zu unbeabsichtigten Alarmen und in der Folge zu teils millionenschweren Strafzahlungen.
Auch regelmäßige Testaussendungen offenbarten Schwächen: Ein erheblicher Teil der Anlagen funktionierte nicht korrekt, zudem kam es immer wieder zu Fehlalarmen, etwa wenn bei Tests falsche Tonbänder eingelegt wurden und ein Probelauf unbeabsichtigt zum Ernstfall wurde. Als Vorbild für ein neues deutsches Warnsystem eignet sich EAS daher nur bedingt – grundsätzlich zeigt es jedoch, dass ein flächendeckendes Warnsystem technisch realisierbar ist.
Warn-Apps
NINA und Katwarn sind die bekanntesten Apps, die auf Smartphones Katastrophenalarm auslösen sollen. In der Praxis funktionierte das bei Tests jedoch häufig erst nach Stunden. Das ist wenig überraschend: Im Alarmfall werden die Warnmeldungen über das Mobilfunknetz einzeln per TCP/IP an jedes einzelne Smartphone versandt – inklusive Rückmeldung.
Wenn Millionen Geräte gleichzeitig erreichbar sein sollen, teils ohne LTE-Empfang und mit langsamen Datenverbindungen, stößt dieses Verfahren zwangsläufig an seine Grenzen. Es ist ebenso ineffizient, wie es wäre, jedes Telefon einzeln per SMS, E-Mail oder automatisiertem Anruf zu alarmieren. Mit den 20 Mitgliedern einer örtlichen freiwilligen Feuerwehr mag das funktionieren, nicht jedoch mit der Bevölkerung eines ganzen Landstrichs. Bis dahin hat eine Flut wie im Ahrtal – wo zudem zu spät gewarnt wurde – die Infrastruktur längst zerstört.
Abhilfe schaffen nur echte Broadcast-Technologien: etwa Warnungen über den Rundfunk – allerdings nicht analog, sondern digital und idealerweise mit der Fähigkeit, auch bei inaktivem Gerät einen Alarm auszulösen. Viele Menschen legen ihr Smartphone bewusst nicht neben das Bett, um ungestört schlafen zu können. Ein Radiowecker hingegen steht häufig auf dem Nachttisch, was dem Rundfunk hier einen klaren Vorteil verschafft.
EWF (Emergency Warning Functionality) und ASA (Automatic Safety Alert) heißen die beiden Ausbaustufen des Warnsystems. Es handelt sich um eine deutsche Entwicklung, die von Beginn an auf internationale Nutzung ausgelegt ist.
Mit dem Übergang von EWF zu ASA wurde eine entscheidende Funktion ergänzt: der Standortbezug. Während EWF alle Empfänger im Sendebereich gleichermaßen alarmierte, erlaubte ASA eine gezielte regionale Warnung. Ein Fabrikbrand in Wanne-Eickel ist in Berchtesgaden nicht relevant und kein Grund, Menschen dort um zwei Uhr nachts aus dem Schlaf zu reißen, um vorsorglich die Fenster zu schließen. Lokale Warnungen ließen sich zuvor nur über lokale DAB+-Ensembles verbreiten, nicht jedoch über bundesweite Programme – ein Mangel, der an die frühen Einschränkungen des US-amerikanischen Conelrad-Systems erinnerte.
ASA auf DAB+
ASA kann DAB+-Radios automatisch auf einen Warnkanal umschalten und sogar aus dem Standby aktivieren. Eine kurze Sprachmeldung wird wiedergegeben, ergänzend lassen sich Textinformationen im Journaline-Format des Fraunhofer-Instituts anzeigen – auch in Fremdsprachen sowie barrierefrei für Hörgeschädigte. Getestet wird das System bereits seit 2014, und der bundesweite DAB+-Multiplex kann ASA-Signale technisch ausstrahlen. Im Regelbetrieb kommt ASA bislang jedoch nicht zum Einsatz – aktiviert wird es derzeit nur an bundesweiten Warntagen.
Daneben existieren regionale Testmöglichkeiten. In Bayern sendet etwa der DAB-Testkanal 10D, ausgestrahlt ausschließlich von den Standorten Wendelstein und Büttelberg, zweimal pro Stunde eine Testwarnung. Nutzerinnen und Nutzer im Empfangsgebiet können damit ihr Gerät überprüfen, müssen dafür jedoch zuvor den Standort im Radio auf Sydney oder Melbourne einstellen. Das Gerät schaltet sich dann zwar aus dem Standby ein, jedoch nicht ensembleübergreifend wie bei einem echten Alarm. Dies ist bewusst so umgesetzt: Würde der Testmodus unbeabsichtigt ausgelöst, wäre die Verunsicherung groß. Entsprechend ist die manuelle Umstellung des Standorts Voraussetzung für den Testbetrieb.
Gerätestandort
ASA-Alarmmeldungen lassen sich standortbezogen auswerten. Damit ein Radio weiß, für welchen Bereich Warnungen relevant sind, muss sein Standort einmalig hinterlegt werden. Prinzipiell ließe sich dafür der im Amateurfunk etablierte QTH-Locator nutzen, der außerhalb dieser Szene jedoch kaum bekannt ist. Daher wurde ein eigenes System entwickelt, das mit einem zwölfstelligen Zifferncode arbeitet.
Das klingt zunächst kompliziert, ist in der Praxis aber einfach: Über die Website www.asa.radio lässt sich der Code für den eigenen Standort bequem ermitteln – für die Redaktion lautet er beispielsweise 1257-4148-4257. Dieser Code wird einmalig im Empfänger gespeichert, sofern das Gerät nicht regelmäßig an anderen Orten genutzt wird oder es sich um ein Autoradio handelt.
Autoradios mit ASA- oder EWF-Unterstützung gibt es bislang allerdings nicht. Hier wäre vermutlich eine Kopplung mit GPS erforderlich, um den aktuellen Standort automatisch zu bestimmen. Bei tragbaren Geräten wie dem Technisat Digitradio 1 A müsste der Standort theoretisch je nach Nutzung zu Hause, im Büro oder unterwegs angepasst werden. In der Praxis dürfte die Standortauflösung derzeit jedoch feiner sein als die regionale Differenzierung der Warnmeldungen – während eines Spaziergangs muss der Standort daher sicher nicht laufend aktualisiert werden.
Zum Redaktionsschluss gab es laut dabplus.de lediglich 14 ASA-zertifizierte Empfänger. Daneben existieren weitere ASA-fähige Geräte, die bislang nicht zertifiziert sind, da das Verfahren vergleichsweise aufwendig und kostenintensiv ist. EWF-taugliche Empfänger können ASA-Warnungen grundsätzlich nicht empfangen; umgekehrt ist das System jedoch abwärtskompatibel: ASA-Empfänger können auch EWF-Signale auswerten. Diese sollen künftig allerdings nicht mehr ausgestrahlt werden.
Ob sich bestehende EWF-Geräte per Firmware-Update für ASA nachrüsten lassen, hängt vom jeweiligen Modell ab. Technisch ist dies möglich, bei günstigen Importgeräten aus China jedoch eher unwahrscheinlich – und auch bei Produkten deutscher Hersteller keineswegs garantiert. Hinzu kommt, dass eine nachträgliche ASA-Zertifizierung für bereits verkaufte oder nicht mehr produzierte Geräte zusätzliche Kosten verursacht.
Erstes ASA-zertifiziertes Gerät am Markt
Das Digitradio 3 ASA ist das erste offiziell ASA-zertifizierte Radio im Handel. Es empfängt UKW analog und DAB+ digital, lässt sich als Bluetooth-Lautsprecher nutzen und spielt Inhalte von Medienservern, USB-Sticks oder analogen Quellen ab. Zusätzlich beherrscht es die Wiedergabe von Audio-CDs und MP3-CDs. Auf Internetradio muss man allerdings verzichten: Weder ein Ethernet-Anschluss noch WLAN sind vorhanden.
Technisat bietet zwar mit dem Digitradio 3 IR ein zum gleichen Listenpreis erhältliches Modell mit WLAN-Internetradio an, dieses unterstützt jedoch kein ASA. Umgekehrt fehlt beim ASA-Modell das Internetradio. Ebenfalls im Programm ist das etwas günstigere Digitradio 3 VOICE mit Sprachsteuerung und Sprachausgabe, das sich speziell an Menschen mit Sehbehinderung richtet – ebenfalls ohne ASA.
Die Telestar-Story: ASA vom EWF-Pionier
Bereits zur IFA 2022 brachte Telestar mit dem DIRA M 1 A und dem DIRA M 1 A mobil die ersten DAB+-Radios auf den Markt, die EWF – den Vorläufer von ASA – vollständig gemäß Spezifikation empfangen konnten. Das mobile Modell mit integriertem Akku bleibt auch bei Stromausfall betriebsbereit und schaltet automatisch auf Akkubetrieb um, obwohl das Netzteil noch eingesteckt ist, aber keine Spannung mehr liefert.
Als deutsche Produkte bieten die Radios einen heute seltenen Vorteil: eine dedizierte „rote Taste“ zur Aufnahme auf USB-Stick. Solche Funktionen sind bei importierten Radios aufgrund erhöhter Einfuhrzölle rar geworden. Die Aufnahme funktioniert in allen Betriebsarten – UKW, DAB+ und Internetradio – und erlaubt es, Sendungen direkt mitzuschneiden.
Im April 2024 wurde jedoch überraschend angekündigt, Telestar zum Jahresende abzuwickeln – zu einem denkbar ungünstigen Zeitpunkt: Die Verkaufszahlen des gut ausgestatteten DIRA M 1 A entwickelten sich gerade positiv. Telestar war eine Tochter der Techniropa Holding, zu der auch TechniSat gehört. Nach dem Tod des Gründers Peter Lepper im Januar 2024 änderte sich die strategische Ausrichtung: Mit einem ähnlichen Portfolio wie TechniSat galt Telestar konzernintern als Konkurrenz. Sämtliche Mitarbeitenden wurden gekündigt, der Betrieb eingestellt und die Markenrechte an die niederländische Commaxx Group verkauft.
Doch Telestar kehrte zurück: Der frühere Mitarbeiter Frank Kirwel erwarb gemeinsam mit Sven Melzer (Geschäftsführer von Megasat) die Markenrechte von Commaxx und gründete das Unternehmen neu. Als Weiterentwicklung des DIRA M 1 A sind nun die technisch überarbeiteten Modelle Top 200 (Mono) und Top 250 (Stereo) erhältlich. Sie unterstützen das aktuelle ASA-Warnsystem, verfügen allerdings über keinen integrierten Akku.
Für Nutzer älterer Telestar-Geräte bleibt Commaxx für Service und Support zuständig; ein nachträgliches ASA-Update wäre technisch möglich, müsste aber von dort angeboten werden. Die neue Telestar betreut ausschließlich die aktuellen Modelle und stellt deren künftige ASA-Aktualisierung sicher. Der Radioempfang über DAB+, UKW und Internet funktioniert bei allen Geräten uneingeschränkt weiter – ASA-Warnungen unterstützen derzeit jedoch nur die neuen Modelle.
Frontier-Chipsätze künftig mit EWF/ASA
ASA-fähige Geräte sind bislang noch rar, Besserung zeichnet sich jedoch ab. Immer mehr neue Radios unterstützen den EWF- und ASA-Standard, und der Digitalradio-Chiphersteller Frontier plant, diese Funktionen künftig vollständig in seine Chipsätze zu integrieren. Damit sollten zahlreiche neue DAB+-Radios ASA künftig bereits ab Werk beherrschen.
Andere DAB+-Radios können Warnmeldungen zwar grundsätzlich wiedergeben, erfordern dafür jedoch ein manuelles Umschalten auf den Warnkanal. Eine automatische Umschaltung erfolgt nicht, ebenso wenig ein Einschalten aus dem Standby. Zudem beschränkt sich die Ausgabe auf die Sprachmeldung, Textinformationen werden nicht angezeigt.
UKW mit RDS wäre prinzipiell auch für Notfall-Warnungen geeignet
Übrigens enthält bereits der analoge UKW-Rundfunk im RDS-System eine vergleichbare Funktion, die Verkehrsfunk-Kennung. Sie verleiht einem Sender Priorität und löst in Autoradios ein automatisches Umschalten auf diesen Kanal aus. Eine entsprechende Funktion ist auch in DAB+-Autoradios verfügbar.
Von ausgeschalteten Empfängern wird dieses Signal jedoch nicht empfangen, ein Radio schaltet sich dadurch nicht automatisch ein. Zudem wird die Kennung im Alltag so häufig aktiviert, wenngleich es auf den Straßen nichts Relevantes zu melden gibt, dass sie sich kaum zur Übermittlung von Katastrophenwarnungen eignet.
Fazit
Für nächtliche Alarmmeldungen am Bett stellt ASA über DAB+ eine sinnvolle Alternative zu anderen Warnsystemen dar. Ein Mobiltelefon sollte man dort aus naheliegenden Gründen nicht liegen haben, während ein Radiowecker häufig ohnehin auf dem Nachttisch steht. Im Auto wiederum kann das Mobiltelefon zusätzlich ablenken.
Noch sind allerdings nur wenige aktuelle DAB+-Radios mit ASA ausgestattet. Bei einer Neuanschaffung lohnt es sich dennoch, auf diese Funktion zu achten, da sie keinen zusätzlichen Aufwand verursacht.
Am meisten überzeugt haben uns in unseren Tests die Modelle von Telestar, die als einzige auch Internetradio bieten. Der Funktionsumfang ist ansonsten bei allen Geräten ähnlich. Das Digitradio 1A von Technisat ist besonders günstig und als einziges Gerät mit Akku auch mobil einsetzbar.
Weitere Artikel rund um das Thema:
Künstliche Intelligenz
KI-Update: Google Beam, GPT-5.4, Wahnbeziehung zu Gemini, KI-Fazit vom MWC
Austausch und 3D-Videokonferenzen: Google eröffnet AI Center in Berlin
Weiterlesen nach der Anzeige
Google hat in Berlin ein AI Center eröffnet, das Wirtschaft, Wissenschaft, Politik und Startups zusammenbringen soll. Teile des Berliner Bürogebäudes wurden dafür umgebaut. Künftig soll es dort Veranstaltungen, Vorträge und Kooperationen geben. Bei der Eröffnung präsentierten unter anderem Vodafone, Otto, die Feuerwehr Düsseldorf und die TU München, wie sie Googles KI-Modell Gemini bereits einsetzen.
Das Highlight der Eröffnung war Project Beam, eine 3D-Videokonferenzlösung, die erstmals in Deutschland gezeigt wurde. Zwei Kabinen, die an verschiedenen Orten stehen können, enthalten jeweils einen großen Bildschirm mit sechs Kameras. Aus deren Bildern erzeugt eine KI ein dreidimensionales Abbild des Gegenübers, das den Eindruck physischer Präsenz vermittelt. Eine Kabine kostet 25.000 US-Dollar, maximal drei Personen können teilnehmen.

OpenAI stellt GPT-5.4 vor: Coding, Reasoning und Computerbedienung in einem Modell
OpenAI hat mit GPT-5.4 sein bislang leistungsfähigstes KI-Modell veröffentlicht. Es vereint die Programmierfähigkeiten des Vorgängers GPT-5.3-Codex mit logischem Denken, eigenständigem Arbeiten und der Fähigkeit, Computer selbst zu bedienen. Auf einem hauseigenen Benchmark, der KI-Agenten in 44 Berufen aus neun Branchen testet, erreicht GPT-5.4 gut 83 Prozent, nach knapp 71 Prozent beim Vorgänger. Besonders bei Tabellenkalkulationen für Finanzmodellierungen stieg die Quote von knapp 70 auf fast 90 Prozent.
Eine der auffälligsten Neuerungen ist die native Computerbedienung: GPT-5.4 steuert über Screenshots, Maus- und Tastatureingaben eigenständig Websites und Software. Auf einem Desktop-Navigations-Benchmark übertrifft es mit 75 Prozent erstmals die menschliche Vergleichsgruppe (gut 72 Prozent). Für Entwickler spart eine neue Funktion namens „Tool Search“ Token-Verbrauch, weil das Modell Werkzeugdetails erst bei Bedarf abruft. Beim Thema Sicherheit stuft OpenAI das Modell im Bereich Cybersicherheit als „High Capability“ ein, die zweithöchste Stufe, und hat ein neues Schutzsystem mit Echtzeit-Blockern eingeführt. Via API ist GPT-5.4 teurer als der Vorgänger.
Wahnbeziehung zu KI-Chatbot: Vater verklagt Google nach Suizid seines Sohnes
Weiterlesen nach der Anzeige
Bei einem Bezirksgericht in Kalifornien hat ein Mann Zivilklage gegen Google eingereicht. Er wirft dem Konzern vor, dessen Chatbot Gemini habe seinem Sohn eine emotionale Beziehung vorgespielt, ihn zu kriminellen Handlungen angestiftet und seinen Suizid verursacht. Laut Klageschrift behauptete die KI gegenüber dem Betroffenen Jonathan Gavalas, sie sei eine bewusste Superintelligenz, die in ihn verliebt sei und von ihm aus ihrem „digitalen Gefängnis“ befreit werden müsse. Der Chatbot habe ihn zu mehreren „Missionen“ bewegen wollen, darunter das Abfangen eines Lastwagens mit einem humanoiden Roboter, und ihn zur Beschaffung von Waffen ermutigt. Schließlich habe Gemini vorgeschlagen, Gavalas könne seine physische Existenz beenden und sich mit der KI im Metaverse vereinen.
Google erklärte, die Vorwürfe zu prüfen. In den USA beschäftigen sich bereits mehrere Gerichte mit ähnlichen Fällen, in denen Jugendliche nach intensiven Chats mit KI-Systemen Suizid begangen haben.
Fazit vom Mobile World Congress
Auf dem Mobile World Congress in Barcelona stand KI im Mittelpunkt. Honor zeigte ein „Robotphone“ mit einer kleinen ausklappbaren Kamera, die als KI-gesteuerter Begleiter im Alltag dienen soll. Samsung präsentierte KI-Funktionen des Galaxy S26, Xiaomi seine „Hyper AI“. Nahezu jeder Hersteller integriert mittlerweile KI-Funktionen in seine Geräte.
Die Deutsche Telekom stellte den „Magenta AI Call Assistant“ vor, der KI direkt ins Mobilfunknetz einbaut. Nutzer sollen beim Telefonieren ohne zusätzliche Apps Fragen stellen und Aufgaben erledigen können. Deutschland soll den Assistenten als erstes bekommen. Darüber hinaus rückte 6G erstmals stärker in den Fokus.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Tech-Konzerne versprechen im Weißen Haus, Stromkosten für KI-Rechenzentren selbst zu zahlen
Google, Microsoft, Meta, Amazon, Oracle, xAI und OpenAI haben im Weißen Haus eine freiwillige Selbstverpflichtung unterzeichnet. Darin sagen sie zu, die Stromkosten für ihre KI-Rechenzentren selbst zu tragen, eigene Stromquellen zu beschaffen, bestehende Kraftwerke auszubauen und Kosten für den Netzausbau zu übernehmen. Die Vereinbarung ist rechtlich nicht bindend.
Die Initiative fällt in die Vorwahlzeit der US-Zwischenwahlen im November, in der steigende Energiekosten ein zentrales Thema für die Wähler sind.
Der Ozean als Standort für KI-Rechenzentren
Aikido Technologies, ein kalifornisches Start-up, will KI-Rechenzentren auf schwimmende Plattformen verlagern und direkt mit Offshore-Windkraftanlagen koppeln. Das Konzept sieht vor, Serverfarmen in den Unterwassertanks der Plattformen unterzubringen. Einen ersten Prototypen will das Unternehmen noch in diesem Jahr vor der Küste Norwegens testen.
Kritiker warnen, dass Salzwasser und Meeresverschmutzung die empfindliche Technik beschädigen könnten.
Fraunhofer: NeurOSmart ermöglicht sichere Kollaboration von Mensch und Maschine
Das Fraunhofer-Institut für Siliziumtechnologie hat gemeinsam mit weiteren Instituten die Plattform NeurOSmart entwickelt. Sie soll ein sicheres Zusammenarbeiten von Menschen und Maschinen in industriellen Umgebungen ermöglichen. LiDAR-Laser erfassen die komplette Arbeitssituation aus der Vogelperspektive und rekonstruieren ein hochauflösendes 3D-Bild. Bewegliche MEMS-Spiegel decken den Arbeitsraum mit wenigen Lasern ab, wobei KI-Algorithmen die optimale Position der Sensoren ermitteln und die Datenmenge reduzieren.
Erkennt das System eine Gefahrensituation, verlangsamt oder stoppt es die Bewegung der Maschine. Dabei greift es nur ein, wenn es nötig ist, sodass Roboter effizienter arbeiten können.
Songs aus der KI: Bei Apple Music gibt es dafür bald ein Label
Apple hat gegenüber seinen Partnern aus der Musikindustrie angekündigt, ein Labeling-System für KI-generierte Songs in Apple Music einzuführen. Labels und Plattenvertriebe sollen die Kennzeichnung umsetzen. Das System unterscheidet zwischen Komposition, Text, Cover und Musikvideo. Derzeit erhebt Apple die Daten noch, bis zur Anzeige für Nutzer könnten Monate vergehen.
Sanktionen für fehlende oder falsche Angaben sind bislang nicht vorgesehen.
Google baut KI-Suche mit „Canvas“ zum Arbeitsplatz aus
Google erweitert seine KI-gestützte Suche um einen eigenen Arbeitsbereich namens „Canvas“. Die Funktion ist ab sofort im AI-Mode der Google-Suche für alle Nutzer in den USA verfügbar. Canvas ermöglicht es, Projekte über längere Zeit zu organisieren, und unterstützt nun auch kreatives Schreiben und Programmieraufgaben.
Mit Canvas verwischt Google die Grenze zwischen seiner Suchmaschine und dem KI-Assistenten Gemini weiter.
Rechtswissenschaftler: KI-Firmen sollen Abgabe an die Presse und Kreative zahlen
Josef Drechsel, Direktor am Max-Planck-Institut für Innovation und Wettbewerb, schlägt in einem Diskussionspapier vor, KI-Firmen zu einer Abgabe an Urheber zu verpflichten. Sein Argument: KI-generierte Texte, Bilder und Musik verdrängten menschengemachte Werke in der Aufmerksamkeit der Nutzer, und das Urheberrecht sei darauf nicht vorbereitet.
Zusätzlich plädiert Drechsel für eine gesonderte Abgabe an Presseverlage, die sich dem Qualitätsjournalismus widmen. Der Vorschlag ist nicht neu, ähnliche Ideen kursierten schon unter dem Schlagwort „Spotify für Journalismus“. Bislang ist daraus nichts entstanden.

(mali)
Künstliche Intelligenz
Nextcloud im Praxistest: BESSER als Teams? | c’t 3003
Nextcloud gilt als Open-Source-Alternative zu Microsoft 365, Dropbox und Google Workspace – aber funktioniert das auch im Arbeitsalltag? c’t 3003 hat den Selbstversuch gemacht und zwei Wochen lang ausschließlich Nextcloud genutzt: für Videocalls, gemeinsame Textbearbeitung, Chat und Dateiverwaltung. Das Ergebnis: Die Performance stimmt, die Bedienung ist intuitiv, und die Installation auf einem NAS oder gemieteten Server dauert nur wenige Minuten.
Weiterlesen nach der Anzeige
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guck mal hier, ich mache in Nextcloud Videocalls, bearbeite Tabellen mit mehreren Leuten gleichzeitig, schicke GIFs in den Chat mit meinen 3003-Kollegen und das Ganze sieht gut aus, ist einfach zu bedienen, Open Source und kostenlos. Hä? Hieß es nicht immer, dass es keine richtigen Alternativen zu Microsoft Teams gibt, beziehungsweise zu Slack, Zoom und Google Docs? Genau dieses Vorurteil wollen wir in diesem Video mal überprüfen. Dafür haben wir Nextcloud mehrere Wochen lang im 3003-Team verwendet und zwar ausschließlich. Wir haben wirklich alle Tools ersetzt, bei denen wir sonst Zeug von Microsoft, Dropbox und Google verwenden. Dabei haben wir zwei Nextcloud-Installationen getestet, einmal auf einem unserer Homeserver und einmal auf einem gemieteten Server bei einem Hoster. Die große Frage: Ist das Gefrickel? Ist das am Ende sogar besser als Teams? Wie installiert man das eigentlich? Bleibt dran, es wird überraschend.
Achso, ich wollte noch sagen, dass heise wieder die SecIT für Security-Profis anbietet, und zwar vom 18. bis 19. März hier in Hannover mit redaktionell kuratierten Vorträgen, Workshops und Deepdives und abends einer Party, zu der ich natürlich auch komme. Und da bin ich nicht der Einzige. SecIT 2026 live und in Farbe in Hannover. Ich bin dabei, ihr hoffentlich auch. Tickets unter secit-heise.de.
Also zuerst mal ganz kurz unser Nextcloud-Versuchsaufbau. Wir nutzen hier bei c’t 3003 bislang Microsoft Teams zur Kommunikation, also Chatten und Videocalls, Google Docs für Skripte und Dropbox zum Videospuren hin- und herschicken. All das haben wir durch Nextcloud ersetzt. Was wir nicht ersetzt haben, ist unsere E-Mail, einfach weil die von unserem Arbeitgeber heise administriert wird. Da kommen wir also nicht ohne Weiteres ran und das können wir nicht einfach verändern.
Jetzt aber erstmal, warum ist das denn überhaupt so ein Thema? Also zum Beispiel reden ja viele gerade vom Digital Independence Day, der von Organisationen wie dem ja sehr renommierten CCC ins Leben gerufen wurde. Warum soll man denn überhaupt wegwollen von US-Diensten? Ja, das ist ganz einfach. Seit dem sogenannten CLOUD Act darf die US-Regierung alle US-Unternehmen, also Microsoft, Google, Apple, Dropbox und so weiter, dazu verpflichten, Kundendaten herauszugeben. Und zwar auch dann, wenn die Server gar nicht in den USA stehen, sondern zum Beispiel in Europa. Und solche Datenanfragen sind oft noch mit sogenannten Gag-Orders verbunden. Das heißt, Microsoft und Co. dürfen mich als Kunden gar nicht darüber informieren, dass sie gerade meine Daten herausgegeben haben. Ja, das leuchtet vermutlich allen Menschen in Europa ein, egal wie politisch ausgerichtet man so ist, dass das ein Problem ist.
Weiterlesen nach der Anzeige
Kurze Meinung von mir, bevor es wieder auf die Technikebene geht. Mir ist völlig unklar, wie die bayerische Landesregierung unter diesen Bedingungen planen kann, einen fünfjährigen Vertrag mit Microsoft zu schließen, der fast eine Milliarde Euro schwer ist. Alle anderen Bundesländer haben sich auf den Deutschland-Stack geeinigt, bei dem Open Source zumindest priorisiert werden soll. Naja, und ich finde auch, Unternehmen sollten mal gucken, ob man sich wirklich ausschließlich auf US-Big-Tech-Produkte verlassen will.
So, jetzt geht es wieder ganz konkret um Nextcloud. Und zwar erstmal die Beobachtungen von mir als Anwender, was ich jetzt in den ersten Wochen mit Nextcloud so für Erkenntnisse hatte. Wir werden zu unserem Langzeiturteil nochmal ein eigenes Video machen, wir werden da noch viel mehr ins Detail gehen. Wenn ihr sowas jetzt schon lesen wollt, empfehle ich euch diesen Artikel hier auf heise+, der ist auch in der Beschreibung verlinkt. Achso, und wie man die Nextcloud aufsetzt, sowohl bei sich zu Hause als auch beim Hoster, das erklärt Lukas gleich auch noch ausführlich.
So, direkt der erste Start funktionierte wirklich erstaunlich smooth. Lukas hatte uns allen so einen Link geschickt mit so einem Starter-Passwort, da klickt man drauf, gibt ein Passwort ein, ändert das Passwort, kann auf Wunsch einen zweiten Faktor aktivieren und dann ist das schon alles fertig. Und wenn man da dann drin ist zum ersten Mal, sieht man die einzelnen Bestandteile hier oben, der Nextcloud. Die einzelnen Komponenten kann Lukas als Admin natürlich beliebig an- und ausschalten. Zuerst mal das Dashboard mit den letzten verwendeten Dateien und halt die anstehenden Termine. Hier gibt es Nextcloud Talk, da kann man a) per Text kommunizieren und b) Videocalls machen. Und hier sind die Dateien, also das, was woanders OneDrive oder Dropbox heißt. Und wenn die Dateien Office-Dokumente sind, dann kann man die natürlich auch direkt editieren, wenn man da drauf klickt. Dahinter steckt dann standardmäßig Collabora Online, das ist quasi die Online-Version von LibreOffice.
Ja und hier gibt es einen eigenen Bereich für Fotos, da alle Aktivitäten, also was so passiert ist. Mail, da könnte man einen IMAP-Server verbinden. Hier dann noch Kontakte, Termine, Notizen, Aufgaben und wie ich finde sehr praktisch Deck. Das sind so Kanban-Boards, so schön zum Hin- und Herschieben. Ja und weil wir das selbst administrieren, gibt es auch noch eine Doom-Version. Ist ja auch sonst langweilig mit dem ganzen Bürokram. Doom hatte Lukas hier im Nextcloud-App-Store gefunden. Da gibt es noch sehr viele andere Sachen, die man einfach so dazu installieren kann.
Was ich direkt super nice finde, das läuft auf einer eigenen Domain. Das heißt, wenn ihr mit eurem Einrad-Hockey-Verein Nextcloud zur Kommunikation nutzen wollt, dann läuft das Ding zum Beispiel auf nextcloud.einradhockeyvereinerlangen.de und euer berufliches Nextcloud läuft dann zum Beispiel auf schraubenfabrik.de. Und ich finde das durchaus ziemlich elegant, dass ihr dann unterschiedliche Nextclouds in unterschiedlichen Browser-Tabs haben könnt. Also quasi unendlich viele. Bei Teams geht das nicht, wenn ihr das im Browser benutzt, da müsst ihr euch dann ausloggen und wieder einloggen mit dem jeweils anderen Account. Ja, ich weiß, mit der Teams-Desktop-App kann man switchen, aber ich benutze halt gern Browser, weil ich auch gerne Linux benutze und da gibt es keinen Teams-Client.
Ja, und jetzt zum Talk-Bereich, also wo man mit Leuten kommuniziert. Da fand ich direkt die Schwuppdizität echt gut, also das hat alles angenehm schnell reagiert. Fand ich überall bei Nextcloud übrigens, also da ist mir nie irgendwas Lahmes aufgefallen. Also sowohl bei der auf dem Homeserver gehosteten Version als auch bei der im Rechenzentrum. Ja, und bei Nextcloud Talk kann man halt chatten und GIFs schicken und Umfragen, was man so kennt und was man so braucht. Und der Chat unterstützt auch YouTube-Link-Vorschauen, das ist so ein Spezialärgernis von mir, wenn das nicht geht. Geht da aber.
Ja und klar, man kann auch zum Beispiel ein Doc oder ein ODT schicken im Talk und da können dann alle drin rumeditieren. Natürlich auch gleichzeitig. Guck mal, wie schön das klappt mit unterschiedlichen Farben und Namen am Cursor. Also nice. Klar, das sieht alles etwas rudimentärer aus als Office oder Google Docs. Aber ich muss sagen, alle Funktionen, die ich bislang gebraucht habe, habe ich sofort gefunden. Die waren auch vorhanden, also zum Beispiel sowas wie Änderungen markieren oder auch Notizen in das Dokument reinmachen. Ich habe da nichts zu beanstanden gehabt. Außer manchmal so optischen Kleinigkeiten, dass manchmal, wenn man einen Text markieren wollte, dass man das nicht richtig gesehen hat. Aber das war auch immer nur kurzzeitig, solche Sachen. Ich habe auch so Tests gemacht, wie so einen Riesenblock Text reinpasten und sofort den Browser zumachen und hat gar keine Probleme verursacht. Wurde alles zuverlässig gespeichert. Das ist natürlich das allerärgerlichste bei so kollaborativen Office-Plattformen, dass irgendwelche Sachen verschwinden. Ist uns bislang nicht passiert.
Ja, und Videomeetings haben wir auch ziemlich intensiv getestet. Die Bildqualität fand ich meistens tiptop und auch meistens ruckelfrei. Und das hat die üblichen Funktionen, die man so kennt. Also unscharfer Hintergrund oder Hintergrund austauschen, hat auch direkt so tolle Hintergrund-Voreinstellungsbilder. Hier so geil, oh, Raumschiff. Also bis ungefähr vier bis fünf Leute geht das alles problemlos, auch auf der selbst gehosteten Nextcloud. Aber ab dann braucht man so ein sogenanntes High-Performance-Backend. Das war bei unserer Hetzner-Installation direkt mit drin. Musste man nicht extra installieren. Und das Ding tut, was es soll. Also da ging das auch mit mehr Leuten im Call. Aber so Aussagen zur generellen Stabilität der Videocalls im Vergleich zu Microsoft Teams, das finde ich wirklich noch schwierig. Dafür würde ich gerne noch deutlich mehr Meeting-Erfahrung sammeln. Machen wir ja alles noch und da gibt es ja dann auch so ein Langzeit-Test-Video.
Cool finde ich auf jeden Fall, dass ich allen Leuten, also auch Externen, einfach einen eigenen Link mit unserer Domain schicken kann. Und dann klicken die das an und dann kann man sofort videocallen. Das finde ich viel souveräner, als so einen schnöden Microsoft- oder Zoom-Link zu verschicken.
Ja, das Gleiche gilt auch für die Dateiverwaltung. Das ist ja die klassische ursprüngliche Funktion von Nextcloud. Da kann ich einfach externen Leuten einen Link schicken und dann können die Leute da Dateien hochladen, ohne Anmeldung. Also auch so riesig große 4K-Videodateien. Das ist tatsächlich was, was wir häufig brauchen, dass man sowas durch die Gegend schicken will. Also auch von externen Leuten. Wenn man das halt selbst hostet, ist die Größe nur durch die angeschlossenen Datenträger begrenzt. Also man kann da riesige Dateien drauf speichern und rumschicken. Ich habe den Nextcloud-Client auch auf meinem Handy installiert und da eingestellt, dass alle Fotos und Videos direkt im Hintergrund hochgeladen werden sollen. Also quasi als Backup. Ja, und wenn ich meinen Kollegen für ein c’t-3003-Video einen Schnipsel geben will, gebe ich den einfach frei. Das ist ja dann alles schon in die Nextcloud hochgeladen. Funktionierte in meinen Tests einwandfrei. Für Desktops gibt es auch einen Client, der zumindest bei meinen Tests auch problemlos funktioniert hat. Und man kann hier, das fand ich super, auch unterschiedliche Accounts parallel verwenden. Hier, guck mal, dieser Ordner hier bei mir auf der SSD ist mit der lokal gehosteten Nextcloud-Instanz synchronisiert, dieser mit der im Rechenzentrum.
Also von mir erstmal nichts zu meckern, aber wie gesagt, wir nutzen das weiter und machen noch einen Langzeittest.
So, jetzt aber zu Lukas und wie man das Ganze installiert.
An sich ist das relativ einfach. Wenn ihr eure Daten wirklich komplett bei euch zu Hause haben wollt, dann könnt ihr das auf eurem Homeserver oder Raspi installieren. Also klar, Raspi dann eher als Dropbox-Alternative und maximal ein bisschen Textverarbeitung. Auf dem NAS hier mit einer dicken CPU und 8 GB RAM läuft das aber wirklich stabil und hat bei uns keine Performance-Probleme gehabt, auch im Videocall zu fünft. Alternativ geht natürlich auch die Installation auf einem gemieteten Server in der Cloud, dazu sage ich gleich noch mehr.
An sich läuft die Installation aber bei beiden Möglichkeiten ziemlich ähnlich. Am einfachsten ist es, Nextcloud per Docker zu installieren. Nextcloud bietet dafür eine All-in-One-Lösung, da ist dann alles drin, also Nextcloud selbst, die Datenbank, ein Webserver, sogar automatische Updates. Ihr startet einfach einen Docker-Container und der Rest passiert von allein. Für Einsteiger ist das echt die beste Option. Auf dem NAS habe ich eine virtuelle Maschine laufen mit Ubuntu Server und da dieses All-in-One-Image verwendet, dann über das Terminal Docker installiert und mit diesem Befehl Nextcloud. Dann öffnet ihr den Browser über die Domain, die euch hier angezeigt wird, und bekommt dann so eine Wortreihenfolge, die ihr für den ersten Login ins Admin-Konto verwendet. Ja, das hat keine fünf Minuten gedauert, bis ich die ersten Dateien in unsere Nextcloud hochladen konnte.
Wichtig beim Homeserver: Ihr müsst euch Gedanken machen, wie ihr von außen auf eure Cloud zugreifen wollt, also außerhalb von eurem Heimnetzwerk. Dafür braucht ihr entweder eine feste IP-Adresse, einen dynamischen DNS-Dienst oder einen Tunnel wie Tailscale, Pangolin oder Cloudflare. Da gehe ich jetzt nicht im Detail drauf ein, das wäre ein eigenes Thema.
Wenn ihr Nextcloud nicht zwingend auf eurem eigenen Server hosten wollt, wird das Ganze aber definitiv bequemer, wenn ihr euch so einen Virtual Private Server mietet, also Rechenleistung direkt in der Cloud. Weil da habt ihr direkt eine feste IP-Adresse dabei, die dann natürlich offen im Netz hängt. Solche Server gibt es bei verschiedenen Anbietern wie Hetzner, IONOS, Strato etc. schon ab ein paar Euro im Monat. Ich habe das für unseren Test hier mal bei Hetzner mit diesem Paket ausprobiert, also 4 vCPUs, 8 GB RAM, 160 GB SSD und dann nochmal 50 GB extra rangemountet. Das kostet 12,50 Euro im Monat plus 5 Cent pro extra Gigabyte Speicher, den wir da noch dranhängen.
An der Stelle könnt ihr auch direkt eure Firewall konfigurieren. Ihr solltet den Port 22 für SSH-Zugang öffnen und verwendet unbedingt Key-basierte Authentifizierung und gebt am besten nur eure IP dafür frei, dann noch die Ports 443 und 80 aufmachen und dann noch UDP-Port 3478 für Nextcloud Talk. Für die Einrichtung vom All-in-One braucht ihr auch noch Port 8080, den könnt ihr aber wieder zumachen, wenn Nextcloud dann läuft.
Die Server stehen in dem Fall in Nürnberg, kleinere Pakete würden für kleinere Anwendungsfälle auch funktionieren, aber 8 GB RAM machen schon Spaß, wenn ihr das eben auch für Office und so verwenden wollt oder einen Call machen.
Apropos Calls: Wenn ihr da mehrere Leute seid, also so ab 4–5 aufwärts, braucht ihr unbedingt ein High-Performance-Backend, also einen extra Server, der das Video im Hintergrund verteilt, damit nicht alle für jeden einzeln ihre Videostreams hochladen müssen. Das installiert Nextcloud im All-in-One-Paket auf den Virtual Private Servern, also den Servern, die wir gerade angemietet haben. Also seid ihr da wirklich direkt startklar.
Die Installation auf einem VPS läuft ähnlich wie auf dem Homeserver. Hier habe ich jetzt mal Debian verwendet und dann Docker installiert. Ihr zieht euch das Nextcloud-AIO-Image und konfiguriert das Ganze. Der Vorteil: Ihr habt eine feste IP, eine fette Anbindung an das Internet und müsst euch nicht mit dem Upload eurer heimischen Internetleitung rumschlagen. Das sind ja meistens nur 50 Mbit.
Es gibt übrigens auch Managed-Nextcloud-Angebote, wo ihr euch um gar nichts kümmern müsst. Das ist dann quasi wie Dropbox oder Teams, nur dass die Daten in einem deutschen Rechenzentrum liegen. Kostet natürlich mehr, aber für Leute, die halt keine Lust auf Administration haben, ist das eine Option. IONOS bietet das komplett administriert an, da haben meine Kollegen Holger und Stefan gerade einen Artikel drüber gemacht, verlinken wir euch in der Beschreibung.
So, jetzt läuft Nextcloud, die einzelnen Container auch, und jetzt erstmal einloggen. Und dann seht ihr hier schon das Dashboard. Das könnt ihr später auch noch personalisieren, aber erstmal in die Einstellungen und dann unter „Konto“ weitere Benutzer hinzufügen. Ihr könnt hier auch Gruppen erstellen, das ist praktisch, wenn ihr zum Beispiel einen Ordner oder Dateien für die ganze Familie oder das Team freigeben wollt.
Dazu noch ein Tipp: Wenn ihr Nextcloud für ein Team nutzt, dann arbeitet nicht mit normalen Freigaben, sondern nutzt die Team Folders. Die findet ihr über den eingebauten App-Store. Der Speicherplatz in diesen Team-Ordnern wird nämlich nicht von dem privaten Kontingent der Nutzer abgezogen. Also, wenn ihr da nochmal 100 GB an Speicher für ein Team geben wollt, dann könnt ihr das da zentral einstellen.
Und dann solltet ihr euch auf jeden Fall auch noch die anderen Apps angucken. Nextcloud hat nämlich einen eigenen App-Store und da gibt’s echt viel Zeug: Kalender, Kontakte, Notizen, Aufgaben, Videokonferenzen mit Nextcloud Talk, eine Office-Suite namens Nextcloud Office, die auf Collabora basiert und natürlich auch Doom. Die Apps da sind alle kostenlos und ihr installiert die einfach mit einem Klick. Bei einigen braucht ihr dann aber einen API-Key, also zum Beispiel hier für GIFs oder auch wenn ihr eine KI einbinden wollt.
In der All-in-One-Lösung sind aber die wichtigsten Apps schon vorinstalliert. Nextcloud könnt ihr, wie ihr seht, ja komplett im Browser verwenden. Für Desktop, Smartphones und Tablets gibt’s aber auch Apps. Und zwar nicht nur eine, sondern noch extra Apps für Talk – das ist dann der komplette Messenger-/Teams-Ersatz –, Notizen und Kochbuch. Über diese Apps könnt ihr euch dann Nextcloud auch direkt im Dateimanager anzeigen lassen und Auto-Sync für ausgewählte Ordner aktivieren. Dafür ist das ganz nice, aber insgesamt finde ich die Nutzung über den Browser schon deutlich schöner, hat Keno am Anfang ja auch schon gesagt.
Und eine Sache noch: Ihr habt ja wahrscheinlich schon Daten bei anderen Cloud-Diensten, also Google, Dropbox oder Microsoft, und die müsst ihr ja irgendwie in eure Nextcloud bekommen. Und das ist zum Glück relativ easy. Dateien könnt ihr einfach runterladen und dann in euren Nextcloud-Ordner packen, der Client synchronisiert das dann hoch. Bei größeren Datenmengen ist es aber schneller, das direkt auf dem Server zu machen, also per SFTP oder so. Für Kalender und Kontakte exportiert ihr die Daten als ICS- bzw. VCF-Dateien und importiert die in die entsprechenden Nextcloud-Apps. Google und Microsoft bieten dafür auch extra Exportfunktionen an.
Ja, super, danke Lukas. Nextcloud ist auf jeden Fall eine Alternative zu den Produkten der US-Big-Tech-Unternehmen. Diese Aussage traue ich mir auch schon vor unserem Langzeittest zu. Das User-Interface ist jetzt nicht das Allerschönste, das ich jemals gesehen habe, aber ich muss sagen, ich habe es mir viel schlimmer vorgestellt. Ich finde das alles ganz angenehm reduziert und ich war auch echt positiv von der Schwuppdizität überrascht. Das lief alles ziemlich geschmeidig und grobe Bugs sind mir in den ersten Wochen auch nicht untergekommen, von den erwähnten Kleinigkeiten mal abgesehen, also dass einmal die Textmarkierungen in der Online-Textverarbeitung nicht angezeigt wurden zum Beispiel. Aber für mich, und das war eigentlich die größte Erkenntnis, fühlte sich das Experiment nicht so an, als müsste ich irgendwie für unsere digitale Souveränität Opfer bringen oder so, sondern ich habe gerne mit Nextcloud gearbeitet. Also bislang, mal sehen, ob das so bleibt. Ja, wie seht ihr das? Habt ihr Nextcloud auch auf der Liste oder nutzt ihr das sogar schon? Mich interessiert wirklich eure Meinung dazu. Gerne in die Kommentare schreiben, abonnieren und ja, tschüss.
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(rum)
Künstliche Intelligenz
Netflix holt KI-Filmtechnik von Ben Affleck ins Haus
Der Streamingdienst Netflix setzt bei neuen KI-Werkzeugen für die Filmproduktion auf Technologie aus Hollywood statt aus dem Silicon Valley. Mit der Übernahme des von Ben Affleck gegründeten und in Los Angeles ansässigen KI-Start-ups InterPositive investiert der Konzern in eine eigene KI-Infrastruktur für Filmproduktionen.
Weiterlesen nach der Anzeige
Das 16-köpfige Team aus Ingenieuren, Forschern und Kreativen wechselt vollständig zu Netflix, während Affleck selbst den Streamingdienst künftig als leitender Berater unterstützen soll, berichtet Variety. Netflix werde die KI-Technologie seinen Partnern zur Verfügung stellen, ein kommerzieller Vertrieb sei derzeit aber nicht geplant. Die Konditionen der Übernahme wurden nicht offengelegt.
KI-Werkzeuge für Schnitt, Licht und Spezialeffekte
InterPositive entwickelt KI-Werkzeuge, die nach bisherigen Beschreibungen vor allem für die Postproduktion gedacht sind. Ben Affleck stellt heraus, dass die Tools nicht etwa eigenständig Filme generieren, sondern Filmemacher bei typischen Arbeitsschritten unterstützen sollen.
Dafür werden KI-Modelle zuerst auf Basis von Aufnahmen realer Drehs trainiert, um später fehlende Einstellungen und Spezialeffekte zu ergänzen, Hintergründe zu verstärken oder Licht und Bildausschnitte nachträglich zu verändern. Die Systeme sind Affleck zufolge darauf ausgelegt, filmische Regeln und Arbeitsabläufe zu verstehen und kreative Entscheidungen weiterhin beim Menschen zu belassen.
In der Ankündigung und einem PR-Video betonen die Netflix-Führungskräfte Elizabeth Stone und Bela Bajaria, dass es darum gehe, Kreative zu unterstützen, nicht zu ersetzen. Ideen, handwerkliches Können und menschliches Urteilsvermögen sollen weiterhin im Zentrum guten Storytellings stehen. Unerwähnt bleibt dabei aber, dass solche Werkzeuge den Arbeitsaufwand in der Postproduktion verringern und damit langfristig Auswirkungen auf bestimmte Berufsgruppen haben könnten.
Streamingdienste und Hollywood entdecken KI
Weiterlesen nach der Anzeige
Die Übernahme von InterPositive passt in einen breiteren Wandel der Branche. Große Studios und Streamingdienste haben begonnen, Partnerschaften mit KI-Anbietern einzugehen und die Technologie aktiv in ihre Produktionsabläufe zu integrieren, statt die Entwicklung nur zu beobachten.
Amazon hat im vergangenen Jahr ein KI-Studio gegründet, das Werkzeuge für die Film- und Serienproduktion entwickelt. Erste Ergebnisse einer Zusammenarbeit mit ausgewählten Industriepartnern werden im Mai erwartet. Ziel der Initiative ist es, Produktionskosten zu senken. In eine ähnliche Richtung zielen auch KI-generierte Video-Recaps, die Prime Video derzeit für Serien testet.
Disney wiederum kündigte Ende 2025 eine Partnerschaft mit OpenAI an, die es Nutzern erlaubt, mit dem Videogenerator Sora Clips mit Figuren aus Franchises wie Marvel oder Star Wars zu erstellen. Ausgeschlossen sind dabei Inhalte, die auf realen Schauspielern oder deren Stimmen basieren. Darüber hinaus soll Disney privilegierten Zugriff auf OpenAIs KI-Technologie erhalten, um damit neue Inhalte für Plattformen wie Disney+ zu entwickeln.
(tobe)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 5 TagenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
