Connect with us

Künstliche Intelligenz

Drei Fragen und Antworten: Wie man einen Messenger souverän macht


Oft scheint es, die digitale Souveränität würde in den immer gleichen Diskussionen und Sonntagsreden feststecken. Dabei gibt es auch Beispiele von Unternehmen, die bereits weiter sind – wie der Messenger Wire. Wir haben Benjamin Schilz, CEO des Unternehmens, gefragt, wie sie ihre Infrastruktur souverän aufgestellt haben.

Viele Anbieter werben mit Open Source und Souveränität – und setzen im Hintergrund trotzdem auf US-Hyperscaler. Ganz konkret: Geht Wire einen anderen Weg? Und wie kann Wire die operative Kontrolle über die Nutzerdaten behalten?

Wire ist vollständig europäisch aufgestellt – mit Hauptsitz in der Schweiz – und unterliegt ausschließlich dem EU- und Schweizer Datenschutzrecht. Unsere Infrastruktur läuft ausschließlich bei unabhängigen europäischen Hosting-Providern, wir haben also keine Abhängigkeiten zu US-Hyperscalern. Die Kontrolle über alle Systeme liegt operativ komplett bei uns. Der gesamte Quellcode ist offen und unter Open-Source-Lizenz verfügbar. Zusammen mit Ende-zu-Ende-Verschlüsselung und einer Zero-Knowledge-Architektur bedeutet das: Auf Nutzerdaten kann technisch niemand zugreifen – weder wir noch Dritte.




Auf dem IT Summit by heise 2025 am 11. und 12. November im München erklären renommierte Experten, was europäische Cloud-Hoster im Vergleich zu US-Hyperscalern leisten und wie man KI-Lösungen lokal betreibt. Lernen Sie aus Fallstudien, wie andere Unternehmen ihre digitale Abhängigkeit vermindert haben. Erfahren Sie, wie Open Source Ihre Software-Landschaft unabhängiger macht und warum mehr digitale Souveränität die IT-Sicherheit verbessert.

Der IT Summit by heise 2025, die neue Konferenz für IT-Verantwortliche, findet am 11. und 12. November im Nemetschek Haus in München statt. Veranstalter ist heise conferences, das Programm kommt aus der iX-Redaktion.

Aufgrund welcher technischer und organisatorischer Kriterien hat Wire seine Infrastrukturpartner ausgewählt?

Wir haben Partner gewählt, die groß genug sind und technisch die Kapazität haben, um auch große Unternehmen und Behörden zuverlässig zu bedienen. Außerdem war uns wichtig, dass sie die Anforderungen an die digitale Souveränität der EU erfüllen und sich klar dazu bekennen.

Auch Open-Source-Software ist bereits durch komplizierte Abhängigkeiten in die Security-Bredouille geraten. Wie geht Wire hiermit bei der Entwicklung der eigenen Software um?

Wir begegnen diesem Risiko mit einem ganzen Bündel an Maßnahmen. Dazu gehören ein automatisiertes Tracking unserer Abhängigkeiten, semantische Versionierung und Dependency-Locking, aber auch regelmäßige Code-Audits und Security-Reviews. Ergänzend setzen wir auf automatisierte Sicherheitsscans sowie konsequentes Patch-Management, sodass wir bei Bedarf sehr schnell Updates ausrollen können. Zusätzlich lassen wir externe Audits durchführen und beziehen Meldungen und Hinweise aus der Open-Source-Community mit ein.

Herr Schilz, vielen Dank für die Antworten! Die digitale Souveränität in der Praxis ist ebenfalls Fokus-Thema der nächsten iX 10/2025, die am 19. September erscheint. Ein Interview mit Dorothea Schneider, bei der Bundesdruckerei für das Projekt Bundesportal verantwortlich, veröffentlichen wir vorab und kostenlos.

In der Serie „Drei Fragen und Antworten“ will die iX die heutigen Herausforderungen der IT auf den Punkt bringen – egal ob es sich um den Blick des Anwenders vorm PC, die Sicht des Managers oder den Alltag eines Administrators handelt. Haben Sie Anregungen aus Ihrer tagtäglichen Praxis oder der Ihrer Nutzer? Wessen Tipps zu welchem Thema würden Sie gerne kurz und knackig lesen? Dann schreiben Sie uns gerne oder hinterlassen Sie einen Kommentar im Forum.


(fo)



Source link

Künstliche Intelligenz

Russland schränkt Whatsapp und Telegram erneut ein


Die russische Telekommunikationsbehörde Roskomnadsor schränkt die beiden Messengerdienste Whatsapp und Telegram in Russland weiter ein. Um Kriminellen entgegenzuwirken, würden Maßnahmen zur teilweisen Einschränkung ausländischer Messenger ergriffen, teilte die Behörde der staatlichen russischen Nachrichtenagentur Tass zufolge mit. Whatsapp und Telegram seien wichtige Dienste für Erpressung, Betrug und Verwicklung russischer Bürger in Sabotageakte, hieß es.

Weiterlesen nach der Anzeige

Die derzeit instabile Funktion der Messenger hänge aber nicht mit einer Zugangssperre durch Telekommunikationsbetreiber zusammen, meldete die Agentur mit Verweis auf solche Unternehmen.

Russische Medien berichteten von massiven Einschränkungen der Messengerdienste vor allem im Süden Russlands seit Montag. In Kommentaren auf Störungswebsites hieß es, dass die Verbindungen langsam seien oder die App gar nicht lade. Anrufe über Whatsapp und Telegram sind schon länger eingeschränkt. Auch das begründete Roskomnadsor im August mit der angeblichen Abwehr von Terroristen und Betrügern.

Schon 2024 wurden der verschlüsselte Messenger Signal und der Dienst Viber blockiert. Auch LinkedIn, Facebook, Instagram und viele Websites lassen sich ohne virtuelles privates Netzwerk (VPN) – die ebenso zunehmend gesperrt werden – nicht öffnen. Ausländische Messenger sollen durch die vom Staat bevorzugte App Max ersetzt werden, bei der Kritiker einen Zugriff der Behörden auf Daten befürchten.

Moskau baut Kontrolle und Zensur im Internet vor allem seit Beginn der großangelegten Invasion in die Ukraine vor mehr als dreieinhalb Jahren aus. Für die Suche nach Informationen, die die Behörden als „extremistisch“ eingestuft haben, drohen bis zu 5000 Rubel (rund 53 Euro) Strafe, entschied das Parlament im Juli. Als „extremistisch“ gebrandmarkt sind vor allem Internetressourcen, die den Machtapparat kritisieren, wie der Anti-Korruptions-Fonds des in Haft gestorbenen Kremlgegners Alexej Nawalny.

Weiterlesen nach der Anzeige


(dmk)



Source link

Weiterlesen

Künstliche Intelligenz

Donnerstag: Meta reduziert KI-Abteilung, YouTube geht gegen KI-Deepfakes vor


Meta Platforms KI-Abteilung schwimmt in Geld und hat so viele Leute eingestellt, dass sie einander im Weg stehen. Jetzt müssen 600 raus. Durch die Reduzierung der mit KI beschäftigten Mannschaft will der Facebook-Konzern die Anzahl der Besprechungen reduzieren und schneller zu Entscheidungen kommen. KI wird hingegen für YouTube und Videoschaffende zum Problem, wenn Deepfakes gegen Privatsphäre und Urheberrecht verstoßen. Deshalb können Content-Ersteller bei YouTube nun nach KI-Deepfakes ihrer Person suchen und solche Videos entfernen lassen. Dafür benötigt YouTube Ausweis und Gesichtsvideo. Derweil hat der Ausfall der Amazon Web Services (AWS) einige Anwender nicht nur bei der Nutzung von Online-Diensten gestört, sondern sogar beim Schlafen. Denn bestimmte vernetzte Matratzen haben keinen Offline-Modus. Nach dem AWS-Ausfall konnten diese nicht mehr gesteuert werden, sodass Matratzenbesitzer nicht mehr schlafen konnten – die wichtigsten Meldungen im kurzen Überblick.

Weiterlesen nach der Anzeige

Meta Platforms streicht ungefähr 600 Arbeitsplätze in der KI-Abteilung. Dabei geht es aber offenbar weniger um Einsparungen, sondern mehr um Entschlackung. Wer bleibt, muss härter arbeiten. Seit etwa drei Jahren hat Meta für seine „Superintelligence Labs“ KI auf Teufel komm raus Personal eingestellt, in Summe laut Medienberichten rund 3.000 Menschen. Das Ergebnis ist nicht unbedingt effizient. Der Einschnitt bei der KI-Belegschaft soll nicht als Rückzug oder Zurechtstutzung der teuren KI-Bemühungen Metas verstanden werden, haben Manager durchblicken lassen. Vielmehr soll Bürokratie abgebaut und so die KI-Weiterentwicklung beschleunigt werden. Den vom Stellenabbau Betroffenen sollen andere Stellen im Konzern angeboten werden: Meta Platforms kündigt 600 KI-Spezialisten.

Auch YouTube will weniger KI, allerdings auf seiner Plattform, und geht offenbar stärker gegen die Verbreitung von Videos mit per Künstlicher Intelligenz (KI) erstellten oder veränderten Personen vor. Dazu bietet das Portal Videoschaffenden ein Tool zur Ähnlichkeitserkennung an. Damit können Content-Ersteller bei YouTube nach Videos suchen, die das eigene Gesicht enthalten, etwa per KI-Deepfake. Dann darf der Anwender entscheiden, ob er die Entfernung dieses Videos beantragt oder es akzeptiert. Bevor YouTube Ähnlichkeiten in Videos erkennen kann, benötigt der Dienst das Hochladen oder Fotografieren eines Ausweises oder Führerscheins mit Lichtbild sowie ein kurzes Video vom Gesicht der Person aus mehreren Perspektiven: YouTubes neues Tool zur Gesichtserkennung soll KI-Deepfakes unterbinden.

Montagmorgen kam es in einem Amazon-Rechenzentrum im US-Staat Virginia zu einer Störung. Die Auswirkungen waren weltweit zu spüren. Zahlreiche Internet-Dienste ließen sich zeitweise nur eingeschränkt oder gar nicht nutzen. Darunter auch Matratzen. Das belegen Beschwerden diverser Kunden der New Yorker Firma Eight Sleep. Sie verkauft unter der Bezeichnung „Pod“ vernetzte Matratzen, die irreführend als „smart“ bezeichnet werden. Der Schläfer erhält eingebaute Heizung und Kühlung sowie einen Motor, der bestimmte Bereiche der Matratze verformen kann. Damit können Bettbenutzer im Bett etwa besser sitzen. Diese Matratzen kennen aber keinen Offline-Modus, sodass Nutzer nach dem AWS-Ausfall weder Kühlung noch Heizung oder Position ändern konnten: AWS-Ausfall machte vernetzte Matratzen unbrauchbar.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Leider gehören diese „smarten“ Matratzen wohl nicht zu den Elektro-Altgeräten, die in Deutschland kostenlos von größeren Händlern zurückgenommen werden müssen. Doch auf diese Regelung pochen neue Gerichtsentscheidungen. Das festigt die Auslegung der Reform des Elektro- und Elektronikgerätegesetzes. So bestätigen zwei aktuelle Urteile von Landgerichten, dass Elektrogeräte verkaufende Einzelhändler ab einer gewissen Ladengröße ausgediente Elektrokleingeräte wieder annehmen müssen. Und das gebührenfrei. In beiden Fällen ist die Deutsche Umwelthilfe (DUH) gegen die Händler vorgegangen. Testbesucher hatten Verstöße gegen die seit über drei Jahren geltende Rücknahmepflicht festgestellt, sodass die DUH vor Gericht gezogen ist. Jetzt gibt es die Urteile: Auch Aldi Nord und Edeka müssen Elektroschrott gratis zurücknehmen.

In der heutigen Ausgabe der #heiseshow besprechen wir unter anderem, wie der Prozessor den PC voranbrachte. Denn vor 40 Jahren stellte Intel den 80386 vor, der den PC-Markt revolutionierte. Was machte den Prozessor so bedeutend für die Computerentwicklung? Derweil plant Amazon offenbar, bis zu 600.000 US-Mitarbeiter durch Roboter zu ersetzen. Welche Aufgaben sollen die Roboter übernehmen und wie realistisch sind diese Pläne? Wie wirkt sich der verstärkte Robotereinsatz auf die Arbeitswelt der Zukunft aus? Zudem diskutieren wir über Atlas, OpenAIs eigenen Browser für macOS, der ChatGPT integriert. Welche Funktionen bietet Atlas und wie unterscheidet er sich von etablierten Browsern? Das sind die Themen heute um 17 Uhr live in der #heiseshow: 40 Jahre 80386, Amazon und die Roboter, ChatGPT-Browser.

Weiterlesen nach der Anzeige

Auch noch wichtig:


(fds)



Source link

Weiterlesen

Künstliche Intelligenz

YouTubes neues Tool zur Gesichtserkennung soll KI-Deepfakes unterbinden


YouTube will offenbar stärker gegen die Verbreitung von Videos mit per Künstlicher Intelligenz (KI) erstellten oder veränderten Personen vorgehen. Dazu bietet die Plattform Videoschaffenden jetzt ein Tool zur Ähnlichkeitserkennung an. Damit können Content-Ersteller bei YouTube nach Videos suchen, die das eigene Gesicht enthalten, etwa per KI-Deepfake. Dann darf der Anwender entscheiden, ob er die Entfernung dieses Videos beantragt oder es akzeptiert.

Weiterlesen nach der Anzeige

Bevor YouTube Ähnlichkeiten in Videos erkennen kann, benötigt der Dienst das Hochladen oder Fotografieren eines Ausweises oder Führerscheins mit Lichtbild sowie ein kurzes Video vom Gesicht der Person aus mehreren Perspektiven. Damit will das Portal die Identität verifizieren. Die Überprüfung kann allerdings bis zu fünf Tagen dauern. Danach listet YouTube-Studio gefundene Videos, die das eigene Gesicht oder Ähnlichkeiten enthalten, die dann selbst geprüft werden können.

Dieses Tool gegen Deepfakes befindet sich bereits seit über einem Jahr in der Entwicklung. Anfang September 2024 erklärte YouTube, dass mehr Schutz vor Deepfakes und unerlaubt geklonten Stimmen geplant ist. Das System zur Ähnlichkeitserkennung wird in den nächsten Wochen ausgerollt, aber YouTube bezeichnet es noch als „experimentelle Funktion“, um Feedback der Nutzer zu sammeln. Das Tool zur Ähnlichkeitserkennung wird zumindest zunächst auch nur in ausgewählten Ländern verfügbar sein, soll aber auf weitere Regionen ausgeweitet werden.

Die Ähnlichkeitserkennung arbeitet laut YouTube ähnlich wie das 2018 als Maßnahme gegen Online-Piraterie ins Leben gerufene Tool „Content ID“. Mit diesem System können YouTuber ihre urheberrechtlich geschützten Inhalte auf dem Videoportal einfacher erkennen und verwalten. Die zu schützenden Inhalte werden dabei, auf Ansinnen der Urheber, in einer Datenbank mit Audio- und Bilddateien gespeichert und mit neu hochgeladenen Videos abgeglichen.

YouTube betont zudem den Unterschied zwischen dem Schutz der Privatsphäre und Urheberrechtsverletzungen. In beiden Fällen können Content-Ersteller das Entfernen fremder Videos beantragen, aber eben aus verschiedenen Gründen. Als Beispiele für Urheberrechtsverletzungen nennt YouTube das Kopieren eigener Videos in fremde Videos oder Videoclips in fremden Videos, bei denen die Tonspur geändert wurde, sodass der Eindruck entsteht, man sage etwas anderes.

Weiterlesen nach der Anzeige

Verletzungen der Privatsphäre liegen dagegen vor, wenn jemand anderes das eigene Antlitz entweder per KI produziert oder kopiert und der kopierten Person fremde Worte in den Mund legt, um etwa politische Meinungen zu vertreten oder Produkte anzupreisen. Diese Fälle sollen durch das Tool zur Ähnlichkeitserkennung nun schneller erkannt und damit unterbunden werden.

Lesen Sie auch


(fds)



Source link

Weiterlesen

Beliebt