Connect with us

Künstliche Intelligenz

Weg von Spotify: Was Deezer, Tidal, Apple Music & Co. besser machen | c’t uplink


Unsere Musikstreaming-Experten Hartmut Gieselmann von c’t und Daniel Ziegener von heise+ vergleichen Spotify mit Amazon Music, Apple Music, Deezer, Tidal und anderen. Wir reden über deren Preise, über Qualitäten und darüber, welcher der Dienste am meisten Geld an die Musiker auszahlt.


Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Den wöchentlichen c’t-Podcast c’t uplink gibt es …

Zuerst die gute Nachricht: Die Tools, um seine Playlists und Albensammlung von einem Dienst zum nächsten mitzunehmen, sind ausgereift und einfach zu bedienen. Kostenlos sind sie allerdings nur für kleine Sammlungen. Für größere muss man ein Abo abschließen – das man allerdings nach einem Monat wieder kündigen kann.

Nicht alle Streamingdienste haben die Musik in verlustfreien Formaten oder mit hohen Bitraten im Angebot. Daniel und Hartmut sind sich aber einig, dass man die Unterschiede nur mit teuren Lautsprechern und Kopfhörern wahrnimmt. Interessanter ist Dolby Atmos, denn einige der eigentlich für 3D-Sound gedachte Eigenschaften verbessern quasi nebenbei auch den normalen Stereosound.

Vom Angebot her liegen alle Dienste nahe beisammen. Dass einzelne Künstler auf einzelnen Diensten nicht zu finden sind, gehört weitgehend der Vergangenheit an. Deutlicher unterscheiden sich die Dienste darin, wie gut die Vorschlagsalgorithmen arbeiten, KI versus kuratiert, grob gesagt.

Weiter diskutieren wir über die Vergütungen für Künstler, sprechen Alternativen wie Konzerte, CD- und Merch-Käufe, aber auch Alternativen wie Bandcamp an. Auch die Verteilmöglichkeiten kommen zur Sprache, also Spotify Connect, Tidal Connect, AirPlay oder einfach Bluetooth.

Zu Gast im Studio: Hartmut Gieselmann, Daniel Ziegener
Host: Jörg Wirtgen
Produktion: Pascal Schewe

► Die heise+- und c’t-Artikel zum Thema (Paywall):
https://heise.de/s/m1pNP
https://heise.de/s/kDnWV
https://heise.de/s/zKr4M
https://heise.de/s/1ZkJb

In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.

c’t Magazin
c’t auf Mastodon
c’t auf Instagram
c’t auf Facebook
c’t auf Bluesky
c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!


(jow)





Source link

Künstliche Intelligenz

Russland schränkt Whatsapp und Telegram erneut ein


Die russische Telekommunikationsbehörde Roskomnadsor schränkt die beiden Messengerdienste Whatsapp und Telegram in Russland weiter ein. Um Kriminellen entgegenzuwirken, würden Maßnahmen zur teilweisen Einschränkung ausländischer Messenger ergriffen, teilte die Behörde der staatlichen russischen Nachrichtenagentur Tass zufolge mit. Whatsapp und Telegram seien wichtige Dienste für Erpressung, Betrug und Verwicklung russischer Bürger in Sabotageakte, hieß es.

Weiterlesen nach der Anzeige

Die derzeit instabile Funktion der Messenger hänge aber nicht mit einer Zugangssperre durch Telekommunikationsbetreiber zusammen, meldete die Agentur mit Verweis auf solche Unternehmen.

Russische Medien berichteten von massiven Einschränkungen der Messengerdienste vor allem im Süden Russlands seit Montag. In Kommentaren auf Störungswebsites hieß es, dass die Verbindungen langsam seien oder die App gar nicht lade. Anrufe über Whatsapp und Telegram sind schon länger eingeschränkt. Auch das begründete Roskomnadsor im August mit der angeblichen Abwehr von Terroristen und Betrügern.

Schon 2024 wurden der verschlüsselte Messenger Signal und der Dienst Viber blockiert. Auch LinkedIn, Facebook, Instagram und viele Websites lassen sich ohne virtuelles privates Netzwerk (VPN) – die ebenso zunehmend gesperrt werden – nicht öffnen. Ausländische Messenger sollen durch die vom Staat bevorzugte App Max ersetzt werden, bei der Kritiker einen Zugriff der Behörden auf Daten befürchten.

Moskau baut Kontrolle und Zensur im Internet vor allem seit Beginn der großangelegten Invasion in die Ukraine vor mehr als dreieinhalb Jahren aus. Für die Suche nach Informationen, die die Behörden als „extremistisch“ eingestuft haben, drohen bis zu 5000 Rubel (rund 53 Euro) Strafe, entschied das Parlament im Juli. Als „extremistisch“ gebrandmarkt sind vor allem Internetressourcen, die den Machtapparat kritisieren, wie der Anti-Korruptions-Fonds des in Haft gestorbenen Kremlgegners Alexej Nawalny.

Weiterlesen nach der Anzeige


(dmk)



Source link

Weiterlesen

Künstliche Intelligenz

Donnerstag: Meta reduziert KI-Abteilung, YouTube geht gegen KI-Deepfakes vor


Meta Platforms KI-Abteilung schwimmt in Geld und hat so viele Leute eingestellt, dass sie einander im Weg stehen. Jetzt müssen 600 raus. Durch die Reduzierung der mit KI beschäftigten Mannschaft will der Facebook-Konzern die Anzahl der Besprechungen reduzieren und schneller zu Entscheidungen kommen. KI wird hingegen für YouTube und Videoschaffende zum Problem, wenn Deepfakes gegen Privatsphäre und Urheberrecht verstoßen. Deshalb können Content-Ersteller bei YouTube nun nach KI-Deepfakes ihrer Person suchen und solche Videos entfernen lassen. Dafür benötigt YouTube Ausweis und Gesichtsvideo. Derweil hat der Ausfall der Amazon Web Services (AWS) einige Anwender nicht nur bei der Nutzung von Online-Diensten gestört, sondern sogar beim Schlafen. Denn bestimmte vernetzte Matratzen haben keinen Offline-Modus. Nach dem AWS-Ausfall konnten diese nicht mehr gesteuert werden, sodass Matratzenbesitzer nicht mehr schlafen konnten – die wichtigsten Meldungen im kurzen Überblick.

Weiterlesen nach der Anzeige

Meta Platforms streicht ungefähr 600 Arbeitsplätze in der KI-Abteilung. Dabei geht es aber offenbar weniger um Einsparungen, sondern mehr um Entschlackung. Wer bleibt, muss härter arbeiten. Seit etwa drei Jahren hat Meta für seine „Superintelligence Labs“ KI auf Teufel komm raus Personal eingestellt, in Summe laut Medienberichten rund 3.000 Menschen. Das Ergebnis ist nicht unbedingt effizient. Der Einschnitt bei der KI-Belegschaft soll nicht als Rückzug oder Zurechtstutzung der teuren KI-Bemühungen Metas verstanden werden, haben Manager durchblicken lassen. Vielmehr soll Bürokratie abgebaut und so die KI-Weiterentwicklung beschleunigt werden. Den vom Stellenabbau Betroffenen sollen andere Stellen im Konzern angeboten werden: Meta Platforms kündigt 600 KI-Spezialisten.

Auch YouTube will weniger KI, allerdings auf seiner Plattform, und geht offenbar stärker gegen die Verbreitung von Videos mit per Künstlicher Intelligenz (KI) erstellten oder veränderten Personen vor. Dazu bietet das Portal Videoschaffenden ein Tool zur Ähnlichkeitserkennung an. Damit können Content-Ersteller bei YouTube nach Videos suchen, die das eigene Gesicht enthalten, etwa per KI-Deepfake. Dann darf der Anwender entscheiden, ob er die Entfernung dieses Videos beantragt oder es akzeptiert. Bevor YouTube Ähnlichkeiten in Videos erkennen kann, benötigt der Dienst das Hochladen oder Fotografieren eines Ausweises oder Führerscheins mit Lichtbild sowie ein kurzes Video vom Gesicht der Person aus mehreren Perspektiven: YouTubes neues Tool zur Gesichtserkennung soll KI-Deepfakes unterbinden.

Montagmorgen kam es in einem Amazon-Rechenzentrum im US-Staat Virginia zu einer Störung. Die Auswirkungen waren weltweit zu spüren. Zahlreiche Internet-Dienste ließen sich zeitweise nur eingeschränkt oder gar nicht nutzen. Darunter auch Matratzen. Das belegen Beschwerden diverser Kunden der New Yorker Firma Eight Sleep. Sie verkauft unter der Bezeichnung „Pod“ vernetzte Matratzen, die irreführend als „smart“ bezeichnet werden. Der Schläfer erhält eingebaute Heizung und Kühlung sowie einen Motor, der bestimmte Bereiche der Matratze verformen kann. Damit können Bettbenutzer im Bett etwa besser sitzen. Diese Matratzen kennen aber keinen Offline-Modus, sodass Nutzer nach dem AWS-Ausfall weder Kühlung noch Heizung oder Position ändern konnten: AWS-Ausfall machte vernetzte Matratzen unbrauchbar.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Leider gehören diese „smarten“ Matratzen wohl nicht zu den Elektro-Altgeräten, die in Deutschland kostenlos von größeren Händlern zurückgenommen werden müssen. Doch auf diese Regelung pochen neue Gerichtsentscheidungen. Das festigt die Auslegung der Reform des Elektro- und Elektronikgerätegesetzes. So bestätigen zwei aktuelle Urteile von Landgerichten, dass Elektrogeräte verkaufende Einzelhändler ab einer gewissen Ladengröße ausgediente Elektrokleingeräte wieder annehmen müssen. Und das gebührenfrei. In beiden Fällen ist die Deutsche Umwelthilfe (DUH) gegen die Händler vorgegangen. Testbesucher hatten Verstöße gegen die seit über drei Jahren geltende Rücknahmepflicht festgestellt, sodass die DUH vor Gericht gezogen ist. Jetzt gibt es die Urteile: Auch Aldi Nord und Edeka müssen Elektroschrott gratis zurücknehmen.

In der heutigen Ausgabe der #heiseshow besprechen wir unter anderem, wie der Prozessor den PC voranbrachte. Denn vor 40 Jahren stellte Intel den 80386 vor, der den PC-Markt revolutionierte. Was machte den Prozessor so bedeutend für die Computerentwicklung? Derweil plant Amazon offenbar, bis zu 600.000 US-Mitarbeiter durch Roboter zu ersetzen. Welche Aufgaben sollen die Roboter übernehmen und wie realistisch sind diese Pläne? Wie wirkt sich der verstärkte Robotereinsatz auf die Arbeitswelt der Zukunft aus? Zudem diskutieren wir über Atlas, OpenAIs eigenen Browser für macOS, der ChatGPT integriert. Welche Funktionen bietet Atlas und wie unterscheidet er sich von etablierten Browsern? Das sind die Themen heute um 17 Uhr live in der #heiseshow: 40 Jahre 80386, Amazon und die Roboter, ChatGPT-Browser.

Weiterlesen nach der Anzeige

Auch noch wichtig:


(fds)



Source link

Weiterlesen

Künstliche Intelligenz

YouTubes neues Tool zur Gesichtserkennung soll KI-Deepfakes unterbinden


YouTube will offenbar stärker gegen die Verbreitung von Videos mit per Künstlicher Intelligenz (KI) erstellten oder veränderten Personen vorgehen. Dazu bietet die Plattform Videoschaffenden jetzt ein Tool zur Ähnlichkeitserkennung an. Damit können Content-Ersteller bei YouTube nach Videos suchen, die das eigene Gesicht enthalten, etwa per KI-Deepfake. Dann darf der Anwender entscheiden, ob er die Entfernung dieses Videos beantragt oder es akzeptiert.

Weiterlesen nach der Anzeige

Bevor YouTube Ähnlichkeiten in Videos erkennen kann, benötigt der Dienst das Hochladen oder Fotografieren eines Ausweises oder Führerscheins mit Lichtbild sowie ein kurzes Video vom Gesicht der Person aus mehreren Perspektiven. Damit will das Portal die Identität verifizieren. Die Überprüfung kann allerdings bis zu fünf Tagen dauern. Danach listet YouTube-Studio gefundene Videos, die das eigene Gesicht oder Ähnlichkeiten enthalten, die dann selbst geprüft werden können.

Dieses Tool gegen Deepfakes befindet sich bereits seit über einem Jahr in der Entwicklung. Anfang September 2024 erklärte YouTube, dass mehr Schutz vor Deepfakes und unerlaubt geklonten Stimmen geplant ist. Das System zur Ähnlichkeitserkennung wird in den nächsten Wochen ausgerollt, aber YouTube bezeichnet es noch als „experimentelle Funktion“, um Feedback der Nutzer zu sammeln. Das Tool zur Ähnlichkeitserkennung wird zumindest zunächst auch nur in ausgewählten Ländern verfügbar sein, soll aber auf weitere Regionen ausgeweitet werden.

Die Ähnlichkeitserkennung arbeitet laut YouTube ähnlich wie das 2018 als Maßnahme gegen Online-Piraterie ins Leben gerufene Tool „Content ID“. Mit diesem System können YouTuber ihre urheberrechtlich geschützten Inhalte auf dem Videoportal einfacher erkennen und verwalten. Die zu schützenden Inhalte werden dabei, auf Ansinnen der Urheber, in einer Datenbank mit Audio- und Bilddateien gespeichert und mit neu hochgeladenen Videos abgeglichen.

YouTube betont zudem den Unterschied zwischen dem Schutz der Privatsphäre und Urheberrechtsverletzungen. In beiden Fällen können Content-Ersteller das Entfernen fremder Videos beantragen, aber eben aus verschiedenen Gründen. Als Beispiele für Urheberrechtsverletzungen nennt YouTube das Kopieren eigener Videos in fremde Videos oder Videoclips in fremden Videos, bei denen die Tonspur geändert wurde, sodass der Eindruck entsteht, man sage etwas anderes.

Weiterlesen nach der Anzeige

Verletzungen der Privatsphäre liegen dagegen vor, wenn jemand anderes das eigene Antlitz entweder per KI produziert oder kopiert und der kopierten Person fremde Worte in den Mund legt, um etwa politische Meinungen zu vertreten oder Produkte anzupreisen. Diese Fälle sollen durch das Tool zur Ähnlichkeitserkennung nun schneller erkannt und damit unterbunden werden.

Lesen Sie auch


(fds)



Source link

Weiterlesen

Beliebt