Künstliche Intelligenz
Mini-Gehirne im Weltall: Deutsche Forschung für Langzeitmissionen
Verändern sich die neuronalen Strukturen unseres Gehirns und ihre Funktionen in Schwerelosigkeit? Kann man solchen Veränderungen entgegenwirken? Fragen wie diese wollen Wissenschaftler des GSI Helmholtz-Zentrums für Schwerionenforschung im Projekt Hippobox in Kooperation mit der Deutschen Raumfahrtagentur im DLR herausfinden.
Dazu bereiten sie zunächst kleine Hippocampus-Organoide vor. Diese Nachbildungen des Hippocampus im Kleinformat lassen sich mithilfe menschlicher Stammzellen züchten. Sie sollen dem Original in ihrer Struktur und Funktion ähneln, sodass ihre Reaktion auf Veränderungen der Umgebung Rückschlüsse auf unsere echten Gehirne ermöglichen. Die Organoide sollen in einer Zellkulturbox für mehrere Wochen im All ausharren. Das Projekt ist Teil der sogenannten Cellbox-4-Mission der Deutschen Raumfahrtagentur.
Von den Ergebnissen versprechen sich die Forscher Strategien zur Erhaltung der kognitiven Gesundheit von Weltraumreisenden, ebenso wie Erkenntnisse für die Erforschung von Depressionen und Demenz auf der Erde. Laut GSI gibt es Hinweise darauf, dass die neuronalen Zellen in Schwerelosigkeit weiter auseinanderdriften. Dadurch gäbe es weniger Kontaktstellen, was das neuronale Netzwerk schwächt. Ähnliches sei bei Menschen mit Demenz oder Depressionen festzustellen.
(dgi)
Künstliche Intelligenz
Metas neue VR-Prototypen setzen Maßstäbe bei Pixeldichte und Sichtfeld
Meta hat zwei Brillenprototypen vorgestellt. Während Tiramisu eine visuell möglichst realistische virtuelle Realität schaffen soll, ermöglicht Boba 3 ein besonders weites Sichtfeld. Beide Geräte erfordern einen PC mit Hochleistungsgrafikkarte.
Tiramisu lässt Metas aktuelles VR-Flaggschiff Quest 3 in mehreren Bereichen alt aussehen: Mit 90 PPD liefert der Prototyp eine 3,5-fach höhere Pixeldichte und mit 1.400 Nits ein 14-mal helleres Display. Hinzu kommt ein dreimal so hoher Kontrast. Möglich machen das zwei µOLED-Displays und hochwertige Glaslinsen, die zusammen ein visuelles Erlebnis erzeugen, das laut Meta mit dem mancher HDR-Fernseher vergleichbar ist.
VR-Prototyp Tiramisu: Die visuellen Qualitäten gehen zulasten von Größe und Gewicht.
(Bild: Meta)
Der Prototyp geht mit zwei technischen Kompromissen einher: Er ist sperriger und schwerer als gängige VR-Brillen und bietet mit nur 33 Grad ein deutlich kleineres Sichtfeld als handelsübliche Geräte. Trotzdem soll er das bislang realistischste VR-Bild liefern, dank einer bisher unerreichten Kombination aus extrem hoher Auflösung und Leuchtdichte.
Boba 3: Kleiner Formfaktor, großes Sichtfeld
Der zweite Prototyp wurde auf ein möglichst großes Sichtfeld hin optimiert: Er erreicht 180 Grad horizontal und 120 Grad vertikal, was etwa 90 Prozent des menschlichen Sichtfelds entspricht. Zum Vergleich: Die Quest 3 kommt auf 110 bzw. 96 Grad, also etwa 46 Prozent des menschlichen Sichtfelds. Erstaunlich ist, dass Boba diese Werte in einem Formfaktor erreicht, der dem aktueller VR-Headsets entspricht. Hierfür entwickelte Meta ein maßgeschneidertes optisches Design mit stark gekrümmten, reflektierenden Polarisatoren.
Meta hat im Laufe der Jahre drei Generationen des Boba-Prototyps entwickelt. Die jüngste, Boba 3, erreicht eine Auflösung von 4K mal 4K. Da sich die Pixel jedoch über ein extrem großes Sichtfeld verteilen, liegt die Pixeldichte mit 30 PPD nur geringfügig über der der Quest 3 (25 PPD). Meta baute zwei Varianten des Geräts: eine reine VR-Version und eine MR-Version mit Passthrough-Funktion. So lässt sich das erweiterte Sichtfeld sowohl in Bezug auf die virtuelle als auch auf die reale Welt beurteilen.
Ein weites Sichtfeld in kompaktem Gehäuse: Boba 3.
(Bild: Meta)
Laut Meta setzt Boba 3 auf serienreife Displays und eine Linsentechnologie, wie sie auch in der Quest 3 zum Einsatz kommt, was eine Massenfertigung erleichtern würde. Die VR-Version von Boba 3 ist zudem leichter als eine Quest 3 mit offizieller Elite-Kopfhalterung (660 statt 698 Gramm). Zugleich betont Meta, dass ein entsprechendes Gerät teuer in der Herstellung wäre und eine High-End-GPU voraussetzt.
Tiramisu und Boba 3 sind reine Forschungsprototypen und nicht für eine Kommerzialisierung vorgesehen. Man kann sie nächste Woche auf der Computergrafik-Konferenz SIGGRAPH in Vancouver ausprobieren. Bereits im Juli machten erste Bilder und Details zu den Geräten die Runde.
(tobe)
Künstliche Intelligenz
Urheberrecht: EuGH könnte deutsche Judikatur zu Hyperlinks umdrehen
Ein Prozess gegen ein Content Delivery Network (CDN) droht, bisherige deutsche Rechtsprechung zu Urheberrechtsfragen grundlegend zu ändern. Erstens könnte schon das Setzen eines Hyperlinks auf eine Datei, die auf einem Drittserver liegt, als „öffentliche Zugänglichmachung“ eingestuft werden, was teure Haftung auslösen kann. Zweitens könnten Content Delivery Networks, die Webseiten Dritter spiegeln und gegen kriminelle Angriffe verteidigen, unter Umständen für Urheberrechtsverletzungen der Webseitenbetreiber haften. Das würde CDN-Dienste enorm verteuern.
Der Bundesgerichtshof (BGH) hat zwei einschlägige Vorlagefragen an den Europäischen Gerichtshof gerichtet. Dieser soll nun erklären, wie bestimmte Bedingungen dreier EU-Richtlinien auszulegen sind.
Die Fragen des BGH an den EuGH lauten konkret:
- Kann eine Handlung des öffentlichen Zugänglichmachens eines Tonträgers im
Sinn des Art. 3 Abs. 2 Buchst. b der Richtlinie 2001/29/EG nur durch denjenigen vorgenommen werden, in dessen eigener Zugriffssphäre sich die geschützte Aufnahme befindet? Oder kann dies – und wenn ja unter welchen
Voraussetzungen – auch durch das Setzen eines Hyperlinks geschehen? - Sind die vom Gerichtshof der Europäischen Union entwickelten Kriterien für eine Handlung der öffentlichen Wiedergabe nach Art. 3 Abs. 1 der Richtlinie 2001/29/EG durch den Betreiber einer Video-Sharing-Plattform oder Sharehosting-Plattform auch auf die Beurteilung der Frage zu übertragen, ob der Betreiber eines Content Delivery Networks, der nach Art. 13 Abs. 1 der Richtlinie 2000/31/EG / Art. 5 Abs. 1 der Verordnung (EU) 2022/2065 von der Haftung befreit sein kann, eine eigene Handlung des öffentlichen Zugänglichmachens nach Art. 3 Abs. 2 der Richtlinie 2001/29/EG vorgenommen hat?
Wenn dies nicht der Fall ist: Welche Kriterien gelten für eine eigene Handlung des öffentlichen Zugänglichmachens durch den Betreiber eines Content Delivery Networks?
Erst wenn der EuGH geantwortet hat, was geraume Zeit dauern dürfte, wird der BGH den ihm vorliegenden Fall weiter bearbeiten. Dabei wird sich der BGH an der Rechtsauslegung des EuGH orientieren. Das ist Sinn und Zweck solcherart vorgelegter Fragen.
Darf man noch verlinken?
Das öffentliche Zugänglichmachen von Werken ist Rechteinhabern vorbehalten. Wer fremde, urheberrechtlich geschützte Werke ohne Zustimmung öffentlich zugänglich macht, haftet dafür. Nach bisheriger ständiger Rechtsprechung des BGH ist Voraussetzung, dass sich die nicht lizenzierte Werkkopie „in der Zugriffssphäre des Vorhaltenden“ befindet. Einfacher ausgedrückt: Nur wer kontrollieren kann, ob eine bestimmte Datei abrufbar ist, haftet auch dafür. Wer lediglich einen Hyperlink setzt, der auf eine Datei verweist, deren Verfügbarkeit er selbst nicht kontrolliert, haftet nicht.
Doch nun hegt der BGH-Senat offenbar Zweifel, ob seine eigene Judikaturlinie EU-Recht entspricht. Vielleicht soll auch jeder, der einen Link auf Dateien Dritter setzt, haften? Eventuell unter bestimmten Bedingungen? Eine Bejahung durch den EuGH würde das Grundprinzip von Hypertext und dem darauf aufbauenden World Wide Web gefährden. Hinzu kann das Problem treten, dass derjenige, der eine Datei kontrolliert, deren Inhalt jederzeit ändern kann, ohne, dass sich die von anderen gesetzten Hyperlinks ändern.
Was müssen CDNs?
Die zweite Frage bezieht sich auf Content Delivery Networks. Diese halten Server an zahlreichen Standorten bereit, stellen aber keine eigenen Inhalte bereit. Vielmehr zahlen Betreiber von Webseiten dafür, dass ihre Seiten auf den CDN-Servern gespiegelt werden. Damit können Internetnutzer auf deutlich näher liegende Server zugreifen, was die Übertragung schneller und stabiler macht. Gleichzeitig wird es für Angreifer schwieriger, den „echten“ Webserver anzugreifen. Auch die öffentliche Hand bedient sich laufend CDNs, betont der BGH. Damit ein CDN funktioniert, muss der DNS-Eintrag für die Webseite auf das CDN verweisen, weshalb CDNs in aller Regel auch DNS-Einträge verwalten.
Im Kern sind CDNs eine fortgeschrittene Variante von Cache-Servern. Für Caching gibt es ausdrückliche Haftungsbefreiungen in zwei EU-Richtlinien (Richtlinie über den elektronischen Geschäftsverkehr sowie die diese novellierende Richtlinie für digitale Dienste). Schließlich kann der Betreiber eines Cache-Servers unmöglich alle Inhalte prüfen, die zeitweilig über seine Infrastruktur laufen.
Allerdings hat der EuGH 2022 im Fall Youtube und Cyando Kriterien dafür aufgestellt, wann Videoplattformen für Inhalte haften, die von Dritten auf die Plattformen hochgeladen wurden. Daraufhin musste der BGH seine bis dahin laufende Judikaturlinie, dass Videoplattformen grundsätzlich nicht wie die Täter für Urheberrechtsverletzungen haften, ändern. Womöglich kommt das jetzt auch auf CDNs zu.
Der Anlassfall: Tonträger vs CDN
Ein Hersteller von Tonträgern hat ein CDN verklagt. Die dort gespiegelte Webseite enthielt Hyperlinks auf ausgewählte Dateien, die von Filesharing-Plattformen vorgehalten wurden. Einer dieser Links verwies auf eine Kopie eines Musikalbums, an dem der Tonträgerhersteller Urheberrechte hält. Weder das CDN noch die Webseite haben diese Datei bereitgestellt.
Dennoch haben Landgericht Köln (Az. 14 O 29/21) und Oberlandesgericht Köln (6 U 149/22) das CDN zu Unterlassung verurteilt, woraufhin sich das CDN an den BGH gewandt hat (Az. I ZR 155/23). Dieser möchte klären, ob die auf der Webseite gesetzten Hyperlinks rechtswidrig sind. Nach bisheriger Judikatur sind sie es nicht, womit auch deren Spiegelung einwandfrei ist. Sind die Links dennoch verboten, stellt sich die Frage nach etwaiger Haftung des spiegelnden CDN.
(ds)
Künstliche Intelligenz
GPT-5: OpenAI veröffentlicht neues Sprachmodell für ChatGPT
OpenAI veröffentlicht am Donnerstagabend sein neues Sprachmodell GPT-5. Das neue Modell soll zuverlässiger antworten und weniger halluzinieren als seine Vorgänger. Zudem könne es Fachfragen auf Expertenniveau beantworten, erklärt das Unternehmen. Als Beispiele nannte OpenAI unter anderem auch Aufgaben in Risikobereichen wie dem Finanz- und Gesundheitswesen.
Bei einem Videocall für die Presse demonstrierten OpenAI-Mitarbeiter bereits einige Fähigkeiten des neuen Modells. So ließen sie es auf einen Prompt eine Web-App programmieren. Wenn man den gleichen Prompt mehrfach eingab, kam jedes Mal eine andere App mit einer anderen Bedienoberfläche heraus.
Konsolidierung
Musste man bei GPT-4 noch je nach Aufgabe zwischen verschiedenen Modellvarianten wählen, so vereint GPT-5 alles unter einer Haube. ChatGPT gewährt Kunden ohne Bezahlabo Zugriff auf GPT5-5 inklusive der Reasoning-Funktionen. Allerdings werde die Zahl der Fragen limitiert, die man dem Modell stellen kann. Das Plus-Abo für 23 Euro im Monat gewährt ein deutlich höheres Kontingent. Pro-User, die monatlich das Zehnfache bezahlen, könnten dem Modell beliebig viele Fragen stellen und bekommen laut OpenAI exklusiven Zugriff auf eine Pro-Version von GPT-5. Daneben soll es auch abgespeckte Varianten namens mini und nano geben, die schneller und billiger antworten.
Das Kontextfenster gibt OpenAI mit 256.000 Token an. Nutzer, die längere Texte mit bis zu einer Million Token verarbeiten müssen, können weiterhin GPT-4.1 nutzen. Mit zwei neuen Parametern namens „reasoning“ und „verbosity“ könnten Entwickler steuern, wie gründlich GPT-5 über seine Antworten sinniert und wie ausführlich das Modell antwortet. Damit könne man den Umfang, Zeitbedarf und Preis der Ausgaben beschränken, die bei der API-Nutzung pro Token abgerechnet werden. Die Preise belaufen sich auf 1,25 US-Dollar für eine Million Input-Token und 10 US-Dollar für eine Million Output-Token. Zum Vergleich: Der europäische Anbieter Mistral verlangt lediglich 6 US-Dollar für eine Million Token seines größten Modells, der chinesische Anbieter Deepseek für R1 sogar nur 2,19 US-Dollar.
In den Antworten soll sich GPT-5 weniger anbiedern als GPT-4 und Themen, die die Content-Filter ausklammern, im Rahmen des Erlaubten beantworten. Laut OpenAI hätte ein externer Dienstleister das Modell 5000 Stunden auf Sicherheitsprobleme abgeklopft (Red Teaming) – eine Zahl, die angesichts der Komplexität eines Sprachmodells niedrig wirkt.
Einsatz in Risikobereichen
Verschiedene US-Firmen bekamen offenbar vorab Zugriff auf GPT-5. So berichtet OpenAI, dass die private Krankenversicherung Oscar Health bereits Anträge seiner Versicherten mit GPT-5 prüfe. Das Transportunternehmen Uber bediene sich GPT-5 beim Customer Support. GitLab, Windsurf und Cursor setzten GPT-5 bei der Software-Entwicklung ein und die spanische Bank BBVA nutze das neue Modell bereits für ihre Finanzanalysen. Als weitere Unternehmen, die GPT-5 vor Veröffentlichung im Einsatz hätten, zählte OpenAI das Biotechnik-Unternehmen Amgen, das Einzelhandelsunternehmen Lowe’s und den Software-Entwickler Notion auf.
Beachtlich ist, dass diese Firmen offenbar ein nagelneues, bislang unveröffentlichtes und ungeprüftes Modell auch in kritischen Bereichen wie der Gesundheitsversorgung und dem Finanzwesen einsetzen, für das noch keine unabhängige Evaluierung vorliegt. Laut OpenAI soll GPT-5 potenzielle Gesundheitsprobleme erkennen, Rückfragen stellen und bei seinen Antworten auch den Standort des Nutzers einbeziehen. In Europa wäre ein solcher Einsatz allein schon aus Datenschutzgründen problematisch, wenn Firmen Kundendaten mit OpenAI teilen. Denn anders als die kürzlich vorgestellten Open-Weight-Varianten von GPT-4 läuft GPT-5 nur auf den Servern von OpenAI. Vorsicht ist ebenfalls geboten, wenn man GPT-5 wie von OpenAI vorgesehen mit Google-Konten, inklusive GMail, Kontakten und Kalender verbindet.
In einem Werbestatement lobte Michael Turell, Chef des Programmier-Editors Cursor, das neue Sprachmodell: Es könne selbst tief versteckte Bugs in Code aufspüren. In einer zuvor von der Non-Profit-Organisation Model Evaluation & Threat Research (METR) veröffentlichten Studie kam noch heraus, dass Programmierer 20 Prozent langsamer arbeiteten, wenn sie mit Cursor und den LLMs Claude 3.5 und 3.7 Sonnet codeten. Von dem Code, den die Modelle von Anthropic generierten, war über die Hälfte unbrauchbar. Man muss unabhängige Studien abwarten, ob GPT-5 hier tatsächlich bessere Ergebnisse liefert.
Grundsätzliche Informationen, etwa zur Modellgröße, zum Trainingsaufwand und zum Energiebedarf von GPT-5 gab OpenAI vorab nicht bekannt. Fragen dazu sollen in Kürze in einem Livestream zu GPT-5 sowie einem Developer-Blog beantwortet werden, darunter auch die Modell-Karte von GPT-5.
(hag)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 1 Monat
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 1 Monat
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken