Künstliche Intelligenz
Grundsatzurteil: Bei Flugausfällen müssen Airlines auch Provisionen erstatten
Der Europäische Gerichtshof (EuGH) hat die Rechte von Fluggästen gegenüber Airlines bei Annullierungen deutlich gestärkt. Die Luxemburger Richter entschieden am Donnerstag, dass der Anspruch auf Erstattung des Flugticketpreises grundsätzlich auch Provisionen umfasst, die von Vermittlern wie Online-Reisebüros beim Kauf erhoben wurden. Damit erteilt das Gericht der Praxis vieler Fluggesellschaften eine Absage, bei Rückzahlungen lediglich den Nettopreis des Tickets zu erstatten. Kunden mussten sich in solchen Fällen bislang oft selbst an die Vermittler wenden, um auch Buchungsgebühren zurückzuverlangen.
Weiterlesen nach der Anzeige
95 Euro einbehalten
Auslöser des Verfahrens war ein Rechtsstreit in Österreich. Mehrere Reisende hatten über das Portal Opodo Flüge der Fluggesellschaft KLM von Wien nach Lima gebucht. Nachdem die Verbindung annulliert wurde, erstattete KLM zwar den Ticketpreis, behielt jedoch rund 95 Euro ein. Diesen Betrag hatte das Reisebüro den Kunden als Vermittlungsprovision in Rechnung gestellt. Die betroffenen Passagiere traten ihre Ansprüche an einen Verbraucherschutzverband ab, der die vollständige Summe vor den nationalen Gerichten einklagte.
KLM argumentierte im Verfahren, dass man nicht zur Erstattung der Provision verpflichtet sei. Die Airline gab an, dass ihr weder die Existenz noch die exakte Höhe dieser Zusatzgebühr bekannt gewesen sei. Der österreichische Oberste Gerichtshof legte den Fall schließlich dem EuGH vor, um die Auslegung der Fluggastrechteverordnung von 2004 zu klären.
Fluglinie muss genaue Provision nicht kennen
In seinem Urteil in der Rechtssache C−45/24 räumt der Gerichtshof nun zwar ein, dass Provisionen in früheren Urteilen nur dann als erstattungsfähig galten, wenn sie mit Wissen der Fluggesellschaft festgelegt wurden. Doch diese Vorgabe interpretieren die Richter eng: Akzeptiere eine Fluggesellschaft, dass ein autorisierter Vermittler in ihrem Namen Tickets ausstellt, kenne sie zwangsläufig auch dessen Geschäftspraxis, Gebühren zu erheben. Da das Ansetzen einer solchen Provision einen unvermeidbaren Bestandteil des Gesamtpreises darstelle, gelte sie rechtlich als von der Airline genehmigt.
Besonders relevant für die Praxis ist die Klarstellung, dass die Airline die genaue Höhe der Provision nicht kennen muss. Der EuGH betont, dass der vom EU-Recht angestrebte hohe Schutz für Fluggäste sonst massiv geschwächt würde. Müssten Reisende ihren Erstattungen bei verschiedenen Stellen hinterherlaufen, würde zudem die Attraktivität von Buchungsportalen sinken. Das Urteil bindet nicht nur die österreichische Justiz, sondern dient als Präzedenzfall für ähnliche Konstellationen in der gesamten EU.
Weiterlesen nach der Anzeige
(vbr)
Künstliche Intelligenz
Vision Language Model: Wie FastVLM hochauflösende Bilder im Browser analysiert
Vision Language Models (VLMs) verbinden visuelle Wahrnehmung mit natürlichen Sprachfähigkeiten und erlauben es, komplexe Aufgaben wie Bildbeschreibung, das Beantworten natürlichsprachiger Anfragen zu Bildern oder multimodale Suche zu erledigen. In den vergangenen Jahren hat sich gezeigt, dass höhere Eingabeauflösungen die Leistungsfähigkeit dieser Modelle deutlich steigern, vor allem bei textintensiven Bildern. Gleichzeitig wächst mit jeder zusätzlichen Bildzeile die Sequenzlänge des Vision-Encoders, wodurch etwa die Zahl der Vision-Token zunimmt und das Sprachmodell eine längere Eingabesequenz verarbeiten muss, was die Inferenzzeit erhöht. Diese Latenz ist für Anwendungen problematisch, die interaktiv und responsiv sein sollen, etwa in Webbrowsern oder auf mobilen Geräten mit begrenzter Rechenleistung.
Klassische VLMs basieren auf Vision-Encoder-Decoder-Architekturen. Als Vision-Encoder dienen vielfach rein Transformer-basierte Modelle wie ViT-B/16 oder Hybridvarianten mit einem Convolutional Neural Network (CNN) als Backbone. Diese Modelle teilen das Bild in Patches, beispielsweise 16 × 16 Pixel groß, projizieren jeden Patch in einen Embedding-Vektor und verarbeiten die Sequenz durch mehrere Self-Attention-Layer. Die Komplexität der Schichten wächst quadratisch mit der Anzahl der Patches (PDF), sodass eine erhöhte Bildauflösung die Latenz schnell in die Höhe treibt. Um diese Latenz zu reduzieren, haben Wissenschaftler Methoden wie Token Pruning oder Token Merging vorgeschlagen, die weniger wichtige Patches verwerfen oder zusammenfassen. Alternativ gibt es kachelbasierte Ansätze, die ein Bild in mehrere Teile zerlegen und separat verarbeiten. All diese Techniken reduzieren die Tokenanzahl, benötigen aber zusätzliche Verarbeitungsschritte oder führen zu Genauigkeitsverlusten.
- In herkömmlichen Vision Language Models führt eine erhöhte Bildauflösung zu weniger performanten Sprachmodellen.
- Durch die hohen Anforderungen an Speicher und Rechenleistung passen die Modelle für den Einsatz im Browser oder auf mobilen Geräten nicht.
- Das von Apple entwickelte Bildverarbeitungsmodell FastVLM läuft lokal im Browser und verfolgt einen anderen Ansatz: Über den hybriden Vision-Encoder FastViTHD reduziert es die Tokenanzahl bereits während der visuellen Codierung, ohne Genauigkeit einzubüßen.
Durch die hohen Anforderungen an Speicher und Rechenleistung sind herkömmliche VLMs für den Einsatz im Browser oder auf mobilen Geräten ungeeignet. Selbst wenn das Modell auf einem Server läuft, verursachen GPU-Infrastruktur und Energieverbrauch hohe Kosten. Gleichzeitig nimmt die Latenz zu, wenn eine Anwendung zwischen Client und Server Bilder übertragen muss. Diese Hürde motivierte die Entwicklung von FastVLM: einem VLM, das lokal und ressourcensparend arbeitet, ohne auf aufwendige Token-Pruning-Heuristiken zurückzugreifen, und dennoch konkurrenzfähige Genauigkeit bietet.
Das war die Leseprobe unseres heise-Plus-Artikels „Vision Language Model: Wie FastVLM hochauflösende Bilder im Browser analysiert“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
ARD: KI findet Einzug in öffentlich-rechtliche Radiosendungen
Die ARD führt KI-Stimmen für Teile ihres Radioangebotes ein. Ab dem 3. März sollen die Verkehrs- und Wettermeldungen in den gemeinschaftlichen Sendungen „Pop – Die Abendshow“ und „Popnacht“ demnach von einer KI vorgetragen werden. Akute Gefahrenmeldungen übernehme weiterhin die Live-Redaktion.
Weiterlesen nach der Anzeige
Die Abend- und Nachtprogramme werden auf den öffentlich-rechtlichen Sendern hr3, rbb 88.8, MDR JUMP, NDR 2, Bremen Vier, SR 1, SWR3 und WDR 2 gesendet. Die beiden Gemeinschaftsprogramme sind Anfang 2025 entstanden und haben bisher bundesweit einheitliche Verkehrs- und Wettermeldungen gesendet. Die KI soll nun je nach Sendegebiet regionalisierte Meldungen ermöglichen. Das Sounddesign der einzelnen Sender sowie regionale Nachrichten waren schon von Beginn an individuell. Produziert werden die Gemeinschaftsprogramme von SWR3.
Die KI trage dabei lediglich Texte vor, die von den entsprechenden Redaktionen geschrieben und überprüft worden seien. Eigene Meldungen formulieren oder Geschriebenes ändern dürfe sie hingegen nicht. Die ARD gibt an, das System solle keine menschlichen Mitarbeitenden ersetzen.
Die ARD erklärt zudem, dass von der KI vertonte Meldungen nur in Kombination mit einem entsprechenden Transparenzhinweis gesendet würden. Die Stimmen der KI sollen auf denen des echten Moderationsteams beruhen. „Entwickelt und konfiguriert wurde das KI-gestützte Datenverarbeitungs- und Sprachausgabesystem in enger Kooperation von SWR und WDR“, teilte die ARD mit. Dabei stünden Datenschutz und Sicherheit im Vordergrund.
Bei heise kommt im Podcast „Kurz informiert“ bereits seit 2022 eine KI-generierte Stimme der Moderatorin Isabel Grünewald zum Einsatz.
KI-Anteil in Radios nimmt zu
Bereits Anfang des Jahres haben ARD, ZDF, Deutschlandradio und Deutsche Welle einen gemeinsamen Grundsatzkatalog für die Nutzung von KI in redaktionellen Prozessen und in der Berichterstattung veröffentlicht. Der Einsatz von KI wird dabei nicht ausgeschlossen, jedoch an einen journalistischen Mehrwert, Nachhaltigkeit und Transparenz geknüpft.
Weiterlesen nach der Anzeige
In privaten Radios ist der Einsatz von KI weiter verbreitet, wie eine Recherche von heise zeigt. Besonders in der Nacht spielen einige private Radiosender hauptsächlich KI-generierte Lieder. Dahinter stecken vor allem kommerzielle Gründe, da für KI-generierte Musik keine Abgaben an die Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte (GEMA) anfallen.
(mho)
Künstliche Intelligenz
iPhone 17e: Ausstattungslücke beseitigt, Preis bleibt hoch
Zu iPhone 17 und 17 Pro gesellt sich das neue 17e: Apple hat das Einstiegsmodell am Montag neu aufgelegt. Es reiht sich damit in den typischen Jahresrhythmus ein, in dem der Hersteller seine anderen Smartphone-Modelle bereits aktualisiert. Äußerlich unterscheidet sich das 17e nicht vom 16e: Es basiert weiterhin auf dem Design des iPhone 13/14 mit einem 6,1-Zoll-OLED. Neu als Farbe ist neben Schwarz und Weiß nun Pink im Programm. Gängige Elemente der teureren Modelle fehlen weiterhin, darunter die Always-On-Funktion, das „Dynamic Island“ zur Anzeige von Hintergrundfunktionen und eine bis 120 Hz reichende Bildwiederholrate.
Weiterlesen nach der Anzeige
Meldung wird weiter aktualisiert.
(lbe)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
