Connect with us

Künstliche Intelligenz

Ex-Astronauten kritisieren Nasa für Hitzeschild der Orion-Kapsel bei Artemis-2


Ende 1972 war mit Apollo 17 der bisher letzte bemannte Flug zum Mond gestartet. Anfang Februar 2026 könnte es wieder so weit sein. Denn dann öffnen sich die ersten Startfenster für die Artemis-2-Mission.

Weiterlesen nach der Anzeige

In deren Rahmen sollen vier Astronauten in der Orion-Kapsel der NASA den Mond umrunden und anschließend zurückkehren. Eine Mondlandung ist erst mit Artemis 3 geplant. Dennoch ist die anstehende Mission nicht ganz risikofrei, wenn es nach Experten geht. Das Problem ist demnach der Hitzeschild der Kapsel, wie CNN berichtet.

Der Hitzeschild wurde 2022 bei der noch unbemannten Mondmission Artemis 1 beim Wiedereintritt in die Erdatmosphäre in Mitleidenschaft gezogen. Nach Abschluss entsprechender Untersuchungen des Vorfalls ist die NASA aber der Überzeugung, dass sie die Sicherheit der Besatzung gewährleisten könne – auch wenn ein Restrisiko bleibe.

Dazu soll es Änderungen bei der Rückkehr zur Erde geben. Hier hatte die NASA 2022 erstmals auf eine neue Wiedereintrittstechnik gesetzt, bei der die Kapsel über die Erdatmosphäre „springt“ – ähnlich wie ein flacher Stein über die Wasseroberfläche. Eine neue Wiedereintrittsbahn soll die Belastung für den Hitzeschild künftig merklich reduzieren.

Dem Hitzeschild-Experten und ehemaligen NASA-Astronauten Charlie Camarda scheint das Risiko derweil dennoch zu hoch zu sein. Er habe Monate damit verbracht, die US-Weltraumbehörde von seinen Warnungen zu überzeugen, schreibt CNN.

Weiterlesen nach der Anzeige

Weitere Experten sind ebenfalls überzeugt, dass es trotz der Änderungen zu Schäden an dem Hitzeschild kommen werde. Nicht alle sehen das aber als Gefahr für die Astronauten im Inneren der Kapsel. So gebe es eine zusätzliche Materialschicht, die die extremen Temperaturen von bis zu 2.800 Grad Celsius beim Wiedereintritt kurzzeitig aushalten könne.

Bei der Orion-Kapsel kommt zwar grundsätzlich die gleiche Schutzschicht zum Einsatz wie bei den Apollo-Missionen der 1960er- und 70er-Jahre. Allerdings wurden Material (Avcoat) und Design etwas verändert, um die Effizienz bei Fertigung und Einbau zu erhöhen. Die einstige Wabenstruktur ist einer Blockstruktur gewichen.

Letztlich scheint allen Befürchtungen zum Trotz das Vertrauen der NASA-Ingenieure in den bestehenden Hitzeschild groß genug, um die Mission trotz eines gewissen Restrisikos zu starten. Und auch Kritiker Camarda sieht eine sichere Rückkehr als wahrscheinlich an. Aber: Ein sicherer Flug könne die NASA auf Dauer in falscher Sicherheit wiegen.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Künstliche Intelligenz

Automatisierte Accessibility-Prüfung im Web: Möglichkeiten und Grenzen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit dem European Accessibility Act (EAA) und seiner nationalen Umsetzung durch das Barrierefreiheitsstärkungsgesetz (BFSG) gelten seit Juni 2025 in Deutschland verbindliche Anforderungen für zahlreiche digitale Produkte und Dienstleistungen. Parallel dazu wurden die organisatorischen Voraussetzungen geschaffen: Die zuständige Marktüberwachungsbehörde ist eingerichtet und nimmt schrittweise ihre Arbeit auf. Damit rückt Barrierefreiheit für viele Unternehmen erstmals in den konkreten Fokus von Compliance, Risikoabwägung und Produktverantwortung.

Weiterlesen nach der Anzeige


Maria Korneeva

Maria Korneeva

Maria Korneeva ist Frontend Technology Lead und Google Developer Expert mit Fokus auf Angular und Barrierefreiheit. Sie arbeitet freiberuflich an Frontend-Anwendungen, leitet Workshops und teilt ihre Erfahrungen auf Konferenzen und Meetups sowie in ihrem Buch „Barrierefreie Webentwicklung: von den Grundlagen bis zur praktischen Umsetzung“.

Und es wächst der Wunsch nach effizienten, skalierbaren Lösungen. Viele Organisationen hoffen auf automatisierte Accessibility-Checks als schnellen und möglichst vollständigen Weg zur Konformität. Entsprechend populär sind Linter, Browser-Extensions, CI/CD-Integrationen und KI-gestützte Prüfwerkzeuge. Automatisierung ist dabei ein wichtiges und sinnvolles Werkzeug – doch sie hat klare technische Grenzen.

Denn zahlreiche Barrieren lassen sich nicht maschinell erkennen. Sie entstehen durch fehlenden Kontext, unklare Bedeutung, komplexe Interaktionen oder mangelnde Verständlichkeit – Aspekte, die menschliches Urteilsvermögen erfordern. Dieser Artikel zeigt, welche Arten von Accessibility-Tools es gibt, welche Aufgaben sie sinnvoll übernehmen können und warum ein erheblicher Teil der Barrieren auch mit modernster Automatisierung unsichtbar bleibt.

Um die Möglichkeiten und Grenzen automatisierter Barrierefreiheitsprüfungen zu verstehen, lohnt sich zunächst ein Blick auf die unterschiedlichen Werkzeugtypen und darauf, welche Aspekte von Accessibility sie jeweils erfassen können.

Linter sind statische Analysetools für Quellcode. Sie erkennen syntaktische oder strukturelle Fehler, etwa ob ein alt-Attribut fehlt oder ein Button kein Label besitzt. Allerdings haben sie keine Kenntnis darüber, wie sich Seiten im Browser verhalten, wie Fokusabläufe funktionieren oder ob interaktive Komponenten korrekt reagieren. Statische Tools sehen nur Code – nicht Nutzung.

Weiterlesen nach der Anzeige

Browser-Extensions analysieren hingegen das Document Object Model (DOM) im gerenderten Zustand und können so mehr erkennen als statische Analyzer. Dennoch bleiben sie „Snapshot-Tools“: Sie bewerten einen Zustand, aber nicht die Interaktion über mehrere Schritte hinweg. Komplexe Fokusänderungen, Tastaturfallen oder dynamisch aktualisierte Inhalte bleiben typischerweise unsichtbar.

Unit-Test-Plug-ins sind nützlich, um bestimmte einzelne Komponenten auf Barrieren zu prüfen. Allerdings decken Unit-Tests die Funktionalität (zum Beispiel Tastaturbedienbarkeit) nur einer Komponente ab und bilden typischerweise keine vollständigen Nutzerflows ab.

End-to-End-Testtools bieten eine größere Abdeckung. Sie können komplexere Interaktionen simulieren, etwa die Fokussteuerung beim Öffnen und Schließen eines Modals, also eines Dialogs, der sich über die Inhalte der Seite legt und oft eine zusätzliche Aktion beinhaltet. An solche Testszenarien müssen Entwicklerinnen und Entwickler jedoch selbst denken. Werden Accessibility-Plug-ins integriert, lassen sich einige Aspekte automatisiert prüfen. Das umfangreichste Ergebnis erhält man, indem man Testfälle für wichtige Prozesse selbst schreibt und zusätzlich verschiedene Zustände seiner Website über automatisierte Plug-ins prüfen lässt. Doch auch dann bleibt ein grundsätzliches Problem: End-to-End-Tests wissen nicht, ob ein Bedienablauf „logisch“ oder „verständlich“ ist. Sie führen Befehle aus – aber sie „erleben“ die Nutzung nicht so, wie es ein Mensch tut.

CI/CD-Scanner automatisieren Prüfungen im Build- oder Deployment-Prozess. Sie eignen sich besonders gut dafür, typische fehlerhafte Muster frühzeitig aufzudecken und Regressionen zu vermeiden. Ihre Grenzen sind jedoch die gleichen wie die der zugrunde liegenden Tools. Ob man Linter, Browsererweiterungen, Unit-Tests oder End-to-End-Tests einbindet: Sie prüfen Code, Struktur und einfache Interaktionen – aber keine komplexen Navigationsabläufe oder inhaltlichen Bedeutungen.

Alle diese Werkzeuge leisten wertvolle Beiträge im Entwicklungsprozess. Doch wie viel Testaufwand lassen sie noch übrig?


enterJS 2026

enterJS 2026

(Bild: jaboy/123rf.com)

Mehr über Accessibility im Web erfährst du auf der enterJS 2026 am 16. und 17. Juni in Mannheim. Die Konferenz dreht sich rund um die JavaScript/TypeScript-Entwicklung im Enterprise-Bereich. Vergünstigte Frühbuchertickets sind im Online-Ticketshop erhältlich.

Mehrere Studien haben untersucht, wie hoch der Anteil der Barrieren ist, den automatisierte Tools tatsächlich erkennen können. Eine umfassende Analyse des Accessibility-Software-Anbieters Deque Systems ergab 2024, dass dessen automatisierte Tests etwa 57 Prozent aller Accessibility-Probleme in realen Audits identifizieren konnten. Mit KI-Unterstützung will das Unternehmen sogar gut 80 Prozent erreicht haben.

Accessibility-Praktikerinnen und -Praktiker sehen die Wirksamkeit der automatisierten Tools deutlich eingeschränkter und schätzen, dass sich nur 20 bis 40 Prozent der potenziellen Barrieren technisch erkennen lassen. Mehrere Expertinnen und Experten, darunter Adrian Roselli und Steven Faulkner, berichten aus umfangreichen Feldtests, dass automatisierte Checks sogar nur 4 bis 10 Prozent der wirklichen Probleme erkennen.

Womit lässt sich diese Diskrepanz in den Schätzungen erklären? Natürlich unterscheiden sich die Zahlen der Marketing-Abteilung und der unabhängigen Accessibility-Beratung, weil sie damit unterschiedliche Ziele verfolgen. Auch die absichtlich eingefügten Bugs, die die Testseiten enthalten, unterscheiden sich, und somit auch die Testergebnisse. WCAG-Versionen (Web Content Accessibility Guidelines), genutzte Tools – all das sorgt für eine hohe Varianz in Schätzungen.

Trotz der Unterschiede zeigen diese Zahlen eindeutig, dass die existierenden Tools noch nicht hundertprozentig beurteilen können, ob eine Website barrierefrei ist. Selbst die formelle Prüfung der WCAG-Kriterien ist noch nicht zu 100 Prozent automatisiert möglich.

Auch wenn Barrierefreiheit deutlich mehr als stupide Einhaltung der WCAG-Erfolgskriterien erfordert, stellen diese Richtlinien eine fundierte Checkliste zum Einstieg dar. Die darin enthaltenen Anforderungen betreffen sowohl die technische als auch die semantische Seite der Inhalte, das heißt, wie sie programmatisch zur Verfügung gestellt werden und wie verständlich sie formuliert sind.

Automatisierte Accessibility-Tools können in erster Linie Strukturen, Muster und technische Eigenschaften prüfen. Sie erkennen fehlende Attribute, inkorrekte Rollen oder syntaktische Fehler – aber sie verstehen nicht, was Inhalte bedeuten, wie Nutzerinnen und Nutzer mit einer Anwendung interagieren oder wie logisch ein Interface aufgebaut ist.

Deswegen lohnt sich der Blick auf die WCAG-Kriterien aus folgender Perspektive: Welche Anforderungen betreffen nicht nur Strukturen und formelles Vorhandensein von bestimmten Elementen, sondern auch Aspekte wie intuitive Nutzung, Interpretation, Kontext und Relevanz? Dabei stehen die Kriterien der Konformitätsstufen A und AA (siehe Infokasten) im Fokus, da sie von sämtlichen Barrierefreiheitsgesetzen als rechtliche Anforderung genannt werden. Die WCAG-Richtlinien basieren auf den Grundprinzipien der Barrierefreiheit für Webinhalte – Wahrnehmbarkeit, Bedienbarkeit, Verständlichkeit und Robustheit. Rund um diese Prinzipien sind auch die Beispiele in diesem Artikel gruppiert.

Die Web Content Accessibility Guidelines (WCAG) sind ein internationaler Standard des World Wide Web Consortium (W3C) zur barrierefreien Gestaltung von Webinhalten. Sie definieren prüfbare Erfolgskriterien, die sich an vier Grundprinzipien orientieren: wahrnehmbar, bedienbar, verständlich und robust.

Die WCAG unterscheiden drei Konformitätsstufen, die unterschiedliche Ebenen von Wirkung, Aufwand und fachlicher Komplexität der Anforderungen beschreiben:

  • Stufe A
    Anforderungen mit grundlegender Wirkung auf die Barrierefreiheit und vergleichsweise geringem Umsetzungsaufwand. Ohne ihre Erfüllung ist eine Nutzung für viele Menschen mit Behinderungen kaum oder gar nicht möglich (z. B. Alternativtexte für Bilder, Tastaturbedienbarkeit).
  • Stufe AA
    Anforderungen mit hoher Wirkung für eine breite Nutzer:innengruppe, die zentrale Barrieren im Nutzungskontext abbauen, aber bereits ein höheres Maß an gestalterischem, redaktionellem und technischem Barrierefreiheits-Know-how erfordern (z. B. ausreichende Farbkontraste, verständliche Beschriftungen, konsistente Navigation).
    Diese Stufe gilt in der Praxis als maßgeblicher rechtlicher Standard und wird von nahezu allen Barrierefreiheitsgesetzen gefordert.
  • Stufe AAA
    Anforderungen mit sehr spezifischer Wirkung für einzelne Nutzergruppen, die mit hohem konzeptionellem, technischem oder organisatorischem Aufwand verbunden sind und daher nicht für alle Inhalte realistisch umsetzbar sind (z. B. Gebärdensprachversionen).



Source link

Weiterlesen

Künstliche Intelligenz

Frankreichs Parlament für Social-Media-Verbot unter 15


Die französische Nationalversammlung hat für ein Nutzungsverbot sozialer Netzwerke für Kinder und Jugendliche unter 15 Jahren gestimmt. Die Abgeordneten in Paris nahmen am Montagabend einen entsprechenden Gesetzesvorschlag an. Er sieht vor, dass „der Zugang zu einem von einer Onlineplattform bereitgestellten Onlinedienst für ein soziales Netzwerk“ für Minderjährige unter 15 Jahren verboten ist. Der Text muss noch im Senat abgestimmt werden, der anderen Parlamentskammer.

Weiterlesen nach der Anzeige

Welche sozialen Medien konkret vom Verbot betroffen wären, lässt die verabschiedete Formulierung offen. Klargestellt wird lediglich, dass „Online-Enzyklopädien“ sowie „Bildungs- oder Wissenschaftsverzeichnisse“ davon ausgenommen sein sollen. Auch private Messengerdienste sollen nicht betroffen sein.

Der ursprünglich eingebrachte Text, über den die Abgeordneten debattierten, ging weniger weit: Er sah vor, dass bestimmte Seiten mit Erlaubnis der Eltern auch weiterhin hätten genutzt werden können. Das ist nun nicht mehr der Fall.

Der Gesetzesvorschlag wurde in der Nationalversammlung vor allem vom Lager des französischen Präsidenten Emmanuel Macron unterstützt. Nach der Abstimmung teilte Macron auf der Plattform X mit: „Das ist es, was Wissenschaftler empfehlen, und das ist es, was die Franzosen in großer Mehrheit fordern.“

Der Staatschef will, dass die Regelung bereits zum nächsten Schuljahr greift. „Ab dem 1. September werden unsere Kinder und Jugendlichen endlich geschützt sein. Dafür werde ich sorgen“, schrieb Macron.

Weiterlesen nach der Anzeige

Frankreich hatte bereits vor einigen Jahren versucht, ein Mindestalter von 15 Jahren dafür einzuführen, dass Jugendliche ohne Erlaubnis ihrer Eltern ein eigenes Konto auf sozialen Netzwerken anlegen können. Das Gesetz konnte wegen der europäischen Rechtslage aber nicht angewandt werden. Ob die neuen Regeln dem aktuellen EU-Recht standhalten, muss sich noch zeigen.

Das Europäische Parlament stimmte vergangenes Jahr mit deutlicher Mehrheit für die Forderung nach einem EU-weiten Mindestalter. Der verabschiedete Bericht hat aber bislang keine bindende Wirkung.

Sollte das Gesetz in Frankreich endgültig verabschiedet werden, wäre Deutschlands Nachbar eines der ersten Länder, das derart restriktive Vorgaben für Minderjährige einführt. In Australien dürfen Kinder und Jugendliche unter 16 Jahren seit Kurzem keine eigenen Social-Media-Konten mehr auf vielen großen Plattformen haben.

In Großbritannien stimmte das Oberhaus in der vergangenen Woche ebenfalls für ein Social-Media-Verbot bis 16 Jahre, das jetzt noch durch das von der Regierungspartei Labour dominierte Unterhaus muss. In Dänemark verständigte sich die Regierung mit der Opposition darauf, eine nationale Altersgrenze von 15 Jahren für den Zugang zu bestimmten sozialen Medien einzuführen.

Und auch in Deutschland gibt es eine Debatte darüber, ob der Zugang zu sozialen Medien für Kinder eingeschränkt werden sollte.


(dahe)



Source link

Weiterlesen

Künstliche Intelligenz

Nordsee soll „größter Energie-Hub der Welt“ werden


Deutschland und andere Anrainerstaaten der Nordsee wollen den Ausbau von Windenergie-Anlagen vor den Küsten vorantreiben. In einer Hamburger Erklärung von Staats- und Regierungschefs zum Nordsee-Gipfel heißt es, die Nordsee solle „zum weltgrößten Drehkreuz“ für saubere Energie gemacht werden. Vor allem die grenzüberschreitende Zusammenarbeit bei Windparks soll gestärkt werden. Das soll den Ausbau effizienter machen und Kosten senken.

Weiterlesen nach der Anzeige

Bundeskanzler Friedrich Merz sagte: „Die Beschlüsse, die wir heute hier in Hamburg getroffen haben, werden unsere Energieversorgung sicherer, kostengünstiger und integrierter machen.“ Unterzeichnet wurde die Erklärung von Deutschland, den Niederlanden, Belgien, Dänemark, Norwegen, Frankreich, Großbritannien sowie Irland und Luxemburg.

Der Ausbau der Windkraft in der Nordsee soll Europa auch unabhängiger von anderen Energielieferungen machen. In Hamburg schlossen die Nordsee-Anrainerländer einen Investitionspakt mit der Windindustrie und den Netzbetreibern. Bedingungen für Investitionen sollen verbessert werden. Geplant sind Windparks mit einer Stromanbindung an mehr als ein Land. Die Nordsee-Staaten einigten sich darauf, bis zu 100 Gigawatt Erzeugungsleistung grenzüberschreitend zu vernetzen. „Unser Ziel ist es, den größten Energie-Hub der Welt zu entwickeln“, sagte Wirtschaftsministerin Katherina Reiche (CDU).

In der Investitionsvereinbarung werden der Industrie Ausschreibungen für Windkraftanlagen in der Nordsee über 2030 hinaus zugesichert und damit Planungssicherheit hergestellt. Im Gegenzug verpflichtet sich die Branche, die Gesamtkosten für die Stromerzeugung bis 2040 um 30 Prozent zu senken. Zudem sollen bis 2030 in Europa 9,5 Milliarden Euro in neue Produktionskapazitäten investiert und 91.000 zusätzliche Arbeitsplätze geschaffen werden.

Im vergangenen Jahr lag der Anteil der Offshore-Windparks an der Deckung des Stromverbrauchs in Deutschland nach Angaben der Energiebranche bei rund 5 Prozent. Insgesamt deckten erneuerbare Energien fast 56 Prozent des Stromverbrauchs – den höchsten Anteil hatten Windräder an Land, gefolgt von Solaranlagen. Der Anteil der Windkraft auf See am Strommix könnte bis 2045 Prognosen zufolge auf etwa 20 Prozent steigen.

Weiterlesen nach der Anzeige

Nach Angaben des europäischen Windverbands Wind Europe können derzeit bereits 32 Millionen Haushalte aus Offshore-Windenergie mit Strom versorgt werden. Bei 300 GW im Jahr 2050 könnte die Zahl auf mehr als 330 Millionen wachsen.

Mit dem Ausbau der Windenergie-Gewinnung soll auch die Sicherheit der Energie-Infrastruktur in der Nordsee gestärkt werden. „Nicht erst seit dem Angriffskrieg Russlands auf die Ukraine sehen wir zunehmende Angriffe auf unsere kritische Infrastruktur“, sagte Reiche. Stromnetze, Pipelines, wichtige Datenkabel, die für die digitale Souveränität des Kontinents von entscheidender Bedeutung seien, würden angegriffen.

Die Gipfel der Nordsee-Anrainer waren 2022 als Reaktion auf die russische Invasion in der Ukraine ins Leben gerufen worden. Beim ersten Treffen 2022 in Esbjerg in Dänemark ging es darum, Gas- und Öl-Lieferungen aus Russland so schnell wie möglich auch mit Hilfe erneuerbarer Energien zu ersetzen. „Jetzt ist der Zeitpunkt für den Aufbruch, und jetzt brechen wir auf“, sagte Bundeskanzler Olaf Scholz (SPD) damals.

Beim Nordsee-Gipfel 2023 wurde beschlossen, die Nordsee zum „grünen Kraftwerk für Europa“ auszubauen. Ziel ist es, bis 2050 gemeinsam bis zu 300 Gigawatt (GW) Leistung in der Nordsee zu installieren. Davon ist man aber noch weit entfernt. Stand Oktober 2025 haben die Anrainerstaaten nach Angaben des Bundesamts für Seeschifffahrt und Hydrographie ungefähr 35 GW Leistung installiert. Das entspricht gut einem Zehntel des Ausbauziels. Die größte Kapazität hat Großbritannien mit rund 15 GW Leistung. Auf Deutschland entfallen 7,3 GW und auf die Niederlande 4,5 GW.

An dem Gipfel nahmen zehn Staaten teil – sieben Nordsee-Anrainer sowie Irland, Island und Luxemburg, das zwar keinen Meter Küste hat, sich aber an der Windkraft-Finanzierung beteiligt. Der französische Präsident Emmanuel Macron hatte nach Angaben aus dem Élysée-Palast aus Termingründen abgesagt und auch der britische Premierminister Keir Starmer kam nicht nach Hamburg.

Gastgeber Merz hatte bereits vor dem Gipfel gefordert, die Nordsee solle zum „größten Reservoir für saubere Energie weltweit“ werden. Im Wahlkampf hatte sich der CDU-Chef aber noch abschätzig zur Windenergie geäußert. „Ich glaube sogar, dass wir, wenn wir was richtig machen, eines Tages die Windkrafträder wieder abbauen können, weil sie hässlich sind und weil sie nicht in die Landschaft passen“, sagte er im November 2024 im ZDF. Im Koalitionsvertrag mit der SPD wurde der Ausbau der Windkraft und auch die Kooperation mit den anderen Nordseeanrainern dann aber fest verankert.

In Hamburg sagte Merz dazu, er habe immer differenziert zwischen Wind an Land und Wind auf See. Er komme aus einem Wahlkreis, in dem der Ausbau der Windenergie sehr umstritten sei, weil er das Landschaftsbild stark verändere. Merz hat seinen Wahlkreis im Sauerland. Der Kanzler bezeichnete die Windkraft erneut als „Übergangstechnologie“: „Die wird uns 10 Jahre, 20 Jahre, vielleicht 30 Jahre begleiten.“

Merz verwies auf den Koalitionsvertrag, dass Deutschland den ersten Fusionsreaktor der Welt ans Netz nehmen wolle. „Wenn man in der Lage sei, Fusionsenergie zu erzeugen, werde Strom sehr günstig, machte Merz deutlich. „Und dann wird es in diesem Umfang andere Energieerzeugungsmethoden wahrscheinlich nicht mehr brauchen.“ Dies sei aber Zukunftsmusik.

Die Umweltverbände fordern, dass der Ausbau der Windkraft nicht zulasten der Natur gehen darf. „Einige Akteure haben beim Ausbau der Windenergie auf See das Maß verloren“, sagt der Meeresexperte des Naturschutzbundes (Nabu) Kim Detloff. „Ökologische Auswirkungen von massiven Lebensraumverlusten vieler Seevögel bis zu irreversiblen Veränderungen des Ökosystems Nordsee drohen unbeherrschbar zu werden.“ Das Narrativ des „Kraftwerks Nordsee“ sei fatal.


(mho)



Source link

Weiterlesen

Beliebt