Connect with us

Künstliche Intelligenz

Missing Link: Letzte Schule Berlins hat Glasfaseranschluss – und nun?


Die älteren unter den Lesern erinnern sich noch gut: 1996 waren es Telekom-Chef Ron Sommer und der „Zukunftsminister“ Jürgen Rüttgers, welche die Parole „Schulen ans Netz“ ausriefen – zu einer Zeit, als das im besten Fall für Schulen noch ISDN meinte. Die Schulen wollten oft, aber bis es soweit war, vergingen teils viele Jahre. Aus ISDN wurde DSL, dann VDSL und manchmal Kabelinternet. Dabei ist spätestens mit dem Coronakrisenjahr 2020 auch den letzten klar: Glasfaser wäre auch für die meisten Schulen dringend nötig. 30 Jahre nach dem Start von „Schulen ans Netz“, der gleichnamige Verein ist längst abgewickelt, hat sich das Problem weiterentwickelt – und vieles bleibt weiterhin ungelöst. Doch das scheint weniger eine Frage der Technik.

Weiterlesen nach der Anzeige

Hellersdorf gilt nicht oft als Vorzeigegegend Berlins. Aber nur wenige Meter vor der Berliner Stadtgrenze zu Ahrensfelde in Brandenburg, die vor allem durch ein riesiges Einkaufszentrum im Nachbarbundesland sichtbar ist, steht eine Schule, in der die Digitalisierung ziemlich angekommen ist. Ob Großmembranmikro, Greenbox, Schnittcomputer und Sprecherkabine für die Medienproduktion, Lego-Robotik oder mehrere 3D-Drucker und eine bunte Auswahl an Filamenten: an der Ernst-Haeckel-Schule ist einiges möglich. Und zumindest einige Schüler sind stark begeistert von dem, welche Möglichkeiten sich ihnen hier bieten. Nur eine Kleinigkeit, die fehlte bislang – und das war eher schmerzhaft.

Denn der Schule fehlte eines: eine schnelle Glasfaseranbindung. Und das sei heutzutage definitiv kein „nice to have“, bekräftigt Kai Baumeister, der die Schule mit ihren fast 1.000 Schülern leitet, sondern ein zwingendes Muss. „Wir leben in einer digitalen Gesellschaft, Schülerinnen und Schüler wachsen ganz selbstverständlich mit Smartphones, Plattformen und digitalen Werkzeugen auf. Und Schule darf das nicht ignorieren, sondern muss das mitgestalten.“ Und dafür brauche sie eben auch selbst wirklich schnelles und verlässliches Internet.




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

An diesem Freitagmorgen sitzt Baumeister neben Vertretern des Landes und des Bezirks als eigentlich für die Schulinfrastruktur zuständiger Verwaltungseinheit und einer Vorständin des IT-Dienstleistungszentrums Berlin. Denn seine Schule war die letzte, die nun in Berlin per Glasfaser versorgt wurde. Denn sie liegt auf schwierigem Terrain, in wahrstem Sinne des Wortes – Fernwärmerohre, Straßenbahngleise, ein Naturschutzgebiet, all das umgibt die Schule.

Für die Berliner Landespolitik ist das, was viele IT-affine Menschen als selbstverständlich erachten würden, ein großer Erfolg. Denn eine der größten Schwierigkeiten wurde dabei geknackt. „Wenn wir das als Bezirk selber hätten machen müssen, in allen 50 Schulen Breitbandinternet selber legen zu müssen, hätten wir heute hier nicht gesessen, befürchte ich“, sagt der Bezirks-Schulstadtrat von Marzahn-Hellersdorf Stefan Bley. Berlin hat in gewisser Weise einen Workaround für seine Verwaltungszuständigkeiten erarbeitet: Das Land hat den eigenen Dienstleister beauftragt, das IT-Dienstleistungszentrum. Das hat den Bezirken, die in Berlin zwar keine echten Kommunen wie in anderen Bundesländern, aber ähnlich wie diese als Träger für die Schulen verantwortlich sind, ein unwiderstehliches Angebot gemacht: Wir bringen Eure Schulen ans Netz und kümmern uns anschließend darum – schließen einen Rahmenvertrag. Wer sollte da nein sagen? Die Berliner Bezirke und ihre Schulen jedenfalls nicht.

Weiterlesen nach der Anzeige


Foto von Vertretern vor der Presse, sitzend an einem langen Tisch

Foto von Vertretern vor der Presse, sitzend an einem langen Tisch

Überraschung: Im Bildungsbereich kann auch etwas Hand in Hand gelingen – trotz verschiedenster Zuständigkeiten und Finanzierungstöpfe. Die Beteiligten zeigten sich bei der Pressekonferenz gutgelaunt.

(Bild: ITDZ Berlin/ Stadt I Land I Mensch – FOTOGRAFIE)

Denn damit werden gleich drei Dauerprobleme adressiert: Schulleitungen sind meist keine guten IT-Administratoren, Kommunen haben in vielen Fällen weder die Expertise noch die Erfahrung, um IT für Schulen auszurollen und zu betreiben. Und das dritte gelöste Problem: die Finanzierungsseite. Denn der Großteil der Kosten wurde nun erst einmal aus Mitteln des Digitalpakts Schule finanziert, dessen Nachfolger nach wie vor nicht zwischen Bund und Ländern in allen seinen Feinheiten ausverhandelt ist. Was nun liegt, verursacht nur noch Wartungs- und Instandhaltungskosten. Auch nicht zu vernachlässigen: Im Rahmen des Ausbaus hat das landeseigene ITDZ hier eine zentrale Aufsichtsrolle – und einen entsprechenden Wartungsvertrag abgeschlossen.

Fünf Jahre nachdem der Berliner Senat den Plan gefasst hatte, ist die Ernst-Haeckel-Schule als letzte von 700 öffentlichen Schulen nun mit einem symmetrischen 1-Gigabit-Glasfaserzugang angeschlossen. Zwei beleuchtete Fasern seien es derzeit in einem an der Schule ankommenden 12-Faser-Bündel, es wäre also auch noch etwas Reserve da, erläutern die Verantwortlichen in Berlin. „Wir monitoren die Netze und aktuell ist das ausreichend. Wir haben jetzt noch keine Peaks, wo wir irgendwelche Engpässe sehen würden“, erklärt ITDZ-Vorständin Maria Borelli, deren Haus für alle Schulen nun die Anbindung im Blick hat.

Die Beteiligten freuen sich ernsthaft, denn anders als bei Flughäfen, Bahnhöfen oder Bahnstrecken ist die Meldung dieses Mal: Über 700 Schulstandorte seien vorfristig und sogar etwas unterhalb des vorgesehenen Budgets angebunden und das Projekt abgeschlossen worden, so Torsten Kühne, der als Staatssekretär bei der Bildungssenatorin für das Land Berlin zuständig ist. Und bei vielen der Schulen wurden auch gleich die Verkabelungen und WLAN-Installationen neugestaltet.

„Aus unserer Sicht ist das alles nicht so perfekt“, sagt Lilo Kranich vom Landesschülerausschuss Berlin im Gespräch mit heise online. „Das Hauptproblem: Wir haben in Berlin krass sanierungsbedürftige Gebäude oder Altbauten, wo das WLAN nicht durch Wände kommt.“ Berlins Schulen sind ein Dauerproblemfall – und die Bautätigkeiten sind berüchtigt. Ein Problem, das zumindest der Modulbau in Hellersdorf, der das eigentliche Schulgebäude ergänzt, so aber nicht hat: Das WLAN funktioniere, berichten die Schüler vor Ort. Aber die Scheiben schirmen stattdessen den Mobilfunkempfang ab.

In einer Zeit, in der Smartphones aus den Schulräumen weitgehend verbannt werden und Social-Media-Verbote für Minderjährige gerade politisch sehr beliebt sind, wirkt eine solche Vollzugsmeldung wie die Gigabitanbindung der Schulen in Berlin irritierend. Denn der nächste und auch mit guter technischer Planung schwer zu lösende Problemfaktor liegt woanders: bei der Lehre. 1 Gigabit symmetrisch, aber wofür?

„Jede Schule ist komplett unterschiedlich digital ausgestattet und nutzt die Möglichkeiten – oder auch nicht“, erläutert Kranich. „Teils ist das je nach Klasse, Stufe oder Schule verschieden.“ Einige Schulen, die etwa zur Coronazeit mit der verstärkten Remote-Schul-Praxis gut aufgestellt waren, würden immer noch sehr aktiv digitale Möglichkeiten nutzen, und andere eben nicht. Die Schülervertreter fordern ein Gesamtkonzept zur digitalen Schule, das die verantwortlichen Politiker bis heute aber nicht vorgelegt haben.

Auch für den Hellersdorfer Lehrer Kai Baumeister ist es zentral, nicht bei der Anbindung aufzuhören. „Für uns als Schule ist es eine Aufgabe, zumindest hier eine digitale Umgebung zu schaffen, die für alle Schüler gleich ist und damit Chancengerechtigkeit für unsere sehr heterogene Schülerschaft besteht“, schildert er eine Herausforderung. Bei Social Media hätten alle Akteure gesehen, wie man es nicht machen solle. „Bei KI können wir alle zusammen das nur besser machen“, sagt Baumeister – und will mit seinen Lehrerinnen und Lehrern, aber auch den Schülerinnen und Schülern einen smarteren Umgang damit erreichen. „Wir als Schule sind diejenigen, die sie dahin begleiten werden“, sagt Baumeister. „Die Schüler sollen den Umgang mit KI nicht nur technisch lernen, sondern vor allen Dingen auch ethisch und kritisch reflektiert.“ Die Nutzung von KI in der Schule durch Lehrkräfte etwa sei auch erst noch am Anfang – etwa wenn Lehrkräfte selbstgeschriebene Geschichten ihrer Schüler per KI-Tool illustrieren ließen. Dafür allerdings bräuchte es dann eben auch wieder Rechner, mit denen solche Tools genutzt werden könnten.

Pragmatisch wolle der politisch verantwortliche Senat das KI-Thema angehen, schildert Staatssekretär Torsten Kühne, auf eine Goldrandlösung zu warten, sei keine Option. Weshalb man nach den ersten Handlungsempfehlungen für KI-Anwendungen im Unterricht auch darüber hinaus eine Integration in den schulischen Alltag anstrebe, wo sinnvoll. „Die Technologie ist weiter als der Rechtsrahmen“, sagt Kühne, etwa mit Blick auf Copilot, was Berlins Lehrer unter Berücksichtigung der Vorschriften nutzen dürfen. Telli, ein KI-Chatbot der unterschiedliche Modelle datenschutzkonform nutzbar machen soll und auf den Schulkontext angepasst ist, steht im Stadtstaat Berlin – anders als in anderen Bundesländern – derzeit noch nicht zur Verfügung.

Doch dass die KI-Ideen so wie alle anderen Digitalideen vorher im Unterricht ankommen, hängt vor allem von etwas anderem ab: Lehrerinnen und Lehrer. Ein wesentlicher Teil von ihnen ist im Kreidezeitalter, an Polylux-Overhead und Medienwagen ausgebildet worden. Tatsächlich geht es dabei nach Schilderungen vieler Beteiligter, von Schülern über Lehrer bis zu zuständigen Politikern, auch um eine Art Schamgrenze bei den Lehrkräften. Vor Schülerinnen und Schülern die eigene Unsicherheit im Umgang mit neuen Technologien offenzulegen und hier von diesen zu lernen, das ist für viele mindestens gewöhnungsbedürftig – wenn überhaupt mit der Rolle vereinbar.

Es gehe derzeit darum, moderne pädagogische Konzepte in Zeiten von KI und adaptiver intelligenter Systeme zur Anwendung zu bringen, sagt der Berliner Staatssekretär Torsten Kühne. Das solle vor allem über Fortbildungsmöglichkeiten geschehen. Fast alle Bundesländer bieten ihren Lehrerinnen und Lehrern eine Vielzahl an Fortbildungen an, mit denen sie bei digitalen Kompetenzen aufholen könnten. In Berlin würden diese gut angenommen, berichtet der Bildungsstaatssekretär.

Wie denn die Integration in den normalen Schulunterricht bei solchen Möglichkeiten wie etwa 3D-Druck aussehe, wird noch bei dem Pressetermin gefragt. Ein Möbiusband etwa für den Mathekurs, das sei hier gedruckt worden, erklärt ein Schüler, sichtlich stolz. An den Schülerinnen und Schülern liegt es offenkundig nicht, wenn nach dem „Schulen ans Netz“ auch nach 30 Jahren nicht direkt eine pädagogisch sinnvolle Nutzung möglich ist.


(kbe)



Source link

Künstliche Intelligenz

OpenAI stellt GPT-Rosalind vor: KI-Modell speziell für Biologieforschung


OpenAI hat ein neues KI-Modell speziell für die Lebenswissenschaften angekündigt. GPT-Rosalind – benannt nach der DNA-Forscherin Rosalind Franklin – ist auf Biologie, Wirkstoffentdeckung und translationale Medizin zugeschnitten, also der Umsetzung von Forschungsergebnissen in der Gesundheitsversorgung. Das Frontier-Reasoning-Modell soll Forschern bei der Evidenzsynthese, Hypothesengenerierung und Experimentplanung helfen und damit frühe Phasen der Medikamentenentwicklung beschleunigen, die in den USA typischerweise zehn bis 15 Jahre dauern.

Weiterlesen nach der Anzeige

Wie OpenAI in seinem Blog erläutert, versteht GPT-Rosalind vertiefte Zusammenhänge in Chemie, Protein-Engineering und Genomik. Zudem kann das Modell über ein neues Life-Sciences-Plug-in für Codex auf mehr als 50 wissenschaftliche Tools und Datenquellen zugreifen. Damit reiht es sich in die Strategie ein, nach GPT-5.4-Cyber für die IT-Sicherheit nun auch andere Fachdomänen mit spezialisierten Modellen zu bedienen.

In internen Tests übertrifft GPT-Rosalind laut OpenAI seine Vorgängermodelle GPT-5, GPT-5.2 und GPT-5.4 in Bereichen wie Chemie, Protein-Biochemie, Phylogenetik und Tool-Nutzung. Im Bioinformatik-Benchmark BixBench erreicht es eine Pass-Rate von 0,751 – den höchsten Wert unter den verfügbaren Modellen. Bei LABBench2, einem Benchmark für Literaturrecherche und Protokolldesign, schneidet es in sechs von elf Aufgaben besser ab als GPT-5.4. In einer Zusammenarbeit mit Dyno Therapeutics landeten die Top-10-Vorhersagen des Modells bei der RNA-Sequenz-Prädiktion im 95. Perzentil verglichen mit menschlichen Experten.

OpenAI betont, das Modell gezielt auf Skepsis getunt zu haben, um Halluzinationen und Überkonfidenz zu reduzieren. Die generierten Ergebnisse sollen Forscher ausdrücklich als vorläufig behandeln und eigenständig validieren. Rollenbasierte Zugriffskontrollen und ein „Trusted Access Program“ regeln, wer das Modell nutzen darf – derzeit beschränkt sich der Zugang auf qualifizierte US-Enterprise-Kunden.

Zu den ersten Partnern gehören Amgen, Moderna, das Allen Institute und Thermo Fisher Scientific. OpenAI kündigt GPT-Rosalind als erstes Modell in einer Serie an: Künftige Versionen sollen langfristige, werkzeugintensive Forschungsworkflows noch besser unterstützen. Ob die quantifizierbaren Benchmark-Verbesserungen sich tatsächlich in kürzere Entwicklungszeiten für Medikamente übersetzen lassen, muss die Praxis zeigen.

Weiterlesen nach der Anzeige

GPT-Rosalind tritt in einen zunehmend umkämpften Markt ein. Anthropic bietet mit Claude for Life Sciences ein vergleichbares Produkt an, während Google DeepMinds AlphaFold sich auf Proteinfaltung spezialisiert hat. Im deutschsprachigen Raum arbeitet das Start-up Puraite an erklärbarer KI für die Evidenzsynthese – ein Prozess, der manuell sechs Monate bis zwei Jahre dauern kann. Im Unterschied zu diesen Ansätzen positioniert sich OpenAI als Anbieter eines breit einsetzbaren Modells für ganze Forschungsworkflows, von der Sequenzanalyse bis zur Target-Priorisierung.

Allerdings bleibt GPT-Rosalind ein Closed-Access-Modell: Gewichte, detaillierte Fehleranalysen und interne Reasoning-Schritte legt OpenAI nicht offen. Forscher können zwar über die integrierten Datenbanken und Tools nachvollziehen, welche externen Quellen in die Ergebnisse einfließen, das Modell selbst bleibt jedoch geschlossen.

Lesen Sie auch


(vza)



Source link

Weiterlesen

Künstliche Intelligenz

DeepL wird zum Echtzeit-Übersetzer | heise online


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Kölner Unternehmen für KI-Sprachtechnologie DeepL hat am Donnerstag „die nächste Generation seiner Übersetzungsplattform“ eingeführt. Die neue Produktreihe „DeepL Voice-to-Voice“ ist unter anderem als Alternative zu Googles Angebot zu verstehen, da DeepLs neues Angebot ebenso Sprache-zu-Sprache-Übersetzung in Echtzeit ermöglicht. Es soll sowohl in virtuellen Meetings, persönlichen Gesprächen als auch in „kundenorientierten Touchpoints via API“ eingesetzt werden können. Damit sollen Teams weltweit „mühelos über Sprachbarrieren hinweg zusammenarbeiten“, so das Unternehmen.

Weiterlesen nach der Anzeige

Mit DeepL Voice-to-Voice sollen Nutzerinnen und Nutzer natürlich in der eigenen Sprache sprechen, während das Gesagte beim Empfänger präzise übersetzt werden soll. „Wir vereinen erstklassige Sprachmodelle mit unserer bewährten KI-Übersetzungstechnologie, die wir kontinuierlich weiterentwickeln“, sagt DeepL-CEO Jarek Kutylowski.

Die neue Echtzeit-Übersetzungsplattform umfasst DeepL zufolge fünf Produkte:

  • Voice for Meetings: Ermöglicht Echtzeit-Übersetzung auf Plattformen wie Microsoft Teams und Zoom. Das Early-Access-Programm starte im Juni, während die Registrierung ab sofort möglich sei.
  • Ab sofort ist die Funktion Voice for Conversations verfügbar. Auf sie kann sowohl über Mobilgeräte als auch im Web zugegriffen werden. Sie könne dort eingesetzt werden, wo die „Installation von Apps nicht praktikabel oder unzulässig ist“, heißt es.
  • Das Feature Gruppenkonversationen soll derweil den mehrsprachigen Austausch in Trainings, Coachings und Workshops erleichtern. Teilnehmerinnen und Teilnehmer erhalten einen QR-Code, über den sie direkt beitreten können. Mithilfe eines „Multi-Device-Zugangs können Teilnehmer gleichzeitig Sprachübersetzungen in Echtzeit empfangen“. Die Funktion soll ab dem 30. April verfügbar sein.
  • Mittels einer Voice-to-Voice API können Unternehmen die DeepL-Sprachübersetzung direkt in eigene interne Anwendungen und kundenorientierte Tools integrieren. Ein Startdatum nennt das Unternehmen nicht, interessierte Unternehmen können sich aber schon registrieren.
  • Zudem bietet DeepL Optimierungsfunktionen an, „mit denen auch spezifische Terminologie wie Branchenbegriffe, Produktnamen oder Eigennamen auch bei schneller oder technischer Sprache präzise erfasst und übersetzt werden“. Dieses Feature soll ab dem 7. Mai bereitstehen.

Zum Start des Angebots unterstützt DeepL Voice alle 24 offiziellen EU-Sprachen sowie Vietnamesisch, Thailändisch, Arabisch, Norwegisch, Hebräisch, Bengalisch und Tagalog. Laut unabhängigen Blindtests von Slator bevorzugten 96 Prozent der Linguisten DeepL Voice gegenüber den nativen Übersetzungslösungen von Google, Microsoft und Zoom. Insgesamt deckt DeepL Voice damit über 40 Sprachen ab, so das Unternehmen.

Weiterlesen nach der Anzeige

Gegenüber TechCrunch sagte Kutylowski, dass die KI das Kundenservice-Erlebnis der kommenden Jahre grundlegend verändern werde. Weiter erklärte er, dass eine „Übersetzungs-Ebene“ (“translation layer“) Unternehmen dabei helfe, Support in Sprachen anzubieten, in denen qualifiziertes Personal rar und teuer einzustellen sei.

Zuletzt hatte DeepL im September 2025 einen KI-Agenten vorgestellt, der Unternehmen in verschiedenen Bereichen unterstützen soll. Als potenzielle Einsatzgebiete nannte das Unternehmen die Bereiche Finanzen, Vertrieb, Marketing, Kundensupport und Lokalisierung. Als Beispiel nannte DeepL Erkenntnisse eines Vertriebsteams zusammenfassen, aber auch Rechnungen in der Finanzabteilung automatisieren. Zudem prüfe das Unternehmen offenbar den Gang an die Börse.

Lesen Sie auch

Siehe auch:

  • DeepL: Download schnell und sicher von heise.de


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Unternehmen setzen KI ein und laufen bei der Governance hinterher


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Wenn es um Governance und Souveränität beim KI-Einsatz geht, hapert es laut einer Studie des Open-Source-Anbieters Red Hat noch in deutschen Unternehmen. Demnach hätten nur 57 Prozent der befragten Firmen eine Exit-Strategie für den Fall, dass ihr primärer KI-Anbieter den Zugang beschränkt. 37 Prozent gaben an, dass ein Wechsel moderate bis erhebliche Auswirkungen auf die Geschäftskontinuität hätte.

Weiterlesen nach der Anzeige

Auch bei der Steuerung des KI-Einsatzes deutet die Studie auf Defizite: Lediglich 30 Prozent der befragten deutschen Firmen gaben an, über ausgereifte Governance-Strukturen für KI-Agenten zu verfügen. Weitere 29 Prozent sprachen von lückenhaften Regelwerken, 27 Prozent erklärten, nur grundlegende Aspekte abzudecken. „Die Ergebnisse zeigen eine deutliche Kluft. KI ist in den Unternehmen angekommen, aber Kontrolle und Steuerbarkeit halten nicht im gleichen Tempo Schritt“, kommentierte Red Hats Deutschlandchef Gregor von Jagow die Studie.

Das Wissen, was beim KI-Einsatz mit den Daten passiert, gewinnt natürlich auch an Bedeutung. 51 Prozent schreiben sich dabei zu, vollständig nachvollziehen zu können, wo ihre Daten gespeichert und verarbeitet werden sowie potenziell zugänglich sind. 46 Prozent gaben zu, keinen vollständigen Überblick zu haben, und 3 Prozent räumten erhebliche Lücken ein. Mit 97 Prozent vollständiger oder zumindest teilweiser Transparenz erreichten deutsche Unternehmen laut Red Hat einen starken Wert im europäischen Vergleich. Italien und die Niederlande kamen demnach auf 90 Prozent.

Open-Source-Ansätze könnten aus Sicht von über zwei Drittel der Befragten (69 Prozent) dabei helfen, Transparenz und Steuerung bei KI zu verbessern. Sie erwarten von offenen Technologien in den nächsten drei Jahren vor allem mehr Vertrauen durch Kontrolle über Entwicklung und Betrieb (69 Prozent), bessere Anpassbarkeit an geschäftliche und regulatorische Anforderungen (68 Prozent) sowie erhöhte Transparenz und Prüfbarkeit (68 Prozent). Zudem zeigten sich 72 Prozent offen dafür, dass der Gesetzgeber Open-Source-Prinzipien wie Transparenz, Prüfbarkeit und Lizenzmodelle vorgibt, um KI-Souveränität zu fördern.

Für die Untersuchung befragte das Marktforschungsunternehmen Censuswide im Auftrag von Red Hat insgesamt 500 IT-Entscheider aus fünf europäischen Ländern, darunter je 100 aus Deutschland, Frankreich, Großbritannien, Italien und den Niederlanden. Wie andere US-Techfirmen auch hat der zu IBM gehörige Linuxspezialist Red Hat Angebote vorgelegt, die sich europäische Souveränität auf die Fahnen schreiben: So stellte das Unternehmen im November souveränen Support für die EU vor. Im Februar folgte ein Tool, das Unternehmen helfen soll, ihre eigene digitale Souveränität einzuschätzen.


(axk)



Source link

Weiterlesen

Beliebt