Connect with us

Künstliche Intelligenz

Infrastruktur-Markt: IaaS für KI-Workloads wird „disruptiver Wachstumsmotor“


Die KI-optimierten Infrastrukturservices entwickeln sich laut Gartner „zum nächsten disruptiven Wachstumsmotor“ im Markt für Infrastruktur. Die Analysten der US-Marktforschungsfirma schätzen, dass die weltweiten Ausgaben der Endnutzer für KI-optimierte Infrastructure as a Services (IaaS) bis Ende 2025 um 146 Prozent auf insgesamt 18,3 Milliarden US-Dollar steigen. Für 2026 wird eine Verdopplung des Marktvolumens auf voraussichtlich 37,5 Milliarden Dollar prognostiziert.

Weiterlesen nach der Anzeige

Das Wachstumstempo verliert in den nächsten Jahren zwar an Fahrt und soll 2029 nur noch bei 34 Prozent bei einem Volumen von knapp 109 Milliarden Dollar liegen. Die Zuwachsquoten der gewöhnlichen IaaS-Ausgaben werden damit aber noch immer deutlich übertroffen. Der Anteil der Investitionen in KI-optimierte Infrastrukturservices an den gesamten Infrastrukturausgaben soll sich in diesem Jahr voraussichtlich auf knapp neun Prozent verdoppeln. Bis 2029 erwarten die Marktforscher einen Anstieg auf knapp 22 Prozent.

„Da Unternehmen ihre KI- und GenAI-Anwendungen zunehmend ausweiten, benötigen sie spezialisierte Infrastrukturen wie GPUs, Tensor Processing Units (TPUs) oder andere KI-ASICs, ergänzt durch Hochgeschwindigkeitsnetzwerke und optimierte Speicherlösungen für schnelle parallele Verarbeitung und effiziente Datenübertragung“, deutet Gartner-Analyst Hardeep Singh das Marktgeschehen. Mit klassischen, auf CPUs basierenden IaaS-Angeboten sei es zunehmend schwieriger, diesen Anforderungen gerecht zu werden.

Mit der zunehmenden Verbreitung der künstlichen Intelligenz in allen Branchen entwickeln sich nach Beobachtungen der Marktforscher insbesondere die Inferenz-Workloads zu einer dominierenden Kraft hinter der anziehenden Nachfrage. Laut Prognose werden im Jahr 2026 die Investitionen für Inferenz-fokussierte Anwendungen mit 20,6 Milliarden Dollar einen Anteil von 55 Prozent an allen Ausgaben für KI-IaaS erreichen. Bis 2029 soll die Quote auf über 65 Prozent ansteigen.

„Im Gegensatz zum Training, das intensive, großangelegte Rechenzyklen während der Modellentwicklung und laufenden Aktualisierungen erfordert, findet die Inferenz kontinuierlich statt“, erläutert Singh, warum die Aufwendungen für die Anwendung der Modelle etwa für Empfehlungsmaschinen oder Betrugserkennungssysteme, die des Trainierens übertreffen.

Weiterlesen nach der Anzeige


(axk)



Source link

Künstliche Intelligenz

Erster Blick auf die Vision Pro M5 | TNBT-Podcast


Gemeinsam mit MacBook Pro und iPad Pro hat Apple die Vision Pro auf aktuellen Stand gebracht: Mit dem Wechsel vom M2 auf den neuen M5 überspringt das VR-Headset dabei gleich mehrere Chip-Generationen. Das sorgt nicht nur für ein ordentliches Plus an Rechenleistung, sondern auch für eine aktuelle Grafikarchitektur und mehr Effizienz. All das bringt Verbesserungen bei Rendering, Bildwiederholrate und nicht zuletzt Akkulaufzeit, wie Apple verspricht. Ein neues Kopfband soll obendrein den Tragekomfort erhöhen.

Weiterlesen nach der Anzeige

In Episode 55 diskutieren Leo Becker und Mark Zimmermann, Leiter für mobile Lösungen bei EnBW, wie weitreichend diese Hardware-Änderungen letztlich wohl sind – von der normalen App-Nutzung bis zum Enterprise-Einsatz. Wir sprechen außerdem über Apples mysteriöse Strategie rund um Mixed-Reality-Brillen und das fehlende App-Ökosystem für visionOS. Dabei streifen wir auch angekündigte Immersive-Inhalte wie Live-Sport.

1984, 2007, 2024 – Apples Vision Pro tritt in riesige Fußstapfen: Mac und iPhone haben nicht nur Geschichte geschrieben, sondern auch grundlegend verändert, wie wir Computer verwenden.

Mac & i begleitet die Vision Pro sowie die Chancen und Hürden von „räumlichem Computing“ mit einem eigenen Podcast: TNBT – The Next (Big) Thing beleuchtet die jüngsten Entwicklungen rund um die neue Plattform mitsamt den Auswirkungen auf IT-Branche und Gesellschaft.

TNBT ist in allen großen Podcast-Verzeichnissen zu finden und lässt sich mit Apple Podcasts und Spotify hören oder als RSS-Feed in der Podcast-App der Wahl beziehen. Wir freuen uns unter podcast@mac-and-i.de auf Fragen, Anregungen und Kritik.

Weiterlesen nach der Anzeige


(lbe)



Source link

Weiterlesen

Künstliche Intelligenz

Sora 2 ist beeindruckend (und unangenehm)


Weiterlesen nach der Anzeige

OpenAIs Videogenerierungs-App Sora 2 befindet sich zurzeit auf Platz 1 des US-iOS-Appstores; das Interesse ist offenbar groß. Die Qualität der generierten Videos hat einen riesigen Sprung nach vorne gemacht. Interessanter ist aber, dass sich Sora als Social-Media-App positioniert. c’t 3003 hat sie ausführlich getestet.

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guckt mal hier: Das bin nicht ich, sondern das ist ein von Sora 2 generierter Keno. Sora 2 von den ChatGPT‑Machern von OpenAI ist auf jeden Fall ziemlich beeindruckend. Es zeigt aber auch, dass die großen KI‑Firmen gerade womöglich ziemlich in der Sackgasse stecken. In diesem Video seht ihr, was Sora 2 kann, was es nicht kann – und das ist auch ein bisschen lustig, was es nicht kann, muss ich sagen –, wie man es bekommt und was das große Problem bei Sora ist. Ich habe für diesen Test über 200 Videos generiert. Bleibt dran.

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…

Ja, bevor ich jetzt in die große technische und soziale Analyse gehe, erst mal hier ganz stumpf ein paar Videos, die ich mit Sora 2 gemacht habe.

[Mehrere Videos sind zu sehen]

Weiterlesen nach der Anzeige

Also, ich finde, das ist tatsächlich das krasseste Video, weil ich habe es mir angeguckt und habe gedacht: Okay, das bin ich. Habe ich das gefilmt? Sind das Aufnahmen von mir? Also, weil – auch wie meine Haut aussieht – und also ganz ehrlich, ich übertreibe da nicht. Das würde ich glauben, dass das ich bin. Auch in diesen Großaufnahmen. Die habe ich auch meinen Kollegen geschickt, und guckt mal, Pascal war auch ganz beeindruckt und hat da direkt so eine technisch‑künstlerische Sicht drauf; ihm ist aufgefallen, wie das Licht „bounced“ und kleine Schatten wirft.

[Mehr Videos sind zu sehen]

Wie ich da in den Videos rede, das hat nicht zwingend mit der Sprache des Prompts zu tun. Also, man kann einfach in Deutsch prompten, man kann auch auf Englisch prompten. Die Sachen, die ich sage – also wenn ich da nichts extra dazu schreibe –, die denkt Sora sich selber aus.

Also hier zum Beispiel bei meinem persönlichen Lieblings‑Sora‑Genre: Keno verwandelt sich in Würmer.

Und das ist ja auch typisch Sora 2. Oft weigert es sich, das zu machen – auch bei völlig harmlosen Sachen wie „Keno verwandelt sich in einen Wurm“. Weigerte sich, das zu generieren. Also, was Sora da für komische Fantasien hat – keine Ahnung.

Oder auch das hier ging nicht, wo ich einfach dieses Foto animiert haben wollte. Und Sora fantasiert mich auch erstaunlich häufig ohne Hose, was nicht ganz verstehe – hier ohne Hose als Elden‑Ring‑Boss. Und was ich auch interessant finde: dass es mich offenbar selbstständig ostfriesisch verortet – komplett ohne Prompt. Ich habe da also einfach nur meinen Namen gepromptet, und dann steht da auf einmal „Moin“ auf der Kaffeetasse. Oder auch, wenn ich einfach prompte „Keno als Reporter“. Ja, dann wirft Sora mich nach Emden.

Sowieso ganz lustig, diese „Lustige-Berufe-Prompten“: Zum Beispiel Zugbegleiter stellt Sora sich total typisch amerikanisch vor. Das geht offenbar nur so retro‑mäßig mit so einer altmodischen Uniform, weil Züge gibt’s ja heute fast gar nicht mehr in den USA. Viele Sachen sehen auf jeden Fall gut aus, finde ich. Aber viele sehen auch gar nicht mal so gut aus. Vor allem, wenn ich irgendwas Cinematisches haben will – wie diese Film‑Noir‑Szene hier –, dann sieht der Hintergrund oft so richtig billig computergeneriert aus, wie aus einem alten Computerspiel. Ja, und obwohl Sora besser Physik versteht als andere KI‑Generatoren, weiß es offenbar nicht so genau, wie die Kulturtechnik des Rauchens funktioniert. Naja, erstmal noch ein bisschen tanzen, ne?

Und wenn ihr euch jetzt fragt: Kann Sora mich so gut nachbauen, weil es so viel Videomaterial von mir auf YouTube gibt? Nein, das hat damit gar nichts zu tun. Das kann jede und jeder, indem man nämlich einfach die Sora‑App installiert und hier auf „Cameo“ tippt. Dann blendet Sora drei Zahlen ein. Die muss man einsprechen. Das ist quasi der Kopierschutz meiner eigenen Identität – also, dass ich das nicht mit fremden Leuten mache.

Und ja, dann dreht man ein bisschen seinen Kopf und versucht, möglichst viele Gesichtsausdrücke in möglichst kurzer Zeit zu machen. Denn man hat nur insgesamt neun Sekunden Zeit. Dann wird das automatisch zu OpenAI hochgeladen, und diese neun Sekunden reichen aus, damit Sora Videos mit einem künstlichen Keno generieren kann – und sogar auch in Ansätzen zumindest mit meiner Stimme sprechen kann.

Also, meine Stimme klingt meiner Meinung nach nur ein ganz kleines bisschen wie meine echte Stimme. Das Problem hatte ich aber auch bei anderen KI‑Diensten wie Eleven Labs schon. Irgendwie spreche ich offenbar komisch. Bei anderen Leuten wie zum Beispiel dem deutschen Streamer Papaplatte klingt die aus diesen neun Sekunden trainierte, generierte Stimme schon, finde ich, ziemlich echt.

Ja, und wenn ihr euch jetzt fragt: Hä, wieso könnt ihr denn Papaplatte‑Videos generieren? Hat der euch die Daten gegeben oder was?

Nein, sondern alle können diese Videos machen. Denn er hat sein Cameo für alle freigegeben. So wie auch Sam Altman, Jake Paul, iJustine und Ricky Burwick.

Das könnte man jetzt erst mal total creepy finden. Also würde ich creepy finden, dass alle mit meinem Aussehen irgendwelchen Quatsch machen können. Ohne jegliche Hürden. Aber die Leute steigern damit offenbar auch ihre Popularität.

Also zumindest, wenn ich durch TikTok swipe, dann ist da ziemlich oft der Sora-generierte Kevin Teller, aka Papaplatte, zu sehen. Noch öfter sehe ich allerdings 2Pac, Michael Jackson, Martin Luther King und andere tote Berühmtheiten, die alle von der Inhaltssperre von Sora durchgelassen werden.

Mein Cameo habe ich übrigens nicht freigegeben. Also man kann diese Datenschutzeinstellungen einigermaßen detailliert justieren. Man kann auch einstellen, ob OpenAI die Sachen fürs eigene Training verwenden darf oder nicht.

Und diese Sora-Videos mit echten Menschen, das ist auf jeden Fall gerade ein Hype. Und ich könnte mir gut vorstellen, dass das auch auf längere Sicht ein Meme-Genre sein wird – also echte Leute in lustigen KI-generierten Situationen. Ganz ehrlich, ich finde das teilweise schon auch witzig. Da stecken manchmal schon ganz gute Ideen drin.

Ich bin da halt auch gerade im Thema und kann die Dinger sofort identifizieren. Also ich sehe, ob das Sora ist oder nicht. Ich nehme aber auch wahr, dass einigen Leuten das eben nicht gelingt und dass die die Sachen halt für echte Videos halten.

Also klar, OpenAI baut da überall so wabernde Sora-Wasserzeichen ein. Aber hey, das kann man wirklich ziemlich einfach wegblurren in jedem Videoschnittprogramm. Es gibt natürlich auch längst Tutorials zum Wegmachen der Wasserzeichen hier auf YouTube. Und andere Leute, die nicht so in der Tech-Bubble sind, die wissen ja eh gar nicht, was Sora ist.

Ich war neulich zum Frühstück eingeladen und habe der Gastgeberin im Messenger vorher dieses Video hier geschickt. Einfach ohne Kontext. Und die haben das nicht gecheckt, dass das KI-generiert ist.

Die haben da halt mit einem Auge hingeguckt, irgendwie so beim Tischdecken oder so, und dachten halt: „Ach, Keno, der macht ja so Sachen mit Videos, der hat uns da jetzt so ein lustiges Video aufgenommen. Ah ja, cool.“ Und das sind auf jeden Fall junge, medienkompetente Leute. Nur die sind halt nicht in der Tech-Bubble.

Das heißt, die haben das nicht permanent auf dem Schirm, dass man so einfach KI-Videos generieren kann – von sich selbst. Also ganz klar, und das ist jetzt auch ein ziemlich langweiliger Take: Videos im Internet kann man nicht mehr trauen. Und das ist ja eigentlich auch schon lange so. Aber Videos sind halt jetzt noch ein bisschen einfacher zu faken. OpenAI hat das Ganze jetzt noch mal deutlich einfacher gemacht.

Es wird deshalb immer wichtiger, immer drauf zu gucken, wer Videos postet, also ob man der Quelle vertraut. Und deshalb haben wir bei c’t 3003 ja auch schon seit Längerem die hochoffizielle Regel, dass wir nicht mit KI-generierten Inhalten arbeiten.

Ja, ich weiß, dass dieses Video hier zu großen Teilen aus KI-generierten Inhalten besteht, aber ich denke, dass das in dem Fall logisch ist. Also ein Video über Sora – da zeigt man Sora-Inhalte. Was ich natürlich meine, sind KI-generierte Inhalte, um irgendwas zu bebildern, für das man eigentlich keine Bilder hat oder keine Lust hat, eigene Bilder dazu zu machen. Und das natürlich auch nicht deklariert. Bei uns alles schön bio – aus der 3003-Bildtextton-Manufaktur.

Also das ist jetzt erst mal der offensichtliche Take. Was ich aber obendrauf total interessant finde: dass Sora jetzt im Gewand einer Social-Media-App daherkommt. Ja, also bislang waren KI-Tools ja meistens Websites, und dann gab es vielleicht irgendwann eine Mobil-App. Bei Sora ist das jetzt so, dass man das Ding nur benutzen kann, wenn man die iOS-App installiert und sich da zumindest einmal eingeloggt hat.

Im Moment braucht man dafür einen Einladungscode und einen US-App-Store-Account, um die Sora-App zu installieren. Hat man das dann auf iOS einmal zum Laufen gebracht – also auch in Deutschland –, dann braucht man dafür kein VPN, muss sich also nicht in die USA tunneln.

Will man Zugriff auf Sora 2 über die Website, dann muss man kurz sich in die USA tunneln mit dem VPN. Was auch ein bisschen weird ist: Das Anlegen von so einem Cameo von sich selbst geht nur mit der App. Das Generieren von Querformat-Videos geht nur über die Website. Also mit der App kann man nur Hochformat generieren.

Naja, es ist auf jeden Fall alles zurzeit noch komplett kostenlos. Man braucht für Sora 2 auch kein Plus-Abo oder so. Und man kann am Tag damit zurzeit – also als ich dieses Video gemacht habe – 30 Videos am Tag generieren. Aber wie gesagt, um überhaupt loslegen zu können, braucht man die App.

Und die – Achtung, jetzt kommt’s – baut offensichtlich TikTok nach, beziehungsweise Instagram oder YouTube Shorts, die ja wiederum auch bei TikTok abkupfern. Aber ja, also man swipet da bei Sora auf jeden Fall durch den Ozean von unendlich vielen Videos.

Und das soll sich eben so anfühlen wie TikTok, was ja sowieso schon ziemlich gehirnschmelzend sein kann. Aber bei Sora sind das halt noch nicht mal Videos von und mit echten Menschen, sondern mit generierten Menschen oder generierten Dingen. Und das ist nicht lustig-seltsam wie, weiß ich nicht, Interdimensional Cable bei Rick & Morty, sondern das ist dystopisch seltsam – also richtig unangenehm.

Irgendwie ist es kurzzeitig unterhaltsam, weil es so neu ist, aber es fühlt sich dann auch sofort ganz, ganz falsch an. Irgendwie einsam. Man ist da so im ewigen Fluss der KI-Suppe des AI-Slops. Also für mich zumindest fühlt es sich ganz komisch und falsch an, da so durchzuswipen.

Ja, und warum macht denn OpenAI das überhaupt? Die wahrscheinliche Antwort darauf ist halt noch unangenehmer: OpenAI weiß nicht, wie es anders mit dem Zeugs Geld verdienen soll, als eben das zu machen, was alle Social-Media-Betreiber machen – nämlich Werbung zu verkaufen.

Sie fixen uns also an mit kostenlosen KI-Generierungen – also von uns selbst. Sie kriegen uns mit unserer Eitelkeit, unserem Ego. Und ja, da bin ich mir ziemlich sicher: Sobald das genug Leute nutzen, werden sie anfangen, Werbung zu verkaufen und anzuzeigen.

Das ist jetzt erst mal kein so schlimmer oder unerhörter Vorgang, aber das zeigt, finde ich, dass KI-Firmen gerade wirklich ziemlich in der Sackgasse stecken. Denn sie wissen nicht, wie sie aus den ganzen Investitionen – also KI-Rechenzentren unvorstellbarer Dimensionen, Millionen von Grafikkarten – wieder Geld machen können.

Und wenn ich mir die Weltwirtschaft gerade so angucke, klammert die sich an die Hoffnung, dass KI die Produktivität auf der ganzen Welt immens steigern wird. Sonst wären die Aktienkurse ja alle nicht so extrem aufgeblasen.

Und da kommt dann am Ende einfach nur das einzige Geschäftsmodell heraus, das alle im Internet machen und das Profit verspricht – also massenweise User an sich binden und denen Werbung reinzudrücken.

Und dafür diese grotesk riesigen Investitionen und Rechenzentren? Also ja, mal abwarten, wie das so weitergeht.

Also wäre Sora gut genug für den professionellen Einsatz für Film- und Videoproduktion, dann könnte man ja damit Geld verdienen. Aber das ist es leider zurzeit nicht, denn die Ergebnisse haben einen ziemlich großen Zufallsfaktor und sehen auch oft ganz schön schlecht aus.

Ja, vor allem kann Sora 2, Stand jetzt, nicht gut einen kohärenten Look über mehrere Szenen aufrechterhalten, was man ja für professionellen Einsatz bräuchte. Also ganz stumpf, dass zum Beispiel die zweite Szene den genau gleichen Look hat wie die erste Szene – sonst kann man ja nichts zusammensetzen. Und das ist bei Sora 2 ziemlich Glückssache.

Ja, und das ist auch in der Pro-Version so, die ziemlich teuer ist. Die kostet nämlich entweder 200 Dollar im Monat im Rahmen des ChatGPT-Pro-Abos oder einzeln über API abgerechnet 50 Cent pro Sekunde bei der höchsten Auflösung von 1792 × 1024 Pixeln, also 7,50 Dollar für ein 15‑Sekunden‑Video – das ist die maximale Länge.

Bei dem von mir getesteten kostenlosen normalen Sora liegt die Auflösung bei 1280 × 704 Pixeln. Da sind die Videos alle immer 10 Sekunden lang.

Ja, halten wir fest: Sora 2 kann recht beeindruckende Dinge. Das reicht aber noch lange nicht, um wirklich menschgemachte Videos oder Filme zu ersetzen.

Was aber wirklich interessant ist: dass OpenAI das offenbar glaubt – dass ihre KI-generierten Inhalte ausreichend gut sind, dass Leute freiwillig durch Sora swipen wollen statt durch TikTok, Insta oder YouTube.

Ich bin ja auch so ein Bio-Snob, der denkt, sein Geschmack ist noch nicht so verkümmert, dass er sich jeden Tag so KI-Slop angucken will. Ich glaube aber, dass es den meisten Menschen so geht.

Also ich muss schon zugeben, dass Sora ein witziges Ding ist, was wirklich ein paar Tage Spaß macht – vor allem, wenn man Freunde oder Kollegen hat, die einem ihre Cameos freigeben, um sich dann gemeinsam in Videos einbauen zu können. Das ist schon lustig.

Aber mal gucken, wie lange das interessant bleibt. Ich glaube nämlich: nicht so lange. Und es ist natürlich auch ein riesiger Haufen an Geld und Energie, der dann dafür verwendet wird, dass ich ein bisschen in Cola schwimmen kann und dann jemand einen Minzbonbon reinwirft. Tschüss.

c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Weiterlesen

Künstliche Intelligenz

VMware Workstation Pro 25H2 mit USB 3.2 und neuer virtueller Hardware


Broadcom hat VMware Workstation Pro 25H2 (Build 24995812) veröffentlicht. Die neue Version des Desktop-Hypervisors bringt erweiterte Hardware-Unterstützung und Support für aktuelle Linux-Distributionen. Zu den wichtigsten Neuerungen zählt die Unterstützung der USB-Generation 3.2, womit sich etwa externe SSDs nun vollständig in virtuellen Maschinen nutzen lassen.

Weiterlesen nach der Anzeige

Mit der virtuellen Hardware-Version 22 führt Broadcom eine neue Abstraktionsschicht ein, die modernere Hardware-Features für Gastsysteme bereitstellt. Neu ist auch die Erkennung von Hyper-V und der Windows Hypervisor Platform (WHP), was die Kompatibilität bei parallelem Betrieb unterschiedlicher Virtualisierungssoftware verbessern soll.

Die Liste der unterstützten Gast-Betriebssysteme erweitert sich um Red Hat Enterprise Linux 10, Fedora Linux 42, openSUSE Leap 16.0 (RC), SUSE Linux 16 (Beta), Debian 13, Oracle Linux 10 und VMware ESX 9.0. Als Host-Systeme kommen RHEL 10, Fedora 42, openSUSE Leap 16.0 (RC), SUSE Linux 16 (Beta) und Debian 13 hinzu.

Die Entwickler haben mehrere Fehler behoben, darunter Abstürze beim Beenden im Vollbildmodus unter Linux, fehlerhafte Event-Viewer-Meldungen unter Windows und Performance-Probleme bei der Support-Bundle-Erfassung. Auch die 3D-Beschleunigung mit Intels Meteor-Lake-GPUs (Core Ultra 100) unter Linux soll nun korrekt funktionieren. Außerdem ist das vctl-Utility nicht mehr Teil von Workstation Pro. VMware hatte das Kommandozeilen-Tool zuvor für Container-Operationen bereitgestellt.

Bei der Installation von Windows 11 kann es zu Netzwerkproblemen kommen, wenn man den NAT-Modus verwendet. Als Workaround empfiehlt Broadcom, während der Installation auf den Bridge-Modus zu wechseln. Auch bei Red Hat Enterprise Linux 10 gibt es Einschränkungen: Mit aktivierter 3D-Beschleunigung friert die Installation mit einem grauen Bildschirm ein.

VMware Workstation Pro ist seit Ende 2024 für jegliche Nutzung kostenlos. Broadcom hatte gleichzeitig angekündigt, dass die Software nicht eingestellt werde – was viele Beobachter bezweifelten. Details zu allen Änderungen finden sich in den offiziellen Release Notes.

Weiterlesen nach der Anzeige


(fo)



Source link

Weiterlesen

Beliebt