Künstliche Intelligenz
Kommentar zum Totalausfall bei AWS: Nichts gelernt in den letzten 30 Jahren
Vielleicht wollten Sie ja einem Kollegen eine Signal-Nachricht schreiben, bei Ring nachschauen, was gerade in Ihrer Garageneinfahrt los ist oder ein Meeting per Zoom veranstalten. Menschen im Vereinigten Königreich wollten womöglich ihre Steuererklärung abgeben oder ihre Sprachkenntnisse per Duolingo aufbessern. In allen Fällen war die Antwort dieselbe: „Leider nein“. Denn bei AWS hat es ordentlich gescheppert – und tatsächliche wie selbst ernannte Experten überschlagen sich seither mit Superlativen, was den technischen wie finanziellen Schaden angeht. Klar ist: Der Ausfall bei den Amazon Web Services (AWS), der eigentlich nur einzelne AWS-Regionen betraf, hat weltweit für riesiges Aufsehen und für große IT-Probleme gesorgt.
Weiterlesen nach der Anzeige
Martin Gerhard Loschwitz ist freier Journalist und beackert regelmäßig Themen wie OpenStack, Kubernetes und Ceph.
Dabei lässt sich die Situation eigentlich relativ nüchtern beschreiben. AWS ist ein normaler Anbieter von IT-Infrastruktur und mithin denselben Gesetzmäßigkeiten unterworfen, mit denen es jeder Administrator bei On-Premises-Setups genauso zu tun hat. Geht ein Standort offline, oder in diesem Falle eine AWS-Region, sind dessen Dienste nicht länger verfügbar. Dass gerade in größeren Umgebungen standortübergreifende Redundanz ein Thema ist, wissen Admins seit mindestens 30 Jahren. Dass gefühlt die halbe Welt offline geht, weil sich bei AWS Sand im Getriebe einzelner Regionen befindet, spricht insofern eher nicht für die Industrie. Offensichtlich hat man sich vielerorts viel zu sehr darauf verlassen, AWS würde schon nicht offline gehen.
Will man sich gegen ein solches Szenario absichern, braucht man Redundanz auf allen Ebenen seines Setups. AWS bietet diese Möglichkeit durchaus. Ihre technische Umsetzung allerdings ist komplex – und günstig ist der Spaß auch nicht gerade. Es ist legitim, bewusst auf diese Form der Redundanz zu verzichten und das Risiko eines Ausfalls zu tragen. Katzenjammer, wenn ebendieses Szenario dann tatsächlich mal eintritt, ist allerdings fehl am Platz.
Multi-Cloud-Szenarien helfen nicht
Mein LinkedIn-Stream ist seit vorgestern voll von Beiträgen findiger Consultants, die Kapital aus der Situation schlagen wollen und Multi-Cloud-Szenarien zur Conditio sine qua non moderner IT-Infrastruktur erklären. Der Ansatz ist also offensichtlich nicht ganz falsch: Denn unabhängig von einzelnen Anbietern ist man eben nur dann, wenn man die eigene IT in der Cloud auf verschiedene Säulen verteilt. Aber: Das Gros der Proponenten von Multi-Cloud-Setups springt als Tiger und landet als Bettvorleger. Denn als Alternative zu AWS preisen sie allen Ernstes Microsoft Azure oder die Google-Cloud an. Zumindest aus europäischer Sicht ist das nachgerade grotesk.
Man kann auf das AWS-Desaster nämlich auch durch eine andere Brille schauen: Das Ereignis war nicht weniger als ein Vorgeschmack auf das Unheil, das Europa droht, wenn Dienste von AWS, Azure oder Google noch mehr zum politischen Spielball verkommen als ohnehin schon. Kann ein Land wie das Vereinigte Königreich seine Steuern nicht mehr erheben, weil zentrale IT nicht mehr funktioniert, ist das für das Land nicht weniger als eine Gefährdung seiner Existenz.
Wenn in Krankenhäusern buchstäblich das Licht ausgeht, weil Energieversorger und Netzbetreiber von Diensten US-amerikanischer Anbieter abhängig sind und diese nicht mehr zur Verfügung stehen, ist das eine Katastrophe. Und wenn Behörden nicht länger kommunizieren können, weil die US-Regierung den Zugang zu Microsoft 365 aus politischen Gründen sperrt, ist das ein Debakel im Hinblick auf die öffentliche Ordnung und die Sicherheit. Sie brauchen einen Krankenwagen? Donald Trump sagt nein. Schade, Schokolade!
Weiterlesen nach der Anzeige
Alibi-Debatte
Der ganze Vorgang ist archetypisch für die seit Jahrzehnten völlig ohne Not stattfindende politische Selbstverzwergung Europas. Lächerliche Konstrukte wie „Datentreuhänderschaft“ und pseudo-souveräne Clouds der großen Anbieter lullen die Europäerinnen und Europäer in ein Gefühl von Sicherheit, wo de facto längst höchste Eile geboten ist, um wirklich souveräne europäische Alternativen zu schaffen. Noch jedes Versprechen, das Microsoft, Google & Co. im Hinblick auf die angebliche Sicherheit und Verfügbarkeit europäischer Daten auf Servern amerikanischer Anbieter in Europa gegeben haben, mussten sie irgendwann kleinlaut kassieren.
Hochnotpeinlich musste ein Repräsentant Microsofts vor einem Untersuchungsausschuss des französischen Parlaments zugeben, dass man letztlich gegen den langen Arm der US-Regierung nichts tun könne. Und wie weit her es mit der Sicherheit der deutschen Delos-Cloud mit Microsofts Software wirklich ist, hat erst kürzlich das Innenministerium Baden-Württembergs zu Protokoll gegeben: gar nicht nämlich. Das in Deutschland manchmal etwas überstrapazierte Thema des Datenschutzes spielt dabei wie beschrieben noch gar nicht die zentrale Rolle. Der AWS-Ausfall zeigt stattdessen, dass das plötzliche Wegfallen zentraler Dienste von US-Hyperscalern zum Zusammenbruch von Teilen der öffentlichen Infrastruktur führt. Da beruhigt es ungemein, dass die Bundeswehr sich in einem akuten Anfall völliger geistiger Umnachtung erst kürzlich dazu entschieden hat, ihre In-House-Cloud mit tatkräftiger Unterstützung Googles zu bauen. Es sind offensichtlich alle verrückt geworden.
Wer als Politiker dabei ernsthaft bezweifelt, die aktuelle US-Regierung könne AWS, Azure und Google als politisches Druckmittel einsetzen, belügt sich selbst und die Öffentlichkeit. Denn rote Linien gibt es für die zweite Trump-Administration ganz offensichtlich nicht. Erlaubt ist, was dem eigenen Vorteil dient, das hat Trump ein ums andere Mal klar unter Beweis gestellt. Längst ist es fünf nach zwölf aus europäischer Sicht, was souveräne Alternativen zu den großen US-Tech-Giganten betrifft. Kommt man in Europa nicht langsam aus dem Quark, war der AWS-Ausfall nur ein laues Lüftchen verglichen mit dem, was die alte Welt absehbar erwartet.
Sag mir, wo die Admins sind
Ach, und übrigens: „Ausschließlich on Premises“ ist nicht die Lösung des Problems, auch und gerade nicht für Europa. Bei aller Kritik am Prinzip des Cloud-Computings kommt man nämlich nicht umhin, dessen Vorteile anzuerkennen. Es ist objektiv hilfreich für Behörden und Firmen und Organisationen, wenn sie kritische IT-Infrastruktur nicht selbst betreiben müssen, sondern sich bei einem Anbieter dafür einmieten können.
Schließlich fehlt mindestens eine ganze Generation von Systemadministratoren. Denn die Industrie hat in den vergangenen 20 Jahren lieber vorrangig Entwickler ausgebildet, um das nächste europäische Einhorn zu schaffen. Und in völliger Ignoranz der Tatsache, dass dieses Einhorn dann auch jemand betreiben muss. Die „Economy of Scale“ der Cloud mit hohem Automationsgrad hilft dabei, IT (auch in Europa) in der Breite absehbar überhaupt betreibbar zu halten. Doch müssen die Europäer endlich lernen, digital auf eigenen Beinen zu stehen. Der perfekte Zeitpunkt dafür wäre vor 20 Jahren gewesen. Der nächstbessere Zeitpunkt ist genau jetzt.
()
Künstliche Intelligenz
Google präsentiert neuen Quantenalgorithmus „Quantum Echoes“
Weiterlesen nach der Anzeige
Ein Forschungsteam von Google Quantum AI hat einen neuen Quantenalgorithmus entwickelt, der einen verifizierbaren Quantenvorteil gegenüber herkömmlicher Hardware ermöglichen soll. Der Algorithmus trägt den Spitznamen Quantum Echoes und soll auf Googles Quantenchip Willow 13.000-mal schneller laufen als der beste bekannte klassische Algorithmus auf den schnellsten Supercomputern.
Die Ergebnisse präsentiert die Gruppe in einer Publikation im Fachmagazin Nature. Ein zur gleichen Zeit erschienenes Manuskript auf dem Preprint-Server arXiv soll die erfolgreiche Anwendung von Quantum Echoes im Bereich der NMR demonstrieren.
Rezepte für Quantencomputer
Quantencomputer versprechen bei bestimmten Aufgaben einen enormen Rechenvorteil im Vergleich zu herkömmlichen oder auch Supercomputern. Damit die Quantenrechner aber einen Vorteil liefern, benötigen sie spezielle Quantenalgorithmen, die Quanteneffekte geschickt ausnutzen, um ein Problem effizient zu lösen. Verbreitet ist der Shor-Algorithmus, der das mathematische Problem löst, auf dem ein Großteil der heute etablierten Verschlüsselungsverfahren basiert. Damit könnte es Quantencomputern also eines Tages gelingen, in kürzester Zeit komplexe Verschlüsselung zu knacken.
Vergangenes Jahr präsentierte Google seinen neuesten Quantenchip „Willow“. Mit seinen aktuellen Ergebnissen demonstriert die Forschungsgruppe, dass sie nicht nur Quanten-Hardware, sondern auch Software weiterentwickelt.
(Bild: Google Quantum AI)
Das sogenannte Random Circuit Sampling (RCS) ist ein weiterer Quantenalgorithmus, den Unternehmen wie Google häufig nutzen, um die Leistungsfähigkeit ihrer Quantenchips zu demonstrieren. RCS wurde allerdings speziell dafür konstruiert, die Leistungsfähigkeit von Quantencomputern zu testen. Somit ist RCS als reiner Benchmark zu verstehen, da der Algorithmus kein Problem löst, das für reale Anwendungen nützlich wäre.
Nicht so Googles neuer Quantenalgorithmus Quantum Echoes. Dieser testet nicht einfach nur die Komplexität, sondern auch die Präzision einer Quantenrechnung. Das Team verkündet, dieser Algorithmus könne bei der Lösung von realen Problemen helfen, die etwa in der Medikamenten- oder Fusionsforschung eine Rolle spielen.
Weiterlesen nach der Anzeige
Quantum Echoes soll außerdem einen verifizierbaren Quantenvorteil liefern. Das bedeutet, dass andere Forschungsgruppen den Algorithmus auf ihren eigenen Quantenrechnern ausführen, das Ergebnis des Willow-Prozessors reproduzieren und so bestätigen können. Eigenen Angaben zufolge hat Google ein unabhängiges Team beauftragt, Schwachstellen in ihrem Algorithmus zu finden, um so die Performance zu bestätigen.
So funktioniert Quantum Echoes
Der technische Name von Quantum Echoes lautet eigentlich „Out-of-order Time Correlator (OTOC) Algorithm“. Vereinfacht gesagt ist Quantum Echoes ein Algorithmus, um die Zeit zurückzudrehen und so die Eigenschaften von Quantencomputern besser zu verstehen, Störungen nachzuverfolgen oder umzukehren.
Dafür führen die Wissenschaftler zuerst eine Reihe von Operationen auf dem Quantenchip aus. Dann stören sie eines der Qubits und diese Störung breitet sich im Quantencomputer aus. Anschließend kehren sie die Operationen um, sie führen also die Operationen aus dem ersten Schritt rückwärts in umgekehrter Reihenfolge durch – wie bei einem Echo, daher der Name des Algorithmus. Zuletzt lesen sie die Informationen aus.
Das Ergebnis verrät den Forschern, wie sich Quanteninformation und klassisches Rauschen im Quantencomputer ausbreiten. Üblicherweise sind diese beiden Effekte schwierig auseinanderzuhalten, weil alle Elemente des Quantencomputers miteinander verknüpft sind und sich verschiedene Effekte überlagern. Ihr Algorithmus verrät den Forschern, wie sich Quanteninformation in komplexen Systemen mit vielen Teilchen ausbreitet.
So können die Forscher Einblicke in mikroskopische Eigenschaften des Quantensystems gewinnen, die ein klassischer Computer nicht berechnen kann. Darin sieht das Team einen möglichen Baustein für künftige Beweise eines echten Quantenvorteils. Der Algorithmus selbst zeigt in der Nature-Publikation jedoch keinen Quantenvorteil und löst kein reales Problem.
Erste Anwendungen in der NMR
Eine tatsächliche Anwendung schlägt das Team in einem begleitenden Manuskript auf arXiv vor. Die Arbeit basiert auf einer Kollaboration mit Forschungsgruppen aus den USA, dem Vereinigten Königreich, Kanada und Australien. Die Anwendung stammt aus dem Bereich der Kernspinresonanz (NMR, für Nuclear Magnetic Resonance). NMR ist die Grundlage für die Magnetresonanztomografie (MRT), sowie viele weitere Präzisionsmessmethoden in der Chemie, Medizin oder Geophysik.
Im betrachteten Beispiel könne Quantum Echoes als „molekulares Lineal“ dienen, um Abstände sehr präzise zu messen und Informationen über chemische Strukturen zu gewinnen. Das Team untersuchte in ihrer Arbeit zwei Moleküle mit 15 beziehungsweise 28 Atomen. Die Berechnungen mit Googles Willow stimmten mit den Vorhersagen der klassischen NMR überein. Quantum Echo liefere jedoch zusätzliche Informationen, die NMR allein nicht liefern könne.
Bessere NMR ist für viele Bereiche relevant, wie die Pharmaforschung oder Materialentwicklung, um die molekulare Struktur in Medikamenten oder Baustoffen besser und schneller zu verstehen. Die Ergebnisse des arXiv-Manuskripts wurden noch nicht von unabhängigen Experten geprüft.
„Diese neue Arbeit präsentiert den Quantencomputer als Tool, um molekulare Strukturen aufzudecken, nicht nur in der NMR, sondern in der Zukunft vielleicht auch in der Quantensensorik“, sagt Michel Devoret während einer Vorab-Präsentation der Ergebnisse. Das Team nutzt den Begriff „Quantum-Scope“, um die Weiterentwicklung von Teleskopen und Mikroskopen anzudeuten.
Devoret gewann kürzlich den Physik-Nobelpreis für die physikalischen Grundlagenexperimente, die heute die Basis für supraleitende Qubits bilden. Dies sind die Bausteine, aus denen Unternehmen wie Google oder auch IBM und das europäische IQM Quantencomputer konstruieren. Devoret ist leitender Wissenschaftler für Quantenhardware bei Google Quantum AI.
Ein echter Quantenvorteil?
Bereits 2019 verkündete ein Forscherteam von Google, mit ihrem damaligen Quantenchip Sycamore einen Quantenvorteil demonstriert zu haben. Der Chip soll ein Problem in wenigen Minuten gelöst haben, für das ein herkömmlicher Supercomputer 10.000 Jahre gebraucht hätte. Kurz darauf wurde dieser Erfolg relativiert, als Forscher einen Weg fanden, die gleiche Rechnung mit einem effizienteren Algorithmus in wenigen Minuten auf einem herkömmlichen Computer zu lösen.
„Dieses Rennen zwischen klassischem und Quantencomputing ist ganz normal. All diese Geschwindigkeits-Vorhersagen sind Momentaufnahmen. Wir haben schon damals erwartet, dass Entwickler klassische Algorithmen beschleunigen“, sagt Hartmut Neven. „Wir erwarten, dass das auch in diesem Fall passieren wird. Aber auch die Quantentechnologie entwickelt sich weiter und die Leistungsfähigkeit von Quantencomputern wird weiter steigen.“
Ausblick
Google zeigt sich optimistisch, innerhalb von fünf Jahren relevante Probleme mithilfe Quantencomputern lösen zu können, die kein klassischer Computer lösen könne. Mit der Entwicklung größerer, fehlerkorrigierter Quantenrechner erwartet das Unternehmen auch, dass mehr reale Anwendungen für Quantencomputer entdeckt werden. Aktuell fokussiere sich das Team darauf, seinen dritten Meilenstein zu erreichen: ein langlebiges, logisches Qubit.
(spa)
Künstliche Intelligenz
Richard Stallman: „Chatbots sind Bullshit-Generatoren“
Bei einem Auftritt an der TU München wirbt Richard Stallman dafür, freie Entscheidungen nicht auf dem Altar möglicher digitaler Bequemlichkeiten zu opfern. Vor rund 400 Zuschauern fordert der Gründer der Free Software Foundation (FSF) Studentinnen und Studenten auf, nur freie Software einzusetzen und zu entwickeln.
Weiterlesen nach der Anzeige
Staaten könnten es sich gar nicht leisten, ihre Souveränität an große Konzerne abzugeben, betont Stallman vor einem vollen Hörsaal. „Das sollten wir bekämpfen. Wir sollten dafür sorgen, dass unsere staatlichen Institutionen souverän bleiben.“ Die Stadt München werde mit der Abkehr vom freien LiMux ihrer Verantwortung für die Unabhängigkeit der Verwaltung nicht gerecht.
Der 72-Jährige, der mit dem freien Texteditor GNU Emacs und den für die „vier Freiheiten“ des Programmierens essenziellen Lizenzmodellen den Weg für GNU/Linux ebnete, tourt aktuell durch Europa. In München gastierte er an der Bayerischen Akademie der Wissenschaften und der Technischen Universität, wo zwar viel freie Software für den Eigenbedarf entsteht, zugleich aber auch proprietäre Programme wie Microsoft 365 weiter gefördert werden.
Kompromisslosigkeit, bitte!
„Vielleicht werden Sie von Ihrer Universität aufgefordert, nicht-freie Software zu nutzen. Lehnen Sie das ab“, forderte Stallman in der ihm eigenen radikalen Art. Wo proprietäre Software für Prüfungen notwendig sei, sollten die Universitäten gefordert werden, eigene Systeme anzubieten.
Bei proprietären Konferenzsystemen solle man sich um Proxying- oder Gateway-Lösungen bemühen. „Finden Sie jemanden, der Sie über seine Verbindung mit in die Konferenz holt“, meint Stallman.
„Nicht-freie Software erzeugt Monopole und sorgt dafür, dass Millionen von Nutzern nicht von einem Wettbewerb profitieren können“, mahnt Stallman. Die Free Software Foundation, die die Freiheit für den User – den ganz normalen und den Entwickler – hochhalte, sei kapitalistisch im besten Sinn: „Sozialismus sowjetischer Machart finden Sie bei den Big-Tech-Unternehmen.“
Libre Phone, Libre LLM?
Weiterlesen nach der Anzeige
Stallman gibt sich vorsichtig optimistisch, was freie Alternativen etwa für Mobilbetriebssysteme oder Large-Language-Modelle (LLMs) anbetrifft. Das kürzlich angekündigte Projekt Libre Phone soll allerdings wie schon sein Vorgänger Replicant auf der Codebasis von „teilfreien“ Android-Derivaten aufbauen. „Wir hoffen, mit Libre Phone Replicant zum Fliegen zu verhelfen“, sagt Stallman.
Googles angekündigte Identifizierungspflicht für App-Entwickler geißelt Stallman als Todesurteil für freie Apps in der App-Store-Alternative F-Droid. Offenbar traut Stallman den Beteuerungen von Google nicht, dass Sideloading für Apps erhalten bleibe.
Auch bei Künstlicher Intelligenz (KI) will die FSF-Community Kriterien für freie Alternativen entwickeln. Man stehe kurz vor einer Veröffentlichung, kündigt Stallman an. Zugleich appelliert er an das Münchner-Publikum, klar zu differenzieren zwischen Machine Learning und Chatbots.
Bullshit-Generatoren
Auf Machine Learning fußende Programme könnten intelligent sein, in einem beschränkten Bereich, und bestimmte Aufgaben so gut wie Menschen erledigen. Chatbots seien dagegen lediglich „Bullshit-Generatoren“, die künstlich „Äußerungen bar jeglicher Achtung für die Wahrheit“ erzeugten.
Mehrfach wurde der FSF-Gründer auf Münchens Rückkehr in die Arme von Microsoft angesprochen. Stallman äußerte dazu die Vermutung, die Stadt habe sich korrumpieren lassen durch Microsofts Zusagen, sein Entwicklungszentrum in der Stadt anzusiedeln. Langfristig gedacht sei das wegen entstehender Abhängigkeiten nicht, meint der Entwickler.
Eher einen Negativtrend konstatiert Stallman bei der Idee, auch die Designs für freie Hardware zu schaffen. Eigene Designs für freie CPU-Boards seien durchaus machbar, selbst designte, freie Chips aber eben viel zu teuer. Damit bleiben die Chips als proprietäre Schranke: „Wir können nicht mal einen freien Compiler für Nvidia-GPUs schreiben, weil wir ihren Befehlssatz nicht kennen.“
Hier gibt es eine Aufzeichnung des Vortrags bei der TU München.
(vbr)
Künstliche Intelligenz
AWS-Ausfall machte vernetzte Matratzen unbrauchbar
Montagmorgen kam es in einem Amazon-Rechenzentrum im US-Staat Virginia zu einer Störung. Schuld waren Probleme mit dem Domain Name System (DNS). Die Auswirkungen der „erhöhten Fehlerraten und Latenzen bei den AWS Services in der US-EAST-1-Region“ waren weltweit zu spüren. Zahlreiche Internet-Dienste ließen sich zeitweise nur eingeschränkt oder gar nicht nutzen. Darunter auch Matratzen.
Weiterlesen nach der Anzeige
Das belegen Beschwerden diverser Kunden der New Yorker Firma Eight Sleep. Sie verkauft unter der Bezeichnung „Pod“ vernetzte Matratzen, die irreführend als „smart“ bezeichnet werden. Diese Schlafunterlagen zeichnen sich durch ihren hohen Preis aus. In Deutschland geht es bei 2.849 Euro für die Matratze los, zuzüglich mindestens 17 Euro für das monatliche „Autopilot“-Abonnement, gerne nimmt Eight Sleep auch 33 Euro monatlich. Dafür erhält der Schläfer statistische Auswertungen, eingebaute Heizung und Kühlung, sowie einen Motor, der bestimmte Bereiche der Matratze verformen kann. Damit können Bettbenutzer im Bett beispielsweise besser sitzen.
Was im Preis bislang nicht inbegriffen ist, ist ein Offline-Modus der Matratze. Als das AWS-Rechenzentrum in Virginia ausfiel, betraf das auch die Matratzen-Server Eight Sleeps. Damit wurde die Steuerapplikation der Matratzen funktionslos. Wer seine Matratze aufgerichtet hatte, konnte sie und damit sich selbst nicht mehr flachlegen. Auch die Kühlung konnte nicht aktiviert werden, womit manchen Müden die Nacht zu heiß wurde.
Gleichermaßen blieb die etwaig aktivierte Matratzenheizung auf dem eingestellten Heizniveau stecken, was ebenfalls Beschwerdepostings in Sozialen Netzen zur Folge hatte. Warum die überhitzten Schlafwilligen ihrer Matratze nicht einfach den Stecker gezogen haben, erklären sie nicht.
Dafür erklärt der Chef der Firma Eight Sleep sein Bedauern und verspricht, rund um die Uhr an einem Offline-Modus arbeiten zu lassen. Die Matratzen-Innovation kennt kein Ende!
(ds)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Monaten
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Monat
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 5 Tagen
Illustrierte Reise nach New York City › PAGE online
-
Social Mediavor 4 Wochen
Schluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?