Künstliche Intelligenz
15 Jahre OpenStack: Wie ein Mars-Satellit das Rechenzentrum revolutionierte
Am 21. Oktober 2010 veröffentlichten die US-Raumfahrtbehörde NASA und der Cloud-Provider Rackspace die erste Version von OpenStack unter dem Namen „Austin“. Das Projekt wurde ursprünglich im Juli 2010 auf der Open Source Convention (OSCON) in Portland angekündigt und scharrte innerhalb kurzer Zeit eine Reihe prominenter Unterstützer um sich. Zum Start der quelloffenen Cloud-Computing-Infrastruktur waren jedoch lediglich zwei Services an Bord: Der Compute-Service „Nova“ und der Object-Storage-Dienst „Swift“. Die aktuelle OpenStack-Version „Flamingo“ beinhaltet derweil mehr als 30 verschiedene Komponenten.
Weiterlesen nach der Anzeige
Bilder vom Mars
Am 12. August 2005 startete die NASA den „Mars-Reconnaissance-Orbiter“ mit dem Ziel, Landeplätze für künftige Mars-Missionen zu erkunden. Das Raumfahrzeug hatte die bis dahin modernste Teleskopkamera an Bord. Die Kamera nahm riesige Datenmengen auf, die das Jet Propulsion Laboratory (JPL) der NASA der Öffentlichkeit zur Verfügung stellen sollten. Die Größe einer Datei belief sich dem damaligen NASA-CTO Chris C. Kemp zufolge auf 600 Megabyte.
Das stellte die Raumfahrtbehörde vor ein Problem: Im Rahmen des Forschungsauftrags sollten die Daten möglichst effizient mit der Welt geteilt werden. Bei der Zusammenarbeit mit verschiedenen Organisationen stieß das Team am Ames Research Laboratory aber auf ein Hindernis, denn nicht jeder Kooperationspartner konnte auf die benötigte Compute-Infrastruktur zurückgreifen. Um die Daten also nicht nur in „Google Earth“ bereitstellen zu können, musste eine Lösung gefunden werden.
Letztlich griff das Team auf die Nebula-Compute-Infrastruktur zurück, die seit einigen Jahren bei der NASA entwickelt wurde. Anstelle kostspieliger Anmietungen von Datenzentren kaufte die Behörde Server ein und installierte diese in Schiffscontainern. Dieser erweiterte Einsatz der Nebula-Infrastruktur hatte zur Folge, dass einige Komponenten neu entwickelt werden mussten. Die Raumfahrtbehörde traf die Entscheidung, ihren in Python geschriebenen Cloud-Computing-Controller unter der Apache-2-Lizenz zu veröffentlichen.
Dank Open Source zu OpenStack
Die Nebula-Plattform stieß bei dem amerikanischen Cloud-Provider-Rackspace auf großes Interesse, nicht zuletzt aufgrund der freien Software-Lizenz. Das Unternehmen entschloss sich, die Entwicklung eines eigenen Computing-Controllers auf Eis zu legen und stattdessen zusammen mit der NASA unter dem Namen „OpenStack“ eine quelloffene Compute-Infrastruktur ins Leben zu rufen. Dabei steuerte die Firma ihren Object-Storage-Dienst zu dem Projekt bei. Das erste Release „Austin“ erblickte dann am 21. Oktober 2010 das Licht der Welt.
Schon vor der Veröffentlichung sammelte das Projekt einige große Unterstützer um sich, die in den folgenden Jahren ihre eigenen Distributionen anboten. Zu den Bekanntesten dürften dabei HP, IBM, Red Hat, Mirantis und Canonical zählen. Diese Entwicklung hatte zur Folge, dass sich die NASA 2012 aus der Entwicklung zurückzog und stattdessen die Plattform künftig als Anwender nutzte. Im September 2012 wurde die „OpenStack Foundation“ gegründet, um das Projekt und die Gemeinschaft zu fördern. Im Jahr 2020 kündigte die Stiftung an, sich in „OpenInfra Foundation“ umzubenennen. Anfang 2025 erfolgte der Zusammenschluss mit der Linux-Foundation.
Weiterlesen nach der Anzeige
Lebendiger als sein Ruf
Einer Umfrage aus dem Jahr 2022 zufolge nutzen über 300 Public-Cloud-Datenzentren OpenStack. Insgesamt verwalten die Anwender mehr als 40 Millionen Rechenkerne. Der Kommunikationsdienst „Line“ betreibt dabei allein eine Installation mit vier Millionen Kernen. Auch bei großen europäischen Cloud-Anbietern wie der Deutschen Telekom, StackIT oder OHVCloud erfreut sich die Infrastruktur-Plattform wachsender Beliebtheit. Zudem spielt OpenStack für den Betrieb von Telekommunikationsnetzwerken eine entscheidende Rolle. So setzen beispielsweise AT&T, China Telecom oder auch die Telefonica die Plattform zum Betrieb und der Virtualisierung ihrer Netzwerke ein.
Dabei kommt die Infrastruktur nicht nur in verschiedenen Bereichen der Privatwirtschaft zum Einsatz, sondern auch in vielen Forschungseinrichtungen. Im Jahr 2013 brachte etwa das CERN seinen Cloud-Dienst online. Mit über dreihunderttausend Kernen gehört dieser zu einem der größten innerhalb Europas. Auch das Forschungszentrum Jülich betreibt mit der JSC Cloud eine große Installation.
Doch ist das Projekt in Zeiten von Orchestrierungsplattformen wie Kubernetes überhaupt noch relevant? Eine Antwort liefert der Open Infrastructure Blueprint der OpenInfra Foundation. Darin beschreibt die Stiftung die beiden Plattformen als ergänzende Technologien. Während OpenStack selbst Komponenten für den Betrieb von Kubernetes-Clustern bereitstellt, könnten auch die Kernservices von OpenStack auf Kubernetes verwaltet werden und so in den Genuss der Vorteile wie einer erhöhten Resilienz kommen.
(nie)
Künstliche Intelligenz
Scharfe Abrechnung an der ePA: Kelber kritisiert Sicherheit und Reklamekampagne
Als unsicher und intransparent bezeichnet der ehemalige Bundesdatenschutzbeauftragte, Prof. Ulrich Kelber, die Digitalisierung des deutschen Gesundheitswesens und insbesondere die elektronische Patientenakte (ePA). In einem Vortrag bei einer Veranstaltung der freien Ärzteschaft warf er der Politik vor, Vertrauen durch oberflächliche Werbung zu verspielen und grundlegende Sicherheitsstandards zu ignorieren.
Weiterlesen nach der Anzeige
Reklame statt Aufklärung und hohe Widerspruchsquote
Kelber kritisierte die Kommunikationsstrategie des Bundesgesundheitsministeriums zur ePA scharf. Anstatt Bürgerinnen und Bürger umfassend über Risiken und notwendige Abwägungen aufzuklären, setze das Ministerium auf eine „reine Reklamekampagne“, die das Projekt lediglich als „super und „toll“ anpreise. Wer nur versuche „zu überreden, anstatt zu überzeugen“, so Kelber, der werde auf Dauer nicht vorwärtskommen.
Diese Vorgehensweise führe zu einem Vertrauensverlust, der sich bereits in den Zahlen zeige: Die Widerspruchsquoten gegen die ePA seien mit fünf bis zehn Prozent für ein Opt-out-System ungewöhnlich hoch. Außerdem sei die Gruppe der überzeugten Gegner, die aktiv widersprechen, fast genauso groß oder sogar größer als die Gruppe der überzeugten Befürworter, die sie aktiv nutzen. Die offiziellen Zahlen zur Nutzung schwanken stark zwischen drei und zwölf Prozent. Dies untergrabe laut Kelber auch die Repräsentativität der Daten, die für die Forschung so wichtig sein sollen. Zudem sei die Qualität der Daten, etwa der Abrechnungsdaten, oft unzureichend.
Technische Mängel und instabiler Betrieb
Auch technisch sei das System alles andere als ausgereift. Kelber rechnete vor, dass die offiziell angegebene Betriebsstabilität von 96 Prozent „eine Stunde Ausfall pro Tag“ bedeute. Diese Ausfälle fänden höchstwahrscheinlich nicht nachts, sondern unter Last während der Praxiszeiten statt. Er kritisierte die Haltung der Gematik, die sich zwar unzufrieden zeige, aber auf die Zuständigkeit privater Dienstleister verweise. Das sei „mindestens eine Lücke in dem System“. Bei einem staatlich gelenkten Projekt müsse es wirksame Sanktionsmöglichkeiten gegen unzuverlässige Anbieter geben.
Zusätzlich werde der sichere Zugang für Versicherte systematisch erschwert, nicht nur aufgrund der schwierigen Ersteinrichtung. Die Politik habe dazu ihren Beitrag geleistet. Unter anderem, weil sie es den Krankenkassen durchgehen lasse, die PIN für die elektronische Gesundheitskarte (eGK) nicht zu versenden. „In Wirklichkeit“ lasse sie das Kelber zufolge „auch durchgehen, weil sie auf Dauer das ja gar nicht mehr so haben will“. Gleichzeitig wurde der kostenlose PIN-Rücksetzbrief für den elektronischen Personalausweis aus Kostengründen abgeschafft, was auch diese sichere Alternative unattraktiv mache. Stattdessen würden Nutzer zu unsichereren Methoden wie der biometrischen Anmeldung gedrängt.
Weiterlesen nach der Anzeige
Überhasteter Rollout ohne echte Testphasen
Kelber prangerte zudem den grundlegenden Entwicklungsprozess der Digitalisierungsprojekte an. Er forderte, IT-Systeme im Gesundheitswesen endlich so zu entwickeln, wie es professioneller Standard sei. „Pilotieren, evaluieren, eventuell wieder zurückgehen und nur wenn der Evaluierungsprozess gelaufen ist, dann skalieren, also ausrollen.“ Stattdessen gebe es überhastete Einführungen, die als Tests deklariert werden, aber keine sind. Als Beispiel nannte er die Testphase der ePA in den Modellregionen. Direkt danach sollten sie alle nutzen. Ein solches Vorgehen lasse keine Zeit, „die Ergebnisse zu prüfen“ oder Fehler zu korrigieren. Angesichts von 25 Jahren Versäumnis, so Kelber, komme es auf ein weiteres halbes Jahr für eine qualitativ hochwertige Einführung nicht an.
Sicherheitslücken und „Flickenteppich“-Mentalität
Den Kern seiner Kritik bildeten die massiven Sicherheitsbedenken. Die ePA sei in ihrem jetzigen Zustand nicht sicher. Anstatt Sicherheitslücken grundlegend zu schließen, würden sie oft nur notdürftig „gestopft“. Kelber bemängelte, dass die Sicherheitsarchitektur nicht transparent gemacht werde und Angriffe, die mit den „Ressourcen eines Staates“ durchgeführt werden, bei der Prüfung von vornherein ausgeschlossen würden. Das sei ein Unding bei einer Datenbank mit den Gesundheitsdaten von rund 70 Millionen Menschen.
Besonders alarmierend sei, dass die Schlüssel zur Verschlüsselung der Gesundheitsdaten bei den Betreibern liegen. Kelber nannte hier explizit die Anbieter: IBM, die dem US-Recht unterliegt und Daten an US-Sicherheitsbehörden herausgeben muss, sowie die österreichische Firma RISE, „die in Österreich vom öffentlichen Dienst wegen ihrer Beziehung zu Wirecard und den russischen Geheimdiensten keine Aufträge mehr bekommt“. Nach wie vor sei nicht geklärt, „ob das wirklich vollständig gestoppt ist“. Dass solche Anbieter Zugriff auf die Schlüssel haben, sei „überhaupt nicht state of the art“.
Auch die geplante Umsetzung des European Health Data Space (EHDS) in Deutschland sieht Kelber kritisch. Insbesondere die Entscheidung, das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) zum zentralen „Health Data Access Body“ zu machen, hält er für „nicht glücklich“. Das Problem sei ein massiver Interessenkonflikt: Da das BfArM eigene Forschungsinteressen habe, würde es damit gleichzeitig über seine eigenen Forschungsanträge entscheiden. Kelber warnte davor, dass „nicht jemand selber seine eigenen Forschungsanträge in einem Haus bewährt“. Eine klare Trennung von Aufsicht und Forschung sei keine unnötige Bürokratie, sondern essenziell, um Vertrauen zu schaffen.
Als weiteren Beleg für die Aushöhlung des Datenschutzes nannte Kelber das geplante EU-Omnibusgesetz. Dieses Gesetz sei „nochmal gefährlicher“ und ein Beispiel für übereilte Gesetzgebung. Kelber kritisierte den Entstehungsprozess scharf. Der Datenschutzteil sei nach seinem Kenntnisstand „innerhalb von fünf Tagen“ geschrieben worden – ohne Folgenabschätzung, ohne Evidenzprüfung und ohne jegliche Debatte oder Beteiligung von Stakeholdern. Das Ergebnis sei ein Gesetz, das grundlegende Definitionen aufweiche: So sollen Daten, die einmal anonymisiert wurden, selbst dann nicht mehr unter die Datenschutzgrundverordnung fallen, wenn sie von Dritten später wieder re-identifiziert werden könnten.
Zudem werde der Begriff der Gesundheitsdaten aufgeweicht. Während die Behandlungsdaten einer Onkologie-Patientin geschützt blieben, würden ihre bloßen Aufenthaltsdaten im Onkologiezentrum nicht mehr als Gesundheitsdaten gelten – derartige Daten entstehen beispielsweise bei Terminbuchungen. Besonders kritisch sah Kelber, dass Training von KI pauschal zu einer Rechtsgrundlage für Datenverarbeitung werden soll – ohne weitere Abwägung, selbst bei hochsensiblen Daten.
Deutschlands Abstieg zur „dunklen Kraft“
Während der geplante European Health Data Space (EHDS) die EU-Staaten auf ein gemeinsames Mindestniveau bei der Datensicherheit zwinge, liege Deutschland aktuell darunter. Seinen Vortrag schloss Kelber mit einer düsteren Anspielung auf J.R.R. Tolkiens „Herr der Ringe“: Anstatt wie früher ein Vorreiter im Datenschutz zu sein, sei Deutschland durch solche Vorhaben zu „einer der dunklen Kräfte in Mittelerde geworden“, die aktiv versuche, europäische Standards zu senken. Die Reise in die Digitalisierung des Gesundheitswesens sei, so Kelber in Anlehnung an Bilbo Beutlin, „eine gefährliche Sache“, bei der man genau aufpassen müsse, wohin die Füße einen tragen.
(mack)
Künstliche Intelligenz
KI-Update kompakt: KI-Urheberrechtsstreit, Limitless, Deep-Research, Politik
KI-Urheberrechtsstreit eskaliert
Weiterlesen nach der Anzeige
Der Kampf um KI und Urheberrecht nimmt Fahrt auf. In den USA muss OpenAI 20 Millionen Chat-Protokolle herausgeben. Die New York Times will anhand dieser Protokolle prüfen, ob ChatGPT urheberrechtlich geschützte Artikel wortwörtlich wiedergegeben hat. Parallel dazu hat die Zeitung auch Klage gegen die KI-Suchmaschine Perplexity eingereicht. Bei Perplexity geht es um ein ähnliches Problem: Die KI-Suchmaschine nutzt komplette Nachrichtenartikel, um Nutzeranfragen zu beantworten.

Noch schlimmer: Perplexity halluziniert manchmal und die falschen Ergebnisse werden der Zeitung zugeschrieben. Den Medienhäusern geht es nicht darum, der KI komplett zu verbieten, ihre Inhalte zu nutzen. Sie wollen, dass KI-Firmen Lizenzabkommen abschließen und dafür bezahlen. Meta hat bereits etliche neue Verträge unterschrieben, unter anderem mit USA Today, CNN und Fox News.
Neues Berliner Polizeigesetz erweitert KI-Einsatz
Das Berliner Abgeordnetenhaus hat eine Novelle des Allgemeinen Sicherheits- und Ordnungsgesetzes beschlossen. Die Reform stattet die Polizei mit Befugnissen aus, die tief in die Grundrechte eingreifen. Der neue Paragraf 28a erlaubt der Polizei den biometrischen Abgleich von Gesichtern und Stimmen mit öffentlich zugänglichen Daten aus dem Internet.
Damit kann die Polizei etwa mit Material aus der Videoüberwachung automatisierte Suchen in sozialen Netzwerken durchführen. Außerdem ermöglicht der neue Paragraf 42d die Weiterverarbeitung von personenbezogenen Daten zum Training von KI-Systemen. Datenschützer kritisieren dies scharf, da KI-Modelle oft Rückschlüsse auf die Trainingsdaten zulassen.
Mit KI und Handyüberwachung gegen Anschläge
Weiterlesen nach der Anzeige
Der CDU-Landtagswahl-Spitzenkandidat Sven Schulze in Sachsen-Anhalt will künftig stärker auf KI setzen, um Anschläge besser zu verhindern. KI solle herausfinden, ob jemand einen Ort vorab ausspäht. Dabei greifen derartige Systeme auf die Bewegungsmuster der Besucher zurück. Alle Menschen werden gefilmt und ihr Verhalten wird bewertet. Experten und Datenschützer gehen davon aus, dass dabei die umstrittene Software des US-Unternehmens Palantir zum Einsatz kommen könnte. Sie wird bereits in Bayern, Hessen und Nordrhein-Westfalen eingesetzt.
Meta kauft KI-Gadget-Startup Limitless
Meta hat das Startup Limitless übernommen und nimmt dessen Produkte sofort vom Markt. Limitless, vormals bekannt als Rewind, entwickelte tragbare Anhänger, die den Alltag der Nutzer aufzeichnen und mittels KI durchsuchbar machen. Der Verkauf ist gestoppt, die zugehörige Software wird eingestellt; Bestandskunden bleibt lediglich eine einjährige Nutzungsfrist. Das Interesse des Konzerns dürfte weniger der Hardware gelten als vielmehr den gesammelten Erfahrungen mit „Always-on“-Geräten und der technischen Auswertung permanenter Audio-Streams.
Bürgerrechtler kritisieren KI-Überwachung in US-Gefängnissen
Das US-Telekommunikationsunternehmen Securus hat ein KI-Modell anhand jahrelang aufgezeichneter Telefon- und Videoanrufe amerikanischer Gefängnisinsassen trainiert. Jetzt testet es dieses Modell, um Anrufe, SMS und E-Mails der Häftlinge zu scannen. So sollen Straftaten vorhergesagt und verhindert werden. Aktivisten für Strafgefangene meinen, dass Securus bereits in der Vergangenheit die Bürgerrechte von Gefangenen verletzt hat. Leaks zeigten, dass es Tausende Anrufe zwischen Insassen und ihren Anwälten unrechtmäßig aufgezeichnet habe.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Deep-Research-Systeme erfinden Fakten
Eine Studie des chinesischen Smartphoneherstellers Oppo deckt systematische Schwächen von Deep-Research-Systemen auf. Das Problem: Fast ein Fünftel aller Fehler entsteht, weil die Systeme plausibel klingende, aber erfundene Inhalte generieren. Ein System plant etwa eine umfassende Datenbank-Analyse, kann dann aber nicht auf die Datenbank zugreifen. Statt die Strategie anzupassen, füllt es alle geplanten Abschnitte mit selbst generierten Inhalten.
KI-Agenten bleiben im Unternehmensalltag einfach
Eine Untersuchung der UC Berkeley, der Stanford University und von IBM Research zeigt: Statt autonomer Super-Systeme dominieren im Alltag der Unternehmen einfache Workflows mit viel menschlicher Kontrolle. 68 Prozent der untersuchten produktiven Agenten führen höchstens zehn Schritte aus, bevor ein Mensch eingreifen muss. Das Hauptproblem bleibt die Zuverlässigkeit. 74 Prozent der produktiven Agenten werden deshalb primär von Menschen bewertet.
Perplexity entwickelt Schutzschild für KI-Browser-Agenten
Die KI-Suchmaschine Perplexity hat ein Sicherheitssystem für Browser-Agenten vorgestellt. Ein akutes Problem: Sie sehen mehr auf Webseiten als die Nutzer, etwa weiße Schrift auf weißem Grund. So können Angreifer bösartige Befehle verstecken. Der KI-Agent interpretiert diese dann fälschlich als Nutzeranweisungen. Das neue System namens BrowseSafe soll solche Angriffe erkennen, bevor sie Schaden anrichten.
KI-Modelle können im Chat politische Präferenzen verändern
KI-Chatbots können politische Ansichten von Menschen in kurzen Konversationen womöglich effektiver ändern als traditionelle Wahlwerbung. Forscher befragten Menschen zu ihren politischen Überzeugungen und ließen sie danach mit Chatbots diskutieren, die darauf trainiert waren, diese Meinung zu ändern. Bei den Befragungen danach konnten teilweise große Verschiebungen bei den politischen Meinungen konstatiert werden. Was besonders auffallend war: Die Chatbots argumentierten sehr mit vorgeblichen Fakten, aber ungefähr ein Drittel der Antworten war falsch.
Menschliche Kompetenzen sind wichtiger als KI-Fähigkeiten
Menschliche Fähigkeiten wie Kreativität und Empathie sollen laut dem Weltwirtschaftsforum im Jahr 2030 an erster Stelle stehen, noch vor KI-Kompetenzen. Der Bericht betont jedoch auch, dass gerade diese Kompetenzen in Bildungssystemen bisher zu wenig gefördert werden. Umfragen bestätigen, dass bei Unternehmen schon heute eine hohe Nachfrage nach qualifizierten menschlichen Kompetenzen besteht, während das Angebot nicht mithalten kann.

(igr)
Künstliche Intelligenz
Analyse: Projektsterben in der Cloud-Native-Welt
Blickt man in den Rückspiegel, erscheinen die vergangenen rund 10 Jahre wie das Paradies für Entwickler und Betreiber von Serversoftware im Cloud-Native-Umfeld. Docker hatte 2013 die Containertechnik salonfähig sowie praktikabel gemacht und so den Weg geebnet für vieles, was später kommen sollte. Seither wird Software aller Art als Containerimage bereitgestellt, manch ein Anbieter liefert seine Produkte gar nicht mehr anders aus.
Der nächste Meilenstein folgte zwei Jahre später. Kubernetes 1.0 erschien im Jahr 2015 und hat sich schnell als Industriestandard fürs Betreiben von großen Containerinfrastrukturen etabliert. Ein Erfolgsfaktor: Google hatte viel Geld und Ressourcen in die Entwicklung von Kubernetes gesteckt und dabei seine Erfahrung aus dem Betrieb der internen Plattform Borg einfließen lassen. Kubernetes traf einen Nerv und Google hätte die Chance gehabt, sich und seine eigenen Cloudangebote unersetzlich zu machen. Doch anstatt Kubernetes exklusiv in der Google Cloud zu offerieren, veröffentlichte man die Software unter Apache-Lizenz. Der Code wurde dann an die eigens dafür gegründete CNCF, eine Tochterstiftung der Linux Foundation, übertragen.
Ein altruistisches Geschenk an die Menschheit? Mitnichten. Google wollte mehr als das schnelle Geld, nämlich die ganze Industrie verändern: Auch Amazon AWS und Microsoft stiegen ins Kubernetes-Spiel ein, boten Managed-Kubernetes-Dienste an und steckten Ressourcen in die Weiterentwicklung des Containerorchestrators, anstatt Alternativen zu bauen. Ein herstellerunabhängiger und quelloffener Standard für den Containerbetrieb – das überzeugte viele, ihre Anwendungen in Cloudrechenzentren zu betreiben. Weil Google sein Kind von Anfang an losließ, konnte es so weit wachsen und das Cloudgeschäft so sehr beschleunigen.
Das war die Leseprobe unseres heise-Plus-Artikels „Analyse: Projektsterben in der Cloud-Native-Welt“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
