Künstliche Intelligenz
Gehaltserhöhungen: Was ITler gern hätten und wozu Chefs bereit sind
Bei der Gehaltsentwicklung könnten für ITler bescheidenere Zeiten anstehen. Das geht aus der aktuellen Marktstudie der Personalberatung Robert Walters hervor, die der iX-Redaktion exklusiv vorliegt. Unternehmen agierten zunehmend wirtschaftlicher und können nicht mehr jährlich mit Gehaltssteigerungen mithalten, erklären die Personalexperten. Das bedeutet noch keine Einbußen, aber eine „Stabilisierung der Gehälter“.
Weiterlesen nach der Anzeige
Im Schnitt um 3,6 Prozent könnten laut den für die Studie befragten Personalverantwortlichen die Gehälter im IT-Bereich steigen, was die derzeitige Inflationsrate von 2,3 Prozent übersteigen würde. Die Steigerung liegt leicht unter dem Durchschnittswert von 3,74 Prozent für alle befragten Branchen. Und deutlich unter dem, was die befragten ITler gerne hätten. Im Schnitt möchten sie 6,94 Prozent Zuschlag auf ihr Gehalt. 2024 lag der Zuwachs für ITler laut Zahlen der Bundesagentur für Arbeit bei 3,85 Prozent.
Erhöhungen nicht überall wahrscheinlich
Durchschnittswert heißt aber nicht, dass in jedem Unternehmen mit solchen Steigerungen zu rechnen ist. 71 Prozent der Befragten im IT-Feld gaben immerhin an, dass es in ihren Unternehmen wahrscheinlich (46 Prozent) oder sehr wahrscheinlich (25 Prozent) zu Gehaltserhöhungen komme. Bei 29 Prozent sei das aber unwahrscheinlich oder sehr unwahrscheinlich.
Wichtigster Faktor bei Gehaltsentscheidungen sei für die meisten Personalverantwortlichen (43 Prozent) die Geschäftsentwicklung und finanzielle Lage des Unternehmens. Für rund ein Viertel sei es der Mangel an Fachkräften und der Wettbewerb um diese. Nur rund 17 Prozent hätten die Gehaltsvorstellungen der Angestellten als stärksten Faktor genannt.
Die Chance auf gute Gehälter sei aber auch eine Frage der jeweiligen Spezialisierung. Die Nachfrage nach klassischen Softwareentwicklern sinke etwa, da viele Projekte eingestellt wurden, wie Arne Fietz, Manager IT bei Robert Walters, erklärt. Attraktive Vergütungsmöglichkeiten bieten sich aus seiner Sicht etwa für Solution Architects, Data- und KI-Spezialisten sowie Infrastruktur-Experten. Auch krisenfeste Branchen wie Banken, Immobilien oder Rüstung investierten weiterhin in ihre IT-Infrastruktur und seien so Garant für überdurchschnittliche Gehälter.
Recruiting und Bindung: Gehalt entscheidet
Weiterlesen nach der Anzeige
Die Gehaltsfrage zeigt sich der Studie nach auch immer wieder als wesentliches Hindernis, um Personal zu gewinnen oder zu halten. 62 Prozent der Personaler berichteten von zu hohen Gehaltserwartungen, die Einstellungen verhinderten – lediglich fehlende Qualifikationen auf dem Markt seien mit 65 Prozent ein noch größeres Recruiting-Hindernis. Und bei den Faktoren, die es für Firmen schwieriger machten, ihre Fachleute zu binden, rangieren zu geringe Gehaltssteigerungen oder Boni aufgrund der wirtschaftlichen Lage mit 55 Prozent weit vorn. Nur erhöhte Arbeitsbelastung aufgrund von Personalknappheit scheint mit 60 Prozent noch mehr Leute aus den Unternehmen zu scheuchen.
Für die Angestellten ist das Gehalt ohnehin das wichtigste Argument für ihren Arbeitgeber. 40,4 Prozent gaben das an – von allen anderen Faktoren hatte nur die Möglichkeit zur eigenständigen Arbeit genauso viele Nennungen.
Die Gehaltsstudie 2026 von Robert Walters basiert eigenen Angaben nach auf einer Auswertung interner Gehaltsdaten sowie einer Befragung von 644 Personalverantwortlichen und 856 Fach- und Führungskräften aus verschiedenen Branchen in Deutschland. Für den Bereich der IT wurden demnach 136 Kandidaten und 250 Personalverantwortliche befragt.
(axk)
Künstliche Intelligenz
Google-Fonts-Abmahnwelle: BGH schickt Grundsatzfragen zu IP-Adressen an den EuGH
Die juristische Auseinandersetzung über die dynamische Einbindung von Google Fonts geht in die nächste und entscheidende Runde. Der Bundesgerichtshof (BGH) hat mit einem unlängst gefassten Beschluss ein Verfahren ausgesetzt, um dem Europäischen Gerichtshof (EuGH) drei zentrale Fragen zur Vorabentscheidung vorzulegen. Der Fall mit dem Aktenzeichen VI ZR 258/24 könnte das Ende für ein Geschäftsmodell bedeuten, das in den vergangenen Jahren tausende Webseite-Betreiber in Atem hielt: die systematische Provokation von Datenschutzverstößen zum Zweck massenhafter Abmahnungen.
Weiterlesen nach der Anzeige
Der BGH erläutert dazu: Der Beklagte habe einen Webcrawler benutzt, „um automatisiert eine Vielzahl von Webseiten auf die dynamische Einbindung von Google Fonts zu überprüfen“. Unter anderem beim Webauftritt des Klägers habe er so einen „Treffer“ erzielt. Unter Zuhilfenahme einer weiteren extra dafür entwickelten Software sei ein Besuch des Beklagten auf der Homepage des Klägers automatisiert vorgenommen worden. Die dabei an den Beklagten zu vergebene dynamische IP-Adresse sei an Google in den USA weitergeleitet worden.
Die erste Frage, die der EuGH laut der inzwischen veröffentlichten Vorlage vom 28. August nun klären soll, betrifft ein Fundament des Datenschutzes: Wann genau ist eine Information „personenbezogen“ im Sinne von Artikel 4 der Datenschutz-Grundverordnung (DSGVO)? Die Berufungsinstanz in Form des Landgerichts Hannover hatte zuvor argumentiert, dass die dynamisch vergebene IP-Adresse im konkreten Fall kein personenbezogenes Datum sei. Grund: Der US-Konzern Google verfüge nicht über die rechtlichen Mittel, den Besucher mithilfe seines Internetzugangsanbieters zu identifizieren.
„Kontrollverlust“ gezielt herbeigeführt
Der BGH äußert hier indes Zweifel. Er will wissen, ob ein „relativer Maßstab“ gilt. Damit würde es darauf ankommen, ob der Empfänger der Daten die Person grundsätzlich identifizieren kann. Greife dagegen ein „objektiver Maßstab“, würde auch eine dynamische IP-Adresse bereits dann personenbezogen sein, wenn irgendjemand, etwa der Provider, den Bezug zu der Person herstellen kann. Sollte der EuGH diesem „objektiven“ Ansatz folgen, wäre die Hürde für Datenschutzverstöße bei der Übermittlung von IP-Adressen deutlich niedriger als bisher von vielen Gerichten angenommen.
Noch vertrackter ist die zweite Vorlagefrage, die sich mit dem Begriff des immateriellen Schadens nach Artikel 82 der DSGVO befasst. Bisher sahen Gerichte in einem Schaden oft eine „unfreiwillige Einbuße“. Im vorliegenden Casus hat der Beklagte den Verstoß jedoch bewusst und aktiv herbeigeführt, nur um ihn dokumentieren und finanziell geltend machen zu können.
Der BGH will hier wissen, ob ein immaterieller Schaden überhaupt vorliegen kann, wenn eine betroffene Person die Kontrolle über ihre Daten nicht unfreiwillig abtritt, sondern den „Kontrollverlust“ gezielt inszeniert. Dies gilt insbesondere dann, wenn solche Verstöße in großer Zahl automatisiert ausgelöst werden. Der EuGH hat in der Vergangenheit zwar bereits wiederholt betont, dass der Schadensbegriff weit auszulegen ist. Eine Antwort auf die Frage der bewussten Provokation steht aber noch aus.
Hinweis auf Datenschutzprobleme?
Weiterlesen nach der Anzeige
Die dritte Frage schlägt die Brücke zum Rechtsmissbrauch. Selbst wenn Juristen einen Verstoß und einen formalen Schaden bejahten, könnte ein Anspruch nach Treu und Glauben ausgeschlossen sein. Der BGH bittet um Klarstellung: Kann ein Schadensersatzanspruch verneint werden, wenn die betroffene Person die Bedingungen für diesen Anspruch künstlich geschaffen hat, um sich einen finanziellen Vorteil zu verschaffen?
Dabei ist entscheidend, ob die Erlangung eines Geldbetrags die alleinige Motivation sein muss oder ob es ausreicht, wenn dieses finanzielle Interesse deutlich im Vordergrund stand. Das Berufungsgericht konnte in der Sache nämlich nicht ausschließen, dass der Beklagte womöglich auch das Ziel verfolgte, auf Datenschutzprobleme hinzuweisen.
Skepsis gegenüber Massenabmahnungen
Die EuGH-Entscheidung dürfte wegweisend für die digitale Wirtschaft sein. Einerseits gehe es darum, ob die DSGVO weiterhin als scharfes Schwert für den Schutz der Privatsphäre dient, weiß der IT-Rechtler Jens Ferner. Andererseits müsse verhindert werden, dass sie zum Werkzeug für automatisierte Klage-Industrien verkomme. Während das Berufungsgericht das Verhalten der Beklagten als sittenwidrige vorsätzliche Schädigung nach Paragraf 826 BGB einstufte, da Ansprüche gezielt provoziert wurden, muss der EuGH jetzt die Komponente des EU-Rechts abschließend beleuchten.
Für Website-Betreiber bleibt die Lage bis zum Urteil aus Luxemburg, das erst in einigen Monaten oder Jahren ergehen dürfte, zwar unsicher. Die BGH-Vorlage signalisiert aber, dass die Karlsruher Richter der massenhaften Abmahnpraxis mit erheblicher Skepsis gegenüberstehen. Die Zeit der leichten Gewinne durch automatisierte Crawler-Besuche könnte bald vorbei sein.
Bereits 2016 entschied der EuGH: Pseudonymisierte Daten – wie eine dynamische IP-Adresse – sind nicht automatisch anonym. Solange die Möglichkeit besteht, die Identität der Person durch „zusätzliche Informationen“ wiederherzustellen, bleibt der Personenbezug bestehen. Der entscheidende Aspekt dabei ist, ob der Datenverantwortliche über die Mittel zur Re-Identifizierung verfügt. Dies schließt die Option der Kooperation mit Dritten wie Internetprovidern oder Behörden ein.
(nie)
Künstliche Intelligenz
Evolutionäre Architektur in dynamischen Umfeldern mit selbstorganisierten Teams
Softwareentwicklerinnen und -entwickler werden oft von unerwarteten Ereignissen überrascht: User verwenden neue Features auf unvorhergesehene Weise, was zu einer unerwarteten Last auf den Servern führt; eine Fremdbibliothek loggt nach einem Update plötzlich personenbezogene Daten, was gegen die Datenschutzrichtlinien verstößt; der Fallback-Mechanismus führt bei besonders datenintensiven Bausteinen unerwarteterweise zum Volllaufen des Caches. Jede Softwarearchitektin und jeder Softwarearchitekt kennt viele weitere Beispiele.
Weiterlesen nach der Anzeige

Alexander Kaserbacher ist Berater mit Fokus auf Softwarearchitektur. Zur Zeit beschäftigt er sich intensiv mit Evolutionärer Architektur und Platform Engineering.
Zu Beginn eines Projekts waren diese Ereignisse Unknown Unknowns, von denen vorher niemand wusste, dass er sie nicht weiß. Sie sind typisch für komplexe Probleme wie die in der Softwareentwicklung und führen insbesondere in einer Organisationsstruktur mit verteilten Teams zu Problemen. In solchen Strukturen existieren meist übergreifende Governance-Vorgaben etwa hinsichtlich Technologien, Programmiersprachen, Mustern und Schnittstellen. Um deren Definition kümmern sich zentrale Architekturteams. Strikte zentrale Vorgaben dieser Art stören aber oft eine effektive Reaktion auf Unknown Unknowns, wofür es mehrere Gründe gibt:
- Die Vorgaben zielen meist auf Qualitätsaspekte der Software ab, wie Sicherheit, Wartbarkeit oder Zuverlässigkeit. Zentrale Einheiten müssen dabei einschätzen, wie die Teams die Vorgaben auf verschiedenen Abstraktionsebenen anwenden. Außerdem müssen sie im Voraus wissen, ob die vorgesehene Umsetzung die gewünschten Qualitätsansprüche überhaupt erfüllen kann.
- Vereinheitlichung macht Softwareentwicklung langsamer, da für viele Entscheidungen die zentralen Einheiten zuständig sind, was ständige Abstimmungen aller Teams mit diesen erfordert. Das führt oft zu Engpässen.
- Die Vorgaben nehmen den Entwicklungsteams Verantwortung, sodass sie sich für extern festgelegte Themen nicht zuständig fühlen.
- Innovation wird erschwert, weil Entwicklungsteams sich strikt an Vorgaben halten und nicht davon abweichen. Dadurch fehlt das Feedback, ob sie tatsächlich geeignet sind oder ob es bessere Alternativen gibt.
Problemlösung in dynamischen Umfeldern
Da in einem dynamischen Umfeld passende Lösungen für überraschende Probleme oft nicht vorhersehbar und planbar sind, müssen sich die Akteure einer guten Antwort schrittweise nähern. Ähnliche Herausforderungen gibt es in der Wissenschaft, wo Forscherinnen und Forscher neue Erkenntnisse durch Hypothesen gewinnen. Experimente und formale Beweise bestätigen oder widerlegen diese Hypothesen, sodass die Annäherung an neue Erkenntnisse schrittweise erfolgt. Je mehr Unknown Unknowns in einem Softwareprojekt versteckt sein könnten, desto stärker profitieren die Entwicklerinnen und Entwickler von kleinen Schritten (Hypothesen), die regelmäßig durch Feedback validiert werden. Abbildung 1 veranschaulicht diesen Prozess.

Eine Hypothese wird durch Feedback-Mechanismen validiert (Abb. 1).
Entwicklungsteams betrachten jedes Release als Hypothese. Unabhängig davon, ob es um die Wahl von Messaging-Technologie und Datenbanken für hohen Durchsatz geht oder um einen Failover-Mechanismus zur Verbesserung der Verfügbarkeit – anstatt zentralen Vorgaben zu folgen, entscheiden sich Entwicklungsteams selbst für einen passenden Ansatz und setzen ihn in ihrem Verantwortungsbereich um. Diesen Ansatz validieren sie dann schnellstmöglich durch effektives Feedback. Sind beispielsweise der Durchsatz und die dazugehörige Geschwindigkeit ein wichtiges Ziel, bieten Performance-Messungen am laufenden System eine wertvolle Rückmeldung. Ziele wie Verfügbarkeit sind ebenfalls direkt messbar, während sich Wartbarkeit oft anhand von Metriken wie Kopplung oder zyklomatische Komplexität (Kontrollflussgraph eines Programms) ableiten lässt.
Weiterlesen nach der Anzeige
Die Feedback-Mechanismen zeigen den Entwicklungsteams Verbesserungsmöglichkeiten, die sie dann in neuen Hypothesen umsetzen. Das ähnelt dem evolutionären Prozess in der Biologie, bei dem genetische Variation lokal und dezentral entsteht, während die natürliche Selektion schlechte Varianten aussortiert.
Im IT-Kontext entsteht Variation in den Arbeitsergebnissen selbstorganisierter Teams, während Feedback-Mechanismen (Selektion) unpassende Teile schnell aufdecken. In Anlehnung an die Biologie nennt sich dieses Konzept Evolutionäre Architektur. Sie beschreibt eine Produktentwicklung, die durch inkrementelle, emergente Praktiken und regelmäßiges, qualitatives Feedback in komplexen Umfeldern dynamisch agiert.
Die Wechselwirkung zwischen Hypothesen und Feedback sollte dabei rasch und kleinteilig erfolgen. Empirische Daten wie die Four Key Metrics verdeutlichen diese Dynamik (Forsgren, N. u.a.: The Science of Lean Software and DevOps: Building and Scaling High Performing Technology Organizations; 2018). Sie definieren wichtige Metriken, über die sich High-Performing Teams von anderen unterscheiden:
- Deployment Frequency stellt dar, wie oft Entwicklungsteams den Zyklus aus Abbildung 1 durchlaufen.
- Lead Time for Changes zeigt, wie schnell Entwicklungsteams diesen Zyklus durchlaufen.
- Time to Restore Service und Change Failure Rate beschreiben das Risiko, das mit dem Deployment von möglicherweise fehlerhaften Hypothesen verbunden ist.
Damit sich Entwicklungsteams möglichst effektiv einem zufriedenstellenden Ergebnis nähern, sind kleine und häufige Deployments mit geringem Schadenspotenzial entscheidend. Klassische Governance-Ansätze (siehe Kasten „So entstehen klassische Governance-Ansätze“) stehen dem oft im Weg, denn manuelle Freigabe- und Kontrollprozesse verlängern die Deployment Frequency und Lead Time for Changes.
Softwaresysteme setzen sich aus mehreren Bausteinen zusammen: Module, Services, Applikationen – je nach Kontext und Detaillierungsgrad können sie anders bezeichnet sein. Gemeinsam bilden sie ein größeres System, sei es ein einzelnes Softwareprodukt oder die gesamte IT-Struktur eines Unternehmens. Softwarearchitektinnen und -architekten teilen die Bausteine häufig nach fachlichen Kriterien auf, insbesondere durch Techniken wie Domain-driven Design oder durch Architekturmuster wie Microservices. Ein Beispiel dafür ist ein Onlineshop, der aus Bausteinen wie Produktkatalog, Suche und Warenkorb besteht.
Wenn solche Systeme so umfangreich werden, dass ein einzelnes Team sie nicht betreuen und weiterentwickeln kann, splitten viele Organisationen die Verantwortung auf und weisen einzelne Bausteine jeweils einem eigenen Team zu. Eines könnte beispielsweise speziell für den Warenkorb-Baustein zuständig sein.
Sobald die Anzahl der Bausteine und Teams wächst, stehen Organisationen vor der Herausforderung, die zunehmende Komplexität zu bewältigen. Typische Probleme wie ein Wildwuchs an Technologien führen zu dem Wunsch nach übergreifenden Regeln und Vorgaben. Zentrale Architekturteams kümmern sich dann um die Definition allgemein gültiger Standards. So entstehen etwa Regeln hinsichtlich Technologien, Programmiersprachen, Muster und Schnittstellen sowie spezifische Strukturierungsvorgaben.
Die Hoffnung dabei ist, durch Standardisierung und Vereinheitlichung die Effizienz zu steigern. Entwicklungsteams sollten schneller arbeiten können, wenn sie sich an Vorgaben halten, statt selbst langwierig Entscheidungen zu treffen und Alternativen zu prüfen und abzuwägen. Einmal entwickelte Bausteine ließen sich wiederverwenden, auch teamübergreifend. Operation Teams wären effizienter, weil sie nur genau eine standardisierte Zielumgebung betreuen müssten.
Diese klassischen Ansätze versprechen auf den ersten Blick zwar Effizienzsteigerung, führen aber langfristig oft zu Problemen in der Verantwortungsübernahme und zu Innovationsstau.
Künstliche Intelligenz
Mystischer Jahresanfang: Die Bilder der Woche 2
In dieser Woche wird es mystisch: Die gewählten Fotos sind vom Winterwetter geprägt. Landschaften zeigen sich ohne Blätter und wirken dadurch wie minimalistische Gemälde. Die Menschen tragen dicke Winterkleidung. Gefrorene Bläschen im Eis verstärken das Gefühl, dass die Natur in der Kälte erstarrt.
Weiterlesen nach der Anzeige
Andererseits strahlt das Motiv einer Kerze Wärme aus und lässt uns durch ihr warmes Licht an die Weihnachtszeit zurückdenken. Ein bunter Fisch, umgeben von Korallen, gibt einen Ausblick auf die kommenden Jahreszeiten. Hier scheint der kalte Winter vergessen und der Sommerurlaub ruft verheißungsvoll.
Burgkapelle Heiligste Dreifaltigkeit von Mike_FJ

Burgkapelle Heiligste Dreifaltigkeit
(Bild: Mike_FJ)
Die Aufnahme zeigt die kleine Burgkapelle „Heiligste Dreifaltigkeit“ in der Oberpfalz. Der Blick führt ruhig durch die Landschaft und lenkt die Aufmerksamkeit auf die klare Architektur aus massivem Stein. Licht trifft auf dunkle Flächen und betont Formen und Strukturen. Linien und Flächen ordnen das Bild streng und ausgewogen, mit den filigranen Ästen des Baumes als Gegenpol. Die reduzierte Farbgebung verstärkt die stille Wirkung. Der Ort selbst wirkt zeitlos und geschlossen. Das Bild vermittelt Ruhe und Konzentration. Es lädt zum Innehalten ein.
Träumen . . . GI – Kerzenschein

Träumen . . . GI – Kerzenschein
(Bild: lgfokus)
Eine Szene im warmen Schein des Kerzenlichts, das sich sanft über das Motiv legt und dessen Konturen verschwimmen lässt. Die helle Flamme bildet einen Kontrast zum dunklen Hintergrund. Durch die bewusste Reduzierung der Komposition entsteht eine intime und stille Stimmung. Es weckt Assoziationen von Ruhe und Besinnung.
Weiterlesen nach der Anzeige
Die Natur in bunt von aaliyah_NaturPix

Die Natur in bunt
(Bild: aaliyah_NaturPix)
Ein farbenprächtiger Fisch schwimmt durch klares Wasser – vermutlich in einem Aquarium. Blau- und Violetttöne dominieren das Motiv. Die feinen Muster auf seinen Schuppen und Flossen ziehen den Blick an. Der Fisch hebt sich nur leicht von den Steinen des Hintergrunds ab. Die Komposition wirkt bewusst reduziert und das Bild erzeugt eine stille, kontemplative Stimmung.
Zauberberg von Rudolf Wildgruber

Zauberberg
(Bild: Rudolf Wildgruber)
Vor einem Vollmond erhebt sich eine schimmernde Eisplatte. Ihre feinen Strukturen zeichnen sich deutlich ab, und ein Prisma zerlegt das Licht in die Farben Blau, Grün und Rot. So entsteht ein fast abstrakter Eindruck. Die Montage verbindet Natur und Experiment. Der runde Mond bildet einen Gegenpol zur kristallinen Form. Ein Bild, das mit Wahrnehmung und Maßstab spielt und dadurch magisch wirkt.
Spuren der Zeit von Lightpix84

Spuren der Zeit
(Bild: Lightpix84)
Im Schnee steht ein abgestorbener Baum. Dahinter spannt sich die Milchstraße über den Nachthimmel, unzählige Sterne füllen das Bild. Der Baum erscheint wie eine dunkle Silhouette vor dem Licht des Alls. Die Komposition lebt vom Kontrast und die klare Trennung von Vordergrund und Himmel sorgt für Ordnung und Ruhe. So verbindet das Bild Vergänglichkeit und Dauer und regt zum stillen Nachdenken über die Zeit an.
Am Paracelsus-Bad von NAlois

Am Paracelsus-Bad
(Bild: NAlois)
Die Fassade des Paracelsus-Bads in Salzburg spiegelt sich in der glänzenden Oberfläche eines parkenden Autos. Im richtigen Moment zieht ein einzelner Passant in roter Jacke durch das Bild und setzt einen klaren menschlichen Akzent. Die Komposition dieses Street-Fotos lebt von Überlagerungen: Architektur, Fahrzeug und Figur verschmelzen zu einer Ebene. Klare Linien treffen auf weiche Verzerrungen. So wird ein alltäglicher Ort zu einer präzise beobachteten Aufnahme.
Linien und Flächen von Thomas Brahtel

Linien und Flächen
(Bild: Thomas Brahtel)
Viel Raum, viel Schnee und viel Ruhe – eine weite Winterlandschaft liegt fast leer vor uns. Dunkle Überlandleitungen ziehen sich quer durch das Bild, während zwei schmale Orientierungspfosten feine Akzente im Weiß setzen. Durch die klare Reduktion wird die Landschaft zur abstrakten Komposition. In Schwarz-Weiß wirkt die Natur hier nicht romantisch, sondern streng und rätselhaft.
(vat)
-
UX/UI & Webdesignvor 3 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 3 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Künstliche Intelligenzvor 3 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
