Entwicklung & Code
JetBrains macht ReSharper via Open VSX Registry zugänglich
Das Softwareunternehmen JetBrains hat bekannt gegeben, dass es seine Editor-Erweiterung ReSharper in der Open VSX Registry veröffentlicht hat. Bislang war ReSharper für Microsofts Entwicklungsumgebung Visual Studio über den Visual Studio Marketplace verfügbar. Nun lässt sich das Codeanalyse- und Produktivitätstool für C#, Razor, Blazor und XAML via Open VSX Registry auch für Visual Studio Code, Cursor und weitere Editoren herunterladen und aktualisieren.
Weiterlesen nach der Anzeige
Automatische Updates
Zu diesem Schritt hat sich JetBrains laut der Ankündigung entschieden, um Nutzerinnen und Nutzern von Cursor, Windsurf und VSCodium die Verwendung von ReSharper zu erleichtern. Diese konnten ReSharper unter Umständen zwar nutzen, mussten dafür jedoch eine plattformspezifische .vsix-Datei herunterladen und bei jedem Versionsupdate eine neue ReSharper-Version manuell installieren. Aufgrund fehlender Update-Benachrichtigungen konnte es oft vorkommen, dass User bei älteren Versionen verblieben.
(Bild: coffeemill/123rf.com)
Verbesserte Klassen in .NET 10.0, Native AOT mit Entity Framework Core 10.0 und mehr: Darüber informieren .NET-Profis auf der Online-Konferenz betterCode() .NET 10.0 am 18. November 2025. Nachgelagert gibt es sechs ganztägige Workshops zu Themen wie C# 14.0, künstliche Intelligenz und Web-APIs.
ReSharper in der Open VSX Registry
Bei der Open VSX Registry handelt es sich um ein quelloffenes Projekt der Eclipse Foundation, das eine Alternative zu Microsofts Visual Studio Marketplace darstellt. Seit Juni 2023 ist die Open VSX Working Group dafür zuständig. Nun gesellt sich auch ReSharper zu den dort vorhandenen Erweiterungen, derzeit als „Public Preview“ gekennzeichnet. ReSharper bietet unter anderem die Möglichkeit, Code-Issues mithilfe von Echtzeit-Vorschlägen zu erkennen und zu beheben sowie konsistente Analyseregeln über das gesamte Entwicklungsteam hinweg durchzusetzen.
Solange die Preview-Phase noch läuft, wird ReSharper kostenfrei verfügbar sein. Danach wird es Teil des dotUltimate-Abonnements werden, wobei auch eine kostenfreie Edition für die nicht kommerzielle Verwendung zur Wahl stehen soll.
Verschlankte Binaries
Weiterlesen nach der Anzeige
Da eine veröffentlichte Binary in der Open VSX Registry maximal 256 MB groß sein darf, war eine Architekturänderung erforderlich. Denn die ReSharper-.vsix-Datei für Windows ARM64 hatte eine Größe von 275 MB, und auch die anderen Versionen waren nicht weit von der Begrenzung entfernt und hätten diese künftig schnell überschreiten können. Daher entschloss sich JetBrains, einen leichtgewichtigeren Kern zu entwickeln, der größere Komponenten beim ersten Start vom JetBrains-Downloadserver herunterlädt. Dazu zählen der ReSharper Language Server und die .NET Runtime.
Die hieraus entstehenden Nachteile sind ein verlängerter erstmaliger Start der Extension und die einmalige Notwendigkeit einer bestehenden Internetverbindung mit unbeschränktem Zugang zum Server Nach erfolgreichem Download der Komponenten ist die Extension laut Anbieter auch ohne Internetverbindung voll funktionsfähig.
Feedback kann die Community unter dem JetBrains-Blogeintrag oder im Issue-Tracker auf YouTrack hinterlassen.
(mai)
Entwicklung & Code
Nachruf: Abschied von robots.txt (1994-2025)
Henning Fries ist UI/UX-Engineer mit Leidenschaft für nachhaltiges Webdesign, digitale Barrierefreiheit und die Psychologie guter Nutzererlebnisse.
Seit über fünfzehn Jahren arbeitet er als Designer, Entwickler und Berater an der Schnittstelle von Mensch, Technologie und Gestaltung – in Deutschland, Frankreich und Luxemburg.
Als Full-Stack-Entwickler mit Designfokus und Green-Frontend-Enthusiast verbindet er technisches Know-how mit einem klaren Bewusstsein für Ressourcenschonung und User Experience. Sein Ziel: digitale Produkte, die sinnvoll, zugänglich und menschlich sind.
Mit tiefer Trauer geben wir das Ende von robots.txt bekannt, der bescheidenen Textdatei, die dreißig Jahre lang als stille Wächterin der digitalen Höflichkeit diente. Geboren am 1. Februar 1994 aus der Not heraus, als Martijn Kosters Server unter einem fehlerhaften Crawler namens „Websnarf“ zusammenbrach, verstarb robots.txt im Juli 2025, nicht durch Cloudflares Hand, sondern an den Folgen systematischer Missachtung durch KI-Konzerne. Cloudflares Entscheidung, KI-Crawler standardmäßig zu blockieren, markierte lediglich den Moment, in dem auch der letzte große Infrastruktur-Anbieter das Vertrauen in freiwillige Compliance aufgab und zu technischer Durchsetzung überging – ein letzter Akt der Verzweiflung, der das Ende einer Ära markierte. Wie bei allen bedeutsamen Verlusten brauchte es Zeit, bis das volle Ausmaß dieser digitalen Tragödie begriffen wurde.
Weiterlesen nach der Anzeige
Ein Leben der stillen Dienste
robots.txt wurde in einer Zeit geboren, in der das Internet einer kleinen, beschaulichen Nachbarschaft glich – überschaubar, persönlich und geprägt von gegenseitigem Vertrauen. Man kannte die Bots, die vorbeikamen, und pflegte den digitalen Umgang miteinander. robots.txt, geborene „RobotsNotWanted.txt“, war nie darauf ausgelegt, komplexe rechtliche Schlachten zu führen oder Milliardenunternehmen zu konfrontieren – sie war einfach ein höflicher, aber dennoch bestimmter Hinweis: „Bitte nicht hier entlang.“
In ihren goldenen Jahren lebte robots.txt in perfekter Harmonie mit den großen Suchmaschinen. Google respektierte sie, Yahoo ehrte sie, und selbst AltaVista – ruhe in Frieden – und Lycos folgten ihren Anweisungen. Es war ein Geben und Nehmen. Es war eine Freundschaft auf Augenhöhe, geprägt von einer einfachen Wahrheit: Suchmaschinen erhielten Content zur Indexierung, während Websites im Gegenzug Traffic bekamen. Dieses Crawl-zu-Referral-Verhältnis – also das Verhältnis zwischen Bot-Zugriffen und zurückgeleiteten Nutzern – lag bei Google bei einem fairen 14:1. Pro 14 von Bots aufgerufenen Seiten fand im Schnitt ein Nutzer den Weg zurück zur Website. Heute ist dieser Kontrakt gebrochen: KI-Crawler generieren Tausende oder Millionen von Zugriffen, während kaum Traffic durch Links oder Erwähnungen zurückkommt.
„Anthropics ClaudeBot zeigte im Juni 2025 das mit Abstand höchste Crawl‑zu‑Referral‑Verhältnis – etwa 70.900 Crawls pro einem Referral, weit mehr als jeder andere KI‑Crawler.“ (Cloudflare (Juli 2025))
robots.txt war so grundlegend für das Funktionieren des Internets, dass man ihr 2022 mit RFC 9309 endlich formell Anerkennung zollte. Doch selbst dieser späte Ritterschlag konnte ihr Schicksal nicht aufhalten.
Chronik eines schleichenden Endes
Weiterlesen nach der Anzeige
Die ersten Anzeichen des Wandels zeigten sich 2017, als das Internet Archive ankündigte, robots.txt bei der Archivierung historischer Inhalte nicht länger zu berücksichtigen. Am 17. April 2017 erklärte Mark Graham (Direktor der Wayback Machine), dass robots.txt-Dateien – insbesondere solche, die für Suchmaschinen gedacht sind – nicht immer mit den Archivierungszielen übereinstimmen. Das Internet Archive verfolge das Ziel, möglichst vollständige Schnappschüsse des Webs zu bewahren, einschließlich doppelter oder großer Inhalte.
„Over time we have observed that the robots.txt files that are geared toward search engine crawlers do not necessarily serve our archival purposes.“ (Mark Graham)
Doch das war nur ein Vorgeschmack auf die fortschreitende, systematische Ausschöpfung, die jetzt folgen sollte. Mit dem Aufkommen der künstlichen Intelligenz verwandelte sich das Internet von einem kollaborativen Raum in eine Extraktionszone.
Doch statt des erhofften kollaborativen Miteinanders folgte systematische Ausbeutung. KI-Konzerne errichteten neue digitale Barrieren: Cloudflares Default-Blocking, Paywalls für API-Zugang und exklusive Lizenzdeals mit ausgewählten Publishern. Content-Ersteller sahen sich einer industriellen Extraktionsmaschine gegenüber, die ihre Arbeit ohne Gegenleistung verwertete. Das Internet, einst als offenes Netz für alle konzipiert, verwandelte sich in eine zentralisierte Datenmine für Tech-Giganten.
OpenAI führte den Angriff mit seinem GPTBot, ChatGPT-User und OAI-SearchBot an – eine Dreifaltigkeit der Verletzung, die robots.txt hilflos zusehen ließ, wie ihre Direktiven geflissentlich ignoriert wurden. Das Unternehmen behauptete öffentlich Compliance, während Cloudflare im Juni 2025 ein vernichtendes Crawl-to-Referral-Verhältnis von 1.700:1 dokumentierte – industrielle Extraktion ohne nennenswerte Gegenleistung.
Anthropic fügte dem Leiden weitere Qualen hinzu. ClaudeBot, anthropic-ai und Claude-Web hämmerten auf Server ein, wobei iFixit eine Million Besuche in 24 Stunden und Freelancer.com fast vier Millionen in vier Stunden erlebte. Mit einem Crawl-to-Referral-Verhältnis von 73.000:1 überschritt Anthropic alle Grenzen des Anstands — es war, als würde man einem Nachbarn die Haustürschlüssel anvertrauen, damit er die Blumen gießt – nur um festzustellen, dass er den gesamten Hausrat abtransportiert hat.
Perplexity AI gehörte zu den aggressivsten Akteuren: Es nutzte verdeckte (undisclosed) IP-Adressen und Drittdienste, um Crawling-Aktivitäten zu verschleiern. Als CEO Aravind Srinivas öffentlich erklärte, robots.txt sei kein rechtliches Framework, war das ein offener Affront gegen das jahrzehntealte fragile Protokoll.
Eine Textdatei im Schatten des letzten Gefechts
In ihren letzten Monaten kämpfte robots.txt verzweifelt um die Relevanz vergangener Zeiten. Website-Betreiber entwickelten immer raffiniertere Unterstützungssysteme: Crawler-Fingerprinting mit TLS-Analyse (Transport Layer Security), Honeypot-Fallen und Verhaltensanalyse. Doch es war, als versuchte man, eine akute Blutvergiftung mit fiebersenkenden Mitteln zu behandeln – technisch durchdacht, aber dem Ausmaß der Bedrohung nicht gewachsen.
Das European Data Protection Board versuchte mit der Opinion 28/2024 dem Protokoll rechtliche Verbindlichkeit zu geben, während Italiens Datenschutzbehörde Garante OpenAI mit einer Strafe von 15 Millionen Euro belegte. Doch es waren verzweifelte Wiederbelebungsversuche eines längst kollabierten Systems – der freiwillige Respekt war nicht mehr zu retten.
Alternative Protokolle – ai.txt, TDM ReP, „No-AI-Training“ HTTP-Header – wurden als potenzielle Nachfolger diskutiert. Aber sie alle trugen den Makel ihrer Geburt: Sie entstanden nicht aus Kooperation, sondern aus Konfrontation.
(Bild: jaboy/123rf.com)
Der Call for Proposals für die enterJS 2026 am 16. und 17. Juni in Mannheim ist gestartet. Bis zum 12. November suchen die Veranstalter nach Vorträgen und Workshops rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr.
Entwicklung & Code
PHP-Community feiert 20 Jahre Symfony
Das PHP-Framework Symfony feiert in dieser Woche sein 20-jähriges Bestehen. Seit 2005 entwickeln Menschen weltweit das PHP-Framework weiter, teilen Wissen und prägen damit die Webentwicklung. Aus einem einzelnen Framework ist ein globales Open-Source-Projekt geworden, das Millionen Anwendungen antreibt.
Weiterlesen nach der Anzeige
Was Symfony auszeichnet
Symfony steht für eine klare, modulare Architektur und wiederverwendbare Komponenten, die auch andere Projekte wie Laravel oder Drupal nutzen. Das Framework legt Wert auf Stabilität und langfristigen Support, bleibt dabei aber flexibel: Es lässt sich als vollständiges System oder über einzelne Bausteine einsetzen.
(Bild: nuevoimg / 123rf.com)
Am 25. November findet die betterCode() PHP statt, eine Online-Konferenz von iX und dpunkt.verlag in Kooperation mit thePHP.cc. Interessierte können sich in Vorträgen und Diskussionsrunden über die Programmiersprache informieren. Vergünstigte Tickets zum Early-Bird-Tarif sind über die Konferenz-Website erhältlich.
Klare Standards, testgetriebene Entwicklung und sauberes Design fördern die Codequalität und sichern die Wartbarkeit. Eine aktive internationale Community sorgt für Weiterentwicklung, Dokumentation und Austausch, während moderne Werkzeuge wie Symfony Flex oder die Integration von Doctrine ORM und API Platform die technische Basis bilden.
Zwei Jahrzehnte Symfony im Überblick
2005 erschien Symfony 1.0 und legte den Grundstein für strukturierte PHP-Entwicklung. Aus ersten Meetups und dem Blog A Week of Symfony entstand schnell eine aktive Community. Mit der Veröffentlichung von Symfony 2.0 (2011) führte das Projekt eine modulare Architektur ein, die bis heute Kern des Frameworks ist. Composer und wiederverwendbare Bundles machten Symfony ab 2012 flexibler und beeinflussten viele andere Open-Source-Projekte.
Weiterlesen nach der Anzeige
In den folgenden Jahren entwickelte das Team neue Standards und Werkzeuge zur Verbesserung der Entwicklererfahrung. Ab 2017 erleichterten Flex, Autokonfiguration und erweiterte Tools die tägliche Arbeit. Mit den neueren Versionen 5 bis 7 richtete sich Symfony konsequent auf moderne PHP-Versionen, API-Entwicklung und eine stärkere Verbindung von Frontend und Backend aus. Heute zählt das Framework über 250 Pakete und bleibt ein zentraler Bestandteil der PHP-Landschaft.
Blick zurück und nach vorn
Zum Jubiläum blickt das Projekt auf einer eigens dafür erstellten Website auf zentrale Stationen seiner Entwicklung und lädt die Community ein, die gemeinsame Geschichte zu erkunden. Im November 2025 trifft sich die Symfony-Community auf der SymfonyCon Amsterdam, um über die nächsten Schritte zu sprechen.
Symfony blickt auf zwanzig Jahre gemeinsames Arbeiten zurück – und entwickelt die Zukunft offen weiter.
(mdo)
Entwicklung & Code
programmier.bar: Security in Games mit Philip Klostermeyer
Mit einem für 2025 prognostizierten Gesamtumsatz von 250 Milliarden US-Dollar ist die Spielebranche mittlerweile doppelt so groß wie die Branchen Film und Musik – kombiniert! Schätzungen gehen von bis zu 3 Milliarden Spielerinnen und Spielern weltweit aus. Kein Wunder also, dass auch Videospiele längst in den Fokus von Hackern und Sicherheitsforschern gerückt sind.
Weiterlesen nach der Anzeige
In dieser Folge sprechen Dennis Becker und Jan Gregor Emge-Triebel mit dem Sicherheitsforscher Philip Klostermeyer über verschiedene Aspekte von Security in Videospielen. Philip Klostermeyer forscht am CISPA Helmholtz Center for Information Security und hat für seine letzte Studie mit vielen Entwicklerinnen und Entwicklern sowie Verantwortlichen bei großen und kleinen Studios und Publishern gesprochen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.
Klostermeyer erläutert, welchen Einfluss aktuelle Trends wie Multiplayer-Spiele, Live-Service-Titel und E-Sports auf die Sicherheitsarchitektur von Videospielen haben. Außerdem beleuchtet er Gemeinsamkeiten und Unterschiede zwischen der Entwicklung von Videospielen und „klassischer“ Software. Anhand aktueller und unterhaltsamer Beispiele zeigt er auf, wie auch moderne Spiele, etwa Counter-Strike 2, unter den gleichen Sicherheitslücken wie reguläre Software leiden – von Cross-Site-Scripting-Angriffen über Supply-Chain-Attacken bis hin zu Code Injections.
Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar bereit: „Security in Games mit Philip Klostermeyer„. Fragen und Anregungen gerne per Mail oder via Mastodon, Bluesky, LinkedIn oder Instagram.
(mai)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 4 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 3 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows