Connect with us

Künstliche Intelligenz

Cloudflare vs. KI-Bots: „Die Menschheit braucht vom Menschen gemachte Inhalte“


Stephanie Cohen ist Chief Strategy Officer bei Cloudflare, einem Content Delivery Network (CDN) mit zahlreichen integrierten Sicherheits- und Managementfunktionen, das heute gut 20 Prozent des Internet-Datenverkehrs ausliefert (eigene Angabe). Bevor Cohen zu dem Netzdienstleister kam, arbeitete sie 25 Jahre beim Bankhaus Goldman Sachs, war zuletzt unter anderem auf das Thema Fintech spezialisiert.

In ihrer Position bei Cloudflare, die sie vor einem Jahr antrat, arbeitet sie laut eigenen Angaben “hauptsächlich an strategischen Initiativen, bei denen es um unser Netzwerk und die Infrastruktur” geht. Dazu gehörte zuletzt besonders das Thema KI-Monetarisierung für Kreative und Urheberrechtsinhaber über neuartige KI-Crawler-Filter. Im Interview mit heise online erläutert Cohen, was die Motivation dahinter ist.

heise online: Viele Kreative fragen sich heute, wie sie KI, die immer mehr auf ihre Geschäftsfelder vordringt, monetarisieren können. Sie haben das Gefühl, dass KI-Unternehmen ihre Daten abgreifen und es Nutzern ermöglichen, Texte, Bilder oder Videos in ihrem Stil zu erstellen. Wie sieht Ihr Unternehmen die aktuelle Situation?

Stephanie Cohen: Da Cloudflare mehr als 20 Prozent des Internet-Datenverkehrs ausliefert, haben wir eine beträchtliche Anzahl von Content-Erstellern auf unserer Plattform, große wie kleine. Auf unserer Plattform gibt es aber auch eine beträchtliche Anzahl von KI-Unternehmen, ebenfalls große und kleine. Wir sehen also die Dinge stets im Internet-Maßstab und haben festgestellt, dass sich die Art und Weise dieses Datenverkehrs verändert.

Jemand wie Sie als Journalist beispielsweise investiert Zeit und Mühe, um originelle Ideen zu entwickeln, zu recherchieren und darüber zu schreiben. Sie tun das, weil Sie einen Anreiz dazu haben, da Sie diese Inhalte monetarisieren können, entweder durch Werbung oder durch Abonnements.

Heutzutage lesen die Menschen jedoch oft eher Derivate und Ableitungen dieser Inhalte statt das Original. Und womit tun sie das? Sie nutzen KI. In einer Welt, in der alle nur noch Derivate lesen, müssen wir also ein funktionierendes Geschäftsmodell finden, damit wir ein nachhaltiges Ökosystem schaffen können, in dem sowohl Content-Ersteller als auch KI-Innovatoren erfolgreich sein können.


Stephanie Cohen

Stephanie Cohen

Stephanie Cohen, Chief Strategy Officer bei Cloudflare.

(Bild: Cloudflare)

Warum interessiert Cloudflare das überhaupt?

Unsere Mission ist es, zum Aufbau eines besseren Netzes beizutragen. Aber damit es ein Internet gibt, braucht man hochwertige, originelle und vielfältige Inhalte. Ohne diese gibt es wirklich keinen Grund mehr für das Netz. Um es ganz klar zu sagen: Es geht um das Überleben des Internet. Deshalb hat Cloudflare beschlossen, die Standardeinstellungen in unserem Netzwerk zu ändern, um die Voraussetzungen für neue Geschäftsmodelle im Zusammenhang mit KI zu schaffen.

Wie genau machen Sie das?

Wir stellen für alle neuen Kunden und neuen Domains im Netzwerk auf ein berechtigungsbasiertes System um. Erstens blockieren wir standardmäßig KI-Crawler für Trainingszwecke. Wir blockieren sie auf Netzwerkebene oder mithilfe von robots.txt. Bei der Anmeldung können Sie als Kunde entscheiden, ob Sie diese Funktion aktiviert lassen oder deaktivieren möchten.

Zweitens können Sie KI-Crawler auch individuell verwalten und entscheiden, ob Sie sie überhaupt auf Ihrer Website zulassen möchten, ob Sie ihnen das Training mit Ihren Daten erlauben wollen oder ob sie beispielsweise nur Suchanfragen durchführen dürfen.

Und drittens haben wir einen derzeit noch privaten Betatest gestartet, bei dem Website-Betreiber KI-Unternehmen fragen können, ob sie für das Crawling eine Gebühr zahlen möchten.

Diese drei Dinge sind nur der erste Schritt zur Schaffung eines nachhaltigeren Ökosystems, in dem KI und Content-Ersteller beide gedeihen können.

Wie lösen Sie das auf technischer Ebene und stellen sicher, dass KI-Unternehmen dies nicht umgehen?

Wir tun hier Einiges. Ein Beispiel: Wenn Sie eine von uns erstellte Website namens goodaibots.com besuchen, sehen Sie, ob die verschiedenen KI-Crawler ihre IP-Adressen bekannt geben, ob sie ihre Identität kryptografisch überprüfen lassen, ob sie robots.txt befolgen und so weiter.

In der Praxis haben wir technisch mehrere Möglichkeiten, Bots im Allgemeinen und KI-Bots im Speziellen zu blockieren. Erstens verfügen wir über ein verifiziertes Crawler-Programm, das mittlerweile von den meisten bekannten KI-Crawlern verwendet wird und uns mitteilt, wer sie sind. Die KI-Unternehmen geben auch die von ihnen verwendeten IPs bekannt.

Zweitens haben wir vor einigen Wochen ein Werkzeug namens WebBot Auth angekündigt, mit dem Bots wie erwähnt ihre Identität kryptografisch überprüfen lassen können, was ein wichtiger nächster Schritt ist. Es gibt einen kryptografischen Handshake, der bestätigt, dass Sie als Bot der sind, für den Sie sich ausgeben. Wir glauben, dass dies die Sicherheit im Internet allgemein erhöhen wird.

Der letzte Punkt ist, dass wir Unternehmen, die mehrere Aktivitäten in einem Crawler kombinieren, über robots.txt Anweisungen geben können. Unserer Erfahrung nach halten sie sich im Allgemeinen daran, zumindest die bekannten Crawler.

Welche Geschäftsmodelle sehen Sie sich daraus entwickeln?

Wir hoffen, dass durch die Schaffung der Voraussetzungen eines solchen nachhaltigen Systems viele verschiedene Geschäftsmodelle entstehen werden, die wir und andere testen und weiterentwickeln können.

Das von mir schon erwähnte Betamodell beispielsweise heißt „Pay per Crawl“ und bedeutet, dass Sie als Website-Betreiber oder Content-Ersteller einen bestimmten Betrag pro Crawl verlangen können oder dass der Crawler den Höchstpreis angibt, den er zu zahlen bereit ist.

Diese Kommunikation ist übrigens eine bilaterale Kommunikation, das heißt, es handelt sich um einen privat bleibenden Handshake: Er findet nur zwischen dem Crawler und den Content-Erstellern statt. Wenn die Preise übereinstimmen, findet der Crawl dann statt und sie werden bezahlt. Wenn keine Übereinstimmung vorliegt, erhält der Crawler eine 402-Antwort.

Es gibt sicherlich ausgefeiltere Lösungen wie man sie aus dem Programmatic-Advertising-Bereich kennt. Aber wir sind der Meinung, dass es am besten ist, mit etwas anzufangen, das einfach und leicht verständlich ist. Das war der Beginn. Und wir werden jetzt herausfinden, ob sich der Markt so entwickeln kann, dass sowohl die Ersteller von Inhalten als auch die KI-Firmen davon profitieren.



Source link

Künstliche Intelligenz

FreeBSD-Policy: KI-generierter Quellcode ? Nein, Danke!


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die FreeBSD-Entwickler haben sich in dem aktuellen Status-Report klar dagegen ausgesprochen, LLM-generierten Code in das klassische Open-Source-Betriebssystem einfließen zu lassen. Man sehe zwar durchaus Vorteile von LLMs beim Generieren oder Überarbeiten der Dokumentation und anderer Texte. Übersetzungen beispielsweise lassen sich wesentlich schneller in ausreichender Qualität mit einer LLM erzeugen als durch rein manuelle Arbeit. Zur Erzeugung von Quellcode dürfen LLMs jedoch nicht eingesetzt werden. Im Report werden „Lizenzbedenken“ als primärer Hinderungsgrund genannt, was ja durchaus ein Problem ist, da die Ausgaben einer jeden LLM aus zuvor auch ohne Zustimmung kopierten Inhalten aus allen möglichen Quellen stammen.

Liest man regelmäßig die Mailinglisten der diversen BSD-Projekte mit, fällt aber vor allem ein anderes Problem auf: Es werden immer wieder fragwürdige Ideen, Verbesserungen von Problemen, die nicht existieren, und vermeintliche Patches, die überhaupt nicht funktionieren, von Leuten eingereicht, die zuvor nicht in den Listen aufgetaucht sind. Dieses Spamming mithilfe von ChatGPT und Co. ist zwar immer relativ schnell erkennbar, kostet die ohnehin nicht im Überfluss vorhandenen Entwickler aber grundsätzlich wertvolle Zeit. Kein Wunder also, dass man zumindest im Lager der BSD-Systeme dieser Art von Entwicklungsarbeit sehr kritisch und missmutig gegenübersteht.

Die offizielle Formulierung im aktuellen Status-Report für das zweite Quartal 2025 findet sich unter „Policy on generative AI created code and documentation“: „Core untersucht derzeit die Einrichtung einer Richtlinie für die Verwendung von LLM (einschließlich, aber nicht beschränkt auf die Generierung von Code). Das Ergebnis wird dem Contributors Guide im Dokumenten-Repository hinzugefügt. KI kann für Übersetzungen (die schneller zu sein scheinen als die manuelle Arbeit), die Erläuterung langer/unverständlicher Dokumente, die Suche nach Fehlern oder das Verständnis großer Codebasen nützlich sein. Derzeit tendieren wir aufgrund von Lizenzbedenken dazu, sie nicht zur Codegenerierung zu verwenden. Die Diskussion wird auf der Core-Sitzung des BSDCan 2025-Entwicklergipfels fortgesetzt, und Core sammelt weiterhin Feedback und arbeitet an der Richtlinie.“

Wenn andere Open-Source-Projekte den Einsatz von ChatGPT & Co als Quelle für unter anderem sicherheitskritischen Code begrüßen, so muss man das akzeptieren. Aber es ist vielleicht eine gute Idee, wenn zumindest ein Teil der Open-Source-Welt eher auf konservative Methoden beim Programmieren setzt und die menschliche Intelligenz bevorzugt. Das erzeugt methodische Diversität und ist grundsätzlich besser als eine alle Systeme umspannende LLM-generierte Monokultur beim Quellcode, die irgendwann niemand mehr durchdringt.

Konkrete Beispiele: NetBSD hat im Mai 2024 seine Commit-Richtlinien geändert. LLM-generierter Code gilt als „belastet“ („tainted“) und darf nicht ohne explizite Erlaubnis eingereicht werden. Gentoo verbietet ausdrücklich jegliche Code-Beiträge, die mit LLM‑Tools erstellt wurden. Der Gentoo Council begründete dies mit Bedenken hinsichtlich Copyright, Qualität und Ethik. Und auch das QEMU-Projekt hat eine klare Verpflichtung: Code, bei dem bekannt oder auch nur vermutet wird, dass er mit LLM erzeugt wurde, wird abgelehnt. Grund: Unklare Lizenzherkunft und mögliche Nichteinhaltung des DCO (Developer Certificate of Origin). Die Linux Foundation hingegen erlaubt grundsätzlich die Nutzung von AI-Tools, setzt aber auf Verantwortung der Entwickler.

Das FreeBSD-Projekt veröffentlicht üblicherweise immer im Monat nach einem Quartal (also im April für Q1) einen ausführlichen Statusbericht. In den Berichten wird über den aktuellen Stand der Entwicklung informiert, also über Fortschritte bei der Systementwicklung, über wichtige Updates bei den Ports und Paketen, über Änderungen in der Infrastruktur und über Beiträge aus der Community. Das FreeBSD-Projekt zeigt so ganz transparent, woran gearbeitet wurde, welche Pläne es gibt und wie sich das Projekt weiterentwickelt.

Der aktuelle Statusbericht für das zweite Quartal 2025 hätte im Juli kommen sollen, konnte aber erst verspätet veröffentlicht werden. Laut den Entwicklern sind kontinuierlich immer weitere wichtige Meldungen eingetroffen, die noch in den Report aufgenommen werden mussten. Immerhin zeigt das, dass die Entwicklung von FreeBSD mittlerweile wieder Fahrt aufnimmt.

FreeBSD-Admins oder -Anwender finden interessante Hinweise in den Reports und überfliegen diese gerne. Der aktuelle Report weist beispielsweise auf nun vorhandene zeitgesteuerte ZFS-Snapshots oder das CPU-Pinning für Bhyve-VMs hin. Amüsant auch die Ankündigung, dass die Portierung von FreeBSD auf das PinePhone Pro Fortschritte macht und es dort einen Netzwerktreiber für „Headphone-to-USB-serial“-Adapter gibt – das funktioniert über PPP und erinnert etwas romantisch an Computer-Kommunikation im letzten Jahrhundert.


(axk)



Source link

Weiterlesen

Künstliche Intelligenz

SAP: 20 Milliarden Euro für die Souveränität


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Über 20 Milliarden Euro will SAP bis 2025 in den Ausbau des Sovereign-Cloud-Angebots investieren. Mit den Geldern soll die regionale Abdeckung mit sicheren, regulatorisch konformen Cloud-Angeboten erweitert werden, um Europas digitale Unabhängigkeit zu fördern. Unternehmen und Organisationen in stark regulierten Branchen sollen so Innovationen etwa auf dem Feld der künstlichen Intelligenz ohne Kompromisse innerhalb eines „souveränen Rahmens“ erhalten.




Auf dem IT Summit by heise 2025 am 11. und 12. November im München erklären renommierte Experten, was europäische Cloud-Hoster im Vergleich zu US-Hyperscalern leisten und wie man KI-Lösungen lokal betreibt. Lernen Sie aus Fallstudien, wie andere Unternehmen ihre digitale Abhängigkeit vermindert haben. Erfahren Sie, wie Open Source Ihre Software-Landschaft unabhängiger macht und warum mehr digitale Souveränität die IT-Sicherheit verbessert.

Der IT Summit by heise 2025, die neue Konferenz für IT-Verantwortliche, findet am 11. und 12. November im Nemetschek Haus in München statt. Veranstalter ist heise conferences, das Programm kommt aus der iX-Redaktion.

Mit den erweiterten Angeboten des Sovereign-Cloud-Portfolios stehen mehrere Bereitstellungsoptionen für unterschiedliche Sicherheitsprofile zur Wahl. Zu diesen zählen die IaaS-Plattform SAP Cloud Infrastructure, die auf Open-Source-Komponenten basiert, in dem hauseigenen Rechenzentrumsnetzwerk läuft und Daten ausschließlich in der EU speichert. Im Rahmen der Cloud-On-Site-Variante wird eine von SAP betriebene Infrastruktur in dem vom Anwendungsunternehmen bestimmten Rechenzentrum – also mit eigener physischer Kontrolle vor Ort – bereitgestellt.

Zu den Sovereign-Cloud-Angeboten zählt SAP auch die Delos Cloud. Die von der gleichnamigen Tochterfirma betriebene Umgebung soll der öffentlichen Verwaltung unter anderem den souveränen Einsatz von Microsoft-Produkten ermöglichen. Die Infrastruktur basiert auf dem Azure-Stack, ist aber Eigentum der unter deutschem Recht firmierenden Delos. Der US-amerikanische Hersteller hat folglich keinen direkten Zugriff auf das System. Für die Hyperscaler-Option – die Sovereign Cloud ist auf den Plattformen der großen Provider prinzipiell gleichfalls möglich – gilt das nicht.

Die umfassendste Kontrolle und Souveränität versprechen fraglos die beiden neuen Bereitstellungsmodelle. Den erweiterten Schutz will und wird sich SAP bezahlen lassen. Schließlich müsse zusätzliches Personal zu deutschen Preisen für den Rund-um-den-Betrieb aus den hiesigen RZs angestellt werden. Konkrete Angaben zur Preisgestaltung und etwaige Aufschläge für mehr Souveränität wurden nicht gemacht.

Mehr Details zu SAPs souveränen Cloud-Angeboten finden sich in der Ankündigung.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Gaming-Laptop: Schenker XMG Neo 16 mit GeForce RTX 5090 im Test


Die Verlockung, sich ein flottes Gaming-Notebook zuzulegen, ist groß. Damit sind die liebsten Spieltitel immer griffbereit und mit reichlich Leistung dank topaktueller Technik in höchster Detailstufe flüssig spielbar. Zusätzlich eignet sich die kraftstrotzende Hardware für Videobearbeitung oder KI-Anwendungen. Zur Speerspitze für solche Szenarien zählt Schenkers XMG Neo 16. Aus dem Schenker-Sortiment sind sie zurzeit die Einzigen, die Nvidias GeForce RTX 5090 Laptop-GPU mit 24 GByte Grafikspeicher und die schnellsten Gaming-Prozessoren vereinen: AMDs Ryzen 9 mit Stapelcache oder Intels Core Ultra 9 275HX.

Doch mobile Gaming-Maschinen sind nicht jedermanns Sache. Denn die tragbare Technik ist teuer und trotzdem stellt sich die Frage, wie viel Performance im Vergleich zu Desktop-PCs auf der Strecke bleibt.

Wir haben uns zwei unterschiedlich bestückte XMG Neo 16 ins Testlabor geholt, um genau das zu prüfen: Was geht derzeit beim mobilen Spielen im Vergleich zum Desktop? Vor allem, da die „Nvidia GeForce RTX 5090 Laptop“, wie die Karte mit vollem Namen heißt, in die Irre führt und nur halb so viel Rechenleistung wie die Desktop-Version mit derselben Ziffernfolge hat. Auch wenn unser Fokus für diesen Artikel einstweilen auf der Gaming-Leistung liegt, schauen wir uns auch in gewohnter Manier an, was die knapp drei Kilogramm schweren Geräte als Laptop taugen. Neue Rekorde bei der Akkulaufzeit haben sie nicht aufgestellt, so viel sei vorweg verraten.


Das war die Leseprobe unseres heise-Plus-Artikels „Gaming-Laptop: Schenker XMG Neo 16 mit GeForce RTX 5090 im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt