Künstliche Intelligenz
Datenanalyse: Googles KI-Übersichten bewirken bis zu 25 Prozent Traffic-Rückgang
Bewirken Googles KI-Übersichten einen Rückgang der Besucher auf anderen Websites, weil Google mit seinen von der KI erzeugten Zusammenfassungen die Nutzerfragen hinreichend beantwortet? Oder führen die KI-Zusammenfassungen sogar zu höherwertigen Klicks, aber keinesfalls zu Besucherrückgängen – wie es Google nicht müde wird, zu behaupten? Eine aktuelle Studie von Digital Content Next (DCN), einem Dienstleister und Lobbyverband großer, angesehener US-Publisher, scheint die Befürchtungen der Verleger zu bestätigen.
DCN hat von 19 seiner Mitglieder für die Monate Mai bis Juni den Traffic aus Google-Suchanfragen ausgewertet. Im Laufe von nur acht Wochen (Mai und Juni) sei der Traffic in Schnitt um 10 Prozent eingebrochen. Zwölf der befragten Unternehmen waren Nachrichtenmarken, sieben waren Nicht-Nachrichtenmarken.
Laut Jason Kint, dem CEO von DCN, seien diese Verluste eine direkte Folge der Google „AI Overviews“. Die neuesten Daten widerlegen seiner Meinung nach damit die vagen Behauptungen von Google über „Qualitätsklicks“, fügte er hinzu. Er fordert von Google faire Lizenzbedingungen für die Inhalte von Publishern. Von den Marktaufsichtsbehörden fordert er, dass die KI-Übersichten als Teil von Googles Suchmonopol behandelt werden.
EU-Wettbewerbsbehörde eingeschaltet
Der Konflikt zwischen den Verlegern und Google um die negativen Auswirkungen der KI-Zusammenfassungen hat längst auch die regulatorische Ebene erreicht. Eine „Independent Publishers Alliance“ hat bei der EU-Wettbewerbsbehörde eine Beschwerde eingereicht. Der Vorwurf: Google missbrauche seine marktbeherrschende Stellung, um seine eigenen KI-Zusammenfassungen an die Spitze der Suchergebnisse zu setzen und die ursprünglichen Inhalteanbieter zu benachteiligen. Die Verleger fordern dringende Maßnahmen, um „irreparablen Schaden“ abzuwenden.
(jo)
Künstliche Intelligenz
Satellitendaten: DLR weist hohe Hitzebelastung in deutschen Großstädten nach
Die erste größere Hitzewelle im August ist hierzulande zwar gebrochen, doch städtebauliche Maßnahmen zum Anpassen an den Klimawandel dürften weiter gefragt sein. In einer Analyse hat das Deutsche Zentrum für Luft- und Raumfahrt (DLR) dafür erstmals systematisch die Verteilung der Oberflächentemperaturen in allen deutschen Großstädten mit über 100.000 Einwohnern untersucht. Die Ergebnisse bestätigen, dass stark versiegelte und dicht bebaute Stadtbereiche besonders unter Hitze leiden.
Die Studie macht die geografische Lage und Struktur der Hitzebelastung in mehr als 70 Städten wie Berlin, München, Frankfurt, Stuttgart, Köln und Hamburg räumlich nachvollziehbar. Basis dafür sind thermale Aufnahmen der US-amerikanischen Landsat-Satelliten, die eine fundierte, datenbasierte Grundlage für gezielte Maßnahmen gegen die Hitze in Ballungsräumen schaffen sollen.
Die DLR-Wissenschaftler untersuchten die durchschnittlichen Oberflächentemperaturen der Sommermonate Juni, Juli und August von 2013 bis 2024. Obwohl Oberflächen- und Lufttemperatur nicht identisch sind, stehen sie in direktem Zusammenhang, was die Identifizierung von Hitzeinseln ermöglicht. Diese Daten haben die Experten mit verschiedenen Variablen wie Stadtgröße, Lage und Strukturtypen – etwa Einfamilienhausgebiet oder Blockbebauung – in Beziehung gesetzt.
Hitze-Hotspots präzise identifizieren
Um die Temperaturverteilung noch genauer zu simulieren, kombinierten die Forscher Erdbeobachtungsdaten mit Stadtklimamodellen. Dadurch konnten sie die Hitzeverteilung bis auf einen Meter genau erfassen und wichtige Faktoren wie die Beschattung einzelner Bereiche präzise simulieren. So konnten sie herausfinden, wo der Hitzestress am höchsten ist.
„Aus der Fernerkundung haben wir mittlerweile umfangreiche Daten, um räumliche Hitze-Hotspots zu identifizieren, zu quantifizieren und zu überwachen“, erläutert Thilo Erbertseder, DLR-Forscher für Stadtklima und Gesundheit. „Dieses Wissen kann eingesetzt werden, um die Hitzebetroffenheit der Stadtbevölkerung zu reduzieren.“ Dabei sei zu beachten, dass die gefühlte Hitzebelastung für den Menschen auch von Faktoren wie Luftfeuchte, Windgeschwindigkeit und Strahlung abhänge.
Grün- und Wasserflächen kühlen
Die Analyse bestätigt, dass Strukturen mit geringer Bebauungsdichte und hohem Grünanteil deutlich niedrigere Temperaturdifferenzen zum Umland aufweisen als dicht bebaute Gebiete. Grüne und blaue Infrastruktur (Vegetation und Wasserflächen) haben einen signifikanten Kühleffekt und werden daher bereits als Anpassungsmaßnahme genutzt, um die städtischen Temperaturen zu senken.
Hannes Taubenböck vom Earth Observation Center (EOC) des DLR betont, dass es in jeder Stadt Nutzungskonflikte zwischen Initiativen zum Anpassen an den Klimawandel und dem Bedarf an Wohnraum und Verkehrsinfrastruktur gebe. Die Forscher wollten daher Wissen liefern, „um gesellschaftliche und politische Entscheidungen dazu bewusster treffen zu können“. Mögliche Initiativen, die auf dieser Datenbasis umgesetzt werden könnten, umfassten die gezielte Information der Bevölkerung bei Hitzewellen, die Bereitstellung kühler Räume, hitzeschutzorientierte Sanierungen und langfristige städteplanerische Eingriffe. Das EOC hat mithilfe von Landsat-Daten auch bereits großflächige Verluste des Baumbestands hierzulande sichtbar gemacht: Von Januar 2018 bis April 2021 geriet demnach auf über 500.000 Hektar Fläche Grünvegetation in Mitleidenschaft. Als Auslöser gelten vor allem starke Hitze- und Dürreperioden, die wiederum Schadinsekten beflügelten.
Ausblick und Methodik
In künftigen Arbeiten will das DLR die Wirksamkeit verschiedener Abhilfeinstrumente untersuchen und Stadtklimamodelle mit Fernerkundungsdaten verknüpfen, um mögliche Szenarien zu bewerten. Die diesmal herangezogenen Landsat-Erdtrabanten überfliegen Deutschland jeweils am späten Vormittag oder gegen Mittag und erfassen dabei die Temperaturen der Oberflächen, also etwa an Baumkronen in Wäldern oder über Wassergebieten.
Aus diesen Daten berechnete das Team anschließend die Durchschnittstemperaturen der Sommermonate. Die flächendeckende Messung per Fernerkundung löst den Forschern zufolge das Problem, dass Lufttemperaturmessungen in Städten oft nicht ausreichend verfügbar sind, um lokale Hotspots zu identifizieren und gezielte Planungen zu ermöglichen.
„Informationen aus dem Weltraum sind grundlegend für ein noch besseres Verständnis von Prozessen wie den klimatischen Entwicklungen in Städten und Ballungsräumen“, ist sich die DLR-Vorstandsvorsitzende Anke Kaysser-Pyzalla sicher. Durch die im DLR entwickelten Verfahren und Methoden zur Be- und Verarbeitung von Satellitendaten könne das Institut verlässliche Informationen und Anwendungen für ein breites Spektrum an Handlungsempfehlungen bereitstellen.
(des)
Künstliche Intelligenz
Speichermangel bei Grafikkarten analysiert: 8 versus 16 GByte im Vergleich
Wer am Grafikspeicher spart, spart an der falschen Stelle. Wir prüfen, ob Spielergrafikkarten zwischen 300 und 400 Euro mit 8 GByte noch angemessen ausgestattet sind – oder ob es doch besser 16 GByte sein sollten. Dazu vergleichen wir zwei günstigere Versionen von Nvidias GeForce RTX 5060 Ti und AMDs Radeon RX 9060 XT und diese Karten mit ihren 16-GByte-Pendants. Sowohl AMD als auch Nvidia sehen für ihre jeweiligen Typen nämlich Varianten diese Grafikspeichervarianten vor. Ansonsten unterscheiden sich die Spezifikationen nicht grundlegend. Auch die empfohlene Leistungsaufnahme liegt im selben Rahmen, den die jeweiligen Kartenhersteller ohnehin selbst anpassen können, etwa zwecks Übertaktung.
Die getesteten Karten haben uns die jeweiligen Hersteller nicht ausgeliehen, sondern wir zitierten Radeon und GeForce per Einkauf ins Testlabor. Es handelt sich um die Gigabyte GeForce RTX 5060 Ti Windforce 2 8G für rund 365 Euro und die Powercolor Reaper Radeon RX 9060 XT 8 GB für knappe 300 Euro – beide sind im Leerlauf sehr sparsam. Wir entschieden uns bewusst für das preislich untere Ende ihrer Typklassen, denn wer mehr Geld ausgeben will, der kann auch gleich zu den 16-GByte-Modellen greifen.
In diesem Vergleich fokussieren wir nicht nur auf die beiden Karten, sondern generell auf die zu erwartenden und die sich praktisch einstellenden Unterschiede zwischen den beiden Testkandidaten und den entsprechenden Modellen mit 16 GByte Grafikspeicher. Außerdem geben wir ein paar Tipps, wie Spieler die Auswirkungen des kleineren Grafikspeichers abmildern können.
Das war die Leseprobe unseres heise-Plus-Artikels „Speichermangel bei Grafikkarten analysiert: 8 versus 16 GByte im Vergleich“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
iX-Workshop: Wireshark für Netzwerkdiagnose und -sicherheit
Langsame Verbindungen, ständige Unterbrechungen oder unerkannte Sicherheitslücken können den Betriebsablauf stark beeinträchtigen oder sogar zu Ausfällen führen. Mit Wireshark, einem Open-Source-Tool zur Netzwerkanalyse, können Administratoren den Netzwerkverkehr in Echtzeit überwachen, Sicherheitsrisiken identifizieren und Verbindungsprobleme diagnostizieren.
In dem praxisorientierten Workshop Netzwerkanalyse und Fehlersuche mit Wireshark erfahren Sie, wie Sie das Netzwerkanalyse-Tool Wireshark effizient einsetzen können. Sie lernen die Funktionsweise und Konfiguration von Wireshark kennen, entwickeln systematische Vorgehensweisen zur Fehleranalyse, verstehen die Bedeutung der Aufzeichnung von Netzwerkdaten und erfahren, wie Sie die Zuverlässigkeit Ihres Netzwerks steigern können.
Interaktive und praxisnahe Übungen
Der Workshop ist interaktiv gestaltet und beinhaltet praxisnahe Übungen in einer bereitgestellten Laborumgebung. Sie werden selbstständig Netzwerkdaten erfassen, Filter setzen, Analysen durchführen und Statistiken erstellen. Anhand konkreter Anwendungsszenarien vertiefen Sie dieses Wissen und verstehen beispielsweise, wie Sie Netzwerkprotokolle analysieren, Leistungsengpässe aufspüren und Auswirkungen von Paketstaus und Paketverlusten erkennen.
September 22.09. – 24.09.2025 |
Online-Workshop, 09:00 – 16:30 Uhr 10 % Frühbucher-Rabatt bis zum 24. Aug. 2025 |
Oktober 27.10. – 29.10.2025 |
Online-Workshop, 09:00 – 16:30 Uhr 10 % Frühbucher-Rabatt bis zum 28. Sept. 2025 |
November 24.11. – 26.11.2025 |
Online-Workshop, 09:00 – 16:30 Uhr 10 % Frühbucher-Rabatt bis zum 26. Okt. 2025 |
Ihr Trainer Henrik Wahsner ist ein erfahrener Experte in der Performanceanalyse und Fehlersuche in IP-Netzwerken. Als technischer Leiter der NETCOR GmbH kombiniert er tiefgehendes Fachwissen mit praxisnaher Expertise, die er in zahlreichen Kundenprojekten gesammelt hat.
Der nächste Workshop findet vom 22. bis 24. September 2025 statt und richtet sich an Netzwerkadministratoren und technische Mitarbeiter, die für den Betrieb von Netzwerken verantwortlich sind. Er ist ideal für Einsteiger in die Arbeit mit Wireshark, aber auch für erfahrene Anwender, die ihr Wissen vertiefen möchten. Teilnehmer, die das Tool bereits nutzen, erhalten neue Perspektiven und Workflows für die Netzwerkanalyse.
Aufgrund des interaktiven Formats ist die Teilnehmerzahl auf 20 Personen begrenzt, um ausreichend Raum für den Austausch mit dem Trainer und den anderen Teilnehmern zu schaffen.
(ilk)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen