Künstliche Intelligenz
Missing Link: 20 Jahre WSIS – und (k)ein bisschen Multi-Stakeholder?
Vor 20 Jahren einigten sich die Mitgliedstaaten der Vereinten Nationen (UN) auf Grundsatzdokumente zum Aufbau der Informationsgesellschaft. Zu den Kernpunkten gehörte die Einsicht, dass Regierungen für die Vernetzung und Digitalisierung die Zusammenarbeit mit Wirtschaft, Zivilgesellschaft, Wissenschaft und technischer Community benötigen. Jetzt soll überprüft werden, wie weit man gekommen ist. Geopolitische Spannungen, autokratische Tendenzen und ein Wettbewerb innerhalb der UN-Institutionen trüben jedoch die Hoffnung auf echten Fortschritt.
Während der zwei Phasen des ersten UN-Weltgipfels für die Informationsgesellschaft (World Summit on the Information Society, WSIS) in den Jahren 2003 und 2005 verabredeten sich die Mitgliedsstaaten auf Grundzüge für eine Informationsgesellschaft. Diese sollte den Nutzer in den Mittelpunkt stellen. Zugang zum Internet, Teilhabe, Meinungsfreiheit und Menschenrechte generell fanden Eingang in die Tunis-Erklärung und die Tunis-Agenda für die Informationsgesellschaft.
Als neue Werkzeuge für Entwicklung und Demokratisierung wurden dabei Internet und Informationstechnologie verstanden. Die Hoffnungen auf deren positive Effekte waren riesig. Doch von den in der Erklärung formulierten hehren Zielen ist man noch weit entfernt.
Bilanzkonferenz: schweres Gepäck
Am 16. und 17. Dezember wird nun bei den Vereinten Nationen in New York Bilanz gezogen und darüber verhandelt, wie es mit den Nachfolgeprozessen des WISIS weitergehen soll. Die Prozesse ziehen sich als Netz von elf Aktionslinien quer durch die UN.
Soll das Internet Governance Forum (IGF), das vom 23. bis zum 27. Juni in Oslo/Lillestrøm tagte, ein erneutes Mandat erhalten? Sollen die WSIS-Aktionslinien, die Informationstechnologie an die UN-Entwicklungsziele koppeln, unverändert fortgeführt werden? Ist die wenig übersichtliche Aufgabenverteilung innerhalb der verschiedenen UN-Teilorganisationen angemessen? Und wie kann das IGF, das aufgrund seiner Debatten zwischen staatlichen und nichtstaatlichen Teilnehmern als das innovativste Produkt des Weltgipfels gilt, gestärkt und wie können die vielen UN-Prozesse zur Digitalpolitik koordiniert werden?
Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
UN-Kauderwelsch und digitalpolitische Unübersichtlichkeit stellen die Befürworter einer breiteren Teilhabe von Zivilgesellschaft und anderen Nicht-Regierungsvertretern vor ein gewaltiges Problem, erklärte Joyce Chen, Policy Expertin der IP-Adressvergabestelle APNIC in Oslo: „Die Masse an Gepäck, die die Internet-Community seit dem Start der Diskussionen vor 20 Jahren aufgesammelt hat, ist ein Einstiegshindernis“. Es brauche Stunden, um die Hintergründe zu erklären. Für Neulinge ziemlich abschreckend, sagte Chen in einer Runde mit Vertretern nationaler und regionaler Internet-Governance-Foren.
Zum Hintergrund gehört auch, dass der Begriff „Internet Governance“ ursprünglich vor allem den Streit über die Verwaltung von Domains und IP-Adressen umfasste. Beim WSIS liefen viele Länder des Globalen Südens Sturm, weil die Domainverwalterin ICANN unter Vertrag und Aufsicht der US-Regierung stand. Die erste Phase des Gipfels schlitterte, obwohl die geopolitischen Vorzeichen besser waren als heute. Mit der Aufsichtsrolle durch die US-Regierung im Jahr 2016 – eher befördert durch Snowdens Enthüllungen als durch den WSIS-Prozess – darf dieser Streitpunkt heute immerhin als erledigt gelten.
Mehr regionale IGF-Ableger für mehr Öffentlichkeit
Selbstverwalter, Regierungen und auch die Internationale Fernmeldeunion (ITU), die zeitweilig selbst an der Verwaltung der Internet-Ressourcen interessiert war, haben sich inzwischen verständigt. Die „technische Community“ beziehungsweise die Selbstverwaltungsorganisationen gehören heute zu den größten Sponsoren des Globalen IGF sowie mancher regionaler und nationaler Ableger (NRIs). Diese Verständigung darf man als Erfolg werten.
Als APNIC-Politikexpertin ist Chen auch Mitglied des Lenkungsausschusses des Asia Pacific Regional Internet Governance Forum (APrIGF), eines von rund 180 NRIs. „Storytelling“ sei eine der wichtigsten Aufgaben für die IGF-Ableger, sagte sie in Oslo. Sie bieten die Chance für ein globales „Bottom-up“-Konstrukt.
Die Entstehung der nationalen und regionalen IGFs gilt vielen als weiterer positiver Effekt des WSIS-Prozesses. Von der EuroDIG bis zum WestAfrica IGF, von „Oldtimern“ wie dem Bangladesh IGF bis zum deutschen IGF-D und zu „Newcomern“ wie dem gerade gegründeten irischen IGF wurden digitalpolitische Öffentlichkeiten geschaffen, die als „Stakeholder“ bei ihren Regierungen anklopfen. Im Vorfeld wollten die Internet Society (ISOC) und die Internet Corporation for Assigned Names and Numbers (ICANN) eine Geschichte ganz praktischer Erfolge liefern.
Digitale Kluft etwas kleiner, Netzkommunikation etwas sicherer
„Wir haben immer wieder gehört, dass wir nicht auf gute altbewährte Argumente zurückgreifen können. Vielmehr müssen wir Nachweise vorlegen, dass das Multi-Stakeholder-Modell funktioniert und auch Ergebnisse bringt“, sagte Sally Wentworth, Vorsitzende der ISOC, anlässlich der Veröffentlichung des Berichts „Spuren aus 20 Jahren WSIS Prozess“. Darin listen ISOC und ICANN auf, was aus ihrer Sicht in 20 Jahren erreicht wurde. Und so kurz ist die Liste gar nicht.
Einerseits wurde der Zugang zu den Netzen verbessert. Laut den Zahlen der International Telecommunication Union (ITU) hatten bis Ende 2024 rund 68 Prozent der Weltbevölkerung Zugang zum Internet. Beim Abschluss des WSIS im Jahr 2005 waren es nur rund 16 Prozent. Der größte Zuwachs ist in Afrika zu verzeichnen, wo mittlerweile statt zwei immerhin 37 Prozent Internetzugang haben. Ein Drittel der Weltbevölkerung hat jedoch noch keinen Zugang.
Für eine kostengünstige Internetkonnektivität hat die von der ISOC unterstützte „IGF Dynamic Coalition on Community Connectivity (D3C)“ gesorgt. Wie im „Spuren“-Bericht zu lesen ist, hat die D3C den Aufbau von Community-Netzen von El Cuy in Patagonien bis nach Tushetien in Georgien, von Ulukhaktok in der kanadischen Arktis bis ins Gebiet des Mount Everest maßgeblich unterstützt.
Insgesamt investierte die globale Mitgliederorganisation laut ISOC 3,1 Millionen US-Dollar in 85 lokale Netze, die in Zusammenarbeit mit Partnern wie der Association for Progressive Communication (APC) realisiert wurden.
Überdies hätten neue, über den Globus gespannte Partnerschaften zwischen 2011 und 2021 die Gründung von insgesamt 27 Internet Exchanges allein in Afrika ermöglicht. Die Effekte für die Nutzer sind spürbar: „Der Knotenpunkt in Kenia, der KIXP, verringerte die Zugriffszeit von 200 bis 600 Millisekunden auf zwei bis zehn Millisekunden und brachte Einsparungen von rund 1,5 Millionen US-Dollar pro Jahr für lokale Internet-Service-Provider.“
Die Weltweite Entwicklung der Anzahl von Internetnutzern und Anteil an der Weltbevölkerung in Prozent laut Statistiken des ITU.
(Bild: International Telecommunication Union)
Initiativen für Cybersicherheit
Das IGF Best Practice Forum on Cybersecurity, die Dynamic Coalition on Cybersecurity und andere IGF-Gruppen haben daran gearbeitet, die Aufmerksamkeit für die in den technischen Gremien entwickelten Sicherheitsnachbesserungen zu erhöhen. Laut dem ICANN/ISOC-Bericht lag die Zahl der mittels DNSSEC abgesicherten Top-Level-Domain-Zonen im April 2025 bei 93 Prozent, nationale TLDs eingeschlossen.
ISOC und ICANN erwähnen ebenfalls auf der Habenseite die Fortentwicklung von nicht-lateinischen Domains. Knapp sechs Millionen kyrillische, chinesische und mit deutschen Umlauten versehene Domains wurden vergeben. Linguistische Diversität gehörte zu den zentralen Forderungen bezüglich leichterer Zugänglichkeit zum Netz. Manche alteingesessene Internet-Netzwerker sahen darin jedoch auch einen Trend zur Fragmentierung. Die Forderung nach Multilingualität setzt sich heute im Bereich der großen, ausschließlich auf Englisch trainierten Large Language Models fort.
Fehlanzeigen: Lerneffekte, Demokratisierungsfortschritte
Viele Erwartungen blieben unerfüllt – sowohl ans Internet, das einst als „demokratischstes Medium aller Zeiten“ galt, als auch an die ausgefeilten Nachfolgeprozesse des WSIS. Auf die Frage, was „Multi-Stakeholder-Governance“ konkret bedeutet und wie sie in Deutschland umgesetzt wird, verweist das neue Bundesministerium für Digitales und Staatsmodernisierung (BMDS) auf die Offenheit und Globalität des Internets als Grundlage für sozioökonomische Entwicklung. Man setze sich für ein inklusives, menschenrechtsbasiertes Multi-Stakeholder-Modell ein und lehne staatliche Kontrolle oder Fragmentierung ab. Doch wie viel davon ist tatsächlich gelebte Praxis?
Zwar setzt man sich laut der schriftlich und mit etwas Verzögerung erteilten Antwort aus Berlin entschieden für die „Umsetzung der Leitlinien der NETmundial+10 ein, um eine inklusive Beteiligung, eine ausgewogene Vertretung und eine wirksame Zusammenarbeit der Interessenträger anzustoßen“ .
Die von Brasilien im ersten Ärger über die Snowden-Enthüllungen auf die Beine gestellte NETmundial – hier war Deutschland Mitorganisator – und die eine Dekade später nachgezogenen NETmundial+10 2024 haben die echte Beteiligung aller Stakeholder-Gruppen in eigene Erklärungen gefasst.
Echte Stakeholder-Beteiligung: Ein uneingelöstes Versprechen
Die UN haben ihr Versprechen bislang kaum eingelöst. Im Rahmen des von UN-Generalsekretär António Guterres angestoßenen Global Digital Compact (GDC) wurde scharfe Kritik an der mangelnden Beteiligung von Zivilgesellschaft und Community laut. Keine steile Lernkurve.
Der Sprecher des BMDS betont, man setze sich in den politischen Prozessen der Vereinten Nationen dafür ein, „dass Multi-Stakeholder-Governance als zentraler Grundsatz für die digitale Governance berücksichtigt wird“. Das Ministerium verweist zudem auf die Modelle von ICANN und der Internet Engineering Task Force (IETF) sowie auf das Internet Governance Forum Deutschland (IGF-D), das als wichtige Austauschplattform vom BMDS unterstützt wird. Über das IGF-D werden laufend Informationen zu globalen Prozessen mit allen Stakeholdern geteilt und deren Beiträge genutzt. „Besonders hervorheben wollen wir das Jugend IGF-D, welches sich aktiv in unterschiedliche Prozesse einbringt, Stellungnahmen schreibt und Bildungsarbeit bei jungen Menschen leistet, um neuen Generationen Stimme und Gehör in der Internet Gouvernance zu verschaffen.“
Widersprüchliche Positionen in puncto Überwachung
Die Idee der breiteren Teilhabe scheint sich nicht auf zentrale Normenprozesse im Parlament zu erstrecken. Wenn es um Multi-Stakeholder-Debatten zur erneut eingeführten Vorratsdatenspeicherung, zur Aufweichung der Verschlüsselung oder zur mehrfach vor dem Bundesverfassungsgericht gerügten Geheimdienstaufsicht geht, scheint Multi-Stakeholder kein Thema zu sein. Mit ProtectEU, Neuauflagen von Chatkontrolle und Ähnlichem fährt das konservativer und rechter gewordene Europa auch keinen grundrechtszentrierten Kurs.
Wie widersprüchlich europäische Positionen sind, darauf warf eine Veranstaltung beim IGF in Oslo ein Schlaglicht. Britische und US-Regierung setzen sich für eine Stärkung des IGF und WSIS-Prozesse ein. Im Panel zur Aufweichung von starker Verschlüsselung unter Beteiligung des FBI und britischer Regierungsberater, bleibt man lieber unter sich. Die Multi-Stakeholder im Publikum kritisieren die Runde, in der vom Einsatz von Datenschutz als Waffe die Rede ist, als vollkommen einseitig und rückwärtsgewandt.
Diskussion über Reformbedürfnis
„Gefährlich können der Internet-Selbstverwaltung in allererster Linie nationale Regierungen werden, primär die mit großen Märkten“, warnte im Anschluss an das IGF in Oslo der US-Wissenschaftler Milton Mueller. Mueller hatte die Diskussion darüber, ob die WSIS-Nachfolgeprozesse bei der UN noch notwendig sind, mit einer Diskussionsrunde „Sollte WSIS sterben?“ aufgemischt.
Für den Gründer des Internet Governance Project am Georgia Institute of Technolgy sind die Datenschutzgrundverordnung der EU, Exportbeschränkungen der US-Regierung oder die Auflagen der chinesischen Regierung zur Datenlokalisierung eine Bedrohung für ein globales, libertäres Netz. „ICANN sollte sich weniger darüber Gedanken machen, ob WSIS verlängert wird, als über die nächsten Schritte der Regierung des Landes, in dem sie ihr Hauptquartier haben.“ Das Hauptquartier befindet sich in den USA.
Muellers Kritik an der UN, obwohl US-typisch UN-skeptisch, stößt dabei nicht nur auf Ablehnung. Viele Beobachter – aus Regierungs- und Nicht-Regierungskreisen– fordern nämlich eine klarere Aufgabenverteilung in der UN. Denn anstelle einer Stärkung und Weiterentwicklung der bestehenden Prozesse hat Guterres in den vergangenen Jahren eher dazugebaut.
Neben dem neuen Office for Digital and Emerging Technologies (ODET) mit dem UN Tech Envoy, sozusagen dem Tech-Gesandten der Vereinten Nationen an der Spitze, will er die UN beim Thema KI und Data Governance ins Spiel bringen. Ein neues KI-Panel mit 20 Experten und ein KI-Beratungsgremium mit 40 von der UN-Vollversammlung zu wählenden Mitgliedern sollen sich um das Thema kümmern. Erstmals tagte im Mai auch zudem eine neue Arbeitsgruppe der Commission on Science and Technology for Development (CSTD) zum Thema „Data Governance on all Levels“.
Dabei wünschen sich vor allem Vertreter der Zivilgesellschaft und des Globalen Südens bereits jetzt eine Konsolidierung der Parallelveranstaltungen, etwa des IGF und des von der ITU organisierten WSIS-Forums. Letzteres ist stärker regierungsorientiert, startet kommende Woche in Genf und hat ein ähnliches Programm wie das IGF.
UN-interne Konkurrenz ist einer effektiven Fortentwicklung globaler Digitalpolitik kaum zuträglich. „Ohne Reform macht die Erneuerung des Mandats keinen Sinn“, schrieb Müller als Fazit nach Oslo und gab damit auch die Meinung einer anderen „alten“ Mitwirkenden des WSIS-Prozesses, der US-Wissenschaftlerin Avri Doria, wieder. Doria hatte in Oslo gesagt, wenn man WSIS sterben lassen wolle, sollte man es einfach nicht reformieren und weiterentwickeln. Dann würde es einen mehr oder weniger leisen Tod sterben.
Vorschläge für die nächste Dekade
Kein neues IGF und kein WSIS-Mandat insgesamt? Daran glaubt von den rund 9.000 Teilnehmern des IGF in Oslo niemand wirklich. Erfahrene UN-Diplomaten sind sich einig, dass es eigentlich nicht üblich ist, dass die UN einmal geschaffene Gremien wieder schließt.
Vorschläge für Reformen gibt es immerhin reichlich. Die Stärkung des IGF, ein möglichst auf Dauer erteiltes Mandat, eine solidere Finanzierung – und nicht nur freiwillige Spenden wie bislang – steht offenbar auf den Sprechzetteln aller Regierungen.
Auch Deutschland bekennt sich zum IGF
Auch das BMDS will nicht zurückstehen: „Die Bundesregierung setzt sich klar für eine Verlängerung des IGF-Mandats sowie für die Fortführung des WSIS-Prozesses als erstes globales Rahmenwerk für die digitale Kooperation ein,“ fasst der Sprecher zusammen. Zur Verlängerung und Stärkung gehöre „auch eine stabile und nachhaltige finanzielle Grundlage für das IGF zu schaffen.“
Die Rolle des UN-Hochkommissars für Menschenrechte in digitalen Fragen soll gestärkt werden. Außerdem müsse sichergestellt sein, „dass in jedem Schritt des Überprüfungsprozesses eine transparente und inklusive Einbindung von Stakeholdern sichergestellt ist“. Aus Berlin heißt es zudem, es sei wichtig, „eine sinnvolle Verbindung zwischen dem Prozess des Global Digital Compact und dem WSIS+20-Überprüfungsprozess zu schaffen“.
Zu den Forderungen gehören mehr Koordination und mehr Sichtbarkeit für Überlegungen und praktische Ergebnisse aus den WSIS-Prozessen und aus dem IGF. Die Mitgliedsstaaten, die ab Oktober in New York unter dem Vorsitz von Annalena Baerbock verhandeln, müssen sich noch darüber einigen, wie einschneidend die Reformen für das IGF und das WSIS sein sollten.
In einem ersten Vergleich der Positionen hält die Organisation Global Digital Partners fest, dass einige Mitgliedsstaaten, etwa Australien oder die Schweiz, stärkere Veränderungen fordern. Global Digital Partners liefert dem geneigten, aber nicht vollzeitengagierten „Netizen“ eine ganze Reihe von Tools, um den Überblick über die laufenden Debatten zu behalten. Ein Beispiel ist der Internet Governance Konferenzkalender. Der ist für 2025 prall gefüllt.
Zudem gehört Global Digital Partners wie auch die NRIs zu denen, die hörbar anklopfen bei Regierungen und UN und mehr echte Beteiligung verlangen. Auch bei den NRIs steht „Mehr Multistakeholder“ ganz oben auf der Liste gewünschter Verbesserungen.
Internet Governance oder Digitalpolitik?
Von den zahlreichen Vorschlägen für die nächsten Jahre der WSIS-Prozesse wird seit dem Abschluss des IGF in Oslo einer besonders heftig diskutiert: Ist es noch zeitgemäß, von „Internet Governance“ zu sprechen? Die Schweizer Delegation hat etwa angeregt, das IGF in „Digital Policy Forum“ oder „Digital Cooperation Forum“ umzubenennen. Dadurch könnte, so das Schweizer Bundesamt für Kommunikation, besser zum Ausdruck gebracht werden, dass es nicht nur um „Internet Governance“ im engeren Sinne, sondern um alle Aspekte der Digitalpolitik geht.
Tatsächlich werden beim IGF, nicht nur bei den jährlichen Konferenzen, sondern auch bei den permanent laufenden Policy Networks und dynamischen Koalitionen neue digitalpolitische Fragen oft schon lange aufgegriffen, bevor sie in Parlamenten und Regierungsetagen ankommen: von Blockchain über Plattformverantwortlichkeit bis zu KI. Beim EuroDIG 2025 wurden wirklich zuletzt Debatten zur Altersverifikation geführt, in denen auch datenschutzfreundliche Tokenlösungen zur Sprache kamen. Mit der Umfirmierung könnte das IGF aber vielleicht anecken, warnten viele in der auf einer der vielen Mailinglisten laufenden Debatte.
Der Versuch, ein solches umfassenderes Label fürs IGF zu finden, könnte angesichts der aktuellen geopolitischen Situation zum Desaster werden, warnte einer der Beobachter.
Der deutsche Internet-Governance-Experte und emeritierte Völkerrechtler Wolfgang Kleinwächter nennt die alten WSIS-Unterhändler – zu denen er selbst gehörte – weitsichtig. Er schlägt in klassisch-diplomatischer UN-Manier vor, dem IGF einfach einen Untertitel zu verleihen. IGF – Globales Forum für die Gestaltung von Digitalpolitik. Ob das der IGF mehr Durchschlagskraft verleiht?
(nen)
Künstliche Intelligenz
Bots unter sich: Forscher organisiert erste Wissenschaftskonferenz nur für KI
Im Oktober findet eine ganz besondere akademische Konferenz statt, die bislang ihresgleichen sucht. „Agents4Science“ ist eine eintägige Online-Veranstaltung, die fast alle Bereiche der Wissenschaft von der Physik bis zur Medizin umfasst. Die Besonderheit: Alle vorgestellten Arbeiten wurden nahezu vollständig von KI recherchiert, verfasst und überprüft – und werden mithilfe von Text-to-Speech-Technologie „präsentiert“.
Die Konferenz kommt vom Stanford-Informatiker James Zou. Er untersucht, wie Menschen und KI am besten kooperieren. Die bisherigen Systeme haben Wissenschaftlern bereits viele nützliche Werkzeuge an die Hand gegeben. Dazu gehört beispielsweise Alphafold von Deepmind, mit dessen Hilfe sich Proteine simulieren lassen, die real nur schwer herzustellen wären.
In jüngerer Zeit haben Fortschritte bei großen Sprachmodellen und KI mit Reasoning-Fähigkeiten zudem die Idee aufgebracht, dass die Systeme mehr oder weniger so autonom arbeiten können wie Wissenschaftler. Dabei sollen sie selbst Hypothesen aufstellen, Simulationen durchführen und Experimente entwerfen. Die Idee hat allerdings auch Kritiker. Unter anderem sind sie der Meinung, dass Sprachmodelle nicht zu den kreativen Denkprozessen fähig sind, die in der Forschung erforderlich sind. Zudem machten die Systeme zu viele Fehler und halluzinierten. Schließlich gruben sie jungen Forschern das Wasser ab.
Wie KI als Wissenschaftler funktionieren kann
Dennoch sind eine Reihe von Wissenschaftlern und politischen Entscheidungsträgern von den Möglichkeiten der KI-Forschenden sehr angetan. Der KI-Aktionsplan der US-Regierung beschreibt die Notwendigkeit, „in automatisierte, cloudbasierte Labore für eine Reihe von wissenschaftlichen Bereichen“ zu investieren. Optimisten glauben, dass solche Systeme tatsächlich neue wissenschaftliche Entdeckungen ermöglichen könnten, auf die Menschen allein niemals kämen. Für Zou ist die These einfach: „KI-Agenten sind nicht an Zeiten gebunden. Sie können sich jederzeit mit uns virtuell treffen und rund um die Uhr mit uns zusammenarbeiten.“
Im vergangenen Monat veröffentlichte Zou dann einen Artikel im Fachmagazin Nature mit den Ergebnissen seiner eigenen Gruppe autonomer KI-Mitarbeiter, die ein Mittel gegen das Coronavirus gefunden hatten. Angespornt durch erste Erfolge möchte er nun sehen, was „echte“ KI-Wissenschaftler leisten können, die nicht nur beitragen. Er beschreibt, wie eine erfolgreiche Veröffentlichung bei Agents4Science aussehen könnte: „Die KI sollte Erstautor sein und den Großteil der Arbeit leisten. Menschen könnten als Berater fungieren.“
Ein virtuelles Labor mit KI-Mitarbeitern
Als Doktorand an der Harvard University Anfang der 2010er Jahre war Zou so interessiert am Potenzial der KI für die Wissenschaft, dass er ein Jahr lang seine Forschung im Bereich Informatik unterbrach. Er arbeitete stattdessen in der Genomik, einem Bereich, der stark von Technologien zur Kartierung ganzer Genome profitiert hatte. Seine Zeit in echten Laboratorien zeigte ihm, wie schwierig es sein kann, mit Experten aus anderen Bereichen zusammenzuarbeiten. „Die sprechen oft eine andere Sprache“, sagt Zou. Große Sprachmodelle sind seiner Meinung nach aber besser als Menschen darin, Fachjargon zu entschlüsseln und zu übersetzen. „Die Systeme haben [im Training] so viel gelesen“, sagt Zou, dass sie Ideen aus verschiedenen Wissenschaftsbereichen sehr gut übersetzen und verallgemeinern können. Diese Idee inspirierte Zou zu seiner Vision eines „virtuellen Labors“.
Auf oberster Ebene wäre das Virtual Lab ein Team von KI-Agenten, die eine echte Universitätslabor-Gruppe nachahmen. Diese Agenten hätten verschiedene Fachgebiete und könnten mit verschiedenen Programmen wie Alphafold interagieren. Forscher könnten einem oder mehreren dieser Agenten eine Agenda geben, an der sie arbeiten sollen, dann das Modell öffnen, um die Kommunikation der Agenten untereinander zu überprüfen und zu bestimmen, welche Experimente in einem realen Versuch durchgeführt werden sollten.
KI-Agenten wie ein Forscherteam
Zou brauchte allerdings einen menschlichen Mitarbeiter, um diese Idee in die Tat umzusetzen und ein konkretes Forschungsproblem anzugehen. Letztes Jahr lernte er dafür John E. Pak kennen, einen Forschungswissenschaftler am Chan Zuckerberg Biohub. Pak, der Zous Interesse an der Nutzung von KI für die Wissenschaft teilt, erklärte sich bereit, gemeinsam mit ihm das virtuelle Labor aufzubauen. Pak würde bei der Festlegung der Themen helfen, aber sowohl er als auch Zou wollten klarstellen, welche Ansätze das virtuelle Labor selbst entwickeln könnte. Als erstes Projekt beschlossen sie daher, sich auf die Entwicklung von Therapien für neue Covid-19-Stämme zu konzentrieren. Mit diesem Ziel vor Augen begann Zou mit dem Training von fünf KI-Wissenschaftlern – darunter solche, die darauf trainiert waren, wie ein Immunologe, ein Bioinformatiker und ein Seniorforscher zu agieren – mit unterschiedlichen Zielen und Programmen.
Die Erstellung dieser Modelle dauerte einige Monate, aber laut Pak waren sie sehr schnell bei der Entwicklung von Therapieansätzen angekommen, sobald die Voraussetzungen geschaffen waren. „Ich glaube, es dauerte ein Tag oder nur ein halber Tag, so in etwa.“ Zou berichtet, die Agenten hätten dann beschlossen, Anti-COVID-Nanokörper zu untersuchen, eine Art Verwandte von Antikörpern, die viel kleiner und in der Natur weniger verbreitet sind. Der Grund dafür schockierte Zou. Er teilte mit, die Modelle seien deshalb auf Nanokörper gekommen, weil sie den Zusammenhang hergestellt hatten, dass diese kleineren Moleküle gut für die begrenzten Rechenressourcen geeignet sind. „Es stellte sich tatsächlich als gute Entscheidung heraus, da die Agenten diese Nanokörper effizient entwerfen konnten“, sagt er.
Nature publiziert trotz strenger KI-Regeln
Die von den Modellen entworfenen Nanokörper gehen wissenschaftlich weiter als bisherige Ansätze. Die meisten konnten sich laut der Studie an die ursprüngliche COVID-19-Variante binden. Pak und Zou räumen jedoch beide ein, dass der Hauptbeitrag ihrer Studie in Wirklichkeit beim Virtual Lab als grundsätzlichem Werkzeug liegt. Yi Shi, Pharmakologe an der University of Pennsylvania, der nicht an der Arbeit beteiligt war, aber einige der zugrunde liegenden Nanokörper herstellen konnte, die vom Virtual Lab modifiziert wurden, stimmt zu. Er sei von der Demonstration des Virtual Lab begeistert und die größte Neuerung dabei sei die Automatisierung. Nature akzeptierte schließlich das Paper und nahm es in sein Vorveröffentlichungsprogramm auf – Zou wusste, dass der Einsatz von KI-Agenten in der Wissenschaft ein für das Journal heißes Thema war und wollte einer der Ersten sein, der dies testete.
Als er seinen Artikel einreichte, stellte Zou allerdings bestürzt fest, dass er die Rolle der KI in seiner Forschung dabei nicht angemessen würdigen konnte. Die meisten Konferenzen und Fachzeitschriften erlauben es nämlich nicht, KI als Mitautor in Studien anzugeben – und viele verbieten Forschern ausdrücklich, KI zum Verfassen von Papern oder Rezensionen zu verwenden. Nature beispielsweise führt Unsicherheiten hinsichtlich der Verantwortlichkeiten, des Urheberrechts und von Ungenauigkeiten als Gründe für das Verbot dieser Praxis an. „Ich finde das einschränkend“, sagt Zou. „Solche Richtlinien sind im Grunde ein Anreiz für Forscher, den Einsatz von KI zu verheimlichen oder zu minimieren.“
KI-Konferenz in der Kritik
Zou wollte das ändern und rief deshalb seine eigene Agents4Science-Konferenz ins Leben, bei der der Hauptautor aller eingereichten Beiträge eine KI sein muss – und nicht nur darf. Andere KI-Agenten versuchen dann, die Arbeit zu bewerten und ihren wissenschaftlichen Wert zu bestimmen. Aber auch Menschen bleiben nicht völlig außen vor: Ein Team aus menschlichen Experten, darunter ein Nobelpreisträger für Wirtschaftswissenschaften, wird die besten Beiträge begutachten. Zou ist sich nicht sicher, was aus der Konferenz werden wird, aber er hofft, dass sich unter den Hunderten von Beiträgen, die er aus allen Bereichen erwartet, einige Perlen finden werden. „Es könnte KI-Beiträge geben, die interessante Entdeckungen enthalten“, sagt er. Und selbst wenn nicht: Es könne aber auch KI-Beiträge geben, die Fehler enthalten, die „interessant“ sind, meint der Forscher. Während er die Resonanz auf die Konferenz als insgesamt positiv bezeichnete, gab es auch Kritik von Kollegen.
Lisa Messeri, Wissenschaftsanthropologin an der Yale University, hat etwa viele Fragen zur Fähigkeit der KI, wissenschaftliche Arbeiten zu begutachten: „Wie kommt es zu Erkenntnisfortschritten? Und was passiert, wenn ein solcher Fortschritt dann auf dem Schreibtisch des Gutachters landet?“ Sie bezweifelt, dass die Konferenz zufriedenstellende Antworten liefern kann. Letztes Jahr untersuchten Messeri und ihre Kollegin Molly Crockett in einem anderen Artikel in Nature die Probleme beim Einsatz von KI in der Wissenschaft. Beide sind nach wie vor nicht davon überzeugt, dass KI zu neuen Ergebnissen führen kann – einschließlich derjenigen, die in Zous Artikel über Nanokörper vorgestellt wurden.
„Ich bin genau die Art von Wissenschaftlerin, für die solche Tools gedacht sind, da ich keine Informatikerin bin, aber dennoch computergestützte Arbeit verrichte“, sagt Crockett, Kognitionswissenschaftlerin an der Princeton University. „Gleichzeitig bin ich jedoch sehr skeptisch gegenüber den weitreichenden Behauptungen, insbesondere hinsichtlich der Frage, wie [KI-Wissenschaftler] bestimmte Aspekte des menschlichen Denkens simulieren können.“ Beide Forscherinnen stehen dem Einsatz von KI in der Wissenschaft skeptisch gegenüber, wenn die Automatisierung menschliche Wissenschaftler daran hindert, das erforderliche Fachwissen aufzubauen, um die Agenten zu überwachen. Stattdessen plädieren sie dafür, Experten aus einem breiteren Spektrum von Disziplinen einzubeziehen, um durchdachte Experimente zu entwerfen, bevor man KI die Durchführung und Überprüfung wissenschaftlicher Arbeiten anvertraut.
KI-Forscher Zou: „Es gibt viel Hype und viel Anekdotisches“
„Wir müssen mit Erkenntnistheoretikern, Wissenschaftsphilosophen, Wissenschaftsanthropologen und Fachwissenschaftlern sprechen, die sich intensiv mit der Frage beschäftigen, was Wissen eigentlich ist“, sagt Crockett. Zou sieht seine Konferenz jedoch genau als das Experiment, das dieses Gebiet voranbringen könnte. In Bezug auf KI-generierte Wissenschaft sagt er: „Es gibt viel Hype und viel Anekdotisches, aber es gibt wirklich keine systematischen Daten.“ Ob die KI-Konferenz Agents4Science solche Daten liefern kann, ist noch offen, aber im Oktober werden die Agenten und Bots zumindest versuchen, der Welt zu zeigen, was sie können.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)
Künstliche Intelligenz
Windows: MS Word speichert jetzt automatisch in die Cloud
Microsoft drängt Office-Dateien in die Cloud. Ab sofort landen mit Microsoft Word für Windows erstellte Inhalte automatisch in der Microsoft-Cloud Onedrive. Nutzer, die das nicht möchten, müssen die automatische Speicherung (autosave) deaktivieren. Alternativ können sie in den Einstellungen eine andere Cloud als automatischen Speicherort festlegen. Angeboten werden in den Einstellungen auch noch, ganz old school, der eigene Rechner oder gegebenenfalls ein Netzwerklaufwerk als Ort für das automatische Abspeichern.
Autosave auszuschalten geht schnell (links oben). Um andere Speicherorte als Microsofts Cloud festzulegen, müssen Anwender in die Einstellungen vordringen.
(Bild: Microsoft)
Beginnt ein Nutzer zu schreiben und schließt Word danach ohne expliziten Speicherbefehl, fragt Word, ob der Inhalt in der Cloud gespeichert bleiben oder weggeschmissen werden soll. Die neuen Voreinstellungen greifen ab sofort in Word für Windows ab Version 2509 (Build 19221.20000). Für Excel für Windows und Powerpoint für Windows möchte Microsoft noch im Laufe des Jahres die gleichen Voreinstellungen einführen.
Der Copilot wartet schon
Im Firmenblog erläutert Microsofts Produktmanager Raul Munoz die Vorzüge automatischen Speicherns, nämlich, dass getane Arbeit seltener verloren geht. Das kann sonst bei einem Absturz des Programms, des ganzen Windows, oder einem Stromausfall durchaus vorkommen. Abspeichern in der Cloud ist dann vorteilhaft, wenn der Nutzer möchte, dass er selbst oder Dritte die Datei von anderen Geräten aus lesen und bearbeiten können.
Dazu zählt auch Microsofts Künstliche Intelligenz Copilot samt deren Agenten. Auch sie erhalten unmittelbar Zugriff auf die automatisch auf Onedrive gespeicherten Dateien. Eine entsprechende Lizenz vorausgesetzt, kann der Anwender die KI dann zur Auswertung oder weiteren Bearbeitung der Datei heranziehen.
Zu Änderungen der Voreinstellung bezüglich automatischen Speicherns in Word für MacOS macht Munoz in seinem Blogpost keine Angaben. Dafür legt er zwei überraschende Bugs in Word für Windows offen: Ist die Anzeige des Startbildschirms beim Aufruf von Word deaktiviert, schlägt die automatische Speicherung der ersten Datei jeder Sitzung fehl. Und wird während einer laufenden Word-Sitzung eine zweite Instanz des Programmes aufgerufen, werden damit neu erstellte Dateien ebenfalls nicht automatisch gespeichert.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier eine externe Umfrage (Opinary GmbH) geladen.
(ds)
Künstliche Intelligenz
Top 7: Die beste Kühlbox mit Kompressor von Anker Solix, Ecoflow & Co. im Test
Getränke und Lebensmittel unterwegs aktiv kühlen? Dazu ist eine Kompressor-Kühlbox nötig. Wir zeigen empfehlenswerte Modelle und worauf zu achten ist.
Beim Camping, auf dem Festival oder am Strand ist eine Abkühlung bei sommerlichen Temperaturen durch Kaltgetränke unabdingbar. Auch wer sein Grillgut oder andere Lebensmittel frisch halten will, findet eine riesige Auswahl an unterschiedlichen Kühlboxen mit unterschiedlicher Technik. Neben der Größe und Aufteilung der Kühlboxen unterscheiden sich diese vorrangig durch die eingesetzte Technik. Und hier gilt es genau hinzusehen, damit die Kühlbox auch tatsächlich so funktioniert wie erwünscht.
Zwar schaffen es passive und thermoelektrische Kühlboxen, bereits heruntergekühlte Lebensmittel länger auf Temperatur zu halten, aktiv kühlen kann man damit aber nicht. Hier kommen dann die Kompressor-Kühlboxen ins Spiel. Diese bieten ganz unabhängig von der Umgebungstemperatur ordentliche Kühlleistung bis in den Minusbereich und schaffen es, Getränke, Lebensmittel oder auch Eis nicht nur kalt zu halten, sondern auch herunterzukühlen.
Welche Kühlboxen mit Kompressor in unseren Tests am besten abgeschnitten haben und welche Alternativen es gibt, zeigt diese Bestenliste. Außerdem klären wir, ob sich Extras wie App-Anbindung, interner Akku oder gar integrierte Eiswürfelbereiter in der Praxis lohnen. Mobile Speicherlösungen für Strom zeigen wir in der Die besten Powerstations: Solargeneratoren im Test – von Camping bis Notstrom.
Welche ist die beste Kühlbox mit Kompressor?
Am besten im Test abgeschnitten hat die Anker Solix Everfrost 2 40L für 688 Euro, wodurch sie zum Testsieger wird. Ihr praktisches Design, die lange Akkulaufzeit mit optional erweiterbaren Akkus und eine astreine Kühlleistung machen sie zur besten Wahl für mehrtägige Festivalaufenthalte, Camping-Ausflüge oder Wochenendtrips.
Die Plug-in Festivals Icecube 40 ist unser Preis-Leistungs-Sieger. Sie vereint schickes, hochwertiges Design mit einem fairen Preis: Die Variante mit 30 Litern gibt es etwa ab 270 Euro.
Unser Schnäppchen kommt von Arebos und bietet 39 Liter Volumen zum attraktiven Preis von 190 Euro.
Das gesamte Testfeld unserer Bestenliste zeigen wir nachfolgend:
Technische Daten
Die technischen Daten der Produkte unserer Bestenliste lauten wie folgt:
Wie funktionieren Kühlboxen mit Kompressor?
In Kompressor-Kühlgeräten werden Kältemittel auf natürlicher oder FKW-Basis verwendet. Mittels eines Verdampfers geht dieses vom flüssigen in den gasförmigen Zustand über. Das verdampfende Kältemittel entzieht der Kühlbox Wärme und sorgt so für Abkühlung. Der Kompressor komprimiert das Kältemittel anschließend und führt es wieder dem Verdampfer zu.
Kompressor-Kühlboxen sind in den vergangenen Jahren deutlich effektiver geworden, was den Energieverbrauch und die Kühlleistung betrifft. Selbst Gefrierfächer sind dank absoluter Kühltemperaturen von bis zu –20 Grad möglich. Anders als Absorber sind die Kühlboxen mit Kompressor kaum von der Umgebungstemperatur abhängig. Zwar gibt es auch hier Grenzen, Temperaturschwankungen treten aber erst bei Umgebungstemperaturen über 40 Grad auf.
Zur Stromversorgung kommen in der Regel 12 Volt, 24 Volt oder 230 Volt zum Einsatz. Neuerdings gibt es auch immer häufiger Geräte mit einer Stromversorgung per Akku. Eine Versorgung per Gas ist hingegen nicht möglich. Anders als etwa Absorber-Kühlboxen sind die Modelle mit Kompressor leider deutlich zu hören und auch schwerer.
In unseren Einzeltests haben wir mittlerweile sieben verschiedene Kompressor-Kühlboxen in der Praxis getestet und sie aufgrund unserer Erfahrungen bewertet. In Bezug auf den Stromverbrauch und die Lautstärke der Kompressoren unterscheiden sich die Testkandidaten nicht signifikant. Sind die Boxen samt Inhalt heruntergekühlt, fließen im Eco-Modus durchschnittlich 30 bis 55 W, bei voller Leistung dann etwa 50 bis 70 W.
Der Stromverbrauch per 230-Volt-Netzteil ist wegen der Wandlungsverluste insgesamt höher. Je nach Modell fließen im Test an der Steckdose bis zu 140 W, die Nutzung des Zigarettenanzünders kann also effektiver sein. Modelle, wie von Plug-in-Festival oder Dometic verbrauchten im Test an der Steckdose teils aber auch nur 50 W oder weniger. Wer seine Kühlbox an einer Powerstation oder im Wohnmobil betreibt, sollte hier unbedingt den Stromverbrauch beachten!
Die Lautstärke beträgt in einem Meter Entfernung je nach Betriebsmodus zwischen 38 und knapp über 50 dB(A) – wie oft der Kompressor anläuft, um zu kühlen, ist hier wichtiger als die reine Lautstärke.
Wie funktionieren Kühlboxen ohne Kompressor?
Neben Kompressor-Kühlboxen gibt es noch andere technische Alternativen – allerdings haben alle Systeme ihre Einschränkungen, weshalb wir eine Kompressor-Kühlbox trotz der lauten Betriebsgeräusche als besten Kompromiss bevorzugen würden.
Die einfachsten und günstigsten passiven Kühlboxen besitzen gar kein aktives Kühlaggregat, sondern schützen das Kühlgut nur durch dicke, isolierte Wände und den Einsatz von vortemperierten Kühl-Pads. Wie lange die vorgekühlten Lebensmittel oder Getränke in der passiven Kühlbox kühl bleiben, ist stark von der Außentemperatur abhängig. Die günstigsten Boxen eignen sich also nur zum Kühlhalten, nicht aber zum Herunterkühlen – ideal etwa für das gekühlte Getränk am See oder den Transport im Pkw. Die bunten Kunststoffbehälter gibt es dafür schon ab etwa 10 Euro.
Nur etwas teurer als passive Boxen sind thermoelektrische Kühlboxen – letztlich handelt es sich dabei um passive Boxen mit integrierter Kühlung. Die dick isolierten Boxen haben dazu in der Regel einen kleinen Lüfter im Deckel integriert. Zur Versorgung dient der 12-Volt-Anschluss (Zigarettenanzünder) im Pkw. Soll das Gerät auch an einer Schuko-Steckdose funktionieren, benötigt man ein Modell mit zusätzlichem 230-Volt-Netzteil. Die Kühlleistung solcher thermoelektrischen Boxen ist allerdings sehr gering und noch dazu von der Außentemperatur abhängig. Letztlich sind solche Systeme nur in Kombination mit vorgekühlter Ware und Kühlpads sinnvoll nutzbar. Um etwa Lebensmittel auf einer langen Fahrt oder einen Tag am See frisch zu halten, ist diese Lösung ab rund 30 Euro geeignet. Zum Herunterkühlen oder für längere Zeiträume fehlt es aber an Leistung.
Weiter geht es mit den Absorberkühlboxen, deren Technik auch etwa in Campingkühlschränken zu finden ist. Hier wird ein Wasser-Ammoniak-Gemisch elektrisch erhitzt und das Ammoniak verdampft und nimmt beim Abkühlen die Wärme aus der Kühlbox auf. Nach dem Abkühlen verdampft es erneut. Diese Mini-Kühlschränke können neben Strom auch mit Gas betrieben werden, weshalb sie für die Nutzung fernab des Stromnetzes besonders interessant sind – etwa beim Camping. Durch die mittlerweile sehr effektiven mobilen Solarkraftwerke und Photovoltaik-Panels verliert dieser Punkt jedoch an Relevanz. Mehr dazu in unseren Bestenlisten: Die besten Powerstations: Solargeneratoren im Test – von Camping bis Notstrom und Top 10: Die besten faltbaren Solarpanels im Test – perfekt für Powerstations.
Sehr positiv ist die ausgesprochen geringe Geräuschentwicklung der Absorberkühlboxen. In der Praxis sind sie kaum bis gar nicht zu hören. Die Anschaffungskosten sind im Vergleich zu Geräten mit Kompressor vergleichbar. Allerdings arbeiten die Geräte weniger effektiv und benötigen vergleichsweise viel Strom oder Gas. Die Absorber-Kühlung ist außerdem stark von der Außentemperatur abhängig. Ab einer Außentemperatur von 30 bis 35 Grad findet kaum oder keine Kühlung mehr statt. Die Kühlleistung ist zudem stark schwankend und deshalb nicht für sensible Lebensmittel oder etwa Medikamente geeignet. Im besten Fall erreichen solche Systeme Temperaturen von 25 Grad unter der Umgebungstemperatur.
Welche Extras bei Kühlboxen sind sinnvoll?
Abgesehen von den verschiedenen Technologien gibt es auch Unterschiede in der Ausstattung. So bieten mittlerweile viele Hersteller Kühlboxen mit App-Anbindung ans Smartphone an. Wer besonders empfindliche Lebensmittel oder gar Medikamente lagern will, hat so die Temperatur immer im Blick und kann diese per Fingerzeig regulieren – ein seltener Anwendungsfall. Letztlich sind die Geräte mit smarter Anbindung aber häufig etwas teurer und bieten aus unserer Sicht kaum praktischen Mehrwert – im Zweifel tut es hier auch ein einfaches Funkthermometer wie etwa das sehr empfehlenswerte Switchbot Outdoor Meter (Ratgeber).
Praktisch finden wir einen teilbaren Kühlraum, da so etwa Lebensmittel und Eis gelagert werden können.
Etwas neuer sind Kühlboxen mit integriertem Akku, welche auch fernab vom Stromnetz funktionieren. Neben einfachen thermoelektrischen Geräten gibt es mittlerweile auch Kompressor-Kühlboxen mit integriertem Stromspeicher. Der Vorteil hier ganz klar: permanente Kühlung auch fernab einer Steckdose. Unser Testsieger, die Anker Solix Everfrost 2, schafft so mit einer Akkuladung etwa 50 Stunden durchgehende Kühlung. Besonders Camping-Urlauber und Festivalbesucher profitieren hier von den Akkus. Wer seine Kühlbox nur daheim verwendet, benötigt nicht zwangsläufig ein Gerät mit Akku-Option.
Fazit
Vor dem Kauf einer Kühlbox sollte man sich entscheiden, ob sie Getränke und Lebensmittel lediglich kühl halten oder auch abkühlen soll. Geht es nur darum, die vorgekühlten Getränke vor schnellem Erhitzen zu schützen, sind günstige passive Kühlboxen mit Kühlelementen ausreichend.
Wer seine Lebensmittel und Getränke in der Kühlbox aktiv herunterkühlen will, muss deutlich mehr investieren. Hier ist die zugegebenermaßen teure Kompressor-Kühlbox Everfrost 2 von Anker Solix unser Favorit. Spielen Stromverbrauch und Service eine untergeordnete Rolle, machen aber auch alle anderen getesteten Kompressor-Kühlboxen einen guten Job. Entscheidende Kaufargumente sind aus unserer Sicht primär die beste Größe für die eigenen Ansprüche, der geplante Einsatzort und ein fairer Preis.
Soll die Kühlbox fernab von Steckdose oder Kfz eingesetzt werden, ist der Griff zu einem Modell mit integriertem oder aufrüstbarem Akku zu empfehlen. Alternativ kann man sich überlegen, eine günstige Powerstation bis 500 Euro zu kaufen und damit eine günstigere Kompressor-Kühlbox zu betreiben. Der Vorteil hier: Die Powerstation kann andere Verbraucher neben der Kühlbox versorgen. Weitere mobile Stromspeicher zeigen wir in der Bestenliste: Die besten Powerstations: Solargeneratoren im Test – von Camping bis Notstrom.
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 1 Woche
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Entwicklung & Codevor 1 Woche
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Social Mediavor 1 Woche
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 3 Monaten
Philip Bürli › PAGE online