Künstliche Intelligenz
Windows-Update-Vorschau bringt Windows-Sicherung für Organisationen
Microsoft hat in der Nacht zum Mittwoch die Update-Vorschauversionen für erste Windows-Builds bereitgestellt. Zunächst können Nutzerinnen und Nutzer von Windows 11 23H3 und Windows 10 22H2 darauf zugreifen – für Windows 10 ist das die letzte Update-Vorschau überhaupt, ergänzt Microsoft. Dem Unternehmen ist zudem die Mitlieferung der Windows-Sicherung für Organisationen (Windows Backup for Organisations) besonders wichtig.
Die Vorschau für Windows 11 23H2 trägt die Knowledgebase-Nummer KB5064080 und erhöht den Build auf Stand 22621.5840. Die einzelnen Korrekturen sind eher klein. Copilot hat die Zuverlässigkeit des „Copilot-Schlüssels“ verbessert. Die Profile für Mobilfunkanbieter haben die Entwickler aktualisiert. Die Wechseldatenträgerrichtlinie hatte etwa USB-Sticks nicht korrekt blockiert. Bei SMB-Freigaben konnte der Zugriff verzögert werden, wenn Quick UDP Internet Connections (QUIC) genutzt wurden.
Für Windows 10 22H2 handelt es sich um die „finale“ Update-Vorschau, erklärt Microsoft. Den Versionsstand hebt KB5063842 dabei auf 19045.6282. Auch hier finden sich nur kleinere Korrekturen sowie eine Neuerung bezüglich der Lizenzierung, mit der Nutzer der Windows-10-Keyless-Commercial-ESU-Lösung (neben eines Windows-365-Abos) ausgehenden Netzwerkverkehr blockieren können. Auch hier gibt es aktualisierte Profile von Mobilfunkanbietern. Die Wechseldatenträger-Zugriffsrichtlinie hat unter Umständen nicht korrekt funktioniert.
Die beiden Versionsankündigungen listen noch weitere kleinere Korrekturen auf.
Umzugs-Tool: Windows-Sicherung für Organisationen
Besonders wichtig stuft Microsoft die Auslieferung der Windows-Sicherung für Organisationen ein. Die Fähigkeiten des Tools orientieren sich an dem, was Microsoft bereits im Kontext mit der Support-Erweiterung für Windows 10 für Privatanwender erwähnt hat. In der Ankündigung der allgemeinen Verfügbarkeit der Organisations-Backupsoftware schreiben die Redmonder, dass das Troubleshooting damit reudziert werden kann, da Geräte sich einfacher zurücksetzen lassen. Die Einstellungen und Apps aus dem Microsoft-Store lassen sich schnell und mit minimalem Aufwand wiederherstellen. Das funktioniert auch, um von Windows-10-Maschinen auf Windows 11 zu migrieren. Das komme alles der Produktivität zugute.
Als Voraussetzung nennt Microsoft, dass die Zielgeräte mit Microsoft Entra verknüpft sein müssen und das mindestens Windows 11 22H2 darauf läuft. Seit dem August-2025-Sicherheitsupdate ist der Wizard „Out-of-box experience“ (OOBE) dafür vorbereitet. Das soll seit Windows 11 22H2 Build 22621.3958, Windows 11 23H2 Build 22631.3958 sowie Windows 11 24H2 Build 26100.1301 und neuer funktionieren. Weitere Bedingung ist ein Intune-Service-Admin- oder globaler Admin-Zugang. Es handelt sich um eine Opt-in-Funktion, sodass IT-Verantwortliche es erst für den gesamten Tenant aktivieren müssen. Um gezielt Nutzer-Rechner wiederherzustellen, ist derselbe Entra-Log-in zu nutzen wie beim Anlegen des Backups.
Microsoft weist weiter auf das Ablaufen der Windows-Secure-Boot-Zertifikate im Juni 2026 hin. „Dies kann sich auf die Fähigkeit bestimmter persönlicher und geschäftlicher Geräte auswirken, sicher zu starten, wenn sie nicht rechtzeitig aktualisiert werden“, führt der Hersteller aus und emfpiehlt, die Zertifikate im Voraus zu aktualisieren.
(dmk)
Künstliche Intelligenz
Physik des Bierschaums: Forscher lüften das Geheimnis stabiler Kronen
Eine prächtige, stabile Schaumkrone ist für viele Bierliebhaber das Zeichen eines perfekt gebrauten und gezapften Bieres. Doch die physikalischen und chemischen Mechanismen, die den Schaum zusammenhalten, sind erstaunlich komplex und waren bisher nur teilweise verstanden. Ein Team der ETH Zürich und der Technischen Universität Eindhoven wollen jetzt den „heiligen Gral der Braukunst“ entschlüsselt haben, wofür sie nach eigenen Angaben sieben Jahre benötigten.
Die in der Fachzeitschrift „Physics of Fluids“ veröffentlichte Studie zeigt: Es gibt nicht den einen Mechanismus, sondern die Biersorte und ihr Brauprozess sind entscheidend. Das Team um Emmanouil Chatzigiannakis und Jan Vermant ging der Sache auf den Grund, indem es eine Vielzahl kommerzieller Biere – von Schweizer Lagerbieren bis zu belgischen Trappistenbieren – mit hochpräzisen Methoden untersuchte. Mithilfe von Oberflächenrheometrie (Ermittlung des Fließverhaltens), Tensiometrie (Messung von Oberflächenspannung) und einer speziellen „dynamischen Dünnfilmwaage“ konnten sie die Vorgänge in den hauchdünnen Flüssigkeitsfilmen, die die einzelnen Gasblasen im Schaum voneinander trennen, direkt beobachten und messen.
Zwei Wege zur stabilen Krone
Die zentrale Erkenntnis der Studie ist, dass es zwei grundlegend unterschiedliche Stabilisierungsmechanismen gibt, die je nach Biertyp dominieren. Bei untergärigen Bieren wie Lager ist die Oberflächenviskosität der entscheidende Faktor. An der Grenzfläche zwischen dem Bier und der CO₂-Blase reichern sich Proteine an und bilden ein zusammenhängendes, eher starres Netzwerk. Diese zähe Schicht immobilisiert die Oberfläche der Blasen und bremst das Abfließen der Flüssigkeit aus den Wänden der Schaumblasen (die sogenannte Drainage). Der Schaum bleibt dadurch länger stabil, weil die Blasen nicht so schnell austrocknen und platzen.
Ganz anders verhält es sich bei obergärigen, mehrfach fermentierten belgischen Ales wie Tripel oder Dubbel. Hier war die Oberflächenviskosität überraschend gering. Stattdessen sind hier die sogenannten Marangoni-Spannungen am Werk. Dabei bilden die Proteine an der Oberfläche eher mobile „Inseln“ statt eines starren Netzwerks. Wenn ein Flüssigkeitsfilm zwischen zwei Blasen durch die Drainage dünner wird, entstehen an dieser Stelle Konzentrations- und damit Spannungsgradienten an der Oberfläche. Diese Gradienten erzeugen eine Strömung, die Flüssigkeit aktiv in den dünner werdenden Bereich zurückzieht. Dieser „Selbstheilungseffekt“ kann sogar zu sichtbaren, rezirkulierenden Strömungen im Film führen, die den Schaum extrem robust machen.
Fermentation als Schlüssel
Die Forscherinnen und Forscher konnten diesen Effekt direkt mit dem Brauprozess in Verbindung bringen. Sie untersuchten drei Biere derselben belgischen Brauerei, die sich hauptsächlich in der Anzahl und Dauer der Fermentationen unterscheiden (Singel, Dubbel und Tripel). Das Ergebnis war eindeutig: Je mehr Fermentationsschritte ein Bier durchläuft, desto ausgeprägter ist der Marangoni-Effekt und desto stabiler der Schaum.
Eine proteomische Analyse bestätigte die chemische Grundlage dafür: Die Konzentration und Funktionalität des für Schaum wichtigen Lipid-Transfer-Proteins 1 (LTP1) nimmt mit der Fermentationsintensität zu. Bei Bieren wie dem dunklen Dubbel spielt zudem das Protein Serpin Z4 eine Rolle, dessen Eigenschaften durch Maillard-Reaktionen – eine nicht-enzymatische Bräunungsreaktion – während des Darrens, des Trocknen des Malzes, beeinflusst werden.
Ein Bauplan für bessere Schäume
Die Erkenntnisse sind nicht nur für Brauer von großer Bedeutung, die nun gezieltere Strategien zur Verbesserung der Schaumqualität entwickeln können – je nach Biertyp entweder durch die Förderung der Oberflächenviskosität oder durch die Optimierung der Bedingungen für den Marangoni-Effekt.
Ferner sehen die Autoren ihre Arbeit als einen „Bauplan für fortschrittliche Schaumformulierungen“ auch außerhalb der Brauindustrie. Das Verständnis des Zusammenspiels von Viskosität und Marangoni-Spannungen könnte laut den Forschern bei der Entwicklung stabiler Schäume in Bereichen wie der Lebensmitteltechnologie, bei Kosmetika, in der Brandbekämpfung oder sogar bei medizinischen Anwendungen, wie der Behandlung von Krampfadern, von Nutzen sein.
(mack)
Künstliche Intelligenz
Persönlichkeitsrecht: Synchronstimme ist vor KI-Nachahmung geschützt
Das Landgericht Berlin hat vor wenigen Tagen ein wichtiges Signal für den Umgang mit KI-Technologien und Persönlichkeitsrechten gegeben. Es hat mit Urteil vom 20. August entschieden, dass auch die Stimme eines Synchronsprechers durch das allgemeine Persönlichkeitsrecht geschützt ist und daher nicht durch Systeme mit Künstlicher Intelligenz nachgeahmt und anschließend öffentlich verwendet werden darf (Az.: II 2 O 202/24). Laut dem Beschluss verletzt die unerlaubte Nutzung einer solchen KI-Stimme dieses Recht des Sprechers, was unter anderem Schadensersatzansprüche begründen kann.
In dem Fall klagte ein renommierter deutscher Synchronsprecher, der als die „deutsche Stimme“ von Bruce Willis bekannt ist, gegen den Betreiber eines YouTube-Kanals. Dieser habe ohne Einwilligung des Sprechers zwei Videos mit einer von einer KI erzeugten Stimme vertont, die der Synchronstimme des Klägers täuschend ähnlich war. Das berichtet der Anwalt des Klägers, Kai Jüdemann. Die Clips hatten demnach einen rechtslastigen politischen Inhalt und warben für Waren in einem Online-Shop wie „Woke Zero“-T-Shirts.
Nachdem der YouTube-Betreiber eine Unterlassungserklärung abgegeben hatte, forderte der Kläger Ersatz der Abmahnkosten sowie materiellen Schadensersatz für die unerlaubte Nutzung seiner Stimme. Das Gericht gab dem Kläger dem Anwalt zufolge recht und stützte seine Entscheidung auf mehrere zentrale Punkte: Es stellte etwa klar, dass das Persönlichkeitsrecht die Freiheit einer Person schützt, selbst darüber zu entscheiden, wie ihre Stimme von Dritten genutzt wird. Die Richter betonten, dass einer bekannten Stimme ein erheblicher wirtschaftlicher Wert zukommen kann, ähnlich wie einem Bildnis oder einem Namen.
Keine Kennzeichnung, keine Zustimmung
Die Nutzung der KI-generierten Stimme stellt laut dem noch nicht rechtskräftigen Urteil einen klaren Eingriff in das Persönlichkeitsrecht dar. Entscheidend war dabei nicht, dass es sich um eine exakte Kopie der Originalstimme handelte. Vielmehr sei die Ähnlichkeit bewusst so stark gewesen, dass ein Teil des Publikums annehmen musste, der bekannte Synchronsprecher habe dem Inhalt zugestimmt. Das Gericht befand, dass die kommerzielle Nutzung der Stimme im Vordergrund stand, um die Klickzahlen des YouTube-Kanals zu steigern und so den Web-Store zu bewerben.
Der Eingriff war dem Beschluss zufolge nicht gerechtfertigt. Die Nutzung der Stimme diente primär gewerblichen Zwecken und war nicht durch die Kunst- oder Meinungsfreiheit gedeckt. Auch wenn die Videos einen satirischen Charakter hatten, zielte die Verwendung der Stimme nicht auf eine Auseinandersetzung mit dem Sprecher selbst, sondern auf die Steigerung der Attraktivität der Clips. Ferner war die fehlende Kennzeichnung als KI-generierte Stimme ein schwerwiegender Punkt. Diese habe den Eindruck erweckt, der Sprecher identifiziere sich mit den politischen Inhalten der Videos, heißt es. Zudem sei klar, dass der Kläger auch nicht im Sinne der Datenschutz-Grundverordnung (DSGVO) in die Verbreitung seiner KI-erzeugten Stimme eingewilligt habe.
Den Anspruch auf Schadenersatz begründete das Gericht mit dem Konzept der fiktiven Lizenzgebühr: Wer das Persönlichkeitsmerkmal eines anderen ohne Erlaubnis für kommerzielle Zwecke nutzt, muss sich an dem wirtschaftlichen Wert festhalten lassen, den er damit schafft. Der Ausgleich wird dann in einer Höhe festgesetzt, die vernünftige Vertragspartner für die Verwendung der Stimme vereinbart hätten. Insgesamt stärkt das Urteil so die Rechte von Synchronsprechern und anderen prominenten Persönlichkeiten im digitalen Zeitalter.
(mack)
Künstliche Intelligenz
Bots unter sich: Forscher organisiert erste Wissenschaftskonferenz nur für KI
Im Oktober findet eine ganz besondere akademische Konferenz statt, die bislang ihresgleichen sucht. „Agents4Science“ ist eine eintägige Online-Veranstaltung, die fast alle Bereiche der Wissenschaft von der Physik bis zur Medizin umfasst. Die Besonderheit: Alle vorgestellten Arbeiten wurden nahezu vollständig von KI recherchiert, verfasst und überprüft – und werden mithilfe von Text-to-Speech-Technologie „präsentiert“.
Die Konferenz kommt vom Stanford-Informatiker James Zou. Er untersucht, wie Menschen und KI am besten kooperieren. Die bisherigen Systeme haben Wissenschaftlern bereits viele nützliche Werkzeuge an die Hand gegeben. Dazu gehört beispielsweise Alphafold von Deepmind, mit dessen Hilfe sich Proteine simulieren lassen, die real nur schwer herzustellen wären.
In jüngerer Zeit haben Fortschritte bei großen Sprachmodellen und KI mit Reasoning-Fähigkeiten zudem die Idee aufgebracht, dass die Systeme mehr oder weniger so autonom arbeiten können wie Wissenschaftler. Dabei sollen sie selbst Hypothesen aufstellen, Simulationen durchführen und Experimente entwerfen. Die Idee hat allerdings auch Kritiker. Unter anderem sind sie der Meinung, dass Sprachmodelle nicht zu den kreativen Denkprozessen fähig sind, die in der Forschung erforderlich sind. Zudem machten die Systeme zu viele Fehler und halluzinierten. Schließlich gruben sie jungen Forschern das Wasser ab.
Wie KI als Wissenschaftler funktionieren kann
Dennoch sind eine Reihe von Wissenschaftlern und politischen Entscheidungsträgern von den Möglichkeiten der KI-Forschenden sehr angetan. Der KI-Aktionsplan der US-Regierung beschreibt die Notwendigkeit, „in automatisierte, cloudbasierte Labore für eine Reihe von wissenschaftlichen Bereichen“ zu investieren. Optimisten glauben, dass solche Systeme tatsächlich neue wissenschaftliche Entdeckungen ermöglichen könnten, auf die Menschen allein niemals kämen. Für Zou ist die These einfach: „KI-Agenten sind nicht an Zeiten gebunden. Sie können sich jederzeit mit uns virtuell treffen und rund um die Uhr mit uns zusammenarbeiten.“
Im vergangenen Monat veröffentlichte Zou dann einen Artikel im Fachmagazin Nature mit den Ergebnissen seiner eigenen Gruppe autonomer KI-Mitarbeiter, die ein Mittel gegen das Coronavirus gefunden hatten. Angespornt durch erste Erfolge möchte er nun sehen, was „echte“ KI-Wissenschaftler leisten können, die nicht nur beitragen. Er beschreibt, wie eine erfolgreiche Veröffentlichung bei Agents4Science aussehen könnte: „Die KI sollte Erstautor sein und den Großteil der Arbeit leisten. Menschen könnten als Berater fungieren.“
Ein virtuelles Labor mit KI-Mitarbeitern
Als Doktorand an der Harvard University Anfang der 2010er Jahre war Zou so interessiert am Potenzial der KI für die Wissenschaft, dass er ein Jahr lang seine Forschung im Bereich Informatik unterbrach. Er arbeitete stattdessen in der Genomik, einem Bereich, der stark von Technologien zur Kartierung ganzer Genome profitiert hatte. Seine Zeit in echten Laboratorien zeigte ihm, wie schwierig es sein kann, mit Experten aus anderen Bereichen zusammenzuarbeiten. „Die sprechen oft eine andere Sprache“, sagt Zou. Große Sprachmodelle sind seiner Meinung nach aber besser als Menschen darin, Fachjargon zu entschlüsseln und zu übersetzen. „Die Systeme haben [im Training] so viel gelesen“, sagt Zou, dass sie Ideen aus verschiedenen Wissenschaftsbereichen sehr gut übersetzen und verallgemeinern können. Diese Idee inspirierte Zou zu seiner Vision eines „virtuellen Labors“.
Auf oberster Ebene wäre das Virtual Lab ein Team von KI-Agenten, die eine echte Universitätslabor-Gruppe nachahmen. Diese Agenten hätten verschiedene Fachgebiete und könnten mit verschiedenen Programmen wie Alphafold interagieren. Forscher könnten einem oder mehreren dieser Agenten eine Agenda geben, an der sie arbeiten sollen, dann das Modell öffnen, um die Kommunikation der Agenten untereinander zu überprüfen und zu bestimmen, welche Experimente in einem realen Versuch durchgeführt werden sollten.
KI-Agenten wie ein Forscherteam
Zou brauchte allerdings einen menschlichen Mitarbeiter, um diese Idee in die Tat umzusetzen und ein konkretes Forschungsproblem anzugehen. Letztes Jahr lernte er dafür John E. Pak kennen, einen Forschungswissenschaftler am Chan Zuckerberg Biohub. Pak, der Zous Interesse an der Nutzung von KI für die Wissenschaft teilt, erklärte sich bereit, gemeinsam mit ihm das virtuelle Labor aufzubauen. Pak würde bei der Festlegung der Themen helfen, aber sowohl er als auch Zou wollten klarstellen, welche Ansätze das virtuelle Labor selbst entwickeln könnte. Als erstes Projekt beschlossen sie daher, sich auf die Entwicklung von Therapien für neue Covid-19-Stämme zu konzentrieren. Mit diesem Ziel vor Augen begann Zou mit dem Training von fünf KI-Wissenschaftlern – darunter solche, die darauf trainiert waren, wie ein Immunologe, ein Bioinformatiker und ein Seniorforscher zu agieren – mit unterschiedlichen Zielen und Programmen.
Die Erstellung dieser Modelle dauerte einige Monate, aber laut Pak waren sie sehr schnell bei der Entwicklung von Therapieansätzen angekommen, sobald die Voraussetzungen geschaffen waren. „Ich glaube, es dauerte ein Tag oder nur ein halber Tag, so in etwa.“ Zou berichtet, die Agenten hätten dann beschlossen, Anti-COVID-Nanokörper zu untersuchen, eine Art Verwandte von Antikörpern, die viel kleiner und in der Natur weniger verbreitet sind. Der Grund dafür schockierte Zou. Er teilte mit, die Modelle seien deshalb auf Nanokörper gekommen, weil sie den Zusammenhang hergestellt hatten, dass diese kleineren Moleküle gut für die begrenzten Rechenressourcen geeignet sind. „Es stellte sich tatsächlich als gute Entscheidung heraus, da die Agenten diese Nanokörper effizient entwerfen konnten“, sagt er.
Nature publiziert trotz strenger KI-Regeln
Die von den Modellen entworfenen Nanokörper gehen wissenschaftlich weiter als bisherige Ansätze. Die meisten konnten sich laut der Studie an die ursprüngliche COVID-19-Variante binden. Pak und Zou räumen jedoch beide ein, dass der Hauptbeitrag ihrer Studie in Wirklichkeit beim Virtual Lab als grundsätzlichem Werkzeug liegt. Yi Shi, Pharmakologe an der University of Pennsylvania, der nicht an der Arbeit beteiligt war, aber einige der zugrunde liegenden Nanokörper herstellen konnte, die vom Virtual Lab modifiziert wurden, stimmt zu. Er sei von der Demonstration des Virtual Lab begeistert und die größte Neuerung dabei sei die Automatisierung. Nature akzeptierte schließlich das Paper und nahm es in sein Vorveröffentlichungsprogramm auf – Zou wusste, dass der Einsatz von KI-Agenten in der Wissenschaft ein für das Journal heißes Thema war und wollte einer der Ersten sein, der dies testete.
Als er seinen Artikel einreichte, stellte Zou allerdings bestürzt fest, dass er die Rolle der KI in seiner Forschung dabei nicht angemessen würdigen konnte. Die meisten Konferenzen und Fachzeitschriften erlauben es nämlich nicht, KI als Mitautor in Studien anzugeben – und viele verbieten Forschern ausdrücklich, KI zum Verfassen von Papern oder Rezensionen zu verwenden. Nature beispielsweise führt Unsicherheiten hinsichtlich der Verantwortlichkeiten, des Urheberrechts und von Ungenauigkeiten als Gründe für das Verbot dieser Praxis an. „Ich finde das einschränkend“, sagt Zou. „Solche Richtlinien sind im Grunde ein Anreiz für Forscher, den Einsatz von KI zu verheimlichen oder zu minimieren.“
KI-Konferenz in der Kritik
Zou wollte das ändern und rief deshalb seine eigene Agents4Science-Konferenz ins Leben, bei der der Hauptautor aller eingereichten Beiträge eine KI sein muss – und nicht nur darf. Andere KI-Agenten versuchen dann, die Arbeit zu bewerten und ihren wissenschaftlichen Wert zu bestimmen. Aber auch Menschen bleiben nicht völlig außen vor: Ein Team aus menschlichen Experten, darunter ein Nobelpreisträger für Wirtschaftswissenschaften, wird die besten Beiträge begutachten. Zou ist sich nicht sicher, was aus der Konferenz werden wird, aber er hofft, dass sich unter den Hunderten von Beiträgen, die er aus allen Bereichen erwartet, einige Perlen finden werden. „Es könnte KI-Beiträge geben, die interessante Entdeckungen enthalten“, sagt er. Und selbst wenn nicht: Es könne aber auch KI-Beiträge geben, die Fehler enthalten, die „interessant“ sind, meint der Forscher. Während er die Resonanz auf die Konferenz als insgesamt positiv bezeichnete, gab es auch Kritik von Kollegen.
Lisa Messeri, Wissenschaftsanthropologin an der Yale University, hat etwa viele Fragen zur Fähigkeit der KI, wissenschaftliche Arbeiten zu begutachten: „Wie kommt es zu Erkenntnisfortschritten? Und was passiert, wenn ein solcher Fortschritt dann auf dem Schreibtisch des Gutachters landet?“ Sie bezweifelt, dass die Konferenz zufriedenstellende Antworten liefern kann. Letztes Jahr untersuchten Messeri und ihre Kollegin Molly Crockett in einem anderen Artikel in Nature die Probleme beim Einsatz von KI in der Wissenschaft. Beide sind nach wie vor nicht davon überzeugt, dass KI zu neuen Ergebnissen führen kann – einschließlich derjenigen, die in Zous Artikel über Nanokörper vorgestellt wurden.
„Ich bin genau die Art von Wissenschaftlerin, für die solche Tools gedacht sind, da ich keine Informatikerin bin, aber dennoch computergestützte Arbeit verrichte“, sagt Crockett, Kognitionswissenschaftlerin an der Princeton University. „Gleichzeitig bin ich jedoch sehr skeptisch gegenüber den weitreichenden Behauptungen, insbesondere hinsichtlich der Frage, wie [KI-Wissenschaftler] bestimmte Aspekte des menschlichen Denkens simulieren können.“ Beide Forscherinnen stehen dem Einsatz von KI in der Wissenschaft skeptisch gegenüber, wenn die Automatisierung menschliche Wissenschaftler daran hindert, das erforderliche Fachwissen aufzubauen, um die Agenten zu überwachen. Stattdessen plädieren sie dafür, Experten aus einem breiteren Spektrum von Disziplinen einzubeziehen, um durchdachte Experimente zu entwerfen, bevor man KI die Durchführung und Überprüfung wissenschaftlicher Arbeiten anvertraut.
KI-Forscher Zou: „Es gibt viel Hype und viel Anekdotisches“
„Wir müssen mit Erkenntnistheoretikern, Wissenschaftsphilosophen, Wissenschaftsanthropologen und Fachwissenschaftlern sprechen, die sich intensiv mit der Frage beschäftigen, was Wissen eigentlich ist“, sagt Crockett. Zou sieht seine Konferenz jedoch genau als das Experiment, das dieses Gebiet voranbringen könnte. In Bezug auf KI-generierte Wissenschaft sagt er: „Es gibt viel Hype und viel Anekdotisches, aber es gibt wirklich keine systematischen Daten.“ Ob die KI-Konferenz Agents4Science solche Daten liefern kann, ist noch offen, aber im Oktober werden die Agenten und Bots zumindest versuchen, der Welt zu zeigen, was sie können.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 1 Woche
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Entwicklung & Codevor 1 Woche
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Social Mediavor 1 Woche
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 3 Monaten
Philip Bürli › PAGE online