Connect with us

Künstliche Intelligenz

Bots unter sich: Forscher organisiert erste Wissenschaftskonferenz nur für KI


Im Oktober findet eine ganz besondere akademische Konferenz statt, die bislang ihresgleichen sucht. „Agents4Science“ ist eine eintägige Online-Veranstaltung, die fast alle Bereiche der Wissenschaft von der Physik bis zur Medizin umfasst. Die Besonderheit: Alle vorgestellten Arbeiten wurden nahezu vollständig von KI recherchiert, verfasst und überprüft – und werden mithilfe von Text-to-Speech-Technologie „präsentiert“.

Die Konferenz kommt vom Stanford-Informatiker James Zou. Er untersucht, wie Menschen und KI am besten kooperieren. Die bisherigen Systeme haben Wissenschaftlern bereits viele nützliche Werkzeuge an die Hand gegeben. Dazu gehört beispielsweise Alphafold von Deepmind, mit dessen Hilfe sich Proteine simulieren lassen, die real nur schwer herzustellen wären.

In jüngerer Zeit haben Fortschritte bei großen Sprachmodellen und KI mit Reasoning-Fähigkeiten zudem die Idee aufgebracht, dass die Systeme mehr oder weniger so autonom arbeiten können wie Wissenschaftler. Dabei sollen sie selbst Hypothesen aufstellen, Simulationen durchführen und Experimente entwerfen. Die Idee hat allerdings auch Kritiker. Unter anderem sind sie der Meinung, dass Sprachmodelle nicht zu den kreativen Denkprozessen fähig sind, die in der Forschung erforderlich sind. Zudem machten die Systeme zu viele Fehler und halluzinierten. Schließlich gruben sie jungen Forschern das Wasser ab.

Dennoch sind eine Reihe von Wissenschaftlern und politischen Entscheidungsträgern von den Möglichkeiten der KI-Forschenden sehr angetan. Der KI-Aktionsplan der US-Regierung beschreibt die Notwendigkeit, „in automatisierte, cloudbasierte Labore für eine Reihe von wissenschaftlichen Bereichen“ zu investieren. Optimisten glauben, dass solche Systeme tatsächlich neue wissenschaftliche Entdeckungen ermöglichen könnten, auf die Menschen allein niemals kämen. Für Zou ist die These einfach: „KI-Agenten sind nicht an Zeiten gebunden. Sie können sich jederzeit mit uns virtuell treffen und rund um die Uhr mit uns zusammenarbeiten.“

Im vergangenen Monat veröffentlichte Zou dann einen Artikel im Fachmagazin Nature mit den Ergebnissen seiner eigenen Gruppe autonomer KI-Mitarbeiter, die ein Mittel gegen das Coronavirus gefunden hatten. Angespornt durch erste Erfolge möchte er nun sehen, was „echte“ KI-Wissenschaftler leisten können, die nicht nur beitragen. Er beschreibt, wie eine erfolgreiche Veröffentlichung bei Agents4Science aussehen könnte: „Die KI sollte Erstautor sein und den Großteil der Arbeit leisten. Menschen könnten als Berater fungieren.“

Als Doktorand an der Harvard University Anfang der 2010er Jahre war Zou so interessiert am Potenzial der KI für die Wissenschaft, dass er ein Jahr lang seine Forschung im Bereich Informatik unterbrach. Er arbeitete stattdessen in der Genomik, einem Bereich, der stark von Technologien zur Kartierung ganzer Genome profitiert hatte. Seine Zeit in echten Laboratorien zeigte ihm, wie schwierig es sein kann, mit Experten aus anderen Bereichen zusammenzuarbeiten. „Die sprechen oft eine andere Sprache“, sagt Zou. Große Sprachmodelle sind seiner Meinung nach aber besser als Menschen darin, Fachjargon zu entschlüsseln und zu übersetzen. „Die Systeme haben [im Training] so viel gelesen“, sagt Zou, dass sie Ideen aus verschiedenen Wissenschaftsbereichen sehr gut übersetzen und verallgemeinern können. Diese Idee inspirierte Zou zu seiner Vision eines „virtuellen Labors“.

Auf oberster Ebene wäre das Virtual Lab ein Team von KI-Agenten, die eine echte Universitätslabor-Gruppe nachahmen. Diese Agenten hätten verschiedene Fachgebiete und könnten mit verschiedenen Programmen wie Alphafold interagieren. Forscher könnten einem oder mehreren dieser Agenten eine Agenda geben, an der sie arbeiten sollen, dann das Modell öffnen, um die Kommunikation der Agenten untereinander zu überprüfen und zu bestimmen, welche Experimente in einem realen Versuch durchgeführt werden sollten.

Zou brauchte allerdings einen menschlichen Mitarbeiter, um diese Idee in die Tat umzusetzen und ein konkretes Forschungsproblem anzugehen. Letztes Jahr lernte er dafür John E. Pak kennen, einen Forschungswissenschaftler am Chan Zuckerberg Biohub. Pak, der Zous Interesse an der Nutzung von KI für die Wissenschaft teilt, erklärte sich bereit, gemeinsam mit ihm das virtuelle Labor aufzubauen. Pak würde bei der Festlegung der Themen helfen, aber sowohl er als auch Zou wollten klarstellen, welche Ansätze das virtuelle Labor selbst entwickeln könnte. Als erstes Projekt beschlossen sie daher, sich auf die Entwicklung von Therapien für neue Covid-19-Stämme zu konzentrieren. Mit diesem Ziel vor Augen begann Zou mit dem Training von fünf KI-Wissenschaftlern – darunter solche, die darauf trainiert waren, wie ein Immunologe, ein Bioinformatiker und ein Seniorforscher zu agieren – mit unterschiedlichen Zielen und Programmen.

Die Erstellung dieser Modelle dauerte einige Monate, aber laut Pak waren sie sehr schnell bei der Entwicklung von Therapieansätzen angekommen, sobald die Voraussetzungen geschaffen waren. „Ich glaube, es dauerte ein Tag oder nur ein halber Tag, so in etwa.“ Zou berichtet, die Agenten hätten dann beschlossen, Anti-COVID-Nanokörper zu untersuchen, eine Art Verwandte von Antikörpern, die viel kleiner und in der Natur weniger verbreitet sind. Der Grund dafür schockierte Zou. Er teilte mit, die Modelle seien deshalb auf Nanokörper gekommen, weil sie den Zusammenhang hergestellt hatten, dass diese kleineren Moleküle gut für die begrenzten Rechenressourcen geeignet sind. „Es stellte sich tatsächlich als gute Entscheidung heraus, da die Agenten diese Nanokörper effizient entwerfen konnten“, sagt er.

Die von den Modellen entworfenen Nanokörper gehen wissenschaftlich weiter als bisherige Ansätze. Die meisten konnten sich laut der Studie an die ursprüngliche COVID-19-Variante binden. Pak und Zou räumen jedoch beide ein, dass der Hauptbeitrag ihrer Studie in Wirklichkeit beim Virtual Lab als grundsätzlichem Werkzeug liegt. Yi Shi, Pharmakologe an der University of Pennsylvania, der nicht an der Arbeit beteiligt war, aber einige der zugrunde liegenden Nanokörper herstellen konnte, die vom Virtual Lab modifiziert wurden, stimmt zu. Er sei von der Demonstration des Virtual Lab begeistert und die größte Neuerung dabei sei die Automatisierung. Nature akzeptierte schließlich das Paper und nahm es in sein Vorveröffentlichungsprogramm auf – Zou wusste, dass der Einsatz von KI-Agenten in der Wissenschaft ein für das Journal heißes Thema war und wollte einer der Ersten sein, der dies testete.

Als er seinen Artikel einreichte, stellte Zou allerdings bestürzt fest, dass er die Rolle der KI in seiner Forschung dabei nicht angemessen würdigen konnte. Die meisten Konferenzen und Fachzeitschriften erlauben es nämlich nicht, KI als Mitautor in Studien anzugeben – und viele verbieten Forschern ausdrücklich, KI zum Verfassen von Papern oder Rezensionen zu verwenden. Nature beispielsweise führt Unsicherheiten hinsichtlich der Verantwortlichkeiten, des Urheberrechts und von Ungenauigkeiten als Gründe für das Verbot dieser Praxis an. „Ich finde das einschränkend“, sagt Zou. „Solche Richtlinien sind im Grunde ein Anreiz für Forscher, den Einsatz von KI zu verheimlichen oder zu minimieren.“

Zou wollte das ändern und rief deshalb seine eigene Agents4Science-Konferenz ins Leben, bei der der Hauptautor aller eingereichten Beiträge eine KI sein muss – und nicht nur darf. Andere KI-Agenten versuchen dann, die Arbeit zu bewerten und ihren wissenschaftlichen Wert zu bestimmen. Aber auch Menschen bleiben nicht völlig außen vor: Ein Team aus menschlichen Experten, darunter ein Nobelpreisträger für Wirtschaftswissenschaften, wird die besten Beiträge begutachten. Zou ist sich nicht sicher, was aus der Konferenz werden wird, aber er hofft, dass sich unter den Hunderten von Beiträgen, die er aus allen Bereichen erwartet, einige Perlen finden werden. „Es könnte KI-Beiträge geben, die interessante Entdeckungen enthalten“, sagt er. Und selbst wenn nicht: Es könne aber auch KI-Beiträge geben, die Fehler enthalten, die „interessant“ sind, meint der Forscher. Während er die Resonanz auf die Konferenz als insgesamt positiv bezeichnete, gab es auch Kritik von Kollegen.

Lisa Messeri, Wissenschaftsanthropologin an der Yale University, hat etwa viele Fragen zur Fähigkeit der KI, wissenschaftliche Arbeiten zu begutachten: „Wie kommt es zu Erkenntnisfortschritten? Und was passiert, wenn ein solcher Fortschritt dann auf dem Schreibtisch des Gutachters landet?“ Sie bezweifelt, dass die Konferenz zufriedenstellende Antworten liefern kann. Letztes Jahr untersuchten Messeri und ihre Kollegin Molly Crockett in einem anderen Artikel in Nature die Probleme beim Einsatz von KI in der Wissenschaft. Beide sind nach wie vor nicht davon überzeugt, dass KI zu neuen Ergebnissen führen kann – einschließlich derjenigen, die in Zous Artikel über Nanokörper vorgestellt wurden.

„Ich bin genau die Art von Wissenschaftlerin, für die solche Tools gedacht sind, da ich keine Informatikerin bin, aber dennoch computergestützte Arbeit verrichte“, sagt Crockett, Kognitionswissenschaftlerin an der Princeton University. „Gleichzeitig bin ich jedoch sehr skeptisch gegenüber den weitreichenden Behauptungen, insbesondere hinsichtlich der Frage, wie [KI-Wissenschaftler] bestimmte Aspekte des menschlichen Denkens simulieren können.“ Beide Forscherinnen stehen dem Einsatz von KI in der Wissenschaft skeptisch gegenüber, wenn die Automatisierung menschliche Wissenschaftler daran hindert, das erforderliche Fachwissen aufzubauen, um die Agenten zu überwachen. Stattdessen plädieren sie dafür, Experten aus einem breiteren Spektrum von Disziplinen einzubeziehen, um durchdachte Experimente zu entwerfen, bevor man KI die Durchführung und Überprüfung wissenschaftlicher Arbeiten anvertraut.

„Wir müssen mit Erkenntnistheoretikern, Wissenschaftsphilosophen, Wissenschaftsanthropologen und Fachwissenschaftlern sprechen, die sich intensiv mit der Frage beschäftigen, was Wissen eigentlich ist“, sagt Crockett. Zou sieht seine Konferenz jedoch genau als das Experiment, das dieses Gebiet voranbringen könnte. In Bezug auf KI-generierte Wissenschaft sagt er: „Es gibt viel Hype und viel Anekdotisches, aber es gibt wirklich keine systematischen Daten.“ Ob die KI-Konferenz Agents4Science solche Daten liefern kann, ist noch offen, aber im Oktober werden die Agenten und Bots zumindest versuchen, der Welt zu zeigen, was sie können.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Künstliche Intelligenz

Apples Smartglasses: Mobiler Modus unterwegs, voller Modus am Mac?


Apple plant für seine kommenden Smartglasses offenbar Geräte, die über mehrere Betriebsmodi verfügen. Laut einem Bloomberg-Bericht soll eine „spätere Version“ der Geräte, die dann ein integriertes Display haben wird, je nach Art der Nutzung umschalten. Angeblich läuft dann ein vollwertiges visionOS auf der Hardware, allerdings nur, wenn ein Mac in der Nähe ist und die Brille mit diesem gepairt wurde. Unterwegs sollen die Smartglasses in einen „leichteren, Mobil-freundlicheren“ Modus mit angepasstem Interface schalten. Dann sind sie angeblich mit einem iPhone verbunden.

Allerdings wird die erste Generation der Apple-Smartglasses noch gänzlich ohne Bildschirm kommen. Stattdessen orientiert sich Apple an dem, was man seit einigen Jahren von Meta mit seinen Ray-Ban-Smartglasses kennt. Allerdings hatte die Facebook-Mutter noch für dieses Jahr eine Ray-Ban Display mit integriertem Screen auf einer Seite angekündigt. Apple soll daraufhin seine Bemühungen um ein Gerät mit Bildschirm verstärkt und ein leichteres Vision-Headset zunächst zurückgestellt haben.

Erste Apple-Smartglasses könnten im Jahr 2026 auf den Markt kommen. Die Display-lose Steuerung soll via Siri geschehen, Apples im Vergleich zur Konkurrenz zurückgefallene Sprachassistentin. Ob das so gelingt, wie der Konzern sich das vorstellt, bleibt abzuwarten. Meta nutzt sein eigenes KI-System für die bisherigen Display-losen Brillen, verbaut es aber auch in der Ray-Ban-Display, um die Steuerung zu vereinfachen. Daneben gibt es ein Band, das Bewegungen der Hand und Finger auslesen kann.

Apple soll seine Vision-Abteilung laut Bloomberg mittlerweile umgebaut haben. Die leichtere, billigere „Vision Air“ wurde wie erwähnt zurückgestellt, Beteiligte arbeiten nun an Smartglasses. Dennoch wird die Vision Pro wohl weiterentwickelt, soll noch in diesem Jahr eine zweite Variante mit etwas mehr Leistung erhalten. Apple werde wie üblich einen „Multitier-Ansatz“ mit mehreren Produktreihen fahren.

Die Arbeit an visionOS und dem dahinter stehenden Ökosystem ist demnach nicht verloren, weil dieses auch von den Smartglasses verwendet werden soll. Die Vision Pro bleibt in Sachen Display-Qualität und Bedienung beeindruckend, allerdings holen Konkurrenten wie Meta deutlich auf. Interessanterweise mischt auch Samsung im Headset-Markt mit. Dessen „Project Muhan“ orientiert sich erstaunlicherweise an der Vision Pro, obwohl diese doch als Flop gilt.


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

Google: Pixel Watch 1 erhält kein Update auf Wear OS 6


Google hatte vergangene Woche das Wear-OS-6-Update auf Basis von Android 16 für die Pixel Watch 2 und 3 veröffentlicht. Besitzerinnen und Besitzer der ersten Generation der Smartwatch blieben außen vor. Nun hat Google sich auf Nachfrage von heise online dazu geäußert.

Die Verteilung des Updates auf Wear OS 6, das Material 3 Expressive, eine Prise mehr Laufzeit und weitere Neuerungen wie ein dynamisches Farbschema basierend auf dem Watchface, sowie überarbeitete Alarm-, Stoppuhr- und Timer-Apps an Bord hat, bleibt den neueren Pixel-Watch-Generationen vorbehalten. Das heißt, nur die Pixel Watches 2 bis 4 bekommen das Update, obwohl Googles Support-Dokument zur Updategarantie der ersten Smartwatch Pixel Watch 1 bis mindestens Oktober 2025 Aktualisierungen zusagt. Dementsprechend hätte die Uhr theoretisch noch ein Update erhalten müssen.

Doch dem ist nicht so, wie Google gegenüber heise online bestätigt: „Wir sind bestrebt, Ihnen mit dem gesamten Pixel-Watch-Portfolio ein großartiges Erlebnis zu bieten, damit Ihre Geräte mit der Zeit immer besser werden. Dazu gehört auch ein dreijähriger Support, der Ihnen neue Funktionen, Verbesserungen und Sicherheitsupdates liefert. Die Pixel Watch 1 hat mit dem Oktober-Update kein Wear OS 6 erhalten und wird weiterhin mit Wear OS 5.1 laufen.“

Lesen Sie auch

Die erste Pixel Watch wird also auf Wear OS 5.1 bleiben und das große Update auf Android 16 nicht mehr erhalten. Wear OS 5.1 basiert auf Android 15, das im April 2025 für die Modelle Pixel Watch 1 bis 3 veröffentlicht wurde. Laut Google soll die erste Pixel Watch trotz des Support-Endes nach Oktober immerhin noch Sicherheits- und Fehlerbehebungen erhalten.

Einen konkreten Grund, weshalb Google der ersten Pixel Watch das große Wear-OS-Update verwehrt, deutet der Hersteller indirekt an, indem er sagt, mit den Uhren „ein großartiges Erlebnis“ bieten zu wollen. Angesichts dessen, dass die erste Generation der Smartwatch mit dem Exynos 9110, der auch in der Galaxy Watch 3 zum Einsatz kam, einen ziemlich alten Prozessor von 2018 an Bord hatte, ist es wahrscheinlich, dass dieser einfach zu schwach für das neue Betriebssystem ist. Bei der Markteinführung der Pixel Watch im Jahr 2022 war der Chip schon ganze vier Jahre alt. Für ein erst drei Jahre altes Produkt ist diese Entscheidung von Google dennoch äußerst ärgerlich.

Leider verspricht Google auch für seine aktuelleren Watch-Modelle jeweils nur drei Jahre Software-Updates. Die aktuelle Pixel Watch 4 bekommt Aktualisierungen bis Oktober 2028. Bei den Pixel-Smartphones zeigt Google sich derweil großzügiger: Seit dem Pixel 8 erhalten die Geräte für einen Zeitraum von sieben Jahren neue Android-Versionen, Sicherheitspatches und Pixel Drops, die quartalsweise neue Funktionen bringen. Eine ähnlich großzügige Updatepolitik sollte Google auch auf seine Uhren übertragen.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Kommentar: iPhone 17 und Apple Watch Series 3 sind Klasse für die Masse


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das iPhone 17 erhält endlich ein helleres 120-Hz-Display und bessere Kameras. Zudem bleibt der Einstiegspreis trotz verdoppeltem Speicherplatz gleich. Gut so! Das Pro setzt Apple immer noch deutlich genug ab, wie der Test von Mac & i zeigt.

Auch die günstige Apple Watch SE 3 profitiert massiv von einer Aufwertung: ein flotteres SoC, neue Gesundheitsfunktionen und das schmerzlich vermisste Always-On-Display rüsten Eigenschaften nach, die lange den teureren Modellen vorbehalten blieben.

Klar, bahnbrechend neu sind die Features nicht. Ihre Integration in den Standardvarianten ist hingegen eine willkommene Aufwertung. Apple reagiert damit endlich auf die starke Konkurrenz im mittleren Preissegment. Android-Smartphones von Xiaomi oder Nothing bieten schon seit Jahren Oberklassefeatures zu Mittelklassepreisen an oder preschen wie Google und Samsung bei KI-Funktionen vor. Das kann Apple nicht einfach ignorieren.

Gleichzeitig behalten Nutzer ihre Geräte länger: Viele iPhones und Watches bleiben fünf Jahre oder mehr im Einsatz, weil die nachfolgenden Generationen ein Upgrade nur schwerlich rechtfertigen. Das iPhone 14, 15 und 16 brachte vielen treuen Apple-Nutzern kaum einen Mehrwert. Wer da zum Neukauf motivieren will, muss mehr Anreize bieten als etwas Kosmetik.

Die diesjährigen Updates markieren einen Wendepunkt: Apple versucht, die Breite der Nutzer wieder stärker an sich zu binden und nicht nur Technikenthusiasten mit großem Budget. Ob es reicht, um die zurückhaltende Kundschaft zu mobilisieren, bleibt abzuwarten. Klar ist: Apple setzt weniger auf eine Differenzierung zwischen Pro und Nicht-Pro, dafür mehr zwischen Alt und Neu.

Bleibt zu hoffen, dass die Taktik kein einmaliger Ausreißer bleibt. Denn echte Fortschritte verdienen alle Modelle – nicht nur die Oberliga.

Dieser Kommentar erschien zuerst als Editorial in Mac & i 5/2025 – jetzt frisch am Kiosk und im heise shop.


(bsc)



Source link

Weiterlesen

Beliebt