Künstliche Intelligenz

Studie: Potenziell gefährliche KI-generierte Proteine werden nicht immer erkannt


Die Fähigkeit, mithilfe künstlicher Intelligenz neue Proteine zu entwerfen, gilt als eine der faszinierendsten und zugleich riskantesten Entwicklungen in den modernen Biowissenschaften. Die Technologie eröffnet völlig neue Möglichkeiten für Medizin, Materialforschung und nachhaltige Produktion – doch sie wirft auch Fragen zur Biosicherheit auf. Abhilfe soll verbesserte Erkennungssoftware schaffen.

Eine in der Fachzeitschrift Science veröffentlichte Studie von Wittmann et al. zeigt, dass KI-Systeme zur Proteindesign-Generierung tatsächlich in der Lage sind, Varianten gefährlicher Proteine zu produzieren, die kommerzielle Biosicherheits-Screening-Systeme teilweise nicht erkennen.

Diese Firmen sind eine kritische Kontrollinstanz, um den Missbrauch der Technologie, etwa zur Herstellung von Biowaffen, zu verhindern. Die Studie soll als Stresstest für die aktuellen Sicherheitsmechanismen dienen und deren Grenzen hinsichtlich generativer KI aufzeigen.

Für die Untersuchung nutzten die Forschenden eine Open-Source-KI, um über 75.000 Varianten von bekannten gefährlichen Proteinen zu erstellen. Diese legten sie vier verschiedenen kommerziellen Biosicherheits-Screening-Systemen (BSS) zur Prüfung vor. Das Ergebnis war eindeutig: Während die Systeme die Original-Sequenzen der Proteine zuverlässig erkannten, war die Erkennungsrate bei den KI-generierten Varianten, die eine ähnliche Funktion bei abweichender Sequenz aufwiesen, unzuverlässig.

In Zusammenarbeit mit den BSS-Anbietern entwickelten die Autoren daraufhin Software-Updates, welche die Erkennung signifikant verbesserten. Eine hundertprozentige Detektion aller potenziell gefährlichen Varianten konnte jedoch auch damit nicht erreicht werden.

Die Reaktion anderer Wissenschaftler fällt differenziert aus. „Das Risiko ist mit der neuen KI-basierten Technologie sehr stark gestiegen“, kommentiert Prof. Dr. Gunnar Schröder vom Forschungszentrum Jülich. Die Technologie sei nun einer weitaus größeren Gruppe von Wissenschaftlern zugänglich als noch vor wenigen Jahren. Prof. Dr. Jens Meiler von der Vanderbilt University kritisiert die Darstellung der Studie: „Die Studie ist in der Hinsicht problematisch, weil sie suggeriert, dass sich die Wissenschaft noch nicht mit der Thematik beschäftigt hätte – das machen wir aber seit zwei bis drei Jahren.“

Er verweist auf bestehende Initiativen wie die Leitlinie zum verantwortungsvollen Umgang mit KI im Biodesign. Diese Einschätzung teilt Jun.-Prof. Clara Schoeder von der Universität Leipzig, die zudem methodische Schwächen der Studie anführt. So sei die Gefährlichkeit der Proteine lediglich computerbasiert („in silico“) vorhergesagt und nicht im Labor validiert worden. Zudem sei für die gezielte Erzeugung gefährlicher Proteine weiterhin hohe Expertise und böswillige Absicht notwendig.

Die Debatte dreht sich vor allem um die adäquaten Gegenmaßnahmen. Die Studie selbst zeigt mit den entwickelten Software-Patches einen technischen Lösungsansatz, der jedoch an das von Prof. Dr. Birte Platow (TU Dresden) beschriebene „Hase-und-Igel-Rennen“ erinnert: Ein ständiger Wettlauf zwischen offensiven und defensiven Technologien.

Darüber hinaus werden regulatorische und ethische Ansätze gefordert. Prof. Dr. Dirk Lanzerath vom Deutschen Referenzzentrum für Ethik in den Biowissenschaften betont die Notwendigkeit verbindlicher Policies und des „Ethics by Design“-Prinzips, bei dem ethische Reflexionen bereits in die Entwicklung integriert werden. Angesichts der globalen Risiken sei ein internationaler Austausch über Standards unverzichtbar.

Gleichzeitig warnt Clara Schoeder vor den negativen Folgen einer zu strikten Regulierung. Diese könnte die legitime Forschung, etwa zur Entwicklung von Impfstoffen auf Basis viraler Sequenzen, durch langwierige Genehmigungsprozesse behindern. Die wissenschaftliche Community setzt daher auch auf Selbstverpflichtung und soziale Kontrolle, wie Birte Platow hervorhebt.


(mack)



Source link

Beliebt

Die mobile Version verlassen