Kann KI die Entwicklung von Waffen aus dem Labor beschleunigen?
Der technologische Fortschritt hat nicht nur gute Seiten: Wie Experten die Gefahr einschätzen
(dpa) Sie nennen es einen «Weckruf»: Forschende einer US-Pharmafirma haben mit maschinellem Lernen eine Software toxische Moleküle entwickeln lassen. In weniger als sechs Stunden hatten sie 40.000 Moleküle - im Modell. Bis daraus giftige Substanzen entstehen, die etwa in Form von Gasanschlägen als Waffe eingesetzt werden könnten, braucht es zwar einige Schritte. Aber die Wissenschaftler warnen im Magazin «Nature Machine Intelligence»: «Die Realität ist, dass dies keine Science-Fiction ist.»
pixabay.com
Collaborations Pharmaceuticals sei nur ein kleines Unternehmen in einem Universum von Hunderten Firmen, die Künstliche Intelligenz (KI) etwa zur Wirkstoffforschung verwenden. Wie viele von ihnen hätten wohl daran gedacht, Dinge mit ihren Möglichkeiten umzufunktionieren oder gar zu missbrauchen, fragen die Autoren. Wächst mit technologischen Fortschritten wie KI die Gefahr für neue Waffen, die krank machen, ganze Körperfunktionen lahmlegen oder sogar Lebewesen töten?
Es gebe keinen Grund zur Panik, sagt Politikwissenschaftler Frank Sauer von der Universität der Bundeswehr München. «Aber das Risiko ist da.» Gerade auf diesem Gebiet sei das sogenannte Dual-Use-Problem voll ausgeprägt: dass Technologien oder Güter sowohl zu zivilen als auch zu militärischen Zwecken genutzt werden können.
Gerade die Naturwissenschaften seien gut im Datensammeln, sagt Alexander Schug vom Steinbuch Centre for Computing am Karlsruher Institut für Technologie. Etwa für Medikamente und Proteinstrukturen gebe es gut aufbereitete Datenbanken, viele davon öffentlich zugänglich. «Das macht sie prädestiniert für KI.»
Doch auch ein guter Programmierer müsste sich in die Struktur der Datensätze reinfuchsen, sagt Schug. «Das ist im Moment alles auf einem sehr theoretischen Level.» Neben ausreichend Training bräuchte es zudem genügend Rechnerkapazität. «Mit Grafikkarten kann man tolle Berechnungen anstellen, aber nicht richtig große Rechnungen.»
Zwar räumt Schug ein: «Das könnte schon eine neue Art der Gefährdung sein, wenn neue Gifte und neue Synthesewege am Computer entwickelt werden.» Aber die große Frage sei immer, ob man die Stoffe überhaupt synthetisieren - also herstellen - könnte. Manche Verbindungen halten vielleicht nicht, in anderen Fällen mangelt es an Rohstoffen.
Davon abhängig wäre auch der mögliche Einsatz: KI-designte Moleküle als giftiges Gas, das Zellen über Atemwege angreift? Als unsichtbare Substanz, die man beim Anpacken von Gegenständen aufnimmt? Oder manipulierte Erreger, die über Trinkwassersysteme verbreitet werden?
Der internationale Abrüstungsberater Ralf Trapp spricht von einer «ganzen Kette von Dingen», die nötig seien, bevor etwas militärisch verwendbar sei. Zwar verkürzten die technischen Möglichkeiten die Zeit, bis etwas auf den Markt kommt - das habe man auch bei der Entwicklung der Corona-Impfstoffe gesehen. Aber die Umsetzung als Waffe erfordere dann doch mehr Ressourcen. «Was im Labor passiert, ist das eine. Was daraus werden kann, ist etwas ganz Anderes», sagt Trapp. «Das heißt nicht, dass wir uns keine Sorgen machen müssen, es ist immer ein Wettlauf mit der Zeit.»
Laut Una Jakob von der Hessischen Stiftung Friedens- und Konfliktforschung wächst das Bewusstsein für die potenzielle Gefahr. Aus ihrer Sicht könnte in Forschung und Unternehmen aber noch mehr über die Risiken informiert werden: «Nicht jedem Wissenschaftler ist bewusst, dass die Forschung auch zweckentfremdet werden kann.» Schon in der Ausbildung sollte darauf hingewiesen werden. Je mehr geforscht wird, desto größer werde die Gefahr, dass mal jemand in einem Labor arbeitet, der nicht nur gute Absichten hat.
Die mögliche Zweckentfremdung erschwere es, etwa Biowaffenprogramme zu entdecken, sagt Jakob. Viele Stoffe und Materialien würden medizinisch oder pharmazeutisch genutzt. Da sei es schwierig abzuwägen - beziehungsweise es müssten Kontrolleure hinter die Kulissen der Rüstungsindustrie gucken können. Wegen der doppelten Einsatzmöglichkeit - im positiven wie im negativen Sinne - sei es nicht einfach, einzelne Stoffe zu verbieten, erklärt Sauer von der Bundeswehr-Uni.
Dennoch schätzt Jakob die Gefahr neuer, auf technologisch hohem Niveau entwickelter Biowaffen ebenfalls als gering ein: «Ich halte es für unwahrscheinlich, dass jemand komplizierte Genforschung betreibt, wenn er einen Anschlag plant. Dann kann er auch Rizin im Internet bestellen.» Das sei zeitlich und finanziell weniger Aufwand.
Und etwas Gutes könnte der technologische Fortschritt selbst im Fall der Fälle haben, wie Trapp sagt: die Fähigkeit, schneller zu reagieren. Denn mit den wissenschaftlichen Kapazitäten könnte im Idealfall auch rascher ein Gegenmittel gefunden werden - auch wenn der Auslöser mit KI entwickelt wurde.