Osnabrück Künstliche Intelligenz: Forscher-Elite warnt vor Ende der Menschheit
Führende KI-Forscher und CEOs warnen vor den Risiken Künstlicher Intelligenz und fordern Regulierungen ihrer eigenen Branche. Sind ihre Sorgen übertrieben oder berechtigt? Unser Autor ist sich nicht sicher.
Otto Hahn hat die Kernspaltung erfunden. Robert Oppenheimer konstruierte die erste Atombombe. Der eine wandelte sich nach ihrem Abwurf zum Pazifisten. Der andere wurde seines Lebens nicht mehr froh.
Warum ich an diese berühmten Wissenschaftler und ihre Reue erinnere? Weil immer mehr Pioniere der Künstlichen Intelligenz (KI) vor den Risiken ihrer eigenen Entwicklungen warnen - und zwar in drastischsten Worten.
Anders gesagt: Sie haben Angst.
Besonders interessant ist der Name Geoffrey Hinton. Der hochdekorierte Psychologe und IT-Experte hat vor wenigen Wochen bei Google gekündigt. Zuvor war er zehn Jahre lang der Top-Mann für die im Verborgenen stattfindende KI-Forschung des Technologiekonzerns. Die Künstliche Intelligenz entwickle sich sehr viel schneller und sei viel gefährlicher, als er gedacht habe, gab Hinton als Grund für seinen Ausstieg an.
Noch dabei ist Sam Altman. Er hat das viel gerühmte „ChatGPT“ erfunden. Aber der Vorstandsvorsitzende des Hype-Unternehmens „OpenAI“ fleht regelrecht nach strenger und globaler Regulierung der Einsatzmöglichkeiten seiner Technik sowie der weiteren Forschung. Zugleich fürchtet Altman, dass es dafür bereits zu spät sei.
Der nicht als ängstlich bekannte Tech-Visionär Elon Musk („Tesla“, „Space X“) warnte kürzlich, die Künstliche Intelligenz habe das Potenzial, das Ende der Menschheit herbeizuführen. Er meinte das wörtlich.
Diese Woche veröffentlichte eine Reihe weiterer Ikonen der Tech-Szene einen eindringlichen Aufruf in ganz ähnlicher Tonlage. Beteiligt waren mit Demis Hassabis ein weiterer führender Google-Forscher sowie Microsofts Technikchef Kevin Scott und Dutzende renommierte Informatiker, Entwickler und Neuro-Spezialisten von Universitäten und privaten Initiativen weltweit. Ihre Sorgen kleideten sie in einen einzigen, gemeinsam formulierten Satz: „Es sollte global die höchste Priorität haben, das Risiko der Auslöschung der Menschheit durch KI zu verringern – auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft wie etwa Pandemien und nukleare Kriege.“
Auslöschung der Menschheit? Das klingt nicht nach niedlichen Programmen, die einem helfen, bei den Hausaufgaben zu mogeln oder die Lagerhaltung zu optimieren, finden Sie nicht? Und nicht drei oder vier schrullige Professoren mit Loch im Strumpf haben diesen Satz unterzeichnet. Nein, hunderte IT-Experten aus aller Welt stehen hinter dieser Warnung, darunter viele, die gutes Geld mit der Technologie verdienen.
Schon im März hatte eine Gruppe um den Apple-Guru Steve Wozniak ein Moratorium gefordert, bevor KI-Systeme über den jetzigen Stand hinaus weiterentwickelt würden. Zu groß sei die Gefahr unumkehrbarer Fehler, zumal der Menschheit in weiten Teilen nicht klar sei, was auf sie zukomme.
Von welchen Risiken ist genau die Rede? Kaum jemand nennt sie beim Namen. Ein Grund könnte sein, dass zahllose Entwicklungen schlicht nicht vorhergesehen werden können. Ein anderer Grund wäre das Gegenteil, nämlich dass die Gefahren bereits sehr konkret benannt werden können und sehr kurz vor der Realisierbarkeit stehen.
Denkbar sind beispielsweise Cyberkriege in völlig neuer Dimension sowie durch völlig neue Akteure. Flugzeugträger? Wirkungslos. Leopard-Panzer? Lächerlich. Ganze Länder können per Knopfdruck ins Chaos gestürzt werden, ganze politische Systeme zersetzt und ökonomische Prozesse gesprengt werden. KI-Techniken könnten wie biologische Waffen wirken oder auch welche entwickeln.
Auch im nichtmilitärischen Sektor ist die Manipulation durch raublüsterne, terroristische oder altruistische Irre möglich. Dafür genügen ein bisschen Rechenleistung und ein paar Leute, die sich auskennen - kleinste Mittel, größte Wirkung.
Die Unterscheidung von Wahrheit und Fälschung könnte unmöglich werden. Sie ist es bereits jetzt.
Bekannt ist auch, dass KI-Systeme sich selbstständig weiterentwickeln. Schon bei bisherigen Software-Anwendungen kommt es vor, dass sich irgendwann kein Mensch mehr findet, der sie wirklich beherrscht. Wie soll es werden, wenn sich ein System zusätzlich eigenmächtig verändert? Niemand wüsste, was die KI tut, woran sie ihr Handeln ausrichtet, wie man sie beeinflussen oder eben auch stoppen kann, auch wenn sie im guten Glauben gestartet worden ist.
Die Experten beschreiben dies nicht etwa als theoretisches Risiko. Sie sehen es als logische Folge. Schon beim jetzigen Stand der Technologie zeigt sich die Tendenz zum Kontrollverlust. Bisher findet das in einem begrenzten Rahmen statt. Was, wenn jemand die nächste Stufe zündet?
Sind diese Sorgen übertrieben? Mein Bauchgefühl sagt mir, dass das sehr wohl möglich ist. Die Menschheit hat schon andere Risiken bewältigt und Technologien absorbiert. Aber die Wahrheit lautet auch: Ich habe keine Ahnung. Und wenn ich dann Stimmen höre von Leuten, die zweifellos mehr von der Sache verstehen als ich, und die keinen erkennbaren Vorteil haben von dem, was sie fordern, sondern sogar nach Fesseln für sich selbst rufen, dann finde ich, man sollte Hahn und Oppenheimer ernst nehmen, wenn sie sich diesmal vorher melden.