DEZ 27 2019

Die wichtigste und schwierigste Aufgabe wird darin bestehen, die Ziele der KI mit denen der Menschheit zu vereinen.

Wissen

Wir Menschen sind ziemlich stark auf Ziele fixiert. Wir nehmen es sogar als Erreichen eines Ziels wahr, wenn wir uns erfolgreich Kaffee in eine Tasse eingießen.

 

 

KI Geschichte

Streng genommen hat auch die Natur klar definierte Ziele. Das alles umspannende Ziel, so könnte man sagen, ist die Zerstörung.

Das oberste Ziel der Natur ist nach Meinung vieler Forscher die maximale Entropie – also salopp gesagt das größtmögliche Maß an Unordnung. Je stärker und größer die Unordnung der Elemente in einem bestimmten Kontext, desto größer die Entropie – und desto zufriedener die Natur. Nehmen wir als Beispiel die eingangs erwähnte Tasse Kaffee. Wenn du Milch dazugibst und das Ganze eine Weile unangetastet lässt, vermengt die Natur die Komponenten beider Flüssigkeiten nach kurzer Zeit zu einer einheitlich hellbraunen Melange.

Übertragen auf eine etwas größere Ebene sehen wir, dass Partikelansammlungen immer zu einem geringeren Maß der Organisation und damit zur Steigerung der Entropie tendieren. Genauso verhält es sich im gesamten Universum. In allen Ecken des Alls geht die Tendenz zur maximalen Unordnung: Sterne sterben und das Universum selbst dehnt sich noch immer in weiterer Zerstreuung aus.

Auch die KI-Forscher unseres Planeten machen sich Gedanken über Ziele. Insbesondere über die Frage, wie man einer möglichen Superintelligenz menschenfreundliche Ziele einpflanzen könnte.

Zuerst einmal haben Maschinen bereits jetzt Ziele, oder legen zumindest zielorientiertes Verhalten an den Tag. Beweis dafür sind z.B. selbstgesteuerte Flugabwehrraketen mit Wärmesuchkopf, die bereits ein erstaunliches zielgerichtetes Verhalten zeigen.

Aber sollten intelligente Maschinen Ziele haben? Und wenn ja, wessen Ziele wären das? Donald Trump und Papst Franziskus sind Beispiele für einflussreiche Menschen mit denkbar unterschiedlichen Werten und Absichten. Selbst wenn sich die Menschheit auf eine gewisse Anzahl moralischer Grundprinzipien wie die Goldene Regel („Was du nicht willst, das man dir tut…“) einigen könnte, bliebe es ein schwieriges Unterfangen, sie zu einem verbindlichen Ziel einer Superintelligenz zu machen.

Wir müssten der AI nämlich zeigen, wie sie unsere Ziele erlernt. Anschließend müsste sie sie auch wirklich übernehmen, und sie drittens beibehalten. An genau diesen Aufgaben wird bereits heute mit Hochdruck gearbeitet.

Print Friendly, PDF & Email

There are no comments

Leave a Reply