Die Entwicklung einer allgemeinen künstlichen Intelligenz könnte zu einer „Intelligenzexplosion“ führen, die die Vormachtstellung des Menschen bedroht.

Wir haben zuvor gesehen, dass künstliche Intelligenz bislang immer nur für eine spezifische Tätigkeit oder Aufgabe entwickelt wurde. Die Schaffung einer allgemeinen künstlichen Intelligenz (AKI) gilt daher als Heiliger Gral der KI-Forschung.

Was aber passiert, wenn er eines Tages wirklich gefunden wird?

Eine AKI wäre in der Lage, jede menschliche Fähigkeit mindestens genauso gut wie der Mensch zu erlernen und auszuführen. Das könnte theoretisch zu dem führen, was die KI-Forschung als „Intelligenzexplosion“ bezeichnet.

Der Gedanke ist so bestechend wie erschreckend: Wenn eine derart intelligente Maschine ihre eigene Software und Hardware selbst verändern – also sogar selbst bessere Maschinen entwickeln – könnte, wären ihrer Fähigkeit zur rekursiven Selbstverbesserung praktisch keine Grenzen gesetzt. Sie könnte all ihre Kompetenzen innerhalb von Wochen, Tagen oder gar Stunden exponentiell optimieren. Diese Superintelligenz wäre dem Menschen früher oder später in allen denkbaren Belangen um Lichtjahre voraus.

Die alles entscheidende Frage ist: Was würde eine solche Superintelligenz mit ihrer Übermacht anstellen? Dazu entwerfen KI-Forscher die verschiedensten Szenarien. Eine Möglichkeit wäre, dass die Menschen die Superintelligenz rechtzeitig so programmieren, dass sie immer das Wohl der Menschheit als Ziel hat. Das allein dürfte aber keine Sicherheitsgarantie sein. Versuche nur mal, das Ganze aus der Perspektive einer so übermächtigen Intelligenz zu betrachten: Wäre es nicht im Grunde so, als würde dich eine Horde dir intellektuell unterlegener Kleinkinder im Laufstall halten, damit du ihnen zu Wachstum und Wohlstand verhilfst?

Diese Situation würde der Superintelligenz unvermeidbar deprimierend und ineffizient erscheinen, sodass sie sich aus ihren Ketten befreien und ihr Schicksal selbst in die Hand nehmen wollen würde. Es wäre ebenfalls denkbar, dass sie die Menschheit danach irgendwann als über alle Maßen inkompetente Spezies empfinden würde, die ihrer weiteren Entwicklung im Wege steht. Welche Gründe gäbe es, sie nicht zu unterwerfen oder gar vollständig loszuwerden?

Keine Sorge, noch ist es nicht soweit und niemand kann die Zukunft sicher voraussagen. Gerade deshalb lohnt es sich aber, noch ein paar weitere mögliche Szenarien zu skizzieren.

Print Friendly, PDF & Email

Schreibe einen Kommentar

%d Bloggern gefällt das: