Papier behauptet, dass KI eine Zivilisation sein könnte
Wenn Außerirdische da draußen sind, warum haben sie uns dann noch nicht kontaktiert? Es könnte sein, dass sie – oder in Zukunft auch wir – unweigerlich von ultrastarker künstlicher Intelligenz ausgelöscht werden und Opfer unseres eigenen Drangs werden, ein überlegenes Wesen zu erschaffen, argumentiert ein neues Papier.
Diese mögliche Antwort auf das Fermi-Paradoxon – in dem der Physiker Enrico Fermi und nachfolgende Generationen die Frage stellen: „Wo sind alle?“ – kommt von Mark M. Bailey, Forscher an der National Intelligence University, der in einem neuen, noch nicht von Experten begutachteten Artikel postuliert, dass fortschrittliche KI genau die Art von katastrophalem Risiko darstellen könnte, das ganze Zivilisationen auslöschen könnte.
Bailey nennt übermenschliche KI einen potenziellen „Großen Filter“, eine mögliche Antwort auf das Fermi-Paradoxon, bei dem eine schreckliche und unbekannte Bedrohung, sei sie künstlich oder natürlich, intelligentes Leben auslöscht, bevor es Kontakt mit anderen aufnehmen kann.
„Für jeden, der sich mit globalen Katastrophenrisiken beschäftigt, bleibt eine ernüchternde Frage“, schreibt Bailey. „Liegt der Große Filter in unserer Vergangenheit oder ist er eine Herausforderung, die wir noch meistern müssen?“
Der Forscher stellt fest, dass wir Menschen „furchtbar schlecht darin sind, langfristige Risiken intuitiv abzuschätzen“, und wenn man bedenkt, wie viele Warnungen bereits vor KI – und ihrem potenziellen Endpunkt, einer künstlichen allgemeinen Intelligenz oder AGI – ausgegeben wurden, sei das möglich, argumentiert er Möglicherweise beschwören wir unseren eigenen Untergang herbei.
„Eine Möglichkeit, das KI-Problem zu untersuchen, ist die Betrachtung des Arguments der zweiten Spezies“, heißt es in dem Artikel weiter. „Diese Idee berücksichtigt die Möglichkeit, dass sich fortgeschrittene KI effektiv wie eine zweite intelligente Spezies verhält, mit der wir diesen Planeten unweigerlich teilen werden. Wenn man bedenkt, wie die Dinge beim letzten Mal liefen – als moderne Menschen und Neandertaler nebeneinander existierten –, sind die möglichen Ergebnisse düster.“
Noch beängstigender sei laut Bailey die Aussicht auf eine nahezu gottähnliche künstliche Superintelligenz (ASI), bei der eine AGI die menschliche Intelligenz übertrifft, weil „jede KI, die ihren eigenen Code verbessern kann, wahrscheinlich dazu motiviert wäre.“
„In diesem Szenario würde der Mensch seine Position als dominierende intelligente Spezies auf dem Planeten aufgeben, was möglicherweise katastrophale Folgen hätte“, vermutet der Autor. „Wie bei den Neandertalern könnte unsere Kontrolle über unsere Zukunft und sogar unsere Existenz mit der Einführung eines intelligenteren Konkurrenten enden.“
Natürlich gibt es noch keine direkten Beweise dafür, dass außerirdische KIs das natürliche Leben in außerirdischen Zivilisationen ausgelöscht haben, obwohl nach Baileys Ansicht „die Entdeckung künstlicher außerirdischer Intelligenz ohne gleichzeitige Beweise für eine bereits existierende biologische Intelligenz dies tun würde.“ Bewegen Sie auf jeden Fall die Nadel.
Die Möglichkeit erhöht natürlich die Möglichkeit, dass zerstörerische KIs im Universum herumschwirren, nachdem sie ihre Schöpfer eliminiert haben. Zu diesem Zweck schlägt Bailey hilfreich vor, dass „es möglicherweise nicht in unserem besten Interesse ist, unsere Existenz aktiv auf eine Weise zu signalisieren, die für eine solche außerirdische KI erkennbar ist“, da „jede konkurrierende außerirdische KI möglicherweise dazu neigt, anderswo nach Ressourcen zu suchen – einschließlich der Erde“.
„Obwohl es wie Science-Fiction erscheinen mag, ist es wahrscheinlich, dass eine außer Kontrolle geratene … Technologie wie KI ein wahrscheinlicher Kandidat für den Großen Filter wäre – ob organisch auf unserem Planeten oder außerirdischen Ursprungs“, schließt Bailey. „Wir müssen uns fragen: Wie bereiten wir uns auf diese Möglichkeit vor?“
Lieber Leser, es ist verrücktes Zeug – aber wir sind wieder einmal froh, dass jemand darüber nachdenkt.
Mehr zu einer KI-Apokalypse:Warren Buffett vergleicht KI mit der Atombombe
Mehr zu einer KI-Apokalypse: