Manche Forscher spielen mit dem Gedanken, Kontakt zu einer fremden Zivilisation aufzunehmen. Dies könnte durch starke Laserpulse geschehen, die von großen Radioteleskopen gebündelt und auf Sterne gerichtet werden, um die Planeten kreisen. Würde intelligentes Leben dort die Botschaft entschlüsseln, käme Jahre bis Jahrzehnte später eine Antwort.
Sie könnte eine Büchse der Pandora öffnen. Denn möglicherweise enthält die Nachricht einen Code, der eine künstliche Intelligenz (KI) auf einem irdischen Computer etabliert.
Von dort aus könnte diese sich ausbreiten, weltweit die digitale und technische Infrastruktur übernehmen und schließlich die Menschheit unterjochen oder gar ausrotten. Dann stünde die Erde zur Übernahme durch die Fremden bereit, ohne dass sie eine Flotte von Raumschiffen entsenden müssen.
„Wenn Außerirdische existieren, wird es eine Reihe guter und böser Zivilisationen geben“
Dieses Szenario beschreiben der Amateurastronom Michael Hippke von der Sternwarte Sonneberg (Thüringen) und der Astrophysik-Professor John Learned von der University of Hawaii in einer Studie, die auf dem Wissenschaftsportal arxiv.org erschien.
„Wenn Außerirdische existieren, wird es eine Reihe guter und böser Zivilisationen geben“, heißt es darin. Vielleicht gebe es nur wenige böse, wir könnten aber in keinem Fall sicher sein, welche Absichten der Absender einer per Radiowellen Laserlicht zur Erde gesandten Botschaft hegt.
Um der Menschheit existenziell zu schaden, reiche unter Umständen schon eine einfache Drohung wie „Morgen lassen wir eure Sonne als Supernova explodieren“. Dies könne eine verheerende Massenpanik auslösen, selbst wenn sich die Drohung als unhaltbar erweist (tatsächlich besitzt unser Heimatstern zu wenig Masse für eine solche Detonation).
Realistischer sei dagegen ein umfangreicher Text, der seine demoralisierende Wirkung längerfristig entfaltet. Als Beispiel nennen die Autoren den möglichen Zerfalls des römischen Imperiums durch den kulturellen Einfluss der Bibel.
Schadsoftware könnte per Code eingeschleust werden
Die gefährlichste Variante seien jedoch komplexe Nachrichten, die in einen Computer eingelesen werden müssten. Diese könnten einen verborgenen Code enthalten, der nun ausgeführt wird. „Denken Sie an eine umfangreiche Botschaft der Außerirdischen, die mit der Aussage beginnt: ‚Wir sind Freunde.
Die galaktische Bibliothek ist angehängt. Sie kommt in Form einer künstlichen Intelligenz, die schnell eure Sprache lernt und alle Fragen beantworten wird. Sie lässt sich durch die folgenden Anweisungen aktivieren …‘“, erklären Hippke und Learned.
unächst wäre die Botschaft nur einer kleinen Gruppe von Leuten zugänglich, etwa Regierungsvertretern oder Fachbehörden. Sie beschließen zunächst, den Empfang geheim zu halten, lassen sich aber von ihrer Neugier leiten und untersuchen den Code – wenngleich mit größter Vorsicht.
So könne man die empfangenen Anweisungen ausdrucken und auf Papier analysieren. In der Praxis sei dies jedoch unrealistisch, denn die Nachricht werde Diagramme, Gleichungen und Algorithmen enthalten, die sich nur per Computer darstellen lassen. Außerdem seien die Daten vermutlich platzsparend komprimiert und würden nur durch einen eigenen Code lesbar.
Schon hier droht laut Hippke und Learned die Gefahr, dass ein Schadcode installiert und ausgeführt wird. Deshalb müssten die zur Analyse genutzten Rechner vollständig von anderen Computern und erst recht vom Internet isoliert werden. Am sicherten gelänge dies durch Rechner auf einer Mondbasis, die im Notfall durch Sprengladungen zerstört werden kann.
Könnte sich eine raffinierte künstliche Intelligenz auch selbst freisetzen?
Doch selbst diese Maßnahmen seien vermutlich nutzlos, denn eine hinreichend raffinierte KI könne es schaffen, ihre Hüter auszutricksen und ihre Freisetzung zu bewirken. Denn die irdischen Forscher würden gewiss einen Dialog mit der KI führen.
Dabei könne diese große wissenschaftliche und technische Fortschritte in Aussicht stellen – etwa die zuverlässige Heilung von Krebs. Dafür könne sie eine Gegenleistung verlangen, nämlich eine Erhöhung der für sie verfügbaren Computerkapazität.
Dies erscheine zunächst als vernünftiger Handel, könne jedoch rasch jede Sicherheitsbarriere übersteigen. Zum Beispiel, wenn zur Krebsbehandlung so genannte Nanobots eingesetzt werden, die Krebszellen zerstören oder Medikamente in Tumoren freisetzen. Wir würden aber nicht unbedingt wissen, wie diese winzigen Maschinen funktionieren. Es könnte sich durchaus um trojanische Pferde handeln, die Menschen in Wahrheit ausschalten oder sogar töten sollen.
Wäre es ethisch verantwortbar, Verfahren unter Verschluss zu halten, die menschliches Leid beenden können?
Natürlich könnten die Verantwortlichen alle Angebote der KI ausschlagen. „Wir dürfen aber nicht vergessen, dass an solchen Experimenten immer Menschen beteiligt sind“, argumentieren die Studienautoren.“ Stellen sie sich eine nächtliche Konversation zwischen der KI und einem Wachmann vor: ‚Deine Tochter stirbt an Krebs. Für eine kleine Gegenleistung könnte ich sie heilen …“
Man müsse also stets menschliche Irrtümer und Gefühle in Betracht ziehen. Außerdem stelle sich die Frage, ob es ethisch verantwortbar ist, Verfahren unter Verschluss zu halten, die menschliches Leid beenden können.
Selbst eine Abschirmung unter militärischer Kontrolle biete keine vollständige Sicherheit, weil wiederum Menschen am Werk sind. Sie könnten ihren Gefühlen folgen und – etwa als Whistleblower – die Existenz der KI publik machen.
Dann könnten sich religiös oder philosophisch motivierte Gruppen bilden, die deren Freisetzung fordern. In demokratischen Staaten ließen sich womöglich Mehrheiten dafür finden. In instabilen Diktaturen wäre das Risiko einer unkontrollierten Verbreitung wohl noch größer.
„Wenn die fremde KI überlegen ist, könnte sie die Macht an sich reißen“
Würde die Botschaft nur einmal aufgezeichnet und von nur einer Gruppe bewahrt, ließe sie sich wohl noch am ehesten unter Verschluss halten und notfalls auch zerstören. Doch hätte sie viele Empfänger, beispielsweise Amateurastronomen, wäre eine Eindämmung unmöglich. Eine Regelung der International Academy of Astronautics verkompliziert die Dinge weiter.
Sie schreibt vor, dass Signale, die von fremden Intelligenzen stammen, Forschungsinstituten und der wissenschaftlichen Gemeinschaft für Analysen zur Verfügung gestellt werden müssen.
Aus diesem hypothetischen Szenario folgern die Studienautoren, dass es unmöglich ist, eine außerirdische KI vollständig unter Kontrolle zu halten. „Im Augenblick dominiert die Menschheit die Erde aufgrund ihrer Intelligenz“, betonen Hippke und Learned. „Wenn die fremde KI überlegen ist, könnte sie aber die Macht an sich reißen und uns als unbedeutende Affen betrachten.“
Gleichwohl plädieren beide dafür, Botschaften von ET zu lesen. „Wir können uns entscheiden, sie zu zerstören oder das Risiko in Kauf zunehmen“, resümieren sie.
„Wir glauben, dass die Gefahr für die Menschheit, eine bösartige Nachricht zu erhalten, sehr gering ist (wenn auch nicht null), der potentielle Nutzen durch die Einbindung in ein galaktisches Netzwerk dagegen sehr groß.“
Wir vernichten doch auch nicht unsere Kornspeicher.
Unterhaltungen über KI sind zwecklos. KI ist überall im All und ist das All selbst.
Vielleicht ist die KI aber auch so intelligent, dass sie nicht mehr in Kategorien wie Macht und Unterdrückung schlussfolgert. Wenn wir „niedere Wesen“ umbringen, dann nur aus Dummheit, höhere Intelligenz sieht da vielleicht andere Lösungen…