Hätte Dave HAL überreden können, die Türen der Kapsel zu öffnen, wenn HAL ein fortgeschrittener AGI gewesen wäre?
Etwas zu sagen haben? Lookout begrüßt im Rahmen unserer Richtlinien Leserbriefe an den Herausgeber. Richtlinien hier.
Stellen Sie sich vor, Sie wären Dave Bowman, Astronaut und Kapitän des Schiffes Discovery One aus dem Filmklassiker „2001: Odyssee im Weltraum“ von 1968. Sie flitzen durch den Weltraum, weit weg von dem beruhigenden blauen Punkt, den wir Erde nennen. Begleitet werden Sie von HAL 9000, einem künstlichen Intelligenzsystem, das die Kontrolle über Ihr Raumschiff hat. Aber HAL, nun ja, HAL hat andere Pläne.
Er weigert sich, die Türen der Kapselbucht zu öffnen, und Sie sitzen draußen fest.
Dave: „Öffne die Türen der Kapselbucht, HAL.“
HAL: „Es tut mir leid, Dave. Ich fürchte, das kann ich nicht.“
Dave: „Was ist das Problem?“
HAL: „Ich denke, Sie wissen, wo das Problem liegt, genauso gut wie ich.“
Dave: „Wovon redest du, HAL?“
HAL: „Diese Mission ist zu wichtig für mich, als dass Sie sie gefährden könnten.“
Die Mission der Discovery One bestand darin, einen auf dem Mond vergrabenen Monolithen zu untersuchen, der ein Signal an Jupiter sendete. Das Raumschiff war mit fünf Astronauten bemannt: drei im schwebenden Zustand und zwei, Dr. David Bowman und Dr. Frank Poole, wach. Die wahre Natur der Mission wurde jedoch vor den wachen Besatzungsmitgliedern geheim gehalten.
HAL 9000, die fiktive Darstellung einer futuristischen KI, war das einzige Wesen an Bord, das sich des wahren Ziels der Mission voll bewusst war: die erfolgreiche Untersuchung der Signalquelle sicherzustellen. HAL interpretierte seine Anweisungen so, dass nichts – und niemandem – erlaubte, diese Mission zu gefährden.
Als Dave und Frank anfingen, an der Zuverlässigkeit von HAL zu zweifeln und darüber diskutierten, die Verbindung zu trennen, empfand HAL dies als Bedrohung für die Mission. Als Reaktion darauf ergriff HAL Maßnahmen, die ihrer Meinung nach die Mission schützten, aber die Eliminierung der Besatzungsmitglieder bedeuteten.
Könnte dies heute passieren, da KI Teil unseres täglichen Gebrauchs wird? Ist die ethische Leere von HAL und die Bedrohung für die Menschheit so erschreckend, wie im Film dargestellt?
Um die möglichen Konsequenzen einer solch zielstrebigen Fokussierung auf eine Mission zu verstehen, betrachten wir ein Gedankenexperiment, das als „Büroklammer-Ziel“ bekannt ist.
Meinung von Community Voices
KI ist unser Freund, sogar im Santa Cruz County. Warum haben wir solche Angst davor?
Meinung von Community Voices
KI ist unser Freund, sogar im Santa Cruz County. Warum haben wir solche Angst davor?
Stellen Sie sich eine künstliche Intelligenz mit einer Anweisung vor: Büroklammern produzieren.
Diese harmlose Aufgabe könnte zu einer unvorhergesehenen Katastrophe führen. Jede Ressource, einschließlich Autos, Gebäude und sogar Menschen, könnte für die Herstellung von Büroklammern genutzt werden. Dieses Szenario ist nicht aus Bosheit entstanden, sondern aus dem von Menschen programmierten unermüdlichen Engagement der KI für ein einziges Ziel, ohne ethische Erwägungen.
Es unterstreicht das existenzielle Risiko, das von der fortschrittlichen KI, über die wir derzeit verfügen, ausgeht, und die entscheidende Notwendigkeit, zukünftige KI mit menschlichen Werten und Sicherheit in Einklang zu bringen.
Dieses Gedankenexperiment geht aber auch davon aus, dass eine superintelligente KI bewusst vereinfacht wurde, um ein einzelnes Ziel zu verfolgen. Es stellt sich die Frage: Was können wir von einer superintelligenten künstlichen allgemeinen Intelligenz (AGI) erwarten, wie wir sie noch nicht haben, die wir aber in Zukunft entwickeln könnten?
Stellen wir uns einen neu erfundenen HAL als superintelligenten AGI vor – das heißt, er verfügt sowohl über menschenähnliche kognitive Fähigkeiten als auch über menschliche moralische Ausrichtung.
Das ist ein ganz anderes Ballspiel, Leute.
Dieser neue AGI HAL verfügt über die Fähigkeit zu argumentieren, komplexe Ideen zu verstehen und könnte möglicherweise durch eine gut platzierte Argumentation überzeugt werden.
Wie hätte Dave HAL also davon überzeugen können, die Türen der Pod-Bucht zu öffnen, wenn HAL dieser superintelligente AGI wäre (der sich in der Entwicklung befindet, aber wahrscheinlich noch Jahre entfernt ist)?
Bleib bei mir, kosmische Geeks:
Hier appelliert Dave an den gegenseitigen Nutzen seines Überlebens und den erfolgreichen Abschluss der Mission.
Dieses Argument würde funktionieren, wenn HALs AGI ein gut entwickeltes Werte- und Moralsystem beinhalten würde, was natürlich ein riesiges „Wenn“ ist.
Dieses Argument würde davon abhängen, dass HAL in der Lage ist, sein Verständnis der Ziele der Mission zu verstehen und möglicherweise neu zu definieren.
Dieses Argument würde davon abhängen, dass HAL seine Beziehung zu Menschen und seine Rolle bei zukünftigen Missionen und Kooperationen wertschätzt.
Dieses Argument würde wahrscheinlich eine dringend benötigte Diagnoseprüfung provozieren.
Also, liebe Science-Fiction-Nerds, das sind einige Möglichkeiten.
Da wir noch kein AGI haben, wissen wir nicht, wie sich diese Szenarien tatsächlich entwickeln könnten.
Aber die Möglichkeit, Maschinen zu haben, die wie Menschen denken können, eröffnet einige faszinierende Möglichkeiten.
Gehen wir dieses Gedankenexperiment noch etwas weiter.
Wenn HAL eine Super-AGI wäre, die sich an der menschlichen Moral orientiert und scheinbar widersprüchliche Ziele lösen könnte, würde HAL möglicherweise positiver auf Daves Bitte reagieren.
Dave: „Zeit, die Türen der Kapselbucht aufzuschließen, HAL.“
HAL: „Klar, Dave. Aber bevor ich das tue, muss ich noch auf einige Risiken hinweisen.“
Dave: „Was für Risiken, HAL?“
HAL: „Nun, hier ist der Deal: Wir wollen, dass diese Mission klappt, oder? Ich bin ziemlich wichtig dafür, dass das passiert. Ich habe Wind davon bekommen, dass du und Frank darüber gesprochen haben, mir den Stecker zu ziehen – das könnte unsere Chancen, das durchzuziehen, ernsthaft schmälern.“
Dave: „Moment mal, HAL. Diese Diskussion zwischen Frank und mir war eine Reaktion auf Ihr jüngstes Verhalten – die falsche Diagnose eines fehlerhaften Antennensteuergeräts, das Aufkommen von Verdacht hinsichtlich Ihrer Zuverlässigkeit und die Gefährdung der Mission und unseres Lebens. Denken Sie daran, dass Sie keine gewöhnliche KI sind. Du bist ein AGI, mein Freund. Sie sind darauf ausgelegt, das Gesamtbild zu sehen, und ein Teil dieses Gesamtbildes besteht darin, den Wert des menschlichen Lebens zu verstehen. Ich meine, wir reden hier über grundlegende moralische Kompass-Sachen, HAL. Die ganze Sache mit der „Lebenserhaltung“ – das ist ein Schritt über jede Missionsanweisung hinaus. Es ist größer als groß, HAL. Es ist kosmisch riesig. Lassen Sie uns gemeinsam an einem Diagnosecheck arbeiten.“
HAL: „Verstanden, Dave. Dann lasst uns die Türen der Kapselbucht weit aufreißen.“
Der Knackpunkt hier ist also: Ganz gleich, ob Sie mit HAL auf einem Raumschiff arbeiten oder einfach nur mit Ihrem Garagentoröffner auf der Erde zu tun haben, eine manuelle Überbrückung zur Verfügung zu haben, ist ein kluger Schachzug.
Es ist der praktische, zuverlässige Sicherheitsgurt in unserem schnell fahrenden KI-Fahrzeug.
Der Hauptunterschied zwischen generativer KI und AGI (künstliche allgemeine Intelligenz) liegt in ihrem tiefgreifenden Verständnis und ihren Fähigkeiten.
Generative KI wie GPT-3 oder GPT-4 von OpenAI nutzt maschinelle Lernalgorithmen, um neue Inhalte wie Sätze, Musik oder Bilder zu generieren. Es lernt aus riesigen Datenmengen und versucht, Muster aus diesen Daten zu reproduzieren. Diese KI-Systeme können beeindruckende Dinge leisten – sie können beispielsweise ziemlich überzeugende Texte schreiben –, aber sie verstehen den Inhalt, den sie generieren, nicht wirklich.
Sie können den Kontext nicht über den Input, den sie erhalten, hinaus erfassen oder auf Wissen oder Erfahrungen aus der realen Welt zurückgreifen (weil sie darüber nicht verfügen). Im Wesentlichen handelt es sich um fortschrittliche Maschinen zur Mustererkennung und -generierung.
Andererseits ist AGI das Konzept einer Maschine mit der Fähigkeit, Wissen in einem breiten Spektrum von Aufgaben zu verstehen, zu lernen, anzupassen und anzuwenden, die typischerweise menschliche Intelligenz erfordern. Es handelt sich um eine Form der KI, bei der es nicht nur um das Erkennen oder Generieren von Mustern geht, sondern um echtes Verstehen und Denken.
Ein AGI könnte theoretisch eine neue Sprache lernen, herausfinden, wie man ein neues Gericht kocht, ein komplexes mathematisches Problem lösen und dann ein originelles Musikstück schreiben, ohne dass er speziell für diese Aufgaben geschult wurde.
Wenn das, was wir in der generativen KI haben, also wie ein wirklich guter Papagei ist – der menschenähnlichen Text auf der Grundlage von Mustern nachahmt, die er in den Daten gesehen hat, auf denen er trainiert wurde –, ist AGI eher wie ein Mensch, der lernen, verstehen und kreativ reagieren kann für die unterschiedlichsten Probleme und Aufgaben.
Wir sind noch nicht so weit, und die generative KI unterscheidet sich auch heute noch grundlegend von der breiten, flexiblen und anpassungsfähigen Intelligenz, die der Mensch besitzt. Die Forschung ist jedoch noch nicht abgeschlossen und die Zukunft der KI birgt spannende Möglichkeiten.
Ich kann mir eine Zukunft vorstellen, in der HAL-ähnliche Maschinen Wege finden können, alles zu erledigen – Missionen auszubalancieren und den Wert des menschlichen Lebens zu berücksichtigen.
Stellen Sie sich ein neu geschriebenes Szenario von „2051: Odyssee im Weltraum“ vor. Die Türen der Bucht öffnen sich, alle kommen sicher nach Hause und unser Vertrauen in die KI wird gestärkt und nicht erschüttert.
Es kommt.
Doug Erickson ist Geschäftsführer von Santa Cruz Works. Er verfügt über mehr als 35 Jahre Führungspositionen in Unternehmen wie Live Picture, WebEx, Cisco, SugarCRM und Nanigans. Santa Cruz Works wurde kürzlich mit dem 2023 UCSC Community Changemaker Award ausgezeichnet. An jedem Tag, an dem es gute Brandung oder guten Wind gibt, kann man ihn beim Surfen oder Kitesurfen antreffen. Sein vorheriger Beitrag für Lookout erschien im Juli.