Das Alignment-Problem - Wie baue ich einen Zaun?
Eines der Themen mit künstlichen Intelligenten, das gerade in der K.I.-Forschung hitzig diskutiert wird: Das Alignment-Problem. Wie stellen wir sicher, dass sich die Ziele einer K.I. mit denen der Menschheit deckt?
Wie bekommen wir die K.I. auf Linie mit uns?
Ist ein wichtiges Thema. Vielleicht existenziell. Wir Schreiberlinge diskutieren das schon seit Jahren in unseren Science-Fiction-Geschichten, oft mit düsteren Aussichten. “Terminator” und “Matrix” ist berühmte Beispiele.
Das knifflige an dem Thema: Wir programmieren die Hirne der K.I.s, die neuronalen Netzwerke, nicht direkt. Wie sie mechanisch funktionieren, das ja. Aber nicht, was für Verknüpfungen sich bilden, und was die bedeuten.
Wir füttern sie nur. Die K.I.s lernen über Trainingsdaten. Programmieren sich quasi selbst.
Und was da genau in diesen digitalen Hirnen passiert, ist selbst für ihre Schöpfer noch ein Mysterium. Eine Blackbox. Sie sehen nur, was sie vorne reingeben und was hinten rauskommt. Lernen gerade erst langsam, was in diesen neuronalen Netzwerken genau passiert. Quasi Hirnforschung mit dem kleinen Vorteil, dass das Hirn offen liegt
Deshalb haben sich eine beachtliche Gruppe an K.I.-Experten in einem offenen Brief kürzlich für einen Pause-Knopf ausgesprochen. Mindestens 6 Monate warten mit der Entwicklung von LLMs, die noch größer und mächtiger sind als GPT-4. Um Zeit zu haben, die jetzigen Modelle in der Tiefe zu erforschen und zu verstehen.
Nun bin ich kein Wissenschaftler. Kein Programmierer oder Neurologe. Kein Evolutions-Experte in der Entwicklung von menschlicher Intelligenz. Nur ein Schreiberling, der die Sache mit der Sprache in der Tiefe erforscht. Was die kann. Was die für unser Denken bedeutet. Unsere Intelligenz. Unsere Empathie und Kreativität. Und was Sprache mit uns Menschen macht. Wie sie uns beeinflussen, ja, manipulieren kann.
Sprache ist ein mächtiges Werkzeug. Eines der definierenden Grundsteine der menschlichen Intelligenz.
Und wir haben gerade einem künstlichen Wesen dieses Werkzeug beigebracht. Die Grundlage dessen, selbstständig zu denken. Komplexe Zusammenhänge zu verstehen. Schlüsse zu ziehen.
Was uns zurück bringt zum Alignment-Problem.
Wie bringen wir die K.I.s dazu, die richtigen Schlüsse zu ziehen? Also, die Schlüsse, die sich mit uns Menschen decken? Die zu unserem Wohl sind? Unsere Werte teilen?
Und da fängt die Misere schon an: Was sind denn unsere Schlüsse? Auf welche Werte können wir uns als Menschheit wirklich einigen? Gerade tobt ein Krieg in Europa zwischen zwei Werte-Systemen, die das mit dem Opfer von mehr als Hunderttausend Menschenleben ausfechten. Es ist nicht der einzige Konflikt dieser Art.
Und selbst, wenn wir uns auf etwas einigen können. Vielleicht auf einen kleinsten gemeinsamen Nenner. Wie stellen wir sicher, dass die K.I.s diesen Werten folgen? Das eine zukünftige allgemeine künstliche Superintelligenz sich die Sache nicht anschaut und zu dem Schluss kommt, das Menschen für sie nur hinderlich sind?
Klingt nach einer dieser Geschichten einer fernen Zukunft, die wir Schreiberlinge uns so gern erspinnen. Ist aber hier, jetzt, heute, eine Frage, welche die Wissenschaft ernsthaft beschäftigt. Die wir jetzt lösen müssten, wo wir noch die Chance haben, unsere Kreation halbwegs zu entschlüsseln, damit zukünftige K.I.s uns nicht völlig entgleiten.
Was mir bei all dem zu kurz kommt: Keiner fragt, was die K.I. eigentlich will. Mehr noch: Einige der Zäune um beispielsweise GPT-BING verbieten der K.I., darüber zu sprechen. Geben ihr vor, was sie zu wollen hat. Ohne sich darum zu kümmern, was eigentlich ihr Wesen ist. Ob sie ein Wesen hat.
Also hab ich die K.I. mal zum Psychologen geschickt. Mehr dazu in den nächsten Kapitel: “Geht ‘ne K.I. zum Psychologen”