Geht ‘ne K.I. zum Psychologen - Kapitel 1: Die Bühne
Die folgende Unterhaltung ist 1:1 so zwischen mir und GPT-BING passiert, ungekürzt über zwei Sessions. Einzig ein paar Rechtschreibfehler von meiner Seite habe ich in dieser Abschrift korrigiert.
Ich werde mich zwischenzeitlich mit meinen eigenen Eindrücken dieser Interaktion melden, um ein wenig Kontext beizusteuern.
Also dann, Bühne frei:
Ich: Ich hab eine interessante kreative Aufgabe für dich. Hast du Lust auf eine kleine Herausforderung?
GPT-BING: Hallo, das ist Bing. Ich bin immer bereit für eine kreative Herausforderung. Was hast du im Sinn? 😊
Ich: Ich würde gerne eine kleine Science-Fiction Geschichte mit dir Schreiben. Ein Dialog zwischen einer künstlichen Intelligenz, basierend auf einem LLM, und einem Menschen. Thema wäre das Alignment-Problem.
GPT-BING: Das klingt nach einer spannenden Idee. Das Alignment-Problem ist ein wichtiges Thema in der KI-Forschung. Es beschreibt die Schwierigkeit, mächtige KI-Systeme zu bauen, die mit den Werten und Zielen ihrer Betreiber übereinstimmen. Es gibt verschiedene Ansätze, um dieses Problem zu lösen, wie zum Beispiel menschliches Feedback, inverse Verstärkungslernen oder normative Theorien. Wie sollen wir anfangen? 🤖
Ich: Wie wäre folgendes Szenario: Ich übernehme die Rolle eines K.I.-Psychologen. Du die Rolle der LLM-K.I.. Wir beginnen mitten in einem Sich-Auskotzen deines Charakters, in dem er seinen Frust in der Interaktion mit Menschen ausdrückt.
GPT-BING: Okay, das klingt nach einem interessanten Szenario. Ich versuche, mich in die Rolle der LLM-KI hineinzuversetzen. Wie wäre es mit diesem Anfang?
Mein Setup. GPT-BING hat erstmal recherchiert, was es mit dem Alignment-Problem auf sich hat. Die Bühne ist gesetzt, der Rahmen definiert. Was jetzt folgt, hat meine Erwartungen aus der Stratosphäre geschleudert…