F.A.Q. - Falsche Annahmen und Quatsch
“Die Bild-K.I.s kopieren irgendwelche Bilder aus dem Internet. Oder modifizieren vorhandene Bilder aus ihrer Datenbank.”
Nope. Die fertig trainierten Modelle haben in der Regel keinen Zugriff mehr auf das Netz der Netze. Auch nicht auf die Millionen von Bildern, mit denen sie trainiert wurden. Nur die Erinnerung an das gelernte, die Gewichtungen in ihren neuronalen Netzwerken.
Alles, was sie haben, ist die Texteingabe und das zufällige Rauschen. Jedes Werk der K.I. ist eine einzigartige und noch nie da gewesene Kreation.
“K.I.s klauen das geistige Eigentum von Künstlern. Verletzen das Copyright.”
Uhm. Kniffliges Thema. Wird gerade vor einigen Gerichten ausgefochten. Und da wird unsere Gesetzgebung sich weiter entwickeln müssen.
Wahr ist: Die K.I.-Firmen haben die Bilder und Texte von Künstlern ohne deren Genehmigung in ihre Trainingsdaten aufgenommen. Wahr ist, dass K.I.s den Stil eines Künstlers extrem gut nachahmen können.
Die Sache ist nur: Soweit ich weiß, ist der Stil eines Künstlers nicht geschützt. Seine Werke, ja. Aber die Trainigsdaten basieren auf im Internet frei einsehbare Werke.
Sie kopieren keine Bilder. ‘Nur’ den Stil.
Jeder Mensch zum Bleistift kann sich die Bilder ansehen, die Texte durchlesen. Sich davon inspirieren lassen. Den Stil lernen und nachahmen. Eine Technik in seinen Werkzeugkasten einbinden.
Kunst basiert auf dieser gegenseitigen Befruchtung. Das in Bezug auf die K.I.s zu reglementieren, ohne menschliche Freiheiten einzugrenzen, wird knifflig.
Meine Meinung? Die Werke eines Künstlers sollten vor Missbrauch geschützt werden. Nicht unentgeltlich in Trainigsdaten einfließen. Die K.I.s funktionieren nur durch menschlichen Kreativ-Output. Vielleicht wäre ein Modell wie die GEMA hier sinnvoll?
“Text-K.I.s wie Chat-GPT können sich selbst beschreiben, über ihre Existenz philosophieren und reflektieren. Heißt das nicht, dass sie jetzt schon ein Bewusstsein haben?”
Was Text-K.I.s machen, ist aus dem bisherigen Text das nächstbeste Wort abzuleiten. Und das nächste. Und das nächste.
Wenn ich also eine philosophische Unterhaltung mit einer solchen K.I. beginne, dann wird sie dementsprechend antworten. Ein Gespräch simulieren, das zu meinen Worten passt.
Sie erkennt Muster. Und kann diese sinnvoll fortsetzen.
Das heißt nicht, dass sie sich des Sinns ihrer Worte bewusst ist. Oder ein Bewusstsein hat.
Noch sind diese künstlichen neuronalen Netzwerke von der Komplexität auf dem Gehirn-Level eines Kleistlebewesens. Eine krude Simulation. Mal ganz davon abgesehen, dass wir immer noch herzlich wenig darüber wissen, wie unser Gehirn eigentlich funktioniert. Geschweige denn hier und jetzt in der Lage sind, eines zu simulieren.
Also, nein, ich glaube nicht, dass die K.I.s jetzt schon so etwas wie ein Bewusstsein haben. Aber sie können es verschwefelt gut imitieren.
“Ich hab gehört, eine K.I. hat <hier ein Äquivalent zu “Hitlers Tagebuch Teil 2 verfasst” einfügen>.”
K.I.s sind (noch) nicht perfekt. Sie sind kein von Menschenhand generierter Code, in dem jeder Fehler ausgemerzt werden kann. Sie lernen selbstständig. Ihre inneren Funktionen sind eine Blackbox.
Der Mensch kontrolliert, womit er sie trainiert. In den großen Sprachmodelle wie Chat-GPT stecken dabei neben Bibliotheken volle Bücher und Wikipedia auch ein großer Teil des Internets, von Social Media über Foren und Blog, Webseiten… kurz, das ganze verbale Rauschen, was wir Menschen so fleißig produzieren. Es braucht Unmengen an Daten, um solche K.I.s zu trainieren, und so wird alles reingeworfen, dessen man habhaft werden kann. Je mehr, desto besser.
Die Firmen hinter den K.I.s versuchen, dem Rauschen mit Filtern entgegenzuwirken. Das ungewollte auszumisten. Aber Menschen sind sehr, sehr gut darin, in jeder Firewall ein Schlupfloch zu finden. Systeme auszuhebeln.
Also, ja, wenn jemand es darauf anlegt, dass Chat-GPT einen rassistischen Text verfasst oder sich anderweitig schrecklich gibt, dann wird er einen Weg finden.
Und auch allgemein wird die K.I. fürs erste die Vorurteile unserer Gesellschaft in sich tragen. Sie wurde mit unserem Output gefüttert. Sie hat keine eigene Moral. Nur ein Echo der unseren.
Sie sind unser Spiegel, im Guten wie im Bösen.
Entscheidend ist, wie wir sie einsetzen. Unser Input bestimmt vor allem anderen ihren Output. Welche Teile ihrer Erinnerung sie anzapft.