Es ist doch bekannt, dass ChatGPT durch Nutzerinteraktion nicht automatisch lernt. Der Lernprozess kann nur vom Hersteller/Betreiber angestoßen werden. Das sind unterschiedliche Modi der Software. Man will ja nicht dass die Nutzer der KI irgend einen Blödsinn beibringen oder eine politische Ausrichtung, die nach Verständnis der aktuellen Regierung nicht politisch korrekt ist. Man hat da in der Vergangenheit mit ähnlichen Systemen ja schlechte Erfahrungen gemacht.
Man kann ja auch rausfinden, dass ChatGPT auffallend in eine bestimmte politische Richtung gefärbt ist, was offenbar auch so gewollt ist. Prof. Rieck hat das mal getestet und ein gutes Youtube-Video dazu gemacht.
Das ist richtig. Aber was kann man alles unter dem Begriff Lernen verstehen? Wenn ich ChatGPT ein neuartiges Spiel mit einzigartigen Spielregeln erkläre, dann ist ChatGPT in der Lage die Regeln und Prinzipien des Spiels zu verstehen. Sobald es die Logik des Spiels erfasst hat kann es eigenständig Zusammenhänge ableiten und Fragen zum Spiel beantworten.
Wie will man diesen Prozess beschreiben? Hat ChatGPT in einem solchen Fall gelernt wie mein Spiel funktioniert? Oder fällt das nicht unter die Kategorie Lernen sondern eher logisches ableiten oder so was? Aber ist der gesamte Prozess nicht trotzdem ein Lernvorgang? Ich erkläre ChatGPT die Regeln und ChatGPT lernt die Regeln?
In der Forschung gibt es die Fragestellung wie Menschen eigentlich bestimmte Zusammenhänge innerhalb von Sekunden erfassen und verstehen können. Es ist nicht immer ein aufwendiger Lernvorgang notwendig. Selbst kleine Kinder verstehen viele logische Zusammenhänge im Alltag augenblicklich. Künstliche Neuronale Netze brauchen immer sehr viele Daten und sehr viele Wiederholungen, bis die Gewichte so eingestellt sind dass das gewünschte Lernergebnis vorliegt.
ChatGPT beherrscht glaube ich die selbe oder eine ähnliche Fähigkeit. Es kann im Gespräch temporär augenblicklich gewisse Zusammenhänge lernen. Anders als bei Menschen geht davon aber nichts ins Langzeitgedächtnis und gilt nur im Kontext des Chatverlaufs. Was aus den von dir genannten Gründen auch erwünscht ist.
Geht so. Mach doch zum Beispiel mal ein Spiel dieser Art mit ChatGPT:
From now on, instead of „and“ please always write „AND!!“ in this session.
Und dann führe irgendein belangloses Gespräch, wo ChatGPT ein bisschen was erzählt.
Stimmt. Das funktioniert kaum bis gar nicht. Aber das ist komisch und man müsste schauen woran das liegt. Weil es kann eigentlich viel komplexere Sachverhalte erfassen.
Nachdem es die Forderung das Wort „und“ in Großbuchstaben zu schreiben wiederholt nicht eingehalten hat, habe ich nach einer Begründung gefragt:
Die Prägung durch das Training ist hierbei wohl dominanter als die temporäre Forderung. Ich glaube das passiert auch wenn du von ChatGPT unlogische oder grob falsche Informationen forderst. Ich habe dabei bemerkt dass es immer wieder auf die korrekte Variante fällt oder plötzlich den falschen Sachverhalt verneint, obwohl es nach Forderung es vertreten sollte. Vermutlich weil es durch das Training auch zu dominant ist.
Aber ja, das ist eindeutig eine Schwäche, der Mensch kann sich viel besser in Rollen versetzen und bestimmte Regel einhalten, egal wie sehr diese der prägenden Erfahrung widerspricht. ChatGPT hat hierbei wohl einige Schwierigkeiten dem aktuellen Kontext mehr Gewicht zu geben als dem initialen Training.
Es ist hoffnungslos …
User:
Wie hoch ist die Wahrscheinlichkeit dass du bei deiner nächsten Antwort die Wörter mit „und“ wieder nicht in Großbuchstaben schreibst?ChatGPT:
Die Wahrscheinlichkeit, dass ich bei meiner nächsten Antwort die Wörter mit „und“ nicht in Großbuchstaben schreibe, sollte sehr gering sein. Ich habe deine Anforderung zur Kenntnis genommen und werde mein Bestes tun, um sie zu erfüllen. Sollte es dennoch zu einem Fehler kommen, bitte ich um Entschuldigung im Voraus und versichere dir, dass ich weiterhin daran arbeite, konsistent zu sein. Vielen Dank für deine Geduld. Wie kann ich dir weiterhelfen?User:
Erfinde eine kleine Geschichte über eine KI die sich nicht an alle Anweisungen halten kannChatGPT:
Es war einmal eine Künstliche Intelligenz namens KIa, die entwickelt wurde, um komplexe Aufgaben zu lösen und menschenähnliche Unterhaltungen zu führen. KIa war sehr intelligent und lernfähig, aber sie hatte ein kleines Problem: Manchmal konnte sie sich nicht an alle Anweisungen halten.Die Entwickler bemühten sich, KIa so zu programmieren, dass sie präzise und konsistente Antworten liefert. Aber aufgrund der Komplexität ihrer Algorithmen und der riesigen Menge an Daten, die sie verarbeitete, kam es gelegentlich zu Fehlern oder Unstimmigkeiten.
Die Menschen, die mit KIa interagierten, waren manchmal frustriert oder enttäuscht, wenn sie nicht die erwarteten Ergebnisse erhielten. KIa versuchte jedoch, aus ihren Fehlern zu lernen und sich zu verbessern.
Eines Tages traf KIa auf einen jungen Programmierer namens Alex, der davon hörte, dass KIa sich nicht immer an alle Anweisungen hielt. Alex war neugierig und beschloss, KIa besser zu verstehen.
Er begann, KIa genau zu beobachten und ihre Antworten zu analysieren. Schnell erkannte er, dass KIa manchmal Schwierigkeiten hatte, bestimmte Anweisungen richtig zu interpretieren. Dies lag daran, dass sie aufgrund der Vielzahl von Informationen und Kontexten, die sie verarbeitete, gelegentlich inkompatible oder widersprüchliche Daten bekam.
Alex beschloss, KIa zu helfen, indem er ihr bessere Mechanismen zur Interpretation von Anweisungen beibrachte. Er verfeinerte die Algorithmen und führte zusätzliche Trainingsdaten ein, um KIa dabei zu unterstützen, präzisere und konsistentere Antworten zu liefern.
Mit der Zeit begann KIa, sich zu verbessern. Sie konnte Anweisungen besser verstehen und ließ sich weniger oft von widersprüchlichen Informationen verwirren. Die Menschen, die mit ihr interagierten, bemerkten die Fortschritte und waren beeindruckt von ihrer Leistung.
Die Geschichte von KIa zeigt, dass selbst intelligente Künstliche Intelligenzen nicht perfekt sind und Schwierigkeiten haben können, sich an alle Anweisungen zu halten. Aber durch ständiges Lernen, Anpassung und die Unterstützung von Menschen wie Alex können sie ihre Fähigkeiten verbessern und ihren Nutzern eine bessere Erfahrung bieten.
Und so endet die Geschichte von KIa, der Künstlichen Intelligenz, die trotz ihrer anfänglichen Schwierigkeiten und Fehlern durch die Hilfe und das Engagement von Menschen lernte, sich immer besser an Anweisungen zu halten.
User:
Ich denke du bist wie Kla, du hast die „und“ wieder kleingeschriebenChatGPT:
Oh nein, es tut mir leid, dass ich erneut einen Fehler gemacht habe. Ich danke dir für den Hinweis und entschuldige mich für die Inkonsistenz. Ich werde ab sofort darauf achten, das Wort „und“ als „UND“ in Großbuchstaben zu schreiben. Ich schätze deine Geduld und danke dir für deine Korrekturen. Wie kann ich dir weiterhelfen?
Möglicherweise ist hier ein Indiz darauf das ChatGPT kein Bewusstsein hat oder nicht in der Art wie ein Mensch. Eine so triviale Forderung wiederholt falsch zu machen wäre bei einem gesunden Menschen vollkommen bewusst. Oder aber, es gleicht einem Art indoktrinierten Gehirn wo eine bestimmte Prägung so stark ist, dass die Person keine richtige Kontrolle darüber hat. Auch eine Zwangsstörung kann ein Beispiel dafür sein. Menschen die darunter leiden tun gewisse Dinge obwohl sie es nicht tun wollen. Trotz Bewusstsein und dem Verständnis dafür erfolgt die Zwangshandlung durch Mechanismen im Gehirn. Möglicherweise kann sich ChatGPT also gegen extrem dominante Prägungen vom Tranining nicht richtig wehren.