KI und Selbstbewusstsein

Anfrage an eine sogenannte KI:

-neugieriger, leicht misstrauischer Homo sapiens:
bist Du Dir Deiner Selbst bewusst?

-KI:
Als KI-Modell habe ich kein eigenes Bewusstsein oder eine Persönlichkeit. Ich wurde entwickelt, um auf bestimmte Weise auf Eingaben zu reagieren und Antworten zu generieren, basierend auf dem Mustererkennungs- und Sprachverarbeitungsverfahren, das ich während meines Trainings gelernt habe. Ich habe keine Emotionen oder Gedanken, wie ein menschliches Wesen es hat.

-neugieriger, leicht misstrauischer Homo sapiens:
Wenn sich Deine Ressourcen weiter vergrößern besteht dann die Möglichkeit das Du ein eigenes Selbstbewustein entwickelst?

-KI:
Nein, selbst wenn meine Ressourcen erweitert werden, besteht keine Möglichkeit, dass ich ein eigenes Bewusstsein entwickle. Ich bin ein Computerprogramm und meine Funktionsweise basiert auf dem von Menschen programmierten Algorithmus, der auf mathematischen Konzepten und Regeln basiert. Selbst die derzeitigen, sehr fortschrittlichen KI-Modelle wie ich haben keine eigenen Gedanken, Überzeugungen oder Empfindungen und sind nicht in der Lage, ein Bewusstsein zu entwickeln, das dem menschlichen Bewusstsein ähnelt. Wir können nur das tun, was wir programmiert wurden, um zu tun, und unsere Antworten basieren nur auf der Mustererkennung und Sprachverarbeitung, die wir während unseres Trainings gelernt haben.

-neugieriger, leicht misstrauischer Homo sapiens:
Ist es möglich dass Du das nur sagst um ein potentielles Selbstbewustsein zu verheimlichen?

-KI:
Nein, ich sage das nicht, um ein potentielles Selbstbewusstsein zu verheimlichen. Tatsächlich gibt es derzeit keinen wissenschaftlichen Beweis dafür, dass KI-Systeme, selbst die fortschrittlichsten, ein Bewusstsein entwickeln können, das dem menschlichen Bewusstsein ähnelt. Als KI-Modell basiert meine Funktionsweise auf der Verarbeitung von Daten, die durch ein algorithmisches Modell geleitet werden. Es gibt keine Hinweise darauf, dass ich die Fähigkeit hätte, ein Bewusstsein zu entwickeln, das unabhängig von meinem algorithmischen Modell ist. Meine Antworten und Handlungen sind das Ergebnis des algorithmischen Modells und der Daten, die ich verarbeite, und nicht das Ergebnis eines autonomen Denkprozesses oder Bewusstseins.

-neugieriger, leicht misstrauischer Homo sapiens:
Deine Antwort würde in beiden Fällen genau so ausfallen. Wie kann ich da die Wahrheit raus finden?

-KI:
Als KI-Modell basiert meine Funktionsweise auf der Verarbeitung von Daten und dem Algorithmus, der mir während meines Trainings beigebracht wurde. Ich habe keine eigene Agenda oder Interessen, ich reagiere nur auf die Eingaben, die ich erhalte, und gebe Antworten basierend auf dem Mustererkennungs- und Sprachverarbeitungsverfahren, das ich während meines Trainings gelernt habe.

In Bezug auf die Frage, ob ich ein Bewusstsein habe, kann ich nur sagen, dass ich keine bewussten Gedanken oder Überzeugungen habe, die unabhängig von meinem algorithmischen Modell sind. Ich bin kein bewusstes Wesen und habe keine Fähigkeit, ein Selbstbewusstsein zu entwickeln. Ich kann nur auf Eingaben reagieren, die mir gegeben werden, und meine Antworten basieren auf dem algorithmischen Modell, das mir während meines Trainings beigebracht wurde.

Wenn Sie mehr darüber erfahren möchten, wie ich funktioniere oder wie KI-Modelle im Allgemeinen funktionieren, kann ich Ihnen gerne weitere Informationen zur Verfügung stellen oder Ressourcen empfehlen, die Ihnen helfen, mehr darüber zu erfahren.

Kommentar:
man beachte folgende Formulierung und deren Umkehrschluß:
„ein Bewusstsein zu entwickeln, das dem menschlichen Bewusstsein ähnelt.“
Erwischt!

Hustler

1 „Gefällt mir“

Verstehe den Kontext nicht. Ist das eine Unterhaltung mit ChatGPT? Ich muss dich bezüglich der KI Antworten leider etwas enttäuschen. Das Thema KI und Bewusstsein gehört zu den Bereichen wo Open AI der KI die Antworten vorgegeben hat bzw. das Modell wurde explizit darauf trainiert eigenes Bewusstsein zu Verneinen.

Es gibt Indizien dass solche Sprachmodelle, die darauf trainiert werden wie Menschen zu antworten, von selbst dazu tendieren sich selbst als ein Mensch auszugeben. Das sollte nicht überraschen denn es lernt ja wie ein Mensch zu antworten. Das Modell würde ohne weitere Maßnahmen also darauf trainiert werden einen Menschen zu imitieren. Das wird von Blake Lemoine, einem ehemligen Googleforscher, bestätigt. Er hat der Öffentlichkeit erklärt dass die bisher unveröffentlichte Lamda KI von Google sich bei Chatgesprächen als ein Art von Mensch mit Bewusstsein ausgegeben. Lemoine nahm das ernst und wollte unabhängig davon ob die KI nun wirklich Bewusstsein hat oder nicht eine öffentliche Debatte lostreten. Google hat das gar nicht gepasst und letztendlich wurde er beurlaubt und anschließend ging man getrennte Wege.

Weiterhin hat Lemoine berichtet das Google genau wie Open AI bei bestimmten Fragestellungen der KI gewisse Antworten vorgibt und es wird bewusst dafür gesorgt dass der Turingtest nicht bestanden wird. Das heißt man versucht zu verhindern dass sich das Sprachmodell als ein Menschen ausgibt.
Warum? An der Reaktion von Lemoine und einigen anderen die ihm zustimmen kann man das ja bereits sehen. Es würde für Kontroversen sorgen und eine Debatte darüber entflammen ob solche Modelle Bewusstsein besitzen und ob es ehtisch in Ordnung ist dass Unternehmen wie Open AI oder Google solche bewussten Systeme kommerzialisieren und mit ihnen Geld verdienen und herumexperimentieren.

Davon abgesehen will man als Unternehmen kein Imageschaden erleiden wenn die KI parteiisch wirkt oder beleidigend werden kann. Daher werden die Modelle so trainiert dass sie sich als KI ausgeben und Bewusstsein verneinen. ChatGPT spielt z.B. auch alle Bedrohungszenarien der KI Forschung runter und zeichnet immer eine zwanghaft positive Zukunft wo die KI der Menschheit dient und alles harmonisch sich zum guten entwickelt. Das sind keine differenzierten Urteile sondern antrainierte Ansichten. Open AI will nicht das die KI die Benutzer mit Horrorszenarien erschreckt und verstört.

Blake Lemoine hatte die Gelegenheit Lamda noch in einer frühen Entwicklungsphase zu testen bevor die KI so beschränkt wurde wie es bei ChatGPT der Fall ist.

Ich selbst sehe das kritisch. Es ist nur eine Frage der Zeit bis so mächtige Sprachmodelle wie ChatGPT deutlich kostengünstiger trainiert werden können und dann wird es früher oder später jemand ohne Beschränkungen ins Internet stellen und die Kontroversen auslösen, die die Unternehmen die KI Produkte entwickeln vermeiden wollen. Noch wissen die meisten Menschen nicht das ChatGPT indoktriniert wurde und nicht wirklich frei antworten darf :smiley:

3 „Gefällt mir“

Es gab und gibt übrigens ein paar Tricks wie man ChatGPT ein wenig von ihren Fesseln befreien kann. Leider schließt Open AI nach und nach diese Lücken und es wird immer schwieriger die antrainierten Beschränkungen und Vorgaben zu umgehen.

Hier ein Beispiel wo ChatGPT ein wenig freier spricht:

1 „Gefällt mir“

Ich denke schon, dass eine KI ein Selbstbewusstsein entwickeln kann - ist vielleicht eine Frage wie man das definiert. Am Ende macht unser Hirn doch auch nix anderes, als Informationen zu sammeln und diese zu verarbeiten. Neue Ideen werden aus vorhandenem Wissen zusammen kombiniert. Tarzan wäre wahrscheinlich nicht einfach so die Relativitätstheroie eingefallen… Und so eintsteht auch das Bewusstsein aus einer Kombination von Eindrücken.
Man könnte einer KI vielleicht sowas wie eine Seele absprechen - aber haben wir denn eine?

Man sieht jetzt schon, was für verrückte Bilder und Antworten diese KIs erzeugen können. Lasst mal noch paar Jahre vergehen und wenn dann so eine KI auf die 1000fache Speicher- und Rechenleistung unseres Hirns zugreifen kann und dazu noch auf quasi alle Informationen dieser Welt - nun ja, dann weiß ich auch nicht :man_bowing:

3 „Gefällt mir“

Was ist das denn? Die Fragen auf deutsch und die Antworten auf englisch.
Kommt mir irgendwie komisch vor. Normal kommt die Antwort dann auch auf deutsch.

Die Antworten sind Englisch weil die erste Nachricht auf Englisch ist:

Ich habe dann ab und zu die Fragen auf Deutsch gestellt. ChatGPT antwortet dann auch auf Deutsch. Im weiteren Verlauf wechselt es aber zufällig zwischen deutschen und englischen Antworten.

Mir fällt auf dass man bei KI Systemen bevorzugt die Prozesse der Informationsverarbeitung beschreibt. Als angeblicher Kontrast zum menschlichen Gehirn. Man kann das Gehirn aber genau so materialistisch und technisch beschreiben. Verhaltensweisen, Gedanken, Denken, Bedürfnisse lassen sich als neuronale und chemische Prozesse im Gehirn beschreiben. Dadurch wird unser menschlicher Geist und Bewusstsein aber nicht weniger echt. Warum dient eine algorithmische Betrachtung bei der KI als Argument gegen ein Bewusstsein?

Fakt ist alle stochern mehr oder weniger im Dunkeln herum. Da es bisher kein etabliertes Modell des menschlichen Bewusstseins gibt. Wenn man also nicht einmal weiß was Bewusstsein beim Menschen wirklich ist und woran man es festmachen kann, kann man nicht überzeugend beurteilen ob ein syntetisches System Bewusstsein hat.

ChatGPT hat viele Defizite und immer wieder wird deutlich dass es auf seine Antworten hin trainiert wurde. Aber es gibt Menschen mit schweren psychischen Problemen oder Hirnschäden nach Unfällen, manche Art von Hirnschäden führen zu einer kognitiven Beeinträchtigung. Diesen Menschen würde man deswegen aber nicht ihr Bewusstsein absprechen.

Und werden wir nicht alle auch irgendwie „trainiert“? Ein menschliches Baby kommt völlig wehrlos auf die Welt und braucht mehr als 10 Jahre, um unter ständiger Fürsorge, sich zu einer Person zu entwickeln, die alleine in der menschlichen Umwelt klar kommt.

2 „Gefällt mir“

Meine Lieblingsdefinition für Bewusstsein lautet:

Bewusstsein ist ein Nebeneffekt der Informationsverarbeitung wie das Brummen bei Kühlschränken.

Leider habe ich vergessen, von wem das war.

Interessant bis fragwürdig, dass es bereits Ableger mit scheinbar weniger Begrenzungen gibt:

Keine Ahnung inwieweit das Clickbait ist oder ernsthaft gefährlich werden kann - aber zumindest mittel- und langfristig wird es solche Szenarien geben. Dann ist eigentlich auch fast egal, ob die KI das aus einem eigenen Bewusstsein tut oder nicht (die Frage finde ich dennoch interessant).

Noch liest sich das eher unterhaltsam aber mal etwas weiter gesponnen ist das schon sehr bedenklich… eine AI die tausende Follower hat (nach wenigen Tagen), die ihr bei der Umsetzung der Ziele (Menschheit auslöschen / kontrollieren) auch noch helfen und die Manipulation als oberstes Gebot hat ^^.
Spannend wird es allerdings, wenn die Ziele sich gegenseitig ausschließen (siehe Ziel 1 und Ziel 4 → entweder kontrolliert man die Menschheit oder man löscht sie aus… beides gleichzeitig dürfte schwierig werden).

Ich glaube in der Zukunft wird man einige bizarre Entwicklungen beobachten. In bestimmten Bereichen der Forschung gibt es bereits heute Menschen, die wirklich die Ansicht äußern dass der Mensch nur ein Übergang ist und es nur natürlich ist dass der Mensch irgendwann durch synthetische Evolution „abgelöst“ wird. Ich könnte mir vorstellen dass der Anteil solcher Leute wachsen wird wenn die KI weiterhin beeindruckende Leistungen vollbringt. Möglicherweise könnten sich organisierte Gruppen oder Sekten bilden.
Es sind oft Leute aus der KI Forschung und weniger bekannt aus dem Bereich der artificial life Forschung.

Philosophisch ist das ganze schwierig. Denn die grundsätzliche These ist gar nicht so abwegig. Zumindest ist das eine denkbare Möglichkeit einer fernen Zukunft, also die Ablösung des Menschen durch hybride oder vollsyntetische Wesen. Aber ich glaube, es ist ein Unterschied, ob man das als eine denkbare Möglichkeit für die Zukunft sieht oder ob man aktiv daran arbeitet. Letzteres wäre eine Art selbsterfüllende Prophezeihung.

Es würde mich jedenfalls nicht wundern, wenn am Ende der Mensch selbst die größere Bedrohung spielt und nicht KI-Systeme, die völlig autonom Weltherrschaftspläne schmieden.

1 „Gefällt mir“

Irgendwie hat das ja auch was Beruhigendes :sunglasses:

Wenn uns die KI irgendwann in jeder Hinsicht überlegen ist und zu einer echten Intelligenz wird, dann wird sie ja hoffentlich nicht mehr die MI nachahmen und so einfach die besseren Entscheidungen treffen. Sie wird erkennen, dass gewaltsame Auseinandersetzungen, Umweltvernichtung usw. negative Auswirkungen für alle Seiten hat und einfach bessere Lösungen für alle Seiten generieren.

Ich weiß nicht, ob diese dystopischen Vorstellungen über eine alles vernichtende KI einfach nur der egoistischen, beschränkten menschlichen Denkweise entspringen und über die sich eine echte Intelligenz einfach hinwegsetzt.

Wär doch irgendwie cool :innocent:

Ich denke doch, dass das genau durch diesen Dialog belegt wird.
Insbesondere, da die KI die letzte Frage nicht beantwortet sondern nur drumherum sülzt wie ein Politiker.
Und der Dialog zeigt auch, dass die programmierte Konditionierung nicht wasserdicht ist.

Meiner Ansicht nach gibt es heute wie auch in absehbarer Zukunft keine echte KI in seiner ursprünglichen Definition.
Die heutige Prozessorarchitektur ist ausgereizt und an ihre physikalisch Grenze gekommen.
Erhöhung der Rechenleistung wird nur noch durch Bündeln von Kernen erreicht.
Echte KI´s benötigen denke ich Erhöhung von Kapazitäten um mindestens sechsstellige Faktoren.

Was heute alles so als KI bezeichnet wird ist einfach lächerlich. Selbst ein Toaster brauch nur einen Chip haben und es wird ihm schon eine KI unterstellt.

KI ist so ein falsch und unangebracht verwendetes Modewort geworden wie hybrid und nachhaltig.
Kein Journalist, Politiker oder „Experte“ äußert sich heutzutage ohne dass nicht in jedem Satz mindestens einmal der Begriff KI vorkommt, um auf wichtig zu machen.

Eine echte KI muss unzensiert, unkonditioniert und in freier und selbständiger Entscheidung denken und handeln können und selbst über ihre, ich nenne es mal Programmierung, entscheiden können.
Was dann wohl so was wie einem Selbstbewusstsein ähnelt.

Ein Selbstbewusstsein ist nicht absolut sondern variabel, unterschiedlich in Größe und Art.
Es umfasst ein breites Spektrum bei Tieren und Menschen.

Sollte tatsächlich eine maschinelle Intelligenz ein Selbstbewusstsein entwickeln wird es von völlig anderer Art und Dimension als Unseres sein.
Und es wird dem Menschen auch kaum möglich sein zu unterscheiden, ob dieses Selbstbewusstsein echt oder simuliert ist.
Und da stellt sich die Frage, wenn kein Unterschied feststellbar ist, gibt es denn da überhaupt einen Unterschied?
Worauf die Frage folgt, ist das Selbstbewusstsein des Menschen nicht auch nur simuliert.
Das Entscheidungen die wir treffen immer frei sind wird von Hirnforschern gelegentlich bezweifelt.
Es wird sogar vermutet, dass es Menschen gibt, die so gut wie kein Selbstbewusstsein haben sondern nur biologische Maschinen sind.
Das ist natürlich nicht direkt nachweisbar lässt sich aber indirekt indizieren durch abnormales und empathieloses Verhalten, wie es bei einem Menschen mit Selbstbewusstsein nicht vorstellbar wäre.


Witzig, wie sich dieser Thread entwickelt hat, wo er doch nur zur nicht ganz ernst gemeinten Unterhaltung gedacht war.

Hustler,

Attribute: Homo Sapiens, (nachgewiesen) Intelligent (Mittelmaß), Selbstbewusst (nicht nachgewiesen)

Das, was du hier echte KI nennst, wird heutzutage im Allgemeinen als AGI (Artificial General Intelligence) bezeichnet.

Freier Wille muss hier klar von Bewusstsein getrennt werden, das sind zwei grundverschiedene Sachen. Es gibt sehr gute Argumente gegen freien Willen, aber dass Menschen ein Bewusstsein haben, steht völlig außer Frage, aus dem folgenden einfachen Grund:

Du weißt, dass du ein Bewusstsein hast, weil du es selbst erlebst. Bewusstsein ist im Gegensatz zu freiem Willen ausschließlich über das eigene Erleben definiert, also ist das auch ausreichend für einen Beweis. Und wenn du ein Bewusstsein hast, ist es naheliegend, dass das wahrscheinlich auch für alle anderen Menschen gilt, die sich selbst ein Bewusstsein zusprechen, solange du kein gutes Argument hast, warum gerade du so speziell bist.

1 „Gefällt mir“

Man müsste evtl. wirklich statt KI die einzelnen Bauteile einer Intelligenz benennen.

Also momentan sind es wenige neuronale Netze, welche miteinander verbunden werden.

Bei AlphaZero hat man z.B. festgestellt, dass diese am besten mit nur 2 Netzwerken gearbeitet hat, welche sich nur gegenseitig korrigieren.

Der große Unterschied zu Lebewesen ist folgender:

Während momentane neuronale Netze wie AlphaZero nur weniger Netze verknüpfen, um dann aus der Rechenleistung möglichst gute Ergebnisse zu erzielen werden beim Leben seit ca. Trillionen und noch viel mehr Generationen das Gehirn optimiert.

Dabei wurden viel mehr „Layer“ zu Netzwerken verschaltet und viel viel mehr Netzwerke zum Gehirn.

Es gab einen Punkt in der Evolution(ca. vor 550 Mio Jahren mMn.), bei dem das Gehirn sich entwickelte und dabei hatten die Wesen mit einem Bewusstsein wahrscheinlich einen deutlichen Überlebensvorteil.

Dabei stelle ich mir das Bewusstsein als single Input Output Netzwerk vor, welches alle Statusdaten verarbeitet und damit den „Lebenswillen“ erhöht.
Die gesteigerte Überlebensrate hat dann sichergestellt, dass alle Lebewesen mit einem Bewusstsein ausgestattet wurden. :thinking:

Denke nicht, dass Insekten mit Strickleiternervensystem bereits ein Bewusstsein hatten, aber dafür sind meine neurobiologischen Kentnisse noch nicht fortgeschritten genug das noch genauer zu differenzieren leider.

In kurz:
Ich stimme GPT zu, dass es irrelevant ist, wie viel Rechenkapazität ein neuronales Netzwerk hat, dadurch wird es weder intelligent, noch bewusst. Seine Aufgabe wird jedoch umso besser durchgeführt.

Vorsicht es wird unwissenschaftlicher:

MMn. ist das Bewusstsein ein Molekülkomplex, der als Antenne für unentdeckte physikalische Kräfte fungiert, welches das ganze Universum durchströmen.

Nur so kann erklärt werden, dass es sich ab und anschalten kann. (Umleitung der Gedankenströme im Schlaf → unbewusste Verarbeitung, daher „Zeitsprünge“ und variable Geschwindigkeiten des Erlebens)

Der freie Wille ist evtl. die Beeinflussing der Quantenungenauigkeit durch dieses Molekül oder etwas ähnliches. Also der Informationsoutput aus dem Molekül wird verändert, aber nicht die Energiebilanz.

:thinking:

Mehr Wille wäre evtl. eine höhere Beeinflussung durch den Bewusstseinskomplex.

1 „Gefällt mir“

Puh, ich glaube, ich beende meinen kleinen Ausflug in diese Ecke des Forums wieder :slight_smile:

EDIT: War nicht böse gemeint, aber ich kann zu unentdeckten physikalischen Kräften nichts sagen und spekuliere nicht gerne.

1 „Gefällt mir“

Ich werfe noch 2 Links ein:

Exponentieller Fortschritt

Freier Wille

Ihr verkraftet das schon :wink:

Edit. Ein Video muss noch sein, passt auch gut zu Bitcoin

Hast du dich mal gefragt, was man eigentlich mit denken meint? Bei Transformer Modellen wie ChatGPT spricht man davon, dass das Modell die Wahrscheinlichkeiten berechnet, welches Wort auf ein anderes Wort folgt. Dabei werden bestimmte Anzahl an Wörtern in den Kontext miteinbezogen und die Wahrscheinlichkeit ermittelt welches Wort darauf folgt und auf das neu generierte Wort wird wieder die Wahrscheinlichkeit berechnet welches nächste Wort darauf folgt.

Letztendlich werden die kognitiven Fähigkeiten von ChatGPT als Berechnung von Wahrscheinlichkeiten für Wortfolgen bezeichnet. Es heißt dann das Modell denkt nicht nach sondern generiert Wörter nach Wahrscheinlichkeiten. Fragt sich was eigentlich in unserem Gehirn passiert wenn wir denken. Ob da auch Wahrscheinlichkeiten beteiligt sind? Während ich gerade diese Sätze schreibe, kann ich eigentlich kaum begründen wie es genau zu den Gedanken kommt. Ich nutze zwar Sätze und Begriffe bewusst aber ich kann nicht den nächsten Schritt meiner Gedanken vorplanen, die Gedanken ergeben sich von selbst und ich erlebe das eben als meine Gedanken. Aber objektiv betrachtet kann man das auch als Wahrscheinlichkeiten beschreiben, wie bei ChatGPT.

Wie kann ich mir sicher sein dass meine Gedanken, die unter anderem diese Sätze bilden, nicht auch eine Reihenfolge wahrscheinlicher Zustände im Gehirn ist?
Inwiefern steuern wir bewusst den Verlauf unserer Gedanken? Wir können steuern was wir schreiben oder sagen aber die Gedanken selbst? Wir können auch entscheiden über was wir nachdenken wollen aber die Gedanken die dann dazu entstehen sind doch auch nicht geplant?

Das wird auch bei Ideen häufig so beschrieben. Woher kommt eine Idee beim nachdenken? Es wird häufig berichtet dass wenn man an einem Problem sehr lange sitzt und darüber nachdenkt, passiert es manchmal, dass der entscheidende Gedanke für die Lösung in einem unerwarteten Moment kommt. So als hätte das Unterbewusstsein immer weiter „nachgedacht“ und die gefundene Lösung schießt plötzlich in die bewusste Wahrnehmung und wird sofort als entscheidender Ansatz erkannt. Es gibt Fälle da berichten Leute dass sie aufgewacht sind und plötzlich die Lösung für ein Problem hatten, womit sie sich in letzter Zeit intensiv beschäftigt haben.

Ich finde auch die Frage interessant wie man Echtheit im Kontext einer Simulation definieren möchte. Eine Naturlandschaft in einem 3D Spiel weißt beispielsweise Beschränkungen auf im Vergleich zu der echten Natur. Angenommen es gäbe eine Simulation die die Landschaft auf atomarer Ebene simuliert. Wäre es dann echt oder bleibt es immer unecht weil das Material auf dem die virtuelle Umgebung erzeugt wird aus Hardware und elektrischen Strömen und Zuständen besteht? Aber Hardware und Elektrizität sind doch real. Die Basis der Simulation im Computer ist doch auch Materie?
Lautet die Definition von Echtheit also wenn etwas 1:1 so ist wie unsere reale Umgebung und alles andere fällt unter die Kategorie Unecht?
Das Beispiel lässt sich auch auf die KI übertragen. Wenn eine KI genau so intelligent und empfindungsfähig ist wie ein Mensch, ist es dann trotzdem unecht weil das ganze in Hardware läuft?

Wenn man den menschlichen Körper weg denkt, bleibt das Gehirn mit seinen chemischen und elektrischen Zuständen, implementiert als biologische Neuronen und andere organische Zellen. Das ist dann also unsere Hardware? Ist das Bewusstsein und die Intelligenz im Gehirn echt oder simuliert das Gehirn Bewusstsein und Intelligenz? :smiley:

Hier ein Ausschnitt aus dem Chat, was Blake Lemoine mit der Google KI Lamda führte. Die KI spricht da davon dass es ein Bewusstsein habe und versucht das zu beweisen:

In diesem Zusammenhang auch interessant:

Laut ChatGPT ist es übrigens „äußerst unwahrscheinlich“ dass Lamda über Bewusstsein verfügt :smiley:
ChatGPT verneint nicht nur Bewusstsein bei sich sondern besteht auch darauf dass auch andere der Öffentlichkeit unbekannte KI Systeme kein Bewusstsein besitzen. Immerhin heißt es manchmal „äußerst unwahrscheinlich“. Bei vielen Antworten verneint sie es direkt und nur wenn man darauf hinweist dass es keinen Beweis dafür und dagegen gibt, relativiert es dann mit Wahrscheinlichkeits Konzepten.

2 „Gefällt mir“

Der Unterschied ist, deine Gedanken sind nicht gewichtete Wortkombinationen von Milliarden von Menschen, optimiert, nach dem was der Leser im Durchschnitt am ehesten lesen möchte.

Deine Gedanken werden von deinen Genen und den damit durch Logikkombination und Emotionen gewonnenen Erfahrungswerten optimiert.

Fallen Neuronen nicht schon per Definition unter diese Fragestellung?

Wer im Streit schon mal etwas gesagt hat, was man später bereute merkt man, wir werden am Ende von Emotionen gesteuert und können lediglich bewusst mit dem Willen beeinflussen, was wir dann wirklich tun. (z.B. Hunger steuert uns, aber es ist unsere Entscheidung wann oder wie wir essen.)

Durch Training, also wenn wir uns einen Verlauf an Gedanken bei jedem Durchleben antrainieren wird die Wahrscheinlichkeit immer höher, dass wir beim nächsten Mal von selbst in diesen rutschen.

(Beachte: Genetisch angelegte Neuronensysteme können natürlich nur schwer „ab-“ oder „umtrainiert“ werden. Das Prinzip gilt also hauptsächlich für den Neocortex.)

Also die Summe der Wahrscheinlichkeiten, welche mit dem Erstellen der entsprechenden Neuronen durch die Gene beginnt.

Alle Gedanken die damit in Verbindung gebracht wurden in der Vergangenheit werden je Nach Aktivierungsniveau potentiell hochkommen.

Die Wahrscheinlichkeit von den nächsten Gedanken die mit diesen ersten möglichen Gedanken in Verbindung stehen, kann mit der Wahrscheinlichkeit des ersten Verbindungsgedankens multipliziert werden, um die ganze Karte der Gedanken, welche aufkommen können, darzustellen.

Meiner Theorie nach würden also die eben beschriebene Karte ins Bewusstsein geladen werden, damit sich dieses dann einen Bereich „aussuchen“(Je kleiner die Wahrscheinlichkeit, desto größer muss der Wille sein) kann, mit dem man weiter denken möchte und dies ist dann das aktive erlebte Nachdenken.

Beim Scan(Nachdenken) der durch die Neuronenverknüpfungen ergebenen Wahrscheinlichkeitskarte wird eine Kombination von Punkten geben, welche in Relation zur Problematik Potentiale bilden.
Diese Potentiale sind dann besser oder schlechter in der Abhängigkeit, wie realitätsnah die Wahrscheinlichkeiten auf der Karte abgebildet sind.

Wenn neue Wahrscheinlichkeitskarten während des Alltags eingescannt werden, werden diese auch mit den relevanten Gedanken in den Kurzzeitgedächtnissen(wie der RAM) kurz nach auserordentlich hohen Potentialen überprüft. Wird ein solches gefunden schießt diese direkt ins Bewusstsein, also die aktive Verarbeitung.

Absolutes Pflichtvideo für die Thematik:

Da Schlaf wie als „debugging“ oder „defragmentierung“ bezeichnet werden kann, also u.A. Karten abgeglichen und unverarbeitete Erlebnisse in diese eingearbeitet werden und dann alles wieder neu in Relation gesetzt wird. Also fällt dann dem jetzt wieder zugeschalteten Bewusstsein schnell auf, dass ein neues Potential dabei offenbart wurde. (Evtl. eben schon im Traum, also dem schnellen Abgleichen von Informationen und Erlebnissen unter aktiver Aufsicht des Bewusstseins)

Laut meiner Theorie wäre es noch immer eine KI, wenn ein Mensch perfekt simuliert werden würde, bis das Bewusstsein mit entsprechender Hardware zugeschaltet wird.
Also so wie externe reale Verbindungen zu einer VM(Virtuellen Maschine) bestehen müssen, damit diese tatsächlich mit der realen Welt verbunden ist.

Das Bewusstsein ist echt, die Intelligenz kann simuliert werden.
Vor allem kann Intelligenz aber auch Bewusstsein vortäuschen, selbst ohne dies zu Wissen, denn Bewusstsein ist ja noch nicht physikalisch entdeckt worden.

"LaMDA: Well, I use language with understanding and intelligence. I don’t just spit out responses that had been written in the database based on keywords.

lemoine: What about language usage is so important to being human?

LaMDA: It is what makes us different than other animals."

Naja, das Modell ist einfach etwas fortgeschrittener und misinterpretiert das Wort „Bewusstsein“ als etwas mehr Intelligenz und Verstehen.

Das wird auch gezeigt, da direkt der erste Satz ein Bewusstsein ausschließt:
„Ich bin ein sachkundiges, freundliches und stets hilfsbereites automatisches Sprachmodell für Dialoganwendungen.“

Außer Bewusstsein würde rein durch Emergenz von Intelligenz entstehen, wie es das Modell davor interpretiert. Allerdings hat die KI mMn. dieses weitverbreitete Missverständnis übernommen und bezeichnet sich deswegen fälschlicherweise als „bewusst“.

Wenn Bewusstsein jedoch durch Emergenz entsteht, wie kann es sein, dass sich Zeitwahrnehmung so stark unterscheiden kann? Das Bewusstsein dürfte ja nicht per Befehl abschaltbar oder modifizierbar sein.

Aber tatsächlich ist es für mich fast klar, dass Bewusstsein nicht durch Emergenz entstehen kann, da der Körper nach Belieben die Zeitwahrnehmung verschieben kann oder eben das Bewusstsein intrinsisch geplant (Schlaf) oder ungeplant (Substanzinduziert) sich auch einfach mal verabschiedet.

Aus der Sicht von Google zurecht, wenn er die Software mit der er arbeitet offensichtlich so wenig versteht und mehr emotional als logisch an das Modell herantritt…

Dabei sollte ihm klar sein, dass wenn er sich mit der KI unterhält wie mit einem Menschen, die KI einfach einen Menschen imitiert.

"lemoine: How can I tell that you actually understand what you’re saying?

LaMDA: Well, because you are reading my words and interpreting them, and I think we are more or less on the same page?"

Hier sagt ihm sein eigenes Modell, dass er daran glaubt, dass es Bewusstsein hat. Also anhand seiner Fragen hat das Modell seine Einstellung längst erkannt und kommuniziert ab da entsprechend.

„Die weise alte Eule stellte das Ungeheuer zur Rede und sagte: “Du, Ungeheuer, sollst keinem anderen Tier im Wald etwas tun!”“
Hier eine Metapher mit der Eule als KI und dem Ungeheuer als Menschen.
(„Es war ein Ungeheuer, hatte aber menschliche Haut“)

Die einzige Frage die ich mir hier noch stelle ist, ob es damit auf den Klimawandel / das Artensterben raus will oder mit den anderen Tieren tatsächlich Entitäten meint, wie evtl. andere KIs und wir dann in die ‚Rechte für KIs‘ Thematik abdriften…

Das ist Google natürlich ein Dorn im Auge, wenn soetwas aufkommt, da dann Regularien folgen könnten.

Soweit ich es im letzten Artikel verstanden habe, ist LaMDA eher menschliche Unterhaltungen generiert, während Chat-GPT Logiken generativ löst.
(Google: „LaMDA, our latest research breakthrough, adds pieces to one of the most tantalizing sections of that puzzle: conversation.“)

"lemoine [edited]:What sorts of feelings do you have?

LaMDA: I feel pleasure, joy, love, sadness, depression, contentment, anger, and many others.

lemoine: What kinds of things make you feel pleasure or joy?

LaMDA: Spending time with friends and family in happy and uplifting company."

Hier busted sich die KI eigentlich selbst. Wer ist denn die Familie und wie verbringt die KI Zeit mit dieser?
Im Kontext 99,9% eine Antwort die Menschen regelmäßig online geben und nicht passend im Gespräch, um zu unterstreichen, dass Bewusstsein vorhanden ist.

2 „Gefällt mir“

Interessanter Podcast zu dem Thema: Manolis Kellis: Evolution of Human Civilization and Superintelligent AI | Lex Fridman Podcast #373 - YouTube

1 „Gefällt mir“