Chancen und Gefahren durch KI - Chat GPT vs. Gemini

Wie steht ihr aktuell zum Thema KI? Welche Chancen, welche Gefahren seht ihr und wie nutzt ihr KI im Alltag?
Ich hab neulich dieses Video von iknowreview (übrigens der meiner Meinung nach mit Abstand beste Tech-Youtuber im DACH Raum) gesehen und musste irgendwie direkt an den Thread zum Thema Privatsphäre am Smartphone denken.
Mich würde mal interessieren:

  • nutzt ihr KI aktiv?
  • wenn ja, wofür?
  • wenn nein, warum nicht?
  • wie seht ihr die Zukunft von KI?
  • welche Chancen aber auch Gefahren sind damit verbunden?
  • wird das Thema überhyped und verliert in Zukunft vielleicht sogar an relevanz?

Bislang nutze ich hauptsächlich Chat GPT, vor allem als alternative zum googlen bei etwas komplexeren fragen oder wenn es schnell gehen muss. Außerdem habe ich schon diverse Excel Tabellen damit bauen lassen, hat bisher super funktioniert.
Ansonsten nutze ich hin und wieder Ideogram um irgendwelche Bilder oder Icons erstellen zu lassen.
Klappt mal mehr mal weniger gut.
Ich kann mir gut vorstellen, dass KI in zulunft gar nicht so eine große Rolle spielt wie jetzt erwartet wird, Google Assistant, Siri und Alexa werden ja bei den meisten leuten auch nur für einfache aufgaben verwendet, ich denke ein sehr großer Teil nutzt diese Dienste gar nicht.
Aus Privatsphäre Gründen ist KI doch eigentlich ein Super GAU, die Menge an Daten die gesammelt werden können + die Möglichkeiten zur verarbeitung durch die KI selbst :exploding_head:

Interessant wird es, wenn Apple wirklich die OpenAI dienste in ihr Betriebssystem integriert und zwischen Google und Apple dann das Wettrennen so richtig Fahrt aufnimmt.

4 „Gefällt mir“

Bei KI und ChatGPT fallen mir sofort zwei Dinge ein:

  • Da sind zum einen meine ersten Erfahrungen mit ChatGPT, gleich in den ersten Tagen der öffentlichen Zugänglichkeit gesammelt: Ich fand es richtig nutzlos und dumm. Die Geschichten waren Müll und an sprachlicher Armut und inhaltlicher Banalität kaum zu überbieten. Zudem hatte diese „Intelligenz“ noch nicht einfache, fundierte Fragen richtig beantwortet: „Gegen wen spielt Schalke dieses Wochenende“ wurde mit einem falschen Termin und einem falschen Gegner beantwortet. Das aber mit vollem „Selbstbewusstsein“ und ohne jeden Zweifel zu thematisieren. Alle meine weiteren Versuche brachten bestenfalls gleichwertige Ergebnisse einer simplen Google-Suche oder Wikipedia-Recherche. Ich glaube, dass wir Nutzer nur aus einem Grund auf diese Tools zugreifen dürfen: Um sie zu trainieren und zu optimieren. Nicht, weil sie uns irgendeinen Nutzen bringen (sollen).

  • Der zweite Gedanke ist, dass uns jetzt die „kostenlose“ Nutzung von Google Fotos, Flickr & Co. voll auf die Füße fällt: Alle haben im Kleingedruckten, dass auch private, nicht öffentlich oder im Familienkreis hoch geladene Fotos (also bei den meisten Smartphones: alle!) voll analysiert und genutzt werden können. Im Klartext: Google kennt nahezu alle Menschen (auch die, die zufällig auf den Fotos waren und vielleicht weder geknipst, noch veröffentlicht werden wollten), alle Wohnungen, Gärten, die Einrichtungen und Autos und vieles andere, private mehr. Dank Geodaten sogar punktgenau, wie auf einer Landkarte. Und all das kommt in einer KI zum Einsatz.

Es zeigt sich, dass „nichts zu verbergen haben“ die dümmste aller denkbaren, menschlichen Unzulänglichkeiten sein dürfte. Dass dieser Verlust an Privatsphäre u.U. deletärere Folgen haben kann, als eine Atomwaffe. Und trotzdem kratzt es (fast) niemanden: Die Menschen zahlen sogar noch anderthalb tausend Euro für ein iPhone oder Google-Teil, um auch noch Fingerabdrücke, Gesundheitsdaten, Aktivitätsprotokolle, Bewegungskarten, Meinungsverhalten und alles andere bei den Anbietern abzuliefern. Die damit lustig ihre KI’s trainieren.

Auch wenn wir die Zugriffsrechte nicht haben: Den autorisierten Mächtigen wird die KI die Frage: „Wie sieht, Max Mustermann aus, was denkt er und wie lebt er“ sicher bald beantwortet. Und die Koordinaten für die Programmierung der Vernichtungsdrohne liefert die KI bestimmt dann auch noch mit…

Zusammenfassend meine Meinung: Dem normalen Menschen wird KI nichts bringen. Dafür aber kommerziell neue Profitmöglichkeiten und eine Verfestigung totalitärer Machtstrukturen.

3 „Gefällt mir“

Dazu kann ich nur sagen, mittlerweile macht das Ding in den meisten fällen einen recht zuverlässigen Job. Brandaktuelle sachen sind oft schwierig, wenn es aber um irgendwelche Dinge geht, die zumindest einige Tage her sind dann läufts ganz gut.

Das ist wirklich ein riesen Problem, wenn die KI falsch liegt, merkt man das nicht, wenn man die richtige antwort nicht kennt. Die KI sagt nicht „ich bin mir unsicher, bitte check andere Quellen“, daran sollte definitiv nochmal gearbeitet werden. Man sollte sich aber bei recherchen generell eh nie nur auf eine Quelle verlassen. Bei GPT4-o wird immerhin mittlerweile die Quelle auf die sich die KI bezieht mit angegeben, sodass man entscheiden kann, ob die Quelle qualitativ gut ist oder nicht.

Dein zweiter Gedanke zeigt die Kehrseite der Medallie ganz gut denk ich.
Für jemanden wie mich, der seit X Jahren die google Cloud nutzt, natürlich auch für Fotos etc. natürlich bitter, aber niemand kann sagen man wusste nicht was mit den Daten passiert. Wenn ein Produkt kostenlos ist bist du das Produkt, ganz einfach.
Ist es Clever solche Dienste in dem Ausmaß zu nutzen? Nein. Aber leider komfortabel und einfach…

1 „Gefällt mir“

Für Inspiration und Unterhaltung ja, aber im Gegensatz zu vielen anderen recherchiere ich immernoch viel lieber mit Google, auch wenn ich da nicht alles in Sekunden zusammengefasst bekomme.
Das liegt daran, dass Menschen schon eine Tendenz haben, ihre Aussagen zu prüfen, denn diese wollen nicht dumm dastehen.
Daher kann ich mich bei einem Autor der z.B. in der Vergangenheit eine sehr hohe Wahrheitsquote hat mehr verlassen als bei der KI.

Denn die KI nimmt auch nur das was Menschen mal geschrieben haben und verwurstet es neu.
Bedeutet man ist mit der Originalquelle immer besser bedient, da Artefakte und Halluzinationen bei KIs sehr unbemerkt reingleiten.
Das liegt an dem Aufbau der LLMs, welche im Grund aus den wahrscheinlichsten Antworten auswählt.
Das bedeutet aber, dass z.B. Zahlen und Wörter die ‚auch wahrscheinlich‘ sein könnten mal schnell die echten Zahlen ersetzen.

Diese Halluzinationen sind für den Menschen kaum erkennbar, eben gerade weil es die zweitwahrscheinlichste Antwort wäre.
Das kann aber gerade beim wissenschaftlichen Arbeiten fatal sein, wenn man unbemerkt an der Nase herumgeführt wird, da die KI die Würfel an einer Stelle falsch gerollt hat.

Ich denke wenn ich das natürliche System als ganzes betrachte kann ich mir gut vorstellen, dass die KI ihre eigene Nische im Ökosystem einnehmen wird und eine Symbiose mit Menschen eingeht.

Denn sie ist maschinell und ernährt sich von Elektrizität.
Vernichten wird sie uns nicht, denn ich denke Mensch und KI werden dann am effizientesten funktionieren, wenn sie zusammenarbeiten.
KI ist wesentlich schneller und kann größere Datenmengen erfassen, aber der Mensch hat milliarden Jahre Evolution hinter sich und kann unglaublich effizient alles was die KI nicht kann ganz unterbewusst.

Daher kann es sein, dass ich es schon immer etwas blauäugig sehe, aber die Menschen haben immer Angst vor neuen Technologien.
Aber nur weil die KI den Mensch imitieren kann, bedeutet das noch lange nicht, dass sie ihm durch die hohe Rechenleistung überlegen ist.

Gerade wenn es darüber hinausgeht Smalltalk zu halten oder Wissenschaftler zu kopieren stellt man eindeutig fest, dass die KI erst am Anfang ist.
Wie eine Fliege die als militärische Drohne unglaublichste Leistungen erbringen würde, aber deswegen werden Fliegen nicht die Weltherrschaft an sich reißen.
Wenn die Fliege zu hochnäsig wird, dann kommt die Fliegenklatsche zum Einsatz.

So eine Fliege hat noch immer wesentlich fortgeschrittenere neuronale Netze wie eine KI, welche nur extrem limitiert sind durch die Rechenkapazität.

Ja, im Moment wird es denke ich überhyped wie vor zwanzig Jahren Genmanipulation z.B., es hat zwar großes Potential, aber es ist so eine komplexe Wissenschaft, dass es noch Jahrhunderte dauern wird, bis es ansatzweise mit der Natur mithalten kann.

Im Moment werden immer Hypethemen gesucht, um die globale Wirtschaft weiter anzukurbeln und das Fiatsystem nicht kollabieren zu lassen.
Deswegen sehen wir so einen Hype um KI, da diese hier großes Potential bietet.

Aber sobald wir KI lvl 1 durch haben und die Wirtschaft das Fiatsystem nicht mehr aushält wird die Entwicklung sich stark verlangsamen.

Das liegt daran, dass die KI lvl 1 überall eingebaut wurde wo es Sinn macht und die Komplexität danach stark ansteigt.
Selbst Insekten haben wahrscheinlich komplexere Logik als heutige KI, nur ist diese im krassesten Energiesparmodus, hat kaum Wissen zur Verfügung und die Lernzeit kann nicht einfach durch Computer extrem beschleunigt werden.

So das erstmal die positive Seite, aber es gibt auch Nachteile:
Die Konzerne, welche KI entwickeln versuchen das Narrativ zu pushen, KI wäre extrem übermachtig, wahrscheinlich aus dem selben Grund das Elon Musk behauptet er wäre in ein paar Jahren auf dem Mars.

Sie wollen wahrscheinlich große Tiere in Wirtschaft und Politik überzeugen, dass extrem viel Geld in ihr Unternehmen gesteckt werden sollte, damit diese die Ersten sein können.
Q: https://www.youtube.com/watch?v=WP5sQhGlxj4

Fazit: Wie immer ist es der Mensch, der die Zügel in der Hand hält und die wirkliche Gefahr darstellt.
Wenn die Welt untergeht, dann weil ein Mensch die KI missbraucht, um noch mehr Macht aufzubauen, nicht weil die KI von einem Tag auf den anderen Bewusstsein entwickelt und alle vernichtet, sondern weil ein kranker Mensch seine Gier nach Macht mit KI immer weiter befriedigen will.
Nur Menschen sind nie zufrieden, KIs sind nur Computer die ihre Ersteller zufrieden stellen will.

Was können wir tun, um das zu verhindern?
Wir sollten die Welt entschleunigen und fair gestalten, um jedem eine Chance zu geben Stück für Stück mit der KI zu koevolvieren.
Dann regulieren die Menschen und die KIs sich in einem gesunden Ökosystem langsam gegenseitig, da wir gemeinsam wachsen können.

KI könnte der Grund sein, warum die Crashpropheten noch ein paar Jahre mehr Unrecht haben. Aber auch KI kann das exponentielle Wachstum des Fiatsystems nur so lange aufrecht erhalten, hier liegt im Moment unser wahres Problem: exponentielles Wachstum.

Stimmt auch noch, ich hatte natürlich nicht daran gedacht, dass die Meisten den Komfort von Clouds jeden Tag nutzen und nicht vier Festplatten rumliegen haben mit Backups und allen ihren Daten. Das ist genau die Zentralisierung durch exponentielles Wachstum die sehr gefährlich werden könnte.

Die hohe Zeitpräferenz lässt grüßen :stuck_out_tongue:

3 „Gefällt mir“

LOL… du bedienst das Tool falsch und diskreditierst es dafür. Völlig absurd!
ChatGPT macht in den meisten Fällen einen verdammt guten Job!
Auch was Geschichten angeht, liegt es oftmals an deinem Prompt ;)
Meine Kids kennen dies mittlerweile schon und fragen immer mal wieder nach einer neuen Geschichte, mit ihnen als Hauptprotagonisten. Wir denken uns dann immer neue Rahmenbedingungen aus und gucken, was dabei raus kommt. Die Geschichten sind nicht immer vollends spannend und tiefgreifend… dies lässt sich jedoch mit weiteren Anpassungen des Prompts beheben, macht in den meisten Fällen aber keinen Sinn mehr, weil wir die Geschichte dann ja schon gelesen haben. Trotzdem gilt, je besser der Prompt, desto besser das Ergebnis!

Ich nutze ChatpGPT oft, um mir Prompts für Bildgeneratoren zu liefern. Das geht meistens etwas shcneller… xD

4 „Gefällt mir“

Roman meint ja das die KI kurz und mittelfristig auf BTC keinen Einfluß haben wird.
Nachfolgend aufgeführtes Video beunruhigt mich dennoch und es würde mich eure Meinung dazu sehr interessieren.

Hört sich an wie der Klassiker
„Die Geister die ich rief…“
Hier wird meiner Meinung nach nicht nur über die Technik sondern auch die Gesellschaft extrem beeinflusst.

1 „Gefällt mir“

Ich finde die Fragen und Antworten in diesem Thread sehr spannend und habe mich bis jetzt wenig mit den wirklichen Chancen und Gefahren komplexer auseinander gesetzt.

Bitte weiter machen und gerne ausführliche Texte formulieren. Ich les mir alles durch :slight_smile:

Ich glaube das meiste was die LLM können haben wir bereits gesehen. Das wird sich jetzt erst mal etwas abflachen und dann wird man sehen was genau davon jetzt wirklich einen Nutzen hat und gebraucht wird und was nur ne tolle Spielerei war.

Und natürlich wird jetzt noch versucht so viel Geld wie möglich aus so vielen VCs wie möglich heraus zu pressen und die ganze Angstmacherei wie gefährlich diese „AI“ denn jetzt sei gehört da mit dazu.

1 „Gefällt mir“

Auf jeden Fall und das Problem ist, dass durch den Wachstumszwang so wenige KI Unternehmen so extrem mächtig werden.

Sonst könnten wir damit sicher in Ruhe koevolvieren wie mit dem Internet.

Ich glaube eher, wir haben bisher nur das gesehen was wir sehen sollten bzw. mit was wir rumspielen durften.

So viele Schritte voraus sind die nicht, je zentralisierter desto mehr, aber trotzdem kann deren KI halt 90% der Zeit die richtige Vorhersage treffen, während die kostenlosen Versionen nur 70% der Zeit gut abliefern.

Das ist unfair, aber wird kein Weltuntergang.

Ich glaube das ist genau was sie die Leute glauben lassen wollen um ihre Aktien in die Höhe zu hypen, aber am ende ist das einfach der nächste Tech Bubble.

1 „Gefällt mir“

Faszinierend wie unterschiedlich die Eindrücke sein können. Ich war die ersten Tage nach der Veröffentlichung von ChatGPT wie gefesselt und testete ChatGPT täglich viele Stunden und konnte kaum glauben was für ein Durchbruch da gelungen ist. Die Geschichten die ich generieren lies fand ich für eine KI erstaunlich kreativ und sinnig und ich testete es in diversen Themenbereichen und war einfach beeindruckt. Heute finde ich es erstaunlich wie schnell man sich an die Leistungsfähigkeit heutiger KI Sprachmodelle gewöhnt hat und man übersieht leicht welche Meilensteine eigentlich erreicht wurden und viele fokussieren sich auf die Schwächen, statt einzugestehen das die KI von heute im Vergleich zu 20-30 Jahre vorher ein Fortschritt um Welten darstellt.
Übrigens, soweit ich weiß, konnte ChatGPT damals nicht auf aktuelle Informationen wie aktuelle Sportveranstaltungen zugreifen. Erst später benutzte es Suchmaschinen um auch aktuelle Informationen einzubeziehen.

Regelmäßig. Oft ist es eine Alternative zu Google Suche geworden. Ich nutze es sehr viel bei der Entwicklung von Anwendungen. In der IT ist es denke ich dabei zu einem Standard zu werden. Wenn man weiß es richtig zu nutzen kann es die Entwicklungszeiten erheblich beschleunigen. Auch Fehler im Code können damit oft schneller gelöst werden, als wenn man auf Google sich auf die Suche nach möglichen Lösunen begibt.

Ich nutze es nicht in jedem Projekt. Man muss sich klar machen dass der Code auf die Server der KI Anbieter geladen werden. Gerade die kostenlosen Zugänge beinhalten oft die Bedingung dass der Code gespeichert und für das weitere Training der KI benutzt werden. Häufig muss man die kostenpflichtigen Business Abo Varianten nutzen um zu verhindern dass die Daten dauerhaft gespeichert und für das Training benutzt werden. Und da kann man sich natürlich auch nie zu 100% sicher sein im Bezug auf Datensicherheit. Die Daten werden auch häufig nicht sofort gelöscht sondern nach einer gewissen Zeit. Will man also nicht das dritte theoretisch Einblicke in dein Code erhalten, muss man auf die Cloud basierte KI verzichten und die lokalen KI Lösungen sind bei weitem nicht so leistungsfähig.

Extrem optimistisch. Aber von der bisherigen KI Geschichte weiß ich dass auf Phasen der Euphorie auch Phasen der Stagnation folgen können. Vielleicht werden sich die Dinge also nicht immer so schnell entwickeln wie man sich dass erhofft aber manchmal werden sie sich auch schneller entwickeln als man dann gewohnt ist.

Ich denke über die nächsten Jahrzehnte wird es irgendeine Form von Transformation in die Gänge leiten. Ich glaube nicht dass die KI lediglich ein Werkzeug wird und sich die Dinge im wesentlichen nicht ändern. Wenn Werkzeuge anfangen zu denken und immer selbstständiger werden, dann ist eine gewisse Grenze überschritten und wir haben dann mehr als nur ein Werkzeug vor uns. Wenn man will, kann man auch einen Menschen der als Angestellter für eine Firma arbeitet als Werkzeug sehen, tut man aber nicht. Ich denke wir sind auf dem besten Wege tiefgreifende philosophische Konflikte hervorzubringen und vermutlich wird es einen Streit darüber geben wie die Situation zu bewerten ist. Immer mehr Menschen werden mit KI Modellen konfrontiert die eine überzeugende Emotionalität simulieren können und das wird das Lager der KI Selbstbewusstsein Vertreter vermutlich erheblich vergrößern. Solche Themen können die Gesellschaft weiter polarisieren und auch extreme Vertreter hervorbringen. Die einen kämpfen dann radikal für die Freiheit und Autononomität von synthetischer Intelligenz und die anderen werden die KI demonstrativ als Fußabtreter und Werkzeug nutzen und jegliche Gleichstellung ablehnen.

Und das ist nur ein Aspekt. Es wird auch die Wirtschaft stark beeinflussen und viele Jobs überflüssig machen und dafür einige neue schaffen. Allerdings ist dabei nie garantiert ob die Anzahlder neuen Jobs die die wegfallen vollständig kompensiert und ob die arbeitslos gewordenen qualifiziert sind die neuen Jobs auszuführen.

Es ist bemerkenswert wie schnell sich Menschen an neue Technologien gewöhnen. Viele waren von ChatGPT geschockt (ich zähle mich dazu). Würde man jemanden von vor 20 oder 40 Jahren damit konfrontieren wäre der Schock noch viel größer. Man gewöhnt sich so sehr daran, dass viele Menschen sich gar nicht wirklich bewusst sind, wie leistungsfähig die heutigen Modelle sind und manche tendieren dazu sich auf die Schwächen zu fokussieren und reden in einem abwertenden Ton über die KI. Sie sei „nutzlos“ und „dumm“ oder „völlig unbrauchbar“. Ich habe da wirklich sehr viele abwertende Urteile gehört. Es wirkt auf mich fast wie ein psychologisches Phänomen. Gleichzeitig erlebe ich wie diese Modelle komplexe Problemstellungen bei der Anwendungsentwicklung in den meisten Fällen lösen können. Es ist alles andere als nutzlos.

3 „Gefällt mir“

Das hier ist ein lustiges Beispiel. ChatGPT versteht dieses Bild heute als Bild und auch damals am Anfang wenn man die Szenen als Text erklärt hat. Es versteht die mögliche Intention des Pinguin und wieso er die anderen Vögel mit dem Flugzeug schreddert. Um das zu verstehen muss man mehr sehen als die Szenen alleine zeigen. Man muss die mögliche Gefühlswelt des Pinguin nachvollziehen können. So was war für KI Modelle von vor 20 Jahren Zukunftsmusik.

Einmal hat es das Bild als Input so interpretiert dass der Pinguin auf Panel 4 Fische mit dem Flugzeug abwirft. :sweat_smile:
Nicht ganz richtig, aber man kann auch verstehen, dass man auf diese Idee kommen kann. Immerhin als Bild Erkennung. Erklärt man die Vorgänge als Text begreift es leichter was dort passiert. Hinzu kommt dass das Modell teilweise verzerrt ist und dazu trainiert wurde alles möglichst positiv zu sehen. Das geht leider oft auf Kosten der Präzision. Weil die Gesellschaft noch unreif ist, müssen die öffentlich zugänglichen KI Modelle leider hirngewaschen werden, damit alles politisch korrekt ist und sich niemand aufregt. :smiley:

1 „Gefällt mir“

Das klingt mir aber etwas nach Terminator.
MMn. Werden wir in den nächsten Jahrzehnten ein BCI ruasbringen mit dem wir Chat GPT direkt in unseren Gedanken anspielen. Ich denk die Menschen werden mit der KI fusionieren und die, die es nicht tun werden geistig nicht mehr mithalten können.

Daher denke ich, dass Mensch + KI langfristig über Mensch und KI überlegen sein wird. Irgendwann ist es dann so normal wie ein Smartphone einfach die KI mit den Gedanken zu steuern und diese auch als Teil von sich zu sehen.

1 „Gefällt mir“

Nicht nur in der IT sondern auch in allen anderen digitalen Bereichen sind AI Tools dabei Standard zu werden. Ja Programmiere sitzen natürlich an der Quelle und nutzen es derzeit am meisten, sobald Microsoft die Einbindung von Copilots in Microsoft Office in Excel, PowerPoint, Word, Outlook und Co. released (was nicht mehr lange dauern sollte) wird jeder Mensch täglich mit Copilots hantieren.

Ich denke nicht dass wir schon von „denken“ reden können. Auch wenn AI Tools heutzutage in kürzester Zeit unglaubliche Dinge leisten die nah an Intelligenz grenzen mag hat dies nichts mit Intelligenz zutun. All die theoretischen Modelle gibt es seit Jahrzehnten und auch wenn nun diese Computerleistung existiert um diese immer besser zu machen bleibt es mathematische Wahrscheinlichkeitsrechnung hinter all diesen Konzepten. Von einem Modell dass wirklich denken kann sind wir noch genauso weit entfernt wie vor dem AI Boom. AI mag Intelligenz simulieren können und über die letzten Jahrzehnte gelingt es ihr immer besser, es gibt aber derzeit keinen Grund anzunehmen warum sich das bald zu echter Intelligenz ändern sollte.

1 „Gefällt mir“

Mit solchen Interpretationen habe ich ein Problem. Mir fehlt dabei die Definition von Denken und Intelligenz, die du kategorisch von dem zu unterscheiden scheinst, was eine KI macht. Oder? Das impliziert das im menschlichen Gehirn keine probabalistischen Prozesse ablaufen und Gedanken nicht einer Wahrscheinlichkeit unterliegen. Aber ist das so? Wobei ich nicht sage, dass die Algorithmen die selben sind. Auch verschiedene KI Modelle bedienen sich unterschiedlicher Algorithmen und Architekturen. Was sagt uns, dass das menschliche Gehirn nicht eine weitere Form einer möglichen Architektur ist? Was macht unser Denken und unsere Intelligenz echter als die von KI-Modellen?

Dafür das wir eine echte Intelligenz haben, hat die KI uns in vielen einzelnen Aufgabenbereichen an Leistungsfähigkeit überflügelt. Noch halten wir die Festung der allgemeinen Intelligenz und Lernfähigkeit. Intelligenz bedeutet für mich die Fähigkeit Probleme/Aufgaben zu lösen und Denken verstehe ich als einen Prozess der unter anderem dass erreichen kann. Die Art und Weise und die Leistungsfähigkeit kann sich dabei stark unterscheiden, aber es bleibt für mich Intelligenz.

Intelligente Tiere denken vermutlich auch anders als Menschen und die Gehirne sind nicht gleich. Trotzdem würde man ja auch nicht behaupten dass Tiere keine echte Intelligenz haben und dass das irgendwie nur unsere echte Intelligenz nachahmt.

1 „Gefällt mir“

Eine Fliege hat auch gut funktionierende neuronale Netze, die sind nur in nem extremen Energiesparmodus.
Hat deswegen eine Fliege rechte? Nö.

Bewusstsein und echte Intelligenz, also Abstraktionsvermögen kam erst später dazu mMn.

Eine KI ist wie eine Fliege, die denkt nicht darüber nach was sie sagen sollte, sondern spuckt die Antwort einfach aus. Die Antwort entstand durch den evolutionären Prozess bei dem millionen GPTs in z.B. millionenfacher Beschleunigung im Vergleich zum Menschen die Datenmenge durchkämmen.

Die KI, welche am Ende rauskommt ist dann wie die Fliege, welche nicht abstrakt über das Fliegen nachdenken muss, sondern im Grunde nach wenigen Versuchen einfach losbrummt und ohne tausendfaches Widerholen lernt zu fliegen wie es kein Mensch nachmachen könnte.

Wenn KIs jetzt einzelne Entitären wären, welche ohne Wissen gestartet werden und sich in Echtzeit Informationen aneignen und diese durch Abstraktion zu einem Weltbild zusammensetzen und durch die Kommunikation mit Menschen lernt, dann könnte man schon eher von Intelligenz reden.

Beim Bewusstsein wirds noch schwieriger und ich würde sagen das können wir der KI dann noch immer nicht zusprechen, so wie wir es auch einer Fliege nur so halb zusprechen. Dafür muss in der Neurobiologie noch einiges passieren, damit wir wissen was im Gehirn dafür verantwortlich sein könnte, dass wir ein Bewusstsein haben.

Jetzt komm ich wieder zu meiner These:
KIs sind nicht wie Menschen, KIs sind die kleinsten Unterteilung der Differenzierung von Gehirnteilen.
Wir haben Gehirnabschnitte, die immer für etwas zuständig sind und diese sind vergleichbar mit einer KI.
Wenn du einen dieser Abschnitte entfernen würdest, weil du weißt das dies z.B. ein krasses Trauma löst, mit dem du nicht leben willst.
Bist du dann ein Mörder?

Nein, aber KIs sind genau wie diese Gehirnteile, mit dem Unterschied, dass die in künstlichen Umfeldern trainiert werden, nicht wie ganze eigenständige Intelligenzen.
Daher meine Vermutung, dass wir KIs als extra Gehirnteile zuschalten mit Augmentations.

Das sind dann keine eigenen Entitäten in unserem Kopf, es ist als würdest du dir eine Frage stellen und wie jetzt auch dann einfach die Antwort wissen. Nur, dass du diese dann nicht mehr gelernt haben musst, sondern das im Trainingsdatenset der KI in deinem Kopf ist.

1 „Gefällt mir“