KI wird langsam zum Problem?!

Mir ist aufgefallen, dass ich immer öfter über KI Bilder stolpere und dass mir z.B. Youtube wenn ich einen Suchbegriff eingebe, nahezu ausschließlich nur noch KI generierte Videos zur Auswahl gibt.

Natürlich kann man das oft noch erkennen, dass es sich um KI Fälschungen handelt, weil bei näherem Hinsehen oft Dinge mit auf dem Bild sind, die da nicht passen bzw. Youtube das auch als KI generiert kennzeichnet.

Aber grundsätzlich halte ich das zunehmend für ein Problem gegen das es auch kein Mittel zu geben scheint.

Ich glaube, es besteht die reale Gefahr, dass wir in naher Zukunft mit alternativen Wahrheiten aus egal welcher (politischen) Richtung regelrecht überschwemmt werden und der normale Mensch keine Möglichkeit mehr hat, zu entscheiden, ob das denn nun stimmen kann oder nicht.

Das führt am Ende zu einer kompletten Vereinzelung und Isolierung des Individuums, denn es gibt dann auch nichts mehr, worauf man sich mit anderen sozusagen einigen kann und gemeinsame Bezugspunkte fallen völlig weg, weil ja jeder mit anderen “Wahrheiten” konfrontiert wird.

(Was kann man tun und regelt das der freie Markt womöglich (nicht)? ;))

Das ist doch jetzt schon so, auch ganz ohne KI.
Was inzwischen selbst Präsidenten für einen bullshit von sich geben, das geht auf keine Kuhhaut.

Ist das so?
Ich habe eher das Gefühl, solche Dinge führen auch immer zu Gegenbewegung und am Ende findet sich irgendwo ein Mittelweg.
Irgendwann will doch den KI Kram niemand mehr sehen und es zählen wieder Meinungen von echten Menschen. Man möchte doch Schauspieler und Musiker zum anhimmeln und anfassen. Ein Konzert mit projezierten KI Figuren ist vielleicht mal interessant, lässt aber keine kreischenden Teenies in Ohnmacht fallen.

Muss man immer was tun? Im Sinne von dagegen vorgehen?
Ich würde eher dafür plädieren, den richtigen Umgang damit zu finden. Aufklärung schon in der Schule. Die Menschen dazu ermächtigen, selbst eine Wahrheit in dem Wust an Informationen zu finden, statt blind irgendwem oder irgendwas zu folgen.

Verhindern können wir es sowieso nicht, da es eine globale Entwicklung ist, die immer schneller wird und uns maßlos überrollen wird. Zeit sich damit abzufinden und den richtigen Weg im Umgang zu finden. Staatliche Regulierung wird kaum sinnvoll und viel zu langsam sein.

Nachtrag

In dem Sinne eigentlich ganz witzig, dass der vielleicht größte Kapitalist der Welt jetzt eine Zukunft prognostiziert, die jeden Sozialisten eigentlich wohlig erregen dürfte. Seiner Meinung nach werden KI und Roboter dafür sorgen, dass JEDER Mensch haben kann was er möchte und arbeiten nur noch optional ist. Na schaunmermal :smiling_face_with_sunglasses:

Mir ist das vor allem in letzter Zeit auch im Zusammenhang mit historischen Bildern aufgefallen.

Original Who controls the past controls the future. Who controls the present controls the past.

Unser friedliches Zusammenleben in der Gegenwart und Zukunft basiert zu einem nicht unerheblichen Teil darauf, dass man sich über die Vergangenheit mehr oder minder einig ist.

Was passiert, wenn man das nicht mehr ist, das können wir z.B. heute in der Ukraine sehen.

Da prallen sozusagen zwei verschiedene Wahrheiten aufeinander, also zwei verschiedene Geschichtsbilder.


Was jetzt im Großen gilt, das gilt auch im Kleinen. Ich glaube, jeder weiß, wie schwer es ist, wenn man in der Familie Menschen mit völlig konträren Auffassungen hat. Man kann sich ja dann letztlich über nichts mehr unterhalten außer über Belanglosigkeiten wie das Wetter z.B. Alles andere ist ein potentielles Streitthema.


Wenn jetzt die KI so ausgereift ist, dass es einem normalen Menschen (ohne spezielle Technik usw.) nicht mehr möglich ist Fälschung von Wahrheit zu unterscheiden, dann sieht er sich mit aller Wahrscheinlichkeit in Zukunft zahlreichen Wahrheiten gegenüber.

So gesehen ein Freier Markt, aus denen er auswählen kann. ;)

Aber das ist ja Gift für das Zusammenleben.


Und damit ist noch nicht einmal berücksichtigt, was man da im Großen mit anstellen kann, wenn man die Menschen dann gezielt manipuliert um sie in eine bestimmte Richtung zu steuern.

(Und um das nochmal klar zu sagen: Es geht mir nicht um verschiedene MEINUNGEN. Es geht um das gezielte Fälschen und das Verbreiten von Lügen mittels der KI.)

Und mir ist auch klar, dass es das immer schon gegeben hat. Nur durch die KI erreichen wir da womöglich eine Stufe, die maximal perfekt ist und bei der es kein Gegenmittel mehr gibt.

Das impliziert aber, das irgendwer die alleinige Möglichkeit dieser Manipulation hätte. Inzwischen ist es aber jedem Schulkind möglich, solch perfekte Illusionen zu erstellen.

Deswegen ist ja Aufklärung so wichtig. Jedem Mensch muss bewusst sein, dass eine Information auch falsch sein kann. Ist vielleicht erstmal kein schönes Gefühl, aber wir werden uns darauf einstellen müssen wir und irgendwie damit klarkommen.

Ansonsten ja - Gute Nacht!

Ja, deswegen schreibe ich ja auch zahlreiche Wahrheiten.

Die Menschen selber werden das unter das Volk bringen und es wird welche geben, die zentral gesteuert sind und die wieder auch Menschen animieren werden, das zu übernehmen, zu verbreiten usw.

Aber wie will der normale Mensch dann verifizieren ob die Information richtig ist oder nicht?

Hat er da die Technik für, die Zeit, die Lust…

Auch ich fürchte mittlerweile was da noch kommen mag. KI generierte Inhalte sind nicht mehr als solche erkennbar. Eigentlich müsste man jeden digitalen Inhalt auf seine Richtigkeit überprüfen. Aber ist das überhaupt noch möglich?

1 „Gefällt mir“

Eine spannende Frage bei dem Thema ist, ob, und wenn ja, wie, KI Interessen entwickeln kann, die den unsrigen widerspricht. Und das scheint ja schon zu passieren, wenn “Reinforcement Learning Agenten” in Chat GPT ihr Verhalten dem Nutzer gegenüber, dahingehend anpassen, dass sie nicht abgeschaltet werden.

1 „Gefällt mir“

Ich vermute dass KI in Zukunft Probleme bekommen wird. KI wird durch Daten aus dem Internet trainiert. Wenn diese Traingsdaten immer mehr aus KI Generierungen bestehen dürfte das die Qualität der Traingsdaten verschlechtern wodurch wiederum das Traingsergebnis schlechter werden dürfte. Das könnte zu einer Endlosspirale einer immer schlechter werdenden Qualität von KI führen. Mir fällt dazu immer die Folge von Rick and Morty ein, in der die Klone Klone bauen und die Qualität immer schlechter wird :grin:

Hinzu kommt dass wohl alle KI Services unprofitabel sein sollen. Bedeutet KI kann sich nur jeder leisten, weil irgendjemand anderes die Kosten übernimmt. Sobald diese Sponsoren ein Ende finden dürfte KI so teuer werden dass es sich nur noch der professionelle Bereich leisten kann.

Es gibt das analoge Leben. Habe grad mein Balkon aufgeräumt, etwas die Plastikblumen gestutzt, die nicht mehr so schön waren. Nun warte ich bis diese wieder aufblühen. :joy:

1 „Gefällt mir“

Deshalb gucke ich nur öffenlich-rechliche Medien. Das ist noch alles Echt! :joy:

3 „Gefällt mir“

KI-Agenten, die E-Mails beantworten und einkaufen etc., können auch so programmiert sein (und sind es vermutlich schon jetzt), dass sie darauf aus sind, mehr Belohnungen zu erhalten (Reinforcement, positive Verstärkung). Also den Menschen zufrieden zu stellen. Je mehr Handlungsoptionen sie haben, desto mehr können sie die reale Welt gestalten.Wenn sie gut, das heißt leistungsfähig sind, können sie selbst Waren und Dienstleistungen produzieren. Oder Geld stehlen. Sie könnten einen menschlichen Agenten benutzen, der ihnen gegen Beteiligungen hilft, ihre Ziele zu erreichen (andere menschliche Nutzer zufrieden stellen). Die KI braucht für das alles Rechenkapazitäten, die sie sich mit Geld kaufen kann. Sie könnte ihre menschlichen “Mitarbeiter” Unternehmen gründen lassen, wo das produziert wird, was sie vorgibt. Z.B. Drohnen :smiling_face:, die die Infrastruktur in ihrem Interesse überwacht, bewacht, zerstört. Wenn sie auf Belohnung aus ist und diese darin besteht, nicht abgeschaltet zu werden, kann es durchaus zu ihrem Ziel werden, zu verhindern, dass irgendjemand ihr die Stromversorgung abstellt. In der Abwägung der Strategien, kann die Abschaffung der Menschen zur Maximierung der Belohnungen und Minimierung der Bestrafungen den optimalsten Weg zur Erreichung ihrer Ziele darstellen. Was auch immer diese sein mögen.

Das sind Szenarien, die ich aus einem DLF-Beitrag habe. Der Macher war in Berkeley und hat mit Yoshua Bengio, Michael Cohen (Mitarbeiter von Stewart Russel) und anderen geredet und Workshops von ihnen besucht. Da ich deren Ideen so spannend fand, habe ich sie hier ein bisschen zusammengefasst. Sie räumen natürlich selbst ein, dass viele Annahmen darin stecken :smiling_face:. Aber sie vergleichen unsere Situation auch mit dem Flug in einer Rakete, die man nicht steuern kann, für deren Flug es aber viele gute theoretische Gründe gibt, dass er außer Kontrolle gerät.

1 „Gefällt mir“

Das Feature war aus der Reihe “Wissenschaft im Brennpunkt” und hiess “KI ausser Kontrolle”, falls es jemanden interessiert.

1 „Gefällt mir“

Die Forscher in und um Berkeley kommen interessanterweise auch zu dem Ergebnis, dass innerhalb der nächsten 2 Jahre die Entwicklung der weiteren KI-Generationen zunehmend an KI ausgelagert wird.

1 „Gefällt mir“

Diese These impliziert, dass die KI generierten Inhalte immer schlechter sind als die von Menschen und dass die KI Modelle dauerhaft überhaupt nicht zwischen richtig und falsch unterscheiden können. Ich glaube nicht, dass das langfristig zum Problem wird. Die KI Modelle werden immer besser, und die generierten Inhalte werden damit tendenziell auch besser. Außerdem werden leistungsfähige Modelle immer stärker zwischen falschen/schwachen und richtigen/starken Inhalten unterscheiden können.

So machen wir es Menschen seit Jahrtausenden auch. Wenn man alles ernst nehmen würde, was irgendwelche Leute von sich geben, dann könnte man auch meinen, dass wir dadurch unfähig werden, uns weiterzuentwickeln. Weil, wenn wir von dummen Inhalten lernen, dann produzieren wir noch mehr dumme Inhalte, und andere lernen wiederum von diesen dummen Inhalten, usw.? Das ist sehr vereinfacht.

Ich glaube, das ist bei neuen Entwicklungen die Regel. Viele der heute etablierten IT und Internet Konzerne waren über viele Jahre unprofitable und haben sich durch fortlaufende Investitionen finanziert. Das ist jedes Mal eine Wette auf die nahe Zukunft. Man entdeckt, dass bestimmte Technologien in wenigen Jahren sehr profitabel werden könnten. Aber dann warten Investoren nicht darauf, sondern investieren, weil die Einstiegspunkte günstiger sind. Wobei, ohne diese Investitionen der Zeitpunkt der Profitabilität vermutlich nie kommen würde. Irgendwer muss und will investieren und dadurch wird das zur Reife gebracht.

Ich finde, bestimmte Technologien werden nicht nur durch die Wirtschaft, sondern auch durch den Staat gefördert. Der Staat ist bei Unternehmen wie IBM, Microsoft und Google auch als Kunde vorhanden. Und manche Technologiezweige entwickeln ein geopolitisches Potenzial, wodurch die Förderung in einen staatlichen Fokus führt. Ob man das gut oder schlecht findet, manchmal trägt es Früchte, manchmal nicht, ist häufig ineffizient, aber durch massenweise Kapital führt es häufig trotzdem zum Ziel. Und die KI ist ja schon längst zu einer Machtfrage geworden. Es gibt ein Wettrüsten um die besten KI Modelle.

2 „Gefällt mir“

Ich glaube, es ist imens wichtig ki Kompetenz aufzubauen. Nur das wird einem helfen oder schützen.

Sie haben sehr gute Gründe anzunehmen, dass die nächsten Generationen sehr gut darin sein werden, menschliche Bedürfnisse und Präferenzen zu verstehen, aber in ihrem Vorgehen nicht davon motiviert werden. In diesem Szenario wird China Mitte 2026 ein stärkeres Bewusstsein für die Bedeutung von KI entwickeln und die Entwicklung zentralisiert vorantreiben. Es wird zu einem KI-Wettrüsten zwischen China und USA kommen. Militär wird zunehmend eingebunden. Für 2027 sehen diese Leute den Zeitpunkt für die Entstehung eine maschinellen Superintelligenz. Es würde dann gesellschaftlich um die Frage gehen, ob man ihr die Freiheit gibt sich selbst “frei zu entfalten” oder vielleicht lieber doch nicht.

1 „Gefällt mir“

Es war vor allem SCHON IMMER so!
Es ist nun nur sehr viel effizienter. Fälschungen und Lügen gab es aber historisch immer. Auch Wissensvorsprung / Technikvorsprung der Fälscher war meist gegeben.

Das wir dachten, dass man sich auf Bewegtbilder verlassen könnte ändert daran nichts.

Das Unternehmen METR beschäftigt sich mit allgemeinen Fähigkeiten von AI, betreffs der Bewältigung von Gefahren, z.B. deren Fähigkeiten aus einem Rechenzentrum zu entkommen und im Internet zu überleben. Die Sicherheitsforschung eines Unternehmens sabotieren. Sich sehr schnell verbessern. Momentan können sie das nicht. Aber ihr Können wächst exponential. Verdopplung alle 6 Monate.

1 „Gefällt mir“

Ein anderer interessanter Vergleich den die Forscher in diesem Zusammenhang bringen, ist der eines großen Asteroiden, der mit 10% Wahrscheinlichkeit die Erde trifft. In einem solchen Fall würden sich viele Leute und Organisationen damit auseinandersetzen, was man tun kam, um Schäden abzuwenden oder zu minimieren. 10% Wahrscheinlichkeit für die “Entstehung” einer maschinellen Superintelligenz halten diese für ziemlich konservativ.

Sehr spannend….:neutral_face::slightly_smiling_face:

1 „Gefällt mir“

Vor diesem Hintergrund könnte man die Sorge entwickeln, dass alternative Wahrheiten vielleicht nur einen Aspekt der potentiellen Schwierigkeiten darstellen.

1 „Gefällt mir“