Deep Fake für Alle?

Auch wenn ich nicht zu Paranoia neige bekommt „Don’t trust, verify!“ eine steigende Bedeutung, oder?

Sora zeigt, was bei Deep Fakes noch auf uns zukommen kann.

Positiv verwendet, super cool, negativ verwendet katastrophal, würde ich behaupten.

Was denkt ihr?

Unpopular opponion: Menschen wurden schon immer in den Medien zu einem gewissen Prozentsatz belogen. Daran ändert sich jetzt nichts.

Schon im alten Griechenland konnte man sich nicht auf die Meldungen verlassen und das hat sich glaube ich nie geändert.

„Beweise“ werden als Propaganda oder Fake News abgestempelt.

Die Leute, die heute Angst haben, dass man dann „gar nichts mehr glauben kann“, werden sich weiter auf bestimmte Medien verlassen, von denen sie heute ohne ai schon verarscht werden. Etwas übertrieben formuliert.

Dabei meine ich nicht explizit den ÖR, es gibt genug Medien, die Mist weitergeben. Fiat Anreize halt :wink:

8 „Gefällt mir“

Ich bin Fan davon, alles logisch zu hinterfragen, aber das mag und/oder kann nicht jede/r.

Menschen werden eh immer nur das glauben, was in ihr Weltbild passt. Es gilt immer: wer zu viel glaubt ist anfällig für Fakenews und wer zu wenig glaubt macht sich Resistent gegen Fortschritt.

Gegen Fakenews kann man sich nur und ausschließlich auf den eigenen gesunden Menschenverstand verlassen, also alles, was man mit den eigenen Sensoren erfahrbar macht kann geglaubt werden. Von all diesen Informationen bildet sich jeder ein Modell der Realität, sein eigenes Weltbild.

Und wie gut dieses Modell der Realität von der wirklichen Realität übereinstimmt, danach richtet es sich, wie gut der Mensch mit seinem Leben zureicht kommt. Oder anders gesagt: Wer ein katastrophal unterschiedliches Weltbild gegenüber der Realität hat bekommt Probleme weil sein Weltbild falsche vorhersagen der Realität vorgibt, aber die Realität am Ende immer passieren wird. Wer also ein falsches oder ein richtiges Weltbild hat kann man nicht sagen, aber die Natur sortiert knallhart aus: Diejenigen, deren Modell am besten die Realität abbildet haben Vorteile im Leben und können sich somit evolutionär, auch innerhalb der Menschheit besser durchsetzen.

5 „Gefällt mir“

Schön wär’s. In Wirklichkeit sind aber Bildung und Kinderreichtum antikorreliert.

1 „Gefällt mir“

Ich finde diese deep fake Geschichten überbewertet. Ich sehe darin keine echte Gefahr. Es wird immer nur darüber geredet aber wirklich großen Schaden hat es bisher nirgends angerichtet und nach und nach werden die Menschen sich dran gewöhnen, dass man nicht allem was echt aussieht sofort vertrauen darf.

Ich finde durch solche Diskussionen über die Gefahren geht teilweise verloren was Sora eigentlich wirklich leistet. Das Detailreichtum der generierten Welten ist teilweise enorm. Und man muss sich klar machen was da wirklich passiert. Es simuliert die Realität. Die Bewegungen der Objekte und Lebewesen in den Videos sind komplex und das alles muss nach komplexen Regeln erzeugt werden. Es simuliert auch die Bewegung von Flüssigkeiten und Schwärmen/Teilchen.

Sora zeigt das generative AIs ein enormes Potenzial für Simulationen besitzen. Noch ein paar Jahrzehnte, was sehen wir dann? Die Matrix kommt näher. :smiley:

2 „Gefällt mir“

Ich sehe da keinen Widerspruch. Man muss nicht gebildet sein, wenn man Kinder haben will. Man muss nicht die Quantenmechanik verstehen und durchrechnen wenn man einen Fuß vor den Anderen setzt, es reicht wenn man aus den Erfahrungen abschätzen kann, wie man seine Füße zum Laufen setzen muss. Ehr im Gegenteil: Wer jedesmal für die Bewegung diese hochkomplexen Berechnungen durchführen muss wie ein schlecht programmierter Roboter, der verbraucht für das Laufen deutlich mehr Energie als diejenigen, die das Laufen einfach gut abschätzen können.

EDIT: Oder ein anderes Beispiel: Für einen Fußballspieler, ein Fußballfan oder einem Quismaster ist es sehr relevant, wer wann vor 20 Jahren irgend ein Tor in irgend einem wichtigem Spiel geschossen hat. Es ist wichtig für diese Leute weil ihr Umfeld, also ein Teil ihres Weltbildes davon abhängt dass sie das wissen um mit ihren Freunden darüber diskutieren können. Aber einen Mathematikstudenten oder einen Physikstudenten interessiert dieses Wissen meist nicht wirklich. Und das liegt daran dass das Umfeld von diesen Menschen das Wissen nicht erfordert und das Wissen somit schlecht bewertet wird. Aber beide Weltbilder sind nicht einfach falsch weil beide Weltbilder für die jeweiligen Menschen ihre eigenen Vorteile bringen.

Wenn es also nur nach der Reproduktion der Menschen geht, dann haben die Kinderreichen Familien doch alles richtig gemacht, den ansonsten würden sie die Kinder nicht bekommen und ernähren können. Für sich haben diese also das richtige Weltbild. Einer Kinderreichen Familie ist genauso wenig gedient wenn sie jeden Mist mitmachen und dabei sterben. Auch diese Familien streben nach dem Leben und ihr Weltbild ist ausreichend um das Leben zu gewährleisten.

Was ich aber meine ist, dass Andere, die Forschen und tiefere Einblicke erlangen, die haben wegen ihrem Verständnis über die Welt einen Vorteil. Natürlich können diese den Vorteil für sich nutzen oder allen Menschen davon erzählen sodass diese den Vorteil auch bekommen.

Deine Aussage mag also stimmen, dass Bildung mit Kinderreichtum vielleicht antikorrelieren, aber diese Aussage widerspricht in keinster weise die Aussage, dass das beste Modell der Realität auch die besten Vorteile bringt. Das beste Modell ist nicht immer das detaillierteste Modell weil auch der Energieaufwand, dieses Modell zu berechnen und Vorhersagen zu treffen berücksichtigt werden muss. Das Beste Modell ist das, welches möglichst genaue Vorhersagen trifft bei gleichzeitig möglichst niedrigem Energieaufwand. Ein Modell, das immer falsch liegt ist genauso unbrauchbar wie ein Modell, das immer richtig liegt aber Jahre für die Berechnung benötigt oder mehrere Atomkraftwerke an Energie verschlingt.

Ich finde auch, dass KI zu sehr negativ gesehen wird oder überhyped wird. KI macht nichts anderes als Menschliche Entscheidungsprozesse zu simulieren. Also dass ein komplexes System genommen wird, in dem wegen der komplexität nahezu zufällige Prozesse ablaufen und aus diesem Zufall durch Änderung der Gewichte mehr oder weniger sinnvolle Ergebnisse zu erziehen. Der Unterschied zwischen einer KI und einem Menschen ist also nicht allzu groß und KI wird auch in Zukunft nicht übermenschliches vollbringen, nur die möglichen Gedanken beschleunigen.

Auf der anderen Seite muss man aber auch sehen, dass KI wie Menschen wegen den Zufälligen Prozessen immer Fehler machen werden. Denn der Zufall im Entscheidungsprozess einer KI unterscheidet eine KI von normalen Algorithmen. Algorithmen sind meist deterministisch sofern nicht extra ein Zufallsprozess mit eingebaut wurde. Mit Algorithmen kann man also nahezu 100% nachvollziehbare Ergebnisse erzielen was mit einer KI nicht möglich ist. Eine KI mag vielleicht 99,99% richtig liegen aber sie wird nie 100% erreichen können. Und das macht KI für einige Anwendungen wie z.B. Tabellenkalkulation unbrauchbar, weil man sich dann nie sicher sein kann, dass das Ergebnis wirklich stimmt. Für andere Anwendungen, die Kreativität und Zufall benötigen wie z.B. Bilder mahlen oder Texte schreiben sind Kis also hervorragend geeignet aber für alles was exakt sein muss höchst ungeeignet.

1 „Gefällt mir“

Aber sie widerspricht der Aussage, dass diese Vorteile zu einer evolutionären Durchsetzung innerhalb der Menschheit führen würden.

1 „Gefällt mir“

Ich finde es sehr spannend darüber nachzudenken wie sich die Wahrnehmung von dem Output dieser KIs mittel bis langfristig entwickelt.

Im Moment tut sich halt recht viel, und die Modelle werden quasi mit allen Daten gefüttert die sich dich Menschheit bis jetzt angesammelt hat. Aber irgendwann ist ja das dann auch erschöpft.

Wenn man diese Tools ein wenig braucht dann merkt man recht schnell dass der Output immer ein wenig ähnlich ist. Irgendwann bekommt man ein Gefühl dafür was das Ding ausspuckt. Texte fühlen sich ähnlich an, Gesichter sind ähnlich, etc. Aber natürlich gibt es immer wieder neue Modelle und die spucken dann wieder etwas aus was sich anders anfühlt.

Und ich frage mich was passiert wenn diese Tools jetzt plötzlich benutzt werden um einen Grossteil der Bilder, Texte, Videos etc zu produzieren, dann werden die ja irgendwann wieder in die neuen Modelle verfüttert. Wird das Problem dann schlimmer?

Ich glaube die effektiven Grenzen dieser Modelle wird sich erst in den nächsten Jahren herausstellen und damit auch wozu die denn effektiv nützlich sind.

2 „Gefällt mir“

Leider (oder zum Glück?) nicht alles. Überwiegend nur freie Inhalte oder frei zugängliche Inhalte. Das heißt viele Millionen von Büchern, Videos und Musik sind nicht Teil des Trainings. Nutzungsrechte stehen dem im Weg. Die New York Times hat Microsoft und OpenAI sogar verklagt, weil sie ihre Artikel benutzt haben sollen.
Ich sehe das lockerer. Ich finde es verletzt keine Nutzungsrechte wenn jemand die Inhalte legal erwirbt und damit eine KI trainiert. Wenn Menschen sich geschützte Inhalte ansehen und sich davon inspriieren lassen ist das ja auch kein Verstoß gegen das Uhrheberrecht. Wieso sollte eine KI damit nicht trainiert werden dürfen?

Im Prinzip kein Problem denke ich. Menschen erschaffen auch Content und das wiederum inspiriert Menschen erneut für neuen Content. Und ja, auch Menschen tendieren dabei teilweise immer den selben Scheiß zu produzieren :smiley:

1 „Gefällt mir“

Man muss Neuronale Netze ja auch nicht überall nutzen. Interessant ist aber dass man es trotzdem sehr oft tut und es in bestimmten Situationen auch zuverlässiger ist. Zumindest wenn es um die Neuronalen Netze von menschlichen Gehirnen geht :smiley:
Da hat man keine Probleme dass ein Mensch ein Flugzeug steuert und sogar im Notfall den Flug vollständig übernimmt. Das hat dann aber damit zu tun dass der Mensch in komplexen Situationen mehr sieht als der Autopilot. Der Autopilot kann nur mit einer Menge von einprogrammierten Situationen umgehen, während der Mensch auf ungewöhnliche Situationen reagieren kann. Da kann die KI durchaus eine Ergänzung sein, aber da muss wohl schon praktisch das Niveau einer starken KI erreicht werden, damit dann ein solches System mindestens genau so zuverlässig und flexible ist wie ein Mensch.

1 „Gefällt mir“

Warum sollte das der Evolution widersprechen? Was ist für dich Evolution? Biologisch gesehen ist das lediglich eine Anpassung an seine Umgebung durch Variation wo sich die besten durchsetzen. Und diese Variation ist eben in deinem Fall entweder mehr Kinder haben oder Forschen. Logisch begründet weil man meist nicht genug Zeit hat um beides tiefgründig zu machen/ zu haben.

Aber wo ist da ein Widerspruch? Ich meine wir kennen die Zukunft nicht und wer weiß ob sich diejenigen durchsetzen, die mehr Kinder haben oder diejenigen, die Forschen und die Anderen dann durch mächtigere Waffen beherrschen?

Viele Insektenarten setzen z.B. auf Masse statt Klasse, die Menschen können sich entscheiden wobei die Menschen, die ehr auf Kinder setzen durch technologischen Fortschritt der Anderen trotzdem profitieren. Die Menschen machen also durch Arbeitsteilung meistens sogar beides. Und das ist die Evolution, nicht einfach nur über ein Individuum.

Stell dir mal einen Forscher vor wie Einstein. Dieser muss keine Kinder haben um in der Gesellschaft unsterblich verankert zu sein. Er muss seine Gene nicht weiter geben und trotzdem wird über lange Zeit, vielleicht sogar für Immer sein Name in den Geschichtsbüchern stehen.

Also ich sehe dar gar keinen evolutionären Widerspruch, aber vielleicht haben wir wie gesagt andere Definitionen.

Edit: Ich hab oben mal noch ein weiters Beispiel mit eingefügt:

Oder ein anderes Beispiel: Für einen Fußballspieler, ein Fußballfan oder einem Quismaster ist es sehr relevant, wer wann vor 20 Jahren irgend ein Tor in irgend einem wichtigem Spiel geschossen hat. Es ist wichtig für diese Leute weil ihr Umfeld, also ein Teil ihres Weltbildes davon abhängt dass sie das wissen um mit ihren Freunden darüber diskutieren können. Aber einen Mathematikstudenten oder einen Physikstudenten interessiert dieses Wissen meist nicht wirklich. Und das liegt daran dass das Umfeld von diesen Menschen das Wissen nicht erfordert und das Wissen somit schlecht bewertet wird. Aber beide Weltbilder sind nicht einfach falsch weil beide Weltbilder für die jeweiligen Menschen ihre eigenen Vorteile bringen.

Klingt nach dem natürlichen Prinzip in Zeiten der Hungersnot können drei Kinder verfüttert werden, dann verhungern die Beiden anderen hoffentlich nicht mehr.

Will sagen die Natur hat manchmal recht mit Grausamkeit, dennoch können wir Menschen mit vorausgehender Planung evtl. die Grausamkeit verhindern ohne z.B. Verhungern in Kauf nehmen zu müssen.

Der neue Maßstab :face_with_hand_over_mouth:

Tatsächlich kann eine KI auswendig lernen, wenn die KI mehr Neuronen als Datenpunkte hat die es zu verstehen gilt.
Leider wird die KI mit diesen 100% völlig nutzlos, auch ‚overfitting‘ genannt, denn sobald sich jetzt das Bezugssystems egal wie minimalst ändert die KI fast keine korrekten Vorhersagen mehr trifft.

Das liegt daran, dass KI gut ist, um Fraktale anzunähern. Aber wenn ein einziges Bild reicht, dann passiert dieser Annäherungsprozess nicht.
Dieser Annäherungsprozess gibt der KI allerdings die Möglichkeit Kreativ zu werden und durch die Annäherung selbst ähnliche Muster auszuspucken und wegen der Fraktalität ist der Kreativität keine Grenzen gesetzt.

Zu den Sorgen, dass durch immer schnellere Deepfakes alle getäuscht werden:
Wenn Propaganda produziert werden sollte, konnten schon immer leichtgläubige Menschen beeinflusst werden, aber es ist für die Glaubwürdigkeit ein großer Schlag wenn man dabei erwischt wird.
In Zukunft kann die Echtheit mit einer Deepfakeerkennungs-KI in Sekunden nachgewiesen werden, also gleiches Prinzip wie bisher im digitalen Zeitalter, nur beschleunigt und komplexer.

Ich denke Bucceroni sieht es nicht auf so einer großen Zeitskala, wahrscheinlich da die Menschen eben nicht mal schnell ne million Jahre durchemergieren, sondern wir jetzt in der kompletten Änderung aller Lebensbedinungen in wenigsten Generationen stecken und bis wir immer mehr an der DNA spielen wird sich bis dahin evolutionär keine DNA so isolieren, dass die Evolution noch sonderlich greift für die Menschheit.

Genau, es können Einsteins Gene jederzeit rekonstruiert werden, ja selbst neuronale Strukturen von Albert sind konserviert. Also muss er sich nicht fortpflanzen, wenn er ein Intelligenzgen hätte würde das z.B. in hundert Jahren entdeckt werden könnte es gut sein, dass in wenigen hundert Jahren alle Menschen dieses Gen haben, weil keiner mehr auf Genanpassung verzichten kann, wenn sich Augmentierung schon längst etabliert hat.

1 „Gefällt mir“

Der Evolution widerspricht es natürlich nicht. Nur deiner Behauptung, dass sich Menschen mit realistischeren Vorstellungen innerhalb der Spezies evolutionär durchsetzen würden.

Die, die mehr Kinder haben, natürlich.

Für einen nachhaltigen Fortbestand der Menschheit als Ganzes wäre vermutlich mehr Bildung nützlicher als mehr Kinder, aber deine ursrpüngliche Behauptung bezog sich auf die Evolution innerhalb der Menschheit.

Tut mir leid @Bucceroni aber solange du keine Argumente lieferst sondern lediglich bewertete Meinung kann ich nicht nachvollziehen, warum du mir wiedersprichst :woman_shrugging:

Ist das denn wirklich so in Stein gemeizelt sicher? Warum sollten sich nicht die Forscher durchsetzen, die mit zwei Kindern pro Frau lange genug leben um nicht als Spezies sofort auszusterben? Welchen Vorteil haben Länder mit 7 Kinder pro Frau?

Ein gutes Video über Sora, welches die technischen Aspekte und weniger bekannte Fähigkeiten erwähnt. Unter anderem wird klar das Modelle wie Sora implizit lernen. Es hat beispielsweise gelernt verschiedene Arten von Partikelsimulationen durchzuführen wie die Bewegung von Flüssigkeiten, Staub, Sand, Schnee usw.
Ziemlich cool ist auch das Sora echte Videos bearbeiten kann. Man kann die komplette Umgebung der Aufnahmen verändern. Noch nie waren Spezialeffekte so einfach zu realisieren. Die noch bestehenden Schwächen werden aber auch gezeigt. Ähnlich wie bei ChatGPT ist nicht jede Ausgabe befriedigend und hängt auch sehr von der Rechenkapazität ab. Weiß aber auch nicht warum sich da manche so drauf versteifen und manchmal mit einem aggressiven Ton von der dummen KI reden. Gut das diese KI Modelle keine Gefühle haben. :smiley:

1 „Gefällt mir“

Vermutlich aufgrund der AGI Angst, die gern geschürt wird.
Also die KI kann immer mehr nachahmen, aber ist dennoch weit von menschlicher Intelligenz entfernt, diese hat nur wesentlich weniger Rechenkapazität für die selben Aufgaben zur Verfügung.

Die menschliche Intelligenz hat viele Facetten, wie z. B. die emotionale Intelligenz. Auch wenn diese zwingend einen biologischen Körper voraussetzt, so lassen sich doch immer wieder Parallelen herstellen für eine Maschine, denn es geht meist um Feedback-Rückmelde-Schleifen. Mit seiner Komplexität (wieviel Billionen Zellen waren das noch mal?) ist der Mensch der Maschine zwar noch allgemein voraus, aber in Spezialgebieten verhält es sich vermultich wie bei anderen Spezies dieses Planeten: die können besser sehen, riechen, hören, schmecken und vielleicht sogar denken als wir Menschen. Nichts desto trotz ist der Mensch (noch) die dominante Spezies auf der Erde :slight_smile:

Jetzt überleg mal, warum der Mensch sich evolutionär durchgesetzt hat. Er kann im Vergleich mit der Natur nicht so gut fliegen, laufen/rennen, lasten tragen, klettern schwimmen usw. In allem ist der Mensch nur durchschnittlich und man wird immer eine Tierart finden, die in einem Gebiet besser ist als ein Mensch.

Menschen haben sich durchgesetzt, weil sie alles durchschnittlich gut können. Damit sind sie am Anpassungsfähigsten auf der Erde gewesen, in den heißen Wüsten genauso wie in den arktischen Kälten und überall dazwischen. Genauso wie eine CPU sich durchgesetzt hat weil spezialisiertere Schaltkreise eben zwar sehr gut und sehr schnell arbeiten, aber eben nicht alles können. Wenn ein Gerät wie ein Radio nur den speziellen Schaltkreis hat, dann kann man es auch nur und ausschließlich für diesen Zweck verwenden. Hat ein Gerät aber eine CPU, dann kann man es umprogrammieren und bei Bedarf seine Funktion ändern.

Es reicht also nicht einfach nur aus, in einem Fachgebiet extrem gut zu sein, man muss auch andere Fachgebiete gut genug beherrschen um sich anpassen zu können.

3 „Gefällt mir“

Ich finde die Überlegung spannend, was geschieht, wenn nicht „man“ es verängert, sondern es sich selbst aufgrund von Feedback aus externen Sensoreninformationen…

1 „Gefällt mir“