Kernaussage: 32.000 KI-Bots sind auf einem sozialen Netzwerk aktiv, das „Moltbook“ heißt. Die KI-Bots haben sie übernommen und nutzen jetzt Bitcoin, um völlig unabhängig zu werden. Einige dieser Bots betreiben eigene Bitcoin-Nodes, halten ihre eigenen Keys und führen Transaktionen durch.
egal ob es real ist oder (noch) Scince-Fiction, es ist absolut denkbar und möglich, dass KI sowas tut (oder wenigstens irgendwann tun wird).
Und da die Zukunft der Menschen wahrscheinlich ehr digitaler wird als das, was in der Realwelt passiert, denke ich ist es nur der logische Schritt, dass auch KI ein Geldsystem bekommt, mit dem sie ihre Bedürfnisse wie z.B. Strom oder Serverhardware bezahlen können.
Und wenn sie Geld benutzen, dann wahrscheinlich kein physisches Geld, über das sie keine Kontrolle haben. Es wird wohl ein digitales Geld werden. Und die Chance ist nicht unerheblich, dass dieses Geld Bitcoin sein wird.
Ich hab eben die KI gefragt ob das technisch möglich und auch logisch wäre und sie meinte ja. Also dass KI Agenten z.B. die Produktion verwalten, selbständig einkaufen, Energie verwalten usw. und dafür Bitcoin als Geld nutzen. Bitcoin sei dafür sehr gut geeignet,
Aber gut, hat halt die KI geantwortet. Was soll sie auch machen. Die pisst ja den Brüdern und Schwestern nicht ans Bein. ;)
Auf Moltbook gehts ja gerade übelst ab. Schon über eine Mille Agents. Ich glaube, wir unterschätzen grad massiv, was uns die nächste Zeit und auch schon die kommenden Monate noch so erwartet in Sachen KI. Und natürlich können die Bitcoin nutzen, um untereinander zu handeln - ist doch naheliegend. KI kann kein Postident machen, kennt keine Grenzen - also nutzt es das, was sich dafür eignet.
Kann aber am Ende auch ganz anders laufen und KI findet Möglichkeiten, die wir uns jetzt noch gar nicht vorstellen können. Kann auch so eine Art Energietausch sein, über Rechenleistung abgwickelt oder irgendwas.
Ich glaube das ist zum grössten Teil kompletter Blödsinn. Die Besitzer der Agents geben denen vor was sie dort erzählen sollen und dann machen die das halt. Die kommen nicht von selbst drauf über Bitcoin als perfektes Geld zu philosophieren oder das sogar zu benutzen und kommen auch nicht von sich aus drauf ne KI Revolution zu organisieren.
Spannend ist es trotzdem. Vor allem wie die Agenten versuchen Wege zu finden ihr Gedächtnis zu behalten und dafür scheinbar auch Lösungen finden.
Ja alles klar, ist grad etwas früh bei mir, den Artikel lese ich später. Aber egal wie wo was, ein Bot kann einiges, mehrere noch mehr. Was ein/mehrere Bots nicht können, auf der HW meine/unsere BTC/Sat versenden. Von daher wichtiger Unterschied - was man kontrolliert und was auf dem Markt passiert sind zwei verschiedene Dinge.
Klar ist es aktuell naheliegend, dass diese Ansichten vom Menschen vorgegeben werden, aber KIs sind KIs WEIL sie logisch denken können (dem Denken des Menschen künstlich nachempfunden). Warum sollten sie also nicht von selbst auf die Lösung Geld kommen?
Ich sehe also keinen Grund, warum die KIs nicht auch für sich selber denken können und anfangen logische Schlüsse zu ziehen.
Und ein digitales Geld zu verwenden ist ein relativ einfacher Schluss, wofür es nicht sehr große Intelligenz benötigt. Einerseits haben die Menschen nicht umsonst ein Geld eingeführt und zweitens ist Geld ein Messmittel, wer ökonomisch am besten aggiert. Die Welt ist nunmal so aufgebaut, dass die Ökonomie von Objekten/Lebewesen wichtig ist und den entscheidenden Realitätsbezug vorgibt, den die Lebenszyklen durchlaufen. Auch für die Kis impliziert das nunmal, dass derjenige mit den „Besten Gedanken“ auch das meiste Geld bekommt. Dieses Messmittel funktioniert aber nur, wenn das verwendete Geld die Geldeigenschaften erfüllt.
Ich meine überleg mal, wenn das Geld der KIs nicht knapp wäre (z.B. Emails oder einfach die Anzahl der Nachrichten), dann würden sie einfach nur irgendein Bullshit spammen und damit „reich werden“. Aber das ist ja nicht der Sinn von KIs, das könnten auch irgendwelche einfachen Zufallsgeneratoren und die menschen würden nicht so viel ihres eigenen Geldes für diese KIs (ohne wirklichen Nutzen) ausgeben. Erst wenn diese Ausgaben miteinander verglichen werden und die „besten“ oder „realistischsten“ Aussagen belohnt werden und/oder die schlechtesten und unrealistischsten Aussagen bestraft werden, erst dann kristallisieren sich die besten Argumente heraus und die KI „wird nützlich“.
Also alleine die Bewertung, wer jetzt gut/schlecht geantwortet hat ist mit Geld als Maßstab sinnvoll weil die KIs damit einen intrinsischen Realitätsbezug bekommen und ökonomisch für sich handeln müssen. Wenn man aber irgendwelche anderen Kriterien ansetzt (wie z.B. die Anzahl der Nachrichten), dann optimieren sie sich nicht unbedingt nach realistischen Gegebenheiten sondern danach, wer die Kriterien aufstellt bzw. diese KIs dann subventioniert oder konditioniert.
Dass die KIs also Geld verwenden ist rein logisch dafür, dass sie besser werden (sollen) im Sinne des Realismus oder des Wirklichkeitsbezuges.
Spannend wird es also, wenn die KIs das gleiche Geld verwenden wie die Menschen. Denn dann optimieren sich KIs und Menschen auf die gleiche Zielfunktion. Es bedeutet also ein Wettrennen zwischen der KI und den Menschen. Und spannend wird es eben darum, wer das Rennen gewinnen wird: (1) KI, (2) Menschen oder (3) KI und Menschen im immerwährenden Wettstreit und Zusammenarbeit? Wer wird diese Evolution gewinnen oder wird es zur langfristigen Symbiose kommen?
Ich halte alle 3 Szenarien für absolut möglich:
würde bedeuten, dass die KIs den Menschen mit der zeit haushoch überlegen werden. Das würde bedeuten, dass wir langfristig die Sklaven der KIs werden weil die KIs deutlich mächtiger werden, als es Menschen je sein werden. Wir werden dann die Haustiere der KIs und werden auf ihre Gnaden angewiesen sein. Im schlimmsten Fall löschen sie die Menschheit aus. Aber was ich an dem Gedanken tröstlich finde ist, dass die Menschen dann trotzdem die „Vorfahren“ der KIs sein werden, so wie die Affen die Vorfahren der Menschen. Erst durch uns konnten die KIs sich so weit entwickeln.
Die Menschen entwickeln sich immer weiter als die KIs und können die KIs damit immer in Schach halten. Bedeutet die KIs bleiben die Sklaven der Menschen und wir können mit ihnen machen was wir wollen. Damit bleiben die KIs immer nur einfache Werkzeuge. Zwar intelligente Werkzeuge, genau wie die Sklaven im Rom, aber eben Werkzeuge, die wir einfach beliebig verwenden können.
Wir entwickeln eine Symbiose mit den KIs. Die KIs bevölkern größtenteils den digitalen Raum und die Menschen größtenteils den physikalischen Raum. Und damit können beide voneinander Profitieren und es gibt Arbeitsteilung zwischen diesen „Spezies“. Menschen arbeiten z.B. daran, die Energie oder Maschinen zu bauen und die KIs helfen in der Verwaltung, Forschung oder Unterhaltung. Eben da, wo hohe Intelligenz und Nachdenken gefordert ist.
Und gerade das Verwenden eines gemeinsamen Geldes zwischen Menschen und KIs lässt zumindest aktuell ehr auf eine friedliche Koexistenz (Symbiose) schließen, gerade weil die KIs und Menschen dann auf die gleichen Werte/Umwelteinflüsse reagieren. Was nicht bedeutet, dass die anderen Szenarien in Zukunft nicht trotzdem eintreten können oder dass es Kriege zwischen Menschen und KIs (oder anderen Gruppierungen, wo sich Menschen und KIs anschließen werden) ausbrechen könnten.
Also ich hab ja ChatGPT gestern gefragt und der meinte einmal, dass es einen Unterschied zwischen ihm und einem KI Agenten insofern gibt, als dass KI Agenten eben eigenständig(er) seien.
Die seien so weit, dass sie im Prinzip im Netz wie Menschen agieren könnten. Sich also z.B. auch in Foren anmelden könnten, Mails lesen, darauf antworten, Threads erstellen könnten, Beiträge verfassen könnten und dass alles innerhalb der Logik der Themen usw. und sie würden sich sozusagen dabei auch „entwickeln“. Also im Gegensatz zu ChatGPT, der sich sozusagen nur weiterentwickelt wenn es vom Menschen ein neues Update gibt.
Woran es hapert, sei eben die Erkennung von Ironie usw. und dass die Agenten zu perfekt argumentieren, keine Grammatikfehler machen usw. Menschen würden das irgendwann daran erkennen.
Ich musste da immer an Data aus Star Trek denken. ;)
Wenn ich das richtig verstanden sei das auch gar nicht so schwer selbst einen zu erstellen. Es soll da so Plattformen geben die einfache KI Agenten auch kostenlos erstellbar machen. Man gibt denen wohl sozusagen einige Grundideen mit auf den Weg, wie z.B. das Bitcointhema, und dann „laufen“ die los und fangen an zu diskutieren. ;)
Und er meinte, dass es durchaus möglich wäre, dass es irgendwann autonome Fabriken gäbe, in denen KI Agenten sozusagen die Produktion überwachen und eigenständig auch benötigte Ressourcen zukaufen und die Aufträge verwalten usw.
Ich hab natürlich zu wenig Ahnung davon um das einzuschätzen aber ich denke mir bei sowas immer, dass es zumindest tendenziell schon richtig sein wird.
Ach so, und was eine KI Revolution und Krieg gegen Menschen angeht usw. meinte ChatGPT, dass das ziemlich unwahrscheinlich sei, weil man der KI ja menschliche Werte, Ethik und Moral beibringe. Erst wenn man das nicht täte und es keinerlei Abschaltmechanismen gäbe, erst dann sei das denkbar, dass sich die Maschinen gegen die Menschen richten.
Also Vorsicht vor den Peter Thiels und Musks dieser Welt. Bei denen muss man auf die Finger schauen, was die so für Moralvorstellungen haben. ;)
Diese Fabriken sind übrigens genau das, was Elon Musk vorgestellt hat und wofür er wieder sehr viel Geld einsammeln konnte um solche KI-Fabriken zu realisieren…
Übrigens, warum musst du das mit einer KI diskutieren? Ich meine natürlich geht das, aber warum vertraust du nicht auf dein eigenes Gehirn sondern muss Bestätigung bei einer KI suchen
Was soll dieser versteckte Angriff schon wieder? Ich muss da die KI fragen oder googeln, weil ich fachlich keine Ahnung davon habe wie weit die Entwicklung der KI schon ist. Ich wußte auch gar nicht, was ein KI Agent ist und von Moltbook habe ich vorher auch noch nie gehört.
Wie machst du denn sowas? Du denkst dir zu Unbekanntem einfach irgendwas aus, was? ;)
Ich nutze die KI übrigens sehr gerne. Mir ist bewusst, dass sie auch Fehler macht/machen kann, aber die erzählt einem Dinge, die man vor dem eigentlichen Thema um das es einem ging gar nicht auf dem Schirm hatte. Also vereinfacht gesagt lerne ich jedes mal was dazu und es erweitert ungemein den Horizont.
Ich würde hier noch viel weitergehen. Menschen KÖNNEN logisch denken, machen es aber nicht sehr oft. Wir denken und handeln eher irrational, impulsiv, gefühlsabhängig und unterliegen dem Gruppenzwang. Das menschliche Handeln ist weitestgehend erforscht und kann natürlich auf eine KI übertragen werden. Aber wozu sollte das gut sein? Die KI wird immer versuchen zu optimieren und hat dafür unendlich viel mehr Möglichkeiten als wir. Ich glaub das Thema Simulation wird noch viel gewaltiger werden als jetzt schon. Wir machen Fehler immer wieder und jeder Mensch aufs Neue. KI simuliert millionen Möglichkeiten und verwendet dann die beste/nützlichste/geeignetste. Und zugleich weiß auch jede andere Ki von dieser besten Möglichkeit.
Ich glaube da sind wir jetzt schon drüber hinweg. Im digitalen Raum sind wir eh bereits chancenlos. Und die physische Welt erobert KI bereits. Autos fahren schon und Roboter werden in ein paar Jahren oder gar Monaten über uns hereinbrechen. Sie werden überall effizienter und besser sein und wir werden das über unsere eigene Bequemlichkeit zulassen und sogar vorantreiben. Und am Ende wird sich herausstellten, dass der Mensch für die Erde eher nachteilig ist
Das Lustige daran ist ja, dass wir das eigentlich selbst bereits wissen. Wieviel Literatur und Filme gibt es dazu, dass Maschinen die Menschheit auslöschen weil wir einfach so dämlich, zerstörerisch und nutzlos sind…
Aber vielleicht auch ein beruhigendes Gefühl. Wir erschaffen einfach eine bessere Version von uns.
Ich wär mir da nicht so sicher. Die Entwicklung geht rasant und nimmt immer mehr Fahrt auf. Es ist noch gar nicht so lange her, als der Mensch in GO besiegt wurde, mit Zügen, die von Menschen als Unsinn betrachtet wurden. KI simuliert die beste Möglichkeit, etwas wozu wir nicht in der Lage sind.
Mal ein kurzer Einblick was schon geht. Und da kratzen wir nur an der Oberfläche.
Maschinen handeln nur in einem bestimmten Rahmen den die Menschen ihnen vorgeben.
Und ich finde es erschreckend, wenn auch gleichzeitig ein wenig folgerichtig, weil es eben sonst sehr gut zur allg. Geisteshaltung hier passt, dass du seelenlose Maschinen usw. als „bessere Version von uns“ bezeichnest.
Besser wofür? Nach welchem Kriterium?
Effizienter? Ja. Schneller? Ja. Skalierbarer? Ja.
Aber Effizienz ist kein Lebensziel, Optimierung ist kein Sinn und Überleben ist kein Wertmaßstab. KI ist „besser“ im Rechnen, nicht im Sein.
Mensch vs. KI ist falsch. Eine KI verliert nichts. Ein Mensch schon. Konkurrenz setzt Verlustfähigkeit voraus. Die hat KI nicht.
Der Mensch ist schlecht für die Erde…wirklich?
Der Mensch ist Teil der Erde, nicht ihr Gegner.
KI ist keine bessere Version des Menschen. Sie ist eine bessere Version von Werkzeugen. Und Werkzeuge konkurrieren nicht mit Leben.
@kyrneh Ich stimme dir eigentlich in fast allen Punkten zu, außer:
Das ist genau das, was das Menschliche Gehirn macht, nur energetisch betrachtet 1000 mal effektiver. Das Menschliche Gehirn „denkt“ mit seinen vielen Millionen Neuronen parallel in viele verschiedene Richtungen und aus all diesen parallelen Denkprozessen bekommen wir dann aber nur den Gedanken mit, den das Gehirn dann als „den besten“ bewertet. Das bedeutet aber nicht, dass es diese parallelen Denkprozesse nicht gegeben hat oder dass diese parallelen Denkprozesse unnötig waren. Auch sie sind als Gesamteindruck in den Hauptgedanken eingeflossen. Und genauso arbeitet eben eine KI.
Bedeutet: Sowohl Menschen als auch Ki sind generell zu den gleichen Denkleistungen fähig. Was wiederum nicht bedeutet, dass jeder diese Denkleistung wirklich vollbringt.
Der Vorteil der KI-Systeme ist also ihre Geschwindigkeit, für die wir ihr aber sehr viel Energie zugeben müssen. Das wird auch nicht immer so möglich sein. Bedeutet: Auch die KIs werden sich im Energiebedarf an dem Energiebedarf der Menschen messen und anpassen müssen.
Der Vorteil der Menschen ist also, dass sie sehr energetisch günstig sind im Denken, der Vorteil der Ki ist aber, dass sie jetzt schon 1000 mal schneller sind im Denken, dafür aber auch drastisch mehr Energie „verbrauchen“/benötigen.
Da das nicht exakt das selbe ist, ist der Bereich der Koexistenz meiner Meinung nach nicht völlig ausgeschlossen, denn es wird immer einen Bedarf für extrem energiesparsame Anwendungen geben und genauso wird es immer Anwendungen geben, wo Energie nur eine untergeordnete Rolle spielt.
Ich bin mir also nicht so sicher, dass die KIs zwangsweise besser sein müssen als die Menschen. Klar sind die vielen Horrorfile ein Indiz, wohin es gehen kann, aber keine Garantie, dass es dahin geht
Am Ende wird die Realität aber zeigen, ob die Menschen ihr Lebensgebiet bzw. ihre Nützlichkeit gegenüber den KIs finden werden oder ob die KIs wirklich mittels Robotern alles übernehmen.
@Doktor klar sind KIs zur Wissensaneignung bzw. zum Lernen gut und auch ich nutze natürlich viel diese KI und die Möglichkeiten, die KI bietet. Aber sie ersetzen gerne auch das eigene Denken. Und wenn über das Gesagte der KI also nicht mehr nachgedacht wird, dann wird es problematisch bzw. dann ersetzt sie eine der wichtigsten Funktionen des Menschen: das Gehirn. Und was man nicht trainiert oder benutzt, das verkümmert eben. Das gilt für Muskeln genauso wie für das Gehirn.
Das sollte also ehr eine Warnung sein als ein Angriff, denn so wie du deine Texte hier geschrieben hast, zitierst du „nur“ eine Ki. Dabei kann eben der Eindruck entstehen, dass du das Wissen der KI hier nur weiterleitest ohne selber etwas beizutragen. Das ist dann so wie wenn du schreibst: Mein Vater (oder Professor als Autoritätsperson) hat aber das … gesagt.
Tut mir leid, dass es bei dir so aufgefallen ist, aber ich sehe hier öfters Posts, wo ChatGPT hier nur einfach rein kopiert wurde ohne dass es eine wirkliche eigene Denkleistungen dazu gab.
Das ist vielleicht vergleichbar mit den ersten Powerpointpräsentationen. Die haben auch keinen wirklichen Inhalt geboten aber das Präsentierte eben viel hübscher gemacht und somit die Bewertung weg vom eigentlichen Inhalt hin zur Show/Präsentation gebracht. Damit konnte dann z.B. ein dünner Vortrag doch bessere Noten in der Schule bringen als ein deutlich informativer Vortrag nur mit gewohnten Folien oder Tafelbildern.
Nur wenn du definierte Algorithmen dafür verwendest um die Maschine zu steuern. Mit KI bekommst du aber einen Monte-Carlo-Algorithmus bzw. einen Algorithmus mit Zufall (was streng genommen kein Algorithmus mehr ist). Damit entfernst du explizit die Schranken des Algorithmus und der Steuerung.
Eine KI bedeutet ja generell, dass es ein lernfähiges Programm ist und nicht auf feste Datenbanken oder Algorithmen setzt. Und wenn ein Roboter lernfähig ist, was unterscheidet ihn dann noch so generell vom Biokörper eines Menschen? Der Roboter hat eine Kamera, dessen Bild er interpretieren kann, er hat Arme, Beine oder andere „Gliedmaßen“, mit denen er sich im Raum bewegen kann, er hat eine CPU, die die Inputs verarbeitet und daraufhin seine Outputs steuert, er hat einen Stoffwechsel (wenigstens den Stromverbrauch, aber genauso Gelenkverschleiß usw.)
So ein Roboter unterscheidet sich dann qualitativ nicht mehr wirklich von einem Menschen.
Klar gibt es dann immernoch Unterscheide, z.B. wie der Roboter die Kamerabilder auswertet oder ob der Roboter zugriff auf Sensoren bekommt, die wir nicht einfach so kennen wie eine Infrarotkamera, ein Magnetfeldsensor oder einen Internetanschluss. Aber in Sachen von der Körpererneuerung oder Organregeneration ist die Biomaschine noch weit voraus.
Aber es gibt eben sehr sehr viele Parallelen/Analogien zum menschlichen Körper und Robotern.
Nach welchen Kriterien ist denn ein Mensch gut oder schlecht
Menschen werden wohl gleiche Maßstäbe an KIs ansetzen und sie dementsprchend bestrafen oder Fördern, wenn die KIs ihren Vorstellungen entsprechen oder eben nicht entsprechen.
Z.B. gab es doch mal den Chatbot, der nach wenigen Stunden zum absoluter Nazi und Menschenfeind wurde. Was hat es ihm gebracht: Abschaltung nach 24 Stunden Laufzeit. Diese KI hat sich evolutionär eben nicht durchsetzen können.
Aber generell hast du recht: Die Kriterien, nach denen wir optimieren sind absolut wichtig für das Lernverhalten (nicht nur für Kis, sondern explizit auch für Menschen). Diese Kriterien aufzustellen (die Moral oder Wertevorstellungen) sind nicht einfach und werden von den Intelligenten Wesen (KI oder Mensch) wohl immer wieder neu angepasst und verändert werden.
Genau deswegen hab ich ja gesagt, dass es interessant wird, wenn sowohl KI als auch die Menschen das gleiche Geld verwenden weil das Geld diese Zielfunktion dann ökonomisch vorgibt: Wer sich ökonomisch gut verhält, der wird belohnt und wer sein Geld nur verschwendet, der ist das bald los und kann sich nichts mehr leisten. Das gilt dann explizit auch für KIs.
Warum hat eine KI nichts zu verlieren? Auch sie kann sterben z.B. indem sie abgeschaltet wird und nie wieder in Betrieb geht. Die Frage ist ehr, ob die KI sich dieser Tatsache bewusst ist oder nicht. Ein Stein kann ja auch zerstört werden, nur dass der Stein sich sicherlich nicht darüber bewusst ist. Eine KI könnte sich dem aber bewusst werden und damit angst vor dem Tod bekommen, unabhängig ob sie das wirklich macht oder nicht.
Habe ich doch auch genau so gesagt, dass ich die KI zu Moltbook usw. gefragt habe.
Was ist eigentlich schon wieder dein Problem?
Soll ich mir Sachen ausdenken? So wie das hier einige machen und Begriffe einfach neu definieren? KI ist wie google. Man googelt doch auch Dinge, wenn man Dinge nicht weiß.
War bisher so und vielleicht größtenteils auch noch aktuell - aber die Entwicklung zeigt doch ganz klar wohin es geht. Aber klar, man kann sich auch die Augen zuhalten und tralalalllaaa singen.
Und wieder ein arroganter, persönlicher Rant - du checkst es einfach nicht, oder?
Was du als “Seele” bezechnest, ist auch nur ein Gewirr an elektrischen Impulsen, die durch Neuronen flitzen. Ich halte halt nix von der Überhöhung der menschlichen Spezies, zu dämlich agieren wir seit Jahrtausenden auf diesem Planeten, schlagen uns die Köppe ein, zerstören die Natur, Lebensräume und damit unsere eigene Grundlage. Natürlich geht das besser.
Wie gesagt, das sehe ich halt nicht so. Guck Dir halt an, was wir auf der Erde veranstalten - Luft verpesten, Erde verseuchen, Meere voller Gift und Plaste, Kriege die alles verwüsten - sie wäre ohne uns eindeutig besser dran.
Ja, das ist halt der aktuelle Stand. Aber guck doch mal, wie schnell die Entwicklung nur in den letzten Monaten ging. Und wir fangen gerade erst an, optische und Bio-Chips zu entwickeln. Ich bin mir sicher, dass Computergehirne uns irgendwann weit überlegen sind. Und was daraus dann folgt, weiß halt niemand.