Wie kann man das Risiko durch KI minimieren?

,

Die ganze überbordende Angstmacherei und Forderungen nach Regulierung kamen ja zum grossen Teil von den AI Firmen selbst.

Das hatte aus meiner Sicht vor allem zwei Gründe

  1. Anschein erwecken das AGI grad kurz um die Ecke ist um mehr Investoren anzulocken.
  2. Konkurrenz auszuschliessen, weil nur bei so einer privaten US Firma wo sie ganz ganz kompetent sind ist AI sicher.

Und am Ende haben jetzt tausende von Firmen angefangen das irgendwo zu integrieren obwohl der Mehrwert in den meisten Fällen mehr als fraglich ist.

1 „Gefällt mir“

Ich bin mir da nicht sicher ob das eine Agenda der Unternehmen ist. Das Beispiel mit Mustafa Suleyman, dem Mitgründer von DeepMind, zeigt dass es teilweise aufjedenfall ideologische Bewertungen sind. Leute wie Suleyman sahen den Fortschritt im KI aus nächster Nähe und das löste bei einigen Mitarbeitern dieser KI Unternehmen etwas aus. Es bildete sich ein Lager von Skeptikern innerhalb der Unternehmen. Google kaufte irgendwann DeepMind auf.

Die genauen Umstände sind unklar aber Suleyman verließ nach diversen Vorwürfen DeepMind. In seinem Buch „the coming wave“ gibt er zu verstehen dass seine kritische Haltung zu den Möglichkeiten der KI nicht zu dem Narrativ passte was Google über die KI bemühte. Mit anderen Worten Google wurden seine regelmäßigen apokalpytischen Warnungen über die KI zu viel. Suleyman warnte in seinen regelmäßigen Vorträgen vor der KI und erklärte man könne eine unheilvolle Zukunft nur durch systematische Gegenmaßnahmen verhindern.

Microsoft hat damit wohl weniger ein Problem, denn dort ist er soweiut ich weiß bis heute mit der Leitung von Microsoft AI beauftragt. Er hat aber auch sein eigenes Unternehmen „Inflection AI“ gegründet. Ihr offizleles Ziel sei es eine KI zu entwickeln die kein AGI sein soll und die den Menschen nicht ersetzen sondern unterstützen soll. Im Vergleich zu DeepMind blieb Inflection bis heute bedeutungslos.

Ähnliches kann man auch bei Open AI beobachten. Auch dort bildete sich offenbar ein kritisches Lager, von den die meisten das Unternehmen später verließen oder die gegangen wurden. Viele von ihnen konnten aber Investoren anziehen und gründeten ihre eigenen KI Unternehmen. Teilweise gab es Vorwürfe dass sie sich haben kaufen lassen, weil sie ihre Kritik an Open AI für ihre eigenne Unternehmen selbst nicht so ernst nahmen.

Evtl. war die Erkenntnis, welche die Mitarbeiter nicht ertragen konnten etwas anderes:
Nicht die extreme generelle Intelligenz welche geschaffen werden kann, sondern das Wiedererkennen der eigenen Gedankenstruktur in diesen Netzwerken.

Es ist tatsächlich die vollständige Grundlage unserer Intelligenz. Ein nihilistischer Alptraum.

1 „Gefällt mir“