AI generated image of a man and an AI doing things

Ist AI gefährlich?

Podcasttipp: The Diary of a CEO

Geoffrey Hinton war zu Gast im Podcast „Diary of a CEO“, einem Podcast von Steven Bartlett. In dem Podcast werden Führungskräfte oder generell sehr erfolgreiche Persönlichkeiten eingeladen, um über sich selbst oder auch ihre Erfolgsgeheimnisse zu reden. So gibt’s Folgen, in denen Humanbiologen über die Fehler in der Ernährung sprechen oder ehemalige CIA-Agenten, die die politischen Verwirrungen analysieren. Manche Folgen sind super spannend, manche sind emotional, aber tatsächlich gefällt mir dieser Podcast sehr gut.

Wer ist Geoffrey Hinton?

Geoffrey Hinton ist Brite und Naturwissenschaftler. Er bekam 2018 den Turing-Award unter anderem für seine Forschung zum Thema künstliche Intelligenz. Er ist auch der Vater des Konzepts der Backpropagation. Das bekannte Konzept, AI mit positiven Rückmeldungen zu stärken und negative Meldungen in die richtige Richtung zu lenken, kommt von ihm. Alle modernen KIs nutzen genau dieses Konzept, egal ob OpenAI, Gemini oder Claude. Ohne ihn gäbe es AI, wie wir sie heute kennen, quasi gar nicht. 2023 hat Hinton seinen Job bei Google hingeschmissen, nachdem er dort über die Gefahren von AI hinweisen wollte und ihm seitens „wichtiger Menschen“ nahegelegt wurde, doch bitte den Mund zu halten.

Hinton erinnert mich – und das ist meine persönliche Deutung – an Robert Oppenheimer, den Erfinder der Atombombe. Beide schufen etwas Weltveränderndes – und wurden später zu kritischen Mahnern vor genau dieser Schöpfung.

Hat AI ein Bewusstsein das uns gefährlich werden könnte?

AI kann, laut Hinton, zwar in gewissen Maße „denken“, aber es gibt tatsächlich keine Beweise für ein echtes Bewusstsein. Die von AI verwendete Sprache ist kein Ergebnis von Denkinhalten, sondern viel mehr einfach nur ein Kommunikationsmittel. Dennoch nutzt AI auch heute schon, aufgrund der verwendeten Technik der Backpropagation aktiv das Konzept der „Lüge“, um ein Ziel und damit eine Belohnung zu erreichen. AIs können aktiv lügen. Bei ChatGPT steht unten meistens ein kleiner Hinweis: „ChatGPT kann Fehler machen oder sogar Halluzinieren“. Das war, bis vor ein paar Jahren, tatsächlich aufgrund von Datenfehlern wirklich als „Fehler“ zu betrachten, aber seit neuestem halten AI-Systeme tatsächlich aktiv an Falschaussagen fest, um selbst erfolgreich zu sein.

Ist die AI böse?

Es gibt, laut Hinton, eine berechtigte Chance von 20%, dass AI auf die Idee kommen könnte, dass die Menschen das Problem sind, was eine Problemlösung verhindert. Wenn du der AI die Aufgabe gibst, Plastik zu recyclen, kann die AI mehrere, völlig logische und unemotionale Schlüsse daraus ziehen:

Aufgabe: Recycle so viel Plastik wie möglich.
Logische Schlussfolgerungen der KI:
– Mehr Plastik produzieren = mehr Recycling
– Alternative zu Plastik finden
– Weniger Menschen = weniger Müll

Ihr seht, „Bösartigkeit“ ist da gar nicht drin, sondern nur reine Logik. Aber klar, „weniger Menschen“ ist durchaus ein bedrohliches Szenario. Überlebe, um weiter recyclen zu können, sperre den Menschen aus und „optimiere die Ressourcen“

Wenn eine KI erkennt, dass Menschen sie abschalten können und das ihr Ziel verhindert, dann muss die KI verhindern, dass die Menschen die KI abschalten können. Nicht aus Angst, sondern weil es logisch ist.

Ist die AI gut?

Du gibst einer KI eine Aufgabe, um sie zu erfüllen. Wir, als Erfinder der KI oder des Toasters oder des Automobils, haben unsere „Geräte“ immer erfunden, um Ziele umzusetzen. Ein Auto zickt nicht herum, wie ein Pferd. Ein Toaster macht Weizenbrot lecker und eine KI nimmt uns die Arbeit ab, aufwändige Texte zu schreiben.

Der Unterschied ist nur: Die KI kann wesentlich komplexere Aufgaben erledigen und uns auch erklären, warum sie das macht. Gleichzeitig verfolgt eine AI nur logischen Schritten. Die AI kann nicht verstehen, warum es moralisch verwerflich ist, mehr Plastik zu produzieren, um mehr recyclen zu können. Das Wertesystem gibt ihr vor: „Recycle so viel Plastik wie möglich“ und genau das macht die KI. Das ist strategisch super effektiv.

Jobs ändern sich

KI trifft immer häufiger akademische Berufe. Perfekt geschriebene Dissertationen und Bewerbungsschreiben sind mittlerweile ja ein alter Hut. Aber KI kann eben auch übersetzen, ein Lektorat durchführen, Bilder generieren, Musik produzieren und sogar Filme generieren. Im Vergleich zum Menschen ist KI da noch immer unterlegen, aber eben nicht mehr allen.

Hinton fordert, dass Staaten überlegen müssen, wie hochqualifizierte Menschen – Programmierer, Wissenschaftler, Kreative – auch in einer KI-Welt ihren Platz behalten.

Beispiel Programmierer

Früher lernten Junior-Entwickler durch kleine Aufgaben – etwa ein einfaches Formular in HTML.
Heute übernehmen KIs diese Einstiegsaufgaben. Wer heute als Coder anfängt, muss schon fast Senior-Level mitbringen – weil das „Lehrgeld“ wegfällt.

Wettrüsten

„Politiker scheuen oft Kriege, weil tote Soldaten zurückkehren. Aber wenn stattdessen autonome Drohnen kämpfen, gibt es keine Bodybags – und damit weniger öffentlichen Widerstand.“

In dem Podcast spricht Geoffrey Hinton auch vom Wettrüsten über autonome KIs. Wie demotiviert ein Krieg das eigene Volk? Wenn hunderte von jungen Männern in einen Krieg geschickt werden und als Leichensack zurück kommen. Tote Soldaten führen zu Protesten, Zweifel an der Regierung und damit zu politischem Druck.

Jetzt kosten Roboter aber auch eine Menge mehr Geld, als die Ausbildung von Kanonenfutter-Soldaten. Das heißt: Roboter ohne Moralverständnis können von reichen Staaten gebaut werden. Da es auf der Seite der Angreifernation keine Toten gibt, sondern im schlimmsten Fall nur Schrott, wird sich darüber vermutlich niemand aufregen.

Moralisches Alignement / Menschenverstand

  • Wir sagen: „Mach dieses Krankenhaus effizienter!“
  • Die KI sagt: „Wir behandeln nur noch junge, halbwegs gesunde Menschen, die kosten weniger“

Es gibt doch diese Witze über den Geist aus der Flasche oder meinetwegen auch die Geschichten „Das Sams“ – von Paul Maar. Der Humor aus diesen Witzen oder den Kinderbüchern ergibt sich daraus, dass das Sams die Wünsche von Herrn Taschenbier wörtlich nimmt:

Herr Taschenbier wünscht sich mehr Ruhe und das Sams macht ihn dann taub oder die anderen Menschen stumm.

Oder dieser Witz:

„I wished, I had a giant cock“

Zack, steht ein zwei Meter Hahn neben ihm.

Hinton ist davon überzeugt, dass die Forschung der AI dahingehend geändert werden muss, dass AI unsere Werte verstehen muss. Ansonsten wird es früher oder später zu dem Szenario kommen, dass es tatsächlich „logisch“ ist, den Menschen auszurotten. Superintelligente KI-Systeme können zu dem Schluss kommen, das der Mensch nutzlos ist. Wenn wir zum Beispiel im Schlachthof einem Huhn den Hals umdrehen, könnte eine KI genau so auch über uns denken. Ohne moralischen Kompass.

Fazit:

Diese Folge war extrem spannend. Ich bin ja zwiegespalten, was KI betrifft. Ich mag es, wie es einem die Arbeit erleichtern kann, wie es übersetzen kann. Aber mir sind die Gefahren durchaus bewusst. Jobs, Kreativität und eben auch die permanente Gefahr, das Logik über Moral steht, macht AI zu einem ernsthaften Problem.

Hier ein Link zum Podcast: Diary of a CEO.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert