Bitte hört damit auf, KI so extrem überzubewerten

Jeder Hirni hat mittlerweile von ChatGPT gehört. Wahrscheinlich habt ihr auch mal WhatsApp geöffnet und da diesen Kringel von MetaAI gesehen. Vielleicht gehört ihr ja auch zu denen, die sich einen Action-Figur-Packshot generiert haben und sogar mal was mit Midjourney oder Sora gemacht haben.

Vielleicht habt ihr ja auch schon mit Suno Musik gemacht. Oder Soundeffekte mit Elevenlabs gemacht. Oder eingesprochene Texte per KI in Text umgewandelt. Oder genau das auch anders herum.

Vielleicht habt ihr ChatGPT auch schon gefragt, ob es euren Text ein wenig aufpeppen kann? Oder für euer Vereinsmagazin Bilder generiert. Vielleicht sogar mit Pinokio lokal einige Bildgeneratoren ausprobiert oder mit mit LMStudio verschiedene Sprachmodelle ausprobiert.

Systeme wie ChatGPT, Midjourney und so weiter können wahnsinnig viel. Zumindest neigen wir als Menschen dazu, Dinge in ChatGPT hinein zu interpretieren, die das System „intelligent“ wirken lassen.

KI kann keine generelle Intelligenz abbilden.

KI-Systeme lernen nicht, sie werden trainiert. Das ist ein gigantischer Unterschied. Wenn wir lernen, ist das von unserer Umgebung abhängig. Wir lernen nicht nur Texte auswendig, wir sind in der Lage, Dinge zu erfahren, zu fühlen und im entsprechenden Kontext adaptiv umzusetzen. Wir alle haben als Kind gesagt bekommen, dass man bestimmte Dinge nicht tun darf, aber wir haben’s dann trotzdem gemacht und durch die Erfahrung gelernt, dass das eine blöde Idee ist. Wir haben auch Liebe nicht gelernt, sondern sie ist Bestandteil unserer Umgebung.

Wenn wir etwas lernen, dann sind das keine Algorithmen. Klar, bei Rechtschreibung nutzen wir Sprachalgorithmen, die definieren, wo ein Komma und wo ein Punkt zu setzen ist. Das ist Schulwissen. Wie Worte klingen, wie ein Satz sich richtig anfühlt, ist uns nie beigebracht worden. Man tut nicht „tut“ gebrauchen, weil es sich falsch anfühlt.

Wenn eine KI etwas lernt, dann ist das eine Mustererkennung. Deshalb ist KI total gut in Rechtschreibung oder darin, Dinge zu erklären. Aufgrund aller erfassten Texte weiß eine KI, dass es eine Verbindung vom Struwwelpeter zu Streichhölzern gibt. Wir hingegen haben Sinneseindrücke.

KI wird auch anhand von Materialien trainiert, die ihr zur Verfügung gestellt werden. Es gab mal einen Twitterbot von Microsoft namens Tay. Dieser lernte durch die Dinge, die ihr gesagt wurden. Da Twitter auch schon vor Elon Musk ziemlich rechtsradikal war, war das Ergebnis von dem Bot, dass er innerhalb von Minuten zu einem faschistoiden, mysogynen Dreckschwein wurde.

Der Hype suggeriert Fakten, die überhaupt nicht existieren!

KI versteht deine Sprache nicht. Es wird lediglich aufgrund von Wahrscheinlichkeiten ein Text generiert. Da entscheidet sich KI bis heute nicht groß von Systemen wie ELIZA. Wenn man da das Wort „Mutter“ geschrieben hat, war in der ELIZA-„Datenbank“ hinterlegt, dass die Software bei dem Wort „Mutter“ einfach nach der Familie fragen soll. KI macht das auch, aber halt einfach mit mehr Daten.

KI verfügt nicht über ein „Ich-Konzept“. KI weiß nichts über sich selbst, es hat keine Erfahrungen, es verfügt nicht über Selbstwahrnehmung. KI weiß nichts über die eigene Umwelt. Eine KI weiß nicht, wie sie sich selbst weiter entwickelt. Sie hat die Entwicklung vom Baby zum Jetzt-Ich nicht verstanden.

KI kann auch nicht kreativ sein. Eine KI nimmt bekannte Werke und mischt diese aufgrund statistischer Werke zusammen. Du generierst ein Bild einer Influencerin? KI nimmt einfach sämtliche Bilder von Influencerinnen und erstellt eine statistisch ansprechende Person. Die Influencerin steht auf einem aktiven Vulkan? Die KI nimmt alle möglichen Bilder und mischt daraus einen aktiven Vulkan. Es gibt keinen schöpferischen Akt, es gibt keine Interpretation.

KI erzeugt sachlich korrekte Bilder, die „plausibel“ sind.

Fehlannahmen führen zu falschen politischen und wirtschaftlichen Entscheidungen.

Wenn du der KI vertraust, riskierst du, gute Mitarbeiter gar nicht erst zu bekommen. 2018 hat Amazon Bewerbungen von einer KI bewerten lassen. Das Ergebnis war schockierend. Frauen wurden, trotz höherer Qualifikation abgelehnt. Frauen wurden nicht nur abgelehnt, sie wurden regelrecht diskrimiert und komplett ignoriert. (Quelle)

Selbstfahrende Autos fahren in Summe noch immer schlechter, als schlechte Autofahrer. Viele Faktoren, wie die Stadtplanung hängen davon ab, wie gut Autos ohne Piloten funktionieren. Wir haben jetzt schon die Städte für Automobile geplant, wollen wir auch noch die Verkehrsführung so umbauen, dass nur noch Maschinen in den „kleinen Dorfweg 5“ fahren können? Wer soll das bezahlen?

Das „COMPAS“-System in den USA ist ein risikobewertungstool, das in der Stafjustiz eingesetzt wird. Auch diese KI benachteiligt systematisch PoC oder arme Leute. Warum? Weil das System nicht zu 100% neutral sein kann. Wie ich oben schon schrieb, wird eine KI mit Standpunkten/Sichtweisen bestimmter Leute gefüllt. DESHALB kannst du eine chinesische KI nicht nach regierungskritischen Punkten ausfragen und deshalb ist ein von weißen Programmierern entwickeltes System leider grundsätzlich ein wenig rassistisch.

In Großbritannien wurden während der Corona-Zeit Schulnoten per KI vergeben. Auch da kam es zu einer großen Benachteiligung „sozial schwacher“ SchülerInnen. (Quelle) und das Projekt wurde aufgegben.

Abgesehen davon gab’s zig Projekte, die massive Fördergelder kassiert haben, obwohl sie nie wirklich funktionieren konnten. Theranos zum Beispiel sollte KI-gestützt anhand kleiner Blutproben alles mögliche an Krankheiten voraussagen können. Hat nicht funktioniert.

KI-basierte Social-Scores machen aus mündigen, chinesischen Bürgern potentielle Staatsfeinde.

Missbrauch durch Marketing

Eine KI-gestützte Zahnbürste? Eine KI-gestützte Digitalkamera? KI-Chatbots?

Vielleicht handelt es sich bei der Zahnbürste auch einfach nur um eine Zahnbürste mit verschiedenen Timerfunktionen? Vielleicht ist der Bewegungssensor dieser Kamera einfach nur ziemlich gut? Und vielleicht ist der Chatbot einfach nur auf viele Eventualitäten eingestellt?

Marketing – und an die richtet sich dieser Rant hier am meisten – lobpreist die wunderbaren Fähigkeiten von KI-Systemen, als ob es kein morgen gäbe. Produkte werden teurer verkauft, weil sie angeblich total tolle KI-Fähigkeiten haben. Spoiler: Haben sie nicht. Das geht auch technisch gar nicht. Der aktuelle Stand der Technik lässt es gar nicht zu, eine perfekte Zahnbürste zu bauen, die die Zahnstruktur untersucht und die Bürste dann dynamisch auf die Putzbewegungen des Nutzers reagieren lässt.

Und sein wir mal ehrlich: KI-Fotos? Klar, die sind wirklich möglich. Google und Apple vermarkten ganz großartig ihre „intelligenten Kameras“. Das Problem ist nur: Intelligente Kameras sind eine Lüge! Es ist nicht deine Kamera, die das Bild „KI-mässig“ besser macht. Es ist ein Cloudserver an den jedes deiner Fotos geschickt wird und das dann dort, auf irgendeinem gigantisch großen Server die Festplatte zumüllt und im Zweifelsfall von notgeilen Praktikanten problemlos abgerufen werden kann.

Wissenschaft wird durch Medienlogik verzerrt

Wir haben alle schon Sam Altman, Jen-Hsun Huang oder auch Elon Musk auf irgendwelchen Events gesehen und über die RIESIGEN VORTEILE von KI labern gehört. Aber ist das wirklich wissenschaftlich fundiert? Da stellt sich ein Chef dieser Unternehmen hin und erzählt, dass KI Programmierer ersetzen wird. Sam Altman warnt uns davor, dass KI besser schreibt als wir. Elon Musk erzählt uns, dass Grok die krassesten Falschbehauptungen richtig stellen kann.

Ist das so? Schreibt die KI besser als Goethe oder Shakespeare? Hunderte, tausende Wissenschaftler haben die Texte dieser großen Autoren analysiert. Es gibt ganze Doktorarbeiten darüber, wie die Wortstruktur von Shakespeare in ihrer Zeit Humor und Drama verbindet. Aufgrund der Tatsache, dass wir Menschen empathisch sind und eine KI das einfach gar nicht kann, ist es falsch, wenn ein Unternehmer, dessen Aufgabe es ist, Aktionäre glücklich zu machen und erzählt, dass KI unsere Jobs ersetzten kann.

Das ganze Geschäftsmodell von Firmen wie OpenAI ist ziemlich wild. ChatGPT3 wird angekündigt, dann ChatGPT4o und so weiter und sofort. Es ist überhaupt nicht empirisch und wissenschaftlich greifbar, wo genau jetzt der Vorteil dieses Modells gegenüber des vorherigen Modells ist. Es „labert“ besser und kann jetzt auch Mathematik? Toll, aber könnt ihr auch erklären warum das so ist? Nein. Aber Aktionäre sind glücklich, dass eine neue Version einer Software heraus gekommen ist, die noch mehr urheberrechtlich geschütztes Material analysiert hat und daraus neue Texte mischt.

Außerdem wird immer wieder gesagt, das KI sich weiterentwickelt. KI selbst entwickelt sich aber gar nicht. Auch das ist oben bereits erklärt worden.

Aus Usersicht wird das ganze nochmal ungemütlicher. Wenn Leute ihre Doktorarbeit mit KI schreiben und da ein wunderbarer Text bei herauskommt, fantasieren KI-Bots Quellen, Studien und so weiter dazu.

Fazit

Bitte nehmt KI als das hin, was es ist. Eine riesige Datenbank voller Informationen. Mehr nicht. Und tatsächlich ist diese Datenbank voller Informationen eigentlich nur ein dampfender Haufen unkategorisierter Müll, der lediglich aufgrund von Wahrscheinlichkeiten „katalogisiert“ wird. Da KI aus, hoffentlich nachvollziehbaren Gründen, die echte Intelligenz fehlt, die eben mehr ist, als nur „Wissen“, kann man davon ausgehen, dass jeder 5-zeilige Wikipedia-Miniartikel tatsächlich einen echten Mehrwert hat, da dieser aufgrund von Wissen, Erfahrungen und Erlebnissen von einem menschlichen Geist verfasst wurde. Eine normale Google-Suche über Lungenkrebserfahrungen führt dich wahrscheinlich zu einem Blog oder einer Webseite, die von jemanden geschrieben wurde, der fühlen konnte, wie es sich anfühlt.

Wofür KI gut ist? Für alles, was ihr damit machen wollt. Aber interpretiert bitte, bitte, bitte nicht rein, dass die KI versteht, was ihr ihr mitteilt. Sie ist, wie ein nachplappernder Papagei. Einer, der sich freut, wenn er nen Keks kriegt, weil er was gesagt hat, dass dein Humorzentrum anspricht. Aber eigentlich versteht dieser Papagei nicht, wovon ihr redet.

4 thoughts on - Bitte hört damit auf, KI so extrem überzubewerten

  • Dein Post erinnert mich an einen Artikel aus dem Jahr 1940, in dem eine Wissenschaftsjournalistin ihre Leser:innen beruhigt, dass eine Atombombe nicht gebaut werden kann und keine Gefahr droht. [1]

    Nun, es ist anders gekommen, und hunderttausende Menschen starben in Hiroshima und Nagasaki. Wie hoch die Gefahr eines weltweiten nuklearen Armageddons war (und ist), bleibt unklar. Jedenfalls ist es nicht nur denkbar, sondern eine reale Möglichkeit.

    Zur Zukunft der Künstliche Intelligenz sind verschiedene Szenarien denkbar:
    1) KI wird uns alle vernichten.
    2) KI bringt uns den Himmel auf Erden.
    3) KI ist heiße Luft und nur ein Hype.
    4) KI ist eine “normale” Technologie.
    (um die wichtigsten zu nennen)

    Welche davon sind real möglich? Ein Laie kann das nicht beurteilen. Wenn wir nichts wissen und alle Szenarien als möglich ansehen, sollten wir uns mit dem schlimmsten zumindest befassen. Insofern finde ich es falsch, ein einseitiges Bild zu zeichnen und Leser:innen in falscher Sicherheit zu wiegen.

    Ich persönlich halte Szenario 3 für extrem unwahrscheinlich. Sogar der KI-Hype Kritiker Arvind Narayanan, Autor von AI Snake Oil [2] und Vertreter von Szenario 4, geht davon aus, dass sich die Arbeitswelt der Wissensarbeiter:innen in den nächsten 20 Jahren so grundlegend wandelt wie die der Weber zu Beginn der Industrialisierung.

    [1] https://gwern.net/doc/existential-risk/1940-sciam-harrington-nuclearweapons-dontworryitcanthappen.pdf
    [2] https://www.aisnakeoil.com/

    • KI ist allgegenwärtig und in manchen Fällen sogar recht nützlich. Es gibt auch hier Artikel, wo ich meine Idee für einen Blogartikel der KI vorgelegt habe und mir zumindest eine Gliederung habe erstellen lassen. Das Thema war sehr komplex und ich wollte aber eine sinnvolle Reihenfolge haben, die ich mir selbst nicht so richtig vorstellen konnte. Das war in dem Fall echt hilfreich.
      Eine Weile lang habe ich auch in meinem Blog Headerbilder per KI generiert. Ich habe ja „lokal“ Stable Diffusion und Flux installiert, weil ich wissen will, wie der Kram funktioniert und was da technisch eigentlich abläuft. ChatGPT, Sunio, Ruffision und so weiter sind nun mal in der Cloud, was ich prinzipiell gruselig finde.

  • Gegenvorschlag: Bitte hört auf, KI zu unterschätzen und als technologischen Unsinn zu brandmarken!
    KI ist gekommen, um zu bleiben.
    Sie wird täglich besser und „intelligenter“.
    Und die Entwicklung verläuft exponentiell.

    • Tu ich gar nicht. 🙂 KI ist kein Unsinn, sondern wird natürlich einiges verändern. Filmindustrie, die mindestens Pre-Viz mit KI macht, Mockups von Sounds, die in der Werbung zeigen, was man sich vorstellt. Am Ende werden es natürlich echte Künstler umsetzen müssen. Und so soll es ja auch sein.

      Worauf ich aber eigentlich hinaus will ist, dass man bei allen Stärken, die KI offensichtlich ja hat, niemals die Schwächen vergessen darf. Und gerade unsere geliebten Geschäftsführer und Marketing-Leute sehen tausende von Dollars an Einsparpotential, weil ihnen von Nvidia, Meta und OpenAI vorgeschwindelt wird, dass AI einfach die Lösung aller Probleme ist. Fakt ist: AI ist gut, aber das man ganze Berufszweige nicht mehr braucht, ist einfach gelogen. AI-Code sieht immer noch scheisse aus, AI-Bilder erkennt man mit Medienkompetenz noch immer innerhalb von einer Sekunde und nicht zuletzt fehlt AI eben tatsächlich das, was uns zum Menschen macht: Identität und Kreativität. Hat’s einfach nicht, sieht die Programmierung nicht vor.

      Mit Hype greife ich also lediglich die Leute an, die vor lauter Kekswichsen die technischen Grundlagen nicht erkennen.

Schreibe einen Kommentar zu Till Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert