
Ihr versteht AI einfach nicht und nutzt es trotzdem
- Marcel
- Internet, KI-Kritik, Politik
- Juni 25, 2025
- ai, klimakrise, prioritäten
Es reicht mir wirklich. Heute morgen habe ich noch gelesen, dass jemand ChatGPT nutzt, um herauszufinden, ob das 6-jährige Kind vorne im Auto sitzen darf. Einfach mal eine beliebige Suchmaschine anschmeissen und das erste Ergebnis nutzen?! Fehlanzeige. Es muss eine KI angeschmissen werden, die einfach wesentlich mehr Energie verbraucht, als das Durchsuchen von ein paar Suchergebnisse.
Abgesehen davon kann das Ergebnis von AI grundsätzlich komplett falsch sein. Aufgrund von Wahrscheinlichkeiten bilden LLMs die Antworten. Bei den Keywords: „Kind“, „6 Jahre“, „vorne sitzen“ und „1,50 m“ wird das KI-Material höchstwahrscheinlich die Satzkombination „12 Jahre, vorne sitzen und 1,50 m“ finden, weil das in allen Quellen der KI steht. Wahrscheinlich ist 12 Jahre dann richtiger als 6 Jahre und so antwortet ChatGPT dann.
Im Gegensatz zum Google Suchergebnis kann die Antwort aber auch falsch sein. Denn noch sind die meisten Inhalte auf Webseiten von Menschen gemacht. Das erste Suchergebnis bei mir war die ADAC-Website. Wer, wenn nicht der allgemeine deutsche Automobil-Club kennt sich mit Autos besser aus? Wenn beim ADAC steht, dass ein Kind entweder 12 Jahre alt oder 1,50 m groß sein muss, dann ist das garantiert auch richtig.
Hört auf, chatGPT alles mögliche zu fragen! ChatGPT weiß nen Dreck!
Bei den KI-Systemen, die wir alle so kennen, handelt es sich um Sprachmodelle. Ein Sprachmodell ist ein System, das viele Worte auswendig gelernt hat. Das System weiß auch, in welchem Kontext bestimmte Worte häufiger vorkommen, als andere Worte. Wenn du ein Sprachmodell fragst, wer Jesus Christus ist, wird die KI korrekterweise Antworten, dass Jesus eine Figur aus der Bibel ist. Denn Bibel und Jesus sind untrennbar miteinander verbundene Worte.
Welche Farbe hat der Himmel?
Der Himmel ist blau ist übrigens mit Abstand die häufigste Antwort von AI-Systemen. In allen Kinderbüchern, in Poesie und Liedern wird von einem blauen Himmel gesprochen. Oft ist der Himmel auch tatsächlich blau, wenn man mal von Bewölkung, nacht oder Sonnenauf- und Untergang absieht. Wenn AI also sagt: „Der Himmel ist blau“, dann ist das keine logische Beobachtung, sondern aufgrund der zugrundeliegenden Texte am wahrscheinlichsten. Tatsächlich ist der Himmel aber eben nur dann blau, wenn es nicht regnet, nicht nachts ist oder die Sonne gerade auf und untergeht. Also streng genommen ist der Himmel gar nicht blau.
Genau genommen der Himmel aber weiß. Durch die Wellenformen des Lichts nehmen wir halt die Farbe „blau“ deutlicher wahr. Ist übrigens auch ganz einfach per Google herauszufinden. Physikalische Erklärungen (Rayleigh-Streuung, Brechung etc.) können einfließen, wenn das Modell darauf trainiert wurde – aber es hat kein eigenes physikalisches Verständnis, kein Weltmodell im Kopf, keine Ahnung vom Wetter vor deinem Fenster.
Konklusion: AI weiß nichts, AI kombiniert nur Worte
Large Language Models (LLMs) wie ChatGPT basieren auf Wahrscheinlichkeiten, nicht auf Verifizierbarkeit. Sie produzieren Texte, keine Wahrheiten. Wenn du fragst, ob ein sechsjähriges Kind vorne sitzen darf, gibt es keine „echte“ Prüfung auf Gesetzestexte, sondern eine wahrscheinlichkeitsbasierte Antwort. Die kann stimmen oder halt nicht.
Gerade bei Themen mit rechtlichen Konsequenzen, Sicherheit oder Gesundheit sollte immer eine Quelle zitiert oder auf eine verlässliche Website verwiesen werden. ChatGPT kann das teilweise mit Webzugriff, aber ist per se keine Datenbank mit gesichertem Wissen.
AI Browser – oder wie wir in Zeiten des Klimawandels einfach noch viel mehr CO2 produzieren können!
Der neueste Streich sind AI-Browser. Ich betone noch mal: Eine ChatGPT-Anfrage, eine Perplexity-Anfrage, eine Claude-Anfrage: Jede Anfrage an eine KI verbraucht 10 mal so viel Energie, wie eine vergleichbare Google-Suche.
Mit der Energie, die ChatGPT in einem Jahr verbraucht, könnten etwa 3,13 Millionen Elektrofahrzeuge mit einer durchschnittlichen Batteriekapazität von 72,4 kWh vollständig aufgeladen werden. Das sind fast 95 Prozent aller Elektroautos auf den Straßen der USA Ende 2023.“ Die Autoren stellen weitere Vergleiche an: Der ChatGPT-Jahresverbrauch entspricht demnach rund 140.000 Stunden Videostreaming und dem täglichen Aufladen von fast 50 Millionen Smartphones ein ganzes Jahr lang.
https://www.agev.de/nachrichten/it-telekommunikation/chatgpt-stromverbrauch-das-10-fache-von-google/
Wenn ich also nur meinen Dia-Browser anschmeisse, geht irgendwo auf der Welt ein Hochleistungs-Rechen-PC an, um mich zuzuquatschen, während ich einfach nur Facebook oder Insta aufmachen möchte. Hört auf! HÖRT BITTE AUF!
Wir haben wirklich echte Probleme auf diesem Planeten. Ich will von den Kriegen hier gar nicht erst anfangen, die sind ohnehin nicht zu gewinnen. Da hilft nur, wenn sich alle mal zusammenreißen und akzeptieren, dass der jeweils andere genau so ein Recht zu leben hat und Frieden will. Fertig. (Darüber diskutiere ich auch nicht. Akzeptiert die anderen und werdet akzeptiert)
Die Sommer werden immer wärmer, die Stimmung wird immer schlechter. Wir müssen mit neuen Pandemien rechnen und unsere Tech-Konzerne basteln lieber an Sprachsystemen herum, die unsere Dummheit verstärken. Wer nutzt denn noch den Kopf, um sich Strecken zu merken? Das macht Google Maps. Wer überlegt sich denn noch, wie man sich eloquent ausdrückt? Das macht ChatGPT. Diese Systeme verbrauchen Energie und sie verblöden uns. Außerdem sind sie ein Schlag in die Fresse der Kreativen. Du bist kein Künstler, wenn die AI aufgrund von Wahrscheinlichkeiten einen Dinosaurier malt. Das ist technisch beeindruckend, aber das ist keine Kunst.
Fazit
In einer Welt, die überall brennt, sitzen die klügsten Menschen und arbeiten an freundlichen Robotern, die einem ein leckeres Essen empfehlen (ohne Geschmacksnerven oder dem Verständnis von „Gewürzen“) oder einem ein lustiges Gedicht schreiben.
Geht das nur mir so oder ist die Priorisierung hier völlig daneben?