AI macht Open Source kaputt und zerstört ganze Communities

Veröffentlicht am 2026-02-02 10:30:00


Wie funktioniert Open Source eigentlich?

Linux als bekanntestes Beispiel

Vor etwas über 30 Jahren kam ein junger Kerl aus Finnland auf die Idee, ein eigenes Betriebssystem zu schreiben und den Leuten vollen Zugriff auf den Quellcode zu geben. Der Launch von „Linux“ ist zwar nicht der Beginn von Open Source, aber immerhin ist das Projekt so bekannt, dass man behaupten kann, dass jeder schon mal irgendwie davon gehört hat. Es gab bereits nach kurzer Zeit einen Haufen freiwilliger Menschen, die sich an der Entwicklung von Linux beteiligen wollten, um tatsächlich ein wunderbares, stabiles Betriebssystem zu bauen. Linux ist quasi das Internet, weil eigentlich jeder Server mit Linux läuft. Linux funktioniert so gut, weil es Menschen gibt, die ihre Freizeit dafür opfern, neue Features einzubauen und das System zu erweitern. Es gibt natürlich von Firmen wie IBM oder Google Entwickler, die für Linux-Entwicklung bezahlt werden und je größer ein Projekt ist, desto größer ist auch das Interesse von Unternehmen, dafür zu bezahlen.

Faktisch ist es aber so, dass es einen Haufen Coder und Coderinnen gibt, die ihre Freizeit nutzen, um richtig gute Projekte zu bauen. Die meisten von denen haben ganz normale Jobs und die Arbeiten an irgendwelchen Opensource-Geschichten sind reine Hobbyprojekte, weil es auch Spaß macht, sich mit etwas zu beschäftigen, was es so in der IT noch nicht gibt.

AI schreibt Bugreports

Wenn man einen Fehler in einer Software findet, würde man einen Bugreport schreiben. Man nimmt dann ein Logfile oder macht einen Screenshot der Fehlermeldung und gibt das an das Ticketsystem des jeweiligen Open Source Teams. Software ist allerdings wahnsinnig komplex und nicht immer bedeutet der Crash eines bestimmten Programmes, dass wirklich auch dieses Programm den Bug hat.

Mittlerweile gibt's Menschen, die prompten in etwa solche Dinge:

Geh auf das Repository XYZ bei Github und durchsuche den Code nach eventuellen Sicherheitslücken. Schreibe mir dann einen Bugreport.

Gemini, ChatGPT, Claude und wie sie alle heißen, gehen dann los und durchsuchen den Quellcode nach Fehlern. Und hier ist das Problem: Bots halluzinieren noch immer, LLM-Systeme sind „Sprachassistenten“, die aufgrund der reinen Syntax der Programmiersprache auch Skripte erstellen können, aber sie sind keine Bugtracking-Systeme!, weil sie selbst dafür gar nicht programmiert wurden. Ein LLM geht also los, findet einen Quellcode, den es im Kontext nicht versteht und schreibt einen lupenreinen Bug-Report.

Das Ganze natürlich, ohne den Quellcode tatsächlich auszuführen. Die AI weiß also gar nicht, ob der Code crasht. Das an sich ist gar nicht so dramatisch. Der Bugreport wird dann aber von jemandem an das Developer-Team gegeben. Der Melder hat vielleicht gar keine Ahnung von dem, was er da meldet, aber ein freiwilliger Entwickler muss jetzt losrennen, den Bug verifizieren und dann feststellen, dass es gar keinen Bug an der Stelle gibt.

Daniel Stenberg von Curl nennt das mittlerweile eine "DDoS-Attacke auf die menschliche Aufmerksamkeit". Die Leute lassen Bots über Repositories laufen, spammen uns mit halluzinierten Sicherheitslücken zu und wir dürfen dann Stunden damit verbringen, Geistern hinterherzujagen. Death by a thousand slops

Die Coder müssen sich dann sogar noch rechtfertigen. „Dein Bugreport ist nicht nachvollziehbar, an der Stelle im Quellcode ist gar kein Overflow“ - „Ja doch, sieht man da doch.“

Entwickler haben keine Zeit für so was.

AI zerstört Geschäftsmodelle

Tailwind SCSS und der Fluch der AI

Tailwind ist eines der meistgenutzten Frameworks für SCSS-Entwicklung. Was früher Bootstrap war, ist heute Tailwind. Eine Geschäftsgrundlage von Tailwind war die Dokumentation, in der man auf kommerzielle Projekte hinwies, die die Opensource-Variante von Tailwind refinanzierten. Aber: Wenn man heute einen Button stylen will, geht man nicht mehr auf die offizielle Dokumentation, sondern fragt Gemini/Claude. AI basiert selbst auf Opensource-Modellen, aber zerstört die Communities dahinter. AI ist nicht in der Lage, selbst etwas zu entwickeln, es kann lediglich aufgrund von Prompts etwas nachbauen, was irgendwer schon mal entwickelt hat. Tailwind geriet unter massiven Druck und musste viele Mitarbeitende entlassen – eine Entwicklung, die viele auf den Wegfall des Traffics durch AI zurückführen.

OpenStreetMap und geistiger, richtig teurer Diebstahl

OpenStreetMap (OSM) ist die Idee, dass jeder Mensch mit nem Handy/GPS-Tracker helfen kann, super aktuelle Landkarten zu bauen. Es werden täglich irgendwo Straßen und Wege eröffnet, die in kommerziellen Diensten noch gar nicht drin stehen. OpenStreetMap ist also fast immer aktueller als alle anderen Kartensysteme. Außerdem gibt's wertvolle APIs, mit denen man Adressdaten validieren kann, oder bestimmte Infos zu bestimmten Koordinaten auslesen kann.

Die Kosten werden größtenteils von der Community selbst übernommen. AI-Systeme ballern die Server mit API-Anfragen zu und es wird bewusst von KI-Anbietern verschleiert, damit OSM nicht dagegen vorgehen kann. Die Server mit den Daten von ehrenamtlichen Helfern werden also von kommerziellen Anbietern geklaut. OSM bleibt auf den Serverkosten sitzen und irgendwann sind die dann weg, wenn's blöd läuft.

Die Firmen haben Milliarden-Budgets für ihre KIs, sind aber zu geizig (oder zu faul), um die Infrastrukturkosten zu tragen, die sie verursachen. Ein OSM-Admin hat mal gefragt, ob die Firmen nicht lieber 10.000 Dollar spenden wollen, statt sneaky die API zu scrapen. Spoiler: Machen sie natürlich nicht.

Fazit

Open Source funktioniert nur mit Menschen, die bereit sind, etwas beizutragen. Streng genommen ist Open Source extrem sozialistisch, weil wir alle Teil eines großen Ganzen sind und die Welt besser machen wollen. Wenn man gegen gefakte Bugreports ankämpfen muss oder sein Projekt gegen DDOS-Angriffe von gewerbsmäßigen Dieben absichern muss, hilft das dem eigentlichen Projekt nicht. AI ist praktisch, aber AI ist ein komplett kapitalistisches Geschäftsmodell. Grok kostet mittlerweile (Feb 2026) 30 Euro im Monat. Wenn es irgendwann nur noch Gemini gibt, wird Google sich das fürstlich bezahlen lassen. Bis dahin sitzen die Opensource-Leute auf ihren Entwicklungskosten und können die Pro-Version ihres Produktes nicht mehr anbieten, weil niemand mehr die Dokumentation lesen kann.

Das WWW wurde erfunden, um allen Menschen die gleichen Rechte und Pflichten im Netz zu geben. Jeder kann Teil des Webs sein, ob nun mit langweiligen Blogbeiträgen oder eben mit Open-Source-Projekten, die überhaupt erst möglich sind, weil Leute das geil finden. Wenn ein AI-System eines der 4 großen Anbietern dieses Projekt leersaugt wie ein Blutegel und einfach GAR NICHTS zurückgibt, wird die Demokratie auf der Strecke bleiben. Es muss endlich gesetzliche Regelungen geben, was KI darf und was nicht.