Viele kluge Gedanken sind zu finden in einem langen Artikel der "FAZ". Daß KI gelesen werden kann als Kapitalistischer Irrsinn – ein immer Mehr an Waren, um Gewinne zu erzeugen, bei denen ein Gebrauchswert nur über die Indoktrination von PR und "Meinungsbildung" phantasiert wird –, auf diesen Gedanken kommt Marcus Schuler nicht.

»Immer mehr KI-Unternehmen sparen sich teure Trainingsdaten – und lassen neue Modelle direkt von alten lernen. Was effizient klingt, ist riskant: Durch sogenannte Destillation geraten Fehler, Vorurteile und Vereinfachungen in Serie. Die Systeme werden glatter, aber dümmer. Die Vielfalt schwindet, die Risiken wachsen – und die Wahrheit beginnt zu zerfallen…
Das Kaninchen-Paradoxon
Die Antwort des Chatbots klingt zunächst überzeugend: Er beschreibt die Merkmale gotischer Kathedralen, erklärt den Aufstieg des Spitzbogens und die technischen Innovationen des Mittelalters. Doch dann ein Bruch – mitten im Text ist plötzlich von Kaninchen mit verschiedenfarbigen Schwänzen die Rede.
Ilia Shumailov, Forscher an der Universität Oxford, starrt irritiert auf den Bildschirm. Sein KI-System sollte eigentlich sachlich über Architektur informieren – und es funktioniert auch. Zumindest bis zur vierten Generation. Danach beginnt es sich selbst zu entgleiten. Denn Shumailov hat es nicht mit neuen Daten gefüttert, sondern auf die eigenen Ausgaben trainiert – wieder und wieder. Ein scheinbar harmloses Experiment.
Das Ergebnis zeigt ein Problem, das längst größer geworden ist als jedes Labor: Immer mehr KI-Systeme lernen nicht mehr von Menschen, sondern von sich selbst. Der Effekt wirkt unsichtbar, aber schleichend: Mit jeder Wiederholung geht etwas verloren – Kontext, Nuance, Präzision. Ein Informationsschwund in Raten. Und was zunächst nach Effizienz aussieht, könnte sich langfristig als strukturelle Fehlentwicklung erweisen…
Die drei Todsünden der KI-Zucht
Wenn Künstliche Intelligenz nicht mehr von der Welt lernt, sondern nur noch von sich selbst, entstehen systemische Risiken. Drei Entwicklungen stechen besonders hervor – sie betreffen die Substanz, die Fairness und die kreative Vielfalt der Systeme.
Erstens: Informationsverfall
Mit jeder neuen Generation geht ein Stück Wirklichkeit verloren. KI-Modelle, die mit den Ausgaben ihrer Vorgänger trainiert werden, wiederholen nicht nur deren Antworten, sondern übernehmen auch deren Verkürzungen und Fehler. Wie beim Flüsterspiel verzerrt sich die Botschaft mit jeder Weitergabe. Zunächst verschwinden die Randbereiche: seltene Fakten, komplizierte Zusammenhänge, sprachliche Nuancen. Übrig bleibt ein glatter, aber entleerter Abklatsch…
Zweitens: Vorurteilsverstärkung
KI-Systeme neigen dazu, bestehende Verzerrungen zu verstärken – besonders, wenn sie aus Daten lernen, die selbst schon fehlerhaft sind. Whisper, ein weit verbreitetes Transkriptionsmodell, versteht männliche Stimmen mit hoher Genauigkeit, während die Erkennungsrate bei weiblichen und kindlichen Stimmen deutlich niedriger ausfällt. Werden auf Basis dieser Daten neue Modelle trainiert, verstärken sich die Verzerrungen – das Problem wächst sich aus.
Auch in der Arbeitswelt zeigt sich dieser Effekt. Wenn eine KI auf alten Bewerbungsdaten trainiert wurde, in denen Männer bevorzugt wurden, wird sie künftig männliche Kandidaten systematisch höher bewerten. Und das nächste System übernimmt genau dieses Muster – in gutem Glauben. Aus einem Datenfehler wird ein strukturelles Urteil.
Drittens: Kreativitätskollaps
Wenn alle Modelle von denselben Vorläufern abstammen, beginnt die Vielfalt zu verschwinden. Die Systeme produzieren ähnliche Antworten, machen ähnliche Fehler, übersehen dieselben Ausnahmen. Es entsteht ein intellektuelles Inzuchtproblem: keine neuen Gedanken, keine Überraschungen, keine Abweichung…
Für deutsche Unternehmen kommt eine zusätzliche Abhängigkeit hinzu: Die meisten basieren ihre Anwendungen auf US-amerikanische Modelle – ChatGPT, Claude, Gemini. Damit importieren sie nicht nur Technologie, sondern auch kulturelle Prägungen, Trainingslücken und nicht überprüfbare Annahmen. Sollte eines dieser Systeme versagen – oder politisch umprogrammiert werden –, treffen die Konsequenzen auch hiesige Firmen.
Was auf den ersten Blick wie technologischer Fortschritt aussieht, ist oft eine Weitergabe von Fehlern – elegant verpackt in neuronale Netzwerke.
Der Kampf um „jungfräuliche Daten“
Nicht alle Daten sind gleich. Je weiter sich KI-Systeme verbreiten, desto wichtiger wird eine seltene Ressource: unverfälschte, menschliche Inhalte. Sie sind das Fundament, auf dem sich verlässliche Sprachmodelle aufbauen lassen – und sie werden knapp.
Google etwa zahlt dem in den USA populären Diskussionsforum Reddit jährlich 60 Millionen Dollar. Nicht für Werbung, sondern für Zugang zu Milliarden von Nutzerkommentaren – spontanen, authentischen Äußerungen aus einer Zeit, bevor das Internet von KI-generierten Texten durchsetzt war.
Solche Texte gelten mittlerweile als Goldstandard…
Der Grund ist einfach – und beunruhigend. Heute erzeugen Systeme wie ChatGPT täglich mehr als 100 Milliarden Wörter. Diese Inhalte mischen sich unter menschliche Texte: in Foren, Newsfeeds, Kundenrezensionen. Künftige Modelle können kaum mehr unterscheiden, was von Menschen stammt – und was aus neuronalen Rückkopplungsschleifen. Die Gefahr: KI wiederholt sich – und verlernt zu unterscheiden.
Die großen Techkonzerne handeln entsprechend. Sie sichern sich letzte Bestände unverfälschter Inhalte: alte Wikipedia-Versionen, Twitter-Archive, geschlossene Foren. Google, Meta und Microsoft bauen sich stille Datenmonopole. Für kleinere Anbieter – insbesondere in Europa – bleiben oft nur synthetisch kontaminierte Reste…«
Die "FAZ" wäre nicht die "FAZ", wenn sie derart nachdenkliche Worte nicht mit konterkarierenden Anzeigen verschönern würde:



Siehe auch:
Interrete delendum esse

Ein Glück, dass es kodoroc gibt. Deutschland ist noch nicht verloren.
Wenn man das Wort KI durch Journalisten ersetzt, dann beschreibt der Text der faz das, was das Blättchen selbst als Qualitätsjournalismus bezeichnet. Natürlich läuft es genau anders herum: Die Qualitätsjournalisten werden durch KI ersetzt.
Die Wahrheit ist privaten Interessen entgegen gerichtet. Denn die Wahrheit würde ja den betrügerischen Charakter der Gesellschaftsordnung sichtbar machen.
MADness, «Model Autophagy Disorder». Das Netz, dass sich beständig selber mit KI-erzeutem Material füttert, versinkt im kybernetischen Schlamm.
«Jack Burnham sprach in einem Interview zu seiner Ausstellung [‹Software›, New York 1970] von ‹mulching› und meinte damit die Kunst, die er in der Software-Ausstellung gezeigt hatte. Für ihn waren das damals zur Erde fallende Blätter, die verwelkten und zu einem Humus wurden, aus dem später einmal, so seine Hoffnung, etwas Neues entstehen würde.
Doch aus diesem Humus ist inzwischen ein Morast aus fragilen Artefakten wie Modems und Festplatten mit nicht dauerhaft überlebensfähigen Datensätzen geworden – ein, in der tatsächlichen wie symbolischen Bedeutung des Begriffs, giftiger Schlamm.
Was bleibt, ist ein Leben in diesem Schlamm – wie die Leibniz’schen Monaden.»
– Lutz Dammbeck, «Der Golem geht um – Affären zwischen Kunst, Wissenschaft und Technologie», in: ‹Aktion 4.0›, #45, 2023 (erweitertes Nachwort zu ders., ‹SEEK›, Spector Books, Leipzig 2023)
https://olaf.bbm.de/nummer-45-lutz-dammbeck-seek
Exponentielle Wachstuemerii
"Die Systeme werden dümmer, die Wahrheit droht zu verfallen"
Genau!
wenn erst mal zu viel an der Waffel ist, dann kommt (vielleicht) sogar ohne KI so etwas dabei raus:
https://www.spiegel.de/wissenschaft/natur/chikungunya-virus-who-warnt-vor-moeglicher-epidemie-a-b540497a-24f6-4561–9f5c-03454d5aa9dc
immerhin vermeidet die WHO (bis jetzt/noch) die Tautologie von der "weltweiten Pandemie" ("Epidemie") genügt.
"Laut WHO-Sprecherin Rojas Alvarez beträgt die Sterblichkeitsrate weniger als ein Prozent. Doch »bei Millionen von Fällen kann dieses eine Prozent Tausende Todesfälle bedeuten«, so Rojas Alvarez."
Mit Mathematik und Statistik hat sie's nicht so (aber das ist ja "seit Corona" normal:
weder, dass das "normale" Sterberisiko in den meisten wohlhabenden Ländern ohnehin über diesem Prozent liegt – und damit generell Essen, Trinken und Atmen lebensgefährlich, wenn man eine Kausalität unterstellt – noch ist es überzeugend, wenn sie von Millionen "Fällen" auf Promillezahlen ("Tausende Todesfälle") kommt.
Neben der Pharmawerbung mittels STIKO-Empfehlungen (schließlich hat man diesmal sicherheitshalber gleich Lebend- und Tot-Stoffe im Angebot) zwecks "Schutz" (wovor nochmal? "schweren Verläufen" oder gar fremder "Vulnerabler"), wittert vielleicht ein Amigo noch ein Geschäft mit
(intensiv?)"mückengeschützten Betten".
Jaja, die Blitzmerker von der FAZ anno 2025.
Schon 2023 konnte man einen Bericht einer Forschergruppe lesen zur Frage: «How is ChatGPT's behavior changing over time?»
https://arxiv.org/abs/2307.09009
Es geht um den Zeitraum Jan. bis Juni 2023. Unter anderem berichten die Autoren, dass ChatGPT anfangs die Frage, ob 17077 eine Primzahl ist, in 97,6% der Fälle richtig beantwortet hat. Im Juni war dieser Wert dann auf 2,4% gefallen.
Die erste Pointe dabei: Seit der Antike gibt es eine Rechenvorschrift, mit der diese Frage in 100% aller Fälle richtig beantwortet werden kann: das Sieb des Erastothenes. Elektronenrechner wurden erfunden, um solche langweiligen Rechnungen maschinell zu machen. Jetzt starten wir also mit weniger als 98%.
Die andere Pointe: Wer will ChatGPT die richtige Antwort mitteilen? Ein Mensch müsste zur Beantwortung dieser Frage ja selber einen Elekronenrechner verwenden. Dumm wenn der KI verwendet.
Soweit zum Fortschritt in der Technik.
KI könnte es schwieriger machen, die Schuld für medizinisches Versagen festzustellen, sagen Experten
Der Einsatz künstlicher Intelligenz im Gesundheitswesen könnte zu einem rechtlich komplexen Schuldspiel führen, wenn es darum geht, die Haftung für medizinisches Versagen festzustellen, warnen Experten.
Die Entwicklung von KI für den klinischen Einsatz hat einen Boom erlebt, wobei Forscher eine Vielzahl von Tools entwickelt haben, von Algorithmen zur Unterstützung der Interpretation von Scans bis hin zu Systemen, die bei der Diagnose helfen können . KI wird auch entwickelt, um die Verwaltung von Krankenhäusern zu unterstützen, von der Optimierung der Bettenkapazität bis hin zur Bewältigung der Lieferketten.
Doch während Experten sagen, dass die Technologie unzählige Vorteile für das Gesundheitswesen bringen könnte, gibt es ihrer Meinung nach auch Anlass zur Sorge, von fehlenden Tests zur Wirksamkeit von KI-Tools bis hin zur Frage, wer verantwortlich ist, wenn ein Patient einen negativen Ausgang hat.
Prof. Derek Angus von der University of Pittsburgh sagte: „Es wird definitiv Fälle geben, in denen der Eindruck entsteht, dass etwas schief gelaufen ist und die Leute sich umschauen und jemandem die Schuld geben.“
The Guardian
https://www.theguardian.com/technology/2025/oct/13/ai-tools-medical-health-liability-artificial-intelligence
13.10.2025