KI: "Die Systeme werden dümmer, die Wahrheit droht zu verfallen"

Viele klu­ge Gedanken sind zu fin­den in einem lan­gen Artikel der "FAZ". Daß KI gele­sen wer­den kann als Kapitalistischer Irrsinn – ein immer Mehr an Waren, um Gewinne zu erzeu­gen, bei denen ein Gebrauchs­wert nur über die Indoktrination von PR und "Meinungsbildung" phan­ta­siert wird –, auf die­sen Gedanken kommt Marcus Schuler nicht.

»Immer mehr KI-Unternehmen spa­ren sich teu­re Trainingsdaten – und las­sen neue Modelle direkt von alten ler­nen. Was effi­zi­ent klingt, ist ris­kant: Durch soge­nann­te Destillation gera­ten Fehler, Vorurteile und Vereinfachungen in Serie. Die Systeme wer­den glat­ter, aber düm­mer. Die Vielfalt schwin­det, die Risiken wach­sen – und die Wahrheit beginnt zu zerfallen…

Das Kaninchen-Paradoxon

Die Antwort des Chatbots klingt zunächst über­zeu­gend: Er beschreibt die Merkmale goti­scher Kathedralen, erklärt den Aufstieg des Spitzbogens und die tech­ni­schen Innovationen des Mittelalters. Doch dann ein Bruch – mit­ten im Text ist plötz­lich von Kaninchen mit ver­schie­den­far­bi­gen Schwänzen die Rede.

Ilia Shumailov, Forscher an der Universität Oxford, starrt irri­tiert auf den Bildschirm. Sein KI-System soll­te eigent­lich sach­lich über Architektur infor­mie­ren – und es funk­tio­niert auch. Zumindest bis zur vier­ten Generation. Danach beginnt es sich selbst zu ent­glei­ten. Denn Shumailov hat es nicht mit neu­en Daten gefüt­tert, son­dern auf die eige­nen Ausgaben trai­niert – wie­der und wie­der. Ein schein­bar harm­lo­ses Experiment.

Das Ergebnis zeigt ein Problem, das längst grö­ßer gewor­den ist als jedes Labor: Immer mehr KI-Systeme ler­nen nicht mehr von Menschen, son­dern von sich selbst. Der Effekt wirkt unsicht­bar, aber schlei­chend: Mit jeder Wiederholung geht etwas ver­lo­ren – Kontext, Nuance, Präzision. Ein Informationsschwund in Raten. Und was zunächst nach Effizienz aus­sieht, könn­te sich lang­fri­stig als struk­tu­rel­le Fehlentwicklung erweisen…

Die drei Todsünden der KI-Zucht

Wenn Künstliche Intelligenz nicht mehr von der Welt lernt, son­dern nur noch von sich selbst, ent­ste­hen syste­mi­sche Risiken. Drei Entwicklungen ste­chen beson­ders her­vor – sie betref­fen die Substanz, die Fairness und die krea­ti­ve Vielfalt der Systeme.

Erstens: Informationsverfall
Mit jeder neu­en Generation geht ein Stück Wirklichkeit ver­lo­ren. KI-Modelle, die mit den Ausgaben ihrer Vorgänger trai­niert wer­den, wie­der­ho­len nicht nur deren Antworten, son­dern über­neh­men auch deren Verkürzungen und Fehler. Wie beim Flüsterspiel ver­zerrt sich die Botschaft mit jeder Weitergabe. Zunächst ver­schwin­den die Randbereiche: sel­te­ne Fakten, kom­pli­zier­te Zusammenhänge, sprach­li­che Nuancen. Übrig bleibt ein glat­ter, aber ent­leer­ter Abklatsch…

Zweitens: Vorurteilsverstärkung
KI-Systeme nei­gen dazu, bestehen­de Verzerrungen zu ver­stär­ken – beson­ders, wenn sie aus Daten ler­nen, die selbst schon feh­ler­haft sind. Whisper, ein weit ver­brei­te­tes Transkriptionsmodell, ver­steht männ­li­che Stimmen mit hoher Genauigkeit, wäh­rend die Erkennungsrate bei weib­li­chen und kind­li­chen Stimmen deut­lich nied­ri­ger aus­fällt. Werden auf Basis die­ser Daten neue Modelle trai­niert, ver­stär­ken sich die Verzerrungen – das Problem wächst sich aus.

Auch in der Arbeitswelt zeigt sich die­ser Effekt. Wenn eine KI auf alten Bewerbungsdaten trai­niert wur­de, in denen Männer bevor­zugt wur­den, wird sie künf­tig männ­li­che Kandidaten syste­ma­tisch höher bewer­ten. Und das näch­ste System über­nimmt genau die­ses Muster – in gutem Glauben. Aus einem Datenfehler wird ein struk­tu­rel­les Urteil.

Drittens: Kreativitätskollaps
Wenn alle Modelle von den­sel­ben Vorläufern abstam­men, beginnt die Vielfalt zu ver­schwin­den. Die Systeme pro­du­zie­ren ähn­li­che Antworten, machen ähn­li­che Fehler, über­se­hen die­sel­ben Ausnahmen. Es ent­steht ein intel­lek­tu­el­les Inzuchtproblem: kei­ne neu­en Gedanken, kei­ne Über­raschun­gen, kei­ne Abweichung…

Für deut­sche Unternehmen kommt eine zusätz­li­che Abhängigkeit hin­zu: Die mei­sten basie­ren ihre Anwendun­gen auf US-ame­ri­ka­ni­sche Modelle – ChatGPT, Claude, Gemini. Damit impor­tie­ren sie nicht nur Technologie, son­dern auch kul­tu­rel­le Prägungen, Trainingslücken und nicht über­prüf­ba­re Annahmen. Sollte eines die­ser Systeme ver­sa­gen – oder poli­tisch umpro­gram­miert wer­den –, tref­fen die Konsequenzen auch hie­si­ge Firmen.

Was auf den ersten Blick wie tech­no­lo­gi­scher Fortschritt aus­sieht, ist oft eine Weitergabe von Fehlern – ele­gant ver­packt in neu­ro­na­le Netzwerke.

Der Kampf um „jung­fräu­li­che Daten“
Nicht alle Daten sind gleich. Je wei­ter sich KI-Systeme ver­brei­ten, desto wich­ti­ger wird eine sel­te­ne Ressource: unver­fälsch­te, mensch­li­che Inhalte. Sie sind das Fundament, auf dem sich ver­läss­li­che Sprachmodelle auf­bau­en las­sen – und sie wer­den knapp.

Google etwa zahlt dem in den USA popu­lä­ren Diskussions­forum Reddit jähr­lich 60 Millionen Dollar. Nicht für Werbung, son­dern für Zugang zu Milliarden von Nutzerkommentaren – spon­ta­nen, authen­ti­schen Äußerungen aus einer Zeit, bevor das Internet von KI-gene­rier­ten Texten durch­setzt war.

Solche Texte gel­ten mitt­ler­wei­le als Goldstandard…

Der Grund ist ein­fach – und beun­ru­hi­gend. Heute erzeu­gen Systeme wie ChatGPT täg­lich mehr als 100 Milliarden Wörter. Diese Inhalte mischen sich unter mensch­li­che Texte: in Foren, Newsfeeds, Kundenrezensionen. Künftige Modelle kön­nen kaum mehr unter­schei­den, was von Menschen stammt – und was aus neu­ro­na­len Rückkopplungsschleifen. Die Gefahr: KI wie­der­holt sich – und ver­lernt zu unterscheiden.

Die gro­ßen Techkonzerne han­deln ent­spre­chend. Sie sichern sich letz­te Bestände unver­fälsch­ter Inhalte: alte Wikipedia-Versionen, Twitter-Archive, geschlos­se­ne Foren. Google, Meta und Microsoft bau­en sich stil­le Daten­monopole. Für klei­ne­re Anbieter – ins­be­son­de­re in Europa – blei­ben oft nur syn­the­tisch kon­ta­mi­nier­te Reste…«

Die "FAZ" wäre nicht die "FAZ", wenn sie der­art nach­denk­li­che Worte nicht mit kon­ter­ka­rie­ren­den Anzeigen ver­schö­nern würde:

Siehe auch:

Interrete del­en­dum esse

8 Antworten auf „KI: "Die Systeme werden dümmer, die Wahrheit droht zu verfallen"“

  1. Wenn man das Wort KI durch Journalisten ersetzt, dann beschreibt der Text der faz das, was das Blättchen selbst als Qualitätsjournalismus bezeich­net. Natürlich läuft es genau anders her­um: Die Qualitätsjournalisten wer­den durch KI ersetzt.

  2. Die Wahrheit ist pri­va­ten Interessen ent­ge­gen gerich­tet. Denn die Wahrheit wür­de ja den betrü­ge­ri­schen Charakter der Gesellschaftsordnung sicht­bar machen.

  3. MADness, «Model Autophagy Disorder». Das Netz, dass sich bestän­dig sel­ber mit KI-erzeu­tem Material füt­tert, ver­sinkt im kyber­ne­ti­schen Schlamm.

    «Jack Burnham sprach in einem Interview zu sei­ner Ausstellung [‹Software›, New York 1970] von ‹mul­ching› und mein­te damit die Kunst, die er in der Software-Ausstellung gezeigt hat­te. Für ihn waren das damals zur Erde fal­len­de Blätter, die ver­welk­ten und zu einem Humus wur­den, aus dem spä­ter ein­mal, so sei­ne Hoffnung, etwas Neues ent­ste­hen würde.

    Doch aus die­sem Humus ist inzwi­schen ein Morast aus fra­gi­len Artefakten wie Modems und Festplatten mit nicht dau­er­haft über­le­bens­fä­hi­gen Datensätzen gewor­den – ein, in der tat­säch­li­chen wie sym­bo­li­schen Bedeutung des Begriffs, gif­ti­ger Schlamm.

    Was bleibt, ist ein Leben in die­sem Schlamm – wie die Leibniz’schen Monaden.»

    – Lutz Dammbeck, «Der Golem geht um – Affären zwi­schen Kunst, Wissenschaft und Technologie», in: ‹Aktion 4.0›, #45, 2023 (erwei­ter­tes Nachwort zu ders., ‹SEEK›, Spector Books, Leipzig 2023)
    https://​olaf​.bbm​.de/​n​u​m​m​e​r​-​4​5​-​l​u​t​z​-​d​a​m​m​b​e​c​k​-​s​eek

  4. wenn erst mal zu viel an der Waffel ist, dann kommt (viel­leicht) sogar ohne KI so etwas dabei raus:
    https://www.spiegel.de/wissenschaft/natur/chikungunya-virus-who-warnt-vor-moeglicher-epidemie-a-b540497a-24f6-4561–9f5c-03454d5aa9dc
    immer­hin ver­mei­det die WHO (bis jetzt/​noch) die Tautologie von der "welt­wei­ten Pandemie" ("Epidemie") genügt.
    "Laut WHO-Sprecherin Rojas Alvarez beträgt die Sterblichkeitsrate weni­ger als ein Prozent. Doch »bei Millionen von Fällen kann die­ses eine Prozent Tausende Todesfälle bedeu­ten«, so Rojas Alvarez."
    Mit Mathematik und Statistik hat sie's nicht so (aber das ist ja "seit Corona" normal:
    weder, dass das "nor­ma­le" Sterberisiko in den mei­sten wohl­ha­ben­den Ländern ohne­hin über die­sem Prozent liegt – und damit gene­rell Essen, Trinken und Atmen lebens­ge­fähr­lich, wenn man eine Kausalität unter­stellt – noch ist es über­zeu­gend, wenn sie von Millionen "Fällen" auf Promillezahlen ("Tausende Todesfälle") kommt.
    Neben der Pharmawerbung mit­tels STIKO-Empfehlungen (schließ­lich hat man dies­mal sicher­heits­hal­ber gleich Lebend- und Tot-Stoffe im Angebot) zwecks "Schutz" (wovor noch­mal? "schwe­ren Verläufen" oder gar frem­der "Vulnerabler"), wit­tert viel­leicht ein Amigo noch ein Geschäft mit
    (intensiv?)"mückengeschützten Betten".

  5. Jaja, die Blitzmerker von der FAZ anno 2025. 

    Schon 2023 konn­te man einen Bericht einer Forschergruppe lesen zur Frage: «How is ChatGPT's beha­vi­or chan­ging over time?»
    https://​arxiv​.org/​a​b​s​/​2​3​0​7​.​0​9​009

    Es geht um den Zeitraum Jan. bis Juni 2023. Unter ande­rem berich­ten die Autoren, dass ChatGPT anfangs die Frage, ob 17077 eine Primzahl ist, in 97,6% der Fälle rich­tig beant­wor­tet hat. Im Juni war die­ser Wert dann auf 2,4% gefallen.

    Die erste Pointe dabei: Seit der Antike gibt es eine Rechenvorschrift, mit der die­se Frage in 100% aller Fälle rich­tig beant­wor­tet wer­den kann: das Sieb des Erastothenes. Elektronenrechner wur­den erfun­den, um sol­che lang­wei­li­gen Rechnungen maschi­nell zu machen. Jetzt star­ten wir also mit weni­ger als 98%.

    Die ande­re Pointe: Wer will ChatGPT die rich­ti­ge Antwort mit­tei­len? Ein Mensch müss­te zur Beantwortung die­ser Frage ja sel­ber einen Elekronenrechner ver­wen­den. Dumm wenn der KI verwendet.

    Soweit zum Fortschritt in der Technik.

  6. KI könn­te es schwie­ri­ger machen, die Schuld für medi­zi­ni­sches Versagen fest­zu­stel­len, sagen Experten 

    Der Einsatz künst­li­cher Intelligenz im Gesundheitswesen könn­te zu einem recht­lich kom­ple­xen Schuldspiel füh­ren, wenn es dar­um geht, die Haftung für medi­zi­ni­sches Versagen fest­zu­stel­len, war­nen Experten.

    Die Entwicklung von KI für den kli­ni­schen Einsatz hat einen Boom erlebt, wobei Forscher eine Vielzahl von Tools ent­wickelt haben, von Algorithmen zur Unterstützung der Interpretation von Scans bis hin zu Systemen, die bei der Diagnose hel­fen kön­nen . KI wird auch ent­wickelt, um die Verwaltung von Krankenhäusern zu unter­stüt­zen, von der Optimierung der Bettenkapazität bis hin zur Bewältigung der Lieferketten.

    Doch wäh­rend Experten sagen, dass die Technologie unzäh­li­ge Vorteile für das Gesundheitswesen brin­gen könn­te, gibt es ihrer Meinung nach auch Anlass zur Sorge, von feh­len­den Tests zur Wirksamkeit von KI-Tools bis hin zur Frage, wer ver­ant­wort­lich ist, wenn ein Patient einen nega­ti­ven Ausgang hat.

    Prof. Derek Angus von der University of Pittsburgh sag­te: „Es wird defi­ni­tiv Fälle geben, in denen der Eindruck ent­steht, dass etwas schief gelau­fen ist und die Leute sich umschau­en und jeman­dem die Schuld geben.“

    The Guardian

    https://​www​.the​guar​di​an​.com/​t​e​c​h​n​o​l​o​g​y​/​2​0​2​5​/​o​c​t​/​1​3​/​a​i​-​t​o​o​l​s​-​m​e​d​i​c​a​l​-​h​e​a​l​t​h​-​l​i​a​b​i​l​i​t​y​-​a​r​t​i​f​i​c​i​a​l​-​i​n​t​e​l​l​i​g​e​nce
    13.10.2025

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert