Wusstest du, dass es Mitte der 1970er Jahre und etwa in den 1990er Jahren zu einem “ AI Winter ” kam? Die Menschen waren von den KI‑Versprechen übersättigt und enttäuscht. Das Attribut “KI” wurde als Verkaufsargument zunehmend vermieden. Auch Ende 2025 geisterte die Angst vor der “AI Blase” zunehmend durch die Gazetten des Internets…aber darum soll es hier nicht gehen.
Durch Zufall bin ich über diesen 10 Jahre alten aber immer noch sehr lesenswerten Artikel gestolpert.
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Ich finde: Das ist perfektes Material für einen Jahresausklangs‑ bzw. Jahresausblicksbeitrag.
Bevor ich näher darauf eingehe, möchte ich noch drei Zitate droppen, die im Zusammenhang mit KI immer wieder erwähnt werden müssen:
Larry Tesler (Informatiker aus den USA) meinte einmal:
“Intelligence is whatever machines haven’t done yet.”
Rodney Brooks (Informatiker aus Australien) sagte:
“Every time we figure out a piece of it, it stops being magical; we say, ‘Oh, that’s just a computation.’”
John McCarthy (Informatiker aus den USA, “AI-Pionier”) stellte fest:
“As soon as it works, no one calls it AI anymore.”
Und schließlich Pamela McCorduck (Journalistin aus den USA):
“It’s part of the history of the field of artificial intelligence that every time somebody figured out how to make a computer do something—play good checkers, solve simple but relatively informal problems—there was a chorus of critics to say, ’that’s not thinking.'”
Sinngemäß lassen sich diese Zitate unter dem Begriff “AI Effect” zusammenfassen. Er besagt im Prinzip, dass wir das, was wir aus technologischer Sicht erreicht haben, nicht wirklich “würdigen”.
Als Deep Blue 1997 den Schachweltmeister Kasparov besiegte, hieß es von Seiten der Kritiker, dass das eigentlich nur das Ergebnis von Brute Force wäre. Naja, klar - irgendwie hatten sie auch recht.
Ähnlich ist es heute mit den großen Sprachmodellen, die wir landläufig als “AI” bezeichnen. Kritiker beschreiben das oft nur als das Ergebnis statistischer Berechnungen. Mit Recht: In einem LLM stecken einfach sehr viele Datenpunkte, die durch komplexe Algorithmen verarbeitet werden. Hätten wir die entsprechende Auffassungsgabe, Muster in Billionen von Zahlen zu erkennen, würden wir die “Formel” hinter dem LLM erkennen.
ChatGPT erscheint uns nur als Blackbox, weil es zu groß ist, um es im Ganzen zu begreifen. Wenn man ein neurales Netzwerk auf wenige Layer und Knoten reduziert, wird die faszinierende Einfachheit dahinter sehr schnell sichtbar. Ich hatte das im letzten Jahr in einer kleinen Sammlung von Jupyter-Notebooks einmal nachgezeichnet und hier kann man es im Browser “nachspielen”.
Aber zurück zu dem Artikel von Tim Urban. Hier wird sehr ausführlich und eindrücklich ein psychologischer Effekt beschrieben, der dazu führt, dass wir den Fortschritt in der Zukunft unterschätzen. Normal — wer kann schon in die Zukunft schauen!
Ray Kurzweil, ein bekannter Futurist, prägt den Begriff der “Law of Accelerating Returns”. Die Idee dahinter ist recht einfach: Der Fortschritt beschleunigt sich, weil die Möglichkeiten immer besser werden — ein sich selbst verstärkendes System. Er erklärt das an einem Beispiel: Jemand, der 1750 gelebt hat würde den technologische Fortschritt nach 100 Jahre als drastische Veränderung erleben. Verständlioch. Jemand, der der 1950 gelebt hat, hätte eine vergleichbare drastische Erfahrung bereits nach 50 Jahren! Der Fortschritt nimmt mit jeder neuen Technologie zu, weil diese neue Technologien ermöglicht.
Wie also wird für uns im Jahr 2025 bzw. jetzt 2026 die Welt in 10 Jahren aussehen? Klingt der Hype ab, platzt die Blase oder steht die nächste Revolution bevor? Im Moment ist man sich einig, dass wir den Status der “Artificial Narrow Intelligence” (ANI) erreicht habe. Der nächste Schritt wäre die “Artificial General Intelligence”. Tim Urban sieht drei Möglichkeiten, diese zu erreichen:
-
Rechenleistung — unstrittig. Wusstest du, dass Moore’s Law, dass seit 1975 gilt, vor knapp 10 Jahren an seine Grenzen zu stoßen drohte? Die seit Jahrzehnten etablierte Deep Ultraviolet Lithographie hatte die Grenzen des physikalisch Machbaren erreicht. Doch einerseits nimmt die Entwicklung der Quantencomputer Fahrt auf und selbst in der “konventionellen” Produktion gelang demn niederländischen Hersteller ASML mit der Extreme Ultraviolet Lithographie (EUV) ein bemerkenswerter Durchbruch. “Die Maschine, die Moore’s Law rettete” titelt man ehrfürchtig . Die verwendete Technologie ist zwar seit 30 Jahren bekannt, galt aber als zu kompliziert und unrealisierbar. Sprich: Ein Fortschritt, der bis vor wenigen Jahren noch als utopisch abgetan wurde, ist heute Realität.
-
“Making AI Smart” - schwierig?
Dazu schlägt Tim Urban einige Strategien vor:
-
Das “Gehirn nachahmen”: In 2014 gelang es , das Gehirn eines Plattwurms nachzubilden — mit 302 Neuronen. Zehn Jahre später gelang ein vergleichbares Experiment mit einer Fruchtfliege: 140.000 Neuronen und 50 Millionen Synapsen wurden kartiert und später auch simuliert ( https://flywire.ai/ ) — ein gewaltiger Fortschritt. Rein rechnerisch schaffen wir bis 2029 3 Millionen Neuronen und bewegen uns damit im Bereich von Honigbienen, Kakerlaken und Ameisen.
-
Die Evolution nachahmen: Das klingt komplizierter, als es vielleicht ist — Sprachmodelle arbeiten eigentlich schon heute nach einem vergleichbaren Prinzip. Der Trainingsprozess eines LLM ähnelt dem Prozess der Evolution: Wir iterieren millionenfach über Datensätze, vergleichen die Ergebnisse mit einem Ziel und passen die Parameter an (übrigens — shameless plug — auch den Vorgang habe ich oben von der Pike auf nachgezeichnet). Der einzige Unterschied: Das LLM nutzt eine Loss-Funktion zur systematischen Erreichung eines bekannten Ziels; die Evolution unterliegt dem Selektionsdruck: Es wird so lange “zufällig mutiert”, bis ein optimaler, also aus Überlebenssicht dominanter, Zustand erreicht ist.
-
Lass es den Computer machen — zugegeben, für mich klingt das wie Variante 2, nur deutlicher: Wir geben dem Computer die Aufgabe, AGI zu entwickeln, und lassen ihn dann einfach arbeiten.
Klingt utopisch? Klar. Doch wie utopisch klang es vor 20 Jahren, dass ein Computer Videos erzeugen kann, die du nicht mehr von einer echten Aufnahme unterscheiden kannst? Hättest du vor 10 Jahren gedacht, dass du 2025 kleine kabellose Kopfhörer benutzen kannst , die dir fremde Sprachen in Echtzeit übersetzen? Hättest du Ende der 1990er Jahre, als du dich mit einem quitschenden Modem und einer zerkratzten AOL‑CD ins Internet eingewählt hast, gedacht, dass du in 30 Jahren mit einer Person vom anderen Ende der Welt reden kannst und sie in 3D vor dir siehst ( https://blog.google/technology/research/project-starline-google-beam-update/) ?
Worauf will ich hinaus? Ich bin kein Freund vom gegenwärtigen und anhaltenden AI‑Hype‑Train. Ich befürchte, dass AI‑Slop das Internet noch unwirtlicher machen wird, als
Online‑Marketing in den letzten 20 Jahren vermochte
. Ich muss aber auch zugeben, dass ich selbst der Versuchung nicht widerstehen konnte, allerdings auf ironischer Ebene: Auf dem YouTube‑Kanal “
Soughtful Quotes
” habe ich drei Monate lang jeden Morgen eine überspitzte Motivationsbotschaft gepostet. Das Bildmaterial war echt, die Stimme und die Texte stammen aus der Maschine und wurden von mir nur gegengelesen und leicht angepasst. Die Reichweite war zwar enttäuschend, aber immerhin konnte ich nach kurzer Zeit mitunter über 1000 Aufrufe pro Video und gar nicht mal so schlechte Like‑Raten erzielen. Toll. (ʘ‿ʘ)╯
Über 20% der neuen Reels auf YouTube sollen “AI-Slop” sein, also AI-Inhalte mit minderer Qualität. Texte auf News‑Portalen und Blogs stammen zunehmend aus Maschinen, Spotify löschte im September 75 Mio. KI-generierte Songs, Pinterest berichtet von einer “AI-Invasion” . Facebook kämpft mit 40% künstlichen Beiträgen und selbst Werbung wird zunehmend von der KI erstellt .
Das Web 3.0 prägte den Begriff “User Generated Content”. Im Jahr 2025 haben wir uns davon ziemlich weit entfernt - what a time to be alive!
AI ist in der Lage, die Regeln, nach denen wir Kunst erstellen, Texte schreiben und musizieren, perfekt nachzuahmen, weil all das bestimmten Regeln der Harmonie folgt: der goldene Schnitt in Bildern, Akkorde in der Musik, Grammatik in Texten. Die Grundlage ist oft irgendwie mathematisch und damit ist es berechenbar — und von Computern imitierbar. Doch ist es vieleicht genau das, was wir wollen? Entertainment On Demand? Du öffnest Spotify und musst nicht auf einen Algorithmus vertrauen, der dir aus 300 Millionen Songs den richtigen findet. Stattdessen erstellt dir eine Maschine den Song, den du gut findest, den es noch nicht gibt. Wenn du Netflix startest, wühlst du dich nicht durch tausende Empfehlungslisten und schläfst dann ermattet ein. Du startest einen Stream der genau auf dich zugeschnitten ist. Aus Sicht der Kulturschaffenden und KünstlerInnne klingt das unfassbar gruselig. Und für KonsumentInnen das Paradies?
In früheren Science‑Fiction‑Filmen wird Kunst in der Zukunft oft als bizarr dargestellt: Musik, die keiner erkennbaren Harmonie folgt, seltsam anmutende Bilder. Und auch in der Gegenwart gibt es Genres, die die Regeln brechen und nicht vorhersehbar sein wollen, wie der Dadaismus oder die abstrakte Kunst. In der Meme‑Kultur kennt man das Meme‑Format “Brain Rot”, das sinnfreie Darstellungen zeigt.
Ist das die zukünfttge Form der “menschlichen” Kunst, um sich von der maschinellen Kunst abzuheben? Ist das die Art, wie wir uns von KI‑generierten Inhalten abgrenzen werden? Im Moment klingt es ziemlich abwegig, dass “Brain Rot” etwas sein kann, das wir als unterhaltsam empfinden. Aber hätte man im 19. Jahrhundert jemandem erzählt, Tausende würden zu “Rockmusik” in Stadien strömen, hätte man uns damals für verrückt erklärt. Der AI‑Effect lässt sich nicht nur auf die Technologie, sondern auch auf kulturelle Entwicklungen anwenden.
In “Das fünfte Element” (1997) tritt die Diva Plavalaguna zu bizarren elektronischen Klängen auf. Der Soundtrack von Forbidden Planet (1956) klingt futuristisch, weil bizaar und keiner erkennbaren Harmonie folgend. In Total Recall (1990) wird in der Bar auf dem Mars bizarre Performance-Kunst zur Schau gestellt. Damals hielten wir das für die Zukunft. Aus heutiger Sicht ist das vielleicht ein Blick auf das, was der menschlichen Kunst als Alleinstellungsmerkmal bleibt: Disharmonie, Absurdität, Irrationalität.
Aber bis zur Bevölkerung des Mars wird sicherlich noch viel Wasser den Rhein hinunterfließen. Wie navigieren wir im zweiten Teil der 2020er Jahre durch das Internet, das in der Flut maschinenerzeugter Inhalte, oft nur zum Zweck der Monetarisierung erstellt, versinkt?
Eine Möglichkeit wäre der Web-of-Trust (WoT) Ansatz aus der Kryptologie .
Vor etwa 30 Jahren gelang Google der Durchbruch mit dem PageRank Algorithmus . Je öfter auf eine Seite verlinkt wird, desto relevanter soll sie sein. Das WoT könnte ähnlich funktionieren und darauf basieren, dass Kontakte sich persönlich kennen. Sven von der Schriftrolle kenne ich persönlich. Also erhält diese Verbindung den höchst möglichen Vertrauenswert von 1. Wenn Sven auf eine andere Seite verlinkt, wird der Wert zu einem Teil weitergegeben. So entsteht ein Netz vertrauenswürdiger Seiten. Nun kann man immer noch ein PageRank Algorithmus anwenden, um relevante Inhalte zu finden.
Eine “Suchmaschine”, die neben dem PageRank auch den WoT-Wert berücksichtigt, könnte eine Antwort sein, um einerseits durch den immer dichter werdenden Dschungel aus AI-erzeugten Inhalten zu navigieren. Ein begrüßenswerter Nebeneffekt wäre auch, dass das Geschäftsmodell damit nach und nach austrocknet und der Trust-Value bei der Identizierung von Fake-News und Desinformation helfen könnte.
Übrigens: Dieser Artikel wurde nicht mit KI erstellt; ich benutze KI aber zum Gegenlesen, Korrekturlesen, Faktenchecken (ja, das ist möglich) und zur Erstellung von Illustrationen - wenn ich nicht gerade selbst zeichne.
Reaktionen
Zusammenfassung
Reflexion über den ‚AI Effect‘: warum Fortschritte in der KI oft als ‚nicht wirklich KI‘ abgetan werden und welche historischen sowie zukünftigen Perspektiven damit verbunden sind.
Hauptthemen: Künstliche Intelligenz AI Effect AGI Geschichte der KI
Schwierigkeitsgrad: Mittel
Lesezeit: ca. 10 Minuten