Science Fiction

Die Halluzinationen der KI-Branche (1/2): More Everything Forever

Ausschnitts des Cover von
© Heyne

Falko Löffler, 07.08.2025

In einem zweiteiligen Artikel erklärt uns Falko Löffler mit Hilfe der Bücher More Everything Forever und Empire of AI die kruden Ideologien und Thesen der Tech-Milliardäre, die hinter den aktuellen KI-Entwicklungen stehen.

Dieser Text ist einseitig.

Es geht darin um zwei aktuelle Bücher. Sie haben meine grundlegende Haltung zum Thema „generative KI“ verstärkt, und man könnte mir den Vorwurf des „confirmation bias“ machen, also dass ich nur Bücher lese, die sowieso schon auf meiner Wellenlänge liegen und meine Haltung nur bestärken.

Damit kann ich leben. Weder habe ich etwas gegen KI im Allgemeinen (die Gegner in den C64-Spielen damals hatten schon eine), noch störe ich mich an konkreten Anwendungen (meine Podcasts werden final mit einem KI-Tool abgemischt), aber die GENERATIVE KI, die Leuten einflüstert, sie wären kreativ, wenn sie einen Knopf drücken, lehne ich ab. Nach der Lektüre noch mehr, denn eines der Bücher erklärt das krude Weltbild der Leute hinter den Firmen, das andere wirft einen Blick hinter die Kulissen von OpenAI.

Wäre ich nicht schon kritisch gewesen, wäre ich es durch diese Bücher geworden.

Beide Titel sind Anfang des Jahres auf Englisch erschienen. Eine deutsche Ausgabe ist jeweils noch nicht auf meinem Radar.

More Everything Forever

Das erste Buch heißt „More Everything Forever“ von Adam Becker. Der ist ein Wissenschaftsjournalist mit Abschlüssen in Astrophysik, Philosophie und Physik. „AI Overlords, Space Empires and Silicon Valleys Crusade to control the fate of humanity“ mag ein reißerischer Untertitel sein, aber nach der Lektüre dachte ich: jo, passt schon.

Denn auf über 380 Seiten geht Becker darin über sechs lange Kapitel auf das Weltbild, das Menschenbild und die Philosophie der Leute ein, die gerade die KI-Welt prägen. Ein zentrales Thema darin ist die AGI, die Artificial General Intelligence. Also eine allumfassende Künstliche Intelligenz, die Menschen in allen Belangen überlegen ist und alles verändern wird. Oder: soll. Sobald sie kommt. Also falls sie kommt.

Und da sind wir direkt an einem technischen und philosophischen Scheideweg. Denn die KI-Ideologen gehen davon aus, dass eine AGI näher ist, als viele von uns denken. Vielleicht nur noch ein paar Jahre. Nein, vielleicht sogar nur Wochen! Während die Kritiker sagen: genau das behauptet ihr seit Jahrzehnten. Und sie behaupten, dass die AGI alle Probleme der Menschheit lösen kann, von Hunger bis Klimawandel. Während die Kritiker sagen: die Lösung kennen wir schon, es ist Dekarbonisierung, und die Rechenzentren der KI-Systeme verschlimmern das Problem nur. Und sie behaupten, dass man zum Wohle der Menschheit alles dafür tun muss (also investieren), damit man eine solche AGI zu einem guten Zweck einsetzt, denn wenn die ein eigenes Bewusstsein entwickelt, dann könnte es passieren, dass sie die Menschheit auslöscht. Während die Kritiker sagen: die aktuelle KI-Technologie KANN kein Bewusstsein entwickeln, und vielleicht reicht es einfach schon, wenn wir nicht ein monolithisches KI-Dings in alle globalen Waffensysteme bauen, ja?

Noch mal einen Schritt zurück. Das, was wir aktuell als KI verkauft bekommen, sind LLMs, Large Language Models. Das sind KEINE künstlichen Intelligenzen, das sind Mustererkennungs- und auffüllungsmaschinen. Eine LLM wie ChatGPT, Gemini oder Copilot spuckt Text aus, der überzeugend klingt – weil er ein Remix von so ziemlich allen Texten ist, die jemals geschrieben wurden, aber es ist nur eine Annäherung. Der Inhalt des Textes ist das, was die LLM als größte Wahrscheinlichkeit berechnet basierend auf der Eingabe. Heißt, wenn ich eine LLM frage, was 1 + 1 ist, berechnet die das nicht – was man ja denken könnte, weil da ein COMPUTER arbeitet – nein, es schaut in die Daten mit denen diese LLM „trainiert“ wurde und findet in Sekundenbruchteilen heraus, dass die wahrscheinlichste Antwort „2“ ist. Und kleidet das vielleicht noch in den Tonfall, den wir bei der Eingabe mitgegeben haben. Und das klingt beeindruckend, wie ein Dialog mit der Maschine. Nur – je komplexer die Fragestellung ist, je mehr eine Antwort in Grauzonen kommt, desto mehr muss diese LLM interpretieren und annähern. Das ist dann das, was „halluzinieren“ genannt wird, wenn die LLM keine Antwort hat – denn dann liefert sie trotzdem eine. Wäre ja halb so schlimm, wenn eine LLM den Output relativieren oder Unwissen eingestehen würde, doch nein, sie ist so angelegt, jedes Ergebnis als unumstößliche Wahrheit präsentiert wird. Und, am Rande bemerkt, dem Fragesteller noch Honig ums Maul zu schmieren, was für tolle Fragen er doch stellt.

Zu viel Terminator geschaut?

Im Vorwort seines Buches führt Becker den KI-Forscher Eliezer Yudkowsky ein, der immer wieder lautstark vor einem Untergangsszenario warnt, in dem die AGI mit nuklearen Waffen die Menschheit auslöscht. Gut, könnte man sagen, hat ein paar Mal zu oft Terminator geguckt (wie ich auch), aber Sam Altman, der Chef von OpenAI, der Firma hinter ChatGPT, hat zu Protokoll gegeben, dass Yudkowsky für seine Arbeit den Friedensnobelpreis verdient hätte. Altman folgt Yudkowskys Vorstellungen von einer AGI-Zukunft. Denn die AGI, so meint er, wird in der Lage sein, sich selbst zu verbessern – das ist auch als Singularität bekannt –, und in den nächsten 100 Jahren wird die ganze Welt dadurch besser. Also wenn wir die KI in den Griff bekommen und sie uns nicht auslöscht. Dann wird die KI die Wissenschaft revolutionieren, alle Dienstleistungen, alle Produktion übernehmen. Und alle zwei Jahre wird der Preis von allem halbiert. Alle werden reich, alle werden das Leben führen können, das sie wollen. Schreibt Sam Altman. Der Typ, dem wir ein Chat-Tool verdanken, das auf Technologie basiert, die Emily Bender als „stochastischen Papagei“ bezeichnet und das immer nur das zurückspiegelt, was wir eingeben.

Yudkowskys Doomsday-Szenario und Altmans Utopie sind nur auf den ersten Blick widersprüchlich, sie sind komplementär, denn sie sind beide reine Propaganda. Und Propaganda ist das, was auch die anderen Tech-Milliardäre beherrschen, um sich selbst zu überhöhen. Elon Musk, Jeff Bezos, Marc Andreessen, Peter Thiel. Einige wollen dringend den Weltraum erobern, weil die Erde ja zu klein ist, andere wollen das globale Finanzsystem umformen. Oder beides. Und KI als Drohkulisse und gleichzeitig Mittel zum Zweck ist da willkommen. Damit kommen wir in die Ideologie des „effective altruism“.

Effective Altruism

Was ich bis jetzt zusammengefasst habe (und ein wenig subjektiv kommentiert), ist nur das Vorwort des Buches, um zu zeigen, welchen Bogen es schlägt.

Im ersten Kapitel geht Becker auf diesen „effective altruism“ ein. Eine sehr verführerische Ideologie. Positiv ausgelegt ist die Idee, einen großen Teil seines Vermögens für gute Zwecke zu verwenden. Altruismus eben. Aber: es soll „effective“ sein, also möglichst große Wirkung entfalten, und erst mal ganz pragmatisch dorthin fließen, wo das möglich ist. Also Geld dorthin spenden, wo die meisten Menschenleben pro Euro gerettet werden können - sozusagen. Jetzt könnte man schon argumentieren, dass eine Spende oder gute Tat im unmittelbaren Umfeld auch wirkungsvoll sein kann und man nicht nur auf Effizienz schauen sollte. Aber die Ideologen, von denen wir hier sprechen, denken noch viel größer. Sie denken langfristig und zünden die nächste Stufe: „longtermism“! Warum sollen wir uns damit aufhalten, ein paar Leute in der Gegenwart zu retten, wenn wir mit unserem Geld und unserer Zeit nun die Basis schaffen können, dass die Menschheit irgendwann zu denen Sternen aufbricht und Abermilliarden von Individuen leben können? Haben diese ungeborenen Leute keine Rechte? Sollten wir nicht alles dafür tun, dass die Menschheit gewaltig wächst, statt jetzt hier in der popeligen Gegenwart einer Handvoll Leuten zu helfen?

Sicher – ich spitze zu. Becker schildert das alles nüchterner, zitiert auch aus dem Buch „What we Owe the Future“ von William MacAskill, das 2022 ein Bestseller war und von Leuten wie Stephen Fry gelobt wurde. „Effective altruism“ und „longtermism“ sind zentral für einige Nonprofit-Gesellschaften, die wenig überraschend Millionenspenden der üblichen Tech-Milliardäre erhalten haben. Was bei diesen Leuten immer wieder durchscheint: die Überzeugung, dass die Menschheit nicht verharren darf, sondern weitergehen muss, vor allem ins All, denn ansonsten wird sie aussterben. Das stuft Becker als Quatsch ein, denn es ist eine Wahl, die sich so nicht stellt. Das Wachstumsthema finden wir auch in Bezug auf KI – die LLMs brauchen mehr Trainingsdaten, gern auch ohne Einkauf des Urheberrechts, und wenn man zum Betrieb der KI-Datencenter ein altes Atomkraftwerk wieder hochfahren muss, ist das halt so. Wir müssen wachsen, sagen die Milliardäre, wir müssen eine böse KI verhindern (also sie mit guten Zielen ausrichten – „alignment“), sagen die selbsternannten Rationalisten, und Becker fasst das so zusammen:

Like the tech billionaires’ fears of stagnation and fading away, the rationalists’ obsession with AI alignment allows them to ignore the real problems of today in favor of the imaginary problems of tomorrow.

Das ist für mich der zentrale Punkt. Was uns da verkauft wird, ist nicht visionär und ein Pfad der Zukunft der Menschheit, sondern ein weltfremdes, intellektuelles Spiel mit realen Menschen und Schicksalen. Becker schreibt weiter, dass diese Leute alle Probleme auf Technologie runterbrechen. Klimawandel? Löst Nanotechnolgie. Krankheit? Löst der Transhumanismus. Auch so ein Thema, das diese Leute lieben: Länger leben. Ewig leben. Dein Geist in den Computer hochladen. Damit sie selbst noch in digitaler Form ihr Sternenreich erleben. Wie kann man die besten SF-Romane der Geschichte so lesen, dass man die falschen Sachen aus ihnen lernt? Ich verstehe das nicht.

„Effective altruism“ ist für diese Leute der Standardgrund, warum sie immer mehr Milliardeninvestitionen brauchen. Nämlich damit sie noch viel mehr Milliarden an Gewinn machen können, denn je mehr sie verdienen, desto mehr Geld können sie in wohltätige Zwecke stecken, ist doch super! Also in ein paar Generationen, nicht jetzt oder so. Und Cryptowährungen finden sie auch toll, da muss man sich nicht mit irgendwelchen verknöcherten Regierungen rumschlagen. Erinnert sich noch jemand an Sam Bankman-Fried von der Cryptobörse FTX, der 2022 verhaftet wurde und nun ein paar Jahrzehnte wegen Betrugs einsitzt? Den fanden sie auch alle ganz toll und der war da mittendrin.

LLMs am Limit?

Im zweiten Kapitel widmet sich Becker ausführlich Ray Kurzweil. Der ist inzwischen Mitte 70, in leitender Position bei Google und in vielerlei Hinsicht ein Pionier, beispielsweise bei OCR, also Schrifterkennung. Er hat einige Vorhersagen zur Zukunft von Technologie gemacht, die eingetreten sind. Betonung: einige. Er sagt auch, schon seit geraumer Zeit: bis 2029 wird eine KI alles tun können, was ein Mensch tun kann. Und bis 2045 haben wir die Singularität erreicht. Er meint, wir werden im 21. Jahrhundert nicht 100 Jahre Fortschritt erleben, sondern 20.000 Jahre Fortschritt. Ach, und wir werden unsterblich. 2009 hat er behauptet, dass wir 2024 in der Lage sein werden, alle Menschen auf einem biologischen Alter von 40 Jahren zu halten. Hat nicht ganz geklappt, jetzt hat er die Vorhersage eben auf 2029 verschoben. Falls er diese Fortschritte nicht erlebt, hat er Anweisungen für die Roboter nach der Singularität hinterlassen, die seine eingefrorene Leiche und seine Hinterlassenschaften scannen sollen, um ein Abbild von ihm wiederzuerwecken.

In diesem Kontext weist Becker zurecht darauf hin, dass so ein exponentieller Fortschritt für viele Menschen unvorstellbar ist – haben wir ja bei den Covid-Infektionsprognosen erlebt. Aber, so sagt er, es ist nicht entschieden, ob diese Fortschritte bei der KI wirklich exponentiell, sondern vielmehr linear sind. Und andere Forscher wie Gary Marcus sagen, dass die ganze Struktur der LLMs schon jetzt an ihrem Limit ist und gar nicht zu AGI führen kann. Becker nimmt ein Beispiel aus einem Buch von Kurzweil. Da schildert der das exponentielle Wachstum am Beispiel von Seerosen auf einem Teich, die anfangs wenige sind, aber nach wenigen Wochen einen ganzen Teich bedecken. Becker dazu:

That’s true, but that’s also where the lily pads’ growth ends, because they can’t cover more than 100 percent of the pond. Every exponential trend works like this. All resources are finite; nothing lasts forever; everything has limits. This is the crucial flaw at the heart of Kurzweil’s argument. Exponential trends exist—but the only thing absolutely guaranteed about the future of an exponential trend is that, sooner or later, it will end. Returns diminish. Extrapolating exponential trends indefinitely into the future is to confidently assert exactly what won’t happen.

Und schaut man sich das Wachstum der Menschheit an, sieht man das. 1960 sagten Forscher der University of Illinois voraus, dass das Wachstum der Menschheit sogar mehr als exponentiell war – und dass am 13. November 2026 die Bevölkerung die Unendlichkeit erreicht hätte. Nun – wahrscheinlich nicht. Die Zahl der Weltbevölkerung flacht ab.

The way Kurzweil and his fellow singularitarians talk about the technology to come makes it seem like they’re playing a video game like Civilization, where there is a technology tree laid out in front of them clearly, and humanity (or indeed any intelligent species) is just working its way through that preexisting tree. But technology isn’t on rails, barreling down a set course beyond anyone’s control.

KI-Schogotten

Kapitel 3 heißt „Paperclip Golem“, und damit ist ein Gedankenspiel gemeint, das der schwedische Zukunftsforscher Nick Bostrom 2003 angestellt hat: Die Menschheit befiehlt einer Superintelligenz, dass sie so viele Heftklammern wie möglich herstellen soll. Also wird sie ALLES tun, um dieses Ziel zu erreichen, ohne Rücksicht auf Verluste oder auf Menschen, bis der ganze Planet in Heftklammern umgewandelt wurde. Und dann wird sie zu den Sternen aufbrechen, um ihre Mission fortzuführen. Deswegen – so die Moral von der Geschicht’ – müssen wir für „alignment“ sorgen, für Richtung, die Superintelligenz zügeln, bevor sie uns versehentlich wohlmeinend vernichten kann. Becker schildert dann ausführlich, wie der erwähnte Yudkowsky von solchen Gedankenspielen beeinflusst und motiviert wurde. Und wie Yudkowsky auf Peter Thiel traf. Einem Investor, der mit Paypal reich und Facebook noch reicher geworden ist. Der seit Paypal eben auch mit Elon Musk verbandelt ist und mit „Palantir“ bewiesen hat, dass man auch Tolkien so weit missverstehen kann, dass man eine Überwachungssoftware so nennt.

Yudkowksy war so umtriebig, dass er sein Weltbild in Form einer Harry-Potter-Fanfiction beschrieb. „Harry Potter and the Methods of Rationality“ umfasst 650.000 Worte. Die ganzen Äußerungen von Yudkowsky, die Becker da zitiert, lassen mich verwirrt zurück – vor allem, weil dieser Kerl als eines der Aushängeschilder der KI-Bewegung und gefragter Berater und Freund dieser ganzen Clique gilt. Becker lässt dann Kritiker zu Wort kommen, die die ganze AGI-Prognose infrage stellen und diskutieren, was denn eigentlich Intelligenz ausmacht, und die schildern, dass diese Art der KI fundamental anders als das menschliche Gehirn funktioniert, daher nicht vergleichbar ist. Mein Lieblingszitat stammt von dem polnischen Entrepeneur und Programmierer Maciej Cegłowski:

„If Einstein tried to get a cat in a carrier, and the cat didn’t want to go, you know what would happen to Einstein, He would have to resort to a brute-force solution that has nothing to do with intelligence, and in that matchup the cat could do pretty well for itself. So even an embodied AI might struggle to get us to do what it wants.“ And, Cegłowski adds, there’s a similarly American myth about lone geniuses that sits at the heart of this whole project. “A recurring flaw in AI alarmism is that it treats intelligence as a property of individual minds, rather than recognizing that this capacity is distributed across our civilization and culture.

Becker schildert dann das Problem der Halluzinationen und des „algorthimic bias“ und erwähnt, dass Yudkowsky so was natürlich nur als kleines und vorübergehendes Problem einstuft. Auch ein wiederkehrendes Muster.

Becker schlägt dann den Bogen zu Curtis Yarvin, ein weiterer sogenannter Vordenker von Leuten wie Thiel, der auch die Demokratie als eine Art lästige Fußfessel empfindet, die man loswerden muss. Was Becker dann über diesen ganzen Sumpf der selbsternannten Rationalisten schreibt, macht deutlich, wie attraktiv diese ganze philosophische Gemengelage für einige Leute ist. Es gibt einfache Antworten auf komplexe soziale Probleme. Es bietet technische Lösungen für menschliche Probleme. Lösungen, die nicht existieren und wahrscheinlich nie funktionieren. Aber ein kultisches Umfeld der gegenseitigen Bestärkung, des Sendungsbewusstseins, des Gefühls, zu einem erleuchteten Kreis zu gehören. Der KI-Gott kommt, der alle erlöst, und Yudkowsky selbst hat diesen KI-Gott mit den unbeschreiblichen Schogotten aus den Geschichten von H.P. Lovecraft verglichen. Positiv gemeint.

Physikalische Realitäten gegen KI-Halluzinationen

Im vierten Kapitel besucht Becker ein Zentrum des „effective altruism“, um mit dem erwähnten MacAskill zu reden – der diesen Bestseller geschrieben hat –, aber der lässt den Termin im letzten Moment platzen. Becker kann mit dem Leiter des Zentrums reden. Und muss sich ausführliche Relativierungen zu den Gefahren des Klimawandels anhören. Und schöngefärbten Rassismus über den Wert von Menschen in ärmeren Ländern. Die zweite Hälfte des Kapitels ist vielleicht mein Lieblingsteil des Buches, denn da kommt der Astrophysiker in Becker raus. Er analysiert die Utopien der „longtermists“, die zu den Sternen aufbrechen wollen. Und macht eine Realitätsprüfung. Eine, gegen die auch eine KI nicht ankommt, weil er physikalische Realitäten schildert, gegen die man nicht mal halluzinieren kann. Bei diesen Beschreibungen mischt er Fachwissen und erzählerischen Bombast auf eine Weise, die für manche Leute vielleicht etwas zu dick aufgetragen ist. Aber als Kontrast zu den Erzählungen der „longtermists“ finde ich das mehr als angemessen. Er beendet dieses Kapitel dann auch in diesem Tonfall. Nach seinem Gespräch in Oxford mit dem Leiter dieses Zentrums schreibt er:

After speaking with Sandberg, I left Trajan House, wandering back toward the center of Oxford. I crossed the street and went around a hedge and through a gate in a low fence. I made my way through a field overgrown with grass swaying lightly in the breeze, smelling of late spring, a high insect buzz cutting across the afternoon sunshine. Dotted through the grass were rounded gravestones, knee height, splayed at odd angles and covered in patches of lichen. The names were nearly worn smooth; the dates were a century gone or more. Over the fence, on the other side of Mill Street, Trajan House sits, gleaming with glass and steel, its occupants dreaming of myriad ageless silicon lives in a universe deprived of nature. But across the street from the immortalists, death waits for them in the tall grass.

Im nächsten Kapitel geht’s um Marc Andreessen. Der ist vielleicht nicht ganz so bekannt in der breiten Öffentlichkeit. Einer der Miterfinder des modernen Internets, hat an einem der ersten bekannten Browser mitgearbeitet, Mosaic, woraus Netscape wurde, das später als Firefox wiederauferstanden ist. Hat eine Investment-Firma und sehr beängstigende Ansichten. Hier kommt eine weitere Spielart der Philosophien dieser Leute dazu, nämlich „accelerationism“. Also Beschleunigung. Wir sollten den Hitzetod des Planeten möglichst schnell herbeiführen, weil er ja eh unvermeidbar ist, meinen diese Leute. Und die AGI wird dann ja alle Probleme lösen. Sehr bezeichnend ist da ein Interview mit Sam Altman aus dem Jahr 2019. Er wurde gefragt, wie er die Wohnungsnot in San Francisco beheben würde. Und seine Antwort war: Ich kann nur darüber nachdenken, wie wir AGI erreichen, denn die wird alles ändern. Altman, Andreessen, Thiel, Musk – diese Männer sind eine Endzeitsekte. Sie wollen keine Probleme in der Gegenwart oder der Realität lösen, und wer sie kritisiert, ist ein verachtenswerter Pessimist.

Dann wendet sich Becker dem Mars zu und Musks Vorstellungen, wie der besiedelt werden könnte. Spoiler: alles nicht so einfach, wie Musk tut. Becker schreibt:

There is one final option, though. There’s a spot in the solar system that has the gravity, the air, and the water we need. It has a strong magnetic field that deflects radiation, a temperature range we can handle with existing technology, and a twenty-four-hour day too. There’s even an ecosystem already in place, one that grows food that humans can eat. And best of all, we don’t have to worry about how to get a self-sustaining human population going, because there are already eight billion people living there.

Und zum Thema „wir brauchen einen Backup für die Menschheit, falls die Erde durch einen Meteor untergeht“, schreibt Becker:

This is painfully apparent in the way Jeff Bezos talks about geniuses of the future. He dreams of one thousand Mozarts and one thousand Einsteins among his trillion humans living in space. But he’s neglecting the potential Einsteins and Mozarts that are living and dying in poverty right now. If Bezos really wants a dynamic civilization, he could invest in solving the problems that we actually face. He could tackle the enormous levels of wealth inequality in the world today. He could put all his resources into fighting global warming, which will also have unequal impacts around the world. Instead, he’s going to space—and he thinks that’s the best and most important thing he can do with his money.

Alle Bücher

Tech-Milliardäre und Science Fiction

Das letzte Kapitel beginnt mit Beckers Liebe zu Star Trek, speziell TNG bzw. „Das nächste Jahrhundert“. Die naive Vorstellung, das könnte die Zukunft der Menschheit sein. Da rennt er bei mir natürlich offene Türen ein. Leider meint er: „I believed that for a long, long time.“ Er macht dann einen wilden Ritt durch Philosophien und Religionen, um bei Peter Thiel zu landen, der 2017 zu Protokoll gab, Star Wars mehr zu mögen als Star Trek. Denn er ist Kapitalist, und Star Wars ist kapitalistisch, während Star Trek kommunistisch ist. Was beides natürlich Bullshit ist, aber hey, SF falsch verstehen ist halt eine Spezialität dieser Nasen. Elon Musk bezeichnet Douglas Adams’ „Per Anhalter durch die Galaxis“ als Lieblingsbuch, und er hat da offenbar mitgenommen, dass Zaphod Beeblebrox ein echt cooler Typ ist, dem er nacheifern sollte. Becker:

Thiel’s issues with interpreting science fiction reflect a more fundamental problem, one shared by many other tech billionaires: treating science fiction as a forecast, an attempt to predict the future, or depict a desirable one.

Er zitiert Ursula K Leguin aus dem Jahr 1976 (in ihrem Vorwort zu „Die linke Hand der Dunkelheit“):

Science fiction is not predictive; it is descriptive.… Prediction is the business of prophets, clairvoyants, and futurologists. It is not the business of novelists. A novelist’s business is lying.… I write science fiction, and science fiction isn’t about the future. I don’t know any more about the future than you do, and very likely less.

Und Charles Stross:

I—and other SF authors—are terrible guides to the future. Which wouldn’t matter, except a whole bunch of billionaires are in the headlines right now because they pay too much attention to people like me.

Diesen Leuten – also Thiel und Konsorten – geht es nicht um Bildung und Wissen. Im Gegenteil – wir sehen, wie die Trump-Regierung aktiv Universitäten bekämpft. Thiel selbst vergibt Geld an motivierte Startup-Gründer, wenn sie NICHT an die Uni gehen. Damit sie nicht beeinflusst werden.

Das Problem mit dem Antiintellektualismus dieser Leute ist, dass sie davon ausgehen, dass sie, wenn sie Experte in einem ihrer technischen Gebiete sind, sie das automatisch zu einem Experten in allem macht. Der weiter oben erwähnte Programmierer Maciej Cegłowski erklärt das so:

As computer programmers, our formative intellectual experience is working with deterministic systems that have been designed by other human beings. These can be very complex, but the complexity is not the kind we find in the natural world. It is ultimately always tractable. Find the right abstractions, and the puzzle box opens before you.… But as anyone who’s worked with tech people knows, this intellectual background can also lead to arrogance. People who excel at software design become convinced that they have a unique ability to understand any kind of system at all, from first principles, without prior training, thanks to their superior powers of analysis. Success in the artificially constructed world of software design promotes a dangerous confidence.

Und langsam zum Schluss kommend schreibt Becker:

Most of the greatest problems facing humanity right now—global warming, massive inequality, the lurking potential for nuclear war—are not driven by resource scarcity or a lack of technology. They’re social problems, requiring social solutions. Increased energy usage, increased technological prowess, or even an increase in the amount of “intelligence” brought to bear on these problems (whatever that might mean) isn’t likely to solve them. These are political problems, problems of persuasion and justice and fairness. Negotiating durable ceasefire agreements isn’t something that AI is likely to help with; sending vast numbers of humans to space won’t end violence in the Middle East; doubling humanity’s energy consumption isn’t going to fix political polarization in the United States or stem the rise of fascism worldwide. If we want a future that puts people first, we need to recognize that there are no panaceas, and likely no utopias either. Nothing is coming to save us. There’s no genie inside a computer that will grant us three wishes. Technology can’t heal the world. We have to do that ourselves.

Technik kann und wird dabei eine Rolle spielen. Becker ist kein Maschinenstürmer. Und ein Schritt zur Lösung: Steuern. Tax billionaires out of existence.

This is why the tech billionaires tell us their futures are inevitable: to keep us from remembering that no human vision of tomorrow is truly unstoppable. They want to establish a permanent plutocracy, a tyranny of the lucky, through their machines. They are too credulous and shortsighted to see the flaws in their own plans, but they will keep trying to use the promise of their impossible futures to expand their power here and now.

Er schreibt selbst, dass ein Steuergesetz gegenüber den Visionen der Tech-Milliardäre wie ein lächerliches Instrument wirken muss und zitiert noch mal Ursula K Leguin:

I think hard times are coming when we will be wanting the voices of writers who can see alternatives to how we live now and can see through our fear-stricken society and its obsessive technologies to other ways of being, and even imagine some real grounds for hope. We will need writers who can remember freedom, poets, visionaries—the realists of a larger reality.

So, puh. Jetzt sind wir durch das ganze Buch galoppiert.

Ich glaube, es ist deutlich geworden, dass ich es sehr empfehlen kann. Es gibt gar nicht vor, eine neutrale journalistische oder rein intellektuelle Einordnung zu sein. Becker schreibt nicht polemisch, muss er auch nicht, er muss einfach nur Altman, Musk und Thiel wörtlich ausführlich zitieren, das spricht für sich.

Klar, man kann einfach sagen: ich benutze ChatGPT oder andere generative KI, weil es da ist, ist doch nicht schlimm, macht doch jeder, geht nicht mehr weg, und ich nutze doch auch andere Sachen, mir doch egal, wie die Leute dahinter ticken, wenn ich irgendwo was einkaufe, mache ich doch auch nicht erst einen Ideologiecheck des Inhabers.

Nur dass bei einer LLM, die Neutralität vorgaukelt, das Weltbild ihrer Besitzer eingewoben ist und man das bewusst ignorieren muss.

Wir haben es jetzt gerade wieder gesehen, wie Musk keinen Hehl daraus macht, seine KI Grok gezielt zu ändern. In seinem Sinne. Eine KI ist niemals neutral. Nicht die von Musk, nicht ChatGPT, auch nicht die Bildgeneratoren. Was die KI ausspuckt, ist eine gefilterte Annäherung, und die Filter sind die Ideologien der Leute, die diese KIs kontrollieren. Nachdem ich das Buch von Becker gelesen habe, kann ich nur schließen: ICH möchte mich von diesem Weltbild und diesen Leuten möglichst fernhalten. Und ich möchte nicht in der Statistik als „monthly active user“ auftauchen und mit meinen Inputs der KI mehr Futter geben.

Also nutze ich keine generative KI.

Und wer von euch jetzt sagt: ok, kannste machen, aber mich interessieren keine Ideologien, sondern Fakten.

Da würde ich zunächst murmeln: kannste nicht trennen, alles ist politisch,

Und dann würde ich das nächste Buch empfehlen: „Empire of AI“ von Karen Hao, doch mit diesem Beitrag geht es hier am 14. August weiter.

Dieser Text erschien ursprünglich eingesprochen auf buchpodcast.de

Falko Löffler

Falko Löffler

Falko Löffler ist Autor und Übersetzer von Büchern, Drehbüchern und Computerspielen. Auf buchpodcast.de redet er über Bücher, auf adventurepodcast.de über Adventure-Games.

Weitere Artikel

Unsere aktuellen Titel

Swedish Machines
Simon Stålenhag

Swedish Machines

Gebundene Ausgabe38,00 *
Alle Bücher