Macht mich der Gebrauch von Large Language Models dümmer oder schlauer?
- rbr0303
- 12. Juli
- 5 Min. Lesezeit

Macht mich der Gebrauch von Large Language Models dümmer oder schlauer?
Wenn es in 500 Jahren noch Menschen gibt, werden die nicht mehr wissen, was unter Large Language Models (LLM) wie ChatGPT, Copilot, Gemini oder wie sie heute auch alle heißen mögen, zu verstehen war. Werden sich Dystopien oder schöne neue Welten materialisiert haben? Wer dann lebt und noch denken kann, dem wird klar sein, dass sich die Welt genauso entwickeln musste, wie sie ist und er wird ehrfürchtig die Prognose genau der Künstlichen Intelligenz (KI) loben, die den Zustand der Welt so vorausgesehen hat. Prognosen entfalten die normative Kraft des Faktischen umso stärker je präsenter sie in gesellschaftlichen Gruppen wüten und trotzdem sollte man ihre Wirkung nicht überschätzen, wird doch die Welt immer komplexer zu durchschauen, trotz des exponentiell ansteigenden Wissens und der Hyperinflation im virtuellem Orbit kreisender nützlicher und unnützer Informationen.
Die Kommunikation mit den virtuellen Agenten müssen wir erst noch lernen, vermutlich wird sie einfacher, aber vor allem bequemer sein als die Kommunikation mit menschlichen „Bewusstseinen“, die virtuellen Agenten werden so gebaut sein, dass sie unserem beschränkten Verstand maximal entgegenkommen, es wird sich um für den Einzelnen maßgeschneiderte Kommunikationspartner handeln, die sich im täglichen Gebrauch vervollkommnen, nur kennenlernen werden wir sie nie, es sei denn die Robotik macht in den kommenden Jahren gewaltige Fortschritte, die wir uns heute dank mancher Science Fiction Filme zwar vorstellen, für die es derzeit aber wenig Evidenz gibt, wäre die Biologie soweit, gäbe es vorher keine Krankheiten mehr und/oder wir würden ewig leben, welch eine grausige Vorstellung!
Ich muss gestehen, ohne KI Helfer - Intelligenz ist das, was ein Intelligenztest misst - fielen viele meiner Essays bescheidener aus, nicht dass ich ein LLM die Texte schreiben ließe - ich bringe mich freiwillig ungern um eines der größten Vergnügen, die ich mir vorstellen kann, ich nutze LLM‘s zur Recherche und zur Erstellung von Bildern, wobei ich selbst mithilfe einer KI keine gescheiten Bilder zustande bringe. Ob mich der Gebrauch von LLM‘s verblödet, ich wage es zu bezweifeln, solange die KI die Quellen angibt, aus denen sie schöpft, denn die lese ich fast immer, die Zeit gönne ich mir gerne, wobei mich der KI Text durchaus konditioniert. Der Hype um die neue Technologie hat auch sein Gutes, Geld fließt nicht nur in die Weiterentwicklung der Algorithmen, sondern auch in Studien, die die Folgen der Nutzung auf unsere Gehirne und unser Zusammenleben untersuchen. Erste Ergebnisse liegen sicher bereits vor, ich könnte bei ChatGPT nachfragen und werde sie mit großem Interesse verfolgen, nur nicht jetzt, mal schauen, was ich ohne Recherche mithilfe logischer Operationen aus dem Bergwerg des größtenteils unbewussten Wissens zutage fördere.
LLM‘s greifen auf sprachliche Erzeugnisse zurück, gesammeltes „Wissen“ in sprachlich formulierter Form. Inwieweit diese Programme sprachliches Wissen der Nutzer verarbeiten, ist mir nicht bekannt, dem wäre nur eingeschränkt zu trauen, das Wissen eines Nutzers müsste auf logische Konsistenz mit bekanntem Wissen und dem Wissen vieler anderer Nutzer zum selben Themengebiet geprüft und als richtig bewertet werden, nach meinen bescheidenen Erfahrungen arbeiten LLM‘s derzeit nicht mit logischen Operatoren.
LLM‘s interagieren nicht mit der physischen Welt und greifen auch nicht auf Analysen innerer Zustände zu, wie das biologische Wesen tun, ein Abgleich der Ausgabe mit phänomenologischem Wissen findet nicht statt, das leistet bisher noch kein entworfener KI Agent. Hier mag ein Problem in der Konzeption von Multi-Agentensystemen liegen, die komplexe Marketing- und Vertriebsaufgaben erledigen und Menschen obsolet zu machen versprechen. Stand 10.07.2025 sind Chat-Bots ziemlich doof und nerven mehr, als sie nützen. Diese Einschätzung mag persönlich gefärbt und nur eine Momentaufnahme von mir sein, die Euphorie im Dienstleistungssektor, in Industrie und Verwaltung ist jedenfalls gigantisch und rechtfertigt Stellenabbau im großen Ausmaß, Stellen die an anderer Stelle wieder aufgebaut werden.
Das Vertrauen in geschriebenen Text schätze ich höher ein als das gesprochene Wort in einem YouTube, Tiktok oder sonstigen Video, nur selten stelle ich den Artikel einer bekannten Online Enzyklopädie in Frage, obwohl ich weiß, dass es sich um Work-in-Progress handelt. Da steht der Text schwarz auf weiß oder weiß auf schwarz, brauche ich andere Beweise für dessen Richtigkeit? Den größten Nutzen von LLM‘s haben derzeit Experten auf ihrem Spezialgebiet, die das Ergebnis eines Prompts einschätzen und relativieren können und die Ergebnisse mit einem gesunden Manipulations- oder Halluzinationsverdacht bewerten, ob es sich nun um Text in natürlicher Sprache, Programmcode, Präsentationen, Fotos oder Bewegtbilder handelt.
Während des Studiums musste ich programmieren, sicher nicht meine Paradedisziplin, dennoch habe ich einige Programme alleine zum Laufen gebracht. Ach hätt‘ ich doch die Idee für eine revolutionäre App, es muss doch ein menschliches Bedürfnis geben, das noch kein Code befriedigt hat, mithilfe eines LLM‘s könnte ich das Projekt umsetzen und auf meine alten Tage monetarisieren. Sind Apps noch zeitgemäß? Aber wäre der dabei generierte Code noch so komplex und elaboriert, komplexer als der eines LLM‘s, in jedem meiner Zellen ist genetischer Code auf engstem Raum hinterlegt, der meinen Bauplan abbildet und mich am Leben erhält, entwickelt im Laufe von fast vier Milliarden Jahren, verantwortlich dafür, dass mein Gehirn mit ca. 20 Watt Text produziert - das habe ich gehört oder gelesen, Informationen aus meinen Organen unbewusst und bewusst verarbeitet, und, und, und.
Die Software in der menschlichen Zelle ist so programmiert, dass sie sie in die Lage versetzt, ihre Umwelt zu beobachten und darauf zu reagieren. Gene werden ein- und ausgeschaltet, was die Produktion von Proteinen begünstigt oder hemmt. Die zellulären Reaktion biologischer Körper auf Veränderungen des Sauerstoffgehalts in der Umwelt sind sehr gut untersucht. Die Epigenetik erlebt seit einigen Jahren in der Mikrobiologie Aufwind. Die Programme, wie Prozesse in der Zelle ablaufen, welche Proteine in welchen Mengen produziert werden, ändern sich je nachdem, wie die Zelle die Umwelt wahrnimmt und das obwohl sich der Code der DNA nicht ändert. LLM‘s reagieren auf Prompts ihrer Nutzer und erzeugen auf Basis des digital hinterlegten Wissens im weltweiten Netz Texte, Bilder, Präsentationen, Bewegtbilder und vieles mehr, mir ist nicht bekannt, dass sie während des Gebrauchs Routinen ihres Programmcodes aktivieren oder deaktivieren.
Vielleicht nutze ich die bekannten KI Tools, die gerade das Leben der Menschheit revolutionieren und umkrempeln, Intelligenz entwickeln - folgt man den Prognosen der Tech Enthusiasten, der Menschheit überlegen zu werden drohen - zu wenig, um die negativen Auswirkungen auf die Funktionsweise meines Denkorgans zu spüren und richtig einschätzen zu können, von der Qualität des in der Schöpfung hinterlegten, Ehrfurcht gebietenden Codes sind sie weiter entfernt als wir von der nächsten Galaxie. Wir sind nur in der Lage wahrzunehmen, zu erkennen, was in unserem genetischen Code angelegt ist, aber nicht das, was darüber hinaus geht. Welche Hybris macht uns glauben, dass vom Menschen geschaffene künstliche Intelligenzen in den nächsten Jahren oder Jahrzehnten diese Grenze überschreiten oder die Frage nach dem Sinn ihrer Existenz befriedigend beantworten könnten?
