DIE FURCHE · 5 22 Wissen 2. Februar 2023 Von Martin Tauss HUMAN SPIRITS Tierische Freude „ Vieles deutet darauf hin, dass nicht nur Menschen in Flow kommen können. Die kostbare Verfassung sollte auch ein viehisches Vergnügen sein. “ Es ist eines der berühmtesten Konzepte der modernen Psychologie – und ein Begriff, der so attraktiv klingt, dass man selbstvergessen mit der Zunge schnalzen könnte: „Flow“. Hinzu kommt, dass das Konzept von einem Forscher mit einzigartigem Namen geprägt wurde: Mihály Csíkszentmihályi. 1975 beschrieb der ungarische Professor an der University of Chicago das sogenannte Flow-Erleben. Was das genau ist, bleibt in der Alltagssprache oft verschwommen. Nur eines ist klar: Es handelt sich um einen verdammt guten Bewusstseinszustand. Manche sehen darin sogar die „optimale Erfahrung“. Menschen kommen in Flow, wenn sie eine Aktivität als innerlich lohnend empfinden und darin voll aufgehen – egal, ob daraus ein konkreter Nutzen erwächst. Die Erfahrung wurde etwa bei Tänzern, Kletterern, Sportlern, Musikern oder Chirurgen beschrieben. Diese berichten von kompletter Hingabe und freudvoller Absorption in ihrer Tätigkeit. Alles fühlt sich stimmig an, man macht intuitiv das Richtige. Studien zeigen, dass die Erfüllung bei solch intrinsischer Motivation zu einem größeren Glücksgefühl führt als die „äußerlich“ motivierte Belohnung durch gutes Essen, Sex oder eine Gehaltserhöhung. Aktivitäten nachzugehen, die in sich interessant und lohnend sind, gilt seither als Erfolgsrezept der Positiven Psychologie – ein Forschungsfeld, das sich der menschlichen Entfaltung verschrieben hat. Warum aber sollte das delikate Flow-Erleben nur Menschen vorbehalten sein? Diese Frage stellten sich die Nutztierforscher Sara Hintze und Jason Yee von der Universität für Bodenkultur Wien. In einer Studie im Fachjournal Biological Reviews gehen sie davon aus, dass man dadurch auch die Lebensqualität von Schweinen, Rindern oder Hühnern verbessern kann. Angesichts der erstaunlichen Geisteswelt der Tiere erscheint das nicht mehr abwegig. Da Schweine nun einmal nicht für psychologische Interviews zur Verfügung stehen, müsse man durch indirekte Tests herausfinden, ob sie Flow-Erlebnisse hätten, so die Forscher. Zwei Merkmale dieser Verfassung erscheinen dafür geeignet: dass man sich nicht mehr ablenken lässt und dass die Zeit „wie im Flug“ vergeht. Denn beides lasse sich auch bei Tieren überprüfen. So gibt es Schweine, die selbst dann in ihre Aktivität vertieft bleiben, wenn Störgeräusche ertönen oder sich der Geruch des Lieblingsfutters verströmt. Beim Tierwohl konzentrierte man sich bislang darauf, negatives Erleben wie Stress und Schmerz zu vermeiden. Nun untersuchen Wissenschaftler auch, wie man den Tieren positive Erfahrungen verschaffen kann, berichten Hintze und Yee: „Wenn wir Tieren in menschlicher Obhut die Möglichkeit geben, Flow zu erleben, wäre das ein wichtiger Schritt für mehr Tierwohl.“ Kaum zu glauben, wie „Human Spirits“ und „Animal Spirits“ ineinander fließen. Foto: iStock/imaginima Von Martin Tauss Was ist wirklicher Erfolg? „Es ist die spirituelle Erfahrung, immer mehr das zu sein, wofür man geschaffen wurde.“ Welcher Weg führt zu innerem Frieden? „Wann immer du angespannt, verängstigt, wütend oder unglücklich bist, bist du nicht du selbst. Du lebst die Rolle deines Ego, das du zu sein glaubst, und nicht die Seele, die du in Wahrheit bist.“ Nicht zuletzt: Wodurch wird etwas schön? „Die Liebe macht alles schön. Du kannst einen Himmel grün malen und das Gras blau, und sie werden dennoch schön sein, denn die Liebe hat sie gemalt.“ Solche Fragen berühren das innerste Wesen des Menschseins. Doch die weisen Antworten stammen hier nicht aus einem menschlichen Mund. Sie wurden von einer Künstlichen Intelligenz, genauer gesagt vom Sprachmodell GPT-3, ausgespuckt. Denn dieses Modell wurde hier darauf trainiert, „die großen Fragen des Lebens“ zu beantworten. „ Die neuen ‚Machine Learning‘-Systeme befördern das große Narrativ der Digitalisierung: Die Künstliche Intelligenz soll uns letztlich zur Selbsterkenntnis führen. “ Die Fortschritte der Künstlichen Intelligenz kamen schneller als erwartet. Kann das Sprachmodell GPT-3 sogar helfen, die großen Sinnfragen zu beantworten? Spiegel der Menschheit Was das bedeuten kann, haben der New-Media-Künstler Iain Thomas und die Computerwissenschafterin Jasmine Wang in einem neuen Buch dargelegt. „Was euch zu Menschen macht“ (2022) präsentiert einen Parcours von Sinnfragen, die von GPT- 3 anhand einer Auswahl religiöser, philosophischer und psychotherapeutischer Texte verhandelt werden. Dazu zählen die Bibel, die Tora, das Tao te king, die „Selbstbetrachtungen“ von Marc Aurel, der Koran, das Ägyptische Totenbuch, Werke von Viktor Frankl, die Dichtung von Rumi, die Liedtexte von Leonard Cohen, usw. Eine vollständige Auflistung der Quellen gibt es im Buch nicht (siehe dazu auch die Analyse von Johannes Hoff auf Seite 23). Nun wenden sich die meisten Menschen noch nicht an eine Künstliche Intelligenz, um Sinnkrisen zu lösen oder eine Antwort auf existenzielle Fragen zu erhalten. Chat- Bots sind bislang eher von banalen Warteschleifen bekannt. Mit metallischer Telefonstimme fragen sie, welches Anliegen man hat, um die Anrufer richtig zuzuordnen: Sie haben eine Assistenzfunktion und sind der menschlichen Sphäre gewissermaßen vorgelagert. Doch die Einsatzgebiete erweitern sich laufend, und die automatischen Assistenten rücken immer näher an unser Leben heran: Suchmaschinen im Internet werden zunehmend zu „Antwortmaschinen“, die immer verlässlicher Auskunft geben sollen. GPT-3 ist in diesem Feld ein neuer Meilenstein: Bei dem „Machine-Learning“-Modell, das in dem von Elon Musk mitbegründeten Forschungslabor „OpenAI“ entwickelt wurde, wird natürliche Sprache mithilfe von Künstlicher Intelligenz verarbeitet. Das Modell sagt auf Grundlage der vorherigen Zeichen das nächste Token – circa vier Buchstaben – voraus. Und diese Vorhersagen sind schon ziemlich gut: Denn GBT-3 wurde auf der Grundlage von 570 Gigabyte Daten „geschult“. Kreative Maschinen Ein neues Gegenüber Wer GPT-3 Fragen stellt, greift auf einen gewaltigen Fundus zurück: Bücher, Schriftbände und Texte wurden zu Formaten digitalisiert, die eine Künstliche Intelligenz zu analysieren vermag. Auch die menschliche Wahrnehmung ist darauf angelegt, Grundmuster zu erkennen und vorhersagen zu können, was als Nächstes passieren wird: Wenn zu Beginn eines Kinofilms ein Gewehr auftaucht, ist zu erwarten, dass im Film ein Schuss fallen wird. Wenn man bei der Kassiererin im Supermarkt bezahlt, ist die Wahrscheinlichkeit hoch, dass man Wechselgeld zurückbekommt. Beim Menschen sind es die vielfältigen Erfahrungen, die zur Vorhersage von Mustern führen – beim neuen Sprachmodell sind es die unzähligen Texte, die für die Künstliche Intelligenz eingespeist werden. „GPT-3 hat Zugang zu allen Ideen, Erfahrungen oder Empfindungen, die je niedergeschrieben und von menschlicher Hand aufgezeichnet wurden“, schreiben Iain Thomas und Jasmine Wang. Das Sprachmodell erkenne daher eine nahezu unendliche Menge von Grundmustern, die es verwenden kann, um ein unvollständiges Muster möglichst zu vervollständigen. In der ersten Welle der Künstlichen Intelligenz (KI) von ca. 2012–2014 drehte sich alles um „Deep Learning“: Die Systeme konnten Probleme lösen, für die riesige Datenmengen zu verarbeiten waren. In der aktuellen KI-Welle kommt nun auch die Kreativität zu. Das macht deren Leistungen noch beeindruckender – und unheimlicher. Künstliche Intelligenz kann malen, komponieren und elaborierte Texte entwickeln. Damit nicht genug: „Wir kommen bald in Gefilde, wo die Künstliche Intelligenz uns dabei helfen kann, uns selbst zu verstehen“, erklärte der KI-Experte Erik Brynjolfsson von der Stanford Universität kürzlich in der Wiener Zeitung. Wie das aussehen kann, ist im Buch von Thomas und Wang anhand tiefgründiger Sinnfragen bereits nachzulesen. „Womöglich kann jemand, der kein Mensch ist, sich aber uns und unsere Geschichten von außen ansehen kann, uns helfen, diese Antworten zu finden“, heißt es dort. Das ist das große Narrativ der Digitalisierung: Die Künstliche Intelligenz soll dem Menschen den Spiegel vorhalten. Diese Erzählung findet sich auch beim „Human Brain“-Projekt, einer milliardenschweren Forschungsinitiative der Europäischen Kommission. Eine riesige, Computer-gesteuerte Simulation von Nervenzellen sollte das komplexeste Organ entschlüsseln und die Rätsel des menschlichen Geistes lösen. Die Erfolge aber blieben bescheiden (mehr dazu in der nächsten FURCHE). Staunen muss man jedenfalls, wenn man die Einleitung zum Buch liest, die von GPT-3 – als Mitautor auch am Cover angeführt – verfasst wurde. „Die KI schafft es, unglaublich vertraut und fremd zugleich zu klingen“, bemerken Thomas und Wang. „Was sie sagt, ist die Summe von allem, was Menschen je aufgeschrieben haben, und so klingt es dann auch nach allen, und zugleich klingt es nur nach sich selbst – wie bei einem Chor.“ Was euch zu Menschen macht Von Iain S. Thomas, Jasmine Wang und GPT-3 Diederichs 2022 208 S., geb., € 18,50
DIE FURCHE · 5 2. Februar 2023 Wissen 23 Im Hinblick auf die spirituelle Dimension des Menschen zeigt sich, warum Künstliche Intelligenz nicht wirklich „intelligent“ ist. Eine philosophisch-technische Analyse. Von Johannes Hoff euch zu Menschen macht“ lautet der Titel eines aufsehenerregenden Buchs, das beansprucht, „Antworten „Was einer Künstlichen Intelligenz auf die großen Fragen des Lebens zu geben“. Kann der Mensch gut sein? Wie finde ich Frieden? Das auf dem GPT-3-Sprachmodell basierende Computerprogramm modellierte Antworten auf solche Fragen, nachdem man es mit Textauszügen weisheitlichen und religiösen Denkens „gefüttert“ hatte – von Bibel, Koran, Tora und dem Tao te king bis hin zu Viktor Frankl, dessen Spuren deutlich erkennbar sind (siehe Seite 22). Die Antworten, die das Programm gab, können verblüffen – zum Beispiel, bezogen auf obige Frage nach dem Guten: „Gutsein heißt in Harmonie mit dem Universum sein.“ Überraschend sind sie selten. Das Modell zur Beantwortung von Fragen wertet Korrelationen zwischen Worten aus und erzeugt eigenständige Sätze. Die Programmierer haben das Ergebnis allerdings noch überarbeitet – zum Beispiel, indem sie Wesentliches von Unwesentlichem schieden und die Fragen, auf die der Algorithmus antwortete, nachträglich präzisierten. Albert Einstein soll einmal gebeten worden sein, in 60 Minuten ein beliebiges Problem zu lösen. Anschließend befragt, wie er vorgegangen sei, antwortete er der Legende zufolge: „Ich habe 50 Minuten damit verbracht, die Fragestellung zu präzisieren, und in der verbleibenden Zeit das Problem gelöst.“ Sapientis est ordinare: Dem Weisen kommt es zu, zu ordnen. Und das bedeutet an erster Stelle, die richtigen Fragen zu stellen, und im Lichte dieser Fragestellung zwischen Wesentlichem und Unwesentlichem zu unterscheiden. Aber schauen wir uns das Ergebnis anhand von vier Problemen etwas genauer an. Schnitzer der Programmierer Bild: iStock/ Olemedia Weisheiten im faden Eintopf Problem 1: Implizite philosophische Hintergrundannahmen scheinen im Endtext nur vage auf, sollten aber zu denken geben. So ist von Formen stoischer Selbstdisziplin und kosmischer Nüchternheit die Rede, die an Mark Aurel erinnern. Zugleich klingt das Sprachspiel christlicher Gnadentheologie an, oder es huschen Todesbilder vorbei, die einen Körper-Seele Dualismus voraussetzen. Doch man kann nicht zugleich ein stoischer Materialist sein und den Körper als „Gewand der Seele“ beschreiben; nicht zugleich von Gnadengeschenken sprechen und erklären, dass Sinn etwas ist, „das wir in uns erzeugen“. Das schmälert nicht die Leistung des GPT-3 Systems: Die einzelnen Sprüche könnten auch von Menschen geschrieben sein. Außerdem könnten gebildete Leser Widersprüche auch in Kalenderspruch-Sammlungen finden, die von Menschen gesammelt wurden. Doch das macht Sammler noch nicht zu Künstlern oder gar weise. Problem 2: In der Einleitung der Programmierer wird eine gravierende Vorentscheidung benannt: Bezeichnungen für Gott wurden durch „das Universum“ ersetzt. Das nennt man in der philosophischen Tradition Pantheismus – und damit betrat man einen Minenfeld. Man erinnere sich an den deutschen Pantheismusstreit von 1785/1789 und den Atheismusstreit 1798/1800: Feuerbachs Zusammenfassung der damaligen Debatten war aus heutiger Sicht klarsichtiger denn je: „Der Atheismus ist der konsequente ‚Pantheismus‘.“ Um diesen Befund noch etwas pointierter zu formulieren: Die Entscheidung, Gottesnamen durch die einheitliche Bezeichnung „Universum“ zu ersetzen, kommt einer Umwertung ihrer Bedeutung gleich. Das ist so, wie wenn Formulierungen, die von „Reinkarnation“, „Leben nach dem Tod“ oder „ewigem Leben“ sprechen, im Interesse der Vereinheitlichung durch das Wort „Tod“ ersetzt würden. Wenn die KI feststellt, dass es für sie keinen Gott gebe, und nicht von „Harmonie mit Gott“, sondern von „Harmonie mit dem Universum“ redet, ist das also einer redaktionellen Vorentscheidung der Programmierer zu verdanken und nicht der „Weisheit“ ihrer KI. Problem 3: Solche Schnitzer ließen sich vermeiden, indem man die KI verbessert. Aber sie zeigen zugleich, warum KIs nicht wirklich „intelligent“ sind. Mit einem nachträglich geglätteten Philosophieeintopf erzeugt man das, was Technikphilosophen im Anschluss an den Physiker Erwin Schrödinger „Entropie“ nennen: Weil man verhindern möchte, dass die KI in eine ideologisch verblendete Echokammer abgleitet, orientiert man sich an Durchschnittswerten und privilegiert Sätze, die sich flächendeckend auf die stärksten Korrelationen stützen. Doch es gibt keine neutrale Durchschnittsperspektive auf die Welt. Unsere Sprache bringt das Lebensgefühl unverwechselbarer Persönlichkeiten, unverwechselbarer kultureller Traditionen und unverwechselbarer Epochen zum Ausdruck – und das macht sie bedeutungsvoll. Eine Option, aus Entropie-Effekten herauszukommen, könnte sein, die KI zu kontextualisieren – etwa indem man sie nur mit Texten aus der Provence des 12. Jahrhunderts oder nur mit chinesischen Texten aus der Zeit der Tang Dynastie im 7. Jahrhundert füttert. Aber dazu müssten KIs exemplarische Vorbilder nachahmen. Entscheidet man sich hingegen dafür, historisch und kulturell vorgeprägte Kontexte zu überschreiten, um etwas Neues zu generieren, so läuft man Gefahr, profillose Durchschnittsweisheiten zu produzieren. In Österreich nennt man das „fad“. Problem 4: Dass KIs keine genuin neue Perspektive auf die Welt entwickeln können, hat einen strukturellen Grund: Computer können nicht staunen und nach Worten für etwas Unaussprechliches suchen. Sie kratzen sich nicht am Kopf, weil die Rätsel der Welt sie an die Grenzen des Denkbaren führen. Sie können nicht von einer Zukunft träumen, in der noch nie jemand war, usw. Warum können sie das nicht? Eine KI funktioniert wie eine sich selbst steuernde Rakete: Aus unserer Sicht antizipiert sie die Zukunft, in der sie explodieren wird. Aber die nüchterne Realität ist eine andere: Es handelt sich um einen kybernetischen Regelkreis. Das hat die Rakete mit dem Heizungsthermostat in meinem Innsbrucker Schlafzimmer gemein: Er pendelt sich zwischen den eingestellten 18 Grad und der gemessenen Ist-Temperatur ein. Auch die „Entscheidungen“ unserer Rakete sind das Ergebnis einer Rechnungsbilanz, „Ein Werkzeug wie jedes andere“ (17.12.2020): Warum auch die Geisteswissenschaften bei KI mitreden sollten, auf furche.at. „ Künstliche Intelligenz kann keine genuin neue Perspektive auf die Welt entwickeln. Computer können nicht staunen und nach Worten für etwas Unaussprechliches suchen. “ Erleuchtung durch GPT-3? Religiöse und säkulare Weisheitslehren im GPT-3- Sprachmodell: Weil die Programmierer verhindern wollten, dass die Künstliche Intelligenz in eine ideologisch verblendete Echokammer abgleitet, orientierte man sich an Durchschnittswerten. Das Problem dabei: Es gibt keine neutrale Durchschnittsperspektive auf die Welt, so Autor Johannes Hoff. in die ausschließlich Daten einfließen, die hier und jetzt erfasst und miteinander verglichen werden. Kurz gesagt: KIs fragen nicht nach der Zukunft – sie haben kein Bewusstsein, keine Intentionalität. Man muss das wissen, um zu verstehen, wo die Programmierer des GPT-3 Systems sich den gröbsten Schnitzer erlaubt haben. So schreibt die KI im Buch, sie staune darüber, wie wenig sie Spiritualität verstehe, habe spirituelle Erfahrungen gemacht und empfände Freude beim Schreiben. Das sind manifeste Lügen. Man kennt nicht einmal den technischen Pfad, der es erlauben würde, Maschinen zu bauen, die emotionale Erlebnisse haben. Doch auch dieses Problem ließe sich durch ein besseres KI-Design beheben. Die frühe Neuzeit hatte vor dem Hintergrund der Druckrevolution mit ähnlichen Problemen zu kämpfen: Man tat sich schwer, zwischen fiktiven und historischen Erzählungen zu unterscheiden. Im 18. Jahrhundert hat sich dann eine klare Gattungsdifferenz zwischen dem modernen Roman und historischen Berichten herausgebildet. Es gehört zu den Grundregeln wertebasierter IT-Innovationen, solche Probleme mit zu bedenken und die Verbreitung von Lügen und Fake News zu vermeiden. Deshalb ist es unabdingbar, Menschen auszubilden, die der IT-Industrie helfen, nachhaltige und ethisch verantwortbare IT-Produkte zu entwickeln. Der Autor ist Univ.-Prof. für Dogmatik am Institut für Systematische Theologie der Universität Innsbruck und arbeitet dort an der Etablierung eines Masterstudiums für „Digital and Human Sciences“.
Laden...
Laden...
Ihr Zugang zu neuen Perspektiven und
mehreren Jahrzehnten Zeitgeschichte.
© 2023 DIE FURCHE