DIE FURCHE · 3 22 Wissen/Geschichte 19. Jänner 2023 Von Martin Tauss HUMAN SPIRITS Im Netz der Neurosen Jeder Zeit ihre Störung: Ende des 19. Jahrhunderts hatte sich eine seltsame Nervenschwäche verbreitet. Geprägt durch Erschöpfung, Reizbarkeit, Ohrgeräusche oder Kopfschmerzen, fand sich aber keine körperliche Ursache. Der US-Neurologe George Beard prägte dafür den Begriff der „Neurasthenie“ und lieferte die Erklärung gleich dazu: Das neue Leiden stehe in Zusammenhang mit den neuen Medien, Techniken und den rasanten Veränderungen in der Gesellschaft, die das Nervenkostüm der Zeitgenossen zu sehr beanspruchen würden. Denn Innovationen wie Telegraf und Dampfkraft sowie laut Beard auch die „geistigen Aktivitäten“ der Frauen trieben damals den sozialen Wandel voran. Bald schon sollte der Wiener Nervenarzt Sigmund Freud mit einer neuen Modellneurose auf den Plan treten: der Hysterie. Im 21. Jahrhundert ist es die vierte industrielle Revolution, die die Gesellschaft umkrempelt. Roboter, Kühlschränke oder Alexa von Amazon perfektionieren bereits ihre Sprachsysteme (siehe auch Artikel rechts); das Internet der Dinge breitet sich aus. Glaubt man den Visionen der IT-Industrie, könnte das „Smart Home“ bald aus selbstlernenden künstlichen Intelligenzen bestehen, die sich immer besser auf unsere Bedürfnisse einstellen. „ ‚Neurotizismus‘ ist ein zentraler Faktor, um unser Internetverhalten auszuwerten und die Psychogramme von Milliarden Usern weltweit zu erstellen. “ Doch das neue technische Umfeld wird nicht ins Schlaraffenland führen, sondern vor allem psychische Störungen hervorbringen. Das ist die These von Johannes Hepp: Da die digitale Revolution immer mehr Lebensbereiche durchdringt, werden immer mehr Menschen von „neuen Süchten und Netzneurosen“ betroffen sein. In seinem Buch „Die Psyche des Homo Digitalis“ beschreibt der Münchner Psychotherapeut 21 Störungen, die aus der digitalen Welt erwachsen und mit denen er schon heute in seiner Praxis konfrontiert ist. Obwohl der Begriff der Neurose seit Freuds Zeiten aus der Mode gekommen ist, findet er in den Algorithmen der Big-Tech-Unternehmen weiter regen Widerhall. „Neurotizismus“ – die Summe unserer Schwächen – ist ein zentraler Faktor, um das Internetverhalten auszuwerten und die Psychogramme von Milliarden Usern zu erstellen. Eine der aktuell größten Gefahren ist die Weltflucht: Der digitale Eskapismus mache immer neurotischer, weil wir dann vom realen Leben immer enttäuschter werden, so Hepp. Immerhin bietet sein Buch auch eine Gebrauchsanweisung, wie man Irrwege in den digitalen Welten vermeiden kann. Die Psyche des Homo Digitalis 21 Neurosen, die uns im 21. Jahrhundert herausfordern Von Johannes Hepp Kösel Verlag 2022 416 S., geb., € 22,70 Foto: Stadtbibliothek und Stadtarchiv Trier, Trier Hs. 1895/1428 (cc by-sa 4.0) Die Basis moderner Sprachmodelle wie ChatGPT ist deutlich älter als der Computer. Schon im 13. Jahrhundert gab es logische Maschinen, die Fragen und Antworten generierten. Die Informatik des Mittelalters Von Adrian Lobe Das Sprachmodell ChatGPT sorgt für Furore. Das automatisierte Dialogsystem, das von der US-Softwareschmiede Open AI entwickelt wurde, beantwortet in Sekundenschnelle Fragen und spuckt auf Knopfdruck Texte aus. Der Nutzer gibt eine Frage oder Handlungsanweisung in das Chatfenster ein, Sekunden später rattert das Sprachmodell einen druckreifen Text herunter. Essays, Gedichte, Songtexte – ChatGPT beherrscht nahezu alle Textgattungen. Die KI, die mit riesigen Textmengen unter anderem aus der englischen Wikipedia trainiert wurde, errechnet auf Basis eines statistischen Modells eine Wahrscheinlichkeit für das Auftreten des nächsten Wortes. Buchstabe für Buchstabe spinnt das Sprachmodell anhand von vorgegebenen syntaktischen Regeln logisch kohärente Sätze. Die Technik der Rekombinatorik, die dabei zur Anwendung kommt, ist jedoch sehr viel älter als der Computer. Metaphysische Aussagen Schon im 13. Jahrhundert konstruierte der mallorquinische Mönch, Philosoph und Missionar Ramon Llull (um 1232– 1316) eine logische Maschine, die Fragen und Antworten generierte. Die Apparatur bestand aus drei unterschiedlich großen Drehscheiben, auf die verschiedene Symbole und Buchstaben geschrieben waren. Durch Drehen der Kreisscheiben konnten Die vier Figuren der „Ars brevis“ des Raimundus Lullus. Durch Drehen der Kreisscheiben konnten die Zeichen kombiniert werden. die Zeichen – ähnlich wie bei einem Rechenschieber – miteinander kombiniert und nach einem tabellarischen Regelwerk interpretiert werden. Jedes Zeichen symbolisierte bestimmte Attribute, Prädikate und Tugenden. Der Buchstabe C stand beispielsweise für Größe und Klugheit, der Buchstabe I für Wahrheit und Geduld. Je nachdem, wie die Buchstaben angeordnet waren, ließen sich daraus metaphysische Aussagen treffen. „ Viele Grundkonzepte der Informatik stammen aus der arabischen Welt. Ein Kulturtransfer, der in der globalisierten Moderne übersehen wird. “ Mit seiner „Wahrheitsmaschine“, die von der Zairja, einem Werkzeug arabischer Astrologen, inspiriert war, wollte der Gelehrte die Existenz Gottes beweisen. Llull glaubte, mithilfe algebraischer Sprache das Christentum als einzig wahre Religion beglaubigen und alle anderen Religionen falsifizieren zu können. Allein, seine von der christlichen Mystik geprägten Missionierungsversuche waren nicht von Erfolg gekrönt. 1315 soll Llull im heutigen Algerien von einem aufgebrachten muslimischen Mob gesteinigt worden sein. Der Mönch wurde in seiner Heimat Mallorca, wo noch heute Denkmäler an den berühmten Sohn der Insel erinnern, als Märtyrer gefeiert. Der mystische Kult, der um seine Person entstand, war den mächtigen Kardinälen im Mittelalter ein Dorn im Auge. 1376 erklärte Papst Gregor XI. den mallorquinischen Mönch zum Ketzer und verbot seine Schriften. Der Bann hielt lange an. Erst spät wurde Llull rehabilitiert, als ihn Papst Pius IX. 1857 seligsprach. Obwohl seine Bücher auf dem Index standen und nur im Verborgenen studiert werden konnten, verbreiteten sich Llulls Ideen rasch in Europa. Seine Schriften beeinflussten unter anderem auch das Denken von Gottfried Wilhelm Leibniz, der in seiner 1666 veröffentlichten Dissertation „De Arte Combinatoria“ auf Llulls Lehre Bezug nimmt. Auf dieser Grundlage konstruierte Leibniz eine Rechenmaschine, die die vier Grundrechenarten beherrschte und als Urahn des modernen Computers gilt. Bis die ersten schrankgroßen Rechner funktionsfähig waren, sollten allerdings noch knapp 300 Jahre vergehen, und auf dem Weg dahin gab es Entwicklungsschritte, die in der Computergeschichte eher wenig Beachtung finden. Denn die Grundlagen für Textgeneratoren und Chatbots sind bereits in der Neuzeit entstanden. So schuf der deutsche Barockdichter Georg Philipp Harsdörffer (1607-1658) die erste Wortkombinationsmaschine in deutscher Sprache. Der „Fünffache Denckring der teutschen Sprache“ war vom Aufbau her ähnlich konzipiert wie Llulls Wahrheitsmaschine, mit dem Unterschied, dass er aus fünf statt aus drei Kreisen bestand, auf denen die kleinsten Spracheinheiten des Deutschen abgebildet waren: Vorsilben, Nachsilben, Anfangsbuchstaben, Endbuchstaben. Durch Rotation der Kreisscheiben wurden Wörter gebildet, die Harsdörffer für seine virtuose Dichtung und Gesprächsspiele nutzte. Eine Mischung aus Glücksrad und Scrabble. Leibniz bezifferte die Kombinationsmöglichkeiten auf 97 Millionen Wörter. Das sind Dimensionen, in denen sich eigentlich nur Computer bewegen. Harsdörffer hatte einen spielerischen, fast schon prädadaistischen Zugang zur Sprache: Die Zerlegung kleinster Spracheinheiten und mechanische Rekombinatorik kommt der Funktionsweise KI-basierter Sprachmodelle recht nahe. Der „Fünffache Denckring der teutschen Sprache“ war gewissermaßen ein Chatbot avant la lettre. Lyrik per Zufallsprinzip Es gab im – an Weissagungsliteratur nicht armen – Mittelalter eine Reihe sogenannter Losbücher: Scheiben mit einem drehbaren Zeiger, die auf verschiedene Zahlen oder Buchstaben auf einem Ziffernblatt verweisen. Diese Orakelbücher wurden beispielsweise zur astrologischen Vorhersage konsultiert. Solche drehbaren Vorrichtungen, auch Volvellen genannt, sind bereits aus der Zeit des babylonischen Herrschers Hammurapi (1728-1686 v. Chr.) überliefert. Überhaupt stammen viele Grundkonzepte der Informatik, wie zum Beispiel auch Algorithmen, aus der arabischen Welt. Ein Kulturtransfer, der in der globalisierten Moderne zuweilen übersehen wird. Genauso wie die Tatsache, dass die Ursprünge der mechanischen Textgenerierung im deutschsprachigen Raum liegen. So wurde 1777 in Göttingen eine „poetische Handmühle“ konstruiert, die dem Schriftsteller Hans Magnus Enzensberger als Vorbild für seinen „Landsberger Poesieautomaten“ diente: Der Automat, der ästhetisch an die Anzeigetafeln von Flughäfen erinnert, produziert nach dem Zufallsprinzip lyrische Sechszeiler. Durch die Rekombinatorik entstehen 10 hoch 36 Varianten. Die ersten Zeilen, die der Gedicht-Generator bei seiner Präsentation beim Lyrikfestival in Landsberg am Lech im Jahr 2000 auswarf, lauteten: „Überflüssige Erpressungen der Gremien, dieser fieberhafte / Kunstgenuss am Wochenende / und diese vorgedruckten Zahlungsbefehle: Schleierhaft! / Im Grunde langweilt uns doch manches (...)“ ChatGPT hätte es wohl nicht besser formulieren können.
DIE FURCHE · 3 19. Jänner 2023 Wissen 23 AUS DEM FURCHE-NAVIGATOR In den vergangenen 28 Jahren gab es im Bereich der Technologie rasante Entwicklungen. Wenn heute über Programme wie ChatGPT diskutiert wird, scheinen die Sichtweisen aus 1995 umso interessanter. Wann denken Computer wie die Menschen? Können Computer denken, oder werden sie es jemals lernen? Diese Frage beschäftigte den Wissenschafter Alan Turing bereits 1950 und veranlaßte ihn einen Artikel mit dem Titel „Computing Machinery and Intelligence” in der Zeitschrift „Mind” zu veröffentlichen. In diesem Artikel beschreibt Turing eine Testanordnung, die später nach ihm benannt wurde. In diesem Test treten ein Mensch und eine Maschine gegeneinander an und werden von einem Menschen beurteilt. Ziel der beiden „Testkandidaten” ist den Beurteilenden davon zu überzeugen, daß er einen Menschen vor sich hat. Also sowohl der Computer als auch der Mensch möchten einen anderen Menschen von dieser Tatsache überzeugen. Der beurteilende Mensch stellt nun Fragen, die von der Maschine und dem Menschen beantwortet werden und wenn er den Menschen nicht eindeutig von der Maschine unterscheiden kann, gesteht man dem Computer zu, den Test bestanden zu haben und Intelligenz zu besitzen. Dieser Test ist zwar weder eindeutig noch anerkannt [...]. Nichts desto trotz ist seit 1950 und Alan Turing viel geschehen. Vor allem durch die rasante Entwicklung der Hard- und Softwaretechnologie konnten im Bereich der künstlichen Intelligenz kontinuierliche Fortschritte verzeichnet werden. Eines der ersten Einsatzgebiete für derartige Maschinen war – wie könnte es anders sein – der militärische Bereich. Die ersten Automaten wurden während des Zweiten Weltkrieges zur Entschlüsselung von Nachrichtencodes eingesetzt – und das STÄNDIGEN TEXT LESEN SIE AUF furche.at „ Man setzte hohe Erwartungen in den Forschungsbereich. Das Ziel ‚intelligente‘ Maschinen zu entwickeln ist gemessen am menschlichen Denkvermögen utopisch. “ Von Hubert Preisinger mit Erfolg. Basierend auf diesen Erkenntnissen setzte man hohe Erwartungen in und Roland Bürscher den Forschungsbereich der künstlichen Intelligenz, die aus heutiger Sicht bei weitem In FURCHE Nr. 21 nicht erreicht werden können. Das Ziel „intelligente” Maschinen zu entwickeln ist ge- DEN 25. Mai 1995 VOLL- messen am menschlichen Denkvermögen utopisch. [...] Es ist bereits gelungen selbstlernende Systeme zu entwickeln, die „Erfahrungen” sammeln, diese umsetzen und sich quasi selber optimieren. Ein Schlagwort in dieser Richtung sind neuronale Netzwerke, die sich in der Entwicklungsphase befinden. Eines der nützlichsten Ergebnisse dieser Forschung ist die Trennung von Fakten, also Wissen in Form von Statements, Regeln, welche die Verknüpfung der Fakten abbilden und dem Algorithmus, also der programmierten Software. [...] Wissen, Regeln und Algorithmus können unabhängig voneinander verändert werden. Stand der Dinge sind Systeme, die einfach zu bedienen und mit einer grafischen Benutzeroberfläche (Windows) ausgestattet sind. Während neuronale Netzwerke erst entwickelt werden, konnte sich ein anderer Bereich der künstlichen Intelligenz bereits im praktischen Einsatz etablieren: wissensbasierte Systeme oder Expertensysteme. Expertensysteme sind Computerprogramme, die menschliches Wissen beinhalten, aufgrund dieses Wissens Entscheidungen fällen und begründen können. Das Wissen ist unabhängig vom Rest des Programmes verwaltbar. Bereits Ende der sechziger Jahre entstand in der Forschungsrichtung Chemie an der Stanford Universität das erste Expertensystem. In dieses konnten Daten aus Experimenten eingespeist werden und das System leitete unbekannte Verbindungen ab. Normalerweise waren für solche Aufgaben bis dato mehrere hochqualifizierte Experten notwendig gewesen. 1972 entstand an derselben Universität ein System zur Diagnose von Infektionskrankheiten, das vielen Ärzten zur Verfügung gestellt wurde. Die Ärzte erfaßten die Symptome, das Expertensystem diagnostizierte die Krankheit. Dadurch wurde einerseits die Unsicherheit der Ärzte reduziert und andererseits konnte die verschriebene Menge an starken Antibiotika drastisch gesenkt werden. [...] Entgeltliche Einschaltung bmbwf.gv.at Science Talk > Optimismus trotz allem? Wie uns Wissenschaft und Forschung dabei helfen können Podiumsdiskussion mit • Univ.-Prof. in Dr. in Veronika Job Fakultät für Psychologie, Universität Wien • Dr. Alexander Jost Institut für Geschichte, Universität Salzburg • Univ.-Prof. Dr. Lukas H. Meyer Institut für Philosophie, Universität Graz Montag, 23. Jänner 2023, 19:00 Uhr Aula der Wissenschaften, Wollzeile 27a, 1010 Wien Bitte um Anmeldung unter: www.bmbwf.gv.at/Ministerium/Veranstaltungen Moderation: Dr. Christian Zillner Falter/Heureka
Laden...
Laden...
Ihr Zugang zu neuen Perspektiven und
mehreren Jahrzehnten Zeitgeschichte.
© 2023 DIE FURCHE