Aufrufe
vor 1 Jahr

DIE FURCHE 26.01.2023

  • Text
  • Furche
  • Indien
  • Menschen
  • Wien
  • Welt
  • Theologie
  • Foto
  • Teichtmeister
  • Thema
  • Demokratie

DIE

DIE FURCHE · 4 10 Religion 26. Jänner 2023 Judenfeindschaft NS-Hetzschrift Der Stürmer verwendete oft christliche Motive; Gedenktafel am ehemaligen „Entjudungsinstitut“ in Eisenach (re.); Gerhard Kittels „Standardwerk“ bis heute (u.). Von Hans Förster Die sogenannte „Botschaft Gottes“ – auch „Volkstestament“ genannt – erschien im Jahr 1940. Herausgegeben wurde sie vom Eisenacher „Entjudungsinstitut“, einer Einrichtung in kirchlicher Trägerschaft, die den „Deutschen Christen“ nahestand. Ziel war es, ein „vom jüdischen Einfluss gereinigtes“ Neues Testament zu erarbeiten. Der erste wissenschaftliche Direktor dieses Instituts, Walter Grundmann, war bereits im Jahr 1930 in die NSDAP eingetreten und seit 1934 unterstützendes Mitglied der SS. Sehr spät, erst seit dem 6. Mai 2019, spricht eine Gedenktafel in der Nähe dieses Instituts davon, dass wir – das sind die an diesem In stitut beteiligten Theologen und Kirchen – „in die Irre gegangen“ seien. Die Reinigung von jüdischem Einfluss geschah durch eine Zensur des Textes, Passagen, die man als „zu jüdisch“ empfand, wurden herausgeschnitten. Diese Ausgabe des Neuen Testaments wird in der wissenschaftlichen Literatur auch als „rassistischer Verrat am Evangelium“ bezeichnet. Im Folgenden soll nun der Vorschlag gemacht werden, den Antisemitismus eines GLAUBENSFRAGE Toxische Therapien Foto: Wikimedia Foto: WBG Am 30.10.2019 schrieb Hans Förster über den „Judenhasstheologen“ Gerhard Kittel, nachzulesen unter furche.at. Immer noch fußen die Übersetzungen des Neuen Testaments auch auf „Erkenntnissen“ antisemitischer Exegese. Nachtrag zum „Bibelsonntag“ der christlichen Kirchen am 22. Jänner. Judenfeindlich – bis heute unterstützenden Mitglieds der SS als Grenze zu sehen, die man in den Übersetzungen des Neuen Testaments nach der Schoa nicht überschreiten sollte. Eine Passage bei Paulus ist in ihrer Judenfeindlichkeit erschreckend. Im Ersten Thessalonicherbrief holt Paulus – so scheint es – zum Rundumschlag aus. Die Juden seien, so liest man in der katholischen Einheitsübersetzung von 2016, „Feinde aller Menschen“. Der Stürmer formulierte in der Nazizeit: „Der Jude ist unser Feind.“ Von Hildegund Keul Der Vatikan untersagte 2005 auf Weisung von Papst Benedikt XVI. die Priesterweihe von Personen „mit tiefsitzenden homosexuellen Tendenzen“. Aber wie lassen sich solche „Tendenzen“ feststellen? Zur Denunziation aufrufen? Ein Spitzelsystem installieren? Peinliche Befragungen durchführen? Die Machtstrategie der Beschämung geht ans Werk. Einer der Menschen, die sich vehement für das Verbot engagierten, war der berühmte Priester und Psychotherapeut Tony Anatrella, der auch Berater mehrerer Vatikanbehörden war. Er hielt homosexuelle Beziehungen für unreif. Aber er wusste im Notfall Rat: seine Konversionstherapie, die jene kleine Abweichung auf dem geraden Weg zölibatärer Heterosexualität korrigieren könne. Allerdings ging bereits 2001 eine Anzeige ein, dass Anatrella in diesen „Therapien“ sexuellen Missbrauch beging. Dem Opfer wurde nicht geglaubt. Jetzt endlich, am 17. Jänner 2023, nach 22 Jahren, weiteren Anzeigen und einer kanonischen Untersuchung, wurden dem Täter alle priesterlichen, therapeutischen und publizistischen Tätigkeiten untersagt. Das schlägt dem Fass den Boden aus. Da sorgt ein Hauptvertreter katholischer Homophobie im Vatikan dafür, dass Homosexuellen die Priesterweihe verweigert wird. Dann stellt sich he raus, dass er nicht nur selbst schwul ist, sondern in „Konversionstherapien“ junge Männer zum Sex nötigt mit der Begründung, dass sie nur so „geheilt“ und zum Priester geweiht werden könnten. Perfider und zynischer geht es nicht. Auch in Österreich sollen Konversionstherapien verboten werden, weil sie internalisierte Homophobie nähren und sogar zur Suizidalität führen können. Statt die Priesterweihe Homosexueller zu verbieten, ist ein Verbot der Konversionstherapien vonnöten. Beides setzt Menschen der Beschämung aus und wirkt toxisch, was eigentlich das Gegenteil von christlich sein sollte. Die Autorin ist katholische Vulnerabilitätsforscherin an der Universität Würzburg. Philologisch besser übersetzt hier der SS-Mann in der „Botschaft Gottes“: Die Juden seien „allen Menschen verhaßt“. In der Zeit des Nationalsozialismus war der Hass so groß, dass man die Juden im Rahmen der Schoa millionenfach ermordete. Für den Nazi Grundmann sind die Juden noch Opfer christlichen Hasses, die revidierte Einheitsübersetzung scheint mit ihrer Formulierung letztlich die Stürmer-Propaganda zu legitimieren. Der Herausgeber des Stürmers hatte sich bei den Nürnberger Prozessen damit verteidigt, dass er christliches Gedankengut popularisiert hat. Ein katholischer Theologe wies kürzlich Kritik an judenfeindlichen Übersetzungsentscheidungen der revidierten Einheitsübersetzung mit dem Hinweis zurück, man dürfe den „scharfen Text“ des Neuen Testaments nicht „gutmeinend verharmlosen“. Ein SS-Mann, dessen Neues Testament als „rassistischer Verrat“ gilt, übersetzt hier harmloser. Darf man ihn als Vorbild vorschlagen, dem Übersetzungen nach der Schoa zu folgen hätten? Oder ist auch das eine „gutmeinende Verharmlosung“? „ Die neutestamentliche Forschung hat sich nach dem Zusammenbruch des NS- Regimes bedauerlicherweise auf die Seite eines höchst einflussreichen Nazi- Theologen gestellt. “ Damit bedarf es einer Erklärung für diese Übersetzungsentscheidung, bei der es sich keinesfalls um einen Einzelfall handelt: Die neutestamentliche Forschung hat sich nach dem Zusammenbruch des NS-Regimes bedauerlicherweise auf die Seite eines anderen, höchst einflussreichen Nazi-Theologen gestellt. Gerhard Kittel, der Foto: Archiv der Stiftung Lutherhaus Eisenach / Alexandra Husemeyer von 1939 bis 1943 an der Universität Wien wirkte, hat ein vielbändiges „Theologisches Wörterbuch zum Neuen Testament“ herausgegeben. Es gilt noch heute als Standardwerk. Erst kürzlich, 2019, wurde es unverändert nachgedruckt. Gerhard Kittel zeichnet sich unter anderem durch seine „theologischen“ Beiträge zur Propagandaausstellung „Der Ewige Jude“ aus. Seine Unterstützung der nationalsozialistischen Propaganda trug dazu bei, dass er im Jahr 1938 Ehrengast des Führers am Nürnberger Reichsparteitag war. Er ist auch der einzige Theologe, dem die höchst seltene Ehre zuteil wurde, gleich zweimal ausführlich im Stürmer referiert zu werden. Sein Wörterbuch beruht auf der wissenschaftlichen Vorentscheidung, dass das Neue Testament das „judenfeindlichste Buch dieser Erde“ sei. Deshalb nimmt es nicht wunder, dass eben die Übersetzungsentscheidung, die sich in der Einheitsübersetzung findet, auch durch dieses theologische Standardwörterbuch legitimiert wird. Eine wissenschaftliche Kritik an diesem Wörterbuch ist heute annähernd unmöglich. Schließlich kamen und kommen Theologen wiederholt zu dem Ergebnis, dass durch dieses Wörterbuch in keiner Weise ein spezieller Antisemitismus gefördert werde. Hier wird man anderer Meinung sein dürfen: Dass eine Übersetzung, die aus der Zeit des Nationalsozialismus stammt und heute als „rassistischer Verrat“ gegeißelt wird, an einer der problematischsten Stellen judenfreundlicher überträgt als die revidierte Einheitsübersetzung, ist bemerkenswert. Vielleicht hat man dem „Theologischen Wörterbuch zum Neuen Testament“ vorschnell einen Persilschein ausgestellt. Natürlich muss man sich heute von Walter Grundmann und seiner „Botschaft Gottes“ distanzieren. Das Wörterbuch des angesehenen Theologen Gerhard Kittel trägt aber dazu bei, dass man nach dem Massenmord an den Juden eine Formulierung wählt, die im Stürmer zitierfähig wäre. Bereits im Jahr 1938 hielt der anglikanische Geistliche Francis Evelyn in der Expository Times erschüttert fest, dass die Nazis – und hier dürfte er vor allem auch den Stürmer gemeint haben – in besonderer Weise das Johannesevangelium als Quelle judenfeindlicher Zitate verwendeten. Heute könnten sie auch Paulus zitieren. Wenn Der Stürmer harmloser übersetzt … Damit zeigt dieser Beitrag, dass eine Kritik an Übersetzungsentscheidungen in modernen Übersetzungen berechtigt und sogar nötig ist. Gerade weil es bei allen Christinnen und Christen Entsetzen auslösen sollte, dass Der Stürmer das Neue Testament häufig zitierte, ist es bedenklich, wenn moderne Übersetzungen hier problematisch übertragen. Ein erster, wichtiger Schritt wäre, dass man von theologischer Seite eine offene wissenschaftliche Kritik an diesem Wörterbuch zulässt. Bisher wurde die Diskussion wiederholt mit dem Hinweis unterbunden, dass durch Veröffentlichungen bestätigt worden sei, dass in diesem Werk keinerlei besondere Judenfeindschaft wahrnehmbar sei. Damit scheint eine grundlegende und systematische Untersuchung der Wirkung dieses Wörterbuches wissenschaftlich überflüssig. Man muss hoffen, dass die „wissenschaftlichen“ Persilscheine für dieses Wörterbuch in Unkenntnis der Sachlage ausgestellt wurden. Schließlich wird kein vernünftiger Mensch – und erst recht kein Theologe – im deutschen Sprachraum gegen den griechischen Text Paulus in den Mund legen wollen, dass die Juden „Feinde aller Menschen“ seien. Was Paulus hier in den Mund gelegt wird, ist höchst judenfeindlich und sprachwissenschaftlich falsch. Hier hat man sich in die Irre führen lassen. Eine Revision der Übersetzung dieser Passage wird man angesichts des hier vorgelegten Befundes wohl vorschlagen dürfen. Hans Förster lehrt als Privatdozent an der Universität Wien und leitet ein Forschungsprojekt des FWF an der Kirchlich-Pädagogischen Hochschule (KPH) Wien/Krems.

DIE FURCHE · 4 26. Jänner 2023 Gesellschaft 11 Künstliche Intelligenz soll den Alltag erleichtern. Tatsächlich führt sie aber auch zu gravierenden Problemen, darunter die manifeste Benachteiligung von Frauen am Arbeitsmarkt. Wie das möglich ist - und wie die Europäische Union das künftig verhindern will. Vom Algorithmus diskriminiert Von Milena Österreicher Viele Branchen werden durch Künstliche Intelligenz (KI) auf den Kopf gestellt: Darüber herrschte beim diesjährigen Weltwirtschaftsforum in Davos breiter Konsens. In Zukunft müsse KI deshalb verstärkt reguliert werden. Auch die Europäische Union kam am Ende des Vorjahres zu diesem Schluss: Im EU-Rat einigte man sich auf den „AI Act“ (AI – Artificial Intelligence), der verschiedene Risikoklassen für Künstliche Intelligenz festgelegt. Demnach sollen kritische Infrastruktur, das Bildungssystem oder der Arbeitsmarkt als Lebensbereiche gelten, in denen KI ein hohes Risikopotenzial birgt und deshalb von strengen Standards eingehegt werden muss. „Unter diese Hochrisiko-Anwendungen wird wohl auch der Algorithmus des Arbeitsmarktservice fallen“, meint Carina Zehetmaier, Gründerin und Präsidentin des interdisziplinären Netzwerks „Women in AI Austria“. Das AMS steht immer wieder wegen des geplanten Einsatzes des Arbeitsmarktchancen-Assistenzsystems (AMAS) im Kreuzfeuer der Kritik. AMAS berechnet auf der Datenbasis vergangener Jahre die zukünftigen Chancen von Arbeitssuchenden am Arbeitsmarkt. Dabei fließen Kategorien wie Geschlecht, Alter, Staatsbürgerschaft, Ausbildung, gesundheitliche Einschränkungen oder Betreuungspflichten – Letztere allerdings nur bei Frauen – mit ein. AMAS soll den Berater(inne)n eine Entscheidungshilfe bieten. Die Datenschutzbehörde untersagte den geplanten österreichweiten Start des AMS-Algorithmus wegen Verstoßes gegen die Datenschutzgrundverordnung ab 2021, der Fall liegt seither vor dem Verwaltungsgerichtshof. Der Vorwurf: Das AMS mache sich damit der Diskriminierung schuldig. Omnipräsente Technologie Allgemein werden unter Künstlicher Intelligenz meist Anwendungen auf Basis maschinellen Lernens verstanden. Ein Programm wird dabei mit einer großen Menge an Daten gefüttert, erkennt darin Muster und zieht Schlussfolgerungen. Genutzt werden diese Anwendungen tagtäglich: als Parkassistenten, mit personalisierten Musik- und Filmvorschlägen, bei der Auswahl eines verschwommenen Hintergrundes im Online-Calls oder als Navigationssystem. Auch in den Bereichen Justiz und Medizin wird auf Automatisierung zurückgegriffen. Das Bundesministerium für Justiz und das Bundesrechenzentrum entwickelten ein Verfahren, um Daten wie Personennamen, Organisationen oder Orte in Gerichtsentscheidungen automatisiert zu anonymisieren. Im Oktober 2022 bekamen sie dafür den „eAward“ in der Kategorie „Machine Learning und Künstliche Intelligenz“. Das Christian Doppler-Labor für Künstliche Intelligenz an der Universitätsklinik der Medizinischen Universität Wien wertet mithilfe von KI Scans der Augennetzhaut aus und prüft sie auf Netzhautveränderungen. Die Einsatzgebiete sind vielfältig, die Problemfelder ebenso. Rechtliche Regelungen hinken hinterher. Den rechtlichen Rahmen, in den KI derzeit eingebettet ist, bilden neben den verfassungsrechtlichen Grundrechten eines Staates auch die allgemeinen Menschenrechte: „Der UN-Menschenrechtsrat in Genf bestätigte zuletzt noch einmal: Menschenrechte gelten online sowie offline“, erklärt die Juristin Carina Zehetmaier. Dementsprechend gelte etwa ein Diskriminierungsverbot. „Es ist ähnlich wie bei einem Vermieter, der mich wegen meiner Foto: iStock/Orbon Alija Herkunft diskriminiert“, betont die Expertin. Wer beweisen kann, aufgrund seiner Herkunft eine Wohnung nicht bekommen zu haben, könne gerichtlich dagegen vorgehen. Zuerst auf nationaler Ebene, in letzter Instanz auch beim Europäischen Gerichtshof für Menschenrechte. Doch wie nachweisen, dass man von einem Algorithmus diskriminiert wurde? „Das ist schwer, solange nicht offengelegt wird, wie er programmiert und mit welchen Daten er trainiert wurde“, sagt Zehetmaier. Selbst wenn man das erfahre, sei es immer noch nicht einfach, nachzuvollziehen, wie der Algorithmus zu seinen Schlüssen gekommen ist: „Wenn mich ein Arbeitgeber aus dem Bewerbungsverfahren aussortiert, kann ich theoretisch anrufen und nach den Gründen fragen. Bei einem automatisierten System geht das nicht“. Der „AI Act“ der EU soll versuchen, hier Abhilfe zu schaffen. Er regelt vor allem bei KI-Systemen mit hohem Risikopotenzial, wie die Prozesse dokumentiert werden müssen und was zu tun ist, um Transparenz zu schaffen. Programmierte Benachteiligung Bei automatisierten Entscheidungsprogrammen passiert die Diskriminierung oft ungewollt, denn: Problematisch ist bei Algorithmen oft die Art der Daten, die genutzt wird, um selbstlernende Programme zu trainieren. „Wenn diese mit alten Datenbeständen gefüttert werden, ist das heikel“, sagt Matthias C. Kettemann, Universitätsprofessor für Innovation, Theorie und Philosophie des Rechts an der Universität Innsbruck. „Das Bewusstsein für Rassismus und Sexismus war vor wenigen Jahren beziehungsweise Jahrzehnten noch ein anderes.“ Vorurteile und Stereotype können fortgeschrieben werden, indem mit Datensätzen gearbeitet wird, die nach diesen alten Paradigmen funktionieren. „ Das System hatte gelernt, Bewerber mit Berufserfahrung zu bevorzugen. So sortierte der Algorithmus Bewerbungen aus, die auf eine Frau schließen ließen. “ So kam es beispielsweise bei Amazon zwischen 2014 und 2017 dazu, dass der dort eingesetzte Bewerbungsroboter Frauen im Bewerbungsprozess systematisch benachteiligte. Das System hatte gelernt, Bewerber mit vielen Jahren Berufserfahrung zu bevorzugen. Das waren in der Tech-Branche in der Vergangenheit mehrheitlich Männer, und so sortierte der Algorithmus Bewerbungen automatisch aus, die auf eine Frau schließen ließen. „Nicht alles, was im Bereich KI möglich ist, ist wünschenswert“, bringt Michaela Pfadenhauer, Soziologin an der Universität Wien, die Lage auf den Punkt. Für sie ist dabei eine der zentralen Fragen, welche Wirkung KI im Alltagshandeln entfaltet und welche gesellschaftlichen Folgen das hat. Wenn etwa journalistische Meldungen von KI-Anwendungen geschrieben werden, Lesen Sie auf furche.at Christof Gasparis „Denkt bald nur noch der Computer?“ (27.8.87) zur Relevanz menschlicher Entscheidungen. Virtuelle Spaltung Künstliche Intelligenz ist im Alltag angekommen. Damit am Ende nicht diejenigen übrigbleiben, die am besten dem Algorithmus entsprechen, ringt die EU um eine strengere Rechtslage. die in Sekundenschnelle einen riesigen Informationsbestand durchforsten und zusammenfassen, sei das technisch gesehen sinnvoll. Darüber hinaus aber könne der Mensch nicht ersetzt werden. „Das können wir nicht im Sinne der Medien als vierter Gewalt im Rechtsstaat wollen“, meint die Soziologin. Vielmehr brauche es Journalistinnen und Journalisten, die Sachverhalte einordnen und eine Kontrollfunktion einnehmen können. Die Verwaltung und die Automatisierung von Kommunikation benötigten immer noch die menschliche Interpretation zur Kontrollübernahme. „Menschen funktionieren nicht nach null und eins, wir sind nicht binär codiert. Wir haben individuelle Geschichten, die einer Deutung benötigen“, so die Soziologin. Entscheidet die Maschine? In der Realität sei diese menschliche Deutung freilich oft nicht zulänglich, so Matthias C. Kettemann, der am Alexander von Humboldt Institut für Internet und Gesellschaft in Berlin forscht. „Wir wissen beispielsweise auch von Studien mit Ärztinnen und Ärzten, dass sie sich oft gegen ihre Intuition entscheiden, wenn ihnen ein Programm ein anderes Ergebnis vorgibt“, erzählt er. „Die KI-Programme haben den Anschein einer Unfehlbarkeit.“ Und von dieser Unfehlbarkeit ließe man sich leicht verführen. Auch die Juristin Carina Zehetmaier ist skeptisch: „Was passiert, wenn Mitarbeiter(innen) sich gegen den Vorschlag eines Algorithmus entscheiden: Müssen sie das dann schriftlich begründen?“ Wenn etwas mit Mehraufwand verbunden sei, würden sich Menschen in der Regel dagegen entscheiden und der Entscheidung der Maschine folgen, gibt sie zu bedenken. Dem Internetforscher Kettemann zufolge braucht es eine Bildungsoffensive, um mit Technik umgehen zu lernen. „Wir sind der Technik nicht komplett ausgeliefert“, betont er. Hinter ihr stehen Entscheidungsketten von Menschen, die in der Entwicklung, Programmierung, Unternehmensführung, Politik und bis hin zur Justiz tätig seien. An der stärkeren Regulierung führt dennoch kein Weg vorbei. Bis der erste KI-Regulierungsversuch der EU in Kraft tritt, wird es aber noch dauern. Nachdem sich der EU-Rat nun auf eine gemeinsame Position geeinigt hat, ist das EU-Parlament am Zug. Bei einer Einigung im ersten Quartal 2023 wird der „AI-Act“ voraussichtlich 2025 in Kraft treten.

DIE FURCHE 2024

DIE FURCHE 2023