DIE FURCHE · 20 18 Wissen 17. Mai 2023 Von Edda Holweg, Nora Reichhalter und Felix Neumann Ivy redet gerne über das Wetter, erzählt Witze und spricht sechs Sprachen. Sie ist hilfsbereit und antwortet immer, wenn sie angerufen wird. Sie kommt aus der Stadt Salzburg, aus einem grünen Wohngebiet, nur einen Katzensprung von der deutschen Grenze entfernt. Schon am Eingang des nach Feng Shui gebauten Gebäudes begrüßt Ivy Besucher an der Gegensprechanlage: „Willkommen bei Commend. Wie kann ich Ihnen helfen?“ Forschung an Künstlicher Intelligenz kam erstmals in den 1950er-Jahren auf. Heute überschlagen sich die Entwicklungen beinahe. Eine Analyse des US-amerikanischen Forschungsunternehmens OpenAI ergab, dass KI-Systeme ihre Rechenleistung alle dreieinhalb Monate verdoppeln. Spätestens seit Anwendungen wie ChatGPT Künstliche Intelligenz für die breite Bevölkerung zugänglich machen, boomt der Markt. Sieht man sich jedoch an, woher diese Dienste kommen, wird schnell klar, wer die Oberhand hat: die USA und China. „Das Thema KI ist in Österreich und Europa leider ein bisschen verloren gegangen“, kritisiert Johanna Pirker, Assistenzprofessorin an der TU Graz, die zu Künstlicher Intelligenz und Virtual Reality mit dem Fokus auf Videospiele forscht. Laut dem „Artificial Intelligence Index Report 2023“ werden in den Vereinigten Staaten über 47 Milliarden US-Dollar an Privatinvestitionen in KI-Entwicklung gesteckt, in der EU nur elf Milliarden. Die neun Top-Forschungseinrichtungen für Künstliche Intelligenz befinden sich in China. Massive Um- und Weiterbildung „Der Zeitpunkt für Europa ist gekommen. Wir sollten am Weltmarkt mitspielen und nicht einem wegfahrenden Zug nachschauen“, meint Jörg Weisser, Marketingleiter von Commend, einem Salzburger Unternehmen für Sicherheitskommunikation. Kunden von Commend sitzen in Sydney, Kapstadt und im Silicon Valley. Ihre KI-basierte Sprachassistentin „Ivy Virtual Assistant“ ist eine Weiterentwicklung der klassischen Sprechanlagen-Systeme von Commend. Ivy hebt direkt ab, wenn Menschen an Orten wie Bahnhöfen, Flughäfen oder Parkgaragen Hilfe brauchen und eine Sprechstelle benutzen. Bei Notfällen, die Ivy selbst nicht lösen kann, verbindet sie mit einem Mitarbeiter. „Manche Menschen merken gar nicht, dass sie mit einer digitalen Sprachassistentin reden“, meint Weisser. Und Ivy ist nicht die einzige ihrer Art: Zahlreiche Unternehmen in Österreich entwickeln KI für eine Vielzahl an Nutzungen. „Wir sind irrsinnig gut aufgestellt im technischen Bereich. Wir haben hervorragende Universitäten mit technischem Know-how“, sagt Pirker. Dieser Meinung ist auch Klaus Hirschegger, Projektmanager bei Commend. „Wir sitzen in Salzburg und nicht im Silicon Valley – weil wir in Österreich Fachwissen haben, das es nur bei uns gibt.“ Nach etwa vier Jahren Entwicklungsphase ist Ivy seit März auf dem Markt. Anfangs wurde sie auf den Bahnhöfen der Greater Anglier, einem Privatbahn-Unternehmen in London, getestet. Was Ivy alles kann, wird individuell vom Kunden bestimmt. „Eine ihrer Grundanwendungen ist Leeranrufe erkennen, also wenn jemand versehentlich den Hilfsknopf drückt. Sie kann auch vordefinierte Fragen beantworten“, erklärt Commend-Produktmanager Tomáš Horčička. Es gibt ein ausführliches Reporting, das den Betreiber über Analysedaten wie Anrufdauer oder häufig gestellte Anfragen informiert. „Wobei Ivy nicht entwickelt wurde, um Arbeitsplätze einzusparen, sondern um gestresste Mitarbeiter in Leitständen zu entlasten“, sagt Weisser. Die Gefahr, dass viele Jobs durch KI-Anwendungen obsolet werden, bestehe nicht, meint auch Sabine Köszegi, TU-Wien-Professorin für Arbeitswissenschaft. Sie war Vorsitzende des Österreichischen Rates für Robotik und Künstliche Intelligenz, der 2021 auslief. Köszegi geht vielmehr davon Einblicke in die Debatten zur Künstlichen Intelligenz finden Sie in unserem Dossier #Mensch- Maschine auf furche.at. Wettlauf um die Zukunft aus, dass sich einzelne Jobprofile und damit entsprechende Qualifikationsanforderungen ändern werden, denn: „Es werden nicht alle bereit sein, in diesen massiven Umund Weiterbildungsprozess einzusteigen.“ Auch Johanna Pirker glaubt, dass sich KI-Systeme früher in unseren Alltag integrieren als gedacht: „Künstliche Intelligenz holt uns in allen Bereichen schnell ein. Wir werden regelrecht zwangsbeglückt.“ Darum möchte die Europäische Union mit dem sogenannten AI-Act ein Regelwerk schaffen, um KI zu regulieren. Die USA setzen auf freiwillige Maßnahmen für Entwickler, seit 2022 gibt es Empfehlungen wie die „AI Bill of Rights“, die Vorschläge bezüglich „ Wir sitzen in Salzburg und nicht im Silicon Valley – weil wir in Österreich Fachwissen haben, das es nur bei uns gibt. “ Klaus Hirschegger, Fa. Commend Datenschutz, Schutz vor algorithmischer Diskriminierung und Sicherheit beinhaltet. In China wiederum erlässt die Internetregulierungsbehörde gerade ein neues Gesetz: KI-Anwendungen werden künftig vor der Veröffentlichung überprüft, ob sie etwa „sozialistischen Grundwerten“ entsprechen oder die Staatsmacht in Frage stellen. Bei Verstößen drohen den Entwicklern hohe Strafen. Österreichs Staatssekretär für Digitalisierung, Florian Tursky (ÖVP), warnte im April vor diesem Gesetz. Chinesische KI sei dadurch ideologisch behaftet und eine Gefahr für die westliche Demokratie. Er schlug daher in einem Brief an die EU-Kommission vor, Künstliche Intelligenz aus China auf EU-Ebene zu verbieten, sollte das Gesetz umgesetzt werden. Außerdem fordert Tursky, den AI-Act schneller zu fixieren, am besten noch vor Ende dieses Jahres. Unterdotierte Forschung Zwangsbeglückt „Künstliche Intelligenz holt uns in allen Bereichen schnell ein. Wir werden regelrecht zwangsbeglückt“, so Johanna Pirker von der TU Graz. Bei Künstlicher Intelligenz dominieren China und die USA, Europa steckt derzeit noch in der Kundenrolle. Und Österreich? Unser Autorenteam bat Expert(inn)en aus Wissenschaft und Wirtschaft um ihre Einschätzung. Bild: Edda Holweg / KI DALL-E / Prompt: a robot with a brain as a head holding the flag of the EU, the flag of the USA and the flag of China Der AI-Act teilt KI-Systeme je nach Anwendungsbereich in verschiedene Gruppen ein. Chatbots wie ChatGPT gelten als „minimal-risk“-Anwendungen, für die fast keine Regeln gelten. Gefährdet eine Künstliche Intelligenz die Grundrechte des Menschen, wie beispielsweise bei biometrischer Gesichtserkennung in Echtzeit oder bei Sozialkredit-Systemen, wäre sie laut AI-Act inakzeptabel und damit verboten. Mit diesem Regelwerk möchte sich die EU am internationalen Markt positionieren und könnte sogar eine Vorbildfunktion einnehmen, wie Roman Kern vom Know Center Graz meint: „Europa kann mit dem AI-Act rechtliche Tatsachen schaffen, die vielleicht für andere Länder als Blaupause dienen“ (siehe Interview S. 19). Sabine Köszegi sieht beim Entwurf noch Bedarf für Nachschärfungen, da beispielsweise KI-basierte Waffensysteme derzeit nicht Teil davon sind. „Es gab politisch anscheinend nicht genug Willen oder Einigkeit, um bestimmte Technologien in die ‚Red-Lines-Kategorie‘ zu bringen“, meint die Professorin der TU Wien. Im April ließ indes der KI-Pionier Sepp Hochreiter von der Universität Linz aufhorchen: Österreich investiere viel zu wenig in diesen Forschungsbereich. Nach einer Analyse des Brookings-Instituts gab Österreich 2021 sieben Millionen Euro für KI-Grundlagenforschung aus, in Schweden waren es 500 Millionen, in Deutschland fünf Milliarden. Weisser von Commend pflichtet Hochreiter bei: „Es klingt nach viel Geld, aber für diese internationalen Megatrends ist das wie ein Tropfen auf einem glühend heißen Stein.“ Bei Künstlicher Intelligenz sei es so wie beim Internet vor 35 Jahren: „Europa wäre klug, nicht alles in die USA oder nach Asien abwandern zu lassen“, warnt Weisser. Auch Köszegi wünscht sich mehr finanzielle Mittel: Österreich habe im Vergleich zu anderen europäischen Ländern noch sehr wenig in die KI-Forschung investiert. „Sehr positiv“ hebt Commend-Produktmanager Hirschegger die Zusammenarbeit mit der Österreichischen Forschungsförderungsgesellschaft (FFG) hervor: „Sie haben schon einige Commend-Projekte unterstützt und machen sehr viel.“ Laut Staatssekretär Tursky sind in den letzten beiden Jahren 500 Millionen Euro über die FFG in die KI-Forschung geflossen. Dieses Geld geht jedoch in die angewandte Forschung, Hochreiters Kritik bezieht sich speziell auf die Grundlagenforschung. Tursky kündigte zudem an, 2024 eine KI-Behörde in Österreich einrichten zu wollen. Stärken in der Robotik Ob eine Behörde und ein Regelwerk reicht, um Österreich und im weiteren Sinne Europa auf dem KI-Markt zu positionieren, bleibt indes offen. Pirker sieht noch Luft nach oben: „Ich wünsche mir mehr Mut. Lokale Unternehmen sollen sich mit dem Thema auseinandersetzen und eruieren, ob sie diese Technologien brauchen können.“ Europa müsse nicht Weltmarktführer werden, aber zumindest eine Rolle spielen. „Zurzeit sind wir nur Abnehmer. Wir sitzen in einem Boot, das andere gebaut haben“, sagt Pirker. Laut Sabine Köszegi habe Europa den Sprung bei datengetriebenen KI-Systemen schon verpasst: „Die großen Firmen, die bereits alle Daten besitzen, sind außerhalb Europas. Das können wir nicht mehr aufholen.“ Viel eher solle man schauen, wo die Stärken liegen und darauf aufbauen. Vor allem in der Robotik sei Europa durchaus konkurrenzfähig. Der „World Robotics Report 2022“ zählt Deutschland zu den fünf größten Robotermärkten weltweit. „Da gibt es ganz tolle Entwicklungen in Europa, in denen wir Weltmarktführer sind“, meint Köszegi. Mit „Ivy Virtual Assistant“ gewann Commend im März einen Preis bei der Sicherheitsmesse ISC West in Las Vegas. Dies sei nur möglich gewesen, da Commend bereits international vernetzt sei und über Standorte in über 60 Staaten verfüge. „Es wäre schwierig, so etwas zu gewinnen, wenn die internationale Organisation dafür fehlt“, sagt Produktmanager Klaus Hirschegger. Für Marketingleiter Jörg Weisser sind heimische Start-ups wichtig, um Innovationen voranzutreiben. Sie hätten aber wenig Chance, über Grenzen hinweg durchzustarten. Für Ivy jedenfalls wird die Zukunft „emotional“: In den nächsten Schritten soll die virtuelle Sprachassistentin Gefühle in der Stimme von Anrufern erkennen. So könne sie künftig die Dringlichkeit der Notfälle einschätzen. Je mehr Panik in der Stimme, desto dringender der Notfall. „Einem Mitarbeiter kann hier leicht ein Fehler passieren“, meint Jörg Weisser. „Wir gehen davon aus, dass Ivy zu einer geringeren Fehleinschätzung beiträgt.“ Die Berichte auf diesen Seiten wurden von Journalismus-Studierenden der FH Joanneum Graz im Rahmen von „Styria Ethics“ erstellt. Dieses entsteht heuer in Kooperation mit dem Pfingstdialog „Geist und Gegenwart“, der ab 24. Mai zum Thema „The European Way of Life“ stattfindet (www.pfingstdialog-steiermark.at).
DIE FURCHE · 20 17. Mai 2023 Wissen 19 Die Europäische Union will den Gefahren der Künstlichen Intelligenz mit rechtlichen Tatsachen begegnen. KI-Experte Roman Kern über fehlerhafte Chatbots, voreingenommene Daten und den schmalen Grat zwischen Innovation und Regulierung. „Wenn es unter Wasser brennt, halluziniert die Maschine“ Das Gespräch führten Edda Holweg, Nora Reichhalter und Felix Neumann Um eine vertrauenswürdige Künstliche Intelligenz zu entwickeln, arbeitet die EU an einem gesetzlichen Regulierungswerk. Ende April haben sich die Abgeordneten des EU-Parlaments auf einen Entwurf geeinigt. Der sogenannte AI-Act soll 2025 in Kraft treten. Die FURCHE sprach dazu mit Roman Kern, Assistenzprofessor an der TU Graz und Leiter der Abteilung „Knowledge Discovery“ am Know-Center Graz, einem Forschungszentrum für datenbasierte Wirtschaft und KI. DIE FURCHE: In einer Stellungnahme zum AI-Act kritisieren zahlreiche Forscher, darunter der an der Uni Wien forschende Technikphilosoph Mark Coeckelbergh, dass das Regelwerk zu spät komme. Teilen Sie diese Meinung? Roman Kern: Dem würde ich zustimmen: Wenn Nutzer sich erst an den Komfort von unregulierten KI-Systemen gewöhnt haben, dann ist es rechtlich sehr schwer, dort noch einzugreifen. Menschen irgendetwas wegzunehmen, ist generell das Schlimmste, was man machen kann. Ob die Politik so ein Risiko eingeht, bleibt die große Frage. Ein weiteres Thema beim AI-Act ist, ob die Rolle von Chatbots kritischer gesehen werden sollte. DIE FURCHE: Diese werden im AI- Act als geringes Risiko eingestuft. Welche Gefahren sehen Sie in den Chatbots? Kern: Chatbots können schnell viel Text produzieren. Dadurch kann auch rasch viel Fehlinformation entstehen. Generative KI kombiniert bestehende Informationen oder Wissen auf neue Art und Weise. Es entsteht zwar Neues, das plausibel scheint, aber nicht notwendigerweise logisch ist. Da können auch physikalische Gesetze gebrochen werden: So kann es etwa schnell einmal unter Wasser brennen. Wir sprechen dann vom „Halluzinieren“. DIE FURCHE: Die AI-Act-Arbeitsgruppe, die zwölf Gesetzgeber der EU vertritt, hat vor Kurzem in einem offenen Brief ihre Bedenken geäußert, da die KI-Entwicklung momentan zu rasant voranschreite. Unter anderem forderte sie einen globalen KI-Gipfel. Wäre es sinnvoll für Europa, andere Staaten mit ins Boot zu holen? Kern: Absolut. Ich habe immer diese technologische Brille auf – ich sehe, wie generative KI trainiert wird. Das geschieht mit Daten, die potenziell einen „Bias“ haben, also voreingenommen sind. Sie repräsentieren nicht die gesamte Menschheit, sondern sehr stark die westliche Welt. Da Roman Kern forscht am Institut für Interaktive Systeme und Datenwissenschaft der TU Graz sowie am Know Center Graz. Foto: Sabine de Rouw reden wir von „Bias in, Bias out“ – verwende ich voreingenommene Daten, so zeigt sich das auch im Ergebnis. Es wäre sinnvoll, andere Sichtweisen einzubeziehen. DIE FURCHE: … und ein gemeinsames Regelwerk zu verfassen? Kern: Ja, das ist ein globales Problem. Es scheint, als würden wir eine globale Lösung brauchen. Aber ich bin da vielleicht etwas naiv. DIE FURCHE: Wie realistisch ist es, gemeinsam Standards zu setzen und den AI-Act zu „exportieren“? Kern: Das ist eine politische Frage. Gegenstimmen sagen, China und die USA werden sich nicht darum kümmern. Was Europa machen kann, ist, mit einem „AI-Act“ rechtliche Tatsachen zu schaffen, die vielleicht für andere Länder als Blaupause dienen. Ich glaube, wenn die KI so weit ist, auf Knopfdruck Hollywoodfilme zu produzieren, wird es auch seitens der USA Bedenken geben. DIE FURCHE: Könnten gewisse Branchen, vor allem kleinere Unternehmen, durch den AI-Act benachteiligt werden? Kern: Das Risiko ist definitiv da. Es kann passieren, dass für jene, die sich an den AI-Act halten, die Innovationskraft gering ist oder die Projekte teurer werden. Also dass ein administrativer Aufwand entsteht, der gewisse Projekte verhindert, weil die Kosten-Nutzen-Rechnung nicht mehr aufgeht … „ Künstliche Intelligenz wird auch von Experten und Entwicklern nicht ausreichend verstanden. Wollen wir einer Maschine vertrauen, von der wir nicht genau wissen, wie sie arbeitet? “ DIE FURCHE: Sie meinen den schmalen Grat zwischen Regulierung und Innovation … Kern: Was nützt selbst das beste Gesetz, wenn es nur dazu führt, dass Innovation und Forschung nicht in Europa, sondern woanders stattfinden? Wenn der „AI- Act“ nicht nach außen wirkt? Da muss man sehen, ob der Nutzen überwiegt. DIE FURCHE: Vor Kurzem hat der KI-Pionier Geoffrey Hinton vor einer unkontrollierbaren Entwicklung gewarnt, die viele Gefahren birgt. Ist das nachvollziehbar? Kern: Hinton ist nicht irgendjemand, sondern einer der wichtigsten Vordenker, die uns dorthin geführt haben, wo wir heute sind. Wir sollten uns Gedanken machen, was diese rasante Entwicklung bedeutet. Was heißt das rechtlich, gesellschaftlich GEIST & GEGENWART Am 24. & 25. Mai wird beim Pfingstdialog auf Schloss Seggau über die Zukunft Europas diskutiert. Die Inhalte lesen Sie in der darauffolgenden Ausgabe der FURCHE. NOCH KEIN ABO? Scannen Sie den QR-Code und lesen Sie DIE FURCHE 4 Wochen kostenlos gedruckt und digital! Bild: Edda Holweg / KI DALL-E / Prompt: robot holding the flag of the EU, the flag of the USA and the chinese flag in his hands, with a parlament building in the background Schein oder Sein? Unwahr, unlogisch, in sich widersprüchlich: Sogenannte künstliche Halluzinationen können bei allen selbstlernenden KI-Programmen auftreten. „Wovor wir uns wirklich fürchten sollten“ (8.3.2023): Gerfried Stocker, CEO und künstlerischer Leiter der Ars Electronica, über die Dunkelzonen der KI, auf furche.at. und – für mich am interessantesten – technisch? Die Künstliche Intelligenz von heute funktioniert ausreichend gut, allerdings wird sie nicht ausreichend gut verstanden. Nicht nur vom End- User, sondern auch von Entwicklern, Experten und Wissenschaftlern. Die wissen zum Teil auch nicht genau, wie die Maschine funktioniert! Daher die Frage: Wollen wir einer Maschine vertrauen, von der wir nicht genau wissen, wie sie arbeitet? DIE FURCHE: Wann würden denn Sie als Konsument einer Künstlichen Intelligenz vertrauen? Kern: Wenn es eine persönliche Frage ist, dann einer KI, die ich verstehe und die transparent ist. Bei ChatGPT weiß ich nicht, mit welchen Datenquellen sie trainiert wurde. Bei einer vertrauenswürdigen KI möchte ich wissen, wie sie gebaut worden ist und mit welchen Daten sie gefüttert wurde. Ich will einschätzen können, was die Ergebnisse sind – und wie sie zustande kommen.
Laden...
Laden...
Ihr Zugang zu neuen Perspektiven und
mehreren Jahrzehnten Zeitgeschichte.
© 2023 DIE FURCHE