Künstliche Intelligenz hat mittlerweile die physikalischen Eigenschaften von Luft angenommen: Sie ist allgegenwärtig, dabei aber niemals fassbar. Fast täglich wird sie zum Messias oder zur Geißel erklärt. Vermisst wird aber immer noch eine klare Definition. Über ihre künftige Bedeutung herrscht in Medien, Politik und Wirtschaft jedoch Einigkeit: Während lange über Sinn und Unsinn einer nationalen Industriepolitik gestritten wurde, gab es an der Notwendigkeit einer KI-Strategie keine Zweifel. Im Frühjahr 2018 stellte auch die EU-Kommission – einen Monat nach Frankreich und gut ein halbes Jahr vor der Bundesregierung – ihre Strategie „Artificial Intelligence for Europe” vor. In ihren Plänen finden sich neben der Steigerung öffentlicher und privater Investitionen und der Vorbereitung auf die mit der Technologie verbundenen gesellschaftlichen Änderungen auch die Schaffung eines ethischen und rechtlichen Rahmens.
Die EU muss ein Alleinstellungsmerkmal finden
Im April 2019 hat die „High-Level Expert Group on Artificial Intelligence“ (AI HLEG) der Europäischen Kommission den finalen Entwurf ihrer „Ethikrichtlinien für eine vertrauenswürdige künstliche Intelligenz“ präsentiert. Und wie schon bei Asimovs Robotergesetzen rund 80 Jahre zuvor steht bei diesen vor allem der Mensch im Mittelpunkt. Seine Autonomie muss unbedingt geschützt und Schaden an der Gesellschaft vermieden werden. Darüber hinaus ist die Erklärbarkeit von KI ein zentrales Anliegen. Nur wenn die Algorithmen hinter den Entscheidungen offenliegen, könne Diskriminierung durch Künstliche Intelligenz verhindert und das Vertrauen gestärkt werden, so das Kalkül. Der europäische Sonderweg sieht also vor – wie schon bei der DSGVO – Sicherheitsbedenken über das zu stellen, was technisch machbar und wirtschaftlich profitabel ist. Dieses Vorgehen ist erfreulich, nicht nur aus Verbrauchersicht.
Anthony Mullen, Research Director beim Marktforscher Gartner, nannte den Wettlauf um die Vorherrschaft bei Künstlicher Intelligenz ein „two-horse race“ zwischen den USA und China. Die aktuellen Quoten scheinen ihm recht zu geben. Vor allem mit den chinesischen Verhältnissen kann die EU unmöglich mithalten: Dort treffen riesige Investitionssummen auf ein Meer an nutzbaren Daten und den politischen Willen, die Forschung in KI zur höchsten Priorität zu machen. Damit die EU eine Chance hat, muss sie neben höheren Investitionen auch ein Alleinstellungsmerkmal finden. Eine sichere, transparente KI „Made in Europe“ kann dieser USP sein.
KI-Airbus: Durchstarter oder Bruchpilot?
Wirtschaftsminister Peter Altmaier forderte auf dem Digitalgipfel in Nürnberg einen „Airbus der KI“, also einen gemeinsamen europäischen Digitalkonzern. Tatsächlich ist der Flugzeughersteller ein geeignetes Vorbild. Airbus hat in seiner fast fünfzigjährigen Geschichte immer wieder bewiesen: Wenn der Platzhirsch Boeing vorpreschte, war es oft von Vorteil, abzuwarten und aus seinen Fehlern zu lernen. Der Skandal um den Problemflieger 737 MAX ist hierfür nur das jüngste Beispiel. Die Ethikrichtlinien der EU können in Zukunft als Kompass dienen, um die moralischen und sicherheitstechnischen Fallen bei der KI-Entwicklung zu umgehen.
Auch die Finanzbranche setzt große Hoffnungen auf die neue Technologie. Der Einsatz von Künstlicher Intelligenz verspricht Effizienz- und Ertragssteigerungen. Durch die Menge an sensiblen Daten ist jedoch das allgemeine Risiko sowie das Potenzial für Diskriminierung ebenfalls groß. Finanzdienstleister täten gut daran, die ethische Ausrichtung der EU schon jetzt auf ihre eigene KI-Strategie zu übertragen. Eine Studie von elaboratum zur Akzeptanz von KI in der Finanz- und Versicherungsbranche legt nahe, dass es vor allem in Sachen Transparenz noch Mängel gibt. Nahezu die Hälfte der befragten Konsumenten wusste gar nicht, ob sie bereits mit Künstlicher Intelligenz zu tun hatten oder nicht. Turing-Test zwar bestanden, Kundenvertrauen aber verloren.