Künstliche Intelligenz (KI) wird oft als die vierte industrielle Revolution (nach dem Internet) bezeichnet und ist ein wichtiger Motor für Produktivitätssteigerungen. Ihr volles Potenzial muss noch in alle Geschäftsmodelle integriert werden, doch ihr rascher Aufstieg gibt Anlass zu berechtigten Bedenken.
Jüngsten Eurostat-Daten zufolge gehören Fragen und Unsicherheiten im Zusammenhang mit der Regulierung der KI-Nutzung zu den Haupthindernissen für die Einführung von KI in Unternehmen mit mehr als 250 Beschäftigten in der Europäischen Union (EU).[1]
Diese Daten unterstreichen die Notwendigkeit, KI in einem sicheren Rahmen zu entwickeln. Die mit KI verbundenen rechtlichen und regulatorischen Risiken – darunter die Risiken in Bezug auf geistiges Eigentum, Datenschutz, Privatsphäre und Ethik – fallen alle unter den Begriff „KI-Governance“. Dieser umfasst alle Prozesse und Standards, die eine sichere und ethische Nutzung gewährleisten.[2] Eine solide Governance dürfte die Einführung von KI fördern.
Governance notwendig: Das KI-Gesetz
Mangels globaler KI-Governance hat die EU im Juni 2024 die erste KI-Verordnung (das sogenannte KI-Gesetz[3]) verabschiedet, die schrittweise bis Dezember 2030 umgesetzt werden soll. Mit dieser Verordnung soll eine sichere, ethische und transparente Nutzung von KI unter Wahrung der Grundrechte gewährleistet werden. Zu diesem Zweck wurden KI-Anwendungen nach Risikostufen (minimal, begrenzt, hoch, inakzeptabel) kategorisiert und entsprechende Verpflichtungen zur Verringerung oder Beseitigung der damit verbundenen Risiken festgelegt. Die EU hat den Anwendungsbereich des KI-Gesetzes ausgeweitet, so dass eine Umgehung der Verordnung aufgrund der digitalen Natur der KI nicht möglich ist. Das KI-Gesetz richtet sich nicht nur an Anbieter und Betreiber von KI-Systemen in der EU, sondern auch an diejenigen, die den von KI generierten „Output“ in der EU nutzen. Der Begriff „Output“ ist weit genug gefasst, um ein breites Spektrum an Situationen zu erfassen, darunter „Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen“.
Um zu verhindern, dass KI wie eine „Blackbox“ funktioniert, soll das KI-Gesetz die europäischen Bürger vor einer „voreingenommenen“ Nutzung schützen, indem es für Transparenz und Nachvollziehbarkeit des Inferenzprozesses sorgt, der unter menschlicher Aufsicht bleiben muss. Angewandt auf das Personalwesen, einem „Hochrisiko“-Anwendungsbereich, schreibt diese Verordnung vor: Unternehmen, die KI zur Sortierung von Bewerbungen einsetzen, sind verpflichtet, die Bewerber darüber zu informieren und müssen die Funktionsweise des verwendeten Algorithmus erklären können. Außerdem muss der gesamte Prozess unter menschlicher Aufsicht durchgeführt werden, um mögliche Fehlfunktionen wie „Halluzinationen“[4] zu vermeiden.
Das KI-Gesetz legt zwar den Grundstein für die KI-Governance, ist jedoch nicht frei von Kritik. Aus wirtschaftsliberaler Sicht könnten seine Komplexität und die damit verbundenen Kosten ein Innovationshemmnis darstellen. Zumal diese neuen Anforderungen mit bereits bestehenden Anforderungen wie den Grundrechten, dem Schutz personenbezogener Daten, dem Verbraucherschutz und dem Schutz des geistigen Eigentums in Einklang gebracht werden müssen. Andere, die mehr auf Menschenrechte achten, halten die Verordnung für zu milde und ihre Umsetzung für zu langsam.
Bedeutung globaler Governance
Die Extraterritorialität des KI-Gesetzes und die beträchtlichen Geldstrafen, denen Unternehmen ausgesetzt sein könnten (bis zu 7 % des weltweiten Umsatzes für verbotene Anwendungen), dürften mit den Interessen anderer Wirtschaftsregionen kollidieren. So übt die derzeitige US-Regierung, die die Beschränkungen für KI-Anbieter im Namen des Innovationsschutzes[5] gelockert hat, laut Bloomberg angeblich auch Druck auf die europäischen Behörden aus, damit diese den für August erwarteten KI-Verhaltenskodex für allgemeine Zwecke aufgeben.[6] In diesem unverbindlichen Dokument, das von verschiedenen Stakeholdern, darunter auch Anbieter von KI-Modellen, mitverfasst wurde, werden die besten Praktiken beschrieben, die übernommen werden sollten.
Dieser Machtkampf unterstreicht, dass eine Einigung erzielt werden muss, um die Ausbreitung nationaler Regeln und Standards zu vermeiden, die die Entwicklung der KI behindern könnten. Angesichts der bestehenden kulturellen und ideologischen Vorurteile ist es jedoch wahrscheinlich, dass ein globales KI-Governance-Modell nur auf der Grundlage des kleinsten gemeinsamen Nenners festgelegt werden kann. Diese Rolle scheint dem Global Digital Compact[7] zugedacht zu sein, der von 193 Ländern auf dem Zukunftsgipfel 2024 angenommen wurde. Ähnlich wie sein Vorläufer, der Global Compact der Vereinten Nationen, der entwickelt wurde, um Menschenrechte, Arbeitsnormen, Umweltmanagement und den Kampf gegen Korruption zu stärken, zielt der Global Digital Compact darauf ab[8], „gemeinsame Prinzipien für eine offene, freie und sichere digitale Zukunft für alle zu definieren“. Der Ausschuss für künstliche Intelligenz zielt darauf ab, „die internationale Datenverwaltung zu stärken und die künstliche Intelligenz zum Wohle der Menschheit zu regulieren“.
Schlussfolgerung
In seinem Roman „1984“ schildert Georges Orwell eine Welt, in der die Bürger unter der ständigen Überwachung einer autoritären Macht stehen, die durch die Figur des „Big Brother“ verkörpert wird. Im Zeitalter der digitalen Technologie führen unsere Fußabdrücke in Verbindung mit den Fortschritten der künstlichen Intelligenz dazu, dass jeder Bürger/Verbraucher einer ähnlichen Situation ausgesetzt ist. Um zu verhindern, dass diese Orwell'sche Dystopie Wirklichkeit wird, scheint eine Regulierung des Technologieeinsatzes unerlässlich. Verantwortungsvolles Investieren erfordert daher, dass Unternehmen, die diese KI-Systeme entwickeln und einsetzen, angemessene operative „Firewalls“ einrichten, die von Kontrollorganen mit der nötigen Kompetenz überwacht werden, die diese Aspekte verstehen und um die damit verbundenen Risiken wirksam zu mindern.
[1] Eurostat, [isoc_eb_ai] Künstliche Intelligenz nach Unternehmensgröße; Daten 2024
[2] Die größten Unternehmen betrachten KI als einen Risikomultiplikator: Von Cybersicherheit, Regulierung und Wettbewerb bis hin zu Ruf, Ethik und geistigem Eigentum. Deloitte* und USC Marshall School of Business, Oktober 2024.
[3] Regulation(EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 establishing harmonised rules on artificial intelligence and amending Regulations(EC) No 300/2008,(EU) No 167/2013,(EU) No 168/2013,(EU) 2018/858,(EU) 2018/1139 and(EU) 2019/2144 and Directives 2014/90/EU,(EU) 2016/797 and(EU) 2020/1828 (Artificial Intelligence Regulation) Text with EEA relevance.
[4] Situation, in der generative KI aufgrund von Verzerrungen in ihren Berechnungen oder Datenbanken falsche oder unangemessene Antworten gibt. (assemblee-nationale.fr/dyn/opendata/RINFANR5L16B2207.html)
[5] Removing Barriers to American Leadership in Artificial Intelligence – The White House
[6] General Purpose AI Best Practises Code | Building Europe's Digital Future
[7] Global Digital Pact
[8] Global Digital Pact | Office for Digital and Emerging Technologies