Stellungnahme von Daniel Abbou zum AI Act (Anhörung im Digitalausschuss)

Schriftliche Stellungnahme von Daniel Abbou, Geschäftsführer KI Bundesverband e.V.

Für die am 26.09.2022 stattfindende Anhörung des Ausschusses für Digitales zur

EU-Verordnung zu Künstlicher Intelligenz unter Einbeziehung von Wettbewerbsfähigkeit im Bereich Künstliche Intelligenz und Blockchain-Technologie

Am 21. April 2021 legte die Europäische Kommission den sogenannten European AI Act vor, der die Entwicklung und Nutzung von Künstlicher Intelligenz (KI) in der Europäischen Union regeln soll. KI ist eine der entscheidenden Technologien unserer Zukunft, deshalb ist es wichtig, dass sie im Sinne europäischer und demokratischer Werte Anwendung findet. 

  1. Inadäquate Definition von KI 

Weder in der Wissenschaft noch in der Praxis gibt es eine allgemein anerkannte Definition von Künstlicher Intelligenz. Die KI-Regulierung enthält daher in Article 3.1 and Annex 3  eine eigene Definition von KI, welche all jene Softwares einschließt, die statistische Verfahren oder Such- und Optimierungsverfahren einsetzen. Das ist insofern problematisch, da dadurch nahezu jede  bestehende  und  zukünftige  Software  ohne  KI-Bezug  als  „KI“  klassifiziert wird. 

Für Unternehmen, welche Softwares entwickeln oder einsetzen, entstehen somit unabsehbare Risiken. Wir schließen uns daher dem Vorschlag unserer Schwedischen Freunden von AI Sweden, dem nationalen Zentrum für angewandte Künstliche Intelligenz, an, die Definition von KI in der EU-Regulierung in Übereinstimmung mit der allgemein anerkannten OECD-Definition zu fassen. 

  1. Zu weit gefasster Begriff der “Hochrisiko-Anwendungen”

Wir begrüßen den Ansatz der Europäischen Union, KI in jenen Bereichen zu regulieren, in denen große Schadenspotenziale bestehen. Obwohl wir den risikobasierten Ansatz der Kommission begrüßen, besteht bei der Zuteilung von KI-Anwendungen in die verschiedenen Risikostufen noch erhebliches Verbesserungspotential. 

Insbesondere die Definition sogenannter Hochrisiko-Anwendungen ist zu weit gefasst. Sie sollte nur Systeme umfassen, die ein potenziell hohes Risiko für die Sicherheit oder die Grundrechte darstellen können. Derzeit sieht sie aber vor, dass auch Anwendungen, welche ein geringes Risiko aufweisen, in den Anwendungsbereich der Vorgaben für Hochrisiko-KI fallen.

  1. Risikobewertung

Wie der KI Bundesverband schon in seiner Stellungnahme zum Vorschlag der Kommission schrieb, stellen wir die Erschwinglichkeit von Selbst- und Fremdbewertungen in Frage, insbesondere für Start-ups und KMU. Die Beauftragung von externen Sachverständigen und spezialisierten Wirtschaftsprüfungsgesellschaften bedeutet bei der Fremdbewertung Kosten, die nur von Großunternehmen getragen werden können. Die im Entwurf genannten Maßnahmen zur Vermeidung von Nachteilen für Start-ups und KMU reichen nicht aus und müssen erweitert werden. 

Bei Selbstbewertungen stellt sich je nach Umfang und damit verbundenem Haftungsrisiko weiter die Frage nach der Durchführbarkeit des Aufbaus eines Qualitätsmanagementsystems durch KMU und andere Unternehmen ohne nennenswerte eigene Kontroll- und Prüfinfrastruktur.

Die Risikobewertung kritischer Anwendungen sollte mehrere Kriterien berücksichtigen, die kumulativ geprüft und erfüllt werden müssen. Eine (nachvollziehbare) Abwägung von Risiko und Nutzen im Sinne einer Risiko-Nutzen-Relation gibt es nicht, so dass es schnell zu einer unverhältnismäßigen Risikobewertung kommen kann. 

Wir plädieren auch dafür, eine europaweit harmonisierte Sanktionsinfrastruktur zu schaffen. Es darf keine Unterschiede in der Behandlung gleicher Sachverhalte zwischen den einzelnen Mitgliedstaaten geben. Aus dem Vorschlag geht nicht klar genug hervor, wie ein harmonisiertes Vorgehen bei Prüfungsprozessen im europäischen Rahmen etabliert und sichergestellt werden kann.

  1. Daten

Wir begrüßen das Ziel der Kommission, bessere Datensätze zu schaffen. Die begrenzte Verfügbarkeit hochwertiger Daten, die eine Bevölkerung genau repräsentieren, kann eine der größten Hürden bei der Entwicklung von KI sein. Für die Hersteller von KI-Software stellt sich jedoch die Frage, wie sie das unrealistische Ziel von Artikel 10.3 sicherstellen können. Die häufigste Quelle für Verzerrungen sind nämlich Daten, die die Zielbevölkerung nicht ausreichend repräsentieren. 

Der Vorschlag sollte aber berücksichtigen, dass, sollte beispielsweise eine Diskriminierung von Minderheiten durch die Verwendung unzureichender Datensätze entstehen, es nur der Änderung dieser Datensätze bzw. bestimmter Parameter bedarf, um das Problem zu beheben. Anstatt also KI-Entwickler:innen für die Verwendung älterer Daten zu bestrafen, welche zu solchen Verzerrungen führen können, sollte die Kommission die Entwicklung fairer und gut kuratierter Datensätze in allen Einrichtungen fördern. Sie sollten so aggregiert werden, dass die Vielfalt zwischen und innerhalb demografischer Gruppen erfasst wird. 

Dies sollte auch auf EU-Ebene deutlich stärker gefördert werden, um Innovationen voranzutreiben.

  1. Überregulierung und unnötige Komplexität vermeiden

Die Intention der Regulierung ist es, einen gemeinsamen Rechtsrahmen für KI-Anwendungen sowie gleiche Wettbewerbsbedingungen für inner- wie außereuropäische Unternehmen zu schaffen. Solch ein einheitliches Rechtssystem zu entwerfen, ist eine große Herausforderung. Das Ziel der Regulierung sollte es aber dennoch sein, diese Komplexität so weit zu minimieren, dass sich daraus für Start-ups und kleine Unternehmen keine Nachteile ergeben. Die sprachliche Komplexität des Vorschlages ist jetzt schon so hoch, dass direkt betroffene Unternehmen das Gesetz, geschweige denn seine Auswirkungen, nicht nachvollziehen können. 

Es gilt, Überregulierung und zu hohe bürokratische Anforderungen zu vermeiden, insbesondere für kleinere Start-ups und KMU. Denn diese haben im Gegensatz zu ihren großen US-amerikanischen oder chinesischen Gegenspielern keine überbordenden personellen und finanziellen Ressourcen zur Implementierung der neuen Rahmenbedingen. So können sie schnell ins Hintertreffen gegenüber ihren außereuropäischen Konkurrenten geraten, und die Entwicklung europäischer KI-Innovationen wird behindert und verlangsamt. 

Die KI-Regulierung muss dementsprechend so gestaltet werden, dass auch junge, deutsche und europäische Unternehmen damit zurechtkommen.

  1. Ungeklärte Kompetenzen bezüglich der Umsetzung

Ein weiterer Kritikpunkt betrifft die Umsetzung der Regulierung, nachdem diese verabschiedet wurde. Es ist nicht ersichtlich, bei welcher Behörde die entscheidenden Kompetenzen für die Realisierung der Verordnung liegen werden. 

Werden die Zuständigkeiten beispielsweise auf verschiedene Ministerien und Behörden aufgeteilt oder wird eine separate Institution aufgebaut? 

In beiden Fällen bedarf es einer erhöhten Ressourcen- und Kapazitätenaufwendung. Obwohl Deutschland sicher über diese Kapazitäten verfügt, stellt sich dennoch die Frage, 

wie weniger wohlhabende Mitgliedstaaten, welche nur geringe Mittel zur Verfügung haben, in dieser Hinsicht unterstützt werden. Ansonsten schafft die Regulierung, deren Zweck es ist, gleiche Voraussetzungen zu schaffen, ein ungleiches Wettbewerbsumfeld.

Empfehlungen

Aufgrund der zuvor genannten Punkte empfehlen wir 

  • “Künstliche Intelligenz” adäquater zu definieren, sodass nicht nahezu jede Software als “KI” definiert wird
  • den Begriff der Hochrisiko-Anwendungen realitätsnäher zu fassen, um zu verhindern, dass Anwendungen, welche ein nur geringes Risiko aufweisen, nicht darunterfallen
  • unverhältnismäßige Risikobewertungen zu vermeiden, insbesondere für junge und kleinere Unternehmen
  • KI-Entwickler:innen nicht für das Verwenden älterer Datensätze zu bestrafen, und stattdessen eine ausgeglichene Bevölkerungsrepräsentation in kommenden Datensätzen zu fördern
  • Überregulierung und Komplexitäten zu vermeiden, um Wettbewerbsnachteile kleinerer europäischer Unternehmen gegenüber amerikanischer und chinesischer Großunternehmen auszuschließen
  • die Kompetenzzuweisungen bezüglich der Umsetzung der Regulierung zeitnah festzulegen

Daniel Abbou

Geschäftsführer KI Bundesverband e.V.