Wie lässt sich künstliche Intelligenz regulieren
Wider die willkürliche und wahllose Überwachung von Menschen
Die EU will künstliche Intelligenz mit einer Verordnung regulieren. Verboten sein sollen laut dem aktuellem Vorschlag künftig etwa KI-Anwendungen, die Menschen zu deren Schaden manipulieren. Für ein gutes Gesetz braucht es aber noch Verbesserungen.
(von Eva Wolfangel)
Ein System des maschinellen Lernens bevorteilt Männer bei der Jobvergabe, ein anderes berechnet aus öffentlich verfügbaren Social-Media-Daten, welche Nutzer möglicherweise depressiv sind, und nutzt das zu ihrem Nachteil aus, ein drittes vergibt Studienplätze nach undurchsichtigen Kriterien: Solche Szenarien, vor denen Forscherinnen und Forscher schon lange warnen, sollen in der Europäischen Union künftig verhindert werden. Die EU-Kommission hat ihren Vorschlag für eine Verordnung zur Regulierung von künstlicher Intelligenz vorgelegt.
Im Folgenden werden die EU-Staaten und das EU-Parlament den Vorschlag besprechen, bevor er schließlich verabschiedet wird. Bis jetzt zeigt sich eine klare Tendenz, künstliche Intelligenz so regulieren zu wollen, dass mögliche Risiken für EU-Bürger minimiert werden. »Neben den vielen nützlichen Anwendungen von künstlicher Intelligenz kann diese Technologie missbraucht werden und neue und mächtige Werkzeuge für manipulative, ausbeuterische und soziale Kontrollpraktiken bereitstellen«, stellen die Autoren des Entwurfs fest. Das gelte es zu verhindern.
So ist unter anderem ein Verbot von KI-Anwendungen vorgesehen, die Menschen, zu deren Schaden manipulieren oder diese anlasslos überwachen. Auch Software zur Gesichtserkennung soll verboten werden – außer, sie wird zur Suche nach Verbrechensopfern oder zur Suche nach Schwerverbrechern oder zur Verhinderung schwerer Verbrechen eingesetzt. Staatliche Stellen sollen zudem kein Social Scoring betreiben dürfen. Derlei KI-Systeme bewerten oder klassifizieren Menschen auf der Grundlage ihres sozialen Verhaltens. »Sie können zu diskriminierenden Ergebnissen und zum Ausschluss bestimmter Gruppen führen«, heißt es in dem Entwurf.
Anbieter von KI-Systemen sollen künftig Risikoanalysen vorlegen
Ein Schwerpunkt des Entwurfs widmet sich vermeintlich »risikoreichen KI-Systemen«. Dazu zählen unter anderem Systeme, die für die Sicherheit kritischer Infrastrukturen sorgen sollen, außerdem Anwendungen wie »predictive policing« zur Vorhersage von Verbrechen und Systeme, die Menschen beurteilen – beispielsweise deren Kreditwürdigkeit, deren Eignung für eine Arbeitsstelle oder einen Studienplatz. Sie sollen laut Vorschlag künftig eine Reihe von Vorgaben erfüllen, unter anderem müssen ihre Anbieter eine Risikoanalyse durchführen und ein System für das Risikomanagement entwerfen.
Außerdem müssen Trainingsdaten künftig repräsentativ und frei von Fehlern sein, und sie müssen auf mögliche Verzerrungen hin analysiert werden: Diese sogenannten Biases in Daten führen immer wieder zu Diskriminierung und Benachteiligung von Gruppen. Das ist bei Systemen des maschinellen Lernens besonders bedeutsam, da ihre Entscheidungen häufig schwer nachvollziehbar sind.
Viele Fachleute loben den Entwurf als weitgehend, doch es gibt Kritik an den Details. Der Anwendungsbereich sei beispielsweise »massiv unklar«, sagte der Medienrechtler Stephan Dreyer vom Hans-Bredow-Institut der Universität Hamburg gegenüber dem Science Media Center (SMC). Der Begriff KI sei so weit
gefasst, »dass fast jede derzeit eingesetzte Software darunterfallen kann«. Es sei offen, inwiefern Betriebssysteme, die KI-basierte Software wie Sprachassistenten beinhalten, unter die Verordnung fielen. Dreyer fürchtet, dies könne zu einer »hohen Rechtsunsicherheit für Unternehmen« führen und damit zu Nachteilen im internationalen Wettbewerb.
(https://www.spektrum.de/news/ki-wie-laesst-sich-kuenstliche-intelligenz-regulieren/1865017)