Der öffentliche Sektor des Vereinigten Königreichs nutzt KI bereits häufiger, als Sie denken
Professor für Wirtschaftsrecht und Co-Direktor des Centre for Global Law and Innovation, University of Bristol
Albert Sanchez-Graells erhielt Fördermittel von der British Academy. Er ist einer der Mid-Career Fellows 2022 der Akademie (MCFSS22\220033, £127.125,58). Seine Forschungen und Ansichten sind jedoch nicht der British Academy zuzurechnen.
Die University of Bristol stellt als Gründungspartner von The Conversation UK finanzielle Mittel bereit.
Alle Partner anzeigen
Der rasante Aufstieg von Produkten der künstlichen Intelligenz (KI) wie dem Textgenerierungstool ChatGPT bereitet Politikern, Technologieführern, Künstlern und Forschern Sorgen. Unterdessen argumentieren Befürworter, dass KI das Leben in Bereichen wie Gesundheitswesen, Bildung und nachhaltige Energie verbessern könnte.
Die britische Regierung ist bestrebt, KI in ihre alltäglichen Abläufe zu integrieren und legt dafür im Jahr 2021 eine nationale Strategie vor. Das Ziel besteht der Strategie zufolge darin, „von vorn zu führen und ein Vorbild zu sein“. sicheren und ethischen Einsatz von KI“.
KI ist nicht ohne Risiken, insbesondere wenn es um individuelle Rechte und Diskriminierung geht. Dies sind Risiken, die der Regierung bewusst sind, aber ein aktuelles politisches Weißbuch zeigt, dass die Regierung nicht bereit ist, die KI-Regulierung zu verstärken. Es ist schwer vorstellbar, wie ohne dies ein „sicherer und ethischer Einsatz“ erreicht werden kann.
Erkenntnisse aus anderen Ländern zeigen die Nachteile des Einsatzes von KI im öffentlichen Sektor. Viele Menschen in den Niederlanden leiden immer noch unter einem Skandal um den Einsatz von maschinellem Lernen zur Aufdeckung von Sozialbetrug. Es wurde festgestellt, dass Algorithmen Tausende Eltern fälschlicherweise des Kindergeldbetrugs beschuldigt haben. Berichten zufolge nutzen Städte im ganzen Land diese Technologie immer noch, um einkommensschwache Stadtteile für Betrugsermittlungen ins Visier zu nehmen, mit verheerenden Folgen für das Wohlergehen der Menschen.
Eine Untersuchung in Spanien ergab Mängel in der Software, mit der festgestellt werden kann, ob Menschen Krankengeldbetrug begangen haben. Und in Italien schloss ein fehlerhafter Algorithmus dringend benötigte qualifizierte Lehrer von offenen Stellen aus. Ihre Lebensläufe wurden vollständig abgelehnt, nachdem sie nur für eine Stelle in Betracht gezogen worden waren, anstatt sie einer anderen passenden Stelle zuzuordnen.
Die Abhängigkeit des öffentlichen Sektors von KI könnte auch zu Cybersicherheitsrisiken oder Schwachstellen in kritischen Infrastrukturen führen, die den NHS und andere wichtige öffentliche Dienste unterstützen.
Angesichts dieser Risiken ist es von entscheidender Bedeutung, dass die Bürger darauf vertrauen können, dass die Regierung in Bezug auf den Einsatz von KI transparent ist. Allerdings ist die Regierung im Allgemeinen sehr langsam oder nicht bereit, Details dazu preiszugeben – was der parlamentarische Ausschuss für Standards im öffentlichen Leben heftig kritisiert hat.
Das Zentrum für Datenethik und Innovation der Regierung empfahl, alle Einsätze von KI bei wichtigen Entscheidungen, die Menschen betreffen, öffentlich zu machen. Anschließend entwickelte die Regierung einen der weltweit ersten Standards für algorithmische Transparenz, um Organisationen zu ermutigen, der Öffentlichkeit Informationen über ihre Nutzung von KI-Tools und deren Funktionsweise offenzulegen. Dazu gehört auch die Aufzeichnung der Informationen in einem zentralen Repository.
Allerdings machte die Regierung den Einsatz freiwillig. Bisher haben nur sechs Organisationen des öffentlichen Sektors Einzelheiten zu ihrem KI-Einsatz offengelegt.
Die juristische Wohltätigkeitsorganisation Public Law Project hat kürzlich eine Datenbank gestartet, die zeigt, dass der Einsatz von KI im öffentlichen Sektor des Vereinigten Königreichs viel weiter verbreitet ist, als offizielle Offenlegungen zeigen. Durch Informationsfreiheitsanfragen hat das Tracking Automated Government (TAG)-Register bisher 42 Instanzen des öffentlichen Sektors mithilfe von KI verfolgt.
Viele der Tools beziehen sich auf die Aufdeckung von Betrug und die Entscheidungsfindung im Einwanderungsbereich, einschließlich der Aufdeckung von Scheinehen oder Betrug zu Lasten der öffentlichen Hand. Fast die Hälfte der Kommunalverwaltungen im Vereinigten Königreich nutzt KI auch, um den Zugang zu Wohngeld zu priorisieren.
Gefängnisbeamte nutzen Algorithmen, um frisch verurteilte Gefangene in Risikokategorien einzuteilen. Mehrere Polizeikräfte nutzen KI, um ähnliche Risikobewertungen zuzuweisen, oder testen KI-basierte Gesichtserkennung.
Die Tatsache, dass das TAG-Register den Einsatz von KI im öffentlichen Sektor öffentlich gemacht hat, bedeutet nicht unbedingt, dass die Tools schädlich sind. In den meisten Fällen fügt die Datenbank jedoch diesen Hinweis hinzu: „Die öffentliche Stelle hat nicht genügend Informationen offengelegt, um ein angemessenes Verständnis der spezifischen Risiken dieses Tools zu ermöglichen.“ Menschen, die von diesen Entscheidungen betroffen sind, können sie kaum anfechten, wenn nicht klar ist, dass KI eingesetzt wird und wie.
Nach dem Datenschutzgesetz 2018 haben Menschen das Recht auf eine Erklärung über die automatisierte Entscheidungsfindung, die rechtliche oder ähnlich erhebliche Auswirkungen auf sie hat. Die Regierung schlägt jedoch vor, auch diese Rechte einzuschränken. Und selbst in ihrer jetzigen Form reichen sie nicht aus, um die umfassenderen sozialen Auswirkungen diskriminierender algorithmischer Entscheidungsfindung zu bewältigen.
Die Regierung erläuterte ihren „Pro-Innovation“-Ansatz zur KI-Regulierung in einem im März 2023 veröffentlichten Weißbuch, das fünf Grundsätze der KI-Regulierung festlegt, darunter Sicherheit, Transparenz und Fairness.
Das Papier bestätigte, dass die Regierung nicht die Schaffung einer neuen KI-Regulierungsbehörde plant und dass es in absehbarer Zeit keine neue KI-Gesetzgebung geben wird, sondern die bestehenden Regulierungsbehörden damit beauftragt, detailliertere Leitlinien zu entwickeln.
Und obwohl es bisher nur von sechs Organisationen genutzt wird, beabsichtigt die Regierung nicht, die Verwendung des von ihr entwickelten Transparenzstandards und des zentralen Repositorys vorzuschreiben. Es ist auch nicht geplant, öffentliche Stellen dazu zu verpflichten, eine Lizenz für den Einsatz von KI zu beantragen.
Ohne Transparenz oder Regulierung wird es schwierig sein, unsichere und unethische KI-Anwendungen zu erkennen und sie werden wahrscheinlich erst dann ans Licht kommen, wenn sie bereits Schaden angerichtet haben. Und ohne zusätzliche Rechte für die Menschen wird es auch schwierig sein, sich gegen den Einsatz von KI im öffentlichen Sektor zu wehren oder Schadensersatz zu fordern.
Lesen Sie mehr: Großbritannien riskiert, das High-Tech-Wachstum zu verlieren, wenn es bei der KI-Regulierung ins Stocken gerät
Vereinfacht gesagt umfasst der innovationsfreundliche Ansatz der Regierung in Bezug auf KI keine Instrumente, um sicherzustellen, dass sie ihrer Mission gerecht wird, „von vorn zu gehen und ein Beispiel für den sicheren und ethischen Einsatz von KI zu geben“, obwohl der Premierminister behauptet hat, dass dies der Fall sei Großbritannien wird „Leitplanken“ setzen, um die Gefahren der KI zu begrenzen.
Es steht zu viel auf dem Spiel, als dass die Bürger darauf hoffen könnten, dass der öffentliche Sektor sich selbst reguliert oder den Technologieunternehmen Sicherheits- und Transparenzanforderungen auferlegt.
Meiner Ansicht nach würde eine Regierung, die sich für eine ordnungsgemäße KI-Governance einsetzt, eine eigene und gut ausgestattete Behörde schaffen, die den KI-Einsatz im öffentlichen Sektor überwacht. Die Gesellschaft kann der Regierung kaum einen Blankoscheck ausstellen, damit sie KI nach eigenem Ermessen einsetzt. Allerdings scheint die Regierung damit zu rechnen.
Der öffentliche Sektor des Vereinigten Königreichs nutzt KI bereits häufiger, als Sie denken – ohne Aufsicht ist es unmöglich, die Risiken zu verstehen. Lesen Sie mehr: Großbritannien riskiert, das High-Tech-Wachstum zu verlieren, wenn es bei der KI-Regulierung ins Stocken gerät