Ist die britische Regierung bereit, ihren Ansatz zur KI-Regulierung aufzugeben?
Während Labour eine KI-Lizenzierung fordert, gibt es Anzeichen dafür, dass die Regierung bei ihren Plänen zur Überwachung automatisierter Systeme ins Wanken gerät.
Von Ryan Morrison
Der „leichte“ Ansatz der Regierung bei der KI-Regulierung sei „der Aufgabe nicht gewachsen“, meint Lucy Powell, Schatten-Digitalministerin der Labour-Partei, und sie ist mit dieser Ansicht nicht die Einzige. Die SNP hat außerdem ein dringendes Treffen mit der Regierung zu diesem Thema gefordert, und es gibt Anzeichen dafür, dass Whitehall seinen Kurs ändern könnte. Premierminister Rishi Sunak wird sich morgen mit US-Präsident Joe Biden treffen, um ein koordiniertes Vorgehen zu besprechen Überwachung großer Sprachmodelle und anderer Formen der KI.
Die Meinungen darüber, wie KI reguliert und die damit verbundenen Risiken gemindert werden können, gehen weit auseinander, ohne dabei die positiven Auswirkungen der Technologie auf eine Reihe von Geschäftsbereichen zu verringern.
In ihrem Anfang des Jahres veröffentlichten KI-Weißbuch skizzierte die britische Regierung einen lockeren Ansatz, der der Branche im Wesentlichen die Freiheit lassen würde, sich nach Belieben zu entwickeln. Es wurde vorgeschlagen, dass einzelne Regulierungsbehörden die Fälle mit dem höchsten „Risiko“ in ihrem Sektor überwachen würden, anstatt eine übergreifende KI-Regulierungsbehörde einzurichten, wie dies anderswo auf der Welt vorgeschlagen wurde.
Viele halten dies jedoch für einen sehr riskanten Ansatz. China verlangt von den Entwicklern grundlegender KI-Modelle, sicherzustellen, dass die Ergebnisse „im Einklang mit den chinesischen Werten“ stehen, und Europa hat ähnliche Vorschläge in der Entwicklung.
Das EU-KI-Gesetz, die erste umfassende KI-Gesetzgebung der Welt, verfolgt einen risikobasierten Ansatz und konzentriert sich auf die Funktionalität des KI-Tools und sein Potenzial. Dieser Ansatz wurde vor dem Aufkommen grundlegender KI-Modelle wie GPT-4 entwickelt und daher gibt es nun Forderungen nach der Einführung umfassenderer Maßnahmen, einschließlich Berichtsregeln für Trainingsdaten und Ausgaberisikobewertungen, um sicherzustellen, dass sie „im Einklang mit europäischen Werten“ stehen.
Labour fordert einen ähnlichen Ansatz in Großbritannien. Dazu könnte die Lizenzierung der Entwicklung von KI gehören, nicht nur die Regulierung ihrer Nutzung. Powell sagte, es gebe „einen weltweiten Wettlauf um das Land der Wahl für das Wachstum der KI, bei dem das Vereinigte Königreich mit seinem führenden KI-Sektor und seinem guten Ruf in Sachen Regulierung gute Chancen hat, die Führung zu übernehmen. Die Strategie der Regierung ist das jedoch nicht.“ dieser Aufgabe gewachsen und schon nach zwei Monaten veraltet.“
Sie fügte hinzu, dass KI nicht nur ChatGPT sei, sondern sich schon lange in der Entwicklung befinde und bereits weit verbreitet sei. „Obwohl wir noch nicht alle Auswirkungen erkennen können, ist klar, dass sie erheblich sein werden“, sagte Powell. „Viele davon werden positiv sein und die Produktivität, öffentliche Dienstleistungen und wissenschaftliche Erkenntnisse verbessern, können aber auch ernsthaft schädlich sein, wenn sie nicht ordnungsgemäß reguliert werden.“
Es gibt Anzeichen dafür, dass die Regierung in ihrer sogenannten „Pro-Innovations“-Haltung schwankt. Bei Sunaks Treffen mit Biden in Washington wird er sich wahrscheinlich für einen globalen Ansatz zur KI-Regulierung einsetzen. Ein solcher globaler Ansatz, so wird argumentiert, würde gleiche Wettbewerbsbedingungen gewährleisten und es den Entwicklern ermöglichen, zu wissen, dass das, was sie bauen, überall anwendbar wäre.
Sunak möchte das Vereinigte Königreich im Zentrum dieser weltweiten KI-Regulierungsbewegung positionieren und hofft, die Festlegung von KI-Standards in ein Soft-Power-Instrument zu verwandeln, das auch dabei helfen würde, das Vereinigte Königreich als Standort für Geschäfte und die Entwicklung von Spitzentechnologie zu verkaufen. Das Problem ist, dass dies etwas ist, was auch jedes andere Land der Welt zu erreichen versucht. Japan hat kürzlich angekündigt, alle Urheberrechtsbestimmungen von Inhalten zu streichen, die zum Trainieren von Modellen verwendet werden, um seinen schwächelnden KI-Sektor anzukurbeln.
Die Bildung einer neuen globalen KI-Organisation, ähnlich der Internationalen Atomenergiebehörde, ist möglicherweise die einzige Möglichkeit für Großbritannien, bei internationalen Standards mitzureden. Seit dem Brexit ist es aus wichtigen Foren wie dem Tech and Trade Council ausgeschlossen, wo Länder wie die USA und Kanada begonnen haben, mit der EU über KI-Verhaltenskodizes zu diskutieren.
Welche Form die endgültige Regelung annimmt oder ob sie national oder global festgelegt wird, hängt von einer Reihe von Verhandlungen mit Unternehmen, zwischen Regierungen und mit Organisationen des dritten Sektors ab. Die Art und Weise, wie dies funktionieren soll, wird ebenso heftig diskutiert wie die Gesetzgebung selbst.
Mhairi Aitken vom Alan Turing Institute äußerte sich besorgt darüber, dass sich die Sprache im Zusammenhang mit der Regulierung zugunsten von Big Tech und den bestehenden großen KI-Laboren ändert. Sunak traf sich letzte Woche mit Chefs der KI-Branche, darunter OpenAI-CEO Sam Altman, und Altman bereiste Länder auf der ganzen Welt und traf sich mit politischen Entscheidungsträgern.
Aitken glaubt, dass jede eingeführte Lizenzierung unabhängig von Big Tech sein sollte: „Wir haben im letzten Monat gesehen, wie viel Einfluss Big Tech auf Regulierung und Politik hat“, sagt sie und erklärt, dass sich die Erzählung rund um KI geändert hat, und zwar mit einem Schwerpunkt auf zukünftige Systeme, die nur der Ablenkung dienen.
„Es beunruhigt mich, dass bei diesen Diskussionen über Regulierung nicht die Stimmen der betroffenen Gemeinschaften im Mittelpunkt stehen“, erklärt Aitken. „Stattdessen konzentrieren sie sich auf die Stimmen von Big Tech, deren Interesse und Motivation darin besteht, Innovationen voranzutreiben und Geld zu verdienen, und nicht auf die Risiken. Sie konzentrieren sich eher auf die Hypothese als auf die realen Auswirkungen und Risiken, die wir heute erleben.“
ForHumanity ist eine Organisation zur Lizenzierung und Zertifizierung von KI-Entwicklern. Dies ähnelt dem Modell, das von Labour in Betracht gezogen wird, und die Organisation erstellt bereits Zertifizierungen und Schulungen gemäß dem EU-KI-Gesetz. CEO Ryan Carrier sagte gegenüber Tech Monitor, dass alle Lizenzierungsregelungen flächendeckend gelten und von dritten Nichtregierungsorganisationen durchgeführt werden sollten.
Er sagte, dies sollte auch für kleinere Unternehmen gelten, die „zwei Leute bauen in ihrer Garage eine KI“ auf, da sie auch Werkzeuge entwickeln können, die erheblichen Schaden anrichten können. „Wir ermutigen Regierungen, Innovationszentren zu schaffen, die auf wirksame Weise für eine sinnvolle Governance, Aufsicht und Rechenschaftspflicht für zahlreiche KMU sorgen können. Compliance ist unabhängig von der Größe wichtig“, sagt Carrier.
Für BCS, das Chartered Institute for IT im Vereinigten Königreich, sind Zertifizierung und Lizenzierung eine gute Idee, sollten aber auch durch einen soliden Verhaltenskodex untermauert werden. „Wir haben bereits ein Register von Technologen gefordert, die an KI-Technologien in ‚kritischen Infrastrukturen‘ arbeiten oder die ‚potenziell schädlich für menschliches Leben sein könnten‘“, erklärt Adam Leon Smith, Vorsitzender der BCS F-TAG-Beratungsgruppe.
„Es ist wichtig zu verstehen, dass wir uns nicht nur auf die Schulung von Entwicklern oder die Zertifizierung von Technologie konzentrieren können“, sagt Leon Smith. „Wir müssen tatsächlich sorgfältig kontrollieren, wie wir KI nutzen. Das liegt daran, dass Risikominderungen wie Tests, Einwilligung nach Aufklärung, Überwachung durch den Menschen und Überwachung nur mit einem vollständigen Verständnis des Nutzungskontexts umgesetzt werden können. Das hat keinen Sinn.“ Regulierung von LLMs über Transparenzpflichten hinaus, stattdessen Regulierung von Menschen, die sie in bestimmten Kontexten umsetzen.“
Er fügt hinzu, dass die Leute die Technologie regulieren wollen, aber das sei nicht der richtige Ansatz. „Erstens ändert es sich zu schnell, und zweitens kommt es auf das ganzheitliche System an“, erklärt er. „Wenn man sich sicherheitskritische Bereiche ansieht, wird in der Regel nicht ein einzelnes „Teil“ oder eine „Komponente“ reguliert, sondern das Gesamtsystem.“
Einer der Hauptgründe für die Regulierung einer solchen Technologie ist die Risikominderung. Dies ist etwas, was die Unternehmen unbedingt erreichen wollen, da es den Einsatz der Technologie sicherer machen wird. Es wird auch von der Versicherungswirtschaft unterstützt. Rory Yates, globaler strategischer Leiter beim Versicherungsplattformanbieter EIS, sagt, dass dies ein Register der Personen umfassen sollte, die an KI arbeiten. „Ich glaube, dass ein vernünftiger Ansatz bei der Lizenzierung oder Zertifizierung für stark regulierte Branchen wie Versicherungen äußerst vorteilhaft ist, insbesondere da sie jetzt einen klaren Wandel in der Art und Weise erfordern, wie sie Verantwortung für ihre Kunden übernehmen.“
„Sicherzustellen, dass nur akkreditierte Fachleute diese Technologien entwickeln und nutzen, wird eine Möglichkeit sein, zu kontrollieren, wer Zugang zu dieser Technologie hat und wie sie sie nutzen. Gleichzeitig wird ein positiver Arbeitsmarkt geschaffen, der klar bestimmbare Standards dafür hat, was „gut“ ist. sieht so aus“, fügte er hinzu.
Tech Monitor fragte Labour, wie die Lizenzierung in der Realität funktionieren könnte, und erfuhr, dass eine Reihe von Optionen in Betracht gezogen würden, nicht nur die Lizenzierung. Das Problem bestehe vielmehr darin, dass es Gesetze geben müsse und nicht nur ein lockerer Ansatz der Konservativen, sagte ein Parteisprecher.
So holen Sie das Beste aus beiden Welten in der Hybrid Cloud heraus