EU will keine pauschalen Verbote für KI
15. April 2023Die italienische Datenschutzbehörde "Garante" war Ende März mit einem vorläufigen Verbot der Anwendung "ChatGPT" vorgeprescht. Die Software, die mit künstlicher Intelligenz menschenähnliche Texte und neue Computerprogramme erstellen kann, war der italienischen Behörde suspekt. Es geht "Garante" aber nicht um die Verwendung von Künstlicher Intelligenz (KI), also dem Versuch, menschliches Lernen und Denken auf den Computer zu übertragen und ihm damit Intelligenz zu verleihen, sondern hauptsächlich um den Datenschutz. Die Behörde verlangt vom Entwickler der Software, der Firma "OpenAI", hinter der der amerikanische InternetkonzernMicrosoft steht, ihre Kunden darüber zu informieren, was mit ihren Daten in ChatGPT geschieht.
Außerdem müsse sie die Genehmigung der Kunden einholen, wenn Daten dazu verwendet werden sollen, die Software weiter zu entwickeln, sie also lernen zu lassen. Zusätzlich müsse der Zugang für Kinder unter 13 Jahren verhindert werden. Wenn die Auflagen bis Ende April erfüllt würden, so "Garante" in einer Pressemitteilung, dann dürfe "OpenAI" seine Software ChatGPT für Italien wieder freischalten. Ein Sprecher von "OpenAI" in San Francisco sagte volle Kooperation zu. Man freue sich, dass die italienischen Behörden ihre Entscheidung noch einmal überdenken wollten.
KI-Gesetz kommt wahrscheinlich 2025
Inzwischen hatten auch Spanien und Frankreich ähnliche Bedenken gegen ChatGPT geltend gemacht. Eine EU-weit geltende Regelung zum Umgang mit Künstlicher Intelligenz und deren Anwendung in Software und Produkten wie selbstfahrenden Fahrzeugen, in der Medizintechnik oder bei Überwachungstechniken, gibt es noch nicht. Die EU-Kommission hatte vor zwei Jahren einen entsprechenden Gesetzesvorschlag unterbreitet, der im Europäischen Parlament immer noch beraten wird. Danach müssen die EU-Mitgliedsstaaten zustimmen. Bis das KI-Gesetz tatsächlich in Kraft treten kann, dürfte es Anfang 2025 werden. KI-Entwicklungen wie ChatGPT waren vor zwei Jahren noch nicht auf dem Markt und könnten schon längst fortentwickelt sein, wenn die Regulierung in der EU in Kraft tritt, meint der Europaabgeordnete Axel Voss (CDU). "Aber die Entwicklung ist da - in der Tat - so schnell, dass vieles von dem gar nicht mehr passt in der Zeit, wenn das Gesetz dann eigentlich greift", sagte Axel Voss der DW. Er beschäftigt sich für die christdemokratische Fraktion schon seit Jahren mit Künstlicher Intelligenz und schreibt am "Künstliche-Intelligenz-Gesetz" der EU federführend mit.
Risikoklassen für KI
Ob eine Anwendung wie der Textgenerator ChatGPT überhaupt von EU-Regeln erfasst würde, ist fraglich. Der Gesetzesentwurf teilt die KI-Programme in mehrere Kategorien von "nicht akzeptabel" bis "harmlos" ein. Nur die mit hohen und mittleren Risiken behafteten Anwendungen sollen besonderen Regeln zur Dokumentation der Algorithmen, zu Transparenz und zur Offenlegung der Datennutzung unterliegen. Bestimmte Anwendungen, die das Sozialverhalten von Menschen erfassen, um Handlungen vorherzusagen und auszuwerten, die Einteilung und Beurteilung von Menschen in bestimmte Klassen (social scoring) und bestimmte Bereiche der Gesichtserkennung sollen verboten werden. Umstritten ist noch, inwieweit Gefühle von Menschen von KI erfasst oder auch simuliert werden dürfen. Wie genau diese Risikoklassen aussehen sollen, ist zurzeit im EU-Parlament noch in der Diskussion.
"Eigentlich bräuchten wir aus wettbewerblichen Gründen und weil wir ohnehin schon hinterherhinken, mehr Aufbruchsstimmung, um sich intensiver mit KI zu beschäftigen. Was aber hier seitens einer Mehrheit im europäischen Parlament herauskommt, ist, dass man sich von Ängsten und Sorgen leiten lässt und versucht, alles auszuschließen", meint Axel Voss, der KI-Experte der Christdemokraten. Die Datenschutz-Beauftragten der EU-Mitgliedsstaaten fordern eine unabhängige Aufsicht über die KI-Anwendungen und weitere datenschutzrechtliche Anpassungen.
Ist die Anwendung ChatGPT gut oder schlecht?
Die KI-Geschäftsführerin des ChatGPT-Mutterkonzerns Microsoft, Natasha Crampton, hat sich in Interviews dafür ausgesprochen, sich bei der Regulierung auf "hochriskante Anwendungen zu konzentrieren." Dazu gehörten allgemeine Algorithmen, die komplexe Texte und neue Softwares schreiben könnten, aber nicht. Die Denkfabrik "Future of Life Institute", die sich mit KI beschäftigt, widerspricht. Deren Politik-Direktor, Mark Brakel, sagte der DW, gerade allgemeine KI-Anwendungen, die GPT als Grundlage nutzen, müssten reguliert werden. Sie könnten in Hunderttausende von Anwendungen eingebaut werden. Ein Chatbot, der menschliche Kommunikation nachahme, sei nur ein kleiner Ausschnitt der möglichen riskanten Anwendungen. "Was uns als Organisation umtreibt, sind die sehr viel komplexeren Risiken. GPT-Technologie ist in der Lage, Menschen zu zeigen, wie man eine Biologische Waffe in kurzer Zeit bauen kann. Es gibt das große Risiko, das unser Verständnis von Wahrheit ins Wanken bringt, weil KI große Mengen von falschen Informationen erzeugen kann, die aber so aussehen, als kämen sie beispielsweise von der Deutschen Welle", sagte Brakel.
Nur weil eine Technik auch für Schlechtes verwendet werden könne, dürfe man nicht gleich die gesamte Technik verbieten. "Man verkennt die Doppeldeutigkeit von digitalen Entwicklungen", meint Axel Voss im Gespräch mit der DW. "Man muss eben diesen Algorithmus noch weiter trainieren."
Es sei ja so, dass es den Standard beim Auto, den wir heute haben, am Anfang natürlich auch nicht gegeben habe. "Der Missbrauch von Autos, meinetwegen als Waffe, um jemanden umzubringen, ist nämlich auch nie intendiert worden. Aber wir müssen hier eben damit rechnen, dass viele Leute KI auch zu einem negativen Zweck nutzen und wir in einen Bereich geraten, bei dem wir sehr vorsichtig sein müssen", so Voss.
Unternehmen könnten abwandern
Die EU-Kommission und das Parlament versuchen, eine Balance zwischen Verbraucherschutz, Regulierung und freier Entfaltung von Wirtschaft und Forschung zu finden. Denn "Künstliche Intelligenz" biete ja durchaus enorme Chancen als Triebfeder einer digitalisierten Gesellschaft und Wirtschaft, meint der für Industriepolitik zuständige EU-Kommissar Thierry Breton. Die EU wolle Entwickler und Anbieter von KI nicht aus Europa vertreiben, sondern im Gegenteil fördern und zur Niederlassung in der EU bewegen, sagte Breton schon vor zwei Jahren bei der Vorstellung des KI-Gesetzes. "Wir müssen sicherstellen, dass die EU dabei nicht von ausländischen oder einzelnen Providern abhängig ist", forderte Breton. Die industriellen Daten, die für KI nötig seien, sollten in der EU erhoben, gespeichert und verarbeitet werden.
Die EU-Gesetze zur KI müssten Unternehmen in die Pflicht nehmen. Risikoklassen für bestimmte Anwendungen reichten nicht aus, meint Mark Brakel von der Denkfabrik "Future of Life Institute". Die Entwickler müssten jede einzelne Anwendung auf ihre Risiken hin überprüfen. "Dieses Risikomanagement muss verpflichtend sein und die Ergebnisse müssen veröffentlicht werden", schlägt Mark Brakel vor. Manchmal wüssten die Firmen heute bereits nicht, was ihre KI alles hervorbringe und sie seien selbst überrascht von den Ergebnissen. Chatbots hätten einen Mann in Belgien etwa in den Selbstmord getrieben oder Minderjährige zum Sex mit Erwachsenen animiert, so Brakel.
"Wenn wir hier zu kompliziert sind, dann gehen Unternehmen woanders hin, entwickeln dort ihre Algorithmen und Systeme. Dann werden sie zurückkommen und uns hier quasi nur als Verbraucherland nutzen", warnt Europarlamentarier Axel Voss, der sich im Europaparlament mit den künftigen Regeln für KI beschäftigt.
"Ernie" kommt
Bei ChatGPT, das in Europa für aufgeregte Diskussionen sorgt, fällt auf, dass es in den USA für den weltweiten Einsatz entwickelt wurde. Konkurrenz bekommt OpenAI demnächst wohl auch durch amerikanische Firmen wie Google oder Elon Musks Twitter, die an einem Chatbot arbeiten sollen. Die chinesische Staatsführung hat vorgegeben, dass chinesische Unternehmen eine KI-Anwendung mit ähnlichen Funktionen auf den Markt bringen sollen. Der chinesische Bot aus dem Hause Baidu soll auf den Namen "Ernie" hören. Und in Europa? Da ist laut dem Branchenportal "futurezone" zwar Forschung, aber kein eigenes europäisches Produkt, geplant.