Künstliche Intelligenz: Industrie verwässert Ethik-Leitlinien
Künstliche Intelligenz aus Europa soll vertrauenswürdig sein – so will es die EU, die Anfang April ihre Ethik-Leitlinien für künstliche Intelligenz (KI) vorstellte. Doch diese Leitlinien sind scheinbar auf Druck einiger Mitglieder der zuständigen Expertengruppe verwässert worden. Dies berichtet der Philosoph Thomas Metzinger von der Universität Mainz auf Anfrage.
Wichtiges in Kürze
- Die EU-Ethik-Leitlinien für KI sollten eigentlich auch vorgeben, was mit KI in Europa nicht gemacht werden darf.
- Diese Vorgaben sollten als nicht verhandelbar, als sogenannte rote Linien gelten.
- Doch auf Druck von Industrievertretern innerhalb des Expertengremiums wurden jegliche Verweise auf rote Linien gestrichen.
Metzinger war Teil des 52-köpfigen Expertengremiums, welches die Leitlinien erarbeitete, und hatte den Auftrag, zusammen mit einem Kollegen nicht verhandelbare ethische Prinzipien, sogenannte rote Linien festzulegen. Gemeint waren Dinge, die in Europa mit KI nicht gemacht werden sollen. Dazu gehörte unter anderem das Erforschen tödlicher autonomer Waffensysteme – wie sie die USA bereits betreiben – oder die automatisierte Identifikation von Personen mittels Gesichtserkennung.
Alles ist nun verhandelbar
«Wir haben solche roten Linien in einen Entwurf der Leitlinien aufgenommen», sagt Metzinger. «Daraufhin haben Gruppenmitglieder, viele von ihnen aus der Industrie, darauf bestanden, dass wir jegliche Verweise auf rote Linien im Dokument wieder streichen.»
Einige von Metzingers nicht verhandelbaren Prinzipien finden im Dokument zwar als «critical concerns» Erwähnung. Doch er sagt: «Nun gibt es in dem Dokument nichts mehr, was nicht verhandelbar wäre.»
Dass die Ethik-Leitlinien insbesondere bei der Entwicklung von KI-Waffensystemen keine konkrete rote Linie ziehen, sei erstaunlich und problematisch, sagt die Ethikerin Eva Weber-Guskar, die derzeit im Rahmen der «Digital Society Initiative» an der Universität Zürich zu KI-Ethik forscht. «Aus der Geschichte der Atomwaffen sollte man gelernt haben, dass es wichtig ist, solchen Entwicklungen so früh wie möglich Schranken zu setzen.»
Industrie dominierte
Grund für die Abschwächung seiner Forderungen war nach Metzingers Meinung die unausgewogene Zusammensetzung der Expertengruppe. «Sie war von Leuten aus der Industrie dominiert», sagt der Philosoph. Nur vier der 52 Mitglieder seien Philosophen mit einer Ethik-Expertise gewesen. Gemäss Recherchen von Netzpolitik.org kamen 26 Vertreter aus der Industrie.
Trotz aller Kritik seien die Leitlinien dennoch «die beste Plattform, die wir je hatten», sagt Metzinger. Sie seien in den europäischen Grundwerten verankert und hätten eine solide rechtliche Grundlage. «China und die USA haben nichts dergleichen.» Das sieht auch Ethikerin Weber-Guskar so.
Dennoch findet sie den Begriff der «vertrauenswürdigen KI» problematisch. «Vom jetzigen Standpunkt spricht vieles dafür, dass man nur Menschen im engen Sinn vertrauen kann.» Bei Maschinen solle man eher von Verlässlichkeit sprechen, so Weber-Guskar. «Vertrauenswürdigkeit kann und sollte man aber sicher von den Entwicklern künstlicher Intelligenz fordern.» Das werde allerdings nicht reichen. «Wir brauchen auch gesetzliche Regulation für den Einsatz von künstlicher Intelligenz.»
Themenbezogene Interessenbindung der Autorin/des Autors
Keine. Den Beitrag haben wir von higgs.ch, dem unabhängigen Magazin für Wissen in der Schweiz, übernommen.
Die welche zur Aussetzung der roten Linien in der KI verantwortlich waren sollten mit Namen veröffentlicht werden sonst macht der Artikel zu wenig Sinn.
Pingback: Wer vom Afghanistan-Krieg profitierte – bruchstücke,