Lasst uns von „verantwortungsvoller KI“ statt von „KI-Sicherheit“ sprechen

Worte haben Wirkung, mehr als es uns manchmal scheinen mag. Die Aufgabe eines Innvations-Scouts ist eine ganz andere als die eines Innovations-Türsteher. Ersterer sucht gezielt nach Innovationen, zweiterer versucht die meisten Innovationen gar nicht erst rein zu lassen und alle Gründe zu finden, warum sie keine Innovationen sind. Begriffe bestimmen nämlich die Art und Weise, wie wir eine Sache betrachten, ob wir Chancen oder Risiken, Möglichkeiten oder Beschränkungen sehen, oder zu einer Diskussion einladen oder sie abwürgen. Über diese Auswirkungen habe ich bereits mehrmals geschrieben, unter anderem hier und hier.

KI-Experte Andrew Ng weist in seinem jüngsten Newsletter ebenso auf die Bedeutung der Wortwahl hin, wenn es um KI geht. Anlass für ihn war der dieswöchige Artificial Intelligence Action Summit in Paris. Dort wurde sehr oft von KI-Sicherheit gesprochen, nie aber von KI-Gelegenheiten. Statt ständig den Begriff KI-Sicherheit im Munde zu führen schlägt Ng vor stattdessen von verantwortungsvoller KI zu sprechen. Hier sein Argument im Wortlaut:

Auch wenn es wichtig ist, KI verantwortungsvoll zu nutzen und schädliche Anwendungen zu unterbinden, bin ich der Meinung, dass „KI-Sicherheit“ nicht die richtige Terminologie ist, um dieses wichtige Problem zu behandeln. Sprache prägt das Denken, daher ist es wichtig, die richtigen Worte zu verwenden. Ich würde lieber von „verantwortungsvoller KI“ als von „KI-Sicherheit“ sprechen. Lassen Sie mich das erklären.

Erstens gibt es eindeutig schädliche Anwendungen von KI, wie z. B. Deepfake-Porno (bei dem sexuell eindeutige Bilder von echten Menschen ohne deren Zustimmung erstellt werden), die Verwendung von KI für Fehlinformationen, potenziell unsichere medizinische Diagnosen, süchtig machende Anwendungen und so weiter. Diesen wollen wir unbedingt einen Riegel vorschieben! Es gibt viele Möglichkeiten, KI auf schädliche oder unverantwortliche Weise einzusetzen, und wir sollten von solchen Anwendungen abraten und sie verhindern.

Mit dem Konzept der „KI-Sicherheit“ wird jedoch versucht, KI – als Technologie – sicher zu machen, anstatt sichere Anwendungen zu schaffen. Denken Sie an das ähnliche, offensichtlich fehlerhafte Konzept der „Laptopsicherheit“. Es gibt großartige Möglichkeiten, einen Laptop zu benutzen, und viele unverantwortliche, aber ich halte Laptops nicht per se für sicher oder unsicher. Ob ein Laptop sicher ist, hängt von der Anwendung bzw. der Nutzung ab. Ähnlich verhält es sich mit der künstlichen Intelligenz, einer universell einsetzbaren Technologie mit zahlreichen Anwendungen, die weder sicher noch unsicher ist. Ob sie schädlich oder nützlich ist, hängt davon ab, wie jemand sie einsetzt.

Nun hängt die Sicherheit nicht immer nur davon ab, wie etwas verwendet wird. Ein unsicheres Flugzeug ist ein Flugzeug, das selbst in den Händen eines aufmerksamen und geschulten Piloten ein hohes Unfallrisiko aufweist. Wir sollten also unbedingt danach streben, sichere Flugzeuge zu bauen! Die Risikofaktoren sind mit der Konstruktion des Flugzeugs verbunden und nicht nur mit seiner Anwendung. In ähnlicher Weise wollen wir sichere Autos, Mixer, Dialysegeräte, Lebensmittel, Gebäude und vieles mehr.

„KI-Sicherheit“ setzt voraus, dass KI, die zugrunde liegende Technologie, unsicher sein kann. Ich halte es für sinnvoller, darüber nachzudenken, wie Anwendungen von KI unsicher sein können.

Außerdem betont der Begriff „verantwortungsvolle KI“, dass es in unserer Verantwortung liegt, die Entwicklung von Anwendungen zu vermeiden, die unsicher oder schädlich sind, und die Menschen davon abzuhalten, selbst nützliche Produkte auf schädliche Weise zu nutzen.

Wenn wir die Terminologie für KI-Risiken von „KI-Sicherheit“ auf „verantwortungsvolle KI“ umstellen, können wir nachdenklichere Gespräche darüber führen, was wir tun und was wir nicht tun sollten.

Kommentar verfassen