Les mots ont un impact, plus qu’il ne nous semble parfois. La tâche d’un éclaireur d’innovations est très différente de celle d’un portier d’innovations. Le premier recherche les innovations de manière ciblée, le second essaie de ne pas laisser entrer la plupart des innovations et de trouver toutes les raisons pour lesquelles elles ne sont pas des innovations. Les concepts déterminent en effet la manière dont nous considérons une chose, si nous voyons des chances ou des risques, des possibilités ou des restrictions, ou si nous invitons à une discussion ou si nous l’étouffons. J’ai déjà écrit à plusieurs reprises sur ces effets, notamment ici et là.
Dans sa dernière newsletter, l’expert en intelligence artificielle Andrew Ng souligne également l’importance du choix des mots lorsqu’il s’agit d’intelligence artificielle. L’occasion pour lui était le Sommet d’action sur l’intelligence artificielle qui s’est tenu cette semaine à Paris. On y a très souvent parlé de sécurité de l’IA, mais jamais d’opportunités liées à l’IA. Au lieu de parler constamment de sécurité de l’IA, Ng propose plutôt de parler d’une IA responsable. Voici le texte de son argument :
Bien qu’il soit important d’utiliser l’IA de manière responsable et d’empêcher les applications nuisibles, je pense que la « sécurité de l’IA » n’est pas la terminologie appropriée pour aborder ce problème important. Le langage façonne la pensée, il est donc important d’utiliser les bons mots. Je préférerais parler d' »IA responsable » plutôt que de « sécurité de l’IA ». Permettez-moi de m’expliquer.
Premièrement, il existe des applications clairement nuisibles de l’IA, telles que le porno deepfake (où des images sexuellement explicites de personnes réelles sont créées sans leur consentement), l’utilisation de l’IA pour la désinformation, les diagnostics médicaux potentiellement dangereux, les applications addictives, etc. Nous voulons absolument mettre un terme à ces pratiques ! Il existe de nombreuses façons d’utiliser l’IA de manière nuisible ou irresponsable, et nous devrions décourager et empêcher de telles applications.
Cependant, le concept de « sécurité de l’IA » tente de rendre l’IA – en tant que technologie – sûre, plutôt que de créer des applications sûres. Pensez au concept similaire et manifestement erroné de « sécurité des ordinateurs portables ». Il y a d’excellentes façons d’utiliser un ordinateur portable et beaucoup d’autres irresponsables, mais je ne pense pas que les ordinateurs portables soient intrinsèquement sûrs ou non. La sécurité d’un ordinateur portable dépend de l’application ou de l’utilisation qui en est faite. Il en va de même pour l’intelligence artificielle, une technologie universelle aux multiples applications, qui n’est ni sûre ni non sûre. Le fait qu’elle soit nuisible ou utile dépend de la manière dont quelqu’un l’utilise.
Or, la sécurité ne dépend pas toujours uniquement de la manière dont quelque chose est utilisé. Un avion peu sûr est un avion qui, même entre les mains d’un pilote attentif et formé, présente un risque d’accident élevé. Nous devons donc absolument nous efforcer de construire des avions sûrs ! Les facteurs de risque sont liés à la conception de l’avion et pas seulement à son utilisation. De la même manière, nous voulons des voitures, des mixeurs, des appareils de dialyse, des aliments, des bâtiments et bien d’autres choses encore qui soient sûrs.
« La sécurité de l’IA » présuppose que l’IA, la technologie sous-jacente, peut ne pas être sûre. Je pense qu’il est plus judicieux de réfléchir à la manière dont les applications de l’IA peuvent être non sécurisées.
En outre, l’expression « IA responsable » souligne qu’il est de notre responsabilité d’éviter de développer des applications qui ne sont pas sûres ou qui sont nuisibles, et d’empêcher les gens d’utiliser des produits même utiles de manière nuisible.
En changeant la terminologie des risques liés à l’IA de « sécurité de l’IA » à « IA responsable », nous pouvons avoir des conversations plus réfléchies sur ce que nous devons faire et ne pas faire.