Thales appelle à interdire les "robots tueurs" équipés d'intelligence artificielle

  25 Janvier 2019    Lu: 354
Thales appelle à interdire les "robots tueurs" équipés d

Le groupe technologique français, qui refuse de concevoir des armes létales autonomes, réclame une législation internationale claire pour l'application de l'intelligence artificielle au domaine de l'armement.

Face au développement rapide de l'intelligence artificielle (IA), il est urgent que la communauté internationale se dote d'un cadre réglementaire fort pour proscrire la création de « robots tueurs » autonomes, a plaidé jeudi le PDG du groupe technologique français Thales, Patrice Caine. 

« Il faut que les pays mettent en place une législation au niveau international pour que le terrain de jeu soit clair pour tous » en ce qui concerne l'application de l'IA au domaine de  l'armement, a fait valoir à l'AFP M. Caine. 

« C'est vrai qu'il y a des discussions sur ce sujet là aux Nations unies » et que « globalement il y a une volonté, mais ça prend du temps », a-t-il relevé à l'occasion de la présentation à la presse du laboratoire de Thales spécialisé dans l'intelligence artificielle, à Montréal. 

« L'aspect moral et l'aspect sécuritaire »
« C'est le moment d'avancer », a insisté le patron français, estimant que cette question faisait « consensus pour tous les grands pays occidentaux démocratiques. » 

Thales a ouvert il y a un an un laboratoire employant 50 ingénieurs spécialisés en IA au coeur de la métropole québécoise, dans un quartier où affluent grandes entreprises, chercheurs et startups travaillant sur cette haute technologie reposant sur l'exploitation de multiples données par des algorithmes puissants. 

Aux côtés de M. Caine, Yoshua Bengio, pionnier canadien de l'IA, a appuyé cet appel pour un cadre règlementaire clair. 

« Il y a deux aspects à considérer à propos des armes létales autonomes, qu'on surnomme les « robots tueurs » et qui n'ont rien d'un film mais constituent au contraire un enjeu actuel pour les armées : il y a l'aspect moral et l'aspect sécuritaire », a fait valoir le chercheur, fondateur de l'institut de recherche Mila (Montreal Institute for Learning Algorithms). 

Pas d'IA « dans tout ce qui est létal »
D'un côté, « les machines ne comprennent pas et ne comprendront pas dans un futur proche, le contexte moral », a dit M. Bengio. 

Et de l'autre, « si ces armes deviennent faciles à acheter car beaucoup d'entreprises en fabriquent, pensez aux drones construits avec des armes et de la détection faciale : vous aurez alors des assassinats ciblés visant des groupes de population en particulier », a-t-il mis en garde. 

Pour toutes ces raisons, Thales a tranché et « n'appliquera pas l'IA dans tout ce qui est létal (même) si les clients le demandent », a affirmé son PDG, refusant de « donner de l'autonomie à un système d'armes pour que de lui-même il puisse décider de tuer ou pas ». 

Reconnaissance faciale
Au niveau de la reconnaissance faciale par intelligence artificielle, ce domaine est couvert par Thales mais Gemalto « en fait encore plus », selon M. Caine. Thales devrait d'ailleurs avoir bouclé le rachat de ce groupe franco-néerlandais --pour 4,8 milliards d'euros-- au premier trimestre 2019, a indiqué son PDG, notant qu'il ne manquait plus que trois autorisations, en Russie et aux États-Unis. 

La reconnaissance faciale consiste à utiliser l'IA pour identifier automatiquement des gens. « On utilise ces technologies pour des applications de sécurité : pour un port, un aéroport, et autres infrastructures critiques », mais « jamais » Thales ne les a utilisées « à l'échelle d'un pays », a assuré M. Caine. 

Des enquêtes, non confirmées officiellement, ont affirmé par le passé que certains pays, dont la Chine, utilisent ces technologies pour surveiller en permanence leur population. 

« Je pense que dans les pays qui le font - si tant est que c'est vrai car les pays qui le font ne communiquent pas là-dessus - l'ingénierie système est faite par les pays eux-mêmes », a remarqué le patron de Thales. 

Un tel usage de l'IA constitue « un danger » pour les sociétés, a jugé M. Caine, pointant « les problèmes éthiques et moraux d'un système qui noterait les gens sur leurs comportements plus ou moins civiques ». 


Tags: Thales