L’intelligence artificielle implique de nouvelles règles pour la robotique

  18 Mai 2019    Lu: 1027
L’intelligence artificielle implique de nouvelles règles pour la robotique

Près de 80 ans après la création des lois sur la robotique par l'écrivain Isaac Asimov, la robotique moderne implique que de nouvelles règles soient édictées, estime le juriste américain Frank Pasquale, expert en intelligence artificielle.

Le monde a changé depuis que l'auteur de science-fiction Isaac Asimov a formulé, en 1942, ses trois règles pour les robots dont la première recommande qu'un robot ne puisse porter atteinte à un être humain. Ordinateurs et intelligence artificielle (IA) font aujourd'hui partie de notre quotidien et une mise à jour s'avère nécessaire, a expliqué Frank Pasquale.

Selon lui, quatre nouvelles règles "d'inspiration juridique" pourraient utilement être appliquées aux robots et à l'IA, la première étant que les robots "doivent compléter et non remplacer les professionnels". "Plutôt que d'avoir un médecin-robot, il faut espérer être soigné par un médecin qui comprend comment fonctionne l'IA, qui en tire de bons conseils, et qui en fin de compte décide ce qu'il doit faire ou ne pas faire", explique M. Pasquale.

Arrêter la course aux armements

La seconde règle qu'il préconise serait d'arrêter la course aux armements robotiques, qu'ils soient destinés à un usage militaire ou policier. "C'est déprimant et c'est aussi de l'argent jeté par les fenêtres. Vous construisez un robot qui peut dire si mon robot prévoit que votre robot va l'attaquer et ainsi de suite, c'est sans fin...", explique Frank Pasquale.

Oublier les humanoïdes

La troisième règle, la plus controversée selon M. Pasquale, consiste à ne pas créer des robots ou des intelligences artificielles humanoïdes tels que l'assistant Duplex, proposé par Google, une application qui passe des appels téléphoniques à votre place pour réserver une table au restaurant.

"Il y a eu une réaction immédiate de la part du public qui pensait que Google essayait de faire passer ses machines pour des humains, ce qui équivaut à une contrefaçon, et je pense que nous devrions éviter de contrefaire l'humanité", assure M. Pasquale qui enseigne le droit à l'Université américaine du Maryland (est).
Les robots ne peuvent avoir une apparence humaine que si cette caractéristique "est nécessaire à la tâche qu'il doivent accomplir, comme c'est le cas des robots utilisés pour des soins ou les robots sexuels".

"Relié à un humain”

Quatrième et dernière loi: tout robot ou intelligence artificielle doit être lié ou appartenir à une personne ou à un groupe de personnes "parce que nous savons comment punir les humains mais pas les machines", explique l'expert. 

Eviter une technologie à deux vitesses

Ce qu'il faut éviter, selon lui, c'est une technologie à deux vitesses, comme celle proposée par Boeing pour ses avions de ligne 737-MAX, cloués au sol après la mort de centaines de personnes dans deux accidents attribués à un capteur défaillant.

"Chez Boeing, ils ont décidé qu'ils proposeraient aux compagnies aériennes d'acheter un deuxième capteur, pour un coût supplémentaire de l'ordre de 80.000 dollars par avion, ce qui va à coup sûr engendrer des problèmes en cascade", estime M. Pasquale.

Il estime que la loi robotique devrait être appliquée dans ce cas de figure pour interdire ce qui pourrait être perçu comme "une bonne affaire" pour l'avionneur. "Il faudrait instituer une norme unique pour toutes les compagnies, qui éviterait de devoir vérifier si Ryanair, American Airlines ou Lufthansa se sont bien dotées du capteur supplémentaire, ce qui est insensé".

AFP


Tags:


Fil d'info