Une étude suggère que les robots sont capables d’avoir des préjugés

  15 Septembre 2018    Lu: 1167
Une étude suggère que les robots sont capables d’avoir des préjugés

Réalisé par le MIT (Massachusetts Institute of Technology) et l’Université de Cardiff, un rapport indique que les robots basés sur l’intelligence artificielle seraient capables de développer des préjugés.

Comme l’indique la récente étude, l’intelligence artificielle exploitée pour le développement de certains robots serait en mesure de créer et d’avoir des préjugés. Pour élaborer leur théorie, les chercheurs ont conçu un jeu de rôle dans lequel un robot doit faire un don à un robot de son propre groupe ou d’un autre groupe. Le robot devait faire un don en fonction de la réputation des autres robots et des stratégies de don.

De fait, l’institut et l’université ont constaté que les robots étaient de plus en plus influencés par les préjugés qui concernaient les groupes auxquels ils n’appartenaient pas au fur et à mesure de la simulation. Ainsi, les chercheurs expliquent : « des groupes de machines autonomes pourraient faire preuve de préjugés simplement en identifiant, copiant et apprenant ce comportement les uns des autres ». Le professeur Whitaker précise : « Nos simulations montrent que les préjugés sont une force puissante de la nature et qu’à travers l’évolution, ils peuvent facilement être encouragés dans les populations virtuelles, au détriment d’une connectivité plus large avec les autres ».

TechCrunch précise que les préjugés diminuaient lorsqu’il y avait « des sous-populations plus distinctes au sein d’une population [dans ce cas, d’un groupe] », ce qui a créé des alliances pouvant « coopérer sans être exploitées », explique Roger Whitaker, professeur à l’Université de Cardiff.

Si le sentiment de préjugé nous semble normal, c’est justement parce qu’il est humain dans sa définition même, ce qui rend l’existence de préjugés robotiques encore plus incroyable.

La question du préjugé n’est pas sans rappeler Tay, un chatbot qui Microsoft avait lancé sur Twitter afin que celui-ci puisse converser avec les utilisateurs. Compte tenu du fait que celui-ci ne nourrissait des paroles des internautes pour se construire et évoluer, il est devenu insultant, misogyne et raciste en à peine quelques heures.

Source: siecledigital / Louise Millon


Tags: étude   robots  


Fil d'info