Mais les deux responsables de l'ancienne équipe viennent de quitter la société star de la Silicon Valley. Jan Leike a expliqué vendredi sur X, anciennement Twitter, qu'il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l'entreprise : l'innovation ou la sécurité. «Nous avons atteint un point de rupture», a indiqué l'ingénieur qui chapeautait l'équipe chargée du «superalignement», c'est-à-dire de s'assurer qu'une future IA générale, aussi intelligente que les humains, soit alignée sur nos valeurs.
Sam Altman, le cofondateur et patron de l'entreprise basée à San Francisco, s'est dit «très triste de voir (Jan Leike) partir». «Il a raison, nous avons encore beaucoup à faire (pour la recherche sur l'alignement et la sécurité), et nous sommes déterminés à le faire», a-t-il ajouté, promettant un message plus long prochainement.
L'équipe de «superalignement» était aussi dirigée par Ilya Sutskever, cofondateur d'OpenAI, qui a annoncé son départ mardi. Sur X, il s'est dit «convaincu qu'OpenAI construira une intelligence artificielle générale à la fois sûre et bénéfique.» Ex-scientifique en chef de l'entreprise, il siégeait au conseil d'administration qui a voté la révocation de Sam Altman en novembre dernier, avant de faire machine arrière.
Avec ChatGPT, OpenAI a lancé la révolution de l'IA générative (production de contenus sur simple requête en langage courant), qui enthousiasme la Silicon Valley mais inquiète aussi de nombreux observateurs et régulateurs, de la Californie à Washington et Bruxelles. Surtout quand Sam Altman parle de créer une IA générale, c'est-à-dire dotée de capacités cognitives équivalentes à celles des humains. OpenAI a présenté lundi une nouvelle version de ChatGPT qui peut désormais tenir des conversations orales et fluides avec ses utilisateurs, un pas de plus vers des assistants d'IA toujours plus personnels et performants.
Jan Leike a appelé vendredi tous les employés d'OpenAI à «agir avec la gravité» que justifie ce qu'ils sont en train de construire. «Je pense que nous devrions passer beaucoup plus de temps à nous préparer pour les prochaines générations de modèles, sur la sécurité, les contrôles, la sûreté, la cybersécurité, l'alignement avec nos valeurs, la confidentialité des données, l'impact sociétal et d'autres sujets», a-t-il énuméré.