En 2017, un «petit garçon» virtuel de l’IA fut promu résident officiel d’un quartier central de Tokyo, et un robot humanoïde appelé Sophia obtint la citoyenneté saoudienne.

A la même époque, le Parlement européen adopta une résolution qui recommandait à la Commission d’éventuellement établir un statut de «personne électronique», au moins pour les robots les plus autonomes.

De nos jours, ChatGPT et la nouvelle version évoluée de Bing vont relancer le débat sur la création d’un nouveau type de personnalité juridique propre à l’intelligence artificielle permettant de lui accorder des droits et de lui imposer des obligations.

Le processus est bien connu par la loi : une création humaine virtuelle considérée comme présentant un haut niveau d’utilité sociale donne naissance à un nouveau type de «personnes juridiques», permettant aux législateurs de remodeler les contours spécifiques des droits et obligations attachés aux détenteurs artificiels nouvellement reconnus.

Les «personnes morales» (c’est-à-dire les personnes non humaines, telles que les sociétés et les entités gouvernementales) ont été créées de cette façon en tant que produits de l’évolution, pour permettre aux «personnes physiques» (c’est-à-dire aux personnes humaines) de diversifier leurs activités et d’améliorer leurs vies.

En raison de leur autonomie accrue inconnue des personnes morales, les personnes électroniques inciteront très probablement les législateurs à réduire encore davantage les droits, tout en imposant des obligations.
 
 
Les arguments philosophiques et techniques en faveur de cette position sont nombreux :

– comme l’IA n’a pas d’âme, pas de cœur et pas de cerveau vivant, par définition, elle n’est pas bien adaptée pour devenir titulaire de droits liés aux perceptions et aux émotions (tels que le droit de réclamer des dommages-intérêts pour préjudice moral) ;

– l’IA étant considérée comme potentiellement dangereuse, on estime qu’elle devrait se limiter à assister les humains au lieu de les remplacer totalement, ce qui conduit à aspirer à toujours avoir au moins un être humain investi d’un pouvoir de contrôle ; à titre de conséquence directe, l’IA apparaît comme une variété de personne juridique devant nécessairement être subordonnée aux humains et par conséquent devant être privée de certains de leurs droits ;

– en raison de ses immenses capacités et de son potentiel extraordinaire, doublé d’une présence publique hypertrophiée, l’IA pourrait causer de graves préjudices aux humains, dans des proportions énormes (imaginez un agent conversationnel divulguant au monde entier de fausses informations qui inciteraient les êtres humains à agir de manière préjudiciable) ; ces considérations conduisent les législateurs à aspirer à trouver un moyen de prévoir des sanctions efficaces.

Et lorsque les obligations auront été imposées et les responsabilités auront été énoncées, que se passera-t-il ? Qui versera des indemnités à ceux qui ont été lésés par l’IA ?

Les législateurs devront notamment décider si l’IA doit être érigée au rang de propriétaire de biens capable de payer de par soi-même (à l’image d’une entreprise détenant du capital) ou si la population doit se répartir les risques en créant des fonds d’indemnisation publics, éventuellement doublés par des assurances obligatoires.

Plus d’information sur : LILIANA BAKAYOKO AVOCAT

Article précédentFrey : Transformation des entrées de villes commerciales, un nouvel horizon
Article suivantATYPIC ONLY : Événementiel, agencement et stand