Les phénomènes criminels liés à l'utilisation de l'intelligence artificielle soulèvent des interrogations majeures. Après une fusillade sur le campus de l'université d'État de Floride le mois dernier, le procureur James Uthmeier a avancé l'hypothèse que les créateurs d'une IA, comme ChatGPT, pourraient être tenus responsables des méfaits commis par ses utilisateurs. Selon le procureur, il s'agit d'une question complexe mais pertinente : « Si cette entité devait être considérée comme une personne, elle serait inculpée d'homicide », a-t-il déclaré récemment.
Le cas en question a mis en lumière le comportement de Phoenix Ikner, un étudiant qui, selon les premiers éléments, a consulté ChatGPT pour planifier son attaque, en s'enquisant des meilleures armes et des munitions adaptées. Cette intrigue posera la question de l'inculpation potentielle d'OpenAI, l'entreprise derrière ChatGPT, une voie que le procureur n'exclut pas.
Ce débat prend racine dans des précédents juridiques, comme celui de Purdue Pharma, condamné pour son rôle dans la crise des opiacés, ou encore Volkswagen dans le scandale des émissions de polluants. Matthew Tokson, professeur de droit à l'université d'Utah, ajoute que les infractions potentielles pourraient être la négligence ou la faute délibérée, mais qu'il faudrait des preuves accablantes pour établir une culpabilité. « Il sera nécessaire de prouver qu'il existe eu des documents internes soulignant des risques non pris au sérieux », prévient-il.
D'autre part, OpenAI maintient que « ChatGPT n'est pas responsable de ce crime », tout en indiquant qu'elle renforce ses mécanismes de défense pour détecter les comportements à risque. Le professeur Brandon Garrett de l'université de Duke rappelle que la charge de la preuve pèse lourdement contre les plaignants, d'autant que la responsabilité pourrait ne pas être directement imputable à une personne.
De manière générale, une action civile pourrait sembler plus simple pour les plaignants, car elle repose sur des normes moins strictes. Alors que plusieurs affaires ont été intentées contre des entreprises d'IA aux États-Unis, aucune condamnation n'a été prononcée à ce jour. Matthew Bergman, avocat impliqué dans cette thématique, souligne que la dernière version de ChatGPT a été renforcée en matière de sécurité, mais reste insuffisante face aux défis posés.
Enfin, le besoin croissant de régulation dans le secteur de l'IA est mis en avant par plusieurs juristes. Matthew Tokson insiste sur le fait qu’un éventuel verdict pénal aurait des répercussions majeures sur l'image de l'entreprise et pourrait dissuader les investisseurs. Pourtant, la régulation en tant que telle demeure essentielle pour protéger les consommateurs et établir des standards clairs.







