L'utilisation croissante des technologies d'intelligence artificielle dans les tribunaux indiens soulève des préoccupations quant à l'aggravation des biais et des dysfonctionnements structurels dans le système juridique. Des cas ont été révélés où des outils d'intelligence artificielle ont été utilisés pour produire des précédents juridiques fictifs, entraînant des problèmes juridiques graves. Dans une affaire liée à un conflit foncier dans l'État de l'Andhra Pradesh, le juge s'est appuyé sur quatre précédents juridiques qui n'existaient pas, entièrement générés par un outil d'intelligence artificielle.
L'affaire n'a été découverte qu'en appel, lorsqu'elle a atteint la Cour suprême indienne, qui a considéré que le jugement basé sur des citations fausses constituait un mauvais comportement et non une simple erreur dans le processus décisionnel. La cour a émis des avis au procureur général indien et au barreau indien, soulignant l'inquiétude croissante concernant l'utilisation de l'intelligence artificielle dans le système judiciaire.
Détails de l'événement
En mars 2023, la Cour suprême du Punjab et de l'Haryana a connu une situation inhabituelle, où le juge a interrompu une audience sur une demande de mise en liberté sous caution pour consulter ChatGPT afin d'obtenir des informations supplémentaires sur les principes juridiques relatifs à la mise en liberté sous caution dans les cas d'agression. Bien que le juge ait refusé la mise en liberté sous caution, il a mentionné sa consultation avec l'intelligence artificielle, soulevant des questions sur la fiabilité de ces outils dans la prise de décisions juridiques.
Les inquiétudes ne se limitent pas à l'Inde, mais s'étendent à d'autres pays où l'intelligence artificielle est intégrée dans les tribunaux. En Colombie, un juge a utilisé une conversation avec ChatGPT dans un jugement concernant le traitement d'un enfant autiste, tandis que deux avocats à New York ont été sanctionnés après avoir soumis un document juridique basé sur des précédents fictifs créés par ChatGPT.
Contexte et antécédents
L'Inde fait face à une crise juridique majeure, avec environ 55 millions d'affaires en attente dans le système judiciaire, entraînant des retards prolongés. Par exemple, trois hommes ont été acquittés dans l'État de Uttar Pradesh après avoir passé 38 ans en prison pour un meurtre survenu en 1982. Ces retards suscitent de vives inquiétudes quant à la justice, de nombreux accusés étant détenus pendant de longues périodes sans procès.
Les rapports indiquent que l'utilisation de l'intelligence artificielle dans ces circonstances peut sembler une solution rapide, mais elle comporte des risques importants. Les outils basés sur l'intelligence artificielle peuvent renforcer les biais déjà présents dans les données juridiques utilisées pour les former, entraînant des résultats injustes.
Conséquences et impact
La plus grande inquiétude concerne la possibilité que l'utilisation de l'intelligence artificielle renforce les biais sociaux et la discrimination. Les données montrent que les communautés marginalisées, telles que les Dalits, les groupes tribaux et les musulmans, représentent une proportion plus élevée de prisonniers par rapport à leur part dans la société. Ces défis exigent du système judiciaire qu'il soit prudent dans l'utilisation de l'intelligence artificielle, car les décisions basées sur des analyses algorithmiques peuvent affecter la vie de milliers de personnes.
Ces circonstances exigent des juges et des avocats qu'ils soient conscients des risques potentiels liés à la dépendance à l'intelligence artificielle. Il y a également des appels à définir le rôle de l'intelligence artificielle comme un outil d'assistance uniquement, et non comme un substitut aux décisions juridiques.
Impact sur la région arabe
La question de l'utilisation de l'intelligence artificielle dans les tribunaux est également importante pour la région arabe. Avec l'augmentation de l'utilisation de la technologie dans les systèmes judiciaires, les pays arabes doivent être conscients des risques associés aux biais sociaux et à la discrimination. Les expériences vécues par l'Inde peuvent servir de leçons précieuses pour les pays arabes sur la manière d'intégrer l'intelligence artificielle de manière responsable dans les systèmes juridiques.
En conclusion, l'utilisation de l'intelligence artificielle dans les tribunaux nécessite un équilibre délicat entre efficacité et justice. Les valeurs humaines et la justice doivent rester au cœur de toute utilisation de la technologie dans le système judiciaire.