Intelligence artificielle et neurosciences : vers une justice sans biais cognitifs ?
En 2011, une étude menée par Shai Danziger et ses collègues, a examiné comment des facteurs externes, tels que les pauses alimentaires, peuvent influencer les décisions des juges. Cette recherche a révélé que les juges étaient plus enclins à accorder des décisions favorables après une pause repas, suggérant que la fatigue mentale accumulée au fil des audiences pouvait affecter leur impartialité. Parallèlement, les outils d’intelligence artificielle (IA) comme ChatGPT sont testés pour assister les magistrats dans la rédaction de jugements.
Le droit garantit une justice impartiale, mais ne prend pas en compte l’impact biologique du stress et de la fatigue sur les jugements. Pourtant, dans d’autres domaines (ex. : médecine, aéronautique), les professionnels sont soumis à des règles strictes pour limiter les erreurs liées à l’épuisement.
La solution qui se présente aujourd’hui et pour le futur serait l’utilisation d’une IA objective venant non pas en remplacement mais en soutien aux magistrats afin de préserver l’impartialité des juges contre le stress, la fatigue et la pression de la responsabilité qui pèsent sur eux.
Peut-on remplacer ou corriger le raisonnement humain par une IA supposée "objective" ? Le Conseil de l’Europe a déjà mis en garde contre le risque d’un biais algorithmique qui pourrait aggraver les discriminations. En France, l'article 47 de la loi Informatique et Libertés interdit qu’une décision judiciaire soit fondé sur « un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne ».
Mais si ce traitement automatisé de données à caractère personnel soutenu et utilisé par une AI venait non pas fonder une décision judiciaire mais soutenir le juge dans l’analyse de l’affaire et le rendu d’une décision, pourquoi pas ?
Cela est d’autant plus intéressant lorsqu’il s’agit d’affaires complexes qui suggèrent une intelligence supplémentaire et différente de l’intelligence humaine. Je vous laisse imaginer ce qu’aurait permis l’utilisation d’une telle intelligence dans l’affaire Omar Haddad.
Le droit devra trancher un dilemme :
- Si on intègre l’IA pour limiter les erreurs judiciaires dues à la fatigue ou aux biais cognitifs, on doit aussi s’assurer que ces algorithmes ne reproduisent pas d’autres biais invisibles.
- Une réforme de l’aide à la décision judiciaire pourrait inclure une évaluation neuroscientifique de la fatigue des juges pour ajuster les audiences et éviter des décisions influencées par l’état émotionnel.
Â