[ad_1]
Le système d’octroi de l’asile aux États-Unis est depuis longtemps un point de discorde politique. Les démocrates et les républicains débattent de la mesure dans laquelle ses règles devraient être libérales ou restrictives, mais les preuves suggèrent que le sort de certains demandeurs d’asile pourrait être moins influencé par les règles que par quelque chose de bien plus arbitraire : le juge qui leur est assigné.
Une étude de 2007 intitulée « Refugee Roulette » a révélé qu’un juge a accordé l’asile à seulement 5% des demandeurs colombiens, tandis qu’un autre – travaillant dans le même bâtiment et appliquant les mêmes règles – l’a accordé à 88%.
L’asile n’est en aucun cas la seule partie de notre système juridique où de telles divergences surviennent. Dans une étude historique de 1974, 50 juges ont reçu un ensemble de faits identiques sur un hypothétique trafiquant d’héroïne. Leurs peines proposées allaient de un à 10 ans. Le problème persiste aujourd’hui. Une série d’études plus récentes suggère que certains juges font preuve d’une plus grande indulgence envers les accusés de leur propre race, alors que d’autres sont systématiquement plus sévères envers ces derniers.
Ce type de variabilité – le type qui découle de tout exercice de jugement humain – crée une imprévisibilité massive dans le système juridique. Parce que les humains sont incohérents et subjectifs, nous en sommes venus à voir cela comme une caractéristique fixe de notre système judiciaire. Mais ce n’est pas obligé. L’intelligence artificielle, utilisée de concert avec la prise de décision humaine, nous offre un moyen de freiner l’incohérence qui fausse l’application de nos lois et soumet tant de personnes à des jugements imprévisibles.
Il faut s’attendre à une certaine variabilité, voire la souhaiter : nos idéaux juridiques – équité, justice, proportionnalité – se prêtent à une gamme d’interprétations raisonnables. Et la discrétion judiciaire est cruciale pour préserver l’état de droit ; sans cela, ceux qui détiennent le pouvoir politique pourraient plier les décisions judiciaires à leur volonté. C’est pourquoi les tribunaux contrôlés par des dirigeants non démocratiques sont assimilés à des kangourous : ils « sautent » par-dessus les preuves, la raison et les règles pour arriver à un résultat prédéterminé.
Mais jusqu’à quel point l’éventail des résultats judiciaires est-il acceptable ? Lorsque l’impact d’une loi est principalement déterminé non pas par les faits d’une affaire ou même par la loi elle-même, mais par la personne qui l’applique, tout notre système de législation démocratique en souffre.
Les juges libres de toute ingérence extérieure sont néanmoins soumis à une série de interne menaces sous la forme de préjugés politiques, de prédictions inexactes et d’erreurs cognitives. Dans leur livre Bruit, Daniel Kahneman, Cass Sunstein et Olivier Sibony montrent que ces menaces sont de deux sortes : biais et bruit. Le biais est un penchant systématique dans une direction particulière – lorsque les lectures d’une échelle sont toujours trop basses ou trop élevées. Le bruit est imprévisible dans toutes les directions, lorsque les résultats sont toujours différents.
Chaque fois que nous analysons statistiquement des décisions judiciaires, nous semblons trouver davantage de preuves de partialité et de bruit. Les accusés se voient montrer plus d’indulgence le jour de leur anniversaire, par exemple; les juges sont plus susceptibles de refuser la libération conditionnelle plus ils sont restés longtemps sans pause alimentaire, et ils rendent des décisions plus sévères après la défaite de leur équipe sportive locale.
Bien sûr, les juges sont habiles à rationaliser leurs conclusions. Mais ce n’est pas parce que vous ne trouverez jamais ces influences mentionnées dans leurs jugements qu’elles sont moins réelles.
Pour que notre système judiciaire reste sensible à l’élaboration de lois démocratiques et soit à la hauteur de nos idéaux juridiques, les jugements qu’il produit doivent se situer dans une fourchette raisonnablement limitée. Autrement dit, pour assurer l’intégrité de la loi, il faut non seulement autonomie judiciaire mais aussi prévisibilité raisonnable. C’est là que l’intelligence artificielle peut aider.
L’IA a de nombreuses applications potentielles dans le système judiciaire. Imaginez, par exemple, un juge chargé de déterminer si un défendeur représente un risque de fuite, ou si l’utilisation d’une marque ou d’un logo particulier « causera probablement une confusion » avec une marque déposée. Les statistiques pourraient quantifier ces déterminations avec des ensembles de données beaucoup plus importants que ceux auxquels les juges ont accès. L’IA pourrait également aider à éradiquer les préjugés en nous montrant quand et comment les préjugés systémiques influencent indûment des critères tels que la race, le sexe et l’origine ethnique.
Dans de tels cas – et bien d’autres – moins d’humanité pourrait conduire à plus d’équité.
Confier la justice à la technologie suscitera naturellement une certaine inquiétude. D’une part, de nombreux ensembles de données sont déjà contaminés par des préjugés historiques. Les décisions discriminatoires du passé peuvent amener certaines données à suggérer que l’appartenance à un groupe défavorisé constitue un facteur de risque en soi (par exemple, dans les décisions qui évaluent le risque de récidive lors des enquêtes sur cautionnement). Si nous ne faisons pas attention, l’IA pourrait finir par renforcer la discrimination au lieu de la réduire.
Pour atténuer ce risque, l’IA et le jugement humain doivent travailler ensemble, chacun atténuant les biais potentiels de l’autre. Toute décision prise par l’IA, aussi mineure soit-elle, doit être soumise à un examen humain.
Nous ne pourrons jamais atteindre un idéal parfait d’équité, mais l’IA peut nous aider à atteindre quelque chose de sensiblement plus juste que notre système actuel. Pour prendre les voitures autonomes par analogie : la référence de sécurité correcte n’est pas de savoir si elles conduiront à Non accidents, mais s’ils conduiront à beaucoup moins accidents que les conducteurs humains.
L’intégration de l’IA dans le système judiciaire doit se faire progressivement. Une application relativement modeste consisterait pour AI à informer les juges lorsque leurs décisions se situent en dehors d’une fourchette standard de résultats dans des affaires comparables. Cela offrirait aux juges la possibilité de s’autocorriger sans imposer de contrainte directe sur leur prise de décision.
De plus, l’analyse basée sur l’IA pourrait ouvrir de nouvelles voies d’appel à un accusé lorsque sa peine est jugée anormalement sévère. Une application un peu plus affirmée pourrait être d’utiliser l’IA pour affiner les minimums obligatoires et les maximums légaux en examinant les jugements antérieurs. Le réglage fin de ces applications fera la différence entre le simple renforcement des tendances décisionnelles des anciens décideurs et la réduction réelle des biais et du bruit.
La justice est peut-être aveugle, mais les êtres humains sont faillibles. Notre pensée est assombrie par plus de préjugés que nous ne pouvons compter, sans parler d’une confiance excessive dans notre propre jugement. Un système juridique plus juste devra peut-être être un peu moins humain.
[ad_2]
Source link -30