Tribunaux du futur : faut-il confier la justice à l'intelligence artificielle ?

Voir le sujet précédent Voir le sujet suivant Aller en bas

Tribunaux du futur : faut-il confier la justice à l'intelligence artificielle ?

Message  Alain Vasseur le Dim 12 Mar 2017 - 10:23

Les nouvelles technologies se frayent un chemin dans notre système judiciaire. Certains y voient une manière de désengorger les tribunaux, d'autres une menace pour les libertés individuelles.


PUBLIÉ LE 12/03/2017 À 10:00   
Benjamin Pierret   RTL

Quand les robots s'invitent dans notre système judiciaire. La Cour européenne des droits de l'homme, qui doit gérer des plaintes toujours plus nombreuses, pourrait voir son travail largement allégé... grâce à un logiciel. Alors que les demandes auprès de la juridiction internationale ont doublé entre 2014 et 2015, le University College de Londres est en train de mettre au point un algorithme capable de déterminer si une plainte est recevable ou non. Cette intelligence artificielle se base sur d'anciennes décisions de justices, dont elle a analysé le déroulé et les décisions finales. Elle arrive aujourd'hui à prédire la recevabilité d'une plainte avec 79 % de justesse. 

Plus récemment, cinq chercheurs américains ont démontré que des algorithmes pouvaient rendre des décisions pertinentes dans le cadre des remises en liberté avant procès (pour décider si l'accusé attend son passage devant la justice en prison ou à domicile), qui sont soumises à l'appréciation humaine outre-Atlantique. Sur les centaines de milliers de cas soumis, l'intelligence artificielle s'est montrée plus performante que l'homme pour prédire les futurs desseins des accusés. Les chercheurs estiment qu'à l'échelle d'une ville comme New York, leur système pourrait réduire le nombre de crimes par accusés en attente d'un procès de 25%, sans augmenter pour autant la population carcérale.


Petit à petit, l'arrivée des nouvelles technologies dans la justice se profile. Traitement automatisé, utilisation des réseaux sociaux, gestion des informations, mise à profit du Big data : les possibilités d’allègement de ces métiers sont infinies. Il existe même un terme pour désigner tous ces nouveaux modes opératoires, qui n'en sont qu'à leurs premiers balbutiements : les Legaltech. Des techniques qui ouvrent autant d'éventualités qu'elles soulèvent de questions : comment s'assurer que l'humain reste au cœur des décisions de justice ? 

Prédictions et Big data


Vasileios Lampos, chercheur en informatique à l'UCL, le reconnaît lui-même : "C’est comme remplacer les enseignants ou les médecins par des ordinateurs : à l’heure actuelle, c’est tout bonnement impossible", confiait-il à Motherboard, fin octobre, avant de préciser : "Les lois ne sont pas structurées de telle manière que les machines puissent prendre des décisions. Je pense que les juges ne suivent pas une méthode parfaitement objective dans leur travail, et c’est une bonne chose." 

Un sentiment que partage Etienne Barraud, chargé de mission pour le think tank En Temps Réel : "On peut craindre les effets pervers qu'aurait une mesure précise des caractéristiques des individus impliqués dans une catégorie de délits dans le cas où on arriverait à la conclusion qu'un certain type d'individu est particulièrement susceptible de commettre un délit", souligne-t-il dans une tribune pour le Huffington Post

Dans cette tribune consacrée à l'utilisation du Big Data dans le système judiciaire, il fait également référence à des systèmes déjà mis en place. Depuis 2008, les patrouilles de la police de Memphis s’organisent autour d'un logiciel. Intitulé Blue C.R.U.S.H. (Crime Reduction Utilizing Statistical History) il étudie les crimes précédemment survenus et calcule les probabilités pour un incident de survenir dans un lieu donné. Selon le Guardian, la police de Memphis considère que ce programme est à l'origine d'une baisse de 31 % de la criminalité. En 2010, le média britannique affirmait que le système était testé au Royaume-Uni.

 

Donner leur place aux machines : un danger ?


Pour Virginie Gautron, pénaliste et maître de conférence à l'université de Nantes, l'utilisation de données dans le système judiciaire laisse la porte ouverte à des abus : "Les données utilisées ne sont pas représentatives", explique-t-elle à RTL Futur. "On ne prend en compte que les faits connus des forces de police, or il y a beaucoup de biais dans la construction de ces éléments." Elle rappelle l'étude de Fabien Jobard, chercheur au CNRS, qui tend à démontrer que les personnes les plus touchées par les contrôles de police sont issues de minorité. Les arrestations sont donc, logiquement, plus importantes : "Prendre en compte ces données, c'est accorder du crédit à une prophétie auto-réalisatrice."

Une étude scientifique, rapportée par Tech Mic, abonderait en ce sens : publiée par la revue scientifique Significance, elle tendrait à prouver que PredPol, l'un des algorithmes de prédiction policière les plus populaires des États-Unis, dirige les unités policières d'Oakland vers les quartiers noirs, tandis que le taux de consommation de drogue est plus important au sein de la population blanche. Virginie Gautron pointe du doigt le manque de transparence de ces algorithmes, vendus par des entreprises privées, et s'inquiète également du mode de fonctionnement de certains de ces nouveaux outils. 

"Certains utilisent la méthode de machine learning, c'est à dire que les robots apprennent de leurs propres résultats. Cela risque de permettre aux machines d'utiliser des variables discriminantes, rien qu'en retenant les prénoms des auteurs de méfaits : ces derniers sont corrélés à une origine." Et de dénoncer l'amalgame entre la science dure qu'est l'analyse de données et la science humaine qu'est le droit : "Les algorithmes ne peuvent avoir aucune perspective."



http://www.rtl.fr/culture/futur/tribunaux-du-futur-faut-il-confier-la-justice-a-l-intelligence-artificielle-7785574179


http://www.rtl.fr/culture/futur/l-homme-doit-il-fusionner-avec-la-machine-pour-survivre-7787244903


http://www.gendxxi.net/t3712-prediction-criminelle-gendarmerie-1-0-police?highlight=prediction



http://www.gendxxi.net/t2946-pour-eviter-les-crimes-la-gendarmerie-combine-analytique-et-big-data?highlight=crimes+et+delits



http://www.gendxxi.net/t1575-minority-report-et-la-prevision-des-crimes?highlight=crimes+et+delits
avatar
Alain Vasseur

Date d'inscription : 18/01/2015
Age : 64

Revenir en haut Aller en bas

Ces algorithmes qui pourraient prédire des décisions de justice.

Message  Alain Vasseur le Mer 10 Mai 2017 - 2:41

Publié le 09/05/2017 à 17h05 par Yann Saint-Sernin

Des outils créés par des start-up sont déjà testés en France. La démarche fascine, mais pose de nombreuses questions.



Les algorithmes arrivent dans le monde judiciaire. À Lille, à Douai ou à Rennes, ils frappent déjà aux portes des salles d’audience et, surtout, des cabinets d’avocats. Les start-up qui les développent se piquent désormais de réaliser un vieux rêve : prédire les décisions de justice. Mais dans ce domaine plus qu’ailleurs, les promesses des nouveaux maîtres de l’intelligence artificielle, biberonnés au "big data", se doublent d’inquiétudes. Ou quand les ordinateurs se glissent dans les cerveaux des juges. Quitte un jour à les remplacer ? Le phénomène – baptisé "justice prédictive" ou "legaltech" – s’est accentué depuis octobre 2016 et la loi pour une République numérique qui a instauré la mise en ligne des décisions de justice (à condition qu’elles soient anonymisées).

Soit, potentiellement, un gigantesque matelas de données. Moulinée par des algorithmes, cette masse pourrait produire des résultats spectaculaires.
 
Prédire le destin d’une procédure judiciaire est d’ailleurs loin d’être une utopie d’informaticiens. En 2016, des chercheurs en informatique anglais ont ainsi anticipé 500 décisions de la Cour européenne des droits de l’homme (CEDH) avec un taux de réussite de 79 %. "Vu le caractère assez imprévisible de la jurisprudence de la CEDH, ça laisse rêveur", n’en revient pas Sébastien Platon, professeur de droit à l’Université de Bordeaux.


Le pénal exclu



En France, des start-up investissent ce terrain. L’objectif ? Créer des moteurs de recherche capables de scanner le maquis touffu des jurisprudences. Mais surtout fournir aux avocats des outils capables d’estimer les chances de réussite d’une procédure et les indemnisations qu’un client peut espérer. En clair, prévoir l’avenir d’un procès en se basant sur les résultats passés. Pour des raisons "éthiques", toutes se refusent pour l’instant à s’aventurer sur le terrain pénal et se limitent aux contentieux civils ou administratifs (pensions alimentaires, indemnisations…).

La start-up Predictice a déjà mis à disposition du barreau de Lille une version de son logiciel, encore en phase de test. Exemple : qu’espérer d’une procédure prud’homale pour avoir été licencié après avoir insulté son patron ? Le logiciel calcule : vous avez plus de chance de succès si vous étiez un peu éméché. La juridiction la plus favorable dans ce cas serait plutôt en Bretagne… Le logiciel soulève l’enthousiasme du bâtonnier de Lille, Stéphane Dhonte : "Tous les avocats faisaient ce type de calcul au prix d’importantes recherches qu’ils facturaient aux clients. Ces technologies vont révolutionner notre profession."


Pour l’heure, le logiciel mouline 1,5 million de jugements dont il s’efforce d’extirper la moelle. "L’intérêt est que l’avocat peut dire de façon argumentée à son client si cela vaut le coup d’aller ou non en procès. Cela va favoriser les règlements amiables", pense Louis Larret-Chahine, l’un des trois fondateurs de la start-up.


"Besoin de transparence"



Mais le logiciel promet d’aller plus loin : "La prochaine étape sera d’identifier les arguments qui font mouche selon les juridictions. On travaille là-dessus pour les prochains mois", glisse Stéphane Dhonte. Déjà, les cours d’appel de Rennes et de Douai se sont portées volontaires pour tester le logiciel. "Nous allons avoir des avocats qui vont nous dire : ‘‘Selon le logiciel, vous devez attribuer telle indemnisation.’’ Il est préférable de savoir de quoi il s’agit. Ce logiciel peut donner au magistrat une vision rapide de ce qui est appliqué dans d’autres juridictions. Mais c’est bien le juge qui tranche, et non l’ordinateur", explique Valérie Lecrohart, secrétaire générale du président de la cour d’appel de Douai.


Pourtant, la justice prédictive, même si elle exclut le champ pénal, fait débat. À l’Université de Bordeaux, elle fait même l’objet d’ateliers réunissant des chercheurs en droit et en informatique. "Paradoxalement, les informaticiens étaient plus prudents que nous, juristes ! Par exemple, ils nous ont montré que les algorithmes présentent toujours une sorte de biais. Cela pose la question de leur transparence lorsque l’on envisage d’intégrer ces logiciels dans des processus qui, d’une façon ou d’une autre, influencent ou forment le jugement", explique Sébastien Platon.


Autorité de la "chose calculée"



Parmi les craintes récurrentes figure également celle de la "prophétie autoréalisatrice". "Le risque est que les juges n’osent plus s’écarter des résultats du logiciel", pense le chercheur. L’"autorité de la chose jugée" pourrait-elle alors être supplantée par "l’autorité de la chose calculée" ? Et par la suite, même si personne ne le prône encore, faut-il redouter que les justiciables préfèrent un jour s’en remettre à une machine plutôt qu’à des humains ? Dans nombre de cas, la technologie semble loin d’être au point pour cela. En Chine, un premier pas a pourtant été franchi dans certaines provinces en 2006, afin de pallier le manque de formation des juges, avec des logiciels d’assistance au jugement.


"Au-delà de la faisabilité technique, qui n’est pas acquise, cela pose une question d’acceptabilité sociale. Jusqu’où acceptera-t-on l’intrusion de la machine ?


 En France, on a tendance à considérer les juges comme des ‘‘bouches de la loi’’. Le pas vers les ‘‘juges-machines’’ n’est peut-être pas si grand. Mais pour trancher, les magistrats tirent leur légitimité de la constitution, d’une formation dispensée par l’État, d’un serment et, plus généralement, de l’organisation de l’autorité judiciaire. D’où viendrait la légitimité d’un algorithme ? Et surtout, de celui qui l’a développé ?" questionne Sébastien Platon.


Dans un récent article dans une revue spécialisée, le magistrat Antoine Garapon, secrétaire général de l’Institut des hautes études sur la justice, va plus loin : "Les legaltech ne doivent pas être seulement appréhendées comme de simples facilitatrices pour les justiciables ou les avocats ou comme des auxiliaires d’une justice qui demeurerait intacte ; elles nourrissent une ambition plus large, celle de devenir elles-mêmes une nouvelle forme de justice." La justice des nombres.


États-Unis : l’algorithme était devenu raciste



Aux États-Unis, le logiciel Compas était utilisé pour estimer le risque de récidive des prévenus ou condamnés. En 2016, une vaste enquête du site d’investigation ProPublica a révélé que le logiciel n’avait qu’un taux de fiabilité à peine plus élevé que le lancer d’une pièce à pile ou face. Et qu’il défavorisait par ailleurs massivement et indûment la population noire. L’une des explications est que les concepteurs auraient intégré, de manière innocente, leurs préjugés inconscients dans l’algorithme, en fonction de la manière dont les données étaient structurées. Le logiciel, au lieu de gommer les inégalités, finissait par les reproduire, en assimilant des traits sociaux (adresses, professions…) plus communs aux Afro-Américains des États-Unis à des risques de récidive.


http://www.sudouest.fr/2017/05/09/ces-algorithmes-qui-pourraient-predire-des-decisions-de-justice-3431178-4697.php
avatar
Alain Vasseur

Date d'inscription : 18/01/2015
Age : 64

Revenir en haut Aller en bas

Un logiciel pour savoir en un clic si l’on peut gagner son procès.

Message  Alain Vasseur le Dim 21 Mai 2017 - 15:16

Modifié le 21/05/2017 à 12:26 | Publié le 21/05/2017 à 10:16


Divorce, licenciement… Un logiciel a « digéré » toutes les jurisprudences. Ce système de justice prédictive est testé, au civil, par les cours d’appel de Rennes, Douai et par le barreau de Lille.


Depuis le mois d’octobre, une loi impose de publier les décisions de justice sur Internet. Un élève avocat, épaulé par des mathématiciens, a conçu le logiciel Predictice, qui « digère » ces milliers de données. Il renseigne avocats ou magistrats sur les variations de la jurisprudence, selon que le procès ait lieu à Marseille, Limoges ou ailleurs. En quelques mots-clés, comme « divorce » ou « licenciement », le justiciable peut savoir à quoi s’en tenir.


Les cours d’appel de Rennes, Douai et le barreau de Lille testent Prédictice. Une révolution ? « Oui, dans le sens où le partage d’informations est toujours plus égalitaire, admet Xavier Ronsin, premier président de la cour d’appel de Rennes. J’y vois l’opportunité de désengorger les tribunaux. En constatant que ses chances d’obtenir gain de cause sont maigres, un plaignant renoncera plus facilement à des poursuites. Le logiciel peut aussi rompre l’isolement de certains juges. »


Le pénal ? « C’est tabou ! »



Le magistrat rennais voit d’un bon œil que la justice évolue. Sans s’enflammer : « Chaque cas reste particulier. La justice ne sera jamais robotisée. » Les juridictions, réputées plus clémentes, ne risquent-elles pas la saturation ? « En cas de divorce, si votre conjoint habite Lorient, la procédure se tiendra là-bas, obligatoirement. Même si Strasbourg vous arrangerait mieux. »


L’expérience de la justice prédictive se limite aux affaires civiles. À quand son extension au pénal ? « C’est taboutranche Xavier Ronsin. Une peine ne peut se réduire au produit d’un algorithme. » Le magistrat prend l’exemple de la victime d’une détention abusive. « Internet ne me dira jamais le prix d’une journée de prison. Si le détenu est un repris de justice ou non, s’il a dormi par terre, s’il a fait une dépression, l’indemnisation ne sera pas la même. »


Les disparités, en fonction des régions, des tribunaux, ne sont-elles pas injustes ? « La sévérité d’un juge, le talent d’un avocat, entrent en ligne de compte. Le condamné a, partout, l’opportunité de faire appel. »


La justice pénale n’a pas attendu le numérique pour évoluer. « Quand j’étais jeune magistrat, un homicide involontaire par un automobiliste en état d’ivresse était banalisé, remarque Xavier Ronsin. Les peines de prison ferme étaient plus rares qu’aujourd’hui. »


http://www.ouest-france.fr/societe/justice/un-logiciel-pour-savoir-en-un-clic-si-l-peut-gagner-son-proces-5007649
avatar
Alain Vasseur

Date d'inscription : 18/01/2015
Age : 64

Revenir en haut Aller en bas

L’intelligence artificielle reproduit aussi le sexisme et le racisme des humains.

Message  Alain Vasseur le Mar 30 Mai 2017 - 3:07

30.05.2017.


Les femmes associées aux arts et au foyer, les hommes aux mathématiques et aux professions scientifiques… Ces stéréotypes ont tellement la vie dure qu’ils se retrouvent aujourd’hui reproduits dans des programmes d’intelligence artificielle (IA). Dans un article publié vendredi 14 avril par la revue Science, Joanna Bryson, Aylin Caliskan et Arvind Narayanan, des chercheurs des universités de Princeton (New Jersey) et de Bath (Royaume-Uni), montrent comment une technologie de machine learning (apprentissage machine) reproduit les biais humains, pour le meilleur et pour le pire.


  • Lire cet article de Morgane Tual (Le Monde)

  • Lire aussi "L’intelligence artificielle n’est pas raciste, mais pas neutre non plus" (Le Monde)



http://www.laurent-mucchielli.org/index.php?post/2017/05/30/L-intelligence-artificielle-reproduit-aussi-le-sexisme-et-le-racisme-des-humains
avatar
Alain Vasseur

Date d'inscription : 18/01/2015
Age : 64

Revenir en haut Aller en bas

Voir le sujet précédent Voir le sujet suivant Revenir en haut


 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum