L’analyse Statistique et le Big-Data au Service de la Justice

Sommaire

Introduction :

 

Partie I : L'analyse statistique et le Big-Data au service de la Justice : un outil d’aide à l’enquête

  1. Historique de l’analyse statistique et du Big-Data
  2. La justice avec comme focalisation : le Big-Data et l’analyse statistique

 

Partie II : Fonctionnement, avantages et inconvénients de ces plateformes

 

  1. Le Fonctionnement
  2. Les avantages et les inconvénients
  3. Le Big-Data, supplémentaire ou réelle plus-value ?

 

 

Partie III : La mise en pratique d’applications concrètes et son impact

 

  1. ANACRIM et SALVAC : son utilisation
  2. D’autres applications et produits
  3. Les pistes et progrès pour le futur : l’évolution pour le Big-Data et la justice

 

Conclusion :

Ressources :

 

 

 

Introduction :

 

On aperçoit que l’utilisation des algorithmes se développe partout aujourd’hui dans notre société. Que ce soit dans des navigations de GPS, dans la traduction automatique, dans le e-commerce comme avec l’utilisation des essayages virtuels ou même des applications banales comme des recommandations de films.

 

Un  outil relativement nouveau est désormais à portée de main pour la justice. Dans l’objectif de faciliter les tâches des dirigeants de la justice, des systèmes comme ANACRIM ont été programmés. Le but n’est pas comme avec d’autres applications de remplacer les êtres humains mais de les aider à réviser une grande quantité de donnée en cherchant des configurations correspondantes. On appelle ceci le Big-Data.

 

Cela nous amène à notre problématique : en quoi et comment une application informatique peut-t-elle être utile pour la justice et dans quelle situation est-t-elle bénéfique ?

 

Afin d’y répondre dans ce rapport, nous allons étayer en premier lieu, comment l'analyse statistique et le Big-Data peuvent être au service de la justice. Cela nous amènera à observer plus en détail l’approche et le fonctionnement pour enquêter afin de jauger sa valeur. Enfin nous verrons la mise en pratique d’applications concrètes pour enfin se tourner vers son progrès dans le futur.

 

 

Partie I : L'analyse statistique et le Big-Data au service de la Justice : un outil d’aide à l’enquête

 

 

  1. Historique de l’analyse statistique et du Big-Data  

Le Big-Data consiste à examiner des grandes quantités de données. Ces informations regroupent des données déstructurées, demi-structurées comme structurées mais l’accent est mis sur des données déstructurées. Il permet de dissimuler des corrélations et des tendances similaires afin de nous aider à voir des informations importantes et par la suite de faire des choix meilleurs. (Il faut préciser que sa conception originale fut pour des projets commerciaux.)

 

 

Le volume du Big-Data change sans relâche. Des groupes de données peuvent augmenter rapidement à cause de l’accumulation d’informations banales sur internet, sur des smartphones voir même des fréquences de radio. La capacité mondiale du stockage d’information a doublé à peu près tous les 40 mois depuis les années 80. Depuis 2012, on voit la génération d’environ 2.5 exaoctets (2.5×1018) quotidiennement. D’après des sondages du IDC, les données mondiales atteindraient 163 zettabytes en 2025. Depuis le loi de Kryder[1] la définition du Big-Data évolue constamment.

 

 

Plus précisément, le Big-Data concerne des panoplies de données qui sont si vastes et complexes que des programmes traditionnels sont insuffisants pour les analyser. Le Big-Data a recours à des applications dite NoSQL qui sont en premier lieu capables de pouvoir recevoir correctement les données, puis de les analyser, de les partager, de les visualiser et aussi de les interroger. Aujourd’hui les quantités de données sont de plus en plus grandes cependant le facteur prépondérant est dorénavant le fait de chercher des nouvelles configurations afin d’éclairer des tendances commerciales, d’amélioré la médecine et même comme nous allons voir de servir la justice.

 

Si on s’interroge un peu sur l’historique du Big-Data, le terme Big-Data fut créé par John Mashey. Par définition, il s’agit des groupes d’informations si volumineux que des outils technologiques spécifiques sont nécessaires pour l’analyser et lui attribuer une certaine valeur. Plus simplement dit, le Big-Data sont des données qui nécessitent des outils informatiques en parallèle pour analyser l’information.

 

Originellement trois concepts sont liées avec le Big-Data : Le volume, la variété, et la vélocité. Pour le volume, il s’agit de la quantité de données groupées. La taille de ce groupe va déterminer sa perspicacité potentielle et également le mettre dans la catégorie de Big-Data ou pas. La variété concerne les types d’informations. Ces données peuvent être des textes, des images, des bandes audios ou des vidéos. Grâce au data-fusion des pièces manquantes peuvent aussi être complétées. Ensuite il y a la vitesse ou vélocité dans laquelle les données sont générées afin de satisfaire les demandes de développement. Récemment des nouveaux concepts sont rajoutés au Big-Data comme la variabilité et la véracité.  Ils regroupent la mauvaise ou bonne qualité de données ce qui impacte la précision de l’analyse.

 

 

 

L’analyse statistique et le Big-Data ont été créés pour des besoins spéciaux d’entreprises et d’organisations. Les programmes originaux ont vu le jour dans le début des années 1990 et ils donnaient aux vendeurs une vue des bases de données du management. Le premier système, le DBC 1012, fut créé en 1984 et pouvait contenir et analyser 1 térabyte d’information. Il faut savoir qu’en 1991 un disque dur avait 2.5 GB de stockage.  Teradata[2] a par la suite mis en place en 2007 le premier programme pétabyte. En 2017, on observe plusieurs bases de données pétabytes la plus grande, qui dépasse 50 PB. Depuis 2008, les données utilisables furent des informations structurées, mais depuis Teradata on peut maintenant utiliser des données déstructurées comme XML, JSON and AVRO.

 

La venue du Big-Data est perçue par beaucoup comme la troisième révolution industrielle  après la machine à vapeur au 19e siècle, l’électricité à la fin du 19e siècle ou la venue de l’informatique à la fin du 20e siècle. Les évolutions derrière le Big-Data et l’analyse statistique touchent tous les domaines de la vie y compris comme nous allons maintenant le voir : la justice.

 

 

 

2. La justice avec comme focalisation : le Big-Data et l’analyse statistique

 

Le Big-Data et l’analyse statistique peuvent être au service de la justice de manières différentes. Les plateformes de ces nouveaux programmes peuvent rentrer dans deux catégories : Ils peuvent par des combinaisons de deep computing essayer de prédire par exemple le lieu des crimes ou la récidivité des criminels ou sinon ils peuvent être plus utilisés  comme un outil pour révéler des indices d’affaires judiciaires comme avec le logiciel ANACRIM conçu par la société IBM ou SALVAC.

 

Plus spécifiquement, ANACRIM fut l’acteur pour faire rebondir de longues procès, comme « l’affaire du petit Grégory ». En interrogant Karine Lejeune qui représente la Gendarmerie nationale elle a dévoilé les aspect d’usage de ce logiciel d’analyse d’informations. ANACRIM comme autre exemple était utilisé pour les disparus de L’Yonne et même pour localiser des réseaux de trafic de drogues.

 

L’application elle-même est utilisée déjà depuis 1994 par la Gendarmerie nationale. 400 spécialistes criminels s’en servent au Service de Renseignement Criminel (SCRC). Le logiciel lui-même a plusieurs capacités de fonctionnement ou sous-logiciels : En premier lieu, c’est une Application de Traitement des Relations Transactionnelles (ATRT) qui est capable d’analyser des relevés bancaires et appels téléphoniques. En seconde lieu, elle contient une Analysa Notebook (ANB) qui représente visuellement les données sur des formes différentes dans le but de confirmer des informations ou de mettre en lumière les ambiguïtés. Elle contient aussi des possibilités secondaires comme l’Identification des Victimes de Catastrophes (IVC).

 

 

Parallèlement on voit des plateformes similaires comme le logiciel dit Système d’Analyse des Liens de la Violence Associée aux Crimes (SALVAC). Cette application de Big-Data fut développée par la Gendarmerie Canadienne et, comme ANACRIM est mise en œuvre depuis les années 1990. Sa spécialité est le fait qu’il ne traite que des crimes de violence. La fuite des criminels, les cadavres retrouvés sont également analysés dans sa base de données. Un but central de SALVAC, comme le souligne la commissaire Lénaig Le Bail chef-adjointe de la police judiciaire, est de faire des rapprochements entre affaires afin de trouver les mêmes auteurs de crimes différents.

 

Le logiciel SALVAC fut introduit en France le 1er Janvier 2003 par la Direction Centrale de la Police Judiciaire (DCPJ) et aussi par la Gendarmerie nationale et la police nationale. Basée à Nanterre, une dizaine de policiers spécialisés y travaillent quotidiennement.

 

 

 

 

Partie II : Fonctionnement, avantages et inconvénients de ces plateformes

 

  1. Le fonctionnement

 

Quand est-ce qu’on décide de se servir d’un programme comme ANACRIM ou SALVAC ? ll s’agit que la mise en marche arrive lorsqu’on a affaire à des dossiers longs, complexes et qui tardent à avoir un verdict. Ceci fut le cas pour l’affaire de Grégory. Pour cette affaire, le département de la justice a dû revoir 2,000 lettres anonymes, des centaines de témoignages ainsi qu’environ 12, 000 procès-verbaux. Toute pièce de conviction et déclaration d’investigation criminelle sont aussi pris en compte. Dès qu’on a affaire à une enquête où de nombreuses personnes aux relations complexes entrent en jeu, l’application ANACRIM  est  utilisée.

 

ANACRIM permet de faire un historique de personnes afin de croiser les données. En effet des hypothèses peuvent être facilitées comme le fait qu’un suspect ce trouvait à un lieu à une heure précise et qu’on ne le soupçonnait pas. Le logiciel peut instruire l’investigation.

 

 

On peut y avoir recours aussi pour des disparitions comme les disparus de l’Yonne voir même des fraudes bancaires ou trafic de drogues. Dans de telles affaires, le logiciel peut éclairer les échanges de transactions bancaires ou appels entre protagonistes. Les enquêteurs s’en servent pour des disparitions comme avec Lucas Tronche et Antoine Zoia disparus en 2015 et 2016. On a même recours à cette technologie pour des homicides qui dans l’affaire du meurtre de Maelys ou Nordahl Lelandais fut récemment mis en examen. Comme M. Lelandais est impliqué dans d’autres crimes une mise en analyse des 15 dernières années de cet homme montre l’intérêt du logiciel se servant du Big-Data et de l’analyse statistique.

 

 

L’application est censée analyser les éléments de l’enquête même les plus petites détails comme des itinéraires, les horaires déclarés et les déclarations successives. Cela permet donc d’évaluer les contradictions. Pour M. Lelandais le logiciel va recevoir ses comptes bancaires, ses appels, les emplois précédents et ses voitures antérieures. Cela permettra de répondre de manière globale où il se trouvait et à quel moment, afin de comparer ces informations avec les détails des crimes. Cette tâche est lourde mais possible grâce au Big-Data et une telle plateforme.

 

Pour SALVAC et ANACRIM, les logiciels servent lorsqu’une personne est soupçonnée d’avoir commis un crime grave ou un délit sérieux c’est-à-dire dont l’infraction implique 5 ans de prison ou plus. Selon l’impression des enquêteurs, l’identité des personnes citées peuvent être enregistrée afin de d’éclairer des pistes ultérieurement. Même si la personne est contre un maintien d’information saisie dans la plateforme, la loi retient l’enregistrement même quand l’auteur du crime a été condamné. Ces données sont retenues pour une durée de 40 ans.

 

 

Pour SALVAC, les analystes rentrent des données d’observations des enquêteurs à partir d’une liste de 168 questions concernant la scène du crime, la victime et les indices des suspects. Ensuite le processus de SALVAC se fait automatiquement en indiquant des configurations similaires des faits. C’est donc par la suite la tâche des policiers de poursuivre l’investigation avec ces nouvelles pistes.

 

 

En prenant d’exemple ANACRIM on peut voir son fonctionnement de manière un peu plus détaillée.

 

Le programme d’ANACRIM a 4 rôles essentiels, elle :

  • compare les informations rentrées
  • le présente sous forme graphique
  • identifie des cohérences et incohérences
  • constate les récurrences mentionnées

 

Même si les données sont nombreuses, ANACRIM permet de les mettre en lien dans des schémas relationnels. Cependant, pour que ces tâches s’accomplissent, les analystes criminels doivent extraire des informations justes.

 

 

Comme on traite des affaires qui durent dans le temps, le logiciel est programmé pour développer des graphes pour qu’ils soient visuellement plus compréhensibles. Les incohérences seront donc plus faciles à voir. Sans ce support le cerveau humain ne pourrait effectuer que très difficilement l’analyse du dossier. Comme déclare Karine Lejeune

 

«  le logiciel nous aide à opérer des recoupements sur plusieurs milliers de pièces ».

 

Avec SALVAC, on peut même rentrer des données sensibles d’après l’article 8 de la loi du 6 janvier 1978 comme la vie sexuelle et les groupes d’appartenance des suspects.

 

Il est bien de signaler que dans le cas de plateformes de prédictions en dehors de SALVAC  ou ANACRIM, la situation est nettement plus délicate. La justesse rencontre des obstacles avec des facteurs subjectifs comme  par exemple la race d’une personne. Aussi le logiciel doit être capable de travailler avec des facteurs légitimes comme la suspicion individuelle.

 

2. Les avantages et les inconvénients

 

Les Avantages

 

Un avantage d’ANACRIM et SALVAC est de mettre en relation des enquêtes similaires afin de repérer des failles en mettant en liens tous les éléments. Ces logiciels rentrent en jeu lorsque on a devant les gendarmes des dossiers de titan. La mémoire humaine est limitée et une fois que le dossier est fini le début peut-être oublié alors qu’avec le logiciel on peut avancer avec précision sans se préoccuper des blancs d’informations.

 

Un autre avantage d’une telle application est qu’elle facilite aussi la communication entre la justice et les enquêteurs. Une image ou un graph synthétique se comprennent nettement plus facilement qu’une longue explication. L’intérêt des cartographies que proposent ces logiciels permet d’y voir plus clair surtout si le crime a eu lieu des années auparavant.

 

Grâce à un logiciel de Big-Data, on peut relancer des affaires qui semblaient inachevées voir même oubliées. Pour SALVAC et ANACRIM ces technologies sont des outils pour mettre en lumière des indices d’affaires incomplètes.

Les Inconvénients

 

On peut remarquer des inconvénients plus pratiques de tels logiciels comme les coûts élevés de son développement. Il faut des applications matérielles et des ressources informatiques pointues ce qui financièrement a un prix. En outre, il faut les compétences d’ingénieurs capables de dédier leur savoir et leur énergie à des projets du Big-Data. Les fruits de ces systèmes sont complexes et nécessitent beaucoup de travail et de recherches.

 

 

Une grande question est de savoir, une fois qu’on trouve des solutions, qui seraient les dirigeants et propriétaires de ces initiatives du Big-Data. Comme nous restons des esprits arbitraires, il existe un danger concernant la garde et la mise en pratique de ces plateformes informatiques.

 

Aussi assistons-nous à une révolution de l’intelligence artificielle où bientôt les magistrats ferons appel à des logiciels d’algorithmes prédictifs pour déterminer en grande partie leurs verdicts. Comme nos actions ne sont pas dictées par des facteurs statistiques, des erreurs peuvent entrainer des grandes injustices. Il faut bien garder en tête que ce sont des hommes qui ont travaillé dur sur ces logiciels et donc l’intelligence artificielle ne doit pas dépasser des limites psychiques, relationnelles et intuitives des juges qui eux dépassent la sphère rationnelle et mathématique.

 

Les limites de logiciels comme ANACRIM sont qu’ils ne résolvent pas de meurtres. Ils ne remplacent pas les enquêteurs. Ils sont donc limités dans ce qu’ils arrivent à faire.

 

3. La Big-Data, supplémentaire ou réelle plus-value ?

 

Pour le moment, les bénéfices des logiciels d’analyse statistique et du Big-Data au service de la justice sont à vrai dire pas encore exploités aussi effacement qu’on voudrait. Dans le secteur du commerce, ils ont commencé à avoir un impact considérable mais pour les ministères de la justice ce n’est peut-être pas encore le cas. Ces limites sont dues à de nombreuses assomptions floues faites à partir de ces logiciels. En effet, des déclarations mathématiques peuvent être formulées alors qu’en réalité ils ne reflètent pas ce que les applications sont véritablement en train de dire au niveau de ses processus.

 

Aussi à un autre niveau, d’après des analyses sur ces programmes, on voit un ennui qui surgit voir même un obstacle d’interrogation. D’après des recherches faites sur des programmes du Big-Data souvent on est amené à questionner si on doit absolument prendre en compte l’ensemble des données ou si un échantillon suffit.

 

 

D’après une étude faite sur un programme COMPAS qui vise la prédiction de crimes, 137 questions étaient enregistrées dans la base de données à propos de l’age, du sex, de l’histoire, du casier judiciaire etc…. Cependant malgré l’utilisation des algorithmes, l’équipe de recherche a créé leur propre petit programme basé sur seulement deux questions : l’âge et le nombre de convictions passées. Le résultat était étonnant car il s’est montré aussi performant que COMPAS  qui s’est servit de 137 points de données. Cette étude remet donc en question l’intérêt et le niveau de précision de telles technologies.

 

Peut-être la solution se trouve dans la sélection des bonnes données à partir d’un plus grand groupe de données afin de faire des estimations justes. En prenant comme exemple un sondage au sens général, on sait qu’il peut représenter les sujets et les sentiments de l’ensemble d’une population sans pour autant interroger chaque personne de la population. Avec cette même logique, cela montre qu’il reste des pistes à creuser dans l’analyse du Big-Data.  On peut tout de même déjà constater des algorithmes d’échantillonnage pour le Big-Data dans certains secteurs.

 

Pour revenir vers ANACRIM et SALVAC, on doit avouer qu’ils ne sont pas anodins. Sans ces programmes, les analystes n’auraient pas nécessairement vu des liens entre affaires. Ils permet, surtout SALVAC, de réunir des informations sur l’ensemble du pays afin d’aider la justice dans ses enquêtes. L’analyse statistique et le Big-Data semble avoir un réel potentiel pour les différents services de la justice.

 

 

Partie III : La mise en pratique d’applications concrètes et son impact

 

  1. ANACRIM et SALVAC : son utilisation

 

La mise en pratique de tels systèmes anticriminels est soutenu par la loi du 7 mai 2012 qui révèle son cadre d’intérêt : des affaires de flagrant délis punis par une peine de prison et les enquêtes qui nécessitent une coopération internationale. Chaque consultation est datée et conservée pendant 5 ans. Les sous-logiciels d’ANACRIM mentionnés dans la première partie travaillent ensemble et cherche un rapprochement des faits d’une même affaire.

 

Pour les logiciels comme ANACRIM, il faut signaler qu’ils n’apportent aucunes nouvelles pièces sur un dossier mais permettent plus simplement d’y voir plus clair, d’ouvrir de nouveaux horizons ou de mettre des accents sur des indices existants.

 

Les logiciels comme ANACRIM sont des systèmes d’analyse de base de données d’informations multiformats (textes, photos, vidéos). Ces détails peuvent s’incarner dans des témoignages mineurs qui sont susceptibles d’éclairer des points. Ce travail est fastidieux et peut durée des années. Cependant avec un système de Big-Data on peut formuler des graphes afin de faire des suppositions de lieux et de personnes en lien avec l’enquête. Grâce à des présentations visuelles, l’application peut mettre en évidence des incohérences dans des informations de suspect ou de témoin.

 

 

Plus globalement, le programme peut écarter des pistes ou inversement il peut se focaliser sur l’une d’elle. Il ne remplace pas l’enquêteur mais l’aide dans un travail titanesque d’informations pesantes où chaque détail peut être vu comme insignifiant mais plus tard comme clé avec de nouveaux enjeux. Il peut établir des liens entre personnes. Comme présente l’adjudante Cendrine Menichini, un référent du logiciel, ANACRIM peut détecter des liens entrent des personnes à partir des conversations téléphoniques. L’application peut également créer des liens liant des affaires similaires et donc suscitant une économie de travail précieuse.

 

Ces types de logiciels sont fournis à l’ensemble des services d’enquête européens comme Europol qui travaille avec la police nationale pour des crimes internationaux, dans le trafic de drogues ou le terrorisme au sein de l’Union Européenne.

 

Visant une meilleurs recherche de précision, je crois qu’il ne faut fermer aucune porte surtout lorsque qu’on se trouve dans le domaine judicaire. La mise en œuvre d’ ANACRIM permet d’avancer en ne laissant aucune hypothèse de côté.

 

 

2. D’autres applications et produits

 

Plus récemment le terme Big-Data évoque l’utilisation d’analyse prédictive ou basée sur le comportement. Ceci concerne des méthodes d’analyses de données avancées qui se focalisent sur des aspects spécifiques de données.

 

Dans le film Minority Report qui se déroule en 2054, le département de police a la capacité d’anticiper des crimes avant même qu’ils aient lieu. Ce fantasme a l’air utopique mais pour certains il est en train de devenir une réalité. Grâce à des analyses statistiques du Big-Data des centaines de milliers de données sont analysées et visent à chercher des configurations de données qui permettront de voir ce qu’un humain n’arrive pas à voir. Une fois faites, des prédictions sont établies. Ces prédictions peuvent tout de même engendrer des conséquences désastreuses.

 

Dans le film Minority Report, le protagoniste principal John Anderton est injustement accusé selon le Big-Data d’avoir tué quelqu’un alors que ce n’était pas le cas. Il est donc persécuté durant le film à cause des prédictions crues par la société. Cependant cette situation n’est pas qu’une fiction. Des fausses prédictions signifient une discrimination croissante. Selon un sondage aux Etats-Unis, la confiance dans le département de police est a diminué de moitié. Pour la communauté afro-américaine cette confiance ne dépasse pas les 30%. Ceci dit, la mise en œuvre d’algorithmes prédictifs peuvent amplifier des injustices raciales déjà bien présentes car selon ces critères, des milieux plus pauvres seront visés par le système judiciaire.

 

Les circonstances néfastes des algorithmes prédictifs sont bien réelles mais l’accès directe du Big-Data peut aussi  jouer un rôle positif dans les circonstances présentes. Par exemple, en réaction à un incident de coups de feux dans un immeuble, les données ont permis d’éviter le financement pour une investigation car grâce au Big-Data, l’enquête de la femme ainsi que l’immeuble ont pu être immédiatement identifiés. Les informations de la femme ainsi que l’immeuble ont été grâce au Big-Data à porté de main pour les policiers.

 

 

 

3. Les pistes et progrès pour le futur : l’évolution pour le Big-Data et la justice

 

En revoyant l’exemple mentionné juste en haut,  la transparence dû au Big-Data est un élément clé pour promouvoir plus d’efficacité et de confiance pour tous. Cela implique que les informations soient postées non seulement pour les policiers mais aussi pour les citoyens. Comme le signale le chef de police d’Orlando PD grâce à cette transparence, les citoyens de l’état pourront revoir les informations eux-mêmes et ne pas dépendrent seulement des médias.

 

L’image de la police est peut-être plus que n’importe autre institution, étiquetée par les médias. Des centaines d’histoires visant des minorités, surtout aux Etats-Unis, reflètent une discrimination. Selon les positions politiques, les gens voient les départements de police soit comme des victimes soit comme des oppresseurs.

 

Avec l’émergence du Big-Data à la portée de tous, ces données peuvent canaliser une meilleure justesse pour ces histoires. Avec une ouverture du Big-Data à un niveau local, les personnes pourront être moins passives envers les reportages et plus actives, en voyant plus clairement ce qui est en train de se faire dans le présent.

 

 

La réforme du système judiciaire est nécessaire à tous les niveaux. On a mentionné les effets discriminateurs du Big-Data visant certaines minorités, cependant c’est peut-être aussi grâce au Big-Data et à l’analyse statistique que des préjugés peuvent changer efficacement. Les analystes et scientifiques de ces nouvelles plateformes cherchent des configurations intéressantes et donc ils ont le pouvoir potentiel de changer les opinions des industries y compris le système judiciaire. Des solutions sont donc possibles pour corriger des inexactitudes.

 

Le progrès dont bénéficie ces logiciels comme ANACRIM ou SALVAC sont bien réels. En plus de l’affaire Grégory ces plateformes sont mises au service pour retrouver des criminels comme Michel Fourniret ou comme aide dans la disparition en 1996 de Marion Wagon ou dans d’autres affaires comme celle de Francis Heaulme. ANACRIM était utilisé dans l’enquête sur la mort de Major Brière en 2012 dans la région Paca. Le meurtrier fut retrouvé et condamné à 20 ans d’incarcération.

Pour SALVAC depuis 2002, 300 rapports de rapprochements ont été établis. Cela a permis la résolution de 65 crimes et comme le précise la commissaire Lénaig Le Bail, il n’aurait pas eu lieu sans la plateforme d’analyse statistique et du Big-Data.

 

Même si on peut se projeter vers l’avenir avec ces nouveaux outils d’aide à l’enquête,  comme le déclare le général Olivier Kim dans l’article par Sarah Sermondadez

 

« ANACRIM ne serait rien sans l’intelligence humaine, le rôle des analystes a été fondamental. »

 

 

Conclusion :  

 

Cela nous amène à notre problématique : En quoi et comment une application informatique peut-t-elle être utile pour la justice et dans quelle situation est-t-elle bénéfique ?

Ce rapport, guidé par notre problématique, nous ouvre à une question plus large : est-ce qu’avec l’évolution du Big-Data et l’analyse statistique, la justice est en train de voir un nouveau jour se lever équipé avec plus de précision et de clarté ?

 

On peut en conclure que les logiciels de l’analyse statistique et du Big-Data sont aptes à nous apprendre des choses que l’œil humain ne voit pas. Comme chaque humain est limité dans sa capacité de mémoire, des programmes qui sont capable de chercher et d’interroger des affaires ont certes une valeur précieuse. Ils proposent donc une solution dans la fluctuation des données toujours grandissante.

 

Aussi comme le Big-Data cherche des corrélations similaires dans son analyse statistique, il peut rendre les enquêtes plus transparentes pour les policiers comme pour les citoyens ce qui peut rectifier les fausses images des médias. Cela montre comment une application informatique peut être bénéfique.

 

En prenant l’exemple du commerce qui semble bien fonctionner avec les technologies du Big-Data, il faut tout de même préciser un point : encore si des entreprises investissent des sommes phénoménales pour obtenir plus de clarté, il faut souligner que même pas la moitié de ces employées ont les aptitudes et le discernement de  comprendre ces décisions.

 

Je crois d’après les recherches présentées ici, que le Big-Data et l’analyse statistique ont le potentiel de faire du bien comme ils peuvent créer de nouvelles injustices. Avec l’exemple des algorithmes prédictifs si ces technologies sont banalisées, elles peuvent empirer possiblement les préjudices de minorités. Je dirais donc que l’analyse des machines ne doivent absolument pas dicter les verdicts des juges.

 

Cela m’amène à dire que dans un secteur où l’aboutissement des verdicts concerne le sort d’êtres vivants peu importe l’apparente précision et compréhension évoquées par ces programmes. Le Big-Data doit être accompagné par un « Big Judgment » c’est-à-dire une analyse rigoureuse pour que cela soit juste et donc légitime pour la justice.

 

Ressources :

 

Encyclopedia, Wikipedia. Big-Data.

https://en.wikipedia.org/wiki/Big_data

Consulté le 12 avril 2018. Site d’encyclopédie.

 

Bensoussan-Brulé, Virginie. AnaCrim, les logiciels d’analyse criminelle de la gendarmerie

https://www.alain-bensoussan.com/avocats/anacrim-logiciels-danalyse-criminelle/2017/07/18/

Consulté le 14 avril 2018. Article sur un site d’actualité

 

France 3 Côte d’Azur. TECHNOLOGIE. Anacrim, un puissant logiciel au service de la gendarmerie

https://france3-regions.francetvinfo.fr/provence-alpes-cote-d-azur/alpes-maritimes/technologie-anacrim-puissant-logiciel-au-service-gendarmerie-1415201.html

Consulté le 16 avril 2018. Article sur un site d’actualité

 

Encyclopedia, Wikipedia. Système d’analyse des liens de la violence associée aux crimes.

https://fr.wikipedia.org/wiki/Syst%C3%A8me_d%27analyse_des_liens_de_la_violence_associ%C3%A9e_aux_crimes

Consulté le 17 avril 2018. Article d’un site d’information.

 

Benotmane, Linda. Salvac, ce logiciel qui fait la chasse aux criminels

https://www.ouest-france.fr/leditiondusoir/data/20000/reader/reader.html#!preferred/1/package/20000/pub/28744/page/10

Consulté le 17 avril 2018. Article sur un site d’actualité

 

Be Gautreau, Emilie. Expliquez-nous… Les logiciels d’analyses criminelles Anacrim et Salvac

https://www.francetvinfo.fr/replay-radio/expliquez-nous/expliquez-nous-les-logiciels-d-analyses-criminelles-anacrim-et-salvac_2658774.html

Consulté le 20 avril 2018. Article sur un site d’actualité

 

Wheeling, Kate. Does Big Data Belong In Courtrooms?

https://psmag.com/social-justice/does-big-data-belong-in-courtrooms

Consulté le 21 avril 2018. Article d’un site d’information.

 

Hill, George. Can We Use Data To Reform The Criminal Justice System?

https://channels.theinnovationenterprise.com/articles/lf-can-we-use-data-to-reform-the-criminal-justice-system

Consulté le 22 avril 2018. Article d’un site de technologie

 

Simmons, Ric. Quantifying Criminal Procedure: How To Unlock The Potential Of Bid Data In Our Criminal Justice System

https://digitalcommons.law.msu.edu/cgi/viewcontent.cgi?article=1176&context=lr

Consulté le 26 avril 2018. Article de recherche

 

Le, Vinhcent. Big Data and Social Justice are on a Collision Course

http://greenlining.org/blog/2017/big-data-and-social-justice-are-on-a-collision-course/

Consulté le 30 avril 2018. Blog d’un site d’énergie, d’environnement et de technologie

Bremme, Loic. Définition : Qu’est-ce que le Big Data ?

https://www.lebigdata.fr/definition-big-data

Consulté le 2 mai 2018. Article d’un site de technologie

 

Roulette, Patrick. Justice prédictive : Les Enjeux du Big Data

https://www.village-justice.com/articles/justice-predictive-disparition-zezette-epouse,28223.html

Consulté le 5 mai 2018. Article d’un site des métiers du droit

 

 

 

 

 

[1] Une loi expliquant la croissance exponentielle de la capacité des centres de données.

[2] Teradata est un constructeur de solutions informatiques spécialisé dans le stockage de données et d’applications analytiques.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *