La présidente de l'Estonie vient d'annoncer (selon Wired) son intention de confier le jugement des délits mineurs (dont les dommages sont inférieurs à 7 000 euros) à un système d’intelligence artificielle (IA). Ce système devra, dans un premier temps, se prononcer de manière autonome sur la culpabilité d’un prévenu, sur le dommage subi et sur le montant de la peine. Le condamné aura la possibilité de faire appel devant un tribunal « humain » de deuxième instance, ou celui d'accepter la sentence, ce qui devrait être le cas dans un nombre significatif de cas et désengorger d’autant les tribunaux et permettant aux juges et greffiers de se consacrer au traitement des affaires plus complexes.
Une intelligence artificielle aura pour la première fois dans l'histoire de la justice la responsabilité autonome d’un jugement. Le principe de cette IA judiciaire a été développé par Ott Velsberg, directeur national des données en Estonie, et associera l’analyse des textes légaux, l’analyse des informations mises en ligne par les deux parties en conflit sur une plateforme dédiée, et les preuves, témoignages, allégations et informations personnelles concernant les parties. Là réside un second point qui peut être problématique, puisque ce principe est non conforme avec ceux de la RGPD européenne et pourrait engager à une justice prédictive avec une collecte préventive de données personnelles et les dérives de fichage qui seraient alors légalement justifiées par la commission potentielle de délits. La date de promotion de ce système est prévue pour la fin de l’année 2019.
Le premier et principal problème reste néanmoins celui, éternel, de la confiance dans la décision. En décembre 2018, un groupe de travail de la Commission européenne pour l’efficacité de la justice avait déjà proposé une charte éthique européenne sur l’utilisation de l’IA dans les systèmes juridiques. Ce qui pose problème est l’opacité du fonctionnement de tout logiciel de deep learning, dont le principe est justement d'échapper à toute possibilité de représentation cognitive. Le deep learning est en effet une méthode d’IA basée sur un « apprentissage opaque » apprend d’elle-même en fonction de partis-pris de programmation (méthode, information de base, etc.). Il est impossible de savoir ce qui se passe précisément dans le programme, et on démontre que les apprentissages sont différents en fonction de données initiales différentes (sensibilité aux conditions initiales) et de la pratique (expérience) du programme. On peut par exemple craindre que des jugements initiaux soient moins pertinents que les suivants et qu’après un certains temps, les décisions convergent vers des bassins d’attraction, les rendant systématisées plus qu’individualisées.
Aucun commentaire:
Enregistrer un commentaire