02 avril 2019

IA : et Vive l'inintelligence artificielle.

Les grands acteurs du monde numérique, les GAFAMI, et autres acteurs des NBIC, les grandes sociétés industrielles de l’automobiles, de l’énergie, de l’aérospatiale ou du maritime investissent  des centaines de millions de dollars dans des équipes de recherche, des laboratoires ou des start-up spécialisées dans le « deep learning » ou « apprentissage profond ». Le prestigieux prix Alan Turing a d’ailleurs été attribué cette année à Yann Lecun, Yoshua Bengio et Geoffrey Hinton pour leurs travaux sur le deep learning.
Cette approche de l'intelligence artificielle née des travaux initiaux sur les neurones formels de McCulloch et Pitts (1943) et du Perceptron de Rosenblatt (1957) repose sur l’imitation d’un réseau de neurones simplement organisés selon des règles issues des propriétés biologiques que ces éléments neuronaux présentent en eux-mêmes ou élaborent entre-eux (effet de seuil, activation excitatrice ou inhibitrice, rétropropagation, synapse de Hebb, etc.). On remarquera d’ailleurs que tous ces noms sont ceux de psychologues ou neurologues, sachant parfaitement quelles étaient les limites des modèles proposés. Cette imitation, en se prenant au sérieux, est d’ailleurs une horreur pour les neurobiologistes et psychologues, qui savent combien la complexité d’un seul neurone empêche encore à l’heure actuelle toute modélisation d’autant que celle-là doit être évolutive, non seulement en fonction de l’activité électrique (ce que le neurone formel produit comme « modèle réduit » du neurone naturel, comme pour jouer avec, comme avec une petite voiture, un train électrique ou un autre jouet pour les gamins, ados ou adultes nostalgiques), mais aussi des évolutions structurales de la membrane, des synapses, de la neurochimie, de la percolation avec les cellules supports de la neuroglie, astrocytes ou oligodendrocytes, et avec le contexte neurobioactif, pétri de neuromodulateurs, neurohormones, vascularisation, etc., tout cela dans un cerveau qui bouge, qui subit en même temps qu’il organise une chronobiologie régulant les équilibres et des temps d’activité ou de repos.
Il s’agit donc ici encore d’une analogie, au sens ou l’analogie, ça fait comme si c’était pareil alors que tout le monde sait que ça ne l’est pas du tout (voir là) ! Le neurone formel est un analogue plus qu’élémentaire et le réseau d’analogues est encore plus élémentaires qu’il; ne traite que des informations de nature électrique, elles-mêmes sombre imitation de la conséquence des phénomènes biochimiques qui leur donne l’aspect d’une naissance. On ne traite dans le deep learning que les effet de l’ombre d’un poteau en pensant qu’elle peut représenter l’image de l’ensemble des arbres d’une forêt, voire de tous les forêts, vergers et allées ombragées du Monde.
De là pourrait-on imaginer appliquer le principe du test de l’imitation de Turing (« imitation game »). Est intelligente la machine qui ne permet pas à un observateur humain de savoir s’il s’agit d’une machine ou d’une homme. Est intelligence artificielle, en tant qu’analogue de l’intelligence naturelle (voir le post sur les machines qui ne peuvent penser), ce qui réussit le test. Une intelligence artificiellement produite qui serait incapable de ne pas montrer une supériorité inhumaine serait disqualifiée.
Imitation game : Réussi parce que la machine fait ce que fait l’homme ; Perdu lorsque la machine fait bien ce que l’homme ne peut pas faire ou fait moins bien. Il s’agit alors d’un brevet d’artifice. Si l’intelligence considérée ne l’est pas, est-elle pour autant idiote ? Un test de Turing inverse montrerait qu’elle ne l’est pas. Mais alors, quelle essence à cette pseudo intelligence ? Le même problème se pose si on considère qu’un ascenseur est capable d’une bonne imitation de l’aptitude à monter les paquets d’un étage à l’autre. Et pourquoi pas, alors, un prix Nobel pour Roux et Combalusier ? Cela ne viendrait pas à l’idée.
Pourtant l'annonce du 3 janvier de Mark Zuckerberg, patron de Facebook, qui se donne pour objectif de « construire [par deep learning] une intelligence artificielle simple pour piloter la maison ou aider dans le travail » d’ici la fin de l’année, de l’investissement de Apple rachetant Perceptio, VocallQ et Emotient, de Elon Musk et de son pari sur la voiture intelligente, sur la fusée intelligente, sur l’hyperloop Intelligent, etc., de la course aux traductions automatiques sur téléphone mobile, de IBM qui rajout le DL à Watson dans sa version « cognitive business », montre la pertinence effective du deep learning à traiter des problèmes non directement résolubles.
Le mouvement est lancé, et l'apprentissage profond devient un fantastique outil « super intelligent » pour détecter et traiter les cancers, prévoir le climat, déterminer l’apparition précoce de la maladie d’Alzheimer, et jouer avec AlphaGo ou contre les champions de Starcraft 2. Mais comme Super Man n’est probablement pas un homme, super intelligent n’est peut-être pas humainement intelligent.

IA - SHS : Nouvelle frontière franchie - la justice rendue par les machines.

La présidente de l'Estonie vient d'annoncer (selon Wired) son intention de confier le jugement des délits mineurs (dont les dommages sont inférieurs à 7 000 euros) à un système d’intelligence artificielle (IA). Ce système devra, dans un premier temps, se prononcer de manière  autonome sur la culpabilité d’un prévenu, sur le dommage subi et sur le montant de la peine. Le condamné aura la possibilité de faire appel devant un tribunal « humain » de deuxième instance, ou celui d'accepter la sentence, ce qui devrait être le cas dans un nombre significatif de cas et désengorger d’autant les tribunaux et permettant aux juges et greffiers de se consacrer au traitement des affaires plus complexes.
Une intelligence artificielle aura pour la première fois dans l'histoire de la justice la responsabilité autonome d’un jugement. Le principe de cette IA judiciaire a été développé par Ott Velsberg, directeur national des données en Estonie, et associera l’analyse des textes légaux, l’analyse des informations mises en ligne par les deux parties en conflit sur une plateforme dédiée, et les preuves, témoignages, allégations et informations personnelles concernant les parties. Là réside un second point qui peut être problématique, puisque ce principe est non conforme avec ceux de la RGPD européenne et pourrait engager à une justice prédictive avec une collecte préventive de données personnelles et les dérives de fichage qui seraient alors légalement justifiées par la commission potentielle de délits. La date de promotion de ce système est prévue pour la fin de l’année 2019.
Le premier et principal problème reste néanmoins celui, éternel, de la confiance dans la décision. En décembre 2018, un groupe de travail de la Commission européenne pour l’efficacité de la justice avait déjà proposé une charte éthique européenne sur l’utilisation de l’IA dans les systèmes juridiques. Ce qui pose problème est l’opacité du fonctionnement de tout logiciel de deep learning, dont le principe est justement d'échapper à toute possibilité de représentation cognitive. Le deep learning est en effet une méthode d’IA basée sur un  « apprentissage opaque » apprend d’elle-même en fonction de partis-pris de programmation (méthode, information de base, etc.). Il est impossible de savoir ce qui se passe précisément dans le programme, et on démontre que les apprentissages sont différents en fonction de données initiales différentes (sensibilité aux conditions initiales) et de la pratique (expérience) du programme. On peut par exemple craindre que des jugements initiaux soient moins pertinents que les suivants et qu’après un certains temps, les décisions convergent vers des bassins d’attraction, les rendant systématisées plus qu’individualisées.