Les grands acteurs du monde numérique, les GAFAMI, et autres acteurs des NBIC, les grandes sociétés industrielles de l’automobiles, de l’énergie, de l’aérospatiale ou du maritime investissent des centaines de millions de dollars dans des équipes de recherche, des laboratoires ou des start-up spécialisées dans le « deep learning » ou « apprentissage profond ». Le prestigieux prix Alan Turing a d’ailleurs été attribué cette année à Yann Lecun, Yoshua Bengio et Geoffrey Hinton pour leurs travaux sur le deep learning.
Cette approche de l'intelligence artificielle née des travaux initiaux sur les neurones formels de McCulloch et Pitts (1943) et du Perceptron de Rosenblatt (1957) repose sur l’imitation d’un réseau de neurones simplement organisés selon des règles issues des propriétés biologiques que ces éléments neuronaux présentent en eux-mêmes ou élaborent entre-eux (effet de seuil, activation excitatrice ou inhibitrice, rétropropagation, synapse de Hebb, etc.). On remarquera d’ailleurs que tous ces noms sont ceux de psychologues ou neurologues, sachant parfaitement quelles étaient les limites des modèles proposés. Cette imitation, en se prenant au sérieux, est d’ailleurs une horreur pour les neurobiologistes et psychologues, qui savent combien la complexité d’un seul neurone empêche encore à l’heure actuelle toute modélisation d’autant que celle-là doit être évolutive, non seulement en fonction de l’activité électrique (ce que le neurone formel produit comme « modèle réduit » du neurone naturel, comme pour jouer avec, comme avec une petite voiture, un train électrique ou un autre jouet pour les gamins, ados ou adultes nostalgiques), mais aussi des évolutions structurales de la membrane, des synapses, de la neurochimie, de la percolation avec les cellules supports de la neuroglie, astrocytes ou oligodendrocytes, et avec le contexte neurobioactif, pétri de neuromodulateurs, neurohormones, vascularisation, etc., tout cela dans un cerveau qui bouge, qui subit en même temps qu’il organise une chronobiologie régulant les équilibres et des temps d’activité ou de repos.
Il s’agit donc ici encore d’une analogie, au sens ou l’analogie, ça fait comme si c’était pareil alors que tout le monde sait que ça ne l’est pas du tout (voir là) ! Le neurone formel est un analogue plus qu’élémentaire et le réseau d’analogues est encore plus élémentaires qu’il; ne traite que des informations de nature électrique, elles-mêmes sombre imitation de la conséquence des phénomènes biochimiques qui leur donne l’aspect d’une naissance. On ne traite dans le deep learning que les effet de l’ombre d’un poteau en pensant qu’elle peut représenter l’image de l’ensemble des arbres d’une forêt, voire de tous les forêts, vergers et allées ombragées du Monde.
De là pourrait-on imaginer appliquer le principe du test de l’imitation de Turing (« imitation game »). Est intelligente la machine qui ne permet pas à un observateur humain de savoir s’il s’agit d’une machine ou d’une homme. Est intelligence artificielle, en tant qu’analogue de l’intelligence naturelle (voir le post sur les machines qui ne peuvent penser), ce qui réussit le test. Une intelligence artificiellement produite qui serait incapable de ne pas montrer une supériorité inhumaine serait disqualifiée.
Imitation game : Réussi parce que la machine fait ce que fait l’homme ; Perdu lorsque la machine fait bien ce que l’homme ne peut pas faire ou fait moins bien. Il s’agit alors d’un brevet d’artifice. Si l’intelligence considérée ne l’est pas, est-elle pour autant idiote ? Un test de Turing inverse montrerait qu’elle ne l’est pas. Mais alors, quelle essence à cette pseudo intelligence ? Le même problème se pose si on considère qu’un ascenseur est capable d’une bonne imitation de l’aptitude à monter les paquets d’un étage à l’autre. Et pourquoi pas, alors, un prix Nobel pour Roux et Combalusier ? Cela ne viendrait pas à l’idée.
Pourtant l'annonce du 3 janvier de Mark Zuckerberg, patron de Facebook, qui se donne pour objectif de « construire [par deep learning] une intelligence artificielle simple pour piloter la maison ou aider dans le travail » d’ici la fin de l’année, de l’investissement de Apple rachetant Perceptio, VocallQ et Emotient, de Elon Musk et de son pari sur la voiture intelligente, sur la fusée intelligente, sur l’hyperloop Intelligent, etc., de la course aux traductions automatiques sur téléphone mobile, de IBM qui rajout le DL à Watson dans sa version « cognitive business », montre la pertinence effective du deep learning à traiter des problèmes non directement résolubles.
Le mouvement est lancé, et l'apprentissage profond devient un fantastique outil « super intelligent » pour détecter et traiter les cancers, prévoir le climat, déterminer l’apparition précoce de la maladie d’Alzheimer, et jouer avec AlphaGo ou contre les champions de Starcraft 2. Mais comme Super Man n’est probablement pas un homme, super intelligent n’est peut-être pas humainement intelligent.
Aucun commentaire:
Enregistrer un commentaire