18 mars 2016

DIV : Pour une "Université du Futur" en Aquitaine.

Souhaitée par le Président du Conseil Régional d'Aquitaine et annoncée lors de sa dernière campagne électorale pour la Région Aquitaine-Limousin-Poitou-Charentes, l'Université du futur en Aquitaine doit permettre de doter la région d'un dispositif de recherche, formation et transfert, sensibilisation citoyenne et ouverture au monde concernant les révolutions numériques. Il s'agit d'une urgence stratégique absolue.
Nous passons à une vitesse inconcevable d’un ancien monde, semblant immuable et régi par les régularités, à un nouveau monde de plus en plus numérique, et auquel la plupart des citoyens ne comprend plus rien, dans un écart entre méfiance absolue et abandon dans une confiance totale aux politiques, économistes et scientifiques. Donner une vision panoramique du nouveau monde, en débattre, créer des vocations et permettre à chacun de mieux anticiper l’avenir, en mobilisant les forces vives pour l'avenir digital seront les principales missions de « l’Université du Futur en Aquitaine ». Cette structure à inventer devra notamment contribuer à transformer les menaces des technologies de rupture en opportunités de développement scientifiques et économiques, et donc en création de richesse et d’emplois.
L'urgence : face à un tsunami technologique qui submerge le monde, la première vague numérique a été surfée par les GAFA (Google, Amazon, Facebook, Apple) américains, une seconde voit le réveil de la Corée du Sud, l'avance du Japon et d'autres grands majors de l'IA, des biotechnologies et de l'hybridité. L’Europe est en retard. Elle doit se mobiliser pour aborder les vagues suivantes. l'une d'elles est celle des NBIC (Nanotechs, Biotechs, Infotechs, Cognotechs). Il y va de son avenir, de son indépendance, ou… de son déclin.
Le défi est immense. Orienter le destin de tous, jeunes et moins jeunes, mais aussi générations futures, à long terme, revient au politique. Pour l'heure, son monde reste sourd aux alertes et aux souhaits d'un monde scientifique en alerte, qui voit l'avenir s'inventer sur les bords américains du Pacifique, en Asie du sud-est ou dans quelques pays dont on ne sait parfois pas trop grand-chose. À l’instar des initiatives des géants du numérique, des instances de la défense américaine, des firmes chinoises, japonaises et coréennes, les spécialistes des NBIC colonisent le cybermonde. On connaît les 1400 milliards d’euros de valorisation des GAFA, mais on ignore aussi les avancés plus discretes de la robotique et de la cobotique, celles de l'intelligence artificielle, de la génétique ou des nanotechnologies dans la transformation du monde, la transformation de l'homme, la transformation de la biosphère, et bientôt celle de l'espace.
Face à un tel déferlement, et malgré l'ignorance des élites politiques et le quasi-analphabétisme technologique des citoyens, il convient d'urgence de donner à chacun les moyens de ses choix, aux scientifiques ceux de la recherche et aux entreprises ceux de la compétitivité pour aborder l'avenir en position dominante, ou pour le moins non dominée. Face à l'actuelle mainmise du marché du numérique par les géants américains, à la captation de valeur et au déclin de l'économie européenne, il faut réinventer un moyen d'aborder les nouvelles frontières en valorisant les meilleurs cerveaux, notamment en les gardant, sans qu'ils ne fuient vers les côtes californiennes ou de l'est américain. ce sera dans l'échange, et le rééquilibrage que l'avenir peut se construire, pour retrouver une Europe qui a créé l’aéronautique, l’électricité, la chimie, l’auto, le téléphone et le cinéma, et qui abandonne le numérique et son implication sur le vivant, y compris sur le statut génétique même de l'homme, à l'étranger, sans contre-pouvoir, sans compétition, sans alternative autre que le clientélisme ou la soumission.
Dans le cadre d'une rupture de la distanciation, l’ “Université du Futur en Aquitaine” pourra former, informer et susciter ces débats philosophiques et technologiques, organiser la réponse scientifique et économique, promouvoir l'entreprise, les écoles d'ingénieurs et les laboratoires. Faire tomber les frontières, alors que de vieilles barbes discutent encore des différences entre SHS et TIC, des limites jusqu’ici établies entre vivant et non biologique s'estompent. La naissance de l’intelligence “non biologique”, pas seulement celle qui bât les joueurs de Go ou pose des diagnostics médicaux, trouve aujourd'hui des ouvertures dans l'hybridité, dans la biologie de synthèse, dans l'intrication homme-système, dans l'autonomie d'êtres virtuels et pourtant dont les actes et conséquences d'actes sont bien réels.
Derrière les NBIC, il y a des mutations économiques qui se profilent, avec Google et Apple constructeurs de voitures, fournisseurs de santé, et bientôt peut-être d'implémentation de la pensée.
J'ai vécu les époques où l'on niait la possibilité de la suprématie artificielle sur les jeux d'intelligence alors que le dernier vient de tomber, celle de l'impossibilité du décodage du génome aujourd'hui possible à quelques dollars, de l'hybridité artificielle dans la reproduction de la vie, frontière elle aussi tombée l'an passé, la possibilité des robots amoureux, des voitures autonomes, du terrorisme numérique, etc. La poursuite de l'autisme politique et scientifique n'est plus tenable. Le choc idéologique à négocier d'urgence sera moins douloureux que celui de l'asservissement des peuples ou même de leur disparition au profit des seuls technologues américains, asiatiques, ou pire, religieux.
Face à cette bombe sociale, économique, de civilisation, les positions acquises disparaissent, comme Kodak au profit des téléphones. Ceux qui n’ont pas saisi les opportunités de la compétition universelle du futur numérique sont probablement, sans le savoir, déjà d'un autre siècle.
L'Université du Futur, c'est une chance de recoller à l'avenir, de développer les orientations stratégiques et mélangées, scientifiques, culturelles, technologiques, économiques, pour s'inscrire dans le futur en marche. En s'appuyant sur les forces vives de la région, les clusters, les pôles de compétitivité, les lycées, les écoles d'ingénieurs, les universités, sur les étudiants et scientifiques, sur les entreprises et les laboratoires, sur les systèmes de santé, industriel et de défense, sur les associations culturelles et sociétés savantes ... toutes les volontés et les intérêts sont à mobiliser. L'Université du Futur en Aquitaine est l'opportunité de donner à la région la dimension de leader dans la compétition européenne pour son avenir, son indépendance et le pleine réalisation des ses citoyens pour une vie qui, que l'on le veuille ou non, sera numérique.

17 mars 2016

IA : La Corée du Sud dans les starting-blocks de l'Intelligence Artificielle.

Jeudi 17 mars 2016 - Séoul. 
A l'issue de la série de matchs qui a opposé le champion du monde de Go Lee Sedol et la machine AlphaGo de Google (voir ce blog), le gouvernement sud-coréen a annoncé son intention de faire de la Corée du Sud  un des pays majeurs de l'Intelligence Artificielle. Face aux multiples critiques publiques contre le gouvernement dans le fait que la Corée du Sud reste un outsider dans la préparation de la 4eme révolution industrielle, celui-là a annoncé officiellement un investissement de 1 milliard de Won (quelque 760 millions d'euros) dans le but de stimuler l'industrie de l'IA en Corée d'ici 2020.
Les firmes Samsung LG Electronics, SKT, KT, Naver, Hyundai seront de la partie avec un investissement de 3 milliards de Won chacune.
Au programme, un centre de recherche pour la R&D de l'IA, commun avec ces majors de l'électronique, de l'informatique, de l'industrie... 
Pour ce qui est des chiffres, le marché mondial de l'intelligence artificielle a été estimé à 165 milliards de dollars US en 2016. La Corée du Sud n'y représente que moins de 3,5%. L'entreprise consiste donc à doter le pays des moyens de hisser la Corée du Sud à un niveau international de compétitivité, et comme l'espère les dirigeants sud coréens, juste derrière, voire au niveau des leaders américains.
Lien : Wonhap News Agency (ici).

IA-DIV : Formation Cobotique des enseignants et chercheurs de l'ENSC

Deux journées d'apprentissage avec les deux nouveaux cobots de l'école. Ces jeudi 17 et vendredi 18 mars 2016, les experts de Aerospline CRAM (Coopérative Robotics for Aerospace Manufacturing) sont venus former les enseignants, chercheurs et doctorants de l'ENSC.
Deux bras articulés collaboratifs "Universal Robots" UR3 viennent d'entrer dans la plateforme technologique de l'ENSC.
Trois objectifs et projets : (1) Ouvrir la formation d'ingénieurs et la formation continue (DU cobotique) à la cobotique effective avec des projets autour de l'hybridité anthropotechnique; (2) Développer les transversalités vers les axes d'excellence UX et KX; (3) Donner à l'ENSC une visibilité en cobotique, au même titre que l'intégration homme-système (IHS) dans les cockpits des avions et automobiles, le command and control (C2) dans la gestion de crises et la simulation organisationnelle, le bio-monitoring et les brain-computer interfaces (BCI), l'accessibilité des technologies, l'intelligence artificielle (IA) collaborative et partagée, l'aide au handicap et les TIC-santé, etc.
De belles perspectives pour nos futurs ingénieurs et diplômés de l'ENSC Bordeaux INP.

15 mars 2016

IA : More than Moore - la Loi de Moore revisitée.

C'est officiel ... pour le moins pour les scientifiques.
Dans un article publié le mois passé dans "Nature" (ici), Mitchell Waldrop, éditeur de la revue et spécialiste de l'IA et des sciences de la complexité, annonce une rupture fondamentale avec la "Loi de Moore" dans la conception des microprocesseurs.
Depuis quelque cinquante ans, le développement des composants électroniques répond à un principe selon lequel leur nombre se multiplie régulièrement sur chaque puce pour chaque période temporelle. Cette loi, dite "Loi de Moore", décrivant ce développement exponentiel a subi plusieurs adaptations. Une version "Moore v1.0" est initialement publiée en 1965, prévoyant le doublement des semi-conducteurs sur les chips tous les 12 mois (x2<->1 an). La version "Moore v2.0" de 1975 dispose qu'un doublement des transistors est prévu tous les 2 ans (x2<->1,96 an). Enfin, une version plus générale "Moore v3.0", en 1992, s'accorde sur un doublement de n'importe quelle caractéristique (puissance, capacité, vitesse, fréquence…) tous les 18 mois (2<->1,5 an) avec la "feuille de route" de la « Semiconductor Industry Association » (SIA). On le voit, le développement est expansif et illimité, abordant rapidement des vitesses de développement de plus en plus faramineuses.
Pourtant, cette loi n'est plus adaptée aux générations d'objets connectés. On aborde donc une nouvelle adaptation, une version 4.0 que l'on désigne par l'expression « more than Moore ».
Les microprocesseurs de cette époque nouvelle consomment déjà moins d'énergie et intègrent de multiples capteurs. Ils contiendront bientôt d'autres éléments structuraux tels que des puces GPS, de la mémoire vive d'inspiration biologique, des puces Wi-Fi ou autres destinées à la communication des objets entre eux, des gyroscopes, accéléromètres, boussoles ou même sextants. L'époque est aux "puces hautement intégrées". Cette évolution révolutionne la loi de Moore en ce sens qu'elle apporte des propriétés bien plus importantes qu'un processeur deux fois plus rapide que le précédent pourrait le faire. Ce principe est défini dans l’« International Technology Roadmap for Semiconductors » (ITRS) de 2013. L'histoire de cette modification trouve sa source dans deux contraintes majeures.
La première débute en 2000 quand il devient évident qu'une "mise à l'échelle géométrique" qui correspond à la réduction de la taille des composants pour avoir plus de transistors sur une même surface, touche à sa fin. Les modifications techniques imposées aux composants pour leur faire suivre la loi de Moore amène en 2011 à passer à la conception 3D de transistor en silicium de 22 manomètres (1nm=10^^-9m). Émergent alors plusieurs types de problèmes inhérents d'une part à la taille des transistors par rapport à la longueur d'onde qui les parcourt, et d'autre part à la chaleur produite par rapport à la fréquence du processeur. Des constructeurs se voient obligés de repousser leur conception des transistors de taille inférieure. Ainsi Intel qui prévoyait des tailles de 10nm en 2016 se voit contraint de les annoncer au mieux pour la fin 2017. Avec un tel décalage, la limite physique de 2 ou 3 manomètres ne serait pas atteinte avant 2020.
La seconde contrainte est celle de la "Loi de Rock". Celle-là postule que le coût de conception et de fabrication d'une nouvelle puce double tous les quatre ans. Or la logique de l'exponentiel impose très rapidement des coûts prohibitifs.
Pas d'autre solution que de changer de logique, et c'est ce qu'à fait l'ITRS en adoptant dès 2014 une feuille de route hors loi de Moore, dans une logique du « more than Moore » pour l'Internet des objets. Cette profonde mutation vient d'être officialisée par la publication de "Nature" (lien).

13 mars 2016

BIO-SHS-IA : Est-il intelligent de penser que l'IA a quelque chose à voir avec l'Intelligence ?

L'histoire a commencé avec Spearman et Binet. Au début du siècle dernier, la science s'écrivait encore aussi en Français. en Allemand, en Russe, en Italien ou en Espagnol. L'Anglais était même parfois évité pour correspondre à une forme de culture rigoriste qu'évitaient encore autant que possible des gréco-romains dont le but et l'espoir sont souvent de s'arranger de la complexité.
Outre manche, Charles Spearman recherchait alors le moteur "pur" de l'intelligence, constitué d'un "facteur G" (G pour intelligence "générale"), dont dépendraient les différentes aptitudes de l'homme. Spearman était un psychologue anglais notoirement connu pour ses méthodes statistiques. Son analyse factorielle a pour but de dégager des facteurs sous jacents d'un ensemble de données d'observation. Par conséquent ces données, dont celles des différents comportements, sont conçues comme issues de facteurs cachés explicatifs de la variabilité humaine : tel est le cas du facteur G ou facteur général d'intelligence qui sous-tendrait pour l'anglais les performances et les tâches intellectuelles.
Alfred Binet proposait quant à lui avec Théodore Simon, une mesure de l'intelligence à partir de toutes un fatras de données de base évoluant en fonction de l'âge (âge mental) et variant pour certains en fonction du milieu socioculturel : expression orale, écrite et caractères graphologiques, aptitude au calcul, au raisonnement (notamment à propos des suites) et à la représentation géométrique, données biologiques et céphalométriques, etc. L'intelligence est alors conçue comme émergente de ses composantes, multicritères, évolutive et surtout relative ; elle s'exprime en pourcentage par rapport à des normes d'âge et de moyennes socioculturelles. Binet s'attachait ainsi à souligner les influences sociales, physiques et évolutives. Des interprétations rapides, notamment par certains ergonomes, psychométriciens et naturalistes américains, feront paradoxalement de l'échelle du QI composite de Binet un "Q test", instrument de sélection, d'élitisme, voire d'exclusion et de racisme.
Les approches étaient alors top-down (descendantes) d'un côté de la Manche, et ascendantes (bottom-up) du côté sud. S'opposaient une conception d'une intelligence théorique structurant les aptitudes des Anglais et celle d'un ensemble de performances des Français synthétisées dans un coefficient global qu'on aurait souhaité réservé à la détection et l'aide des fragilités, à l'orientation vers des procédures d'adaptation ou de rattrapage et au respect des différences de chacun.
Ces deux orientations culturelles et opposées, l'une d'une essence "pure" dont dépendent les diverses aptitudes implémentées chez chacun, l'autre globalisant les aptitudes constitutives des personnes, ont longtemps été discutées puis testées par les psychologues expérimentalistes. Ainsi Louis Thurstone ou Joy Guilford semblent se rassembler autour d'un modèle analytique dans lequel le système cognitif est composé d’aptitudes indépendantes les unes des autres. Parallèlement, John Carroll, Raymond Cattell et John Horn ont développé chacun sur d’autres bases des modèles qui a été récemment généralisés sous l'acronyme "CHC" (pour Cattell-Horn-Carroll), à l'origine d'un test devenu une référence des principales échelles d’intelligence.
Au tournant du siècle, on a assisté à un rapprochement entre ces deux conceptions avec des modèles hiérarchiques de l’intelligence, dont le modèle en trois strates de Carroll. Selon lui, des aptitudes élémentaires se combinent en fonctions de plus grande étendue qui contribuent à l’intelligence générale. Cette pyramide voit une base d'une trentaine de capacités spécifiques, telles celles de raisonnement, de mémoire visuelle ou auditive, la fluidité des idées, l’aisance numérique, la maitrise du vocabulaire, etc. Un deuxième étage réunit huit grands facteurs comme l’intelligence fluide ou logico-mathéamtique caractéristique de capacités de raisonnement et de logique indépendantes des apprentissages, et comme l’intelligence cristallisée ou verbale basée au contraire sur des connaissances ou des capacités acquises. Sont également convoquées la mémoire, la vitesse de traitement de l’information qui elles sont à la fois gérées génétiquement et modulées par l'expérience. Ces facteurs de deuxième étage supporteraient quant à eux le sommet de la pyramide : le fameux facteur G d’intelligence générale. Il serait alors une combinaison entre rapidité à traiter l’information et capacité à la concentration pour la gestion d'un problème s'étayant sur les aptitudes sous jacentes.
À côté de cette intelligence particulièrement dépendante des aptitudes logico-mathématiques et verbales que privilégient les systèmes scolaires, de la sélection et du travail, d'autres approchent tentent heureusement d'enrichir le débat au-delà des jugements de valeur autour de termes très connotés d'intelligence, de surdoué, d'imbécillité ou de débilité. Elles appellent des notions de performance dans des domaines variés qui mobilisent des aptitudes exécutives, flexibles, de contrôle et de vitesse de traitement ou de raisonnement. Les chercheurs de la psychologie expérimentale, cognitive, différentielle, sociale ou culturelle, ceux des neurosciences, de la neuropsychologie et du handicap neurologique, les psychanalystes, les sociologues, les linguistes ont développé d'autres conceptions de l'intelligence, mesurable ou non, mais qui émerge progressivement d'aptitudes et d'expériences et de la construction progressive du cerveau qui s'exprime dans la confrontation à la complexité du monde extérieur comme intérieur. L'affinement des définitions, la multiplicité des mesures, le développement des recherches sur l'intelligence naturelle ont ainsi fait avancer les concepts. On a alors étudié l'intelligence des oiseaux, des rongeurs, des singes, et chez l'homme celle des bébés qui se constitue dans le rapport à la mère et à l'environnement, des enfants et adolescents qui se construit dans l'intégration et l'opposition au monde, l'intelligence du sportif, du danseur ou du musicien, celle du peintre ou de l'architecte, du militaire ou du manageur, de l'artisan ou du journaliste. Ces notions d'intelligence variées n'ont plus qu'un lointain rapport avec de simples "processus supérieurs" encapsulée dans des échelles strictes de jugement, d'attention, de mémoire. Elles privilégient l'adaptation, et convoquent des notions plus floues telles que celle de recrutement du cortex préfrontal, de mobilisation des connectomes cérébraux, de contribution des composantes du langage, des contraintes de la mémoire de travail, et surtout d'aptitudes à la "métacognition". Homo "sapiens sapiens" est l'homme "qui sait qu'il sait". Son intelligence est de savoir construire la sienne. Une telle construction émerge en fonction de stratégies qu'il sait mobiliser, adopter ou éviter, orienter ou mettre en œuvre avec plus ou moins de bonheur, de maturité et de sûreté, pour s'adapter à des modifications environnementales qu'il maîtrise sans pour autant les définir ou même parfois en avoir une pleine conscience.
Au-delà de cette puissance conceptuelle de la métacognition, la critique des modèles statiques a permis l'arrivée de modèles dynamiques. Le développement de l'intelligence prend du temps. Jean Piaget a ainsi montré la nécessité de développement par des stades qui traduisaient une modification dynamique des structures opératoires loin du modèle d'intelligence brute, factorielle, et du fantasme anglo-saxon du facteur général d'intelligence. Aujourd'hui, on s'intéresse à la diversité des processus d'apprentissage et des cultures, mais aussi à la "plasticité cérébrale" et au développement de modules cérébraux qui s'interconnectent en réseaux ou en sous-systèmes dynamiques, complémentaires, substitutifs les uns des autres, de la vie fœtale aux dernières heures de la vie des personnes de plus en plus âgées. Cette expression d'aptitudes auto-organisées est dépendante de celle de gènes interagissent entre eux en fonction du milieu et de l'expérience de la confrontation d'un individu "vicariant" à un milieu naturel, psychosocial ou culturel de plus en plus enrichi et dans lequel le numérique est omniprésent.
Au plan psychodynamique, l'intelligence est également conçue comme confrontation permanente et complémentarité réitérée entre d'une part les dimensions multisources telles que précédemment définies et d'autre part la personnalité. Celle-là est faite de préférences cognitives, d'émotions et d'affects stabilisés mais chaque jour réévalués. Chaque homme, pour l'avoir vécu, sait l'importance de ces dimensions affectives sur la mise en œuvre, la conduite, la fiabilité ou même la faillite du raisonnement. Ainsi certains neuropsychologues tels Antonio Damasio ou des psychanalystes s'intéressent-ils d'une part à l'existence d'une "cognition chaude" et d'autre part à la finalité d'une "pensée plaisir" plus orientée vers la récompense que la performance. On voit donc que l'intelligence est multidimensionnelle, et la réduire à la performance est bien preuve de son absence. Les aptitudes et compétences d'abstraction logico-mathématiques et verbales ont été balayées par des auteurs récents. Howard Gardner a par exemple, au contraire, montré leur dépassement dans un ensemble complexe et difficilement formalisable et réductible à de simples équations.
Et l'IA, là-dedans. C'est bien le problème. Certains informaticiens, qui n'ont souvent lu que des chiffres et quelques phrases en Anglais, ont retenu évidemment l'intelligence figée, celle de Spearman ou des échelles de CHC. Ils ont donc construit un projet automatique autour de cette définition obsolète pour doter les machine d'une forme calculatrice Le projet s'est structuré vers le Graal d'une intelligence "pure", avec le désir de la performance, mais aussi celui de la compétition qui en découle souvent. On a donc vu fleurir des IA qui ont permis de résoudre différents jeux dits d'intelligence, dont ceux de boules, le jeu de dame, le jeux d'échec, et maintenant, le Go. Reste le Poker, mais là, c'est connu, ça finira au révolver.
Bien sûr qu'il est idiot de vouloir être plus performant qu'une machine, que ce soit un régulateur de vitesse, un pilote automatique de bateau ou d'avion, de vouloir conduire mieux qu'une Google car, ou dépasse tout autre système artificiel intelligent. Mais quand ça va mal, chacun souhaite qu'il y ait un pilote dans l'avion ou dans la cabine du tgv. Ce qui veut bien dire que la définition de l'intelligence artificielle joue un petit peu sur l'écart référentiel à celle de l'homme. Les machines seront un jour, peut-être, aussi intelligente que les hommes, pour tout et dans tous les domaines, en s'appropriant les expériences des passés comme l'espoir et la conscience de l'avenir, mais ce sera alors l'intelligence d'un homme artificiel. Pour l'instant, ce n'est qu'une somme d'outils, comme des marteaux, de règles à calcul, des ordinateurs, des robots compagnons, ou des systèmes Internet. Il leur manque une caractéristique fondamentale de l'intelligence humaine : la vie.
On peut à ce propos revenir à une définition plus globale et biologique de l'intelligence, en ramenant son expression au meilleur moyen de favoriser et donc de transmettre un patrimoine génétique : la sexualité. Elle commence avec le choix des partenaires, leur séduction, l'échange des gamètes, la grossesse et sa protection, l'écoulement et l'élevage des lignées descendantes, la constitution d'un havre de paix chez les nidicoles, la famille, la tribu et autres artifices sociaux de protection des enfants, de valorisation des parents et de respect des aïeuls. Le plus intelligent est celui qui survit et fait survivre sa lignée, sa famille, et donc celui qui se reproduit. C'est donc celui qui sait, peut ou pourrait négocier au mieux la survie de ses gènes au-delà de sa propre existence. Tout le reste ne serait que des stratégies d'intelligence qui accompagnent le génome dans sa poursuite millénaire. Pour cela il faut évidemment savoir parler, calculer, mais être puissant et séducteur, avec la force, l'art, l'humour, les études, le niveau social… Toutes ces stratégies de contour que l'individu essaye de mettre en œuvre pour survivre, pour lui ou sa descendance, sont guidées par un principe dual majeur : la motivation et le plaisir, la recherche du renforcement positif... En définitive, l'intelligence ne serait-elle pas qu'une question d'espoir et de bonheur ?