10 juin 2019

DIV : Clap de fin et renouveau à l’ENSC

Bernard Claverie, fondateur en 2003 de l’Institut de Cognitique (Université Bordeaux Ségalen), puis en 2009 de l’École Nationale Supérieure de Cognitique (Institut Polytechnique de Bordeaux - Bordeaux INP), seule école d’ingénieurs double compétence TIC-SHS et habilitée par la CTI, quitte sa direction en octobre 2019. Il laisse ainsi à un nouvel élu la destinée de cette école nationale des sciences cognitives appliquées à l’industrie et à la gestion des grands systèmes à risques impliquant des humains. 
Ancien directeur du laboratoire de Sciences Cognitives (EA 487), psychologue, physiologiste, professeur de classe exceptionnelle expert auprès de l’ANR, de l’HCERES, de la DGRI, et membre scientifique du réseau ADER de l’Armée de l’air, Bernard Claverie redevient enseignant-chercheur à l’issue de ce second mandat de direction. Spécialiste des questions bio- et psycho-cybernétiques, il rejoint l’équipe de recherche d’ingénierie cognitive de l’IMS (umr CNRS - Université de Bordeaux - IPB) pour y développer la cyberpsychologie, notamment pour les problématiques liées à l’IA et à l’augmentation de l’humain. 
Sa succession sera ouverte par la publication de la vacance du poste de directeur de l’ENSC et l’appel à candidatures, publiés cet été. L’élection par le conseil de l’ENSC s’effectuera en fin septembre prochain. Bernard Claverie promeut explicitement l’idée d’une continuité assumée, telle que la propose l’équipe de direction qui l’a accompagné pendant ces dernières années, en relation étroite avec les partenaires industriels et institutionnels qui ont participé au succès de l’entreprise ENSC.

01 juin 2019

REP : Michel Serres n’est plus ...

Philosophe, sociologue, académicien, systémicien, gascon truculent d’esprit comme de chair, Michel Serres vient de s’éteindre en cette fin de journée du 1er juin 2019. 88 ans de vie et encore plus d’ouvrages, contributions qui resteront des bases d’une future connaissance transdisciplinaire.
Dénoncés par les perpétuels  Sokal, Brickmon, les tristes sires du positivisme réductionniste et les nouveaux bien pensants de la qualité appliquée au savoir, il était tant apprécié du grand public et des jeunes, pour savoir faire partager une vision raisonnable et optimiste de la complexité du monde et des humains. Il a rejoint, lui clair d’esprit, ce soir, le panthéon de grands esprits.
Sur France Info, une chronique de Michel Polacco (ici). 

28 mai 2019

DIV : La « Team ENSC » en demi-finale de la Mars Society

Les élèves 1A de l’ENSC, conduits par le professeur Jean-Marc Salotti, ont candidaté au concours de la Mars Society : "Mars Colony Prize Competition". Le concours consiste à proposer le meilleur plan de conception d’une colonie martienne de 1000 personnes. Il est doté d’un premier prix de 10 000 $ d’un second prix de 5 000 $ et de 2 500 $ pour la troisième place. En outre, les 20 meilleurs articles seront publiés dans un ouvrage à paraître en 2020 et intitulé «Colonies de Mars: plans d’installation de la planète rouge».
La "Team ENSC", a été sélectionnée pour la demi-finale : 25 projets qualifiés dont un seul français. 
L’ENSC représente donc la France au côté d’équipes majoritairement  américaines (16), de 2 polonaises, et d’une équipe britannique, une japonaise, une suisse, une suédoise, une finlandaise et une israélienne.

11 avril 2019

DIV : l’ANORAA et ADER à l’ENSC pour aborder l’IA dans le C2 du futur.

Réunion commune de l’ANORAA Guyenne 
et d’ADER Nouvelle Aquitaine
ENSC - 11 avril 2019 - Bordeaux-Talence

IA et C2 air du futur ...


Les membres de la section Guyenne de l’ANORA (Association Nationale des Officiers de Réserve de l’Armée de l’Air) et ceux du réseau ADER (réserve citoyenne de l’Armée de l’Air) en Nouvelle Aquitaine se sont réunis le 11 avril 2019 sur le campus universitaire de Talence, à l’invitation de l’ENSC (École Nationale Supérieure de Cognitique) de Bordeaux INP.
Au programme, une journée d’études et d’actualisation des connaissances sur le rôle de l’Intelligence Artificielle dans les futurs systèmes de commandement et contrôle des opérations aérospatiales.

Après une présentation de l’ENSC, école partenaire de l’École de l’Air de Salon-de-Provence et du CEAM (Centre d’Expertise Aérienne Militaire) de Mont-de-Marsan, le Professeur Bernard Claverie, a introduit le concept de « Cognitique ». Cette science a pour objectif de mettre en œuvre les techniques du traitement des connaissances humaines par des ordinateurs. Comme l’informatique est la science du traitement automatique de l’information, la cognitique s’intéresse au traitement informatique d’un type particulier d’information : celle qui est créée, traitée ou transformée par les cerveaux humains, celle qui a un sens spontanée pour l’homme, et qui lui permet de vivre, de s’adapter, de connaître le monde et d’agir sur lui avec intelligence.
L’Intelligence Artificielle (IA) a quant à elle été présentée dans deux acceptions pratiques : d’abord celle d’une intelligence informatique, dotée de la toute puissance et des performances des machines modernes ; ensuite celle d’une intelligence humaine augmentée. Le but est de mettre à disposition d’opérateurs, de décideurs ou de simples usagers, la performance des machines pour amplifier, sécuriser et rendre plus efficaces les raisonnements, les décisions, les actes de la pensée humaine.

Ces fondements ont été éclairés par des applications au niveau du commandement et contrôle des opérations de sécurité militaire (C2), notamment dans sa « dimension air » qui nécessite rapidité, globalité et fiabilité des actions. Le général Gilles Desclaux, ancien commandeur des opérations aériennes, a présenté les principes du C2 et les originalités comparées des systèmes français et d’autres grands pays. Il a montré comment la notion d’Intelligence Augmentée est au centre du futur dispositif de la défense aérienne, combien l’IA est un enjeux de sécurité et d’indépendance nationale, et comment la recherche devient duale, militaire et civile, dans la maîtrise et la gestion des grands systèmes « à risque ».

Dans un troisième temps, une table ronde a réuni, autour du général Jean-Marc Laurent, titulaire de la chaire de Sciences Po Bordeaux « Défense et Aérospatial » des chercheurs de l’ENSC (Professeur Jean-Marc Salotti), de la DGA (Baptiste Prebot), de la Science and Technology Organisation de l’Otan (Hervé Le Guyader) et du Ministère de la Recherche (Professeur Benoît Le Blanc) autour des enjeux de l’IA pour la défense aérospatiale du futur. 

À l’issue, le public a pu visiter les installations de recherche et les simulateurs de vol et de C2 de l’ENSC.

02 avril 2019

IA : et Vive l'inintelligence artificielle.

Les grands acteurs du monde numérique, les GAFAMI, et autres acteurs des NBIC, les grandes sociétés industrielles de l’automobiles, de l’énergie, de l’aérospatiale ou du maritime investissent  des centaines de millions de dollars dans des équipes de recherche, des laboratoires ou des start-up spécialisées dans le « deep learning » ou « apprentissage profond ». Le prestigieux prix Alan Turing a d’ailleurs été attribué cette année à Yann Lecun, Yoshua Bengio et Geoffrey Hinton pour leurs travaux sur le deep learning.
Cette approche de l'intelligence artificielle née des travaux initiaux sur les neurones formels de McCulloch et Pitts (1943) et du Perceptron de Rosenblatt (1957) repose sur l’imitation d’un réseau de neurones simplement organisés selon des règles issues des propriétés biologiques que ces éléments neuronaux présentent en eux-mêmes ou élaborent entre-eux (effet de seuil, activation excitatrice ou inhibitrice, rétropropagation, synapse de Hebb, etc.). On remarquera d’ailleurs que tous ces noms sont ceux de psychologues ou neurologues, sachant parfaitement quelles étaient les limites des modèles proposés. Cette imitation, en se prenant au sérieux, est d’ailleurs une horreur pour les neurobiologistes et psychologues, qui savent combien la complexité d’un seul neurone empêche encore à l’heure actuelle toute modélisation d’autant que celle-là doit être évolutive, non seulement en fonction de l’activité électrique (ce que le neurone formel produit comme « modèle réduit » du neurone naturel, comme pour jouer avec, comme avec une petite voiture, un train électrique ou un autre jouet pour les gamins, ados ou adultes nostalgiques), mais aussi des évolutions structurales de la membrane, des synapses, de la neurochimie, de la percolation avec les cellules supports de la neuroglie, astrocytes ou oligodendrocytes, et avec le contexte neurobioactif, pétri de neuromodulateurs, neurohormones, vascularisation, etc., tout cela dans un cerveau qui bouge, qui subit en même temps qu’il organise une chronobiologie régulant les équilibres et des temps d’activité ou de repos.
Il s’agit donc ici encore d’une analogie, au sens ou l’analogie, ça fait comme si c’était pareil alors que tout le monde sait que ça ne l’est pas du tout (voir là) ! Le neurone formel est un analogue plus qu’élémentaire et le réseau d’analogues est encore plus élémentaires qu’il; ne traite que des informations de nature électrique, elles-mêmes sombre imitation de la conséquence des phénomènes biochimiques qui leur donne l’aspect d’une naissance. On ne traite dans le deep learning que les effet de l’ombre d’un poteau en pensant qu’elle peut représenter l’image de l’ensemble des arbres d’une forêt, voire de tous les forêts, vergers et allées ombragées du Monde.
De là pourrait-on imaginer appliquer le principe du test de l’imitation de Turing (« imitation game »). Est intelligente la machine qui ne permet pas à un observateur humain de savoir s’il s’agit d’une machine ou d’une homme. Est intelligence artificielle, en tant qu’analogue de l’intelligence naturelle (voir le post sur les machines qui ne peuvent penser), ce qui réussit le test. Une intelligence artificiellement produite qui serait incapable de ne pas montrer une supériorité inhumaine serait disqualifiée.
Imitation game : Réussi parce que la machine fait ce que fait l’homme ; Perdu lorsque la machine fait bien ce que l’homme ne peut pas faire ou fait moins bien. Il s’agit alors d’un brevet d’artifice. Si l’intelligence considérée ne l’est pas, est-elle pour autant idiote ? Un test de Turing inverse montrerait qu’elle ne l’est pas. Mais alors, quelle essence à cette pseudo intelligence ? Le même problème se pose si on considère qu’un ascenseur est capable d’une bonne imitation de l’aptitude à monter les paquets d’un étage à l’autre. Et pourquoi pas, alors, un prix Nobel pour Roux et Combalusier ? Cela ne viendrait pas à l’idée.
Pourtant l'annonce du 3 janvier de Mark Zuckerberg, patron de Facebook, qui se donne pour objectif de « construire [par deep learning] une intelligence artificielle simple pour piloter la maison ou aider dans le travail » d’ici la fin de l’année, de l’investissement de Apple rachetant Perceptio, VocallQ et Emotient, de Elon Musk et de son pari sur la voiture intelligente, sur la fusée intelligente, sur l’hyperloop Intelligent, etc., de la course aux traductions automatiques sur téléphone mobile, de IBM qui rajout le DL à Watson dans sa version « cognitive business », montre la pertinence effective du deep learning à traiter des problèmes non directement résolubles.
Le mouvement est lancé, et l'apprentissage profond devient un fantastique outil « super intelligent » pour détecter et traiter les cancers, prévoir le climat, déterminer l’apparition précoce de la maladie d’Alzheimer, et jouer avec AlphaGo ou contre les champions de Starcraft 2. Mais comme Super Man n’est probablement pas un homme, super intelligent n’est peut-être pas humainement intelligent.

IA - SHS : Nouvelle frontière franchie - la justice rendue par les machines.

La présidente de l'Estonie vient d'annoncer (selon Wired) son intention de confier le jugement des délits mineurs (dont les dommages sont inférieurs à 7 000 euros) à un système d’intelligence artificielle (IA). Ce système devra, dans un premier temps, se prononcer de manière  autonome sur la culpabilité d’un prévenu, sur le dommage subi et sur le montant de la peine. Le condamné aura la possibilité de faire appel devant un tribunal « humain » de deuxième instance, ou celui d'accepter la sentence, ce qui devrait être le cas dans un nombre significatif de cas et désengorger d’autant les tribunaux et permettant aux juges et greffiers de se consacrer au traitement des affaires plus complexes.
Une intelligence artificielle aura pour la première fois dans l'histoire de la justice la responsabilité autonome d’un jugement. Le principe de cette IA judiciaire a été développé par Ott Velsberg, directeur national des données en Estonie, et associera l’analyse des textes légaux, l’analyse des informations mises en ligne par les deux parties en conflit sur une plateforme dédiée, et les preuves, témoignages, allégations et informations personnelles concernant les parties. Là réside un second point qui peut être problématique, puisque ce principe est non conforme avec ceux de la RGPD européenne et pourrait engager à une justice prédictive avec une collecte préventive de données personnelles et les dérives de fichage qui seraient alors légalement justifiées par la commission potentielle de délits. La date de promotion de ce système est prévue pour la fin de l’année 2019.
Le premier et principal problème reste néanmoins celui, éternel, de la confiance dans la décision. En décembre 2018, un groupe de travail de la Commission européenne pour l’efficacité de la justice avait déjà proposé une charte éthique européenne sur l’utilisation de l’IA dans les systèmes juridiques. Ce qui pose problème est l’opacité du fonctionnement de tout logiciel de deep learning, dont le principe est justement d'échapper à toute possibilité de représentation cognitive. Le deep learning est en effet une méthode d’IA basée sur un  « apprentissage opaque » apprend d’elle-même en fonction de partis-pris de programmation (méthode, information de base, etc.). Il est impossible de savoir ce qui se passe précisément dans le programme, et on démontre que les apprentissages sont différents en fonction de données initiales différentes (sensibilité aux conditions initiales) et de la pratique (expérience) du programme. On peut par exemple craindre que des jugements initiaux soient moins pertinents que les suivants et qu’après un certains temps, les décisions convergent vers des bassins d’attraction, les rendant systématisées plus qu’individualisées.

14 février 2019

DIV : La motivation féminine pour les sciences et l'ingénierie.

Les filières scientifiques sont majoritairement choisies par les jeunes gens après le baccalauréat, et les jeunes femmes y restent minoritaires, sauf pour les filières des sciences de la santé, des sciences de la vie et des sciences humaines. Aussi, 75 % des élèves en classes préparatoires littéraires et seulement 30% de ceux des prépas scientifiques sont des femmes. Vingt cinq pour cent des diplômes d’ingénieurs délivrés en France le sont à des femmes.
Une hypothèse portant sur l’explication de cette différence concerne l’éducation et l’intériorisation des stéréotypes ; en effet, on sait que les représentations se forgeant très tôt dans l'enfance et sont confirmées durant l'adolescence. Notamment, la représentation d’une apparence « féminine » ou « masculine » est très tôt acquise chez les jeunes enfants. Celle de l’apparence du ou de la scientifique semble également tôt stabilisée.
Sans entrer dans un débat éthique qu’il conviendra pourtant d’avoir, certaines bonnes consciences pourraient imaginer tenter de résoudre ce décalage motivationnel entre filles et garçons pour des métiers scientifiques en proposant aux jeunes filles et des l’ecole des représentations valorisées associant les deux stéréotypes : féminité et  scientificité ou « girlie » et « scientist ».
Problème, les choses ne semblent pas aussi simples que ça !
Diana Betz et Denise Sekaquaptewa, de l'université du Michigan, ont testé (lien) l’hypothèse selon laquelle les représentations des jeunes femmes sont modifiées lorsque des exemples de stéréotypes à la fois féminins et scientifiques sont présentés tôt dans la scolarité. Dans leur étude de 2012, des élèves âgées d'environ 11 ans devaient lire une interview dans un magazine. Pour la moitié d’entre elles, des femmes interrogées dans l’article étaient brillantes en sciences (scientist) et associées à des photos très « girlie » (que les chercheurs paramètrent par la présence de maquillage, habits roses, revues de mode à la main). Les autres jeunes filles lisaient l’interview de femmes également douées en sciences, mais d’apparence peu stéréotypée (pas de maquillage, habits sombres, position stricte). Les résultats montrent que dans le groupe de jeunes filles exposées à la combinaison des stéréotypes scientifique et de féminité, ces jeunes filles se disent moins intéressées par les sciences, se jugent elles-mêmes moins compétentes et s’attribuent moins de chances de réussite que dans l’autre condition expérimentale. Et elles sont significativement moins nombreuses à s’imaginer faire des études en sciences plus tard. Ainsi la combinaison stéréotypée du succès et d’une apparence très féminine ne permet pas aux filles de s’identifier plus facilement ; c’est même le contraire.
En fait, deux stéréotypes sont en jeu (les sciences ne sont pas pour les femmes, et les femmes féminines n’ont pas leur place dans le domaine scientifique). L’etude montre que vouloir lutter à la fois contre les deux stéréotypes s’avère contre-productif. Etre « girlie » et « scientist » semble encore plus incongru aux filles que d’être simplement doué en sciences.
Nous sommes là devant un effet complexe d’interaction entre variables. En effet, lorsqu’il s’agit d’un domaine non scientifique, présenter des personnages correspondant ou non au stéréotype féminin n’a pas de conséquence négative sur l’identification des sujets aux modèles.
Force est donc de constater que l’image associant l’ingénieure ou la scientifique stéréotypée féminine pour susciter des vocations scientifiques chez les jeunes filles va à l’encontre de l’effet recherché et pourrait même être décourageante.
Betz, D., and Sekaquaptewa, D. (2012). My Fair Physicist? Feminine Math and Science Role Models Demotivate Young Girls. Social Psychological and Personality Science. DOI:10.1177/1948550612440735

29 janvier 2019

IA - SHS : Ouverture de la chaire IBM Sciences et Technologies Cognitiques à l’École Nationale Supérieure de Cognitique.

« Chaire IBM Sciences et Technologies Cognitiques »

Un partenariat entre IBM et l’ENSC (Bordeaux INP) a permis l’ouverture à l’École Nationale Supérieure de Cognitique d’une « chaire IBM Sciences et Technologies Cognitiques. »

Ce dispositif innovant, annoncé au salon NOVAQ 18, valorise quatre objectifs communs :
  • enraciner des initiatives pédagogiques sur l’Intelligence Artificielle pour former les ingénieurs aux enjeux et aux outils émergeant de « l'ère cognitive » ;
  • définir et mettre conjointement en œuvre des projets prospectifs pour le futur d'une IA  humaine ;
  • développer l'insertion professionnelle des ingénieurs diplômés de l’ENSC chez IBM ;
  • contribuer à un rayonnement mutuel dans différents réseaux et écosystèmes, et au développement de l'idée d'une approche scientifique concrète des dimensions humaines de l’IA.
Depuis décembre 2018, cette chaire est dirigée par Marc Rodier, leader de l'équipe globale IBM « Cloud services for managed application development », spécialiste de Watson et des solutions cognitives d'IBM, qui intervient et enseigne la stratégie « Cloud, Analytics, and Cognitive Science » dans différentes écoles d'ingénieurs et de management. 
Il anime les travaux en étroite partenariat avec la direction, les enseignants et les enseignants-chercheurs de l’ENSC.

À l’ENSC, et aux côtés :
  • de l’Institut tremplin « Carnot Cognition » géré par le CNRS, 
  • de la chaire « STAH » (Systèmes Technologiques pour l’Augmentation de l’Humain) portée par la Région Nouvelle Aquitaine, 
  • du laboratoire commun « HEAL » (Centre d’excellence d’Ingénierie Humaine pour l’Aérospatiale) partagé avec les entités de Thales AVS/DMS (Mérignac) et TRS (Massy-Palaiseau), 
  • du « Club des entreprises de l’ENSC », 
  • l’école renforce par cette chaire IBM son partenariat avec le monde du numérique et de l’Intelligence augmentée, partagée et éthique entre les humains et les systèmes technologiques du futur.
Renseignements, contacts : global@ensc.fr / +33 (0)557006700 - marc.rodier@ensc.fr

20 décembre 2018

IA : Pour une histoire naturelle de l’intelligence artificielle.

L’actualité et les succès informatiques de l’Intelligence Artificielle ainsi que les performances toujours plus spectaculaires des machines numériques, calculateurs et robots, amènent certains spécialistes de l’IA à la présenter et la faire considérer par le grand public comme un domaine spécifique, à part de ceux de la cognition ou de ses productions artefactielles. Ce statut singulier, qui mobilise les milieux socio-économiques comme les artistes et certains penseurs transhumanistes, ne peut pourtant pas être conçu sans référence à l’homme, à sa pensée et à sa puissance d’instrumentation, mais aussi et plus largement à sa place dans le monde du vivant. 
Bernard Claverie propose ici un article, dans le numéro spécial « Le devenir-cyborg du monde » de la revue « Figures de l’art »  (numero 35), coordonné par Bernard Lafargue et Bernard Andrieux, montrant comment la métaphore d’une IA toute puissante peut être ramenée au problème global de la valeur biologique des intelligences, et combien l’IA gagnerait à s’inscrire dans une vision intégrée, saine et évolutive de l’intelligence naturelle.
Lien de téléchargement de l’article (ici).

IA : Pourquoi les machines ne pensent pas.

Le projet des pionniers de l'intelligence artificielle (IA) était de vouloir « modéliser la pensée » pour pouvoir la connaître et la comprendre. Le principe était celui énoncé par Jean-Baptiste Vico selon lequel on ne connaît que ce que l'on crée, et donc que seul le créateur dispose de la connaissance de la création. C'était certainement oublier qu'il est alors facile de se prendre pour Dieu, ce que certains spécialistes de l'IA n'ont pas omis de faire. Et c'est ainsi que l'ambition a été de créer des machines intelligentes et de s'affranchir de la mission de connaissance pour aborder celle de faire. Mais que peut faire une machine intelligente, sinon de l'intelligence, et par là laisser croire qu'elle pense.
Si certains ne considèrent pas Philippe Dreyfus, mort l’été dernier à Biarritz dans l’indifférence générale, comme le père de l’informatique, c’est qu’ils ont oublié qu’il est le père du mot « informatique ». Avant lui, il y avait du calcul automatique, voire électronique, mais l’association des mots information et automatique fut en 1962 l’évènement qui nomma la discipline récente. Un peu, peut-être, comme si un créateur passant par là avait nommé Homme un singe que l’évolution darwinienne avait fait émergé comme pure « création » semantique.
Dix ans plus tard, un autre Dreyfus, Hubert, a montré en 1972 dans What Machine Can't Do  que les machines ne font qu'exécuter des règles abstraites, alors que la pensée humaine est fondée sur l'émergence de contenus mentaux, motivés par les ambitions, des espoirs, des projets, et tant de choses que les phénoménologiques regroupent sous le terme d'intentions. Cette notion d’émergence cognitive est l’une des bases de la pensée de Francisco Varela.
Turing avait déjà jeté un pavé dans la mare avec l'application du jeu de l'imitation aux machines. Ce jeu consistant pour une personne ne communiquant avec les membres d'un couple par des petits bouts de papier écrits, à deviner qui était l'homme et qui était la femme, en sachant que l'un et l'autre pouvaient imiter son partenaire. Il en fit une théorisation pour une machine versus un humain, et inventa le test de Turing. Celui-ci n'est rien d'autre que le moyen de la reconnaissance de l'intelligence à partir de la capacité d'analogie des productions de la machine avec celle de l'humain. Le problème de l’analogie est qu’il s’agit d’une assomption. On ne fait que considérer la similitude de comportement : "c’est comme si ça faisait pareil, mais on sait que ça ne fait pas pareil ... par contre les autres peuvent penser que c'est pareil". Ici, il faut rappeler deux dimensions spécifiques de l'analogie : ma croyance personnelle ou la croyance des autres. Si je fais "vroum vroum", je peux croire que j'ai une grosse voiture, et jouer à faire comme si j'avais une grosse voiture. Si j'ai une voiture qui fait "vroum vroum", les autres peuvent penser que c'est une grosse voiture, alors que je peux très bien savoir que c'est le résultat d'un tuning réussi sur une vieille cacugne. 
Appliquée à l’informatique, on peut caractériser deux catégories d'informaticiens qui déterminent deux formes d'IA. On peut imaginer une IA forte qui ambitionne de créer une vraie intelligence réalisée par des machines, et une IA faible circonscrite à des tâches spécifiques réalisant des briques d'intelligence plus ou moins efficace, mais satisfaisante pour les tâches considérées, analogues à l’intelligence humaine circonscrite à la tâche considérée. On rencontre alors ceux qui rêvent de remplacer le créateur, ou l’évolution, ou la nature, quel que soit le nom qu’on donne à ce qui motiverait ce qui est, et ceux qui tentent de résoudre des problèmes concrets, précis et circonscrits, avec le plus d'efficacité et de sérieux possibles, dans un jeu d’imitation partielle.

Or, si la discussion sur la globalité de l’intelligence ou l’existence d’une collection d’intelligences reste entière, celle de la pensée ne fait pas de doute. Une pensée ne peut qu’être globale, et toute tentative d’une décision d’une pensée partielle est une négation du concept même de la pensée. Donc, dans l’attente d’une éventuelle  IA forte, les machines ne pensent pas.

12 décembre 2018

SHS - TECH : Colloque FRACTURES à l'ENSC - 12-13 XII 2018

Colloque 
Ecole Nationale Supérieure de Cognitique
109 avenue Roul - 33405 Talence
(Tram B - Station Béthanie)

La question des inégalités numériques est une question de société majeure à l’heure où les environnements, activités, relations sont profondément marqués par une hyper présence des outils et services numériques. Le programme initié grâce à la Maison des Sciences de l'Homme d'Aquitaine (MSHA)  aborder cette problématique à partir des questions de l’accessibilité numérique et par rapport au public des personnes en situation de handicap (porteuses d'une déficience physique, sensorielle, cognitive…), des personnes âgées et d’une façon plus générale, de toutes personnes mises en situation de handicap.
Deux axes forts sont abordés pendant le colloque organisé à l'ENSC :
Accessibilité, handicap et communication dans les écosystèmes numériques
Dispositifs, expérimentations, usages : des dynamiques aux innovations.
Accès au programme : (lien ici).

IA - SHS : Journée "Justice et Intelligence-Artificielle" - ENSC Bordeaux

Le mercredi 12 décembre est organisé

à l'Ecole Nationale Supérieure de Cognitique 
109 avenue Roul, Talence (33405)
(station Béthanie du TRAM B)
14 heures - Petit amphithéâtre

un cycle de conférences/débats sur la problématique

"Justice et Intelligence-Artificielle".

  • Bernard Taillebot - 1er Vice Président TGI de Bordeaux
  • Thierry Wickers - Avocat au Barreau de Bordeaux
  • Marc Rodier - Titulaire de la Chaire IBM / ENSC Sciences et Technologies Cognitives
  • Hervé Le Guyader - Chargé de mission prospective et relations extérieures de l'ENSC

Seront débattues les questions du rôle, de l'intérêt, des limites, dangers et contraintes ainsi que des perspectives d'application de l'Intelligence Artificielle dans les domaines du Droit et de la Justice.
Les élèves ingénieurs de 3ème année de l'ENSC sont invités à ces débats ouverts qui accueillent également d'autres élèves, étudiants et jeunes ingénieurs diplômés.

10 décembre 2018

BIO - Cinq millions de génomes à séquencer.


2012, le National Health Service britannique lance le plan "Genomic England" visant au séquençage de 100 000 génomes.

2018, les chercheurs annoncent avoir atteint leur objectif, soit les génomes de 85 000 patients du National Health Service souffrant d’une maladie rare ou personnes apparentée à une personne atteinte de telles maladies, et de 15 000 génomes de cellules prélevées directement sur des tumeurs.
2023, l'objectif du NHS est le séquençage de  5 million de génomes, soit 10 fois plus de personnes.
Le but de ce projet de séquençage est de pouvoir diagnostiquer les personnes susceptibles de développer un cancer ou une maladie héréditaire. 
Pour rappel, le génome correspond à la séquence d’ADN unique de chaque individu, contenu dans les chromosomes du noyau de chaque (ou presque) cellule du corps. Aujourd’hui, le séquençage, c'est-à-dire l'identification de toutes les séries de lettres (les 3 millions de paires de nucléotides ou acides nucléiques composant l'ADN - A, T, C et G) constituant les gènes, peut être réalisé en moins de 48 heures pour quelques dollars (13 ans, de 1990 à 2003, pour 3 milliards de dollars du "Human Genome Project") à partir d'un simple prélèvement de tissus ou de fluide corporel (par exemple une simple prise de sang). Les performances des machines vont encore s'améliorer et il sera bientôt facile d'identifier ces inventaires génétiques complets de manière encore plus facile et moins chère.

30 novembre 2018

DIV : Inauguration de la 3ème tranche des bâtiments de l'ENSC.

Le vendredi 30 novembre 2018 a été inaugurée au 109, avenue Roul, 33400 Talence, la nouvelle extension (« troisième tranche ») de l’Ecole Nationale Supérieure de Cognitique (ENSC), membre de Bordeaux INP et de la Conférence des Grandes Ecoles.
Cette extension va permettre aux chercheurs et formateurs de l’école de travailler, avec ses partenaires industriels (Thales, IBM, Dassault …), sur de nouveaux projets associant Intelligence Artificielle, Big Data, pensée et comportement humains, dans une perspective de symbiose homme-système, notamment appliquée aux questions de C2 (Command and Control) et d’aide à la prise de décision en situation complexe.
Le traditionnel ruban tricolore, tenu par deux étudiantes de l’école, a été coupé devant plus d'une centaine de personnes par le Président Alain Rousset, président du Conseil Régional de Nouvelle Aquitaine, principal financeur de l’opération aux côtés de Bordeaux INP, en présence du Général Jean Rondel, commandant les Forces aériennes (CFA) et chef de la zone de défense du sud-ouest, du Professeur Dominique Rebière, DRRT, représentant le Préfet de région Nouvelle Aquitaine, de Marc Phalippou, directeur général de Bordeaux INP, de Jean-Louis Blouin, président du Conseil de l’ENSC et de son directeur, le professeur Bernard Claverie.
Sud-Ouest 8/12/18

On notait aussi la présence des représentants d’écoles d’ingénieurs partenaires de l’ENSC sur ces problématiques futuristes, dont l’ESTIA, l’ISAE, l'EnseirbMMK, l’Ecole de l’Air, l'Institut Mines-Télécom, et de nombreux industriels membres de l’écosystème de l’ENSC (Club des entreprises de l'ENSC, Thales, Dassault, EDF, Bertin, Cluster Aquitaine Robotics, Digital Aquitaine, etc.), des directeurs des laboratoires d'appui de l'école (Laboratoire bordelais de recherche en informatique - LaBRI, laboratoire Intégration Matériau-Système - IMS, Institut de mathématiques de Bordeaux - IMB, Inria Sud-Ouest), et de représentants de la communauté scientifique internationale rassemblée autour du panel "information systems technology" de l’Organisation pour la Science et la Technologie (STO-NATO). La cérémonie a eu lieu en présence des élèves ingénieurs, des professeurs et des représentant des services de la Région Nouvelle Aquitaine et de la municipalité de Talence.


--

24 octobre 2018

IA - BIO : Construtif - numéro spécial NBIC

« Constructif » est le « Laboratoire d'idées » de la Fédération du bâtiment, abordant les grandes questions posées à la société moderne. Constitué  en « espace de débat, d'analyse et d'échange d'expériences », il souhaite éclairer les cadres et les décideurs du monde du bâtiment dans leur réflexion sur les grandes questions du champ économique et social.


Le numéro 42, paru en novembre 2015, aborde la question des « nouvelles limites du vivant » et propose une série d’articles sur les NBIC. On y retrouvera un article sur « l’homme réparé ou augmenté - le prix de l’anormalité » (lien).

19 octobre 2018

DIV : un administrateur de l’ENSC à l’UIMM.

Nicolas Foucard (lien) directeur du site du Haillan de Ariane Group, représentait l’Union des Industries et Métiers de la Métallurgie, membre fondateur de l’école, alors Institut de Cognitique, au conseil d’école. Nicolas Foucard sera cette annee auprès du directeur de l’ENSC pour délivrer les diplômes des nouveaux ingénieurs de l’école, le 17 novembre 2018. En effet, les diplômes sont toujours délivrés en présence d’un représentant significatif du monde industriel. Cette année, la promotion Stephan Howking sera honorée de la présence de Nicolas.
Celui-là vient d’être élu président de l’UIMM Gironde-Landes lors de son assemblée générale du 19 octobre dernier, un mandat stratégique pour le développement socio-économique de la région, mais également pour l’avenir des diplômes de l’ENSC.
Bravo à Nicolas Foucard, L’école se réjouit et lui présente ici ses félicitations pour cette promotion.

18 octobre 2018

IA-SHS : Cybersécurité - le piégeage du Web par faille cognitive.

Le Typosquatting » est une technique toxique et très efficace de piégeage des utilisateurs du Web. Elle repose sur l’écriture d’un nom de domaine qui ressemble à un nom de domaine officiel ou privé connu par celui qui reçoit un message comportant un lien. Celui-là, en confiance, ouvre le lien ... ce que souhaite ke cyber pirate.
Cette nouvelle technique a fait l’objet de deux rapports (1) et (2) publiés en février 2018 par la société de sécurité informatique Menlo Security.
Le Principe du typosquatting repose sur le fait que notre cveraue est doté ed capciatés éotanntes moibilsant des procsesus proches ed la dysxelsie. Ces processus ont fait l’objet d’études scientifiques (lien) qui montrent que les mots sont spontanément lus par groupes de lettres.
Cette propriété est à la fois une performance et une faille. Ainsi, un pirate peut acheter des noms de domaine imitant des noms de site connus, ou envoyer un message mail avec le nom falsifié d’un correspondant habituel, la différence résidant dans un détail, par exemple une faute d’inversion de lettres (ENCS pour ENSC) ou d’utilisation d’un caractère non romain (@, &, €, etc.) ou non codifié de manière informatique classique (ç, ë, å, etc.). Loin d’être une erreur typographiques, la stratégie consiste en un leurre pour l’usager qui n’a ainsi pas conscience de s’être fait piéger.
Le typosquattage peut s’appuyer sur des noms qui mobilisent l’émotion de l’internaute, tels que « tresor-pubilc, mais aussi tresor-publics, tresar-public, tresor-public, etc. », ou « dircetion-ensc, direction-esnc, mais aussi direction-ėnsc, direčtion-ensc, directiøn-ensc, etc. ». Il peut consister en utilisation, élision  ou inversion de lettres (unviresite-bordeaux, unversite-bordeaux, etc.), en suppression ou ajout d’un tiret, d’un slash ou autre (universitebordeaux, universite_bordeaux, ou universite/bordeaux, pour universite-bordeaux), en utilisation d’accentuation orthographiquement correcte (université-bordeaux), ou en modification du code terminal (.tr pour .fr, .cam pour .com, .arg pour .org, etc.). L’important est que l’erreur soit efficace et que la victime n’en prenne pas conscience, ou trop tard. Une technique très efficace repose d’ailleurs sur l’étude statistique des erreurs de frappe récurrentes de l’internaute à piéger pour lui proposer des erreurs congruentes avec son propre handicap, ses habitudes ou sa personnalité cognitive.
Dans tous les cas réussis, la victime, pensant correspondre avec une personne, une société, un organisme typosquatté, est alors invitée à donner des informations personnelles ou confidentielles dans un processus de phishing (hameçonnage).

15 septembre 2018

DIV : Une chaire IBM à l'ENSC

Annoncée lors du salon NovAQ 2018, qui s'est tenu du 13 au 15 septembre 2018 au Hangar 14 du Port de Bordeaux, lors de l'interview que Nicolas Sekaki et Bernard Claverie, respectivement président de IBM France et directeur de l'ENSC, ont donné à TV7, une chaire industrielle IBM a ouvert à Bordeaux, au sein de l'Ecole Nationale Supérieure de Cognitique (lien). 
Ce partenariat entre IBM et l'ENSC valorise des objectifs communs aux deux partenaires :
- enraciner des initiatives pédagogiques sur l'IA pour former de manière certifiante aux enjeux et aux outils émergeant de l'ère cognitive ;
- définir et, le cas échéant, mettre conjointement en oeuvre des projets prospectifs en favorisant le transfert et l'application de connaissances ;
- développer l'insertion professionnelle des étudiants de l'ENSC chez IBM et la formation permanente des spécialistes de IBM à l'école ;
- contribuer à un rayonnement mutuel dans différents réseaux et écosystèmes, et au développement de l'idée d'une approche scientifique concrète des dimensions humaines de l'IA.
La chaire est dirigée par Marc Rodier, ingénieur diplômé de l'ENSEEIHT (EN7 - Toulouse INP) ; docteur (PhD) et "distinguished Engineer" et leader du groupe de recherche et développement "Cloud IBM Services for Managed Application" ainsi que membre de la "IBM Academy of Technology".
Marc Rodier, qui a pris ses fonction de directeur de la chaire en décembre 2018, est le leader de l'équipe "global architecture and development team in IBM",  spécialiste de Watson et des solutions cognitives de IBM, Marc Rodier intervient et enseigne la stratégie CAMSS (Cloud, Analytics, Mobile, Social and Security) dans différentes écoles d'ingénieurs et de management.
Contact : prénom.nom[at]ensc.fr
Voir les articles de "Boursier.com" (ici) ou de "Channel.news" (ici).

16 juillet 2018

IA : Intelligence artificielle explicable

Les applications d'IA envahissent le quotidien des hommes, que ce soit dans le domaine professionnel, le domaine de la vie privée, et même au delà, dans celui de l'intimité personnelle.
Le premier problème reste celui de la communication avec les outils de l'intelligence artificielle (UX), avant celui de la communication avec l'IA elle-même (KX) qui réserve de solides problématiques à la fois techniques et épistémologiques.
La DARPA a mis en œuvre un programme de recherche "CwC & XAI" qui aborde d'une part les dimensions UX du partage direct entre les personnes et les smart machines, et d'autre part qui valorise le partage de représentations propres à chaque catégorie de partenaires pour un partage en toute sécurité, robustesse et confiance. Ce programme est dirigé par David Gunning, à la fois expert en informatique et en psychologie.

UX : Communiquer avec les ordinateurs, ou la Communication with Computers (CwC).
Le domaine CwC dépasse le simple domaine des IHM (interfaces homme-machine), voire des IHS (intégration homme-système) de génération actuelle. Son ambition est de permettre une communication "symétrique" entre des personnes, expertes ou non, et les machines, dont les ordinateurs. La CwC est une forme d'IHS v2.0, pour laquelle les machines ne sont pas de simples récepteurs d'instructions ou émetteurs de réponses ou comportements  préprogrammés, mais de véritables collaborateurs capables de recourir et d'utiliser des modes spontanés de communication. On pense évidemment au langage naturel, dans ses désinences verbales ou écrites, mais également aux gestes avec l'haptique, à la compréhension des expressions faciales ou à celles des caractéristiques du regard ou de la motricité oculaire ...
La communication est ici comprise comme le partage de contenus cognitifs, représentations ou idées complexes mobilisées dans des contextes de collaboration. De telles idées complexes sont supposées être construites à partir de prototypes cognitifs variant de manière à être adaptés à chaque situation inattendue, non programmée, dans un registre ouvert de connaissances qui s'auto-enrichissent les unes les autres en fonction de l'expérience. C'est ainsi qu'à partir d'un nombre limité d'exemplaires représentationnels de départ, et notamment grâce aux caractéristiques d'un langage ouvert faisant place à l'analyse stochastique des ambiguïtés, peuvent émerger, se construire et se stabiliser des idées de plus en plus complexes.
Le recours à cette production émergente laisse une large part aux théories de la complexité et à celle de l'émergence, pour déboucher sur une forme d'intelligence artificielle capable d'exprimer des idées sur elle-même, c'est-à-dire de s'expliquer elle-même, d'expliquer ses "raisonnements", "représentations" et "décisions" à autrui, que celui-là soit humain ou machinique.

KX : la partage des connaissances ou l'Intelligence artificielle explicable (XAI).
Les succès des apprentissage par machine, apprentissage profond, décision automatique ... amène à un développement, au delà des interfaces CwC, à des applications d'intelligence artificielle (IA) de plus en plus rapide, robustes et autonomes. Ces systèmes sont capables de sentir, percevoir (c'est-à-dire associer des sensations à des représentations internes), se représenter (tenir des inventaires de correspondances congruents entre les éléments et situations réels et ceux représentés au sein des machines comme chez les personnes humaines. Ces apprentissages s'inscrivent dans des activités mnémoniques pour lesquelles les différents registres qualitatifs de mémoires rencontrent les masses de données qui peuvent être traitées dans le cadre du Big Data. Dans ce contexte, les machines sont capables de très rapidement et avec un taux d'erreur très faible de décider et le cas échéant d'agir dans des délais proches de l'immédiateté. 
Ces dépassements des simples capacités humaines engendrent la création de machines autonomes, dont le contrôle éventuel ne peut être fait qu'à postériori, dans des temps compatibles avec ceux de la lenteur de l'appareil serveur et/ou cognitif humain.
C'est là que se pose le problème du blocage de l'efficacité des systèmes par l'impossibilité que l'homme a de faire confiance à la machine. On connait ce type de situation dans le domaine du véhicule autonome et encore plus dans celui des SALA (systèmes d'armes létales autonomes) avec lesquels le respect de la vie humaine peut être engagé. La seule solution est une forme d'apprentissage collaboratif, partenarial, de l'homme et de la machine, dans laquelle la machine est capable d'expliquer à l'homme le sens de ses décision et les limites de son autonomie ; ce que ne savent pas faire les machines actuelles. 
De tels systèmes symbiotiques (HAT pour Human-Autonomy Teaming) nécessitent une Intelligence Artificielle capable de s'expliquer, et donc "explicable". C'est tout l'enjeu de la "confiance" dans les machines décisionnelles ou de contrôle, dans un projet global d'intégration bidirectionnelle des hommes et des machines, de type XAI.

25 juin 2018

IA : IBM et la nano-informatique

La société IBM championne de la miniaturisation avec la conception du plus petit ordinateur du monde (lien). Celui-là mesure 0,3 millimètre de côté, de la taille d’un grain de gros sel, et peut donc tenir dans la pointe d’un grain de riz. Il est composé d’un processeur, de mémoire vive, d’une cellule photovoltaïque et un émetteur/récepteur Led pour la communication et sa programmation,
Le dispositif est alimenté par la lumière à la fois po puis ce qui est de l’apport en énergie et la réception des données. Ce nano ordinateur sert de capteur de température en convertissant les températures sous forme d’impulsions électroniques, recueillies au niveau d’un groupe précis de cellules vivantes. Les applications potentielles sont dans le domaine de l’oncologie, mais on lui voit déjà d'autres applications potentielles en santé humaine ou vétérinaire (contrôle des conditions d’élevage), mais également pour la surveillance technologique des composants vidéo et/ou audio, dans la lutte contre la cybercriminalité ou dans celle de la contrefaçon.

03 avril 2018

DIV : Introduction aux sciences humaines et sociétales

INTRODUCTION AUX SCIENCES HUMAINES ET SOCIÉTALES

par Jean-Claude Sallaberry & Bernard Claverie.

Éditions de L'Harmattan (Paris), collection "Cognition et Formation", 3 avril 2018.

L'idée directrice de cet ouvrage est celle d'une évidence pourtant encore discutée aujourd'hui. Les sciences humaines et sociétales ne peuvent plus ne pas s'inspirer de l'évolution de la science du XX et XXIe siècle. Loin de se vouloir exhaustif, quatre grands "évènements" sont choisis en tant qu'exemples marquants de cette exigence :
- le mouvement structuraliste, qui amène à la théorie des systèmes,
- l'apparition de la physique quantique, qui a radicalement boulversé bien des conceptions admises dans l'explication du monde,
- la complexité, qui ouvre les perspectives de l'auto organisation et de l'émergence.
Au fil de l'ouvrage, face aux "exigences" pour la modélisation qui découlent de ce souci de prise en compte, l'outillage fourni par les ensembles théoriques convoqués (théorie de l'institution, théorie des systèmes, cognitique, théorie de la représentation associée à une théorie du champ...) et retravaillés par les auteurs, permet d'y répondre, ainsi que de donner quelques outils pour la modélisation des "phénomènes" humains et sociétaux.

Broché, ISBN : 978-2-343-14357-6, 214 pages

11 mars 2018

BIO - SHS : Ne pas dire "non" est une histoire de dégoût ou d'autorité.

Vous savez dire non ? Vous avez de la chance ! Certains en sont incapables...
Pourquoi donc certaines personnes peuvent affirmer leur désaccord et d'autres pas ? C'est la question que se sont posée des scientifiques du laboratoire de neurosciences sociales de l'Institute of Cognitive and Clinical Neurosciences de la Monash University (Melbourne), et de l'école de psychologie de l'University du Queensland (St Lucia) en Australie.
Les scientifiques, qui ont publiés leurs résultats dans Frontiers in Human Neuroscience, ont tenté de trouver une explication à ce phénomène bizarre : pourquoi certaines personnes ne peuvent-elles littéralement pas dire "non" ou entrer dans une forme d'opposition à autrui ? Ils ont étudié par imagerie par résonance magnétique fonctionnelle (IRMf) les zones du cerveau en activité chez des patients souffrant d'un trouble léger consistant à ne jamais oser affirmer leur opinion propre et à adopter systématiquement celle des autres. Que se passe-t-il lorsque on leur demande toutefois de se forcer à se dépasser et à imposer leur pensée en déclarant leur propre opinion contradictoire ?
Les régions les plus stimulées dans une telle condition expérimentale sont apparues au niveau du cortex préfrontal médian, supposées impliquées dans le langage, la mémoire de travail, et le raisonnement. Mais, à la différence des témoins, une autre zone est concernée : le cortex insulaire qui est stimulé à ce moment-là. Il correspond à un territoire dont l'activité est habituellement associée au dégoût, à la dépendance et qui semble impliquée dans les processus de prise de conscience. Ces deux régions interagissent chez les patients et provoquent un stress intense. Ainsi, lorsqu’une personne qui ne sait ou ne peut pas dire non est amenée à refuser une opinion, son cerveau génère un message d’anxiété, et elle se comporte comme si elle ne se sentait pas autorisée à penser par elle-même. Les personnes souffrant de ce problème se retrouvent alors dans une situation critique, car elles se sentent obligées d’être conformes à ce que pensent les autres, y compris à l’encontre de leur propre intérêt, ce dont elles ont néanmoins conscience.
De toute façon, être en désaccord n’est jamais une partie de plaisir, et ne facilite pas les bonnes relations sociales… Mais encore moins pour ces personnes qui, selon les chercheurs, se retrouvent en situation de "stress mental intense", dans une situation difficile et anxiogène. La solution, pour elles, serait alors de fuir les situations dans lesquelles elles risqueraient d'entrer en désaccord. Ou bien, l'idéal trouvé par certains est encore plus efficace : obliger les autres à adopter leurs idées.

BIO : Le cerveau n'est pas ce qu'il était ... pour les symbolistes, et encore moins pour l'IA.

Le débat n’est pas nouveau. Les psychologues s’écharpent depuis toujours pour l’adoption des modèles interprétatifs du fonctionnement de la pensée. À l’époque de Freud, l’hydraulique donnait les outils de comparaison avec les volumes, les pressions, les équilibres instables entre des volumes d’essences et de densités différentes. Vint l’époque des électrons circulant dans des câbles, celle les étincelles, et des différences entre les électricités statique ou circulante (attention ! il s’agit de l’interprétation du monde par les psychologues, pas par les physiciens). La physique quantique permit l’émergence de nouveaux modèles que vinrent encore plus compliquer ceux de la physique relativiste. La notion d’émergence eut récemment son heure de gloire, avant d’être balayée par le Graal de la psychologie cognitive : l’ordinateur.
En fait, ce n’est malheureusement pas l’ordinateur tel qu’on peut ici le penser, à la fois outil, moyen et objet d’étude de l’informatique. L’Albion est par définition perfide ; et les adeptes des chapeaux royaux imposent leur loi au reste du monde que les collaborateurs de la mondialité s’empressent d’adopter et surtout d’imposer : l’anglais. Outre-Manche, on parle de computer et de computation, c’est-à-dire de calcul. Et voici la cognition réduite à quelques opérations supportées par un organe imaginé comme une machine.
Cela aurait été injuste de poser là une forme de réductionnisme strict. Le génial Turing inventa une machine virtuelle : elle était à la fois le papier, la machine, le calcul et la mémoire… un peu comme s’il était impossible de séparer des choses qui, en fait, n’en sont pas vraiment, des choses. Certains autres génies se réunissaient outre-Atlantique pour donner naissance à la cybernétique, et certains d’entre eux inventaient, pour imiter la machine de Turing, les calculateurs selon l’architecture Von Neumann : un calculateur œuvrant sur des données électriques selon les itérations d’un programme rythmé par une horloge. On n'avait pas assez insisté sur le fait que c'était « pour faire comme si c'était ... ». Le plus grand pouvoir de l'analogie est de se faire oublier.
Et voilà que les psychologues avaient un modèle « concret » d’une idée jusque là parfaitement « abstraite »… un peu comme si Freud avait vraiment imaginé qu’il y avait de l’huile, de l’eau ou d’autres fluides dans la tête… et l’ordinateur devint le modèle du cerveau, et le programme celui de la pensée.
Autant une machine de Turing universelle (et donc virtuelle) est capable d’imiter toute autre machine de Turing, et par voie de conséquence tout ordinateur fonctionnant, autant elle ne simule aucune machine éteinte ni aucun programme non implémenté. Ce sont les deux en mouvement qu’elle simule, ou les deux volets simultanés de la même chose. Elle s’affranchissant de la ségrégation absurde du calcul, de l’information, de la mémoire, du langage de programmation et de l’horloge… toutes ces choses que nos amis électroniciens rendent séparément de plus en plus puissantes, performantes, séduisantes, merveilleusement imitantes.
Alors, pourquoi tant d’argent pour localiser l’administrateur central de Baddeley, la boucle audio-phonatoire ou le calepin visuo-spatial ? Pourquoi rechercher le neurone miroir de la carotte, du visage de sa mère ou de la bouteille de bière ? Pourquoi tant de psychologues formés à l’utilisation de ces modèles ségrégationnistes des éléments de la pensée, en oubliant son incarnation dans un corps d’humeurs, d’hormones, d'os et de viande soumise à la logique de l’humidité ? Les émotions et le cerveau humide… nous voilà bien loin d’une machine virtuelle dessinée au crayon sur un papier sec. D’autant que… le crayon doit être gras, et plus il l’est, plus il marque, et que le papier s’il est très sec part en poussière. Les choses ne sont donc, même pas là, aussi tranchées qu’elles pourraient le paraître.
Alors que penser de l’IA, cette intelligence artificielle dont tant et tant de spécialistes nous disent qu’elle va supplanter l’intelligence naturelle, la renvoyant aux oubliettes des choses obsolètes. C’est un peu comme si l’on avait prédit la disparition du corps humain et sa substitution par des vérins hydrauliques… et en avoir peur, c’est un peu comme si l’on craignait les locomotives qui font. Elles aussi, beaucoup mieux que le corps humain, en restant toutefois sur des rails, car à côté d’eux, elles ne font pas grand-chose.
Tel est l’avenir de l’intelligence artificielle : elle fera de grandes choses qui aideront les hommes, les rendront plus rapides, plus performants, plus puissants, plus intelligents… mais ne les remplaceront pas… Elle remplacera des métiers, fera beaucoup de chômeurs, enrichira encore plus les mêmes, ou d’autres… fera beaucoup de bonheur pour les uns, de malheur pour les autres, et peut-être fera émerger de nouveaux sentiments, transformera des passions et fera vivre les hommes de manière différente, meilleure ou pire selon le point de vue adopté. Mais pourquoi tirer les sonnettes d’alarmes, faire sonner le glas de la fin de l’humanité par l’IA ? C’est un peu comme si l’on avait craint que les locomotives allaient écraser toute l’humanité. La force n’est pas dans le vérin, le piston ou la bielle, comme l’intelligence n’est pas dans la machine. Ils ne font qu’imiter en mieux certaines parties artificiellement décomposées de ce que certains croient être des éléments d’intelligence.
Ainsi se posent deux problèmes : celui de la confusion entre le calcul et l’intelligence, et celui de la singularité. Prenons celle-là : si c’est pour dire que les machines feront des choses que les cerveaux ne peuvent faire, c’est déjà fait ; plus vite, mieux, de manière plus fiable, et sans être obligé de dormir, de se reposer, de ne pas boire ou de conduire. Si c’est pour craindre qu’elles fassent des choses que nous ne comprendrions plus, c’est également déjà fait. Si c’est pour imaginer qu’elles peuvent s’autonomiser, pourquoi pas. Mais si c’est pour penser qu’elles vont faire la même chose que l’homme ou les autres animaux, leur cerveau doté de leur pensée, alors il est probable que l’on se mette le doigt (qu’elles n’ont pas) dans l’œil (qu’elles n’ont pas non plus). Comme le pensent Miguel Nicolelis et Ronald Cicurel : « The Singularity is not near », tout au moins, pas celle qu’on fantasme.
Comme quoi, on peut être pour un transhumanisme rationnel, scientifique, éthique, et dédramatiser le débat dans lequel veulent nous faire tomber certains alarmistes catastrophismes. Nous ne sommes pas sortis du danger de l’holocauste nucléaire, de celui des viroses ou des atteintes bactériennes, de celui de l’impact d’un astéroïde destructeur ou du réveil d’un super volcan. Il est certain que l’IA va aussi compliquer les choses… 
Mais pourquoi toujours se faire peur en donnant un monde sans espoir à nos enfants… ce n’est pas de la faute à l’intelligence artificielle, mais bien aux limites de la pensée naturelle,  empreinte dans ses méandres irrationnels (voir ici).