03 octobre 2019

DIV : Derniers diplômes.

Derniers diplômes signés dans cet exercice de direction. 
Cinq jours avant la fin du mandat, clos le 7 octobre 2019 
(7 octobre, tiens-tiens !!! -> 64 ans pour en arriver là ...).

04 août 2019

DIV : que font 8/2.4 ?

Les mathématiques sont elles solubles dans la personnalité de l’informaticien ? Telle peut être posée la question à propos de celle qui anime une communauté d’internautes à propos de la question : Quelle est la solution de «  8 / 2 x 4 » ?
Est-ce a = (8/2) x 4 ou est-ce b = 8 / (2x4) ?
Dans les pays anglo-saxons deux règles sont utilisées. BODMAS* donne la priorité aux parenthèses, puissances, divisions, multiplications, additions puis soustractions. PEMDAS** qui suit le même ordre de priorité, mais inverse divisions et multiplications
BODMAS (utilisée par les calculatrices Texas Instruments ou par la calculatrice de Apple ou par celle en ligne de Google) donne alors (a = 16).
PELDAS (utilisée par exemple par les machines Casio) donne (b = 1).
Mais alors, la confiance dans la machine doit-elle s’affranchir de celle du choix de la programmation, et donc de l’éducation, de la culture et de la certitude de celui qui a conçu le programme ?
Si le résultat est celui qui détermine votre salaire en fin de mois, entre 1M€ et 16M€, on a, à peu près, la gamme des revenus des français. Mais que dire si le calcul s’applique sur une coefficient de freinage de votre voiture, ou au calcul de la dose médicamenteuse qui doit sauver votre enfant ?
Le calcul mécanique est certes contraint par les mathématiques, mais également par les choix du programmeur, sa culture, ses certitudes ... et la prétention de certains exécutants des basses œuvres arithmétiques à savoir ce qui est bien pour les autres est insupportable. Notre soumission à cette catégorie qui pense pouvoir régir le monde n’est pas moins dangereuse.
* brackets, order, division, multiplication, addition, substruction.
** parenthesis, exponents, multiplication, division, addition, substruction.
Voir le site : https://www.quora.com/What-is-8-2x4

28 juillet 2019

DIV : Introduction à l’épistémologie et à la méthode de recherche.

INTRODUCTION À L'ÉPISTÉMOLOGIE ET À LA MÉTHODE DE RECHERCHE


A l'usage des ingénieurs et autres scientifiques de l'industrie

Préface de Jean-Claude Sallaberry


L'activité de recherche, qu'elle soit fondamentale ou appliquée, est l'une des dimensions du travail des ingénieurs et des scientifiques de l'industrie. 

Souvent confrontés à des problématiques complexes, ils se doivent d'y apporter des réponses concrètes, efficaces et argumentées, de prendre les décisions rationnelles et parfois d'éclairer les décideurs sur les choix les plus conformes aux critères de vérité scientifique. 

Il est alors parfois utile de revenir aux bases de la pensée scientifique moderne et l'épistémologie et la méthode en sont deux pierres d'achoppement.

Éditions de l’Harmattan, collection Cognition et Formation : Broché - format : 15,5 x 24 cmISBN : 978-2-343-17567-6 • 23 juillet 2019 • 222 pages 
Commander ici.

25 juin 2019

SHS : Les juges et l’interprétation de la science.

Le Big Data correspond à la fois (1) à un ensemble de données massives issues d’observations ou de descriptions d'éléments ou d’ensembles d'éléments du monde, et sur lesquelles peuvent porter des techniques scientifiques permettant le traitement de ces données, (2) à l’ensemble de ces techniques et outils utilisés afin de décrire des structures sous-jacentes à ces données, et (3) à l’attitude intellectuelle qui consiste à considérer l’existence de telles structures plus ou moins cachées sous ces données comme explicatives de l’organisation du monde. Cette attitude constitue une partie récente de la science statistique, elle-même partie des mathématiques appliquées, qui a pu se développer grâce au déluge des données mises à disposition et qui peuvent être stockées grâce à des mémoires magnétiques de plus en plus puissantes, et traitées grâce aux progrès combinés des algorithmes et des moyens du calcul automatique.
L’un des principes du Big Data repose sur l’absence d’a-priori quant à la sélection des données en entrée. Filtrer consiste pour certains théoriciens à commencer à transformer les résultats et donc à manipuler les résultats potentiels des analyses ainsi biaisées : c’est-à-dire commencer à fausser la représentation du monde ! 
La France vient de prendre une décision bizarre en la matière. En effet, les principes juridiques consacrés par la Loi imposent que des décisions de justice soient rendues publiques avec les noms des juges concernés. Elles ne sont donc pas anonymisées. Mais, et c’est là le paradoxe, une nouvelle Loi (2019-222 du 23 mars 2019) vient pourtant limiter l’utilisation de données issues de cette publication des décisions de justice. En effet, leur analyse statistique à visée rétrospective ou prospective, doit être anonyme, donc filtrée. Et toutes personnes, y compris les scientifiques, mathématiciens, sociologues, psychologues, criminologues, etc., sont passibles de cinq ans de prison s’ils utilisent les données publiques qui permettraient de produire des informations (cachées) concernant tel ou tel juge !!! Or le principe du Big Data est justement qu’on ne sait pas ce que l’on va trouver. 
L’article 33 de la Loi « dispose » (comme disent ces juges) que « Les données d'identité des magistrats et des membres du greffe ne peuvent faire l'objet d'une réutilisation ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. ». Au delà du cas des juges franco-français, et on peut comprendre que le législateur ait souhaité les protéger, on renvoit l’obligation d’anonymisation de données publiques, publiées par un organisme public, au scientifique ... 
Cette position est inquiétante, car le législateur impose ni plus ni moins de fausser les analyses en inventant de fait une nouvelle classe de data : celle qui est interdite au scientifique, Autrement dit,   comme aux meilleurs temps de l’obscurantisme où le juriste dictait la science, on impose au scientifique de modifier les données.
Mais alors, que va alors donner la jurisprudence ? En effet, le principe constitutionnel d’égalité des citoyens (et les juges ne sont pas des citoyens supérieurs) impose donc, de fait, d’interdire toute démarche analytique prédictive portant sur des données publiques identifiées. La porte est désormais ouverte pour que l’on limite ainsi les techniques dites d’analytics pour quiconque, y compris les experts, pilotes ou médecins, voire les clients ou les malades ... 
Tout cela va grandement compliquer les choses dans nombre secteurs en interdisant que l’identité publique de toute personne soit utilisée, et cela quelle qu’en soient les fins, prédictives, de qualité, de sécurité, de sûreté, de prévention ou de santé. Comment alors utiliser le bigdata pour l’amélioration de l’expérience client ou usager, pour l’optimisation de la performance opérationnelle, pour la diversification ou l’adaptation clinique ou pédagogique, etc.
Enfin, tout cela en France, car de l’autre côté de la frontière, aux USA, en Chine ou ailleurs, les analyses pourront être faites, ce qui pose alors le problème de l’internationalisation de la science.
Bref, la boîte de Pandore est ouverte, et cela par une décision hautement scandaleuse, prise peut-être  en toute bonne foi.

24 juin 2019

DIV : Préparer la succession de direction de l'ENSC.

La succession s'organise (lien) pour préparer une rentrée sans à-coups (lien).
L'ouverture des candidatures aux fonctions de directeur de l'ENSC est officiellement ouverte par la publication de l'Arrêté du Directeur général de l'Institut Polytechnique de Bordeaux (Bordeaux INP) auquel est rattachée l'école d'ingénieurs de cognitique (voir l'arrêté : lien).
L'élection par le Conseil d'école aura lieu le 23 septembre 2019, parmi les candidats qui auront déposé leur profession de foi (avant le 30 aout, midi), pour une prise de fonction le 8 octobre 2019, pour un mandat de cinq ans, renouvelable une fois.

D'ici là, l'activité et le dynamisme de l'ENSC continuent pour accueillir les 80 jeunes élèves issus des prépas généralistes scientifiques pour le CCINP (20 élèves - ex Concours commun polytechnique) et le concours GEIDIC (10), des cycles préparatoires des INP (10) et de l'Université de Bordeaux (10), et du concours spécifique sur titre pour les élèves (30) issus des IUT (GE2I, Informatique), Licences professionnelles, Licences MASS ou Sciences cognitives et Masters des différentes universités françaises. Un exemple d'ouverture et de diversité des origines thématiques pour une interdisciplinarité au fondement même des études, de la recherche et de la valorisation en ingénierie cognitique.

La recherche se confirme autour des laboratoires et chaires d'adossement : IMS (UMR 5218) et IMB (UMR 5251), laboratoire HEAL avec Thales, chaire STC d'IBM et Carnot Cognition ; la valorisation se poursuit avec le club des entreprises de l'ENSC, en partenariat avec les pôles de compétitivité et clusters de Nouvelle Aquitaine.

10 juin 2019

DIV : Clap de fin et renouveau à l’ENSC

Bernard Claverie, fondateur en 2003 de l’Institut de Cognitique (Université Bordeaux Ségalen), puis en 2009 de l’École Nationale Supérieure de Cognitique (Institut Polytechnique de Bordeaux - Bordeaux INP), seule école d’ingénieurs double compétence TIC-SHS et habilitée par la CTI, quitte sa direction en octobre 2019. Il laisse ainsi à un nouvel élu la destinée de cette école nationale des sciences cognitives appliquées à l’industrie et à la gestion des grands systèmes à risques impliquant des humains. 
Ancien directeur du laboratoire de Sciences Cognitives (EA 487), psychologue, physiologiste, professeur de classe exceptionnelle expert auprès de l’ANR, de l’HCERES, de la DGRI, et membre scientifique du réseau ADER de l’Armée de l’air, Bernard Claverie redevient enseignant-chercheur à l’issue de ce second mandat de direction. Spécialiste des questions bio- et psycho-cybernétiques, il rejoint l’équipe de recherche d’ingénierie cognitive de l’IMS (umr CNRS - Université de Bordeaux - IPB) pour y développer la cyberpsychologie, notamment pour les problématiques liées à l’IA et à l’augmentation de l’humain. 
Sa succession sera ouverte par la publication de la vacance du poste de directeur de l’ENSC et l’appel à candidatures, publiés cet été. L’élection par le conseil de l’ENSC s’effectuera en fin septembre prochain. Bernard Claverie promeut explicitement l’idée d’une continuité assumée, telle que la propose l’équipe de direction qui l’a accompagné pendant ces dernières années, en relation étroite avec les partenaires industriels et institutionnels qui ont participé au succès de l’entreprise ENSC.

01 juin 2019

REP : Michel Serres n’est plus ...

Philosophe, sociologue, académicien, systémicien, gascon truculent d’esprit comme de chair, Michel Serres vient de s’éteindre en cette fin de journée du 1er juin 2019. 88 ans de vie et encore plus d’ouvrages, contributions qui resteront des bases d’une future connaissance transdisciplinaire.
Dénoncés par les perpétuels  Sokal, Brickmon, les tristes sires du positivisme réductionniste et les nouveaux bien pensants de la qualité appliquée au savoir, il était tant apprécié du grand public et des jeunes, pour savoir faire partager une vision raisonnable et optimiste de la complexité du monde et des humains. Il a rejoint, lui clair d’esprit, ce soir, le panthéon de grands esprits.
Sur France Info, une chronique de Michel Polacco (ici). 

28 mai 2019

DIV : La « Team ENSC » en demi-finale de la Mars Society

Les élèves 1A de l’ENSC, conduits par le professeur Jean-Marc Salotti, ont candidaté au concours de la Mars Society : "Mars Colony Prize Competition". Le concours consiste à proposer le meilleur plan de conception d’une colonie martienne de 1000 personnes. Il est doté d’un premier prix de 10 000 $ d’un second prix de 5 000 $ et de 2 500 $ pour la troisième place. En outre, les 20 meilleurs articles seront publiés dans un ouvrage à paraître en 2020 et intitulé «Colonies de Mars: plans d’installation de la planète rouge».
La "Team ENSC", a été sélectionnée pour la demi-finale : 25 projets qualifiés dont un seul français. 
L’ENSC représente donc la France au côté d’équipes majoritairement  américaines (16), de 2 polonaises, et d’une équipe britannique, une japonaise, une suisse, une suédoise, une finlandaise et une israélienne.

11 avril 2019

DIV : l’ANORAA et ADER à l’ENSC pour aborder l’IA dans le C2 du futur.

Réunion commune de l’ANORAA Guyenne 
et d’ADER Nouvelle Aquitaine
ENSC - 11 avril 2019 - Bordeaux-Talence

IA et C2 air du futur ...


Les membres de la section Guyenne de l’ANORA (Association Nationale des Officiers de Réserve de l’Armée de l’Air) et ceux du réseau ADER (réserve citoyenne de l’Armée de l’Air) en Nouvelle Aquitaine se sont réunis le 11 avril 2019 sur le campus universitaire de Talence, à l’invitation de l’ENSC (École Nationale Supérieure de Cognitique) de Bordeaux INP.
Au programme, une journée d’études et d’actualisation des connaissances sur le rôle de l’Intelligence Artificielle dans les futurs systèmes de commandement et contrôle des opérations aérospatiales.

Après une présentation de l’ENSC, école partenaire de l’École de l’Air de Salon-de-Provence et du CEAM (Centre d’Expertise Aérienne Militaire) de Mont-de-Marsan, le Professeur Bernard Claverie, a introduit le concept de « Cognitique ». Cette science a pour objectif de mettre en œuvre les techniques du traitement des connaissances humaines par des ordinateurs. Comme l’informatique est la science du traitement automatique de l’information, la cognitique s’intéresse au traitement informatique d’un type particulier d’information : celle qui est créée, traitée ou transformée par les cerveaux humains, celle qui a un sens spontanée pour l’homme, et qui lui permet de vivre, de s’adapter, de connaître le monde et d’agir sur lui avec intelligence.
L’Intelligence Artificielle (IA) a quant à elle été présentée dans deux acceptions pratiques : d’abord celle d’une intelligence informatique, dotée de la toute puissance et des performances des machines modernes ; ensuite celle d’une intelligence humaine augmentée. Le but est de mettre à disposition d’opérateurs, de décideurs ou de simples usagers, la performance des machines pour amplifier, sécuriser et rendre plus efficaces les raisonnements, les décisions, les actes de la pensée humaine.

Ces fondements ont été éclairés par des applications au niveau du commandement et contrôle des opérations de sécurité militaire (C2), notamment dans sa « dimension air » qui nécessite rapidité, globalité et fiabilité des actions. Le général Gilles Desclaux, ancien commandeur des opérations aériennes, a présenté les principes du C2 et les originalités comparées des systèmes français et d’autres grands pays. Il a montré comment la notion d’Intelligence Augmentée est au centre du futur dispositif de la défense aérienne, combien l’IA est un enjeux de sécurité et d’indépendance nationale, et comment la recherche devient duale, militaire et civile, dans la maîtrise et la gestion des grands systèmes « à risque ».

Dans un troisième temps, une table ronde a réuni, autour du général Jean-Marc Laurent, titulaire de la chaire de Sciences Po Bordeaux « Défense et Aérospatial » des chercheurs de l’ENSC (Professeur Jean-Marc Salotti), de la DGA (Baptiste Prebot), de la Science and Technology Organisation de l’Otan (Hervé Le Guyader) et du Ministère de la Recherche (Professeur Benoît Le Blanc) autour des enjeux de l’IA pour la défense aérospatiale du futur. 

À l’issue, le public a pu visiter les installations de recherche et les simulateurs de vol et de C2 de l’ENSC.

02 avril 2019

IA : et Vive l'inintelligence artificielle.

Les grands acteurs du monde numérique, les GAFAMI, et autres acteurs des NBIC, les grandes sociétés industrielles de l’automobiles, de l’énergie, de l’aérospatiale ou du maritime investissent  des centaines de millions de dollars dans des équipes de recherche, des laboratoires ou des start-up spécialisées dans le « deep learning » ou « apprentissage profond ». Le prestigieux prix Alan Turing a d’ailleurs été attribué cette année à Yann Lecun, Yoshua Bengio et Geoffrey Hinton pour leurs travaux sur le deep learning.
Cette approche de l'intelligence artificielle née des travaux initiaux sur les neurones formels de McCulloch et Pitts (1943) et du Perceptron de Rosenblatt (1957) repose sur l’imitation d’un réseau de neurones simplement organisés selon des règles issues des propriétés biologiques que ces éléments neuronaux présentent en eux-mêmes ou élaborent entre-eux (effet de seuil, activation excitatrice ou inhibitrice, rétropropagation, synapse de Hebb, etc.). On remarquera d’ailleurs que tous ces noms sont ceux de psychologues ou neurologues, sachant parfaitement quelles étaient les limites des modèles proposés. Cette imitation, en se prenant au sérieux, est d’ailleurs une horreur pour les neurobiologistes et psychologues, qui savent combien la complexité d’un seul neurone empêche encore à l’heure actuelle toute modélisation d’autant que celle-là doit être évolutive, non seulement en fonction de l’activité électrique (ce que le neurone formel produit comme « modèle réduit » du neurone naturel, comme pour jouer avec, comme avec une petite voiture, un train électrique ou un autre jouet pour les gamins, ados ou adultes nostalgiques), mais aussi des évolutions structurales de la membrane, des synapses, de la neurochimie, de la percolation avec les cellules supports de la neuroglie, astrocytes ou oligodendrocytes, et avec le contexte neurobioactif, pétri de neuromodulateurs, neurohormones, vascularisation, etc., tout cela dans un cerveau qui bouge, qui subit en même temps qu’il organise une chronobiologie régulant les équilibres et des temps d’activité ou de repos.
Il s’agit donc ici encore d’une analogie, au sens ou l’analogie, ça fait comme si c’était pareil alors que tout le monde sait que ça ne l’est pas du tout (voir là) ! Le neurone formel est un analogue plus qu’élémentaire et le réseau d’analogues est encore plus élémentaires qu’il; ne traite que des informations de nature électrique, elles-mêmes sombre imitation de la conséquence des phénomènes biochimiques qui leur donne l’aspect d’une naissance. On ne traite dans le deep learning que les effet de l’ombre d’un poteau en pensant qu’elle peut représenter l’image de l’ensemble des arbres d’une forêt, voire de tous les forêts, vergers et allées ombragées du Monde.
De là pourrait-on imaginer appliquer le principe du test de l’imitation de Turing (« imitation game »). Est intelligente la machine qui ne permet pas à un observateur humain de savoir s’il s’agit d’une machine ou d’une homme. Est intelligence artificielle, en tant qu’analogue de l’intelligence naturelle (voir le post sur les machines qui ne peuvent penser), ce qui réussit le test. Une intelligence artificiellement produite qui serait incapable de ne pas montrer une supériorité inhumaine serait disqualifiée.
Imitation game : Réussi parce que la machine fait ce que fait l’homme ; Perdu lorsque la machine fait bien ce que l’homme ne peut pas faire ou fait moins bien. Il s’agit alors d’un brevet d’artifice. Si l’intelligence considérée ne l’est pas, est-elle pour autant idiote ? Un test de Turing inverse montrerait qu’elle ne l’est pas. Mais alors, quelle essence à cette pseudo intelligence ? Le même problème se pose si on considère qu’un ascenseur est capable d’une bonne imitation de l’aptitude à monter les paquets d’un étage à l’autre. Et pourquoi pas, alors, un prix Nobel pour Roux et Combalusier ? Cela ne viendrait pas à l’idée.
Pourtant l'annonce du 3 janvier de Mark Zuckerberg, patron de Facebook, qui se donne pour objectif de « construire [par deep learning] une intelligence artificielle simple pour piloter la maison ou aider dans le travail » d’ici la fin de l’année, de l’investissement de Apple rachetant Perceptio, VocallQ et Emotient, de Elon Musk et de son pari sur la voiture intelligente, sur la fusée intelligente, sur l’hyperloop Intelligent, etc., de la course aux traductions automatiques sur téléphone mobile, de IBM qui rajout le DL à Watson dans sa version « cognitive business », montre la pertinence effective du deep learning à traiter des problèmes non directement résolubles.
Le mouvement est lancé, et l'apprentissage profond devient un fantastique outil « super intelligent » pour détecter et traiter les cancers, prévoir le climat, déterminer l’apparition précoce de la maladie d’Alzheimer, et jouer avec AlphaGo ou contre les champions de Starcraft 2. Mais comme Super Man n’est probablement pas un homme, super intelligent n’est peut-être pas humainement intelligent.

IA - SHS : Nouvelle frontière franchie - la justice rendue par les machines.

La présidente de l'Estonie vient d'annoncer (selon Wired) son intention de confier le jugement des délits mineurs (dont les dommages sont inférieurs à 7 000 euros) à un système d’intelligence artificielle (IA). Ce système devra, dans un premier temps, se prononcer de manière  autonome sur la culpabilité d’un prévenu, sur le dommage subi et sur le montant de la peine. Le condamné aura la possibilité de faire appel devant un tribunal « humain » de deuxième instance, ou celui d'accepter la sentence, ce qui devrait être le cas dans un nombre significatif de cas et désengorger d’autant les tribunaux et permettant aux juges et greffiers de se consacrer au traitement des affaires plus complexes.
Une intelligence artificielle aura pour la première fois dans l'histoire de la justice la responsabilité autonome d’un jugement. Le principe de cette IA judiciaire a été développé par Ott Velsberg, directeur national des données en Estonie, et associera l’analyse des textes légaux, l’analyse des informations mises en ligne par les deux parties en conflit sur une plateforme dédiée, et les preuves, témoignages, allégations et informations personnelles concernant les parties. Là réside un second point qui peut être problématique, puisque ce principe est non conforme avec ceux de la RGPD européenne et pourrait engager à une justice prédictive avec une collecte préventive de données personnelles et les dérives de fichage qui seraient alors légalement justifiées par la commission potentielle de délits. La date de promotion de ce système est prévue pour la fin de l’année 2019.
Le premier et principal problème reste néanmoins celui, éternel, de la confiance dans la décision. En décembre 2018, un groupe de travail de la Commission européenne pour l’efficacité de la justice avait déjà proposé une charte éthique européenne sur l’utilisation de l’IA dans les systèmes juridiques. Ce qui pose problème est l’opacité du fonctionnement de tout logiciel de deep learning, dont le principe est justement d'échapper à toute possibilité de représentation cognitive. Le deep learning est en effet une méthode d’IA basée sur un  « apprentissage opaque » apprend d’elle-même en fonction de partis-pris de programmation (méthode, information de base, etc.). Il est impossible de savoir ce qui se passe précisément dans le programme, et on démontre que les apprentissages sont différents en fonction de données initiales différentes (sensibilité aux conditions initiales) et de la pratique (expérience) du programme. On peut par exemple craindre que des jugements initiaux soient moins pertinents que les suivants et qu’après un certains temps, les décisions convergent vers des bassins d’attraction, les rendant systématisées plus qu’individualisées.

14 février 2019

DIV : La motivation féminine pour les sciences et l'ingénierie.

Les filières scientifiques sont majoritairement choisies par les jeunes gens après le baccalauréat, et les jeunes femmes y restent minoritaires, sauf pour les filières des sciences de la santé, des sciences de la vie et des sciences humaines. Aussi, 75 % des élèves en classes préparatoires littéraires et seulement 30% de ceux des prépas scientifiques sont des femmes. Vingt cinq pour cent des diplômes d’ingénieurs délivrés en France le sont à des femmes.
Une hypothèse portant sur l’explication de cette différence concerne l’éducation et l’intériorisation des stéréotypes ; en effet, on sait que les représentations se forgeant très tôt dans l'enfance et sont confirmées durant l'adolescence. Notamment, la représentation d’une apparence « féminine » ou « masculine » est très tôt acquise chez les jeunes enfants. Celle de l’apparence du ou de la scientifique semble également tôt stabilisée.
Sans entrer dans un débat éthique qu’il conviendra pourtant d’avoir, certaines bonnes consciences pourraient imaginer tenter de résoudre ce décalage motivationnel entre filles et garçons pour des métiers scientifiques en proposant aux jeunes filles et des l’ecole des représentations valorisées associant les deux stéréotypes : féminité et  scientificité ou « girlie » et « scientist ».
Problème, les choses ne semblent pas aussi simples que ça !
Diana Betz et Denise Sekaquaptewa, de l'université du Michigan, ont testé (lien) l’hypothèse selon laquelle les représentations des jeunes femmes sont modifiées lorsque des exemples de stéréotypes à la fois féminins et scientifiques sont présentés tôt dans la scolarité. Dans leur étude de 2012, des élèves âgées d'environ 11 ans devaient lire une interview dans un magazine. Pour la moitié d’entre elles, des femmes interrogées dans l’article étaient brillantes en sciences (scientist) et associées à des photos très « girlie » (que les chercheurs paramètrent par la présence de maquillage, habits roses, revues de mode à la main). Les autres jeunes filles lisaient l’interview de femmes également douées en sciences, mais d’apparence peu stéréotypée (pas de maquillage, habits sombres, position stricte). Les résultats montrent que dans le groupe de jeunes filles exposées à la combinaison des stéréotypes scientifique et de féminité, ces jeunes filles se disent moins intéressées par les sciences, se jugent elles-mêmes moins compétentes et s’attribuent moins de chances de réussite que dans l’autre condition expérimentale. Et elles sont significativement moins nombreuses à s’imaginer faire des études en sciences plus tard. Ainsi la combinaison stéréotypée du succès et d’une apparence très féminine ne permet pas aux filles de s’identifier plus facilement ; c’est même le contraire.
En fait, deux stéréotypes sont en jeu (les sciences ne sont pas pour les femmes, et les femmes féminines n’ont pas leur place dans le domaine scientifique). L’etude montre que vouloir lutter à la fois contre les deux stéréotypes s’avère contre-productif. Etre « girlie » et « scientist » semble encore plus incongru aux filles que d’être simplement doué en sciences.
Nous sommes là devant un effet complexe d’interaction entre variables. En effet, lorsqu’il s’agit d’un domaine non scientifique, présenter des personnages correspondant ou non au stéréotype féminin n’a pas de conséquence négative sur l’identification des sujets aux modèles.
Force est donc de constater que l’image associant l’ingénieure ou la scientifique stéréotypée féminine pour susciter des vocations scientifiques chez les jeunes filles va à l’encontre de l’effet recherché et pourrait même être décourageante.
Betz, D., and Sekaquaptewa, D. (2012). My Fair Physicist? Feminine Math and Science Role Models Demotivate Young Girls. Social Psychological and Personality Science. DOI:10.1177/1948550612440735

29 janvier 2019

IA - SHS : Ouverture de la chaire IBM Sciences et Technologies Cognitiques à l’École Nationale Supérieure de Cognitique.

« Chaire IBM Sciences et Technologies Cognitiques »

Un partenariat entre IBM et l’ENSC (Bordeaux INP) a permis l’ouverture à l’École Nationale Supérieure de Cognitique d’une « chaire IBM Sciences et Technologies Cognitiques. »

Ce dispositif innovant, annoncé au salon NOVAQ 18, valorise quatre objectifs communs :
  • enraciner des initiatives pédagogiques sur l’Intelligence Artificielle pour former les ingénieurs aux enjeux et aux outils émergeant de « l'ère cognitive » ;
  • définir et mettre conjointement en œuvre des projets prospectifs pour le futur d'une IA  humaine ;
  • développer l'insertion professionnelle des ingénieurs diplômés de l’ENSC chez IBM ;
  • contribuer à un rayonnement mutuel dans différents réseaux et écosystèmes, et au développement de l'idée d'une approche scientifique concrète des dimensions humaines de l’IA.
Depuis décembre 2018, cette chaire est dirigée par Marc Rodier, leader de l'équipe globale IBM « Cloud services for managed application development », spécialiste de Watson et des solutions cognitives d'IBM, qui intervient et enseigne la stratégie « Cloud, Analytics, and Cognitive Science » dans différentes écoles d'ingénieurs et de management. 
Il anime les travaux en étroite partenariat avec la direction, les enseignants et les enseignants-chercheurs de l’ENSC.

À l’ENSC, et aux côtés :
  • de l’Institut tremplin « Carnot Cognition » géré par le CNRS, 
  • de la chaire « STAH » (Systèmes Technologiques pour l’Augmentation de l’Humain) portée par la Région Nouvelle Aquitaine, 
  • du laboratoire commun « HEAL » (Centre d’excellence d’Ingénierie Humaine pour l’Aérospatiale) partagé avec les entités de Thales AVS/DMS (Mérignac) et TRS (Massy-Palaiseau), 
  • du « Club des entreprises de l’ENSC », 
  • l’école renforce par cette chaire IBM son partenariat avec le monde du numérique et de l’Intelligence augmentée, partagée et éthique entre les humains et les systèmes technologiques du futur.
Renseignements, contacts : global@ensc.fr / +33 (0)557006700 - marc.rodier@ensc.fr

20 décembre 2018

IA : Pour une histoire naturelle de l’intelligence artificielle.

L’actualité et les succès informatiques de l’Intelligence Artificielle ainsi que les performances toujours plus spectaculaires des machines numériques, calculateurs et robots, amènent certains spécialistes de l’IA à la présenter et la faire considérer par le grand public comme un domaine spécifique, à part de ceux de la cognition ou de ses productions artefactielles. Ce statut singulier, qui mobilise les milieux socio-économiques comme les artistes et certains penseurs transhumanistes, ne peut pourtant pas être conçu sans référence à l’homme, à sa pensée et à sa puissance d’instrumentation, mais aussi et plus largement à sa place dans le monde du vivant. 
Bernard Claverie propose ici un article, dans le numéro spécial « Le devenir-cyborg du monde » de la revue « Figures de l’art »  (numero 35), coordonné par Bernard Lafargue et Bernard Andrieux, montrant comment la métaphore d’une IA toute puissante peut être ramenée au problème global de la valeur biologique des intelligences, et combien l’IA gagnerait à s’inscrire dans une vision intégrée, saine et évolutive de l’intelligence naturelle.
Lien de téléchargement de l’article (ici).

IA : Pourquoi les machines ne pensent pas.

Le projet des pionniers de l'intelligence artificielle (IA) était de vouloir « modéliser la pensée » pour pouvoir la connaître et la comprendre. Le principe était celui énoncé par Jean-Baptiste Vico selon lequel on ne connaît que ce que l'on crée, et donc que seul le créateur dispose de la connaissance de la création. C'était certainement oublier qu'il est alors facile de se prendre pour Dieu, ce que certains spécialistes de l'IA n'ont pas omis de faire. Et c'est ainsi que l'ambition a été de créer des machines intelligentes et de s'affranchir de la mission de connaissance pour aborder celle de faire. Mais que peut faire une machine intelligente, sinon de l'intelligence, et par là laisser croire qu'elle pense.
Si certains ne considèrent pas Philippe Dreyfus, mort l’été dernier à Biarritz dans l’indifférence générale, comme le père de l’informatique, c’est qu’ils ont oublié qu’il est le père du mot « informatique ». Avant lui, il y avait du calcul automatique, voire électronique, mais l’association des mots information et automatique fut en 1962 l’évènement qui nomma la discipline récente. Un peu, peut-être, comme si un créateur passant par là avait nommé Homme un singe que l’évolution darwinienne avait fait émergé comme pure « création » semantique.
Dix ans plus tard, un autre Dreyfus, Hubert, a montré en 1972 dans What Machine Can't Do  que les machines ne font qu'exécuter des règles abstraites, alors que la pensée humaine est fondée sur l'émergence de contenus mentaux, motivés par les ambitions, des espoirs, des projets, et tant de choses que les phénoménologiques regroupent sous le terme d'intentions. Cette notion d’émergence cognitive est l’une des bases de la pensée de Francisco Varela.
Turing avait déjà jeté un pavé dans la mare avec l'application du jeu de l'imitation aux machines. Ce jeu consistant pour une personne ne communiquant avec les membres d'un couple par des petits bouts de papier écrits, à deviner qui était l'homme et qui était la femme, en sachant que l'un et l'autre pouvaient imiter son partenaire. Il en fit une théorisation pour une machine versus un humain, et inventa le test de Turing. Celui-ci n'est rien d'autre que le moyen de la reconnaissance de l'intelligence à partir de la capacité d'analogie des productions de la machine avec celle de l'humain. Le problème de l’analogie est qu’il s’agit d’une assomption. On ne fait que considérer la similitude de comportement : "c’est comme si ça faisait pareil, mais on sait que ça ne fait pas pareil ... par contre les autres peuvent penser que c'est pareil". Ici, il faut rappeler deux dimensions spécifiques de l'analogie : ma croyance personnelle ou la croyance des autres. Si je fais "vroum vroum", je peux croire que j'ai une grosse voiture, et jouer à faire comme si j'avais une grosse voiture. Si j'ai une voiture qui fait "vroum vroum", les autres peuvent penser que c'est une grosse voiture, alors que je peux très bien savoir que c'est le résultat d'un tuning réussi sur une vieille cacugne. 
Appliquée à l’informatique, on peut caractériser deux catégories d'informaticiens qui déterminent deux formes d'IA. On peut imaginer une IA forte qui ambitionne de créer une vraie intelligence réalisée par des machines, et une IA faible circonscrite à des tâches spécifiques réalisant des briques d'intelligence plus ou moins efficace, mais satisfaisante pour les tâches considérées, analogues à l’intelligence humaine circonscrite à la tâche considérée. On rencontre alors ceux qui rêvent de remplacer le créateur, ou l’évolution, ou la nature, quel que soit le nom qu’on donne à ce qui motiverait ce qui est, et ceux qui tentent de résoudre des problèmes concrets, précis et circonscrits, avec le plus d'efficacité et de sérieux possibles, dans un jeu d’imitation partielle.

Or, si la discussion sur la globalité de l’intelligence ou l’existence d’une collection d’intelligences reste entière, celle de la pensée ne fait pas de doute. Une pensée ne peut qu’être globale, et toute tentative d’une décision d’une pensée partielle est une négation du concept même de la pensée. Donc, dans l’attente d’une éventuelle  IA forte, les machines ne pensent pas.

12 décembre 2018

SHS - TECH : Colloque FRACTURES à l'ENSC - 12-13 XII 2018

Colloque 
Ecole Nationale Supérieure de Cognitique
109 avenue Roul - 33405 Talence
(Tram B - Station Béthanie)

La question des inégalités numériques est une question de société majeure à l’heure où les environnements, activités, relations sont profondément marqués par une hyper présence des outils et services numériques. Le programme initié grâce à la Maison des Sciences de l'Homme d'Aquitaine (MSHA)  aborder cette problématique à partir des questions de l’accessibilité numérique et par rapport au public des personnes en situation de handicap (porteuses d'une déficience physique, sensorielle, cognitive…), des personnes âgées et d’une façon plus générale, de toutes personnes mises en situation de handicap.
Deux axes forts sont abordés pendant le colloque organisé à l'ENSC :
Accessibilité, handicap et communication dans les écosystèmes numériques
Dispositifs, expérimentations, usages : des dynamiques aux innovations.
Accès au programme : (lien ici).

IA - SHS : Journée "Justice et Intelligence-Artificielle" - ENSC Bordeaux

Le mercredi 12 décembre est organisé

à l'Ecole Nationale Supérieure de Cognitique 
109 avenue Roul, Talence (33405)
(station Béthanie du TRAM B)
14 heures - Petit amphithéâtre

un cycle de conférences/débats sur la problématique

"Justice et Intelligence-Artificielle".

  • Bernard Taillebot - 1er Vice Président TGI de Bordeaux
  • Thierry Wickers - Avocat au Barreau de Bordeaux
  • Marc Rodier - Titulaire de la Chaire IBM / ENSC Sciences et Technologies Cognitives
  • Hervé Le Guyader - Chargé de mission prospective et relations extérieures de l'ENSC

Seront débattues les questions du rôle, de l'intérêt, des limites, dangers et contraintes ainsi que des perspectives d'application de l'Intelligence Artificielle dans les domaines du Droit et de la Justice.
Les élèves ingénieurs de 3ème année de l'ENSC sont invités à ces débats ouverts qui accueillent également d'autres élèves, étudiants et jeunes ingénieurs diplômés.

10 décembre 2018

BIO - Cinq millions de génomes à séquencer.


2012, le National Health Service britannique lance le plan "Genomic England" visant au séquençage de 100 000 génomes.

2018, les chercheurs annoncent avoir atteint leur objectif, soit les génomes de 85 000 patients du National Health Service souffrant d’une maladie rare ou personnes apparentée à une personne atteinte de telles maladies, et de 15 000 génomes de cellules prélevées directement sur des tumeurs.
2023, l'objectif du NHS est le séquençage de  5 million de génomes, soit 10 fois plus de personnes.
Le but de ce projet de séquençage est de pouvoir diagnostiquer les personnes susceptibles de développer un cancer ou une maladie héréditaire. 
Pour rappel, le génome correspond à la séquence d’ADN unique de chaque individu, contenu dans les chromosomes du noyau de chaque (ou presque) cellule du corps. Aujourd’hui, le séquençage, c'est-à-dire l'identification de toutes les séries de lettres (les 3 millions de paires de nucléotides ou acides nucléiques composant l'ADN - A, T, C et G) constituant les gènes, peut être réalisé en moins de 48 heures pour quelques dollars (13 ans, de 1990 à 2003, pour 3 milliards de dollars du "Human Genome Project") à partir d'un simple prélèvement de tissus ou de fluide corporel (par exemple une simple prise de sang). Les performances des machines vont encore s'améliorer et il sera bientôt facile d'identifier ces inventaires génétiques complets de manière encore plus facile et moins chère.

30 novembre 2018

DIV : Inauguration de la 3ème tranche des bâtiments de l'ENSC.

Le vendredi 30 novembre 2018 a été inaugurée au 109, avenue Roul, 33400 Talence, la nouvelle extension (« troisième tranche ») de l’Ecole Nationale Supérieure de Cognitique (ENSC), membre de Bordeaux INP et de la Conférence des Grandes Ecoles.
Cette extension va permettre aux chercheurs et formateurs de l’école de travailler, avec ses partenaires industriels (Thales, IBM, Dassault …), sur de nouveaux projets associant Intelligence Artificielle, Big Data, pensée et comportement humains, dans une perspective de symbiose homme-système, notamment appliquée aux questions de C2 (Command and Control) et d’aide à la prise de décision en situation complexe.
Le traditionnel ruban tricolore, tenu par deux étudiantes de l’école, a été coupé devant plus d'une centaine de personnes par le Président Alain Rousset, président du Conseil Régional de Nouvelle Aquitaine, principal financeur de l’opération aux côtés de Bordeaux INP, en présence du Général Jean Rondel, commandant les Forces aériennes (CFA) et chef de la zone de défense du sud-ouest, du Professeur Dominique Rebière, DRRT, représentant le Préfet de région Nouvelle Aquitaine, de Marc Phalippou, directeur général de Bordeaux INP, de Jean-Louis Blouin, président du Conseil de l’ENSC et de son directeur, le professeur Bernard Claverie.
Sud-Ouest 8/12/18

On notait aussi la présence des représentants d’écoles d’ingénieurs partenaires de l’ENSC sur ces problématiques futuristes, dont l’ESTIA, l’ISAE, l'EnseirbMMK, l’Ecole de l’Air, l'Institut Mines-Télécom, et de nombreux industriels membres de l’écosystème de l’ENSC (Club des entreprises de l'ENSC, Thales, Dassault, EDF, Bertin, Cluster Aquitaine Robotics, Digital Aquitaine, etc.), des directeurs des laboratoires d'appui de l'école (Laboratoire bordelais de recherche en informatique - LaBRI, laboratoire Intégration Matériau-Système - IMS, Institut de mathématiques de Bordeaux - IMB, Inria Sud-Ouest), et de représentants de la communauté scientifique internationale rassemblée autour du panel "information systems technology" de l’Organisation pour la Science et la Technologie (STO-NATO). La cérémonie a eu lieu en présence des élèves ingénieurs, des professeurs et des représentant des services de la Région Nouvelle Aquitaine et de la municipalité de Talence.


--

24 octobre 2018

IA - BIO : Construtif - numéro spécial NBIC

« Constructif » est le « Laboratoire d'idées » de la Fédération du bâtiment, abordant les grandes questions posées à la société moderne. Constitué  en « espace de débat, d'analyse et d'échange d'expériences », il souhaite éclairer les cadres et les décideurs du monde du bâtiment dans leur réflexion sur les grandes questions du champ économique et social.


Le numéro 42, paru en novembre 2015, aborde la question des « nouvelles limites du vivant » et propose une série d’articles sur les NBIC. On y retrouvera un article sur « l’homme réparé ou augmenté - le prix de l’anormalité » (lien).

19 octobre 2018

DIV : un administrateur de l’ENSC à l’UIMM.

Nicolas Foucard (lien) directeur du site du Haillan de Ariane Group, représentait l’Union des Industries et Métiers de la Métallurgie, membre fondateur de l’école, alors Institut de Cognitique, au conseil d’école. Nicolas Foucard sera cette annee auprès du directeur de l’ENSC pour délivrer les diplômes des nouveaux ingénieurs de l’école, le 17 novembre 2018. En effet, les diplômes sont toujours délivrés en présence d’un représentant significatif du monde industriel. Cette année, la promotion Stephan Howking sera honorée de la présence de Nicolas.
Celui-là vient d’être élu président de l’UIMM Gironde-Landes lors de son assemblée générale du 19 octobre dernier, un mandat stratégique pour le développement socio-économique de la région, mais également pour l’avenir des diplômes de l’ENSC.
Bravo à Nicolas Foucard, L’école se réjouit et lui présente ici ses félicitations pour cette promotion.

18 octobre 2018

IA-SHS : Cybersécurité - le piégeage du Web par faille cognitive.

Le Typosquatting » est une technique toxique et très efficace de piégeage des utilisateurs du Web. Elle repose sur l’écriture d’un nom de domaine qui ressemble à un nom de domaine officiel ou privé connu par celui qui reçoit un message comportant un lien. Celui-là, en confiance, ouvre le lien ... ce que souhaite ke cyber pirate.
Cette nouvelle technique a fait l’objet de deux rapports (1) et (2) publiés en février 2018 par la société de sécurité informatique Menlo Security.
Le Principe du typosquatting repose sur le fait que notre cveraue est doté ed capciatés éotanntes moibilsant des procsesus proches ed la dysxelsie. Ces processus ont fait l’objet d’études scientifiques (lien) qui montrent que les mots sont spontanément lus par groupes de lettres.
Cette propriété est à la fois une performance et une faille. Ainsi, un pirate peut acheter des noms de domaine imitant des noms de site connus, ou envoyer un message mail avec le nom falsifié d’un correspondant habituel, la différence résidant dans un détail, par exemple une faute d’inversion de lettres (ENCS pour ENSC) ou d’utilisation d’un caractère non romain (@, &, €, etc.) ou non codifié de manière informatique classique (ç, ë, å, etc.). Loin d’être une erreur typographiques, la stratégie consiste en un leurre pour l’usager qui n’a ainsi pas conscience de s’être fait piéger.
Le typosquattage peut s’appuyer sur des noms qui mobilisent l’émotion de l’internaute, tels que « tresor-pubilc, mais aussi tresor-publics, tresar-public, tresor-public, etc. », ou « dircetion-ensc, direction-esnc, mais aussi direction-ėnsc, direčtion-ensc, directiøn-ensc, etc. ». Il peut consister en utilisation, élision  ou inversion de lettres (unviresite-bordeaux, unversite-bordeaux, etc.), en suppression ou ajout d’un tiret, d’un slash ou autre (universitebordeaux, universite_bordeaux, ou universite/bordeaux, pour universite-bordeaux), en utilisation d’accentuation orthographiquement correcte (université-bordeaux), ou en modification du code terminal (.tr pour .fr, .cam pour .com, .arg pour .org, etc.). L’important est que l’erreur soit efficace et que la victime n’en prenne pas conscience, ou trop tard. Une technique très efficace repose d’ailleurs sur l’étude statistique des erreurs de frappe récurrentes de l’internaute à piéger pour lui proposer des erreurs congruentes avec son propre handicap, ses habitudes ou sa personnalité cognitive.
Dans tous les cas réussis, la victime, pensant correspondre avec une personne, une société, un organisme typosquatté, est alors invitée à donner des informations personnelles ou confidentielles dans un processus de phishing (hameçonnage).

15 septembre 2018

DIV : Une chaire IBM à l'ENSC

Annoncée lors du salon NovAQ 2018, qui s'est tenu du 13 au 15 septembre 2018 au Hangar 14 du Port de Bordeaux, lors de l'interview que Nicolas Sekaki et Bernard Claverie, respectivement président de IBM France et directeur de l'ENSC, ont donné à TV7, une chaire industrielle IBM a ouvert à Bordeaux, au sein de l'Ecole Nationale Supérieure de Cognitique (lien). 
Ce partenariat entre IBM et l'ENSC valorise des objectifs communs aux deux partenaires :
- enraciner des initiatives pédagogiques sur l'IA pour former de manière certifiante aux enjeux et aux outils émergeant de l'ère cognitive ;
- définir et, le cas échéant, mettre conjointement en oeuvre des projets prospectifs en favorisant le transfert et l'application de connaissances ;
- développer l'insertion professionnelle des étudiants de l'ENSC chez IBM et la formation permanente des spécialistes de IBM à l'école ;
- contribuer à un rayonnement mutuel dans différents réseaux et écosystèmes, et au développement de l'idée d'une approche scientifique concrète des dimensions humaines de l'IA.
La chaire est dirigée par Marc Rodier, ingénieur diplômé de l'ENSEEIHT (EN7 - Toulouse INP) ; docteur (PhD) et "distinguished Engineer" et leader du groupe de recherche et développement "Cloud IBM Services for Managed Application" ainsi que membre de la "IBM Academy of Technology".
Marc Rodier, qui a pris ses fonction de directeur de la chaire en décembre 2018, est le leader de l'équipe "global architecture and development team in IBM",  spécialiste de Watson et des solutions cognitives de IBM, Marc Rodier intervient et enseigne la stratégie CAMSS (Cloud, Analytics, Mobile, Social and Security) dans différentes écoles d'ingénieurs et de management.
Contact : prénom.nom[at]ensc.fr
Voir les articles de "Boursier.com" (ici) ou de "Channel.news" (ici).

16 juillet 2018

IA : Intelligence artificielle explicable

Les applications d'IA envahissent le quotidien des hommes, que ce soit dans le domaine professionnel, le domaine de la vie privée, et même au delà, dans celui de l'intimité personnelle.
Le premier problème reste celui de la communication avec les outils de l'intelligence artificielle (UX), avant celui de la communication avec l'IA elle-même (KX) qui réserve de solides problématiques à la fois techniques et épistémologiques.
La DARPA a mis en œuvre un programme de recherche "CwC & XAI" qui aborde d'une part les dimensions UX du partage direct entre les personnes et les smart machines, et d'autre part qui valorise le partage de représentations propres à chaque catégorie de partenaires pour un partage en toute sécurité, robustesse et confiance. Ce programme est dirigé par David Gunning, à la fois expert en informatique et en psychologie.

UX : Communiquer avec les ordinateurs, ou la Communication with Computers (CwC).
Le domaine CwC dépasse le simple domaine des IHM (interfaces homme-machine), voire des IHS (intégration homme-système) de génération actuelle. Son ambition est de permettre une communication "symétrique" entre des personnes, expertes ou non, et les machines, dont les ordinateurs. La CwC est une forme d'IHS v2.0, pour laquelle les machines ne sont pas de simples récepteurs d'instructions ou émetteurs de réponses ou comportements  préprogrammés, mais de véritables collaborateurs capables de recourir et d'utiliser des modes spontanés de communication. On pense évidemment au langage naturel, dans ses désinences verbales ou écrites, mais également aux gestes avec l'haptique, à la compréhension des expressions faciales ou à celles des caractéristiques du regard ou de la motricité oculaire ...
La communication est ici comprise comme le partage de contenus cognitifs, représentations ou idées complexes mobilisées dans des contextes de collaboration. De telles idées complexes sont supposées être construites à partir de prototypes cognitifs variant de manière à être adaptés à chaque situation inattendue, non programmée, dans un registre ouvert de connaissances qui s'auto-enrichissent les unes les autres en fonction de l'expérience. C'est ainsi qu'à partir d'un nombre limité d'exemplaires représentationnels de départ, et notamment grâce aux caractéristiques d'un langage ouvert faisant place à l'analyse stochastique des ambiguïtés, peuvent émerger, se construire et se stabiliser des idées de plus en plus complexes.
Le recours à cette production émergente laisse une large part aux théories de la complexité et à celle de l'émergence, pour déboucher sur une forme d'intelligence artificielle capable d'exprimer des idées sur elle-même, c'est-à-dire de s'expliquer elle-même, d'expliquer ses "raisonnements", "représentations" et "décisions" à autrui, que celui-là soit humain ou machinique.

KX : la partage des connaissances ou l'Intelligence artificielle explicable (XAI).
Les succès des apprentissage par machine, apprentissage profond, décision automatique ... amène à un développement, au delà des interfaces CwC, à des applications d'intelligence artificielle (IA) de plus en plus rapide, robustes et autonomes. Ces systèmes sont capables de sentir, percevoir (c'est-à-dire associer des sensations à des représentations internes), se représenter (tenir des inventaires de correspondances congruents entre les éléments et situations réels et ceux représentés au sein des machines comme chez les personnes humaines. Ces apprentissages s'inscrivent dans des activités mnémoniques pour lesquelles les différents registres qualitatifs de mémoires rencontrent les masses de données qui peuvent être traitées dans le cadre du Big Data. Dans ce contexte, les machines sont capables de très rapidement et avec un taux d'erreur très faible de décider et le cas échéant d'agir dans des délais proches de l'immédiateté. 
Ces dépassements des simples capacités humaines engendrent la création de machines autonomes, dont le contrôle éventuel ne peut être fait qu'à postériori, dans des temps compatibles avec ceux de la lenteur de l'appareil serveur et/ou cognitif humain.
C'est là que se pose le problème du blocage de l'efficacité des systèmes par l'impossibilité que l'homme a de faire confiance à la machine. On connait ce type de situation dans le domaine du véhicule autonome et encore plus dans celui des SALA (systèmes d'armes létales autonomes) avec lesquels le respect de la vie humaine peut être engagé. La seule solution est une forme d'apprentissage collaboratif, partenarial, de l'homme et de la machine, dans laquelle la machine est capable d'expliquer à l'homme le sens de ses décision et les limites de son autonomie ; ce que ne savent pas faire les machines actuelles. 
De tels systèmes symbiotiques (HAT pour Human-Autonomy Teaming) nécessitent une Intelligence Artificielle capable de s'expliquer, et donc "explicable". C'est tout l'enjeu de la "confiance" dans les machines décisionnelles ou de contrôle, dans un projet global d'intégration bidirectionnelle des hommes et des machines, de type XAI.