06 novembre 2019

IA - BIO - INFO - TECH : Les nouvelles prédictions de Ray Kurzweil (2019).

Le célèbre Ray Kurzweil, aujourd'hui responsable de la branche IA de Google, transhumaniste militant, s'est fait le spécialiste des prévisions des développements technologiques.
Ainsi pédisait-il, dès 1989, la chute de l'union soviétique par la diffusion de la téléphonie mobile et des télécopieurs, que les machines vaincraient le champion du monde d’échecs avant 1998. pari gagné puisqu'en 1997 Deep Blue (IBM) gagna la célèbre rencontre contre Garry Kasparov. Il évoquait la possibilité pour un PC d'être capable dès 2010 de répondre à des questions simples en cherchant sur internet, ce dont Google s'est depuis fait une spécialité, y compris pour des requêtes multiples de sens ouvert. Il prévoyait qu'en 2009, on pourrait donner aux machines des instructions en langage naturel. Et voilà que surgit les logiciels de dictée, ainsi que les logiciels de commande tels que Siri de Apple, puis Alexa de Amazon et Dis-Google !  La technologie est aujourd'hui embarquée sur les BMW et d'autres équipementiers se précipitent dans le projet toujours plus élaboré de l'hybridité du langage et de la traduction automatique en ligne. Quant à ses prévisions sur la réalité virtuelle et augmentée, elles ont été réalisée notamment grâce aux Google classes en 2011, puis vinrent rapidement les Hololens de Microsoft et d'autre lunettes et head-up displays en aéronautique, dans la conduite des ateliers des usines 4.0 et aujourd'hui dans l'automobile pour tout le monde.
Bien entendu, nombre de ces prédictions n'ont pas été concrétisées, mais restent pourtant d'actualité. C'est dans cette perspective de Ray Kurzweil a proposé une nouvelle liste chronologique des technologies du futur.
En 2009 Ray Kurzweil réactualisait sa liste et donnait d'autres pistes dont nombreuses se sont réalisées - voir la liste des prédiction de RK dans Wikipedia : ici
Aujourd'hui, dix ans après cette nouvelle série prophétique, Ray Kurzweil propose une série actualisée dont voici le résumé.
2019 – Disparition des fils et câbles pour les appareils individuels et les périphériques.
2020 – Puissance de traitement des PC comparable à celle du cerveau humain.
2021 – Internet sans fil pour 85% de la surface de la Terre. 
2022 – Émergence (USA, Europe) de lois réglementant les relations entre humains et robots, et formalisation des droits, devoirs et limitations/interdictions dans ces relations.
2024 – Conduite automobile obligatoirement supervisée par l'IA, et interdiction de conduire sans aide technologique.
2025 – Avènement d'un grand marché de gadgets-implants.
2026 – Prolongement technologique de la vie humaine (au moins autant que la vie passée).
2027 – Vulgarisation et généralisation des robot personnels autonomes pour des actions complexes. 
2028 – Énergie solaire universellement répandue suffisante aux besoins énergétiques de l’humanité.
2029 – Test de Turing pour les machines et fusion IA-IN par simulation informatique du cerveau.
2030 – Nanotechnologies généralisées pour une baisse significative des coûts de fabrication
2031 – Imprimantes biologique 3D dans tous les hôpitaux pour imprimer des organes humains.
2032 – Nanorobots médicaux pour apporter des substances nutritives aux cellules en éliminant les déchets. Scanner du cerveau humain par nanorobots pour la maîtrise de son fonctionnement.
2033 – Les voitures autonomes, sans conducteur ni parfois passager.
2034 – Premier rendez-vous de l’homme avec l’intelligence artificielle
2035 – Matériel spatial de protection permanente de la Terre contre les astéroïdes.
2036 – Reprogrammation cellulaire pour guérir des maladies, et imprimantes 3D pour fabriquer des nouveaux tissus et organes.
2037 – Découverte de centaines de sous-régions cérébrales ayant des fonctions spécifiques avec décryptage algorithmique et intégration aux réseaux neuronaux artificiels.
2038 – Apparition de personnes robotisées et de produits de technologies transhumanistes tels qu'implants optionnels supplémentaires.
2039 – Nanovéhicules directement implantés dans le cerveau pour une réalité virtuelle d'immersion totale, sans équipement supplémentaire.
2040 – Recherche Internet directement par la pensée avec résultats affichés sur des lentilles de contact (ou des lunettes spécifiques).
2041 – Débit internet maximal de 500 millions de fois plus élevé qu’aujourd’hui.
2042 – Première réalisation potentielle d’immortalité grâce aux nanotechnologies.
2043 – Plasticité d'aspect du corps humain grâce à des nanorobots, et organes remplacés par des dispositifs cybernétiques ultrafiables.
2044 – Intelligence non-biologique des milliards de fois plus performante que l'intelligence biologique.
2045 – Singularité technologique. La Terre se transformera en une gigantesque machine
2099 – Extension du processus de singularité technologique à tout (ou parties de) l’Univers. 
(voir la nouvelle liste des prédictions de RK de 2019 : ici)
Perspective : 2100 - Fin de l'humanité même sous sa forme artificielle (note de l'auteur).
https://en.wikipedia.org/wiki/Predictions_made_by_Ray_Kurzweil

24 octobre 2019

BIO : "Prime Editing" - le CRISP-Cas9 bientôt remplacé.

Une équipe du MIT et de la Harvard University publie dans le dernier numéro (21 octobre 19) de Science (ici) une nouvelle méthode d’édition du génome : le "prime editing".
Cette nouvelle technologie de bio-engineering permet, selon les auteurs, de fournir une meilleure précision que le CRISPR-Cas9. Contrairement à CRISPR-Cas9. Permettant de ne remplacer qu’un brin d’ADN à la fois, elle réduit la probabilité d’insertions aléatoires ou de suppressions de séquences d’ADN, ce qui résout le problème du CRISPR-Cas9 qui coupe les deux brins en même temps pour être remplacés par une nouvelle séquence sur chacun des deux brins.
La précision en est d'autant augmentée, permettant un travail quasi parfait au sein du génome. On attend les premiers résultats dans la mise en oeuvre de cette technologie révolutionnaire qui propulse encore plus en avant les progrès de la bio-ingénierie interventionnelle (ici).
Voir également dans ce blog : (ici)

07 octobre 2019

DIV : IA et images - les réseaux de neurones de 1988 (7 octobre).

Y-a-t'il quelque chose de vraiment nouveau ?
http://bernard.claverie.free.fr/references/Neuro-Image-1988.pdf

Les 6 et 7 octobre 1988 se tenait, à l'Université Bordeaux 2 (Carreire - Bordeaux), le premier colloque français sur les réseaux de neurones et la reconnaissance d'image : "Neuro-Image". Inspiré du mouvement initié par les PDP (parallel distributed processes) et par la programmation parallèle de Inmos®, l'IRASCA (Institut Régional Aquitain des Sciences Cognitives Appliquées - Université de Bordeaux II) réunissait quelque 120 scientifiques autour des invités d'honneur Jacques PAILLARD (Institut de Neurophysiologie et Psychophysiologie du CNRS - Marseille) et Paul SMOLENSKY (Université du Colorado - Boulder) une réunion historique autour de quatre thèmes :
  1. l'approche clinique de la reconnaissance (présidence de séance : Fréda NEWCOMBE - Radcliffe Infirmary - Oxford) ; 
  2. les neurosciences de la vision, de l'image à la représentation (Présidence Michel IMBERT - Neurosciences de la Vision - Univ. Pierre et Marie Curie - Paris) ; 
  3. les machines neuro-mimétiques pour la reconnaissance (Gérard DREYFUS - Ecole Supérieure de Physique et Chimie Industrielle - Paris) et Michel WEINFELD - Ecole Polytechnique - Paris) ; 
  4. les modèles connexionnistes et l'IA pour la représentation (Jacques PAILLARD et Yves BURNOD - Institut Pasteur - Paris).
Chantre de l'interdisciplinarité, l'IRASCA avait ainsi mêlé les dimensions neuropsychologiques, cognitives, informatiques et électroniques des applications naissantes de réseaux de neurones. Ainsi les personnalités citées côtoyaient Glyn HUMPHREYS (Birkbeck College - Londres), Raymond BRUYER (Université de Louvain la Neuve - Bruxelles) et Xavier SERON (Clinique St. Luc - Bruxelles) Bernard RENAULT (Labo. d'Electrophysiologie et Neurophysiologie Appliquées - CNRS Salpêtrière - Paris), Simon THORPE (Lab. Neurosciences de la vision - UPMC Paris), ou J.M. CHASSERY et C. BELLISSANT de l'Institut de Mathématiques Appliquées de Grenoble), P. ANIZAN (CNET - Lannion), L. PERSONNAZ (ESPCI - Paris), H.P. GRAF (AT&T Bell Lab. - Holmdel et ses collègues, M. MOUGEOT et R. AZENCOTT (Lab. math. Application. - Paris Sud - Orsay), B. ANGENIOL (I.A. , Thomson CSF - Bagneux), B. ZAVIDOVIQUE et ses collaborateurs (ETCA - Arceuil), A. MARUANI et collaborateurs (Ecole nationale supérieure des Télécommunication - Paris), et Yves CHAUVIN (Lab. Psychologie de l'Univ. Stanford).
Des sessions de conférences étaient complétées par d'autres consacrées à l'exposition commentée de posters.
Le colloque était patronné par l'Université de Bordeaux II, et le colloque ouvert par son président, le Professeur Dominique DUCASSOU, et avait obtenu le soutien de la Région Aquitaine et du Département de la Gironde, de la Direction de la Recherche et des Etudes Techniques (DRET) du Ministère de la Défense (DGA), du Ministère des Affaires Etrangères, de la CCI de Bordeaux, ainsi que des sociétés TELMAT, BULL, INMOS, SCAIB, France Télécom, SARDE, OFFIKLI, Soft-Image, Definicon-Systems, Graftk, Microtel, et des écoles ENSERB, ESPCI, ainsi que de l'institut de neurobiologie théorique (INBT) de l'Université d'Angers et le CARME de l'Université de Bordeaux, et de la Banque Populaire du Sud Ouest.

L'initiative était lancée et le comité d'organisation présidé par Bernard CLAVERIE et comportait des personnalités comme Jean-Louis ERMINE (CEA, Univ. Bordeaux 1), Pierre HUMBERT (IGD, Univ. Bordeaux 3), Jean-Pierre BOURGEOIS (Institut Pasteur - Paris), Jacques PATY (Univ. Bordeaux 2) et bien d'autres (voir la liste ici).

DIV : Complexité explicable.

(Texte en anglais plus bas)

La complexité explicable (ou compréhensible) est une doctrine scientifique (SHS) basée sur le constat du refus et/ou de l’intolérance d’usage des technologies numériques, notamment dans le cadre de l’augmentation humaine et de l’hybridité, par des sujets lambda, et ce d’autant plus qu’augmente la complexité de cet usage ou celle de l’environnement dans lequel il s’insère ou qu’ils génèrent.
Le but est de doter ces systèmes des formes/aptitudes communicationnelles permettant aux sujets concernés de comprendre :
  • à quoi ils servent (pour faire quoi ?), 
  • en quoi ils servent (comment font-ils cela ?) et 
  • pourquoi ils servent (quelle est la justification de leur existence ?).
Les objets ou systèmes complexes ou induisant de la complexité doivent être, dès leur conception, prévus pour les utilisateurs (anthropologie, médecine et ergonomie) et doivent être accessibles comme objet de raisonnement (cognitique), et cela de manière indépendante des groupes culturels ou nationaux amenés à collaborer grâce à ces dispositifs.
Ceux-là doivent expliquer capables de « décrire » leurs objets et d’ « expliquer » leur logique dans le cadre d’une adéquation intelligible à des objectifs explicités. Notamment, leur logique et leur degré d’autonomie doivent pouvoir être transparentes et facilement compréhensibles. 
Le but recherché s’articule autour :
  • de l’acceptabilité, 
  • de la tolérance et 
  • de la confiance.
La complexité explicable prend une dimension particulière, impérative, avec les dimensions de la formation des personnels et de/à leur collaboration. Elle doit pouvoir être comprise par les sujets qui y sont confrontés, permettant de faciliter à la fois les procédures d’apprentissage, mais aussi celles de l’adaptation continue. en cel, elle est à la fois un objectif (former à la complexité explicable) et un moyen (former par la complexité explicable) des pédagogies d.avenir.

La complexité explicable doit être connue selon un plan d’action conceptuel (design) qui prend en compte :
  • les points forts et les faiblesses des dispositifs ;
  • ceux des interfaces, notamment dans le cas d’interfaces adaptatives ;
  • la justification des démarches de décision impliquant l’humain ou d’autonomie substitutive ;
  • la logique de ces choix décisionnels ;
  • le niveau de confiance à accorder à chaque niveau explicatif ;
  • le type d’erreurs susceptibles d’être produits ;
  • les mesures correctives (ou d’échappement) en fonction du but à atteindre.
La redevabilité, c’est-à-dire la responsabilité artéfactielle explicitée, attachée à chaque niveau contribuant à la complexité globale, doit pouvoir être justifiée et comprise par les individus qui y sont formés. On est donc dans des plans de formation à la compréhension plus qu’à l’utilisation, ce qui inverse une position classique de la préparation des personnels.
Dans le cadre d’une complexité technologique ou instrumentale de plus en plus répandue, il est important de pouvoir disposer d’indice de confiance permettant l’adaptation ou la tolérance à cette complexité.

Le concept est à la base de certains cours de l’ENSC.
Bernard Claverie © 7 octobre 2019 (Bordeaux).


The explicable (or understandable) complexity is a scientific doctrine (HSS) based on the observation of the refusal and / or intolerance of the use of digital technologies, particularly in the context of human increase and hybridity. subjects lambda, and all the more so that increases the complexity of this use or that of the environment in which it is inserted or that they generate.

The goal is to equip these systems with communication forms / skills that enable relevant subjects to understand what they are used for (to do what?), What they serve (how do they do that?) And why they serve (what is the justification of their existence?).

Complex or complexity-inducing objects or systems must be designed for users (anthropology, medicine and ergonomics) from the outset and must be accessible as an object of reasoning (cognitive), independently of cultural or national groups brought to collaborate through these devices.
They must be able to "describe" their objects and "explain" their logic in the context of an intelligible adaptation to explicit objectives. In particular, their logic and degree of autonomy must be transparent and easily understandable. The goal is based on acceptability, tolerance and trust.

Explainable complexity is usually evoked with the dimensions of staff training and collaboration. It must be understood by the subjects who face it, making it possible to facilitate both learning procedures and those of continuous adaptation.

The explicable complexity must be known according to a conceptual action plan (design) that takes into account:
  • the strengths and weaknesses of the devices;
  • those of the interfaces, especially in the case of adaptive interfaces;
  • the justification of decision-making procedures involving the human being or of substitutive autonomy;
  • the logic of these decision-making choices;
  • the level of confidence to be given at each explanatory level;
  • the type of errors that can be produced;
  • corrective measures (or escape) depending on the goal to be achieved.

Accountability, that is to say the explicit artefactual responsibility attached to each level contributing to the overall complexity, must be justified and understood by the individuals who are trained there. We are therefore in training plans for understanding rather than for use, which reverses a classic position in staff preparation.
In the context of an increasingly widespread technological or instrumental complexity, it is important to have a confidence index allowing adaptation or tolerance to this complexity.



03 octobre 2019

DIV : Derniers diplômes.

Derniers diplômes signés dans cet exercice de direction. 
Cinq jours avant la fin du mandat, clos le 7 octobre 2019 
(7 octobre, tiens-tiens !!! -> 64 ans pour en arriver là ...).

04 août 2019

DIV : que font 8/2.4 ?

Les mathématiques sont elles solubles dans la personnalité de l’informaticien ? Telle peut être posée la question à propos de celle qui anime une communauté d’internautes à propos de la question : Quelle est la solution de «  8 / 2 x 4 » ?
Est-ce a = (8/2) x 4 ou est-ce b = 8 / (2x4) ?
Dans les pays anglo-saxons deux règles sont utilisées. BODMAS* donne la priorité aux parenthèses, puissances, divisions, multiplications, additions puis soustractions. PEMDAS** qui suit le même ordre de priorité, mais inverse divisions et multiplications
BODMAS (utilisée par les calculatrices Texas Instruments ou par la calculatrice de Apple ou par celle en ligne de Google) donne alors (a = 16).
PELDAS (utilisée par exemple par les machines Casio) donne (b = 1).
Mais alors, la confiance dans la machine doit-elle s’affranchir de celle du choix de la programmation, et donc de l’éducation, de la culture et de la certitude de celui qui a conçu le programme ?
Si le résultat est celui qui détermine votre salaire en fin de mois, entre 1M€ et 16M€, on a, à peu près, la gamme des revenus des français. Mais que dire si le calcul s’applique sur une coefficient de freinage de votre voiture, ou au calcul de la dose médicamenteuse qui doit sauver votre enfant ?
Le calcul mécanique est certes contraint par les mathématiques, mais également par les choix du programmeur, sa culture, ses certitudes ... et la prétention de certains exécutants des basses œuvres arithmétiques à savoir ce qui est bien pour les autres est insupportable. Notre soumission à cette catégorie qui pense pouvoir régir le monde n’est pas moins dangereuse.
* brackets, order, division, multiplication, addition, substruction.
** parenthesis, exponents, multiplication, division, addition, substruction.
Voir le site : https://www.quora.com/What-is-8-2x4

28 juillet 2019

DIV : Introduction à l’épistémologie et à la méthode de recherche.

INTRODUCTION À L'ÉPISTÉMOLOGIE ET À LA MÉTHODE DE RECHERCHE


A l'usage des ingénieurs et autres scientifiques de l'industrie

Préface de Jean-Claude Sallaberry


L'activité de recherche, qu'elle soit fondamentale ou appliquée, est l'une des dimensions du travail des ingénieurs et des scientifiques de l'industrie. 

Souvent confrontés à des problématiques complexes, ils se doivent d'y apporter des réponses concrètes, efficaces et argumentées, de prendre les décisions rationnelles et parfois d'éclairer les décideurs sur les choix les plus conformes aux critères de vérité scientifique. 

Il est alors parfois utile de revenir aux bases de la pensée scientifique moderne et l'épistémologie et la méthode en sont deux pierres d'achoppement.

Éditions de l’Harmattan, collection Cognition et Formation : Broché - format : 15,5 x 24 cmISBN : 978-2-343-17567-6 • 23 juillet 2019 • 222 pages 
Commander ici.

25 juin 2019

SHS : Les juges et l’interprétation de la science.

Le Big Data correspond à la fois (1) à un ensemble de données massives issues d’observations ou de descriptions d'éléments ou d’ensembles d'éléments du monde, et sur lesquelles peuvent porter des techniques scientifiques permettant le traitement de ces données, (2) à l’ensemble de ces techniques et outils utilisés afin de décrire des structures sous-jacentes à ces données, et (3) à l’attitude intellectuelle qui consiste à considérer l’existence de telles structures plus ou moins cachées sous ces données comme explicatives de l’organisation du monde. Cette attitude constitue une partie récente de la science statistique, elle-même partie des mathématiques appliquées, qui a pu se développer grâce au déluge des données mises à disposition et qui peuvent être stockées grâce à des mémoires magnétiques de plus en plus puissantes, et traitées grâce aux progrès combinés des algorithmes et des moyens du calcul automatique.
L’un des principes du Big Data repose sur l’absence d’a-priori quant à la sélection des données en entrée. Filtrer consiste pour certains théoriciens à commencer à transformer les résultats et donc à manipuler les résultats potentiels des analyses ainsi biaisées : c’est-à-dire commencer à fausser la représentation du monde ! 
La France vient de prendre une décision bizarre en la matière. En effet, les principes juridiques consacrés par la Loi imposent que des décisions de justice soient rendues publiques avec les noms des juges concernés. Elles ne sont donc pas anonymisées. Mais, et c’est là le paradoxe, une nouvelle Loi (2019-222 du 23 mars 2019) vient pourtant limiter l’utilisation de données issues de cette publication des décisions de justice. En effet, leur analyse statistique à visée rétrospective ou prospective, doit être anonyme, donc filtrée. Et toutes personnes, y compris les scientifiques, mathématiciens, sociologues, psychologues, criminologues, etc., sont passibles de cinq ans de prison s’ils utilisent les données publiques qui permettraient de produire des informations (cachées) concernant tel ou tel juge !!! Or le principe du Big Data est justement qu’on ne sait pas ce que l’on va trouver. 
L’article 33 de la Loi « dispose » (comme disent ces juges) que « Les données d'identité des magistrats et des membres du greffe ne peuvent faire l'objet d'une réutilisation ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. ». Au delà du cas des juges franco-français, et on peut comprendre que le législateur ait souhaité les protéger, on renvoit l’obligation d’anonymisation de données publiques, publiées par un organisme public, au scientifique ... 
Cette position est inquiétante, car le législateur impose ni plus ni moins de fausser les analyses en inventant de fait une nouvelle classe de data : celle qui est interdite au scientifique, Autrement dit,   comme aux meilleurs temps de l’obscurantisme où le juriste dictait la science, on impose au scientifique de modifier les données.
Mais alors, que va alors donner la jurisprudence ? En effet, le principe constitutionnel d’égalité des citoyens (et les juges ne sont pas des citoyens supérieurs) impose donc, de fait, d’interdire toute démarche analytique prédictive portant sur des données publiques identifiées. La porte est désormais ouverte pour que l’on limite ainsi les techniques dites d’analytics pour quiconque, y compris les experts, pilotes ou médecins, voire les clients ou les malades ... 
Tout cela va grandement compliquer les choses dans nombre secteurs en interdisant que l’identité publique de toute personne soit utilisée, et cela quelle qu’en soient les fins, prédictives, de qualité, de sécurité, de sûreté, de prévention ou de santé. Comment alors utiliser le bigdata pour l’amélioration de l’expérience client ou usager, pour l’optimisation de la performance opérationnelle, pour la diversification ou l’adaptation clinique ou pédagogique, etc.
Enfin, tout cela en France, car de l’autre côté de la frontière, aux USA, en Chine ou ailleurs, les analyses pourront être faites, ce qui pose alors le problème de l’internationalisation de la science.
Bref, la boîte de Pandore est ouverte, et cela par une décision hautement scandaleuse, prise peut-être  en toute bonne foi.

24 juin 2019

DIV : Préparer la succession de direction de l'ENSC.

La succession s'organise (lien) pour préparer une rentrée sans à-coups (lien).
L'ouverture des candidatures aux fonctions de directeur de l'ENSC est officiellement ouverte par la publication de l'Arrêté du Directeur général de l'Institut Polytechnique de Bordeaux (Bordeaux INP) auquel est rattachée l'école d'ingénieurs de cognitique (voir l'arrêté : lien).
L'élection par le Conseil d'école aura lieu le 23 septembre 2019, parmi les candidats qui auront déposé leur profession de foi (avant le 30 aout, midi), pour une prise de fonction le 8 octobre 2019, pour un mandat de cinq ans, renouvelable une fois.

D'ici là, l'activité et le dynamisme de l'ENSC continuent pour accueillir les 80 jeunes élèves issus des prépas généralistes scientifiques pour le CCINP (20 élèves - ex Concours commun polytechnique) et le concours GEIDIC (10), des cycles préparatoires des INP (10) et de l'Université de Bordeaux (10), et du concours spécifique sur titre pour les élèves (30) issus des IUT (GE2I, Informatique), Licences professionnelles, Licences MASS ou Sciences cognitives et Masters des différentes universités françaises. Un exemple d'ouverture et de diversité des origines thématiques pour une interdisciplinarité au fondement même des études, de la recherche et de la valorisation en ingénierie cognitique.

La recherche se confirme autour des laboratoires et chaires d'adossement : IMS (UMR 5218) et IMB (UMR 5251), laboratoire HEAL avec Thales, chaire STC d'IBM et Carnot Cognition ; la valorisation se poursuit avec le club des entreprises de l'ENSC, en partenariat avec les pôles de compétitivité et clusters de Nouvelle Aquitaine.

10 juin 2019

DIV : Clap de fin et renouveau à l’ENSC

Bernard Claverie, fondateur en 2003 de l’Institut de Cognitique (Université Bordeaux Ségalen), puis en 2009 de l’École Nationale Supérieure de Cognitique (Institut Polytechnique de Bordeaux - Bordeaux INP), seule école d’ingénieurs double compétence TIC-SHS et habilitée par la CTI, quitte sa direction en octobre 2019. Il laisse ainsi à un nouvel élu la destinée de cette école nationale des sciences cognitives appliquées à l’industrie et à la gestion des grands systèmes à risques impliquant des humains. 
Ancien directeur du laboratoire de Sciences Cognitives (EA 487), psychologue, physiologiste, professeur de classe exceptionnelle expert auprès de l’ANR, de l’HCERES, de la DGRI, et membre scientifique du réseau ADER de l’Armée de l’air, Bernard Claverie redevient enseignant-chercheur à l’issue de ce second mandat de direction. Spécialiste des questions bio- et psycho-cybernétiques, il rejoint l’équipe de recherche d’ingénierie cognitive de l’IMS (umr CNRS - Université de Bordeaux - IPB) pour y développer la cyberpsychologie, notamment pour les problématiques liées à l’IA et à l’augmentation de l’humain. 
Sa succession sera ouverte par la publication de la vacance du poste de directeur de l’ENSC et l’appel à candidatures, publiés cet été. L’élection par le conseil de l’ENSC s’effectuera en fin septembre prochain. Bernard Claverie promeut explicitement l’idée d’une continuité assumée, telle que la propose l’équipe de direction qui l’a accompagné pendant ces dernières années, en relation étroite avec les partenaires industriels et institutionnels qui ont participé au succès de l’entreprise ENSC.

01 juin 2019

REP : Michel Serres n’est plus ...

Philosophe, sociologue, académicien, systémicien, gascon truculent d’esprit comme de chair, Michel Serres vient de s’éteindre en cette fin de journée du 1er juin 2019. 88 ans de vie et encore plus d’ouvrages, contributions qui resteront des bases d’une future connaissance transdisciplinaire.
Dénoncés par les perpétuels  Sokal, Brickmon, les tristes sires du positivisme réductionniste et les nouveaux bien pensants de la qualité appliquée au savoir, il était tant apprécié du grand public et des jeunes, pour savoir faire partager une vision raisonnable et optimiste de la complexité du monde et des humains. Il a rejoint, lui clair d’esprit, ce soir, le panthéon de grands esprits.
Sur France Info, une chronique de Michel Polacco (ici). 

28 mai 2019

DIV : La « Team ENSC » en demi-finale de la Mars Society

Les élèves 1A de l’ENSC, conduits par le professeur Jean-Marc Salotti, ont candidaté au concours de la Mars Society : "Mars Colony Prize Competition". Le concours consiste à proposer le meilleur plan de conception d’une colonie martienne de 1000 personnes. Il est doté d’un premier prix de 10 000 $ d’un second prix de 5 000 $ et de 2 500 $ pour la troisième place. En outre, les 20 meilleurs articles seront publiés dans un ouvrage à paraître en 2020 et intitulé «Colonies de Mars: plans d’installation de la planète rouge».
La "Team ENSC", a été sélectionnée pour la demi-finale : 25 projets qualifiés dont un seul français. 
L’ENSC représente donc la France au côté d’équipes majoritairement  américaines (16), de 2 polonaises, et d’une équipe britannique, une japonaise, une suisse, une suédoise, une finlandaise et une israélienne.

11 avril 2019

DIV : l’ANORAA et ADER à l’ENSC pour aborder l’IA dans le C2 du futur.

Réunion commune de l’ANORAA Guyenne 
et d’ADER Nouvelle Aquitaine
ENSC - 11 avril 2019 - Bordeaux-Talence

IA et C2 air du futur ...


Les membres de la section Guyenne de l’ANORA (Association Nationale des Officiers de Réserve de l’Armée de l’Air) et ceux du réseau ADER (réserve citoyenne de l’Armée de l’Air) en Nouvelle Aquitaine se sont réunis le 11 avril 2019 sur le campus universitaire de Talence, à l’invitation de l’ENSC (École Nationale Supérieure de Cognitique) de Bordeaux INP.
Au programme, une journée d’études et d’actualisation des connaissances sur le rôle de l’Intelligence Artificielle dans les futurs systèmes de commandement et contrôle des opérations aérospatiales.

Après une présentation de l’ENSC, école partenaire de l’École de l’Air de Salon-de-Provence et du CEAM (Centre d’Expertise Aérienne Militaire) de Mont-de-Marsan, le Professeur Bernard Claverie, a introduit le concept de « Cognitique ». Cette science a pour objectif de mettre en œuvre les techniques du traitement des connaissances humaines par des ordinateurs. Comme l’informatique est la science du traitement automatique de l’information, la cognitique s’intéresse au traitement informatique d’un type particulier d’information : celle qui est créée, traitée ou transformée par les cerveaux humains, celle qui a un sens spontanée pour l’homme, et qui lui permet de vivre, de s’adapter, de connaître le monde et d’agir sur lui avec intelligence.
L’Intelligence Artificielle (IA) a quant à elle été présentée dans deux acceptions pratiques : d’abord celle d’une intelligence informatique, dotée de la toute puissance et des performances des machines modernes ; ensuite celle d’une intelligence humaine augmentée. Le but est de mettre à disposition d’opérateurs, de décideurs ou de simples usagers, la performance des machines pour amplifier, sécuriser et rendre plus efficaces les raisonnements, les décisions, les actes de la pensée humaine.

Ces fondements ont été éclairés par des applications au niveau du commandement et contrôle des opérations de sécurité militaire (C2), notamment dans sa « dimension air » qui nécessite rapidité, globalité et fiabilité des actions. Le général Gilles Desclaux, ancien commandeur des opérations aériennes, a présenté les principes du C2 et les originalités comparées des systèmes français et d’autres grands pays. Il a montré comment la notion d’Intelligence Augmentée est au centre du futur dispositif de la défense aérienne, combien l’IA est un enjeux de sécurité et d’indépendance nationale, et comment la recherche devient duale, militaire et civile, dans la maîtrise et la gestion des grands systèmes « à risque ».

Dans un troisième temps, une table ronde a réuni, autour du général Jean-Marc Laurent, titulaire de la chaire de Sciences Po Bordeaux « Défense et Aérospatial » des chercheurs de l’ENSC (Professeur Jean-Marc Salotti), de la DGA (Baptiste Prebot), de la Science and Technology Organisation de l’Otan (Hervé Le Guyader) et du Ministère de la Recherche (Professeur Benoît Le Blanc) autour des enjeux de l’IA pour la défense aérospatiale du futur. 

À l’issue, le public a pu visiter les installations de recherche et les simulateurs de vol et de C2 de l’ENSC.

02 avril 2019

IA : et Vive l'inintelligence artificielle.

Les grands acteurs du monde numérique, les GAFAMI, et autres acteurs des NBIC, les grandes sociétés industrielles de l’automobiles, de l’énergie, de l’aérospatiale ou du maritime investissent  des centaines de millions de dollars dans des équipes de recherche, des laboratoires ou des start-up spécialisées dans le « deep learning » ou « apprentissage profond ». Le prestigieux prix Alan Turing a d’ailleurs été attribué cette année à Yann Lecun, Yoshua Bengio et Geoffrey Hinton pour leurs travaux sur le deep learning.
Cette approche de l'intelligence artificielle née des travaux initiaux sur les neurones formels de McCulloch et Pitts (1943) et du Perceptron de Rosenblatt (1957) repose sur l’imitation d’un réseau de neurones simplement organisés selon des règles issues des propriétés biologiques que ces éléments neuronaux présentent en eux-mêmes ou élaborent entre-eux (effet de seuil, activation excitatrice ou inhibitrice, rétropropagation, synapse de Hebb, etc.). On remarquera d’ailleurs que tous ces noms sont ceux de psychologues ou neurologues, sachant parfaitement quelles étaient les limites des modèles proposés. Cette imitation, en se prenant au sérieux, est d’ailleurs une horreur pour les neurobiologistes et psychologues, qui savent combien la complexité d’un seul neurone empêche encore à l’heure actuelle toute modélisation d’autant que celle-là doit être évolutive, non seulement en fonction de l’activité électrique (ce que le neurone formel produit comme « modèle réduit » du neurone naturel, comme pour jouer avec, comme avec une petite voiture, un train électrique ou un autre jouet pour les gamins, ados ou adultes nostalgiques), mais aussi des évolutions structurales de la membrane, des synapses, de la neurochimie, de la percolation avec les cellules supports de la neuroglie, astrocytes ou oligodendrocytes, et avec le contexte neurobioactif, pétri de neuromodulateurs, neurohormones, vascularisation, etc., tout cela dans un cerveau qui bouge, qui subit en même temps qu’il organise une chronobiologie régulant les équilibres et des temps d’activité ou de repos.
Il s’agit donc ici encore d’une analogie, au sens ou l’analogie, ça fait comme si c’était pareil alors que tout le monde sait que ça ne l’est pas du tout (voir là) ! Le neurone formel est un analogue plus qu’élémentaire et le réseau d’analogues est encore plus élémentaires qu’il; ne traite que des informations de nature électrique, elles-mêmes sombre imitation de la conséquence des phénomènes biochimiques qui leur donne l’aspect d’une naissance. On ne traite dans le deep learning que les effet de l’ombre d’un poteau en pensant qu’elle peut représenter l’image de l’ensemble des arbres d’une forêt, voire de tous les forêts, vergers et allées ombragées du Monde.
De là pourrait-on imaginer appliquer le principe du test de l’imitation de Turing (« imitation game »). Est intelligente la machine qui ne permet pas à un observateur humain de savoir s’il s’agit d’une machine ou d’une homme. Est intelligence artificielle, en tant qu’analogue de l’intelligence naturelle (voir le post sur les machines qui ne peuvent penser), ce qui réussit le test. Une intelligence artificiellement produite qui serait incapable de ne pas montrer une supériorité inhumaine serait disqualifiée.
Imitation game : Réussi parce que la machine fait ce que fait l’homme ; Perdu lorsque la machine fait bien ce que l’homme ne peut pas faire ou fait moins bien. Il s’agit alors d’un brevet d’artifice. Si l’intelligence considérée ne l’est pas, est-elle pour autant idiote ? Un test de Turing inverse montrerait qu’elle ne l’est pas. Mais alors, quelle essence à cette pseudo intelligence ? Le même problème se pose si on considère qu’un ascenseur est capable d’une bonne imitation de l’aptitude à monter les paquets d’un étage à l’autre. Et pourquoi pas, alors, un prix Nobel pour Roux et Combalusier ? Cela ne viendrait pas à l’idée.
Pourtant l'annonce du 3 janvier de Mark Zuckerberg, patron de Facebook, qui se donne pour objectif de « construire [par deep learning] une intelligence artificielle simple pour piloter la maison ou aider dans le travail » d’ici la fin de l’année, de l’investissement de Apple rachetant Perceptio, VocallQ et Emotient, de Elon Musk et de son pari sur la voiture intelligente, sur la fusée intelligente, sur l’hyperloop Intelligent, etc., de la course aux traductions automatiques sur téléphone mobile, de IBM qui rajout le DL à Watson dans sa version « cognitive business », montre la pertinence effective du deep learning à traiter des problèmes non directement résolubles.
Le mouvement est lancé, et l'apprentissage profond devient un fantastique outil « super intelligent » pour détecter et traiter les cancers, prévoir le climat, déterminer l’apparition précoce de la maladie d’Alzheimer, et jouer avec AlphaGo ou contre les champions de Starcraft 2. Mais comme Super Man n’est probablement pas un homme, super intelligent n’est peut-être pas humainement intelligent.

IA - SHS : Nouvelle frontière franchie - la justice rendue par les machines.

La présidente de l'Estonie vient d'annoncer (selon Wired) son intention de confier le jugement des délits mineurs (dont les dommages sont inférieurs à 7 000 euros) à un système d’intelligence artificielle (IA). Ce système devra, dans un premier temps, se prononcer de manière  autonome sur la culpabilité d’un prévenu, sur le dommage subi et sur le montant de la peine. Le condamné aura la possibilité de faire appel devant un tribunal « humain » de deuxième instance, ou celui d'accepter la sentence, ce qui devrait être le cas dans un nombre significatif de cas et désengorger d’autant les tribunaux et permettant aux juges et greffiers de se consacrer au traitement des affaires plus complexes.
Une intelligence artificielle aura pour la première fois dans l'histoire de la justice la responsabilité autonome d’un jugement. Le principe de cette IA judiciaire a été développé par Ott Velsberg, directeur national des données en Estonie, et associera l’analyse des textes légaux, l’analyse des informations mises en ligne par les deux parties en conflit sur une plateforme dédiée, et les preuves, témoignages, allégations et informations personnelles concernant les parties. Là réside un second point qui peut être problématique, puisque ce principe est non conforme avec ceux de la RGPD européenne et pourrait engager à une justice prédictive avec une collecte préventive de données personnelles et les dérives de fichage qui seraient alors légalement justifiées par la commission potentielle de délits. La date de promotion de ce système est prévue pour la fin de l’année 2019.
Le premier et principal problème reste néanmoins celui, éternel, de la confiance dans la décision. En décembre 2018, un groupe de travail de la Commission européenne pour l’efficacité de la justice avait déjà proposé une charte éthique européenne sur l’utilisation de l’IA dans les systèmes juridiques. Ce qui pose problème est l’opacité du fonctionnement de tout logiciel de deep learning, dont le principe est justement d'échapper à toute possibilité de représentation cognitive. Le deep learning est en effet une méthode d’IA basée sur un  « apprentissage opaque » apprend d’elle-même en fonction de partis-pris de programmation (méthode, information de base, etc.). Il est impossible de savoir ce qui se passe précisément dans le programme, et on démontre que les apprentissages sont différents en fonction de données initiales différentes (sensibilité aux conditions initiales) et de la pratique (expérience) du programme. On peut par exemple craindre que des jugements initiaux soient moins pertinents que les suivants et qu’après un certains temps, les décisions convergent vers des bassins d’attraction, les rendant systématisées plus qu’individualisées.

14 février 2019

DIV : La motivation féminine pour les sciences et l'ingénierie.

Les filières scientifiques sont majoritairement choisies par les jeunes gens après le baccalauréat, et les jeunes femmes y restent minoritaires, sauf pour les filières des sciences de la santé, des sciences de la vie et des sciences humaines. Aussi, 75 % des élèves en classes préparatoires littéraires et seulement 30% de ceux des prépas scientifiques sont des femmes. Vingt cinq pour cent des diplômes d’ingénieurs délivrés en France le sont à des femmes.
Une hypothèse portant sur l’explication de cette différence concerne l’éducation et l’intériorisation des stéréotypes ; en effet, on sait que les représentations se forgeant très tôt dans l'enfance et sont confirmées durant l'adolescence. Notamment, la représentation d’une apparence « féminine » ou « masculine » est très tôt acquise chez les jeunes enfants. Celle de l’apparence du ou de la scientifique semble également tôt stabilisée.
Sans entrer dans un débat éthique qu’il conviendra pourtant d’avoir, certaines bonnes consciences pourraient imaginer tenter de résoudre ce décalage motivationnel entre filles et garçons pour des métiers scientifiques en proposant aux jeunes filles et des l’ecole des représentations valorisées associant les deux stéréotypes : féminité et  scientificité ou « girlie » et « scientist ».
Problème, les choses ne semblent pas aussi simples que ça !
Diana Betz et Denise Sekaquaptewa, de l'université du Michigan, ont testé (lien) l’hypothèse selon laquelle les représentations des jeunes femmes sont modifiées lorsque des exemples de stéréotypes à la fois féminins et scientifiques sont présentés tôt dans la scolarité. Dans leur étude de 2012, des élèves âgées d'environ 11 ans devaient lire une interview dans un magazine. Pour la moitié d’entre elles, des femmes interrogées dans l’article étaient brillantes en sciences (scientist) et associées à des photos très « girlie » (que les chercheurs paramètrent par la présence de maquillage, habits roses, revues de mode à la main). Les autres jeunes filles lisaient l’interview de femmes également douées en sciences, mais d’apparence peu stéréotypée (pas de maquillage, habits sombres, position stricte). Les résultats montrent que dans le groupe de jeunes filles exposées à la combinaison des stéréotypes scientifique et de féminité, ces jeunes filles se disent moins intéressées par les sciences, se jugent elles-mêmes moins compétentes et s’attribuent moins de chances de réussite que dans l’autre condition expérimentale. Et elles sont significativement moins nombreuses à s’imaginer faire des études en sciences plus tard. Ainsi la combinaison stéréotypée du succès et d’une apparence très féminine ne permet pas aux filles de s’identifier plus facilement ; c’est même le contraire.
En fait, deux stéréotypes sont en jeu (les sciences ne sont pas pour les femmes, et les femmes féminines n’ont pas leur place dans le domaine scientifique). L’etude montre que vouloir lutter à la fois contre les deux stéréotypes s’avère contre-productif. Etre « girlie » et « scientist » semble encore plus incongru aux filles que d’être simplement doué en sciences.
Nous sommes là devant un effet complexe d’interaction entre variables. En effet, lorsqu’il s’agit d’un domaine non scientifique, présenter des personnages correspondant ou non au stéréotype féminin n’a pas de conséquence négative sur l’identification des sujets aux modèles.
Force est donc de constater que l’image associant l’ingénieure ou la scientifique stéréotypée féminine pour susciter des vocations scientifiques chez les jeunes filles va à l’encontre de l’effet recherché et pourrait même être décourageante.
Betz, D., and Sekaquaptewa, D. (2012). My Fair Physicist? Feminine Math and Science Role Models Demotivate Young Girls. Social Psychological and Personality Science. DOI:10.1177/1948550612440735

29 janvier 2019

IA - SHS : Ouverture de la chaire IBM Sciences et Technologies Cognitiques à l’École Nationale Supérieure de Cognitique.

« Chaire IBM Sciences et Technologies Cognitiques »

Un partenariat entre IBM et l’ENSC (Bordeaux INP) a permis l’ouverture à l’École Nationale Supérieure de Cognitique d’une « chaire IBM Sciences et Technologies Cognitiques. »

Ce dispositif innovant, annoncé au salon NOVAQ 18, valorise quatre objectifs communs :
  • enraciner des initiatives pédagogiques sur l’Intelligence Artificielle pour former les ingénieurs aux enjeux et aux outils émergeant de « l'ère cognitive » ;
  • définir et mettre conjointement en œuvre des projets prospectifs pour le futur d'une IA  humaine ;
  • développer l'insertion professionnelle des ingénieurs diplômés de l’ENSC chez IBM ;
  • contribuer à un rayonnement mutuel dans différents réseaux et écosystèmes, et au développement de l'idée d'une approche scientifique concrète des dimensions humaines de l’IA.
Depuis décembre 2018, cette chaire est dirigée par Marc Rodier, leader de l'équipe globale IBM « Cloud services for managed application development », spécialiste de Watson et des solutions cognitives d'IBM, qui intervient et enseigne la stratégie « Cloud, Analytics, and Cognitive Science » dans différentes écoles d'ingénieurs et de management. 
Il anime les travaux en étroite partenariat avec la direction, les enseignants et les enseignants-chercheurs de l’ENSC.

À l’ENSC, et aux côtés :
  • de l’Institut tremplin « Carnot Cognition » géré par le CNRS, 
  • de la chaire « STAH » (Systèmes Technologiques pour l’Augmentation de l’Humain) portée par la Région Nouvelle Aquitaine, 
  • du laboratoire commun « HEAL » (Centre d’excellence d’Ingénierie Humaine pour l’Aérospatiale) partagé avec les entités de Thales AVS/DMS (Mérignac) et TRS (Massy-Palaiseau), 
  • du « Club des entreprises de l’ENSC », 
  • l’école renforce par cette chaire IBM son partenariat avec le monde du numérique et de l’Intelligence augmentée, partagée et éthique entre les humains et les systèmes technologiques du futur.
Renseignements, contacts : global@ensc.fr / +33 (0)557006700 - marc.rodier@ensc.fr