16 juillet 2018

IA : Intelligence artificielle explicable

Les applications d'IA envahissent le quotidien des hommes, que ce soit dans le domaine professionnel, le domaine de la vie privée, et même au delà, dans celui de l'intimité personnelle.
Le premier problème reste celui de la communication avec les outils de l'intelligence artificielle (UX), avant celui de la communication avec l'IA elle-même (KX) qui réserve de solides problématiques à la fois techniques et épistémologiques.
La DARPA a mis en œuvre un programme de recherche "CwC & XAI" qui aborde d'une part les dimensions UX du partage direct entre les personnes et les smart machines, et d'autre part qui valorise le partage de représentations propres à chaque catégorie de partenaires pour un partage en toute sécurité, robustesse et confiance. Ce programme est dirigé par David Gunning, à la fois expert en informatique et en psychologie.

UX : Communiquer avec les ordinateurs, ou la Communication with Computers (CwC).
Le domaine CwC dépasse le simple domaine des IHM (interfaces homme-machine), voire des IHS (intégration homme-système) de génération actuelle. Son ambition est de permettre une communication "symétrique" entre des personnes, expertes ou non, et les machines, dont les ordinateurs. La CwC est une forme d'IHS v2.0, pour laquelle les machines ne sont pas de simples récepteurs d'instructions ou émetteurs de réponses ou comportements  préprogrammés, mais de véritables collaborateurs capables de recourir et d'utiliser des modes spontanés de communication. On pense évidemment au langage naturel, dans ses désinences verbales ou écrites, mais également aux gestes avec l'haptique, à la compréhension des expressions faciales ou à celles des caractéristiques du regard ou de la motricité oculaire ...
La communication est ici comprise comme le partage de contenus cognitifs, représentations ou idées complexes mobilisées dans des contextes de collaboration. De telles idées complexes sont supposées être construites à partir de prototypes cognitifs variant de manière à être adaptés à chaque situation inattendue, non programmée, dans un registre ouvert de connaissances qui s'auto-enrichissent les unes les autres en fonction de l'expérience. C'est ainsi qu'à partir d'un nombre limité d'exemplaires représentationnels de départ, et notamment grâce aux caractéristiques d'un langage ouvert faisant place à l'analyse stochastique des ambiguïtés, peuvent émerger, se construire et se stabiliser des idées de plus en plus complexes.
Le recours à cette production émergente laisse une large part aux théories de la complexité et à celle de l'émergence, pour déboucher sur une forme d'intelligence artificielle capable d'exprimer des idées sur elle-même, c'est-à-dire de s'expliquer elle-même, d'expliquer ses "raisonnements", "représentations" et "décisions" à autrui, que celui-là soit humain ou machinique.

KX : la partage des connaissances ou l'Intelligence artificielle explicable (XAI).
Les succès des apprentissage par machine, apprentissage profond, décision automatique ... amène à un développement, au delà des interfaces CwC, à des applications d'intelligence artificielle (IA) de plus en plus rapide, robustes et autonomes. Ces systèmes sont capables de sentir, percevoir (c'est-à-dire associer des sensations à des représentations internes), se représenter (tenir des inventaires de correspondances congruents entre les éléments et situations réels et ceux représentés au sein des machines comme chez les personnes humaines. Ces apprentissages s'inscrivent dans des activités mnémoniques pour lesquelles les différents registres qualitatifs de mémoires rencontrent les masses de données qui peuvent être traitées dans le cadre du Big Data. Dans ce contexte, les machines sont capables de très rapidement et avec un taux d'erreur très faible de décider et le cas échéant d'agir dans des délais proches de l'immédiateté. 
Ces dépassements des simples capacités humaines engendrent la création de machines autonomes, dont le contrôle éventuel ne peut être fait qu'à postériori, dans des temps compatibles avec ceux de la lenteur de l'appareil serveur et/ou cognitif humain.
C'est là que se pose le problème du blocage de l'efficacité des systèmes par l'impossibilité que l'homme a de faire confiance à la machine. On connait ce type de situation dans le domaine du véhicule autonome et encore plus dans celui des SALA (systèmes d'armes létales autonomes) avec lesquels le respect de la vie humaine peut être engagé. La seule solution est une forme d'apprentissage collaboratif, partenarial, de l'homme et de la machine, dans laquelle la machine est capable d'expliquer à l'homme le sens de ses décision et les limites de son autonomie ; ce que ne savent pas faire les machines actuelles. 
De tels systèmes symbiotiques (HAT pour Human-Autonomy Teaming) nécessitent une Intelligence Artificielle capable de s'expliquer, et donc "explicable". C'est tout l'enjeu de la "confiance" dans les machines décisionnelles ou de contrôle, dans un projet global d'intégration bidirectionnelle des hommes et des machines, de type XAI.

03 avril 2018

DIV : Introduction aux sciences humaines et sociétales

INTRODUCTION AUX SCIENCES HUMAINES ET SOCIÉTALES

par Jean-Claude Sallaberry & Bernard Claverie.

Éditions de L'Harmattan (Paris), collection "Cognition et Formation", 3 avril 2018.

L'idée directrice de cet ouvrage est celle d'une évidence pourtant encore discutée aujourd'hui. Les sciences humaines et sociétales ne peuvent plus ne pas s'inspirer de l'évolution de la science du XX et XXIe siècle. Loin de se vouloir exhaustif, quatre grands "évènements" sont choisis en tant qu'exemples marquants de cette exigence :
- le mouvement structuraliste, qui amène à la théorie des systèmes,
- l'apparition de la physique quantique, qui a radicalement boulversé bien des conceptions admises dans l'explication du monde,
- la complexité, qui ouvre les perspectives de l'auto organisation et de l'émergence.
Au fil de l'ouvrage, face aux "exigences" pour la modélisation qui découlent de ce souci de prise en compte, l'outillage fourni par les ensembles théoriques convoqués (théorie de l'institution, théorie des systèmes, cognitique, théorie de la représentation associée à une théorie du champ...) et retravaillés par les auteurs, permet d'y répondre, ainsi que de donner quelques outils pour la modélisation des "phénomènes" humains et sociétaux.

Broché, ISBN : 978-2-343-14357-6, 214 pages

11 mars 2018

BIO - SHS : Ne pas dire "non" est une histoire de dégoût ou d'autorité.

Vous savez dire non ? Vous avez de la chance ! Certains en sont incapables...
Pourquoi donc certaines personnes peuvent affirmer leur désaccord et d'autres pas ? C'est la question que se sont posée des scientifiques du laboratoire de neurosciences sociales de l'Institute of Cognitive and Clinical Neurosciences de la Monash University (Melbourne), et de l'école de psychologie de l'University du Queensland (St Lucia) en Australie.
Les scientifiques, qui ont publiés leurs résultats dans Frontiers in Human Neuroscience, ont tenté de trouver une explication à ce phénomène bizarre : pourquoi certaines personnes ne peuvent-elles littéralement pas dire "non" ou entrer dans une forme d'opposition à autrui ? Ils ont étudié par imagerie par résonance magnétique fonctionnelle (IRMf) les zones du cerveau en activité chez des patients souffrant d'un trouble léger consistant à ne jamais oser affirmer leur opinion propre et à adopter systématiquement celle des autres. Que se passe-t-il lorsque on leur demande toutefois de se forcer à se dépasser et à imposer leur pensée en déclarant leur propre opinion contradictoire ?
Les régions les plus stimulées dans une telle condition expérimentale sont apparues au niveau du cortex préfrontal médian, supposées impliquées dans le langage, la mémoire de travail, et le raisonnement. Mais, à la différence des témoins, une autre zone est concernée : le cortex insulaire qui est stimulé à ce moment-là. Il correspond à un territoire dont l'activité est habituellement associée au dégoût, à la dépendance et qui semble impliquée dans les processus de prise de conscience. Ces deux régions interagissent chez les patients et provoquent un stress intense. Ainsi, lorsqu’une personne qui ne sait ou ne peut pas dire non est amenée à refuser une opinion, son cerveau génère un message d’anxiété, et elle se comporte comme si elle ne se sentait pas autorisée à penser par elle-même. Les personnes souffrant de ce problème se retrouvent alors dans une situation critique, car elles se sentent obligées d’être conformes à ce que pensent les autres, y compris à l’encontre de leur propre intérêt, ce dont elles ont néanmoins conscience.
De toute façon, être en désaccord n’est jamais une partie de plaisir, et ne facilite pas les bonnes relations sociales… Mais encore moins pour ces personnes qui, selon les chercheurs, se retrouvent en situation de "stress mental intense", dans une situation difficile et anxiogène. La solution, pour elles, serait alors de fuir les situations dans lesquelles elles risqueraient d'entrer en désaccord. Ou bien, l'idéal trouvé par certains est encore plus efficace : obliger les autres à adopter leurs idées.

BIO : Le cerveau n'est pas ce qu'il était ... pour les symbolistes, et encore moins pour l'IA.

Le débat n’est pas nouveau. Les psychologues s’écharpent depuis toujours pour l’adoption des modèles interprétatifs du fonctionnement de la pensée. À l’époque de Freud, l’hydraulique donnait les outils de comparaison avec les volumes, les pressions, les équilibres instables entre des volumes d’essences et de densités différentes. Vint l’époque des électrons circulant dans des câbles, celle les étincelles, et des différences entre les électricités statique ou circulante (attention ! il s’agit de l’interprétation du monde par les psychologues, pas par les physiciens). La physique quantique permit l’émergence de nouveaux modèles que vinrent encore plus compliquer ceux de la physique relativiste. La notion d’émergence eut récemment son heure de gloire, avant d’être balayée par le Graal de la psychologie cognitive : l’ordinateur.
En fait, ce n’est malheureusement pas l’ordinateur tel qu’on peut ici le penser, à la fois outil, moyen et objet d’étude de l’informatique. L’Albion est par définition perfide ; et les adeptes des chapeaux royaux imposent leur loi au reste du monde que les collaborateurs de la mondialité s’empressent d’adopter et surtout d’imposer : l’anglais. Outre-Manche, on parle de computer et de computation, c’est-à-dire de calcul. Et voici la cognition réduite à quelques opérations supportées par un organe imaginé comme une machine.
Cela aurait été injuste de poser là une forme de réductionnisme strict. Le génial Turing inventa une machine virtuelle : elle était à la fois le papier, la machine, le calcul et la mémoire… un peu comme s’il était impossible de séparer des choses qui, en fait, n’en sont pas vraiment, des choses. Certains autres génies se réunissaient outre-Atlantique pour donner naissance à la cybernétique, et certains d’entre eux inventaient, pour imiter la machine de Turing, les calculateurs selon l’architecture Von Neumann : un calculateur œuvrant sur des données électriques selon les itérations d’un programme rythmé par une horloge. On n'avait pas assez insisté sur le fait que c'était « pour faire comme si c'était ... ». Le plus grand pouvoir de l'analogie est de se faire oublier.
Et voilà que les psychologues avaient un modèle « concret » d’une idée jusque là parfaitement « abstraite »… un peu comme si Freud avait vraiment imaginé qu’il y avait de l’huile, de l’eau ou d’autres fluides dans la tête… et l’ordinateur devint le modèle du cerveau, et le programme celui de la pensée.
Autant une machine de Turing universelle (et donc virtuelle) est capable d’imiter toute autre machine de Turing, et par voie de conséquence tout ordinateur fonctionnant, autant elle ne simule aucune machine éteinte ni aucun programme non implémenté. Ce sont les deux en mouvement qu’elle simule, ou les deux volets simultanés de la même chose. Elle s’affranchissant de la ségrégation absurde du calcul, de l’information, de la mémoire, du langage de programmation et de l’horloge… toutes ces choses que nos amis électroniciens rendent séparément de plus en plus puissantes, performantes, séduisantes, merveilleusement imitantes.
Alors, pourquoi tant d’argent pour localiser l’administrateur central de Baddeley, la boucle audio-phonatoire ou le calepin visuo-spatial ? Pourquoi rechercher le neurone miroir de la carotte, du visage de sa mère ou de la bouteille de bière ? Pourquoi tant de psychologues formés à l’utilisation de ces modèles ségrégationnistes des éléments de la pensée, en oubliant son incarnation dans un corps d’humeurs, d’hormones, d'os et de viande soumise à la logique de l’humidité ? Les émotions et le cerveau humide… nous voilà bien loin d’une machine virtuelle dessinée au crayon sur un papier sec. D’autant que… le crayon doit être gras, et plus il l’est, plus il marque, et que le papier s’il est très sec part en poussière. Les choses ne sont donc, même pas là, aussi tranchées qu’elles pourraient le paraître.
Alors que penser de l’IA, cette intelligence artificielle dont tant et tant de spécialistes nous disent qu’elle va supplanter l’intelligence naturelle, la renvoyant aux oubliettes des choses obsolètes. C’est un peu comme si l’on avait prédit la disparition du corps humain et sa substitution par des vérins hydrauliques… et en avoir peur, c’est un peu comme si l’on craignait les locomotives qui font. Elles aussi, beaucoup mieux que le corps humain, en restant toutefois sur des rails, car à côté d’eux, elles ne font pas grand-chose.
Tel est l’avenir de l’intelligence artificielle : elle fera de grandes choses qui aideront les hommes, les rendront plus rapides, plus performants, plus puissants, plus intelligents… mais ne les remplaceront pas… Elle remplacera des métiers, fera beaucoup de chômeurs, enrichira encore plus les mêmes, ou d’autres… fera beaucoup de bonheur pour les uns, de malheur pour les autres, et peut-être fera émerger de nouveaux sentiments, transformera des passions et fera vivre les hommes de manière différente, meilleure ou pire selon le point de vue adopté. Mais pourquoi tirer les sonnettes d’alarmes, faire sonner le glas de la fin de l’humanité par l’IA ? C’est un peu comme si l’on avait craint que les locomotives allaient écraser toute l’humanité. La force n’est pas dans le vérin, le piston ou la bielle, comme l’intelligence n’est pas dans la machine. Ils ne font qu’imiter en mieux certaines parties artificiellement décomposées de ce que certains croient être des éléments d’intelligence.
Ainsi se posent deux problèmes : celui de la confusion entre le calcul et l’intelligence, et celui de la singularité. Prenons celle-là : si c’est pour dire que les machines feront des choses que les cerveaux ne peuvent faire, c’est déjà fait ; plus vite, mieux, de manière plus fiable, et sans être obligé de dormir, de se reposer, de ne pas boire ou de conduire. Si c’est pour craindre qu’elles fassent des choses que nous ne comprendrions plus, c’est également déjà fait. Si c’est pour imaginer qu’elles peuvent s’autonomiser, pourquoi pas. Mais si c’est pour penser qu’elles vont faire la même chose que l’homme ou les autres animaux, leur cerveau doté de leur pensée, alors il est probable que l’on se mette le doigt (qu’elles n’ont pas) dans l’œil (qu’elles n’ont pas non plus). Comme le pensent Miguel Nicolelis et Ronald Cicurel : « The Singularity is not near », tout au moins, pas celle qu’on fantasme.
Comme quoi, on peut être pour un transhumanisme rationnel, scientifique, éthique, et dédramatiser le débat dans lequel veulent nous faire tomber certains alarmistes catastrophismes. Nous ne sommes pas sortis du danger de l’holocauste nucléaire, de celui des viroses ou des atteintes bactériennes, de celui de l’impact d’un astéroïde destructeur ou du réveil d’un super volcan. Il est certain que l’IA va aussi compliquer les choses… 
Mais pourquoi toujours se faire peur en donnant un monde sans espoir à nos enfants… ce n’est pas de la faute à l’intelligence artificielle, mais bien aux limites de la pensée naturelle,  empreinte dans ses méandres irrationnels (voir ici).

04 mars 2018

DIV : Le retour de l'obscurantisme.

Égypte, le 11 février 2018 ; alors que, selon Le Point, le gouvernement s'apprête à criminaliser l’athéisme, Marianne se fait l’écho (ici) d’un événement encore pour quelques-uns incroyable : l’expulsion d’une personne se disant athée (voir le sketch), du plateau d’une émission populaire de l’une des innombrables chaînes satellitaires égyptiennes (liste).
Quoi dire des arguments qui sont développés par le présentateur animateur et son invité, si celui-ci ne se présentait pas comme directeur adjoint (deputy sheikh) de l'université millénaire, certes islamique mais publique Al-Azhar. L’argumentaire du jeune homme reposait sur son choix d’adopter une théorie explicative des origines non déiste, et l’explication que le postulat du big-bang n’empêchait en rien sa moralité et son utilité sociale. De quoi émouvoir le Middle East Media Research Institute (MEMRI) qui a relayé l’extrait de l’émission le vendredi 2 mars suivant, diffusant la vidéo de ce moment jusque-là passé inaperçu et qui, s’il est avéré, frise le surréalisme le plus absolu (voir ici). Tout cela n’a pas manqué de mobiliser l’assemblée des bien-pensants de la théorie du complot. En effet, la question reste de savoir s’il s’agit ou non d’un « fake » (voir), et la blogosphère s’est enflammée pour dénoncer, discuter et surtout discutailler, à coups de relais, renvois (repost) et commentaires allant des plus farouchement opposés aux religions à la défense fanatique de celles-là, ou même, par voie de conséquence, au soutien inconditionnel à la neutralité et l’objectivité de MEMRI à sa critique la plus bassement antisémite.
Bref, cela nous rappelle le festival des branquignolles, et le projet d’Amira Kharoubbi, étudiante à l’École nationale d'ingénieurs de Sfax, qui a travaillé depuis 2011 sous la direction du Professeur Jamel Touir, dans le cadre d'une thèse dénonçant Copernic, Galilée, Kepler, Newton, Einstein, etc. et promouvant l’évidence physique de la platitude de la Terre (voir ici). Quant aux Américains, il y en a toujours pour aller encore plus loin… et Mike Hughes (voir ici) tente toujours de lancer sa fusée. Et voilà qu’à Bordeaux, certains ramènent « leur science » sous le masque de la « laïcité nouvelle donne » : tout le monde a le droit de penser ce qu’il veut, de croire à n’importe quoi, et surtout de venir « em....r » les professeurs avec des arguments aussi iréniques que débiles (au sens littéral de faibles et chétifs) pour les engager à plus de souplesse dans leur rigueur scientifique. Surréaliste, la perspective actuelle est celle d’une excommunication express des scientifiques : arguments confus, incompréhensibles et échappant au contrôle direct des citoyens par les réseaux sociaux, allant de la remise en cause de la physique, évidemment non complète, à la substitution de la psychologie par les belles images des neurobiologistes que tout le monde peut voir, ou le refus des nécessités de la vaccination pour les enfants. Cela est inquiétant, après un siècle de progrès théorique, voici revenu à grand galop les politiciens de la tolérance obligatoire et de l’acceptation des discours les plus religieux.
Mais revenons à Dieu ou, plus exactement, à son contraire « non-dieu ». Dans une excellente chronique du Point (lien), Roger-Paul Droit rappelle que déjà Platon, dans son dernier dialogue « les Lois », dénonce athées et agnostiques, tous ceux qui mettent en cause l'existence des dieux, pour les enfermer et même les tuer s’ils restent impossibles à fléchir. De tels esprits seraient des « ferments de discorde et de désorganisation », véritables majeurs pour toute « Cité juste ». L’inquisition et l’ordre islamiques n’ont pas été en reste, et Droit rappelle comment Voltaire, opposant au clergé, aux fanatismes et aux superstitions, dénonce paradoxalement les athées accusés « de s'affranchir de toute morale ». Si Voltaire est libre penseur, le vulgum pecus, le commun des mortels, la multitude ignorante ne peuvent jouir de pareille liberté et tenus à rênes courtes. Celles des freins de la religion et de la crainte du châtiment divin en sont d’excellente et « Si Dieu n'existait pas, il faudrait l'inventer ». Et Droit de citer le constat du Dmitri, le modèle de l'homme de tous les jours, partagé entre ses passions et ses doutes, celui des Frères Karamazov qui n’est ni l'homme de foi, ni l'intellectuel matérialiste : « Que faire, si Dieu n’existe pas, si Rakitine a raison de prétendre que c’est une idée forgée par l’humanité ? Dans ce cas, l’homme serait le roi de la terre, de l’univers. Très bien ! Seulement, comment sera-t-il vertueux sans Dieu ? Je me le demande. En effet, qui l’homme aimera-t-il ? À qui chantera-t-il des hymnes de reconnaissance ? Rakitine rit. Il dit qu’on peut aimer l’humanité sans Dieu. Ce morveux peut l’affirmer, moi je ne puis le comprendre » (DostoÏevski : ici). Voilà la crainte, si le big bang est théorisé, si tout est prédéterminé ou pour le moins les grandes règles de l’organisation physique, si dieu est inventé, si la science explique le réel, si les robots créent leur propre intelligence, et s’il n’y a pas un bout d’âme à montrer dans les images du cerveau, alors certains ne l’accepteront pas. C’est pour eux intolérable ; et l’intolérable est source d’intolérance (toujours selon Marianne, l'Egypte se prépare à adopter une loi criminalisant la non croyance en dieu - lien).
Et les pires sont comme d'habitude les mous ... les "laïques mous", les adeptes de la bien-pensance, ceux qui permettent de jeter tout en recommandant toujours plus d'ouverture et de tolérance, acceptant la toujours même discussion, sans fin, dans les mêmes « débats », celui d'un dieu absolu et de la suspecte science. Prenez garde, pauvres matérialistes, les juges vont un jour vous poursuivre ! Pendant ce temps, les stratèges de la défense rivent leurs yeux sur les brumes de Clausewitz en sortant de la messe sans voir Poutine investir dans l'IA. De nouveaux politiques, biberonnés à l’école confessionnelle sans avoir eu la chance de vivre une école républicaine, de la science et de la lumière, dont les hussards lassés pensent à d'autres mondes, rêvent parfois de régler son compte au statut protégé des scientifiques ... (peut-être après celui des cheminots ?). La science est en danger, le danger n'est pas dieu, mais bien entendu ceux qui s'en réclament de manière absolue, et refusent d'entendre. c'est aussi celui du découragement des scientifiques submergés d'administration plutôt qu'incité à librement chercher et encouragés à transmettre.

DIV : De l’oubli des contraintes cognitives.

Nous savons bien le mépris dans lequel les politiques tiennent les scientifiques. Persuadés qu'ils sont de détenir «"a réalité", ils "savent" ce qui est bien pour les autres, "investi d'une mission" d'histoire, et fiers d’etre capables d’assumer "être impopulaires", argument ultime pour faire passer leurs habituelles prétentions, oukases ou faiblesses de courage.
On peut parler du décalage entre l’heure d’hivers et l’heure d’été, que nos organismes supportent mal toujours plus de quarante ans après. Le 19 septembre 1975, dans un contexte d'économie d'énergie,  MM. Chirac, D'Ornano et Cavaillé décrétèrent que le 28 mars 1976 serait le début d'une mesure "provisoire" qui ne devait durer que le temps du choc pétrolier. Un autre exemple encore plus caractéristique est celui des longueurs des mois, qui nous contraint toujours, plus de deux mille ans après une des décisions politiques les plus prétentieuses de l’ordre Romain.
Chacun sait, depuis l’école primaire, qu’une année fait 365 jours, un peu plus tous les quatre ans et en début de siècle, pour rattraper la désynchronisation des rotations terrestres, l’une sur elle-même, l’autre autour du soleil (365,24 jours). Il était donc possible, et les astrologues devenus astronomes puis astrophysiciens l’avaient bien montré, d’alterner des mois de 29 et de 31 jours (en fait, c’etait Un peu plus compliqué) et de supprimer un jour de temps en temps. 
C’était sans compter sur l’empereur Auguste !!! Le calendrier julien, qui précéda notre calendrier grégorien, débutait alors en mars, mois du dieu de la guerre, pour se terminer en février, celui qui permettait ainsi les réajustements nécessaires à la fois de fin de mois et de fin d’année.  Le nom de februarius dérive du verbe februare, qui signifie "purifier" ; la purification en fin de cycle.
Le mois de juillet était quant à lui consacré à César : julius en latin, july en anglais ... celui d’août célébrait le nom d’Auguste : augustus, august. Mais voilà, celui de Jules était de 31 jours et celui d’Auguste se retrouvait donc plus court. Impossible à supporter pour un nouvel qui devait s'inscrire dans l'histoire ! Auguste a donc décidé de prendre un jour au mois de rattrapage et de le rajouter au mois d’août. Le calendrier grégorien a depuis changé l’ordre des mois et février est alors apparu en début d’année, rendant le système complètement incompréhensible. 
Mais l’empereur était content ; fier comme un bar-tabac, disait Bérurier quelques années avant d’être repris par Coluche ... S'engouffrant dans la brèche, de multiples conseillers ont amener les princes à ajouter, retirer, rattraper, supprimer des jours par ci, par là, afin de faire rentrer le décalage des deux rotations terrestre dans une logique calendaire des plus absconse : plus personne n'y comprend goute, et les savants discutent encore ...
Cela nous rappelle évidemment d’autres aberrations par rapport à des règles établies en prenant en compte la facilité de comprendre. Par exemple, il en est ainsi des vitesses sur la route. Sans entrer dans l’évidence que "diminuer la vitesse économise des morts" (voir aussi le modèle de Nilsson), les experts avaient admis que la complexité du code de la route devait faire l’objet de mesure de simplification "cognitique", reposant sur des règles spontanément compréhensibles pour les usagers de la route. Par exemple, les vitesses imposées aux automobilistes, ce qui est différent pour les poids lourds, sont « impaires » : 30 et 50 km/h en agglomération, 70 et 90 sur routes normales, 110 et 130 sur les voies rapides et autoroutes. C’etait simple et le serait resté si un politique n’avait souhaité imprimer sa marque : plutôt que de baisser à 70, il le fit à 80, rendant ainsi, comme Auguste, tout incompréhensible ... et évidemment pour de longues années !
Voulant rester sans l’histoire comme celui qui a eu le courage de sauver des vies, il n’est pas certains qu’il ne soit pas celui qui sera cité comme le responsable du grand bazar, comme Auguste ... toutes proportions gardées ; on espère bien que la voiture autonome n’attendra pas 2000 ans.
Cet exemple amusant montre combien il est encore difficile de convaincre de respecter les caracteristiques, limites ou préférences cognitives spontanés des usagers dans des processus qui les concernent tous.

13 février 2018

BIO : Le sandwich pollutant.

Dans un article publié ce mois-ci, l’Association britannique du sandwich (BSA) rend compte d'une étude de l'université de Manchester, publiée dans la revue Sustainable Production and Consumption.
Cette étude révèle que la consommation annuelle des sandwichs consommés au Royaume Uni serait responsable de l’émission de près de 10 tonnes de CO2, ce qui équivaut à l’utilisation de 8,6 millions de voitures sur un an. Cette consommation serait de 11,5 milliards de sandwichs par an, dont la moitié étant préparée à la maison et l'autre achetée dans le commerce. Elle génèrerait en moyenne 9,5 millions de tonnes d'équivalent CO2.
En cause, la production, la transformation, leur emballage, leur transport mais surtout la conservation au frais des sandwichs. Cclle-là, dans les grandes surfaces représente ainsi jusqu'à 25% de leur empreinte carbone. L'étude estime que cette empreinte pour un seul sandwich est équivalente en moyenne à celle d'une voiture roulant pendant 19 km. 
Cette catastrophe écologique pourrait être réduite de 50% en modifiant d'une part les recettes, d'autre part l'emballage et le recyclage des déchets, et enfin en repoussant simplement leur date de péremption. Ainsi, la BSA estime que prolonger la durée de conservation des sandwichs en assouplissant les dates de consommation pourrait permettre d'économiser au moins 2.000 tonnes de déchets par an. 
Le plus écologique serait de célèbre "jambon-fromage" fait à la maison.
Voir ici (pdf).

25 janvier 2018

BIO : Un pas de plus vers le clonage humain.

Des chercheurs d’un laboratoire de l’institut de neurosciences de l’Académie des Sciences de Shanghaï (Chine), dirigés par le professeur Qiang Sun, publient dans la revue scientifique Cell du 24 janvier 2018 les résultats d’une manipulation génétique ayant conduit pour la première fois au clonage de primates.
Ils ont utilisé sur deux macaques les techniques qui avaient permis de créer la brebis Dolly il y a quelque vingt ans.
Les deux petits singes, Zhong Zhong and Hua Hua, ont été conçus à quelques semaines de différence l’un de l’autre. Ils sont pourtant porteur d’un patrimoine génétique commun, comme s’ils étaient des jumeaux homozygotes. Autrement dits, ce sont des clones issus, dans le cas présent, de la même cellule provenant de la même mère.
Selon les auteurs, cette percée pourrait contribuer à stimuler la recherche médicale, notamment en permettant d’observer chez l’un des clones l’impact de la modification d’un gène réputé lié à une maladie humaine, en comparant les deux animaux, et de liés à des maladies cancéreuses.
Néanmoins, cette manipulation suscite beaucoup d’inquiétudes en Occident, où elles n’auraient deontologiquement pas pu être menée. Ainsi, de possibles dérives sont à craindre, notamment sur d’autres espèces encore plus proches de l’humain, et pourquoi pas, in fine, sur l’homme lui-même pour lequel, puisque la barrière vient de tomber, on peut donc et on sait aujourd’hui facilement transférer la méthode.
Voir ici (lien) et télécharger l'article (pdf).

21 janvier 2018

SHS : Un peu de management ... la Loi de Murphy.

La Loi de Murphy, dite de loi de l'emmerdement maximum, est un principe empirique dû à l'ingénieur en aérospatiale  Edward Aloysius Murphy (1918-1990) de l'United States Air Force Institute of Technology. La paternité de son énonciation première reste néanmoins discutée par certains, ce qui n’a probablement pas grande importance. 
Une de ses formulations les plus connues est « tout ce qui peut mal se passer va mal se passer »,
et en anglais pour les puristes « anything that can go wrong, will go wrong » ou  « if anything can go wrong, it will ».
Pour l'histoire, c'est en 1945 que commença sur la Base Wright-Patterson, puis de 1947 à 1949 sur la Base Muroc de l'US Air Force, devenue depuis Base Edwards,  le projet MX981. Le but était de tester la tolérance humaine à la décélération brutale. Pour cela, on lançait un chariot propulsé par une fusée sur des rails, ralenti de manière brutale par une série de freins hydrauliques . Les premiers tests utilisaient un mannequin, puis des chimpanzés, et enfin on eut recours à un cobaye humain. Edward Murphy, ingnieur en charge de l'étude, proposa de mesurer l'effort subi par des jauges électroniques sur les sangles du harnais. L'assistant de Murphy se serait trompé et aurait câblé les capteurs à l'envers, ce qui fait qu'un premier test sur un chimpanzé donna des valeurs aberrantes. Agacé, Murphy aurait prononcé sa célèbre phrase : « if that guy has any way of making a mistake, he will » (« si ce gars là trouve le moyen de faire une erreur, il la fera »). La Loi de Murphy serait donc initialement une énonciation péjorative impliquant une personne particulière. Elle a, en tout état de cause, été rapidement généralisée à l'ensemble des phénomènes observés qui motivent une perception négative.
Cet adage est ainsi habituellement associé en France à la loi dite de « l’emmerdement maximum » ou LEMOn en trouve des variétés sous la dénomination de « loi de la tartine beurrée » scientifiquement étudiée par Robert Matthews, éminent physicien de l'Université d'Aston (UK), et selon laquelle la tartine retombe toujours du mauvais côté, ou de « loi de la mauvaise queue au supermarché », qui dispose que la queue d'à coté, celle que l'on n'a pas choisie, avance évidemment plus vite.
On connait en France le principe ou « effet Bonaldi », associée au nom d'un célèbre animateur de télévision, Jérôme Bonaldi, qui présentait des objets et inventions insolites à la fin de l'émission « Nulle part ailleurs », présentations qui rataient toujours alors que l'objet fonctionnait habituellement sans problème. L'effet Bonaldi est donc un cas particulier de la loi de Murphy. qui s'énonce « toute démonstration d’un produit quelconque qui fonctionne parfaitement rate lamentablement lors de la démonstration publique ».
La « loi militaire de l'emmerdement maximal » semble remonter à la première guerre mondiale. Elle pronostique que « s'il y a une faille dans un plan de bataille, l'ennemi l'exploitera » puisqu'il analysera toutes les options possibles. Elle est à l'origine des procédures dites de « branch plan » qui mènent rapidement à une explosion combinatoire des solutions potentielles et motive aujourd'hui les stratèges à former des espoirs sur les outils analytiques du big data et de l'intelligence artificielle.
La « loi de Bouchard », dite « loi du Fatal Error », est une application informatique de la loi de Murphy. Le nombre de « crashes » (FatalError) d'un logiciel est inversement proportionnel au nombre de sauvegardes. C'est à dire que « moins l'on sauvegarde souvent, plus le risque de corruption est élevé ». On peut la formuler en bureautique par le fait que « c'est toujours à la fin d'un long travail et juste avant qu'on ne l'enregistre qu'un travail plante ». Certains considère même que « c'est juste quand on vient de sauvegarder un travail sur la sauvegarde précédente qu'on s'aperçoit que ce travail et donc la dernière sauvegarde sont pervertis, et l'avant dernière effacée ».
Pour les puristes, on différencie la « loi de Murphy », qui est devenue générale, de la « loi de Finagle », qui n'implique aucune intervention humaine volontaire. On la retrouve énoncée, selon le niveau de matérialisme ou spiritualité de chacun, comme règle de la perversité de l’univers qui tend vers un maximum, ou comme règle de la divinité malveillante. Ainsi, pas besoin de beurrer une tartine, de choisir une file de supermarché, ou d'agir en quelque que ce soit ...  « quand ça peut aller mal, ca va forcément aller mal ».
L'ambiguïté réside dans la notion d'intervention humaine. On admet donc comme loi de Murphy le fait que « si tout de passe bien mais qu'il y a une solution pour que ça aille mal, il y aura toujours quelqu'un pour faire que ça aille mal », de la loi de Finagle selon laquelle « même si on a réussi miraculeusement à une épreuve d'examen, il y aura toujours un accident ou un recours qui fera qu'elle sera annulée ».
Pour résumé, on peut dire que la loi de Murphy correspond plus au fait que « il y aura forcément une inattention, une erreur, une maladresse, ou un imbécile, un malfaisant, un casse pieds pour que ça aille de travers ou que ça rate » (c'est toujours de la faute de quelqu'un, il n'avait qu'à beurrer les deux côtés de la biscotte, comme ça elle ne tomberait pas), alors que la loi de Finagle fait que « de toutes manières, si ça peut rater, ça va rater » ... et même parfois « ça va rater même si ça ne peut pas rater » (même si on ne beurre pas la tartine, elle va tomber).
Cette systématisation de la noirceur pronostique, amène ainsi à des paradoxes amusants. Des études statistiques rigoureuses ont ainsi montré que la loi de Murphy se vérifie avec une probabilité significativement plus grande. Pourtant, l'absence de résultats significatifs avec de la confiture ne laisse pas insensible ceux qui s'en mettent plein les doigts car elle ne tombe pas, mais elle casse. Des études ont permis d'étudier les biais cognitifs (biais d'observation erronée, biais d'évaluation du temps qui passe avec minimisation de secondes positives et maximisation des négatives, etc.) qui concernent les comportements erronés (changement de file lorsque celle qu'on a quittée avance plus vite) et le sentiment de frustration qu'induit le fait d'être passif dans la mauvaise file sur l’autoroute.
Le « corollaire de Blumenfeld » dispose quant à lui que, les statistiques étant vérifiées, si une tartine beurrée tombe du côté non beurré, c'est qu'elle a été beurrée du mauvais côté ». Le « paradoxe du chat beurré » combine quant-à lui deux lois concurrentes. Une tartine beurrée fixée sur le dos d'un chat jeté par la fenêtre ne tombe pas puisque le chat ne peut tomber sur le dos. On produit donc ainsi un chat volant, ce qui ne fait pas les affaires de Batman.
A lire : La Loi de Murphy, de David McCallum (lien).

IA - SHS : Et les machines deviendront citoyennes ...

Il est évident que les prochains mois verront encore plus d’IA envahir le monde dans toutes ses dimensions, qu’elles soient professionnelles, médicales ou de santé, économiques et de consommation, pour l’automobile, l’aérospatiale, la ville connectée, les télécommunications et les smart grids, le jeu et le loisir, etc. Si beaucoup d'entre nous la souhaitent plus pratique, plus utile, plus accessible, plus écologique et plus éthique, certains la voit aussi jouer un rôle majeur dans l’automatisation de certaines tâches, dans l’économie des emplois, ou dans la création de richesses comme dans la production d’économies et donc de gains financiers. Tout un chacun ambitionne pour soi, ses enfants, parents et proches, l’amélioration des conditions de vie, de travail, de la performance des diagnostics, pronostics et traitements pour une médecine personnalisée et, pour tous, une gestion efficace des ressources, de la gestion de l’environnement, depuis celui la planète jusqu’à celui de son domicile ou de sa voiture, de la consommation des énergies et des fluides jusqu’a la sécurité globale, etc.
Les attentes sont immenses et les besoins encore plus. La convergence du machine learning (ML) et du big data (BD) pour de meilleures informations, connaissances et décisions, au milieu d’une prolifération données dont la gestion dépasse les capacités humaines et l’entendement, permet d’entrevoir une délégation de plus en plus importante des circonstances, moyens et buts de nos vies modernes aux machines.
Si la grande question est toujours, et encore et encore, celle de la confiance du délégant au délégataire, il sera forcément nécessaire de quantifier la responsabilité et son transfert dans la situation d’autonomie (de comportement, de décision, etc.), et pas seulement selon les équations absurdes que des experts de sciences économiques ont donnés en pâture aux assureurs, banquiers et autres spécialistes du bénéfice de l'argent qui ne leur appartient pas. C'est d'ailleursceux-là dont l'IA va aussi balayer les emplois.
Selon Or Shani, PDG de la société Albert, le grand défi de l’IA sera celui de pouvoir répondre à la question « Pourquoi ? ». Selon lui, et après avoir observé les interactions des utilisateurs avec les machines, les humains ne supportent plus de ne pas savoir ce qui se fait et pourquoi cela se fait.
Or les machines ont du mal aujourd'hui, telles qu'elles sont, à expliquer rationnellement et dans un langage compréhensible et qui prend le temps du cerveau humain, ce qu’elles font à partir d’algorithmes très compliqués sur des données inimaginables à des vitesses fulgurantes. De cela découlent deux conséquences : (1) la frustration et (2) la méfiance, voire la crainte.
C’est sur ces deux bases que surfent d'ailleurs les escatologues de la modernité, des plus géniaux aux plus riches, en passant par Hawking et Musk en appelant à réglementer, contrôler, empêcher ... ou mourir ...
La solution serait-elle de travailler à la convivialité des IA, à leur apprendre à ne plus se contenter, à la question « Pourquoi », de répondre « Parce que » ? C’est la thèse de Shani selon lequel les créateurs, producteurs, fournisseur et vendeurs d’IA ne pourront bientôt plus se satisfaire de contourner la transparence, le besoin ou l'envie des utilisateurs, clients ou simple citoyens, « à comprendre ».
Il en va de la conviction et de la confiance, et donc de l’acceptation des systèmes d’IA qui doivent aujourd’hui convaincre les utilisateurs qu’elles travaillent à des objectifs partagés.
Autrement dit, vers des IA intelligentes et citoyennes ..!

01 janvier 2018

DIV : IBM prévoyait 2018.

IBM s'est toujours intéressée au futur. Ainsi, en 2013 faisait-elle cinq prévisions sur le futur des technologies à 5 ans (voir le lien). Et bien, nous y sommes, car  2013 + 5 = 2018.

  1. L'école personnalisée, avec des data complètes du parcours scolaire de l'enfant et des algorithmes permettant de proposer des solutions personnalisées aux professeurs. C'était sans compter sur les ministres se perdant dans les stérilités de l'écriture inclusive et ceux chassant le big-iz-bioutifoul des universités de campagne. Comme la médecine personnalisée, l'éducation reste sur le banc de touche du progrès.
  2. Le commerce de proximité organisé par le consommateur et son smartphone. En récoltant les goûts, besoins, préférences, les commerçants locaux devaient pouvoir proposer des produits personnalisés dont le client à besoin. C'est au contraire, mais peut-être seulement encore, le commerce connecté qui se taille la part du lion, entre Amazon, Alibaba et autres géants qui tendent à écraser les petits commerces locaux.
  3. Les médecins aidés par les ordinateurs pour traiter les maladies génétiques et le cancer. C'était grâce à l'analyse de l'ADN que les traitements les mieux adaptés, notamment pour attaquer le cancer, devaient être proposés, et cela grâce au calculs sur les grandes masses de données (big data) et grâce à des découvertes génétiques révolutionnaires. Carton plein pour IBM, avec évidemment un peu de retard du côté des médecins, mais de grandes découvertes telles que celles des ciseaux moléculaires Crispr-Cas9 ou -Cas13, et les avancées fulgurantes de l'IA qui détecte déjà de manière très efficace les cancers et propose les traitements adaptés.
  4. Un véritable "gardien numérique" devait assurer la sécurité des données personnelles, en analysant les comportements et le contexte d'usage des données, et en vérifiant l'identité de chaque personne sur chaque appareil. Là encore, IBM voyait clair et annonçait les progrès fantastiques de l'identification biométrique et ceux de la sécurité par la blockchain. 2018 sera d'ailleurs l'année de l'entrée en vigueur de la directive européenne sur la protection des données (RGPD). Des progrès restent néanmoins, là encore, à faire pour arriver à un niveau tel que l'espérait IBM.
  5. Les villes devaient être connectées en véritables "smart cities". Les machines devaient comprendre en temps réel des milliards d'éléments et apprendre à comprendre ce que les habitants veulent, aiment et font, pour les aider à vivre et se déplacer au sein des grands espaces urbains. Probablement qu'IBM péchait encore par optimisme, avec pourtant quelques initiatives concernant les transports, les réseaux de distribution ou de collecte, mais aussi portant sur les capteurs et caméras et les compteurs "linky" qui soulèvent tant de résistances de la part des habitants.
Ce qui est certain et qui était prévisible est qu'il est bien difficile de prévoir, surtout par excès d'optimisme dans le domaine du numérique, guidée par le consumer (client, consommateur utilisateur), et qui rencontre tant et tant de résistances, de retards, voire de mauvaises volontés de la part des décideurs comme de celui des citoyens et des fournisseurs de matériels et de services. Comme quoi, le progrès ne va pas de soi. 

19 décembre 2017

IA : Pourquoi ne pas consulter un robot médecin ?

L'intelligence artificielle (IA) a de beaux jours devant elle en médecine (lien ici) et . Ainsi, un robot chinois a même réussi l'examen national de médecine pour devenir médecin. Ainsi, le robot Xiaoyi, qui a été développé par le leader chinois de l'IA iFlytek en collaboration avec l’université pékinoise de Tsinghua, a obtenu son diplôme national de médecine après avoir obtenu 456 points sur 600, soit 96 points de plus que la note minimale pour être reçu, et bien supérieure à la moyenne nationale, en moins d'une heure pour une épreuve prévue sur dix heures. Pour obtenir ce résultat, alors que les examinateurs ont vérifié que Xiaoyi ne se connectait pas à Internet et ne travaillait qu'avec sa mémoire et sa réflexion, le robot a parcouru et compilé en moins d'un an et demi un million d'images médicales, 53 ouvrages, deux millions de dossiers médicaux et 400 000 autres documents et rapports. L'objectif d'iFlytek est dans un premier temps d'utiliser l'IA de Xiaoyi pour aider les praticiens à améliorer les traitements, notamment pour les cancers, améliorer leurs diagnostics et le choix des traitements, et aider à la formation de nouveaux médecins. Il devrait également être déployé dans toute la Chine dès mars 2018 pour lutter contre les déserts médicaux. Si les Chinois sont aujourd’hui les leader en matière d’intelligence artificielle médicale, il ambitionnent maintenant d'étendre leur suprématie de manière générale en IA d’ici à 2030 (lien).

16 décembre 2017

BIO, INFO : Vers « la » grande base de données biométriques des humains.

La région autonome de Xinjiang, dite région ouïghoure du Xinjiang ou Turkestan oriental, est une des plus grande régions chinoise, occupant le nord-ouest de la Chine. Elle dispose d’un statut d’autonoimie et son gouvernement est en responabilité de la sécurité dans une région disposant de richesses métallifères et pétrolifère remarquables. Alors que la société est divisée en ethnies, dans un équilibre précaire, on assiste depuis une dizaine d’année à des violences interethniques opposant les populations chinoise et des adeptes religieux qui sont qualifiés de terroristes par le pouvoir en place. C’est dans ce contexte sympathique que les autorités ont entrepris de collecter l’ensemble des données biométriques des habitants de plus de douze ans, et notamment leur ADN. C’est par un rapport de Human Rights Watch (lien) que l’on a appris cette collecte officielle (lien vers l’information du site du gouvernement : ici) pour inventorier les données génétiques, sanguines et bipmétriques telles que les carcatéristiques de l’iris relevé par scanner et les empreintes digitales.
La Chine est donc en train d’expérimenter, sans bruit, dans l’une de ses régions les plus fermées, la collecte des informations biologiques sur des millions de personnes n’ayant pourtant aucun lien avec une quelconque entreprise criminelle ou terroriste.
Aussi intéressant, les autorités chinoises sont soutenues par deux entreprises américaines, Thermo Fisher Scientific, qui procure l’équipement pour le séquençage des ADN, et Blackwater, entreprise de protection impliquée dans nombre conflits récents, qui forme les agents de sécuité. Le partage des tâches se passe en bonne entente entre la police qui collecte les photos, empreintes digitales, le scanner de l’iris, ainsi que les informations familauile et de résidence, et les autorités de santé chargées de la collecte des échantillons d’ADN et des informations sanguines sous couvert d’un programme de “check-up médical pour tous”.
Bel exemple de « convergence » NBIC.

14 décembre 2017

DIV : Vers la fin de l’égalité devant Internet.

Le président Barack Obama avait en 2015 confirmé la règle de « neutralité du net », garantissant à tous un Internet libre et ouvert. L’Internet était alors considéré comme un bien public, au même titre que le réseau téléphonique, et les règles de neutralité et d’égalité s’y appliquaient donc selon le même principe.
Or, ce jeudi 14 décembre 2017, le gendarme américain de l’Internet, la Commission fédérale des communications, a fait voler en éclats le principe d’égalité de traitement et d’accès des connexions : désormais les opérateurs US feront ce qu’ils veulent (lien). Ralentir la vitesse de connexion pour accéder à certains sites, l’augmenter pour certains autres, seront possibles selon des logiques techniques, commerciales ou ... idéologiques. Ainsi, et c’est l’argument principal motivant cette mesure libérale , les réseaux sociaux qui génèrent le plus de trafic pourront être ralentis. Mais tout sera également permis, comme facturer des suppléments pour garantir des vitesses et des performances préservées.
Si ce principe est pour l’instant circonscrit aux USA, l’Europe étant préservée, notamment en France grâce à la Loi de 2016 pour une République numérique, certains n’ont évidemment pas attendu pour relancer l’idée. Ainsi le PDG d’un grand opérateur national déclare incontournable l’obligation de créer un Internet à plusieurs vitesses, avec évidemment une oreille attentive de certains nouveaux politiques ...

27 novembre 2017

IA : L'intelligence artificielle forte.

Les spécialistes de l’Intelligence Artificielle (IA) distinguent l’IA "forte" de l’IA "faible". Il n’est évidemment pas question ici de puissance, mais d’une forme "épistémologique" de la discipline privilégiant l’inspiration d’imitation ou celle d’indépendance du fonctionnement de l’Intelligence Naturelle (IN). 
Plus exactement, la première forme d'IA désigne l'intelligence d'une machine, ordinateur, drone ou robot, la plus similaire possible à l'intelligence des êtres humains, conçue comme étant issue de choses simples combinées entre-elles, pour arriver à des choses compliquées, voire complexes dans le cas de productions émergentes. Ces productions potentielles permettraient alors à la machine la plus sophistiquée, pour l'heure théorique, d'être dotée de "conscience", allant jusqu’à pouvoir éprouver des besoins, des émotions et des sentiments. Cet automate imitatif pourrait à un certain niveau de complexité penser lui-même, croire que son existence bien qu’artificielle, et cela avec ou non l’intervention de composants naturels dans le cas de constructions "hybrides", soit d’essence animale ou même humaine. 
 Ce problème de la "conscience" doit être conçu à deux dimensions : celle de la "conscience de soi" et celle de la "conscience de situation". La première permet à l’automate de considérer sa propre existence comme "personnelle", unique et inscrite dans une forme d’expérience du passé et d’une ambition du futur, et la seconde, permettant l’appréciation des caractéristiques du milieu environnement physique, relationnel humain, hybride ou artificiel, est constitutive du sentiment de la différence entre "soi" et "non soi". Ces deux dimensions concurrentes sont constitutives d’une forme de "compréhension" de ses propres "raisonnements", d'une "métacognition", et de l’émergence d’un "sens moral", c'est-à-dire d'un jugement porté sur ses propres pensées, comportements et intentions. Pour un tel projet, il convient de distinguer les deux formes incompatibles de l’IA que sont le "symbolisme" et le "connexionnisme". 
Dans le premier cas, un programme exprimé dans un langage interne manipulant des symboles selon des règles d’une grammaire bio inspirée, hybride, ou complètement artificielle, permet l'expression d’éléments émergents, non strictement programmés. Il doit cependant disposer de caractéristiques fondamentales telles que de la mémoire, des capacités d’apprentissage, une logique interne et une forme de motivation à la "survie" et à l’appétence "cognitive". Ce programme doit donc être en mesure d’emmagasiner des informations et d’y adapter son propre fonctionnement, avec une "motivation" à s’enrichir lui-même. Un programme autonome intelligent qui reste dans son coin sans rien faire et rien connaître de son environnement ne sert à rien, ni pour lui ni pour d’autres. Il peut rester temporairement en sommeil, mais doit pouvoir être "réveillé" en fonction de l’apparition des circonstances qui permettraient son "intégration" environnementale. Les spécialistes de l’IA imaginent qu’un tel programme commence avec des concepts simples pour les combiner selon des règles de logique, et ainsi arriver à l’expression de comportements complexes. Certains informaticiens s’inspirent de l'apprentissage de l’enfant qui s’adapte et apprend de son environnement physique et relationnel, pour programmer une "aptitude cognitive". Celle-là n’est pas suffisante sans une "motivation" qui entraîne le programme lui-même à s’auto-enrichir. Le programme assemble alors entre eux des éléments simples pour produire des éléments qui le sont moins, et ainsi de suite. Ces éléments sont des représentations de l’environnement ou d'éléments de logiques, c’est-à-dire des symboles. La perspective évolutive est ici non prévue, même si elle peut être incitée, et les connaissances comme les représentations ou les réactions ultérieures ne sont pas contenues dans le programme initial. Il y a bien "émergence" des éléments d’intelligence ; cette émergence peut être hiérarchisée en niveaux allant de l’inventaire des éléments de base jusqu’aux concepts les plus sophistiqués ou même, le cas échéant, jusqu’à la conscience de soi et celle de son environnement. 
L’approche connexionniste s’affranchit quant à elle de la présence d’un programme interne manipulant des symboles. Elle s'affranchit également d'une mémoire déclarative contenant des symboles et surtout d'une horloge qui règle les séquences des itérations internes comme dans une architecture Von Neumann. Seules les caractéristiques organisationnelles, fonctionnelles et structurales, de la machine sont définies au départ. Ce sont les capacités de modifications internes de l’automate qui permettent une "auto-organisation" interne, intimement couplée avec l’environnement, capable d’en détecter les modifications et de s’y adapter en fonction de cette transformation interne. Les réseaux de la machine sont évolutifs et peuvent se doter de nouvelles connexions ou même de nouveaux composants par enrichissement circonstanciel. La machine peut alors, dans un cas théorique parfait, recruter d’autres machines ou même des hommes pour partager un patrimoine informationnel commun ou réparti en fonction des besoins. Le système de couplage environnemental est ici au centre d’un fonctionnement auto-émergent et peut, dans un cas idéal promu par certains spécialistes de l’IA connexionniste, s’auto-enrichir et s’autoproduire selon le principe d'une "autopoïèse", c'est-à-dire d'une propre production de soi. L’apprentissage connexionniste se fait en deux processus concurrents et concourants : imprégnation, et enrichissement. Il n’y a pas à proprement parler de mémoire déclarée en symboles dans un programme formel. Les symboles ne sont ici que l'expression de la machine capable de lire certains de ses états internes. Cette expression est structurée par une grammaire qui émerge des contraintes structurales et fonctionnelles de l’automate, ainsi que de l’environnement dont la machine à "conscience" ; elle n’est pas en elle, ni implémentée ni incarnée, mais s’exprime dans l’intégration machine-milieu. Dans le connexionnisme, la mémoire prospective résulte de la disposition de nouveaux réseaux ou la modification d’anciens, la mémoire rétrospective dans le maintien de configurations existantes, qui peuvent ou non être réutilisées, remobilisées de manières complète ou partielle. Ce recyclage explique ainsi des phénomènes quasi naturels d’amnésie et de modulation des souvenirs. 
De manière concrète, la plupart des programmes d’IA dite "ascendante" correspondent actuellement à des architectures comportant plusieurs éléments simples reliés entre eux, à l'imitation du vivant, mais implémentés sur des structures de calcul symbolistes (architecture Von Neumann). On joue à faire "comme si" c'était vivant. Même si c’est l’interaction entre les éléments qui dicte le fonctionnement du programme, celui-là reste contraint par une segmentation du programme et de la mémoire, et par un fonctionnement réglé par une rythmique séquentielle contrainte par une ultrahorloge interne totalement étrangère à une structure naturelle. Même si le programme peut évoluer et faire exprimer des comportements non initialement programmés, cette émergence est limitée par la structure même de l’électronique actuelle. 
Néanmoins, le plus grand avantage de l’IA ascendante est qu’elle peut apprendre et s’adapter. Cette approche permet également une imitation plus fidèle de la cognition naturelle avec des programmes conçus analogiquement à des êtres vivants, ou même à des ensembles d’êtres vivants, réseaux ou collectivités En effet, les types de programmes les plus connus d’IA ascendante concernent les systèmes multi-agents, les algorithmes génétiques et le deep learning, et les réseaux de neurones formels ou artificiels. 
On est donc encore loin d'une réalité artificielle connexionniste, en restant à un jeu d'imitation dans lequel même Alan Turing savait qu'il n'était question que d'une pâle copie de la réalité du vivant.

25 octobre 2017

DIV : Vivre et agir avec les drones - RACAM 2017

La 11ème Rencontre Aviation Civile Aviation Militaire se tiendra le 16 novembre 2017 au siège de la Direction générale de l’Aviation civile – DGAC Paris 15ème.

La thématique sera cette année consacrée à "vivre et agir avec les drones".

Lieu privilégié d’échanges entre les grands acteurs internationaux du monde aéronautique, RACAM réunit les hauts responsables de l’aviation civile et des armées, les industriels, les directeurs généraux de compagnies aériennes et d’aéroports, les unions et groupements professionnels, les associations et, globalement, tous les utilisateurs de l’espace aérien.

Trois tables rondes aborderont successivement :
  • L’AUTONOMIE DES SYSTÈMES : VISIONS CROISÉES RECHERCHE INDUSTRIE ET DÉFENSE
  • LES USAGES FUTURS : PERSPECTIVES CIVILES ET MILITAIRES
  • LA SÉCURITÉ ET LA SÛRETÉ DES DRONES : MAÎTRISER DES RISQUES
Programme (ici)
Inscription obligatoire ().

21 septembre 2017

IA : eXplainable Artificial Intelligence - XAI

David Gunning, expert de la DARPA, a récemment promu une note sur l'eXplainable Artificiel Intelligence.
Le "deep learning" ou "apprentissage profond par machine" est un des domaines central d'application de l''Intelligence Artificielle. Les progrès en la matière ont permis de développer des systèmes autonomes qui collectent, analysent, regroupent et synthétisent des informations (perception), élaborent et stabilise des règles de représentation et de décision (apprentissage), et proposent ou prennent eux-mêmes des décisions (action). malheureusement, ces systèmes se heurtent au mu de la "confiance numérique" et mobilisant chez les humains des sentiments de méfiance, voire de défiance, conduisant dans les cas extrêmes de paranoïa à des déclarations intempestives de grands industriels du numérique sur la menace de l'IA sur l'avenir de l'humanité.
En fait, il est fort probable que cette "défiance numérique" soit relative à une forme d'incapacité des machines et systèmes à expliquer leurs processus, analyses et décisions ainsi que leurs propositions ou actions aux hommes avec lesquels ces machines sont sensées collaborer.
Les grands domaines régaliens de l'Etat, les services publics ainsi que de nombreuses entreprises privées sont aujourd'hui confrontés de plus en plus à de tels systèmes collaboratifs (HAT pour Human Artificial Teaming, ou MMS pour Man Machine Symbiosis). Ils sont de plus en plus nombreux, et de plus en plus performants, tout en échappant de plus en plus à la compréhension rationnelle. Il devient donc urgent de traiter d'un nouveau domaine de l'IA qui est connu chez les anglo-saxons court l'acronyme de "XAI" pour "Explainable Artificial Intelligence".
La XAI sera essentielle lorsque les futurs opérateurs de dispositifs amplifiés vont être amenés à à comprendre et gérer efficacement une nouvelle génération de smart machines.
Pour cela, le programme XAI doit s'attacher à  des modèles plus explicables et compréhensibles, tout en maintenant un niveau élevé de performance, tant en précision qu'en rapidité et ciblage de l'efficacité, notamment prédictive (gaming), pour permettre l'établissement d'une confiance dans les artéfacts et leurs actions.
Les modèles explicables doivent s'inspirer et éventuellement être combinés aux techniques d'IHM, en valorisant les dimensions UX User eXperience) et KX (Knowledge eXchange). Cette préoccupation doit évidemment être prise en compte dès la conception des systèmes, alors qu'aujourd'hui, ce sont des patch explicatifs ou de convivialité qui sont surajoutés aux dispositifs existants.

18 août 2017

TECH : Techno hype - Gartner publie son cycle 2017.


L’institut de conseil et d'études technologiques Gartner est l'un des grands observateurs et analystes mondiaux de l'évolution des technologies. Il a théorisé au début des années 2000 les étapes de maturité et d'adoption de ces technologies innovantes qui semblent suivre une dynamique particulière appelée "cycle du hype". Ce cycle correspond ni plus ni moins à une courbe logistique bien connue en biologie cybernétique pour traiter de l'homéostasie ("processus opposants" de Sokoloff), que les experts de Gartner ont redécouvert ou en s'en inspirant pour l'appliquer aux évolutions technologiques. Le peu de publications sur le sujet de la part de Gartner laisse planer l'ambiguïté sur ces quelque 110 cycles proposés (payants), mais chacun sait que la science est un éternel renouvellement!

Mais qu'est-ce que veut dire "hype" ?
Littéralement, on peut traduire par "branché", "dans le coup",  "dans le vent". A l'origine, le terme vient du monde anglo-saxon de la couture et désigne le "battage" ou le "tapage médiatique", promu par certains médias à un moment donné (articles, reportages, éditoriaux, émissions tv, photos de starts portant de la "hype", etc.). Certains préfèrent la notion d’avant-gardisme suscitant d'abord une certaines méfiance, voire un refus, mais arrivant à percer grâce au battage et à la réputation des adeptes. Les trucs "hype" se diffusent par le "buzz".
Gartner observe ce qui est à la mode, participe par ses observations au tapage et fait donc le buzz. A force de répétition et de pouvoir de conviction, l'institut a imposé son cycle et en fait même commerce, en le protégeant probablement auprès de juriste qui n'ont jamais rien lu en biologie. Le buzz fait son effet, et le monde industriel et des technologies suivent la mode : en techno, et bien évidemment en électronique ou informatique, il faut être branché ! Sinon ça s'arrête et il faut rebooter...

Voyons de plus près : selon Gartner, chaque technologie innovante suit la dynamique de la "hype" (ou du "hype", comme l'on veut). Les technologies qui survivent passent par le phénomène "hype" théorisé en cinq stades. Ces étapes sont "déposées par Gartner" et correspondent à la perception de l'avancée de ces technologies par les experts et les industriels, et à leur popularité auprès du public.
Ce chemin traverse donc successivement les étapes de l'enthousiasme du début (innovation trigger), des attentes irrationnelles (peak of inflated expectations), du désenchantement ou de la désillusion (trough of disillusionment), du retour en lumière (slope of enlightenment), puis de la mise en productivité vers le succès (plateau of productivity).
D'après Gartner, qui se garde bien de publier les données sources sur lesquelles il s'appuie pour valider cette uniformité de parcours, toutes les technologies qui ont réussi telles que l'internet, le cloud, le big data, la 3G, le smartphone et les tablettes, etc. ont emprunté cette dynamique et ont franchi a leur propre vitesse les différentes étapes du cycle "hype".
Chaque été, l'Institut Gartner publie son édition annuelle, en précisant les états d'avancement et les délais nécessaires avant leur adoption à grande échelle pour chaque technologie potentiellement d'avenir.

L'an passé, Gartner indiquait par exemple le 16 aout (2016), les états suivants :
- enthousiasme pour la poussière intelligente, l'impression 4D et l'ordinateur quantique ;
- attente irrationnelle pour la blockchain, la maison connectée et les véhicules autonomes ;
- désillusion pour l'internet des objets, le machine learning et la réalité augmentée ;
- illumination pour la réalité virtuelle, le contrôle gestuel et l'impression 3D.
Ce 15 aout 2017, Gartner a publié (lien) :
- enthousiasme pour la poussière intelligente, l'impression 4D, l'homme augmenté et les BCI ;
- attente irrationnelle pour les robots intelligents, le machine learning, le deep et le smart learning ;
- désillusion pour les véhicules autonomes, la blockchain et la réalité augmentée ;
- illumination pour la réalité virtuelle.

En fait, Gartner indique trois tendances fortes.
1/ - L'intelligence artificielle généralisée (partout), avec l'IA générale mais aussi le deep et le machine learning, la poussière intelligente, les véhicules autonomes, l'informatique cognitive, les drones commerciaux, les interfaces de conversation, les robots et espaces de vie et de travail intelligents ...
Ces technologies suscitent les attentes les plus fortes que ce soit de la part du public, des experts ou des industriels.
2/- Les technologies d'immersion, avec l'impression 4D (objets qui peuvent changer de forme), les brain-computer interfaces, l'homme augmenté par les systèmes technologiques, et qui restent à des phases d'enthousiasmes. La réalité virtuelle, la réalité augmentée, les nanotubes électroniques ou la maison connectée sont plus proches de la maturité.
3/- Les plateformes digitales avec la 5G, la blockchain, l'internet des objets, l'informatique quantique, les systèmes neuromorphiques, le edge computing ...
Ces technologies sont chargées d'espoir et doivent pouvoir révolutionner le monde des usagers des technologies.
Voir le tableau synthétique ici (lien).

Tout cela est très "hype" ... On verra bien.

10 août 2017

BIO : Tout est bon dans le cochon ... mutant !

George Church et Luhan Yang sont deux chercheurs en génétique de l'Université d'Harvard (Cambridge, Massachusetts, USA). Ils ont fondé la société eGenesis , une startup de Cambridge qui a réuni 38 millions de dollars US en vue d'utiliser le CRISPR-Cas9 afin de modifier le génome des cochons pour les rendre compatibles avec des xénogreffes au bénéfice des humains.
En effet, les USA, comme d'ailleurs l'Europe, sont confrontés à une pénurie de donneurs et d'organes sains. La situation est telle que plus de vingt malades américains meurent chaque jour faute d'avoir pu recevoir un greffon à temps.
La société eGenesis est parvenue à obtenir la naissance de 37 porcelets dont les organes sont potentiellement compatibles pour une transplantation sur un humain depuis un donneur animal, sans effets secondaires ni danger viral pour le greffé voir l'article ici .
La transplantation du porc vers l'humain était jusqu'ici limitée aux valves cardiaques et sous certaines conditions très lourdes au pancréas. Grâce aux techniques d'ingénierie génétique, les deux scientifiques et une équipe internationale ont réussi à retirer les gènes responsables de certains virus dans l'ADN des porcs avant le développement embryonnaire. Aujourd'hui âgés de 4 mois, 37 porcelets sont élevés en disposant d'organes développés naturellement tout en étant compatibles avec un future xénotransplantation sans effets secondaires ni danger pour la santé du greffé. Une première tentative pourrait être programmée d'ici 2 à 3 ans.
Ces travaux ont été publiés le 10 août 2017 dans la revue Science de l'American Association for the Advancement of Science (article ici)
Voir le détail de la publication selon ce lien.
A quand des transplantations d'oeil, de cochlée, d'épithélium olfactif, voire de morceau de cerveau ?

03 août 2017

BIO : Le CRISPR-Cas 9 et la modification des embryons humains.

Dans leur chronique publiée le 2 août 2017 sur le site de la revue Nature "Biotechnology: At the heart of gene edits in human embryos", Nerges Winblad et Fredrik Lanner du département des sciences cliniques de l’Institut Karolinska de Stockholm (Suède), commentent les nouvelles dimensions biologiques, les applications cliniques mais également les contraintes éthiques posées par le travail de l'équipe de Shoukhrat Mitalipov, directeur du centre de thérapie génétique et cellulaire des embryons de l’Université de Portland (Oregon, USA), qui avait créé pour la première fois des cellules souches à partir de cellules adultes humaines, en 2014.
Cette fois, les chercheurs américains rendent compte d'une étude, également publiée le même 2 août 2017 dans Nature sous le titre "Correction of pathogenic gene in human embryos", et dans laquelle ils ont réussi avec succès à corriger chez des embryons humain une mutation porteuse d'une maladie héréditaire grâce à la technique maintenant célèbre de CRISPR-Cas9. Cet outil à tout faire du génie génétique est capable de façonner l'ADN des bactéries, mais également aujourd’hui de tous les fœtus des organismes eucaryotes, et donc ceux des humains.
La méthode de modification du génome est à la fois ciblée, viable, avec une réussite proche de 100% dans le traitement des maladies héréditaires.
L’exemple abordé par les auteurs est celui de la cardiomyopathie hypertrophique, une maladie génétique à l’origine d’une hypertrophie du cœur. Cell-là entraine des troubles cardiaques à l’origine de syndromes de mort subite. Lorsque l’un des deux parents est porteur du gène pathogène, l’enfant à une chance sur deux d’être atteint et une chance sur deux d’échapper à la maladie.
La première solution consiste à trier les embryons par analyse génétique, après une fécondation in vitro (FIV), et de ne garder que ceux non porteurs de la maladie. Cela entraine de fait une sélection de la moitié du matériel disponible. La seconde solution menée à bien par l’équipe de Portland est de recourir au CRISPR-Cas9 et de modifier le génome afin de le nettoyer du gène pathogène.
Les chercheurs ont injecté le CRISPR-Cas9 en même temps que le spermatozoïde lors de la métaphase II (un cycle déterminé) de l'ovocyte. La technique a permis de réparer l’ADN et ainsi obtenir des gènes corrigés sans que le reste du génome n'ait été modifié, et en préservant la viabilité des embryons.
Au delà des espoirs apporté par la méthode pour le traitement des maladies génétiques, le problème reste celui de l’éthique dans l’utilisation clinique de leur méthode, et les risques liés à une modification de lignées germinales. Le recours à de telles méthodes en médecine vétérinaire ou en dehors des cadres de la clinique, pour modifier le génome de fœtus viables, ouvre la perspective vertigineuse des modifications ouvertes à tous les fous de la planète.