25 janvier 2018

BIO : Un pas de plus vers le clonage humain.

Des chercheurs d’un laboratoire de l’institut de neurosciences de l’Académie des Sciences de Shanghaï (Chine), dirigés par le professeur Qiang Sun, publient dans la revue scientifique Cell du 24 janvier 2018 les résultats d’une manipulation génétique ayant conduit pour la première fois au clonage de primates.
Ils ont utilisé sur deux macaques les techniques qui avaient permis de créer la brebis Dolly il y a quelque vingt ans.
Les deux petits singes, Zhong Zhong and Hua Hua, ont été conçus à quelques semaines de différence l’un de l’autre. Ils sont pourtant porteur d’un patrimoine génétique commun, comme s’ils étaient des jumeaux homozygotes. Autrement dits, ce sont des clones issus, dans le cas présent, de la même cellule provenant de la même mère.
Selon les auteurs, cette percée pourrait contribuer à stimuler la recherche médicale, notamment en permettant d’observer chez l’un des clones l’impact de la modification d’un gène réputé lié à une maladie humaine, en comparant les deux animaux, et de liés à des maladies cancéreuses.
Néanmoins, cette manipulation suscite beaucoup d’inquiétudes en Occident, où elles n’auraient deontologiquement pas pu être menée. Ainsi, de possibles dérives sont à craindre, notamment sur d’autres espèces encore plus proches de l’humain, et pourquoi pas, in fine, sur l’homme lui-même pour lequel, puisque la barrière vient de tomber, on peut donc et on sait aujourd’hui facilement transférer la méthode.
Voir ici (lien) et télécharger l'article (pdf).

21 janvier 2018

SHS : Un peu de management ... la Loi de Murphy.

La Loi de Murphy, dite de loi de l'emmerdement maximum, est un principe empirique dû à l'ingénieur en aérospatiale  Edward Aloysius Murphy (1918-1990) de l'United States Air Force Institute of Technology. La paternité de son énonciation première reste néanmoins discutée par certains, ce qui n’a probablement pas grande importance. 
Une de ses formulations les plus connues est « tout ce qui peut mal se passer va mal se passer »,
et en anglais pour les puristes « anything that can go wrong, will go wrong » ou  « if anything can go wrong, it will ».
Pour l'histoire, c'est en 1945 que commença sur la Base Wright-Patterson, puis de 1947 à 1949 sur la Base Muroc de l'US Air Force, devenue depuis Base Edwards,  le projet MX981. Le but était de tester la tolérance humaine à la décélération brutale. Pour cela, on lançait un chariot propulsé par une fusée sur des rails, ralenti de manière brutale par une série de freins hydrauliques . Les premiers tests utilisaient un mannequin, puis des chimpanzés, et enfin on eut recours à un cobaye humain. Edward Murphy, ingnieur en charge de l'étude, proposa de mesurer l'effort subi par des jauges électroniques sur les sangles du harnais. L'assistant de Murphy se serait trompé et aurait câblé les capteurs à l'envers, ce qui fait qu'un premier test sur un chimpanzé donna des valeurs aberrantes. Agacé, Murphy aurait prononcé sa célèbre phrase : « if that guy has any way of making a mistake, he will » (« si ce gars là trouve le moyen de faire une erreur, il la fera »). La Loi de Murphy serait donc initialement une énonciation péjorative impliquant une personne particulière. Elle a, en tout état de cause, été rapidement généralisée à l'ensemble des phénomènes observés qui motivent une perception négative.
Cet adage est ainsi habituellement associé en France à la loi dite de « l’emmerdement maximum » ou LEMOn en trouve des variétés sous la dénomination de « loi de la tartine beurrée » scientifiquement étudiée par Robert Matthews, éminent physicien de l'Université d'Aston (UK), et selon laquelle la tartine retombe toujours du mauvais côté, ou de « loi de la mauvaise queue au supermarché », qui dispose que la queue d'à coté, celle que l'on n'a pas choisie, avance évidemment plus vite.
On connait en France le principe ou « effet Bonaldi », associée au nom d'un célèbre animateur de télévision, Jérôme Bonaldi, qui présentait des objets et inventions insolites à la fin de l'émission « Nulle part ailleurs », présentations qui rataient toujours alors que l'objet fonctionnait habituellement sans problème. L'effet Bonaldi est donc un cas particulier de la loi de Murphy. qui s'énonce « toute démonstration d’un produit quelconque qui fonctionne parfaitement rate lamentablement lors de la démonstration publique ».
La « loi militaire de l'emmerdement maximal » semble remonter à la première guerre mondiale. Elle pronostique que « s'il y a une faille dans un plan de bataille, l'ennemi l'exploitera » puisqu'il analysera toutes les options possibles. Elle est à l'origine des procédures dites de « branch plan » qui mènent rapidement à une explosion combinatoire des solutions potentielles et motive aujourd'hui les stratèges à former des espoirs sur les outils analytiques du big data et de l'intelligence artificielle.
La « loi de Bouchard », dite « loi du Fatal Error », est une application informatique de la loi de Murphy. Le nombre de « crashes » (FatalError) d'un logiciel est inversement proportionnel au nombre de sauvegardes. C'est à dire que « moins l'on sauvegarde souvent, plus le risque de corruption est élevé ». On peut la formuler en bureautique par le fait que « c'est toujours à la fin d'un long travail et juste avant qu'on ne l'enregistre qu'un travail plante ». Certains considère même que « c'est juste quand on vient de sauvegarder un travail sur la sauvegarde précédente qu'on s'aperçoit que ce travail et donc la dernière sauvegarde sont pervertis, et l'avant dernière effacée ».
Pour les puristes, on différencie la « loi de Murphy », qui est devenue générale, de la « loi de Finagle », qui n'implique aucune intervention humaine volontaire. On la retrouve énoncée, selon le niveau de matérialisme ou spiritualité de chacun, comme règle de la perversité de l’univers qui tend vers un maximum, ou comme règle de la divinité malveillante. Ainsi, pas besoin de beurrer une tartine, de choisir une file de supermarché, ou d'agir en quelque que ce soit ...  « quand ça peut aller mal, ca va forcément aller mal ».
L'ambiguïté réside dans la notion d'intervention humaine. On admet donc comme loi de Murphy le fait que « si tout de passe bien mais qu'il y a une solution pour que ça aille mal, il y aura toujours quelqu'un pour faire que ça aille mal », de la loi de Finagle selon laquelle « même si on a réussi miraculeusement à une épreuve d'examen, il y aura toujours un accident ou un recours qui fera qu'elle sera annulée ».
Pour résumé, on peut dire que la loi de Murphy correspond plus au fait que « il y aura forcément une inattention, une erreur, une maladresse, ou un imbécile, un malfaisant, un casse pieds pour que ça aille de travers ou que ça rate » (c'est toujours de la faute de quelqu'un, il n'avait qu'à beurrer les deux côtés de la biscotte, comme ça elle ne tomberait pas), alors que la loi de Finagle fait que « de toutes manières, si ça peut rater, ça va rater » ... et même parfois « ça va rater même si ça ne peut pas rater » (même si on ne beurre pas la tartine, elle va tomber).
Cette systématisation de la noirceur pronostique, amène ainsi à des paradoxes amusants. Des études statistiques rigoureuses ont ainsi montré que la loi de Murphy se vérifie avec une probabilité significativement plus grande. Pourtant, l'absence de résultats significatifs avec de la confiture ne laisse pas insensible ceux qui s'en mettent plein les doigts car elle ne tombe pas, mais elle casse. Des études ont permis d'étudier les biais cognitifs (biais d'observation erronée, biais d'évaluation du temps qui passe avec minimisation de secondes positives et maximisation des négatives, etc.) qui concernent les comportements erronés (changement de file lorsque celle qu'on a quittée avance plus vite) et le sentiment de frustration qu'induit le fait d'être passif dans la mauvaise file sur l’autoroute.
Le « corollaire de Blumenfeld » dispose quant à lui que, les statistiques étant vérifiées, si une tartine beurrée tombe du côté non beurré, c'est qu'elle a été beurrée du mauvais côté ». Le « paradoxe du chat beurré » combine quant-à lui deux lois concurrentes. Une tartine beurrée fixée sur le dos d'un chat jeté par la fenêtre ne tombe pas puisque le chat ne peut tomber sur le dos. On produit donc ainsi un chat volant, ce qui ne fait pas les affaires de Batman.
A lire : La Loi de Murphy, de David McCallum (lien).

IA - SHS : Et les machines deviendront citoyennes ...

Il est évident que les prochains mois verront encore plus d’IA envahir le monde dans toutes ses dimensions, qu’elles soient professionnelles, médicales ou de santé, économiques et de consommation, pour l’automobile, l’aérospatiale, la ville connectée, les télécommunications et les smart grids, le jeu et le loisir, etc. Si beaucoup d'entre nous la souhaitent plus pratique, plus utile, plus accessible, plus écologique et plus éthique, certains la voit aussi jouer un rôle majeur dans l’automatisation de certaines tâches, dans l’économie des emplois, ou dans la création de richesses comme dans la production d’économies et donc de gains financiers. Tout un chacun ambitionne pour soi, ses enfants, parents et proches, l’amélioration des conditions de vie, de travail, de la performance des diagnostics, pronostics et traitements pour une médecine personnalisée et, pour tous, une gestion efficace des ressources, de la gestion de l’environnement, depuis celui la planète jusqu’à celui de son domicile ou de sa voiture, de la consommation des énergies et des fluides jusqu’a la sécurité globale, etc.
Les attentes sont immenses et les besoins encore plus. La convergence du machine learning (ML) et du big data (BD) pour de meilleures informations, connaissances et décisions, au milieu d’une prolifération données dont la gestion dépasse les capacités humaines et l’entendement, permet d’entrevoir une délégation de plus en plus importante des circonstances, moyens et buts de nos vies modernes aux machines.
Si la grande question est toujours, et encore et encore, celle de la confiance du délégant au délégataire, il sera forcément nécessaire de quantifier la responsabilité et son transfert dans la situation d’autonomie (de comportement, de décision, etc.), et pas seulement selon les équations absurdes que des experts de sciences économiques ont donnés en pâture aux assureurs, banquiers et autres spécialistes du bénéfice de l'argent qui ne leur appartient pas. C'est d'ailleursceux-là dont l'IA va aussi balayer les emplois.
Selon Or Shani, PDG de la société Albert, le grand défi de l’IA sera celui de pouvoir répondre à la question « Pourquoi ? ». Selon lui, et après avoir observé les interactions des utilisateurs avec les machines, les humains ne supportent plus de ne pas savoir ce qui se fait et pourquoi cela se fait.
Or les machines ont du mal aujourd'hui, telles qu'elles sont, à expliquer rationnellement et dans un langage compréhensible et qui prend le temps du cerveau humain, ce qu’elles font à partir d’algorithmes très compliqués sur des données inimaginables à des vitesses fulgurantes. De cela découlent deux conséquences : (1) la frustration et (2) la méfiance, voire la crainte.
C’est sur ces deux bases que surfent d'ailleurs les escatologues de la modernité, des plus géniaux aux plus riches, en passant par Hawking et Musk en appelant à réglementer, contrôler, empêcher ... ou mourir ...
La solution serait-elle de travailler à la convivialité des IA, à leur apprendre à ne plus se contenter, à la question « Pourquoi », de répondre « Parce que » ? C’est la thèse de Shani selon lequel les créateurs, producteurs, fournisseur et vendeurs d’IA ne pourront bientôt plus se satisfaire de contourner la transparence, le besoin ou l'envie des utilisateurs, clients ou simple citoyens, « à comprendre ».
Il en va de la conviction et de la confiance, et donc de l’acceptation des systèmes d’IA qui doivent aujourd’hui convaincre les utilisateurs qu’elles travaillent à des objectifs partagés.
Autrement dit, vers des IA intelligentes et citoyennes ..!