Affichage des articles dont le libellé est hybridité. Afficher tous les articles
Affichage des articles dont le libellé est hybridité. Afficher tous les articles

23 août 2020

BIO - TECH : Expérience grandeur nature de modification génétique animale généralisée.

L’infection à virus Zika et celle à virus de la Dengue sont des maladies dues à des virus à ARN monocatainaires encapsulés. Ces maladies sont en augmentation explosive dans le monde, avec des épidémies de plus en plus fréquentes et étendues, avec de plus en plus de formes graves. Les latitudes tempérées sont de moins en moins épargnées et la diffusion de ces maladies, dont des conséquences sanitaires sont très significatives, notamment sur le devenir de l’enfant chez la femme enceinte infectée. Un vecteur connu est  le moustique Aedes Aegypti, impliqué dans la propagation de l’agent pathogène de ces deux maladies virales, mais également dans ceux du chikungunya ou de la fièvre jaune.
Les autorités de la Floride (USA) on entrepris de s’attaquer au problème en lâchant 750 millions de moustiques génétiquement modifiés sur deux ans dans l’archipel des Keys, au sud de la Floride. Ces moustiques OGM . Ces derniers, uniquement des mâles, sont développés par l’entreprise de biotech américaine basée au Royaume-Uni, Oxitec  Ils ne se nourrissent pas de sang et possèdent un gène empêchant la progéniture femelle de survivre au-delà de l’enfance. Ils se reproduiront avec des moustiques femelles sauvages afin que, Progressivement, la population des moustiques toxiques décroisse. 
Ce projet n’a pourtant provoqué qu’une bien faible levée des boucliers des écologistes et défenseurs de l’environnement, ainsi que des mouvements anti-OGM et anti-transhumanistes. Les craintes exprimées sont une peur de dommages aux écosystèmes. ou celle d’une mutation incontrôlée avec la création d’une ou plusieurs espèces de moustiques hybrides résistants aux insecticides. Le groupe environnemental Friends of the Earth déclare tout de même que l’environnement sera menacé avec le danger d’une pandémie (voir ici). Au delà des critiques et des récriminations qui ne font que cacher le vrai problème de la modification du vivant : l’homme est aujourd’hui en train de créer par biotechnologies de nouvelles espèces en dehors de toute logique darwinienne ou de sélection d’élevage. Il s’agit d’une frontière nouvellement franchie, celle d’une perspective transhumaniste, en généralisant hors des laboratoires, des fermes et élevages, ou d’essais circonscrits, des expériences génétiques et cela à une région entière, sans aucun contrôle ultérieur possible.
On peut se demander d’ailleurs pourquoi les défenseurs des animaux, si prompts à défendre le canard ou les petits oiseaux, l’ânon, le veau ou le poulain, le chien ou le chat, voire l’ourson en peluche, restent silencieux. On ignore les dangers et souffrances encourus et imposés aux insectes, ceux qui gênent tout le monde : les moustiques, les mouches, les guêpes, les puces, les poux... Comme s’il ne fallait s’occuper que de ce vers quoi on peut adresser des sentiments compassionnels. 
Il convient peut-être de dépasser la défense de l’environnement conçu comme entité quasi déifiée, enjeu de pouvoir politique ou d’expression écolo-anthropocentrée, pour développer les logiques de la One Heathde l’écoépidémiologie et de l’écologie humaine scientifique. En tout état de cause, la question reste posée...

Voir l’article de BBC.com : BBC.com

02 juin 2020

BIO - IA : Le fantasme du premier œil bionique.


Un consortium de trois équipes de recherche, l’une du département d’Electronique de l’université des Sciences et Technologies de Hong Kong à Kowloon (Chine), la seconde du département d’Ingenierie et d’Informatique de l’Universite de Californie à Berkeley et une autre de la division des sciences des matériaux du Laboratoire National Lawrence Berkeley en Californie (USA), vient d’annoncer dans la revue Nature (lien ici) la conception du premier œil bionique complet à destination future des non voyants.
Cet équipement électronique intégré, l’EC-EYE (ElectroChemical EYE), est constitué d’un globe oculaire artificiel complet dont la rétine est constituée de minuscules capteurs électrochimiques positionnés dans une membrane hémisphérique d'aluminium et de tungstène et imitant les véritables cellules photoréceptrices. La partie optique du prototype est constituée d’une lentille et forme la cavité sphérique contenant un liquide ionique. Les données qui en sont issues sont transmises par de minuscules câbles formant le nerf optique. Pour l’instant limité à une résolution de 100 pixels et à un champs de vision de 100 degrés, le dispositifs sera amélioré pour permettre d'ici cinq ans selon les auteurs une vision quasi normale sur 160 degrés et permettre une utilisation substitutive en clinique, voire dépasser les aptitudes naturelles de l’homme. L'appareil pourrait alors équiper des robots humanoïdes ou d’autres dispositifs de vision. Les chercheurs pensent ainsi pouvoir à terme obtenir un œil doté de nanorécepteurs permettant une vision dix fois plus précise et performante que celle de l’œil humain. 
Deux problèmes restent posés et non abordés par les auteurs. Le premier est celui de l’interface qui sera nécessaire chez l’homme entre la partie artificielle est le premier relai sous cortical (genouillé latéral du thalamus) en respectant son organisation structurale en couches et fonctionnelle en hémichamps droit et gauche, en réseaux rapide (magnocellulaire) et plus lent et précis (parvicellulaire), selon le type d’information et sa localisation sur la rétine. Ce problème est d’autant plus critique qu’il participe à la ségrégation des informations en contrastes, couleurs et mouvements, tout en permettant d’assurer la mobilité oculaire (poursuite oculaire, mouvements réflexes, contraintes de nystagmus, etc.), pour un traitement spécifiques à d'autres aires cérébrales distinctes (notamment corticales). Il se posera d’autant plus s’il doit être coordonné avec un œil sain restant, posant la question de sa cohérence ou de sa suppression, produisant alors un nécessaire handicap pour pouvoir être couplé avec un second œil artificiel (éborgnement). Le second problème est, dans le cas fort théorique ou le premier pourrait être résolu, de savoir ce que ferait un homme augmenté d’une vision dix fois plus performante que la naturelle.
Nous sommes encore une fois confrontés au fantasme des spécialistes de l’artificiel qui veulent faire plus en omettant les contraintes de bases comme si leur solution allait de soi. Toujours plus n'est pas forcément mieux. 
Il y a fort à parier que les équipes californiennes et chinoises produiront un œil artificiel qui restera un gadget puisque d’une part impossible à connecter utilement au cerveau, sauf à en faire un simple outil d'interface cerveau-machine (BCI). Dans le cas où l’interface serait possible, alors pourquoi utiliser un œil plutôt qu’un dispositif plus efficace de caméras incorporées ou embarquées sur des lunettes, plutôt qu’un dispositif « usine à gaz » faisant courir des risques chirurgicaux considérables à la personne qui en serait équipée ? Enfin, lorsque les auteurs affirment que l’œil est déjà capable de différencier des lettres simples comme E et Y, ils omettent l’idée que ce n’est pas l’œil qui voit ces lettres, mais tout un ensemble, avec l'intervention d'un système postérieur, soit d’intelligence artificielle dans leur cas, soit d'intelligence naturelle soumise aux apprentissages culturels dans le cas de l'homme normal, l’œil ne détectant que des différences auxquelles une intelligence donne éventuellement un sens en fonction des acquis, de la mémoire et des apprentissages, et de la motivation ... à voir.
Ce problème de l’interface est récurent chez les mécanistes qui engagent pourtant des moyens colossaux comme s’il était résolu. Le fameux Elon Musk fait d'ailleurs comme s'il avait franchi ce cap grâce à son dispositif cerveau-ordinateur développé par sa société Neuralink, alors qu’il ne permet que de produire de nouveaux apprentissages chez les sujets à partir d’électrodes implantées, comme le faisait déjà Grey Walter par l’électroencéphalogramme de surface (électrodes collées sur le scalp) avec ses tortues robots au milieu du siècle dernier, et que réalise tous les jours le "brain-computer interface" tel qu'il est enseigné et mis concrètement en oeuvre à l'ENSC. Pour l'avoir moi-même testé à l'hôpital avec des électrodes implantées et recueillir des potentiels évoqués cognitifs de 1993 à 1999 (voir liste de publications ici), je peux affirmer que ... ça ne marche pas ... à de tels niveaux macroscopiques et d'approximation théorique.
Rien de nouveau sous le soleil, et toujours le fantasme du bio-mimétisme  dans un transhumanisme paralysé par ce boulet conceptuel. On ne fait pas voler des avions en imitant les oiseaux ! Voir à ce propos l'excellent article de Jean-Claude Beaune, André Doyon et Lucien Liaigre sous le titre "automate" dans la non moins excellente Encyclopaedia Universalis (lien ici), et comprendre comment, "Comme le train qui s'entête, dès sa naissance, à singer la diligence, le robot, marqué des pouvoirs nouveaux de l'électricité, de l'asservissement mécanique et de l'électromagnétisme, s'entête à son tour à parodier tristement la nature humaine" (sic).
Voir l'article de Martin Koppe sur un "Regard anthropologique sur le biomimétisme" dans le Journal du CNRS (lien ici), qui explique le "biomorphisme", c'est-à-dire utilisation et "détournement" de solutions héritées de l'évolution adaptative pour faire quelque chose d'autre (par exemple le Velcro inspiré des épines du fruit de la bardane). Tout cela ne peut être confondu, dans un fantasme à la Pinocchio et à la bonne fée, avec la simple copie réductionniste d'éléments isolés d'ensembles fonctionnels intégrés, en espérant que la fonction émergente des derniers apparaisse spontanément des simples bouts de bois et de ferraille des roboticiens ou du silicium des informaticiens.

06 novembre 2019

IA - BIO - INFO - TECH : Les nouvelles prédictions de Ray Kurzweil (2019).

Le célèbre Ray Kurzweil, aujourd'hui responsable de la branche IA de Google, transhumaniste militant, s'est fait le spécialiste des prévisions des développements technologiques.
Ainsi pédisait-il, dès 1989, la chute de l'union soviétique par la diffusion de la téléphonie mobile et des télécopieurs, que les machines vaincraient le champion du monde d’échecs avant 1998. pari gagné puisqu'en 1997 Deep Blue (IBM) gagna la célèbre rencontre contre Garry Kasparov. Il évoquait la possibilité pour un PC d'être capable dès 2010 de répondre à des questions simples en cherchant sur internet, ce dont Google s'est depuis fait une spécialité, y compris pour des requêtes multiples de sens ouvert. Il prévoyait qu'en 2009, on pourrait donner aux machines des instructions en langage naturel. Et voilà que surgit les logiciels de dictée, ainsi que les logiciels de commande tels que Siri de Apple, puis Alexa de Amazon et Dis-Google !  La technologie est aujourd'hui embarquée sur les BMW et d'autres équipementiers se précipitent dans le projet toujours plus élaboré de l'hybridité du langage et de la traduction automatique en ligne. Quant à ses prévisions sur la réalité virtuelle et augmentée, elles ont été réalisée notamment grâce aux Google classes en 2011, puis vinrent rapidement les Hololens de Microsoft et d'autre lunettes et head-up displays en aéronautique, dans la conduite des ateliers des usines 4.0 et aujourd'hui dans l'automobile pour tout le monde.
Bien entendu, nombre de ces prédictions n'ont pas été concrétisées, mais restent pourtant d'actualité. C'est dans cette perspective de Ray Kurzweil a proposé une nouvelle liste chronologique des technologies du futur.
En 2009 Ray Kurzweil réactualisait sa liste et donnait d'autres pistes dont nombreuses se sont réalisées - voir la liste des prédiction de RK dans Wikipedia : ici
Aujourd'hui, dix ans après cette nouvelle série prophétique, Ray Kurzweil propose une série actualisée dont voici le résumé.
2019 – Disparition des fils et câbles pour les appareils individuels et les périphériques.
2020 – Puissance de traitement des PC comparable à celle du cerveau humain.
2021 – Internet sans fil pour 85% de la surface de la Terre. 
2022 – Émergence (USA, Europe) de lois réglementant les relations entre humains et robots, et formalisation des droits, devoirs et limitations/interdictions dans ces relations.
2024 – Conduite automobile obligatoirement supervisée par l'IA, et interdiction de conduire sans aide technologique.
2025 – Avènement d'un grand marché de gadgets-implants.
2026 – Prolongement technologique de la vie humaine (au moins autant que la vie passée).
2027 – Vulgarisation et généralisation des robot personnels autonomes pour des actions complexes. 
2028 – Énergie solaire universellement répandue suffisante aux besoins énergétiques de l’humanité.
2029 – Test de Turing pour les machines et fusion IA-IN par simulation informatique du cerveau.
2030 – Nanotechnologies généralisées pour une baisse significative des coûts de fabrication
2031 – Imprimantes biologique 3D dans tous les hôpitaux pour imprimer des organes humains.
2032 – Nanorobots médicaux pour apporter des substances nutritives aux cellules en éliminant les déchets. Scanner du cerveau humain par nanorobots pour la maîtrise de son fonctionnement.
2033 – Les voitures autonomes, sans conducteur ni parfois passager.
2034 – Premier rendez-vous de l’homme avec l’intelligence artificielle
2035 – Matériel spatial de protection permanente de la Terre contre les astéroïdes.
2036 – Reprogrammation cellulaire pour guérir des maladies, et imprimantes 3D pour fabriquer des nouveaux tissus et organes.
2037 – Découverte de centaines de sous-régions cérébrales ayant des fonctions spécifiques avec décryptage algorithmique et intégration aux réseaux neuronaux artificiels.
2038 – Apparition de personnes robotisées et de produits de technologies transhumanistes tels qu'implants optionnels supplémentaires.
2039 – Nanovéhicules directement implantés dans le cerveau pour une réalité virtuelle d'immersion totale, sans équipement supplémentaire.
2040 – Recherche Internet directement par la pensée avec résultats affichés sur des lentilles de contact (ou des lunettes spécifiques).
2041 – Débit internet maximal de 500 millions de fois plus élevé qu’aujourd’hui.
2042 – Première réalisation potentielle d’immortalité grâce aux nanotechnologies.
2043 – Plasticité d'aspect du corps humain grâce à des nanorobots, et organes remplacés par des dispositifs cybernétiques ultrafiables.
2044 – Intelligence non-biologique des milliards de fois plus performante que l'intelligence biologique.
2045 – Singularité technologique. La Terre se transformera en une gigantesque machine
2099 – Extension du processus de singularité technologique à tout (ou parties de) l’Univers. 
(voir la nouvelle liste des prédictions de RK de 2019 : ici)
Perspective : 2100 - Fin de l'humanité même sous sa forme artificielle (note de l'auteur).
https://en.wikipedia.org/wiki/Predictions_made_by_Ray_Kurzweil

16 juillet 2018

IA : Intelligence artificielle explicable

Les applications d'IA envahissent le quotidien des hommes, que ce soit dans le domaine professionnel, le domaine de la vie privée, et même au delà, dans celui de l'intimité personnelle.
Le premier problème reste celui de la communication avec les outils de l'intelligence artificielle (UX), avant celui de la communication avec l'IA elle-même (KX) qui réserve de solides problématiques à la fois techniques et épistémologiques.
La DARPA a mis en œuvre un programme de recherche "CwC & XAI" qui aborde d'une part les dimensions UX du partage direct entre les personnes et les smart machines, et d'autre part qui valorise le partage de représentations propres à chaque catégorie de partenaires pour un partage en toute sécurité, robustesse et confiance. Ce programme est dirigé par David Gunning, à la fois expert en informatique et en psychologie.

UX : Communiquer avec les ordinateurs, ou la Communication with Computers (CwC).
Le domaine CwC dépasse le simple domaine des IHM (interfaces homme-machine), voire des IHS (intégration homme-système) de génération actuelle. Son ambition est de permettre une communication "symétrique" entre des personnes, expertes ou non, et les machines, dont les ordinateurs. La CwC est une forme d'IHS v2.0, pour laquelle les machines ne sont pas de simples récepteurs d'instructions ou émetteurs de réponses ou comportements  préprogrammés, mais de véritables collaborateurs capables de recourir et d'utiliser des modes spontanés de communication. On pense évidemment au langage naturel, dans ses désinences verbales ou écrites, mais également aux gestes avec l'haptique, à la compréhension des expressions faciales ou à celles des caractéristiques du regard ou de la motricité oculaire ...
La communication est ici comprise comme le partage de contenus cognitifs, représentations ou idées complexes mobilisées dans des contextes de collaboration. De telles idées complexes sont supposées être construites à partir de prototypes cognitifs variant de manière à être adaptés à chaque situation inattendue, non programmée, dans un registre ouvert de connaissances qui s'auto-enrichissent les unes les autres en fonction de l'expérience. C'est ainsi qu'à partir d'un nombre limité d'exemplaires représentationnels de départ, et notamment grâce aux caractéristiques d'un langage ouvert faisant place à l'analyse stochastique des ambiguïtés, peuvent émerger, se construire et se stabiliser des idées de plus en plus complexes.
Le recours à cette production émergente laisse une large part aux théories de la complexité et à celle de l'émergence, pour déboucher sur une forme d'intelligence artificielle capable d'exprimer des idées sur elle-même, c'est-à-dire de s'expliquer elle-même, d'expliquer ses "raisonnements", "représentations" et "décisions" à autrui, que celui-là soit humain ou machinique.

KX : la partage des connaissances ou l'Intelligence artificielle explicable (XAI).
Les succès des apprentissage par machine, apprentissage profond, décision automatique ... amène à un développement, au delà des interfaces CwC, à des applications d'intelligence artificielle (IA) de plus en plus rapide, robustes et autonomes. Ces systèmes sont capables de sentir, percevoir (c'est-à-dire associer des sensations à des représentations internes), se représenter (tenir des inventaires de correspondances congruents entre les éléments et situations réels et ceux représentés au sein des machines comme chez les personnes humaines. Ces apprentissages s'inscrivent dans des activités mnémoniques pour lesquelles les différents registres qualitatifs de mémoires rencontrent les masses de données qui peuvent être traitées dans le cadre du Big Data. Dans ce contexte, les machines sont capables de très rapidement et avec un taux d'erreur très faible de décider et le cas échéant d'agir dans des délais proches de l'immédiateté. 
Ces dépassements des simples capacités humaines engendrent la création de machines autonomes, dont le contrôle éventuel ne peut être fait qu'à postériori, dans des temps compatibles avec ceux de la lenteur de l'appareil serveur et/ou cognitif humain.
C'est là que se pose le problème du blocage de l'efficacité des systèmes par l'impossibilité que l'homme a de faire confiance à la machine. On connait ce type de situation dans le domaine du véhicule autonome et encore plus dans celui des SALA (systèmes d'armes létales autonomes) avec lesquels le respect de la vie humaine peut être engagé. La seule solution est une forme d'apprentissage collaboratif, partenarial, de l'homme et de la machine, dans laquelle la machine est capable d'expliquer à l'homme le sens de ses décision et les limites de son autonomie ; ce que ne savent pas faire les machines actuelles. 
De tels systèmes symbiotiques (HAT pour Human-Autonomy Teaming) nécessitent une Intelligence Artificielle capable de s'expliquer, et donc "explicable". C'est tout l'enjeu de la "confiance" dans les machines décisionnelles ou de contrôle, dans un projet global d'intégration bidirectionnelle des hommes et des machines, de type XAI.

27 novembre 2017

IA : L'intelligence artificielle forte.

Les spécialistes de l’Intelligence Artificielle (IA) distinguent l’IA "forte" de l’IA "faible". Il n’est évidemment pas question ici de puissance, mais d’une forme "épistémologique" de la discipline privilégiant l’inspiration d’imitation ou celle d’indépendance du fonctionnement de l’Intelligence Naturelle (IN). 
Plus exactement, la première forme d'IA désigne l'intelligence d'une machine, ordinateur, drone ou robot, la plus similaire possible à l'intelligence des êtres humains, conçue comme étant issue de choses simples combinées entre-elles, pour arriver à des choses compliquées, voire complexes dans le cas de productions émergentes. Ces productions potentielles permettraient alors à la machine la plus sophistiquée, pour l'heure théorique, d'être dotée de "conscience", allant jusqu’à pouvoir éprouver des besoins, des émotions et des sentiments. Cet automate imitatif pourrait à un certain niveau de complexité penser lui-même, croire que son existence bien qu’artificielle, et cela avec ou non l’intervention de composants naturels dans le cas de constructions "hybrides", soit d’essence animale ou même humaine. 
 Ce problème de la "conscience" doit être conçu à deux dimensions : celle de la "conscience de soi" et celle de la "conscience de situation". La première permet à l’automate de considérer sa propre existence comme "personnelle", unique et inscrite dans une forme d’expérience du passé et d’une ambition du futur, et la seconde, permettant l’appréciation des caractéristiques du milieu environnement physique, relationnel humain, hybride ou artificiel, est constitutive du sentiment de la différence entre "soi" et "non soi". Ces deux dimensions concurrentes sont constitutives d’une forme de "compréhension" de ses propres "raisonnements", d'une "métacognition", et de l’émergence d’un "sens moral", c'est-à-dire d'un jugement porté sur ses propres pensées, comportements et intentions. Pour un tel projet, il convient de distinguer les deux formes incompatibles de l’IA que sont le "symbolisme" et le "connexionnisme". 
Dans le premier cas, un programme exprimé dans un langage interne manipulant des symboles selon des règles d’une grammaire bio inspirée, hybride, ou complètement artificielle, permet l'expression d’éléments émergents, non strictement programmés. Il doit cependant disposer de caractéristiques fondamentales telles que de la mémoire, des capacités d’apprentissage, une logique interne et une forme de motivation à la "survie" et à l’appétence "cognitive". Ce programme doit donc être en mesure d’emmagasiner des informations et d’y adapter son propre fonctionnement, avec une "motivation" à s’enrichir lui-même. Un programme autonome intelligent qui reste dans son coin sans rien faire et rien connaître de son environnement ne sert à rien, ni pour lui ni pour d’autres. Il peut rester temporairement en sommeil, mais doit pouvoir être "réveillé" en fonction de l’apparition des circonstances qui permettraient son "intégration" environnementale. Les spécialistes de l’IA imaginent qu’un tel programme commence avec des concepts simples pour les combiner selon des règles de logique, et ainsi arriver à l’expression de comportements complexes. Certains informaticiens s’inspirent de l'apprentissage de l’enfant qui s’adapte et apprend de son environnement physique et relationnel, pour programmer une "aptitude cognitive". Celle-là n’est pas suffisante sans une "motivation" qui entraîne le programme lui-même à s’auto-enrichir. Le programme assemble alors entre eux des éléments simples pour produire des éléments qui le sont moins, et ainsi de suite. Ces éléments sont des représentations de l’environnement ou d'éléments de logiques, c’est-à-dire des symboles. La perspective évolutive est ici non prévue, même si elle peut être incitée, et les connaissances comme les représentations ou les réactions ultérieures ne sont pas contenues dans le programme initial. Il y a bien "émergence" des éléments d’intelligence ; cette émergence peut être hiérarchisée en niveaux allant de l’inventaire des éléments de base jusqu’aux concepts les plus sophistiqués ou même, le cas échéant, jusqu’à la conscience de soi et celle de son environnement. 
L’approche connexionniste s’affranchit quant à elle de la présence d’un programme interne manipulant des symboles. Elle s'affranchit également d'une mémoire déclarative contenant des symboles et surtout d'une horloge qui règle les séquences des itérations internes comme dans une architecture Von Neumann. Seules les caractéristiques organisationnelles, fonctionnelles et structurales, de la machine sont définies au départ. Ce sont les capacités de modifications internes de l’automate qui permettent une "auto-organisation" interne, intimement couplée avec l’environnement, capable d’en détecter les modifications et de s’y adapter en fonction de cette transformation interne. Les réseaux de la machine sont évolutifs et peuvent se doter de nouvelles connexions ou même de nouveaux composants par enrichissement circonstanciel. La machine peut alors, dans un cas théorique parfait, recruter d’autres machines ou même des hommes pour partager un patrimoine informationnel commun ou réparti en fonction des besoins. Le système de couplage environnemental est ici au centre d’un fonctionnement auto-émergent et peut, dans un cas idéal promu par certains spécialistes de l’IA connexionniste, s’auto-enrichir et s’autoproduire selon le principe d'une "autopoïèse", c'est-à-dire d'une propre production de soi. L’apprentissage connexionniste se fait en deux processus concurrents et concourants : imprégnation, et enrichissement. Il n’y a pas à proprement parler de mémoire déclarée en symboles dans un programme formel. Les symboles ne sont ici que l'expression de la machine capable de lire certains de ses états internes. Cette expression est structurée par une grammaire qui émerge des contraintes structurales et fonctionnelles de l’automate, ainsi que de l’environnement dont la machine à "conscience" ; elle n’est pas en elle, ni implémentée ni incarnée, mais s’exprime dans l’intégration machine-milieu. Dans le connexionnisme, la mémoire prospective résulte de la disposition de nouveaux réseaux ou la modification d’anciens, la mémoire rétrospective dans le maintien de configurations existantes, qui peuvent ou non être réutilisées, remobilisées de manières complète ou partielle. Ce recyclage explique ainsi des phénomènes quasi naturels d’amnésie et de modulation des souvenirs. 
De manière concrète, la plupart des programmes d’IA dite "ascendante" correspondent actuellement à des architectures comportant plusieurs éléments simples reliés entre eux, à l'imitation du vivant, mais implémentés sur des structures de calcul symbolistes (architecture Von Neumann). On joue à faire "comme si" c'était vivant. Même si c’est l’interaction entre les éléments qui dicte le fonctionnement du programme, celui-là reste contraint par une segmentation du programme et de la mémoire, et par un fonctionnement réglé par une rythmique séquentielle contrainte par une ultrahorloge interne totalement étrangère à une structure naturelle. Même si le programme peut évoluer et faire exprimer des comportements non initialement programmés, cette émergence est limitée par la structure même de l’électronique actuelle. 
Néanmoins, le plus grand avantage de l’IA ascendante est qu’elle peut apprendre et s’adapter. Cette approche permet également une imitation plus fidèle de la cognition naturelle avec des programmes conçus analogiquement à des êtres vivants, ou même à des ensembles d’êtres vivants, réseaux ou collectivités En effet, les types de programmes les plus connus d’IA ascendante concernent les systèmes multi-agents, les algorithmes génétiques et le deep learning, et les réseaux de neurones formels ou artificiels. 
On est donc encore loin d'une réalité artificielle connexionniste, en restant à un jeu d'imitation dans lequel même Alan Turing savait qu'il n'était question que d'une pâle copie de la réalité du vivant.

25 octobre 2017

DIV : Vivre et agir avec les drones - RACAM 2017

La 11ème Rencontre Aviation Civile Aviation Militaire se tiendra le 16 novembre 2017 au siège de la Direction générale de l’Aviation civile – DGAC Paris 15ème.

La thématique sera cette année consacrée à "vivre et agir avec les drones".

Lieu privilégié d’échanges entre les grands acteurs internationaux du monde aéronautique, RACAM réunit les hauts responsables de l’aviation civile et des armées, les industriels, les directeurs généraux de compagnies aériennes et d’aéroports, les unions et groupements professionnels, les associations et, globalement, tous les utilisateurs de l’espace aérien.

Trois tables rondes aborderont successivement :
  • L’AUTONOMIE DES SYSTÈMES : VISIONS CROISÉES RECHERCHE INDUSTRIE ET DÉFENSE
  • LES USAGES FUTURS : PERSPECTIVES CIVILES ET MILITAIRES
  • LA SÉCURITÉ ET LA SÛRETÉ DES DRONES : MAÎTRISER DES RISQUES
Programme (ici)
Inscription obligatoire ().

18 août 2017

TECH : Techno hype - Gartner publie son cycle 2017.


L’institut de conseil et d'études technologiques Gartner est l'un des grands observateurs et analystes mondiaux de l'évolution des technologies. Il a théorisé au début des années 2000 les étapes de maturité et d'adoption de ces technologies innovantes qui semblent suivre une dynamique particulière appelée "cycle du hype". Ce cycle correspond ni plus ni moins à une courbe logistique bien connue en biologie cybernétique pour traiter de l'homéostasie ("processus opposants" de Sokoloff), que les experts de Gartner ont redécouvert ou en s'en inspirant pour l'appliquer aux évolutions technologiques. Le peu de publications sur le sujet de la part de Gartner laisse planer l'ambiguïté sur ces quelque 110 cycles proposés (payants), mais chacun sait que la science est un éternel renouvellement!

Mais qu'est-ce que veut dire "hype" ?
Littéralement, on peut traduire par "branché", "dans le coup",  "dans le vent". A l'origine, le terme vient du monde anglo-saxon de la couture et désigne le "battage" ou le "tapage médiatique", promu par certains médias à un moment donné (articles, reportages, éditoriaux, émissions tv, photos de starts portant de la "hype", etc.). Certains préfèrent la notion d’avant-gardisme suscitant d'abord une certaines méfiance, voire un refus, mais arrivant à percer grâce au battage et à la réputation des adeptes. Les trucs "hype" se diffusent par le "buzz".
Gartner observe ce qui est à la mode, participe par ses observations au tapage et fait donc le buzz. A force de répétition et de pouvoir de conviction, l'institut a imposé son cycle et en fait même commerce, en le protégeant probablement auprès de juriste qui n'ont jamais rien lu en biologie. Le buzz fait son effet, et le monde industriel et des technologies suivent la mode : en techno, et bien évidemment en électronique ou informatique, il faut être branché ! Sinon ça s'arrête et il faut rebooter...

Voyons de plus près : selon Gartner, chaque technologie innovante suit la dynamique de la "hype" (ou du "hype", comme l'on veut). Les technologies qui survivent passent par le phénomène "hype" théorisé en cinq stades. Ces étapes sont "déposées par Gartner" et correspondent à la perception de l'avancée de ces technologies par les experts et les industriels, et à leur popularité auprès du public.
Ce chemin traverse donc successivement les étapes de l'enthousiasme du début (innovation trigger), des attentes irrationnelles (peak of inflated expectations), du désenchantement ou de la désillusion (trough of disillusionment), du retour en lumière (slope of enlightenment), puis de la mise en productivité vers le succès (plateau of productivity).
D'après Gartner, qui se garde bien de publier les données sources sur lesquelles il s'appuie pour valider cette uniformité de parcours, toutes les technologies qui ont réussi telles que l'internet, le cloud, le big data, la 3G, le smartphone et les tablettes, etc. ont emprunté cette dynamique et ont franchi a leur propre vitesse les différentes étapes du cycle "hype".
Chaque été, l'Institut Gartner publie son édition annuelle, en précisant les états d'avancement et les délais nécessaires avant leur adoption à grande échelle pour chaque technologie potentiellement d'avenir.

L'an passé, Gartner indiquait par exemple le 16 aout (2016), les états suivants :
- enthousiasme pour la poussière intelligente, l'impression 4D et l'ordinateur quantique ;
- attente irrationnelle pour la blockchain, la maison connectée et les véhicules autonomes ;
- désillusion pour l'internet des objets, le machine learning et la réalité augmentée ;
- illumination pour la réalité virtuelle, le contrôle gestuel et l'impression 3D.
Ce 15 aout 2017, Gartner a publié (lien) :
- enthousiasme pour la poussière intelligente, l'impression 4D, l'homme augmenté et les BCI ;
- attente irrationnelle pour les robots intelligents, le machine learning, le deep et le smart learning ;
- désillusion pour les véhicules autonomes, la blockchain et la réalité augmentée ;
- illumination pour la réalité virtuelle.

En fait, Gartner indique trois tendances fortes.
1/ - L'intelligence artificielle généralisée (partout), avec l'IA générale mais aussi le deep et le machine learning, la poussière intelligente, les véhicules autonomes, l'informatique cognitive, les drones commerciaux, les interfaces de conversation, les robots et espaces de vie et de travail intelligents ...
Ces technologies suscitent les attentes les plus fortes que ce soit de la part du public, des experts ou des industriels.
2/- Les technologies d'immersion, avec l'impression 4D (objets qui peuvent changer de forme), les brain-computer interfaces, l'homme augmenté par les systèmes technologiques, et qui restent à des phases d'enthousiasmes. La réalité virtuelle, la réalité augmentée, les nanotubes électroniques ou la maison connectée sont plus proches de la maturité.
3/- Les plateformes digitales avec la 5G, la blockchain, l'internet des objets, l'informatique quantique, les systèmes neuromorphiques, le edge computing ...
Ces technologies sont chargées d'espoir et doivent pouvoir révolutionner le monde des usagers des technologies.
Voir le tableau synthétique ici (lien).

Tout cela est très "hype" ... On verra bien.

03 août 2017

BIO : Le CRISPR-Cas 9 et la modification des embryons humains.

Dans leur chronique publiée le 2 août 2017 sur le site de la revue Nature "Biotechnology: At the heart of gene edits in human embryos", Nerges Winblad et Fredrik Lanner du département des sciences cliniques de l’Institut Karolinska de Stockholm (Suède), commentent les nouvelles dimensions biologiques, les applications cliniques mais également les contraintes éthiques posées par le travail de l'équipe de Shoukhrat Mitalipov, directeur du centre de thérapie génétique et cellulaire des embryons de l’Université de Portland (Oregon, USA), qui avait créé pour la première fois des cellules souches à partir de cellules adultes humaines, en 2014.
Cette fois, les chercheurs américains rendent compte d'une étude, également publiée le même 2 août 2017 dans Nature sous le titre "Correction of pathogenic gene in human embryos", et dans laquelle ils ont réussi avec succès à corriger chez des embryons humain une mutation porteuse d'une maladie héréditaire grâce à la technique maintenant célèbre de CRISPR-Cas9. Cet outil à tout faire du génie génétique est capable de façonner l'ADN des bactéries, mais également aujourd’hui de tous les fœtus des organismes eucaryotes, et donc ceux des humains.
La méthode de modification du génome est à la fois ciblée, viable, avec une réussite proche de 100% dans le traitement des maladies héréditaires.
L’exemple abordé par les auteurs est celui de la cardiomyopathie hypertrophique, une maladie génétique à l’origine d’une hypertrophie du cœur. Cell-là entraine des troubles cardiaques à l’origine de syndromes de mort subite. Lorsque l’un des deux parents est porteur du gène pathogène, l’enfant à une chance sur deux d’être atteint et une chance sur deux d’échapper à la maladie.
La première solution consiste à trier les embryons par analyse génétique, après une fécondation in vitro (FIV), et de ne garder que ceux non porteurs de la maladie. Cela entraine de fait une sélection de la moitié du matériel disponible. La seconde solution menée à bien par l’équipe de Portland est de recourir au CRISPR-Cas9 et de modifier le génome afin de le nettoyer du gène pathogène.
Les chercheurs ont injecté le CRISPR-Cas9 en même temps que le spermatozoïde lors de la métaphase II (un cycle déterminé) de l'ovocyte. La technique a permis de réparer l’ADN et ainsi obtenir des gènes corrigés sans que le reste du génome n'ait été modifié, et en préservant la viabilité des embryons.
Au delà des espoirs apporté par la méthode pour le traitement des maladies génétiques, le problème reste celui de l’éthique dans l’utilisation clinique de leur méthode, et les risques liés à une modification de lignées germinales. Le recours à de telles méthodes en médecine vétérinaire ou en dehors des cadres de la clinique, pour modifier le génome de fœtus viables, ouvre la perspective vertigineuse des modifications ouvertes à tous les fous de la planète.

13 juillet 2017

IA - BIO : Nouvelle frontière - le codage informatique sur l'ADN d'une colonie de bactéries.

La revue Nature du 12 juillet 2017 rapporte (ici) la réalisation d'une nouvelle brique NBIC de la révolution de la singularité. 
Des chercheurs de la faculté de médecine d’Harvard (Boston, Massachusetts) et du Wyss Institute de l’université Harvard (Cambridge, Massachusetts) ont rapporté avoir codé des informations digitales sous forme ADN dans une population de bactéries.
Ils ont, pour cela, utilisé le système Crispr-Cas9, véritable outil à "couper-coller" l'ADN afin d'y insérer une ­séquence souhaitée. Comme le système Crispr est caractérisé par la possibilité d'aligner de façon chronologique des séquences ADN étrangères, les scientifiques ont ainsi codé des informations digitalisées temporellement organisées.
Dans le cas présent, ils ont utilisé cinq images de la célèbre chronophotographie de Eadweard Muybridge, ayant servi en 1878 à montrer l'instant fugace durant lequel les sabots du cheval au galop quittent le sol. La conversion des données informatiques, suites de 0 et de 1, en code constitué des bases A, T, C et G de l'ADN, a permis de représenter à la fois la position, la couleur et le temps de chacun de tous les pixels du film. La construction des fragments d’ADN correspondants a permis de les introduire de manière redondante dans  une population de bactéries E.coli, à raison d’une image par jour pendant cinq jours.
Il suffisait alors de récupérer l’information, en repassant de l’ADN aux pixels depuis le ­génome bactérien, par séquençage des régions d’intérêt, et de reconstituer l'ensemble à partir de la population bactérienne. Cela ne va pas de soi, et chaque bactérie n’intègrant qu'une partie des fragments, c'est donc bien la colonie bactérienne qui porte l'information totale (Ah!, ces merveilleuses bactéries !). Les chercheurs ont pour l'heure vérifié la robustesse de la méthode avec un succès de quelque 90% de l'information récupérée correctement.
L’intérêt potentiel de cette technique consiste à la fois à utiliser l’ADN comme moyen de stockage et à conserver la trace de l’expression de gènes tels que nécessaire à la différenciation cellulaire. Le plus important à nos yeux est le premier, preuve de cette nouvelle frontière de la convergence bio-numérique qui vient de tomber ; un premier pas, modeste et encore hésitant, vers le "Man-Machine Symbiosis" que prévoyait déjà les cybernéticiens des années 1950 et 60.