10 octobre 2020

IA : IBM annonce IBM Condor pour 1000 quBits

IBM a présenté cette année son dernier projet, le microprocesseur quantique IBM Hummingbird’ capable de traiter jusqu’à 65 qubits d’information et vient remplacer le processeur IBM Falcon, conçu en 2019 pour 27 qubits.

IBM prévoit déjà son prochain processeur pour 2021 qui devrait atteindre une puissance de 127 qubits, puis un nouveau de 433 qubits en 2022. 

Et en 2023, IBM pense accéder au seuil des 1000 qubits avec le processeur IBM Condor (1121 qubits).

2019 - 27 qubits ; 2020 - 65 qubits ; 2021 - 127 qubits ; 2022 - 433 qubits ; 2023 - 1121 qubits.

Vivement demain.

23 août 2020

BIO - TECH : Expérience grandeur nature de modification génétique animale généralisée.

L’infection à virus Zika et celle à virus de la Dengue sont des maladies dues à des virus à ARN monocatainaires encapsulés. Ces maladies sont en augmentation explosive dans le monde, avec des épidémies de plus en plus fréquentes et étendues, avec de plus en plus de formes graves. Les latitudes tempérées sont de moins en moins épargnées et la diffusion de ces maladies, dont des conséquences sanitaires sont très significatives, notamment sur le devenir de l’enfant chez la femme enceinte infectée. Un vecteur connu est  le moustique Aedes Aegypti, impliqué dans la propagation de l’agent pathogène de ces deux maladies virales, mais également dans ceux du chikungunya ou de la fièvre jaune.
Les autorités de la Floride (USA) on entrepris de s’attaquer au problème en lâchant 750 millions de moustiques génétiquement modifiés sur deux ans dans l’archipel des Keys, au sud de la Floride. Ces moustiques OGM . Ces derniers, uniquement des mâles, sont développés par l’entreprise de biotech américaine basée au Royaume-Uni, Oxitec  Ils ne se nourrissent pas de sang et possèdent un gène empêchant la progéniture femelle de survivre au-delà de l’enfance. Ils se reproduiront avec des moustiques femelles sauvages afin que, Progressivement, la population des moustiques toxiques décroisse. 
Ce projet n’a pourtant provoqué qu’une bien faible levée des boucliers des écologistes et défenseurs de l’environnement, ainsi que des mouvements anti-OGM et anti-transhumanistes. Les craintes exprimées sont une peur de dommages aux écosystèmes. ou celle d’une mutation incontrôlée avec la création d’une ou plusieurs espèces de moustiques hybrides résistants aux insecticides. Le groupe environnemental Friends of the Earth déclare tout de même que l’environnement sera menacé avec le danger d’une pandémie (voir ici). Au delà des critiques et des récriminations qui ne font que cacher le vrai problème de la modification du vivant : l’homme est aujourd’hui en train de créer par biotechnologies de nouvelles espèces en dehors de toute logique darwinienne ou de sélection d’élevage. Il s’agit d’une frontière nouvellement franchie, celle d’une perspective transhumaniste, en généralisant hors des laboratoires, des fermes et élevages, ou d’essais circonscrits, des expériences génétiques et cela à une région entière, sans aucun contrôle ultérieur possible.
On peut se demander d’ailleurs pourquoi les défenseurs des animaux, si prompts à défendre le canard ou les petits oiseaux, l’ânon, le veau ou le poulain, le chien ou le chat, voire l’ourson en peluche, restent silencieux. On ignore les dangers et souffrances encourus et imposés aux insectes, ceux qui gênent tout le monde : les moustiques, les mouches, les guêpes, les puces, les poux... Comme s’il ne fallait s’occuper que de ce vers quoi on peut adresser des sentiments compassionnels. 
Il convient peut-être de dépasser la défense de l’environnement conçu comme entité quasi déifiée, enjeu de pouvoir politique ou d’expression écolo-anthropocentrée, pour développer les logiques de la One Heathde l’écoépidémiologie et de l’écologie humaine scientifique. En tout état de cause, la question reste posée...

Voir l’article de BBC.com : BBC.com

20 août 2020

IA : IBM franchit une étape décisive en informatique quantique.

IBM annonce avoir atteint un volume quantique de 64 ce qui lui permet de rattraper le même niveau qu'un ordinateur quantique Honeywell. 

C’est ce jeudi 20 août 2020 que IBM assure avoir franchi cette limite, alors que son objectif de janvier était de 32. La société a doublé ce volume grâce à une série de nouvelles techniques logicielles et matérielles appliquées à un système déjà déployé au sein de Q Network d'IBM, son réseau collaboratif de développeurs et de professionnels de l'industrie.

IBM a obtenu ce résultat grâce à un ensemble de techniques nouvelles visant à améliorer tout circuit quantique exécuté sur un système IBM Quantum. La société les mettra à disposition dès les prochaines versions des services logiciels cloud d'IBM, ainsi que dans le kit de développement logiciel multiplateforme à source ouverte Qiskit.  Pour rappel, IBM a mis à disposition 28 ordinateurs quantiques sur le cloud IBM, dont 8 systèmes fonctionnant avec un volume quantique de 32 et aujourd’hui de 64.

Référence ZDNET : https://www.zdnet.com/article/ibm-hits-new-quantum-computing-milestone/

22 juin 2020

IA : Compétition pour force brute de calcul.

L’institut public de recherche Riken et le groupe informatique Fujitsu annoncent aujourd’hui la performance de vitesse de calcul de 415 millions de milliards d’opérations à la seconde pour leur nouveau supercalculateur Fugaku (415,53 pétaflops). La machine japonaise devient ainsi la plus rapide du monde (voir le communiqué).
Le nom du champion vient du nom nippon du Fuji Yama. L’ordinateur est installé au sein du Riken Center for Computational Science (R-CCS) à Kobe (Japon). 
Mis à la disposition du monde de la recherche, Fugaku devrait dès 2021 permettre de travailler sur la modélisation de la diffusion du Sars-Cov-2 et du COVID-19, mais également sur la conception de nouveaux médicaments, celles de solutions énergétiques, d’optimisations industrielles, à la recherche fondamentale sur l’univers, sur des problématiques d’Intelligence artificielle et d’informatique quantique, ou à la simulation de catastrophes naturelles ou industrielles.
Mais la compétition reste ouverte, et les américains et chinois prévoient déjà des concurrents dont les puissances attendues sont en exaflops, soit en milliards de milliards d’opérations à la seconde.

02 juin 2020

BIO - IA : Le fantasme du premier œil bionique.


Un consortium de trois équipes de recherche, l’une du département d’Electronique de l’université des Sciences et Technologies de Hong Kong à Kowloon (Chine), la seconde du département d’Ingenierie et d’Informatique de l’Universite de Californie à Berkeley et une autre de la division des sciences des matériaux du Laboratoire National Lawrence Berkeley en Californie (USA), vient d’annoncer dans la revue Nature (lien ici) la conception du premier œil bionique complet à destination future des non voyants.
Cet équipement électronique intégré, l’EC-EYE (ElectroChemical EYE), est constitué d’un globe oculaire artificiel complet dont la rétine est constituée de minuscules capteurs électrochimiques positionnés dans une membrane hémisphérique d'aluminium et de tungstène et imitant les véritables cellules photoréceptrices. La partie optique du prototype est constituée d’une lentille et forme la cavité sphérique contenant un liquide ionique. Les données qui en sont issues sont transmises par de minuscules câbles formant le nerf optique. Pour l’instant limité à une résolution de 100 pixels et à un champs de vision de 100 degrés, le dispositifs sera amélioré pour permettre d'ici cinq ans selon les auteurs une vision quasi normale sur 160 degrés et permettre une utilisation substitutive en clinique, voire dépasser les aptitudes naturelles de l’homme. L'appareil pourrait alors équiper des robots humanoïdes ou d’autres dispositifs de vision. Les chercheurs pensent ainsi pouvoir à terme obtenir un œil doté de nanorécepteurs permettant une vision dix fois plus précise et performante que celle de l’œil humain. 
Deux problèmes restent posés et non abordés par les auteurs. Le premier est celui de l’interface qui sera nécessaire chez l’homme entre la partie artificielle est le premier relai sous cortical (genouillé latéral du thalamus) en respectant son organisation structurale en couches et fonctionnelle en hémichamps droit et gauche, en réseaux rapide (magnocellulaire) et plus lent et précis (parvicellulaire), selon le type d’information et sa localisation sur la rétine. Ce problème est d’autant plus critique qu’il participe à la ségrégation des informations en contrastes, couleurs et mouvements, tout en permettant d’assurer la mobilité oculaire (poursuite oculaire, mouvements réflexes, contraintes de nystagmus, etc.), pour un traitement spécifiques à d'autres aires cérébrales distinctes (notamment corticales). Il se posera d’autant plus s’il doit être coordonné avec un œil sain restant, posant la question de sa cohérence ou de sa suppression, produisant alors un nécessaire handicap pour pouvoir être couplé avec un second œil artificiel (éborgnement). Le second problème est, dans le cas fort théorique ou le premier pourrait être résolu, de savoir ce que ferait un homme augmenté d’une vision dix fois plus performante que la naturelle.
Nous sommes encore une fois confrontés au fantasme des spécialistes de l’artificiel qui veulent faire plus en omettant les contraintes de bases comme si leur solution allait de soi. Toujours plus n'est pas forcément mieux. 
Il y a fort à parier que les équipes californiennes et chinoises produiront un œil artificiel qui restera un gadget puisque d’une part impossible à connecter utilement au cerveau, sauf à en faire un simple outil d'interface cerveau-machine (BCI). Dans le cas où l’interface serait possible, alors pourquoi utiliser un œil plutôt qu’un dispositif plus efficace de caméras incorporées ou embarquées sur des lunettes, plutôt qu’un dispositif « usine à gaz » faisant courir des risques chirurgicaux considérables à la personne qui en serait équipée ? Enfin, lorsque les auteurs affirment que l’œil est déjà capable de différencier des lettres simples comme E et Y, ils omettent l’idée que ce n’est pas l’œil qui voit ces lettres, mais tout un ensemble, avec l'intervention d'un système postérieur, soit d’intelligence artificielle dans leur cas, soit d'intelligence naturelle soumise aux apprentissages culturels dans le cas de l'homme normal, l’œil ne détectant que des différences auxquelles une intelligence donne éventuellement un sens en fonction des acquis, de la mémoire et des apprentissages, et de la motivation ... à voir.
Ce problème de l’interface est récurent chez les mécanistes qui engagent pourtant des moyens colossaux comme s’il était résolu. Le fameux Elon Musk fait d'ailleurs comme s'il avait franchi ce cap grâce à son dispositif cerveau-ordinateur développé par sa société Neuralink, alors qu’il ne permet que de produire de nouveaux apprentissages chez les sujets à partir d’électrodes implantées, comme le faisait déjà Grey Walter par l’électroencéphalogramme de surface (électrodes collées sur le scalp) avec ses tortues robots au milieu du siècle dernier, et que réalise tous les jours le "brain-computer interface" tel qu'il est enseigné et mis concrètement en oeuvre à l'ENSC. Pour l'avoir moi-même testé à l'hôpital avec des électrodes implantées et recueillir des potentiels évoqués cognitifs de 1993 à 1999 (voir liste de publications ici), je peux affirmer que ... ça ne marche pas ... à de tels niveaux macroscopiques et d'approximation théorique.
Rien de nouveau sous le soleil, et toujours le fantasme du bio-mimétisme  dans un transhumanisme paralysé par ce boulet conceptuel. On ne fait pas voler des avions en imitant les oiseaux ! Voir à ce propos l'excellent article de Jean-Claude Beaune, André Doyon et Lucien Liaigre sous le titre "automate" dans la non moins excellente Encyclopaedia Universalis (lien ici), et comprendre comment, "Comme le train qui s'entête, dès sa naissance, à singer la diligence, le robot, marqué des pouvoirs nouveaux de l'électricité, de l'asservissement mécanique et de l'électromagnétisme, s'entête à son tour à parodier tristement la nature humaine" (sic).
Voir l'article de Martin Koppe sur un "Regard anthropologique sur le biomimétisme" dans le Journal du CNRS (lien ici), qui explique le "biomorphisme", c'est-à-dire utilisation et "détournement" de solutions héritées de l'évolution adaptative pour faire quelque chose d'autre (par exemple le Velcro inspiré des épines du fruit de la bardane). Tout cela ne peut être confondu, dans un fantasme à la Pinocchio et à la bonne fée, avec la simple copie réductionniste d'éléments isolés d'ensembles fonctionnels intégrés, en espérant que la fonction émergente des derniers apparaisse spontanément des simples bouts de bois et de ferraille des roboticiens ou du silicium des informaticiens.

09 mai 2020

IA : Spot, le chien artificiel autonome pour faire respecter la distanciation sociale.

La société Boston Dynamics, dont on a suivi l’évolution depuis sa séparation de Google, est connue pour les robots autonomes, et notamment son chien automatisé dont la réalisation avait été financée par la DARPA (agence de financement du Ministère de la Défense américain). On connaît les différents films promotionnel que Boston Dynamics a produit, mettant en scène ses robots militaires dont des humanoïdes (film ici et film là) et des chiens porteurs (film ici et film là) dont les capacités d’apprentissage et d’autonomie sont impressionnantes (film ici) et très inquiétantes.
Jusque là, la frontière de l’utilisation était celle des forces armées, et on n’avait pas envisagé une utilisation de ces machines « de guerre » dans le maintien de l’ordre. Cette limite vient de tomber, et Singapour a décidé de mettre sur le terrain « Spot », un chien de Boston Dynamics pour faire respecter les mesures de distanciation sociale (film ici). Si, pour l’heure, le chien est contrôlé par un opérateur, rien n’empêche maintenant qu’une nouvelle limite tombe pour lui laisser une part de plus en plus importante d’autonomie, sans que cela ne pose, semble-t-il à Singapour, les problèmes éthiques que nous dénonçons en Europe.
Ce type d’artefacts, qui peuvent s’apparenter aux SALA pour être des systèmes potentiellement létaux et autonomes, pose une série de problèmes dont le premier est celui de l’absence d’universalité des doctrines éthiques en matière de robotique interventionnelle, mais également celui de la robustesse de la doctrine française dans le cas d’une généralisation à l’étranger de tels appareils et de leur usage civil.


30 avril 2020

ENSC : Quelques questions pour préparer le grand oral.

Questions possibles pour le grand oral de fin d'études de l'ENSC : 

"La prévisibilité est-elle soluble dans les dynamiques non linéaires ?";
"Qu'est-ce qu'un attracteur étrange, et quelles conséquences pour les dynamiques biologiques ?";
"Qu'est ce que prévoir ?"; 
"Qu'est-ce que la sensibilité aux conditions initiales et qu'en tirer pour la prévision ?";
"Le temps de Lyapunov est-il celui de le certitude ?";
... et des pistes de réponses à construire ici : 
"Peut-on se mesurer à l'IA ?";
"L'IA est-elle la fin de l'intelligence naturelle ?";
"Les voyous sont ils des précurseurs scientifiques ?";
"Quelles stratégies pour les cyberpirates ?"; 
"La cybersécurité commence-t-elle par le facteur humain ?";
"Quelles sont les disciplines que vous considérez comme prioritaires en sortie de crise, et pourquoi ?";
"Les technologies sont-elles des outils de promotion économique ?";
"Les technologies sont-elles la solution ?";
"L'effet de dilution est-il applicable à la biologie des organismes ?";
"La virologie s'affranchie-t-elle des lois du vivant ?";
"Le pangolin est-il le meilleur ami de la chauve-souris ?";
"La médecine est-elle la science des sciences ?";
"La santé est-elle la première priorité nationale (cf, article 1 du Code de l'éducation) ?";
"Qu'est ce que la théorie "One health" ?";
"La One health s'ouvre-t-elle au  numérique ?";
"Qu'est ce que Moore après Moore ?";
"Le quantique est-il la survie de la dynamique de Moore ?";
"Jusqu'où descendra le calcul ?";
"L'avenir du calcul quantique est-il froid ?";
"Superposition et intrication sont elles les deux mamelles du calcul ?";
"Les indices comportementaux indirects sont-ils fiables ?";
"L'économie n'est-elle que l'émergence visible des comportements individuels ?";
"Les initiatives individuelles permettent elles une nouvelle connaissance cartographique ?";
"Quel avenir pour les open data ?";
"Des rythmes et des at tracteurs : les modifications des dynamiques sont elles catastrophiques ?";
"Les mobilités sont-elles corrélées dans les grandes villes ?";
"Qu'est ce qu'être vieux ?";
"L'usure est-elle un phénomène biologique naturel ?";
"La vie d'une jeune est-elle plus chère que celle d'un vieux ?";
"Quelle doctrine de tri dans une perspective utilitariste ?"; 
"La pensée est-elle guidée par des prototypes ?";
"La vision du mouvement s'inscrit-elle aussi dans la fovéa ?";
"La vision s'appuie-t-elle sur des processus conceptuels ?";
"Eviter suffit-il ?";
"Pourquoi est-il si difficile de promouvoir des recommandations en matière sanitaire ?";
"Recommander est-il de la responsabilité des scientifiques ?";
La santé n'est-elle affaire que de médecins ?";
"La cartographie dynamique transforme-telle la conscience des peuples ?";
"Parle-t-on avec son cerveau gauche ?";
"Quels sont les différents types de plasticité neuronale ?";
"La chance d'être compensé dépend-elle de son milieu ?";
"Peut-on parler sans cerveau gauche ?";
"Le confinement provoque-t-il des troubles ou révèle-t-il ceux qui existaient ?";
"Quelles relations entre numérique et pathologie mentale ?";
"Qu'est-ce que l'IA ?";
"Le neuromorphique est-il l'avenir de l'IA ?";
"Quels rapports étranges entretiennent informatique et neurosciences ?";
"Qu'est ce qu'un virus ?";
"Un virus est-il vivant ?";
"La métaphore informatique du virus est-elle pertinente ?";
"Quelle est la place des virus dans l'évolution humaine ?";




IA - SHS - DIV : De l’impossibilité potentielle de prévoir : le futur du Covid-19 dans l’impasse du chaos.

Outre le fait que le plus difficile à prévoir, c'est l'avenir (voir ici), certains s'y essaient pourtant. Ainsi le 16 avril, Elie Cohen, économiste et directeur de recherche au CNRS, a élaboré trois (3) scenarios de sortie de la crise économique due au coronavirus. Qu’en tirer comme conclusions ?
« scenario en V ». On plonge très profondément, on touche le fond, on rebondit rapidement. La crise est de courte durée : par exemple quelques semaines. L’économie reprend et la perte d’activité en 2020 serait compensée en 2021 et même 2022. Les deux ou trois ans moyennés seraient alors nuls en termes de croissance.
« scenario en U ». On plonge, on reste au fond le temps de la crise qui est longue : plusieurs mois sans reprise, au moins  avant l’automne, peut-être plus. La perte de PIB est très importante, pouvant atteindre 10%. Il s’agit d’une crise majeure, sans réelle possibilité d’imaginer les conséquences économiques, sociales, culturelles, industrielles, militaires, etc.
« scenario en W ». On plonge, on rebondit et la crise sanitaire repart, et on replonge, et ainsi de suite avec une constante de temps par exemple de 3 à 4 semaines : succession de périodes de confinement et de redémarrage. Pour Cohen, « c’est le scenario noir absolu et c’est ce qu’il faut absolument éviter ». Néanmoins, c’est celui dont il n’est plus tabou de parler, et que le Premier Ministre envisage en y préparant le parlement et les citoyens à un scénario dit « stop and go » (voir ici).
Alors, que se passe-t-il dans ce cas W ? Ce scénario a notamment été théorisé par Neil Ferguson, épidémiologiste de l’Imperial College (voir ici), qui bien que  particulièrement critiqué par de nombreux théoriciens (lien ici) semble avoir inspiré les politiques de françaises, américaines, anglaises ... en effet, à lorsqu’on sait qu’en matière biologique la négation n’a aucune valeur conjuratoire, il est utile d’examiner toutes les pistes d’interprétation des données jusqu’ici recueillies. Parmi les modèles qui ont été étudiés (lien ici), ce W rappelle les phénomènes rencontrés dans les théories du chaos déterministe. Et ces modèles chaotiques sont loin d’être incohérents. Dans ceux-là, la dynamique échappe à l’ambition épidémiologique, elle n’est plus prévisible, et seuls des modèles mathématiques spécifiques sont applicables.
De manière générale, on peut en décrire trois types de perspectives.
Premier cas : l’oscillation (WWW) s’éteint en tendant vers un attracteur entier, qui peut prendre toutes les valeurs intermédiaires entre le maximum et le minimum, avec une probabilité centrée sur une valeur de tendance centrale. Les statisticiens s’écharpent sur la forme normale ou non de la distribution de probabilité, sur la validité de la médiane ou de la moyenne selon les modèles, etc. Bref, on ne sait rien sinon prévoir, mais sans certitude.


Second cas : l’oscillation (Ww-) se stabilise sur deux valeurs, maximum et minimum, avec un rythme qu’il reste à découvrir, probablement lié à la période d’incubation du virus et à la durée des reconfinements. Là encore, on ne sait rien pour n’avoir aucune valeur pertinente potentielle pour alimenter le modèle. La variabilité des données à y entrer voit une explosion combinatoire des solutions, dépassant des capacités raisonnables de calcul informatique, et sans que personne ne puisse donc en donner une perspective. 
Troisième cas : la dynamique (WXY) converge vers un attracteur étrange, non entier, de dimension fractale, caractéristique du chaos déterministe. Ce que l’on sait de certain à son propos est que l’étude de ce type de phénomènes ne peut se faire qu’à posteriori. Il n’y a aucune solution ni aucun moyen de prévoir quoi que ce soit ; toute prévision est mathématiquement impossible. On peut avoir des accélérations fréquentielles combinées à des phases de quasi stabilité plus ou moins longues avant de nouvelles explosions d’instabilité, cela sans maximum ou minimum calculables. Un exemple modelisé à partir d’une équation simple (x(i+1)=r.x(i)*(1-x(i)) avec r arbitrairement fixe à 2,6 (figure du haut), à 3,2 (figure du milieu) et à 3,7 (figure du bas) pour une valeur x de 0,4, illustre les trois cas cités, alors que les paramètres de l’équation sont très proches. 
Comme les dynamique du troisième ordre sont excessivement sensibles à des conditions initiales dont des différences infimes amènent à des futurs complètement différents, toute tentative de rationalisation est vaine dès qu’on s’éloigne du moment initial de la dynamique. 
Ainsi, on montre à partir de l’exemple précédent, dans le troisieme cas, qu’en réglant la valeur initiale x à 0,4 (figure du haut) ou à 0,4000001 (figure du bas), soit avec une différence (par exemple imprécision) inférieure à un millionième, la dynamique du phénomène est complètement différente. Elle montre, dans le cas considéré, l’impossibilité totale de toute prévision si l’on ne connaît pas avec très grande exactitude ces valeurs initiales, ce qui est bien entendu impossible dans les études portant sur des facteurs globaux estimés, approximés ou même inconnus et alors simplement supposés.
On peut donc comprendre, si tel est le cas, que personne ne sache ce qui va se passer, et que le politique, lui non plus ne sache rien. Il peut rassurer le peuple, mentir, donner des certitudes. Mais les modèles ne peuvent rien dire de futur.
Alors qu’elle perspective ? Autant une petite variation peut induire un effet chaotique, et le battement d’aile d’une chauve-souris en Chine peut provoquer un cataclysme en Europe et en Amérique, autant une autre petite intervention peut faire changer de trajectoire la dynamique considérée, et la précipiter sur un nouvel attracteur. On peut alors imaginer le rôle majeur que pourraient jouer des médicaments, largement diffusés, même si leur action n’est pas prouvée, mais qui changerait un tout petit peu le phénomène. Le jeu en vaut la chandelle, en attendant un vaccin qui jouera, espérons le, le rôle d’un nouvel attracteur entier majeur (pour peut qu’il puisse l’être), précipitant la dynamique mortelle dans une stabilité que chacun appelle de ses vœux.
Sur le chaos déterministe, lire l’article de Futura Sciences (lien ici), et celui de Sciences Étonnantes (lien ici).

27 avril 2020

IA : La cybersécurité menacée par l'IA.

Alors que certains clament l’importance que doit jouer l’Intelligence Artificielle dans le déconfinement, on trouve sur le Web, à l’initiative de DarkTrace® qui rappelle que le Net n’est pas un espace de confiance (lien ici), un rapport très intéressant (lien ici) "Les Attaques Renforcées par l’IA et la Bataille des Algorithmes" décrivant les conditions dans lesquelles des groupes de couards, se prenant pour des mercenaires qui ne risquent rien derrière leurs machines, utilisent l’IA pour pirater, foutre le waï et faire du fric à bon compte, sans aucune sans aucune morale jusqu’à ce que les informaticiens aient le courage, un jour, de faire le ménage chez eux.
L’article est consacré aux attaques agressives basées sur l’IA, dans un contexte où tous les outils et les éléments open source nécessaires pour mettre en œuvre une attaque basée sur l’IA existent bel et bien aujourd’hui, faciles d’accès, à la disposition de tous les médiocres, malades mentaux et salopards de toutes espèces, dont certains pourraient être organisés en « groupe de hackers professionnels » … « régi comme n’importe quelle entreprise » … « au service du plus offrant ». Ainsi, l’article prévoit « que les cyberattaques basées sur l’IA ne sont plus à quelques années de nous, mais qu’elles apparaîtront manifestement dans un futur proche ».
Dans un premier temps, les auteurs documentent le cycle de vie d’une attaque standard, en montrant comment les outils de l’IA peuvent « améliorer et rationaliser le processus » … « pour gagner en efficacité ». Dans un second temps, ils détaillent « le cycle de vie complet d’une attaque basée sur l’IA ».
Ainsi, « les cybercriminels exploiteront l’IA pour générer des attaques personnalisées, très ciblées et difficiles à détecter » et « L’IA supprimera la dimension humaine de l’attaque, ce qui compliquera l’identification des auteurs » obligeant les organisations à « devoir utiliser des outils de défense basés sur l’IA capables de lutter contre cette nouvelle génération d’attaques en utilisant les mêmes méthodes ». Malheureusement, autant les cyberdélinquants, qui n’ont que ça à faire et le font par dérangement des tuyaux neuronaux, sont en avance, autant les cyberdéfenseurs sont, si l’on comprend bien le propos, littéralement « à la rue ».
L’anatomie standard d’une attaque actuelle demande aux pirates beaucoup de prudence. On peut décrire une suite d’étapes plus ou moins complexes et efficaces.
Étape 1 : Récupération d’informations à grande échelle sur les réseaux sociaux, grâce à des faux profils pendant une phase de reconnaissance qui dure plusieurs semaines. Les cibles sont identifiées manuellement ou semi-automatiquement et les pirates entreprennent une phase d’approche, en devenant amis avec certains acteurs de la cible et récolter des informations à leur sujet. Simultanément, une analyse de la victime détermine les vecteurs d’attaque potentiels grâce à une panoplie d’outils et d’algorithmes, par exemple pour casser les capcha ou mots de passe. Étape 2 : Envoi d’e-mail d’hameçonnage ciblé à partir des informations précédentes, et contenant des documents ou messages avec des macros malveillantes. Parallèlement, on sonde activement les serveurs Web de la victime pour y trouver des vulnérabilités. Étape 3 : Si l’intrusion réussit, le malware établit un canal de commande et de contrôle (C2) qui se fond dans l’environnement en essayant d’éviter les pare-feu. Étape 4 : Récupération de mots de passe par force brute en exécutant des keyloggers et tentant de dérober les informations d’identification des administrateurs, en repérant les comptes qui utilisent des mots de passe faibles ou répétés. Étape 5 : Les informations récoltées sont utilisées pour des déplacements latéraux en utilisant les techniques Pass the Hash et Mimikatz. Les assaillants piratent ainsi une machine cliente après l’autre, en essayant de mettre la main sur des comptes aux privilèges élevés pour tenter d’accéder à de nouvelles machines d’administration. Étape 6 : Si les pirates finissent par identifier les données qu’ils cherchent, et sans trier, ils regroupent et extraient les données morceau par morceau vers leur serveur C2. Les données dérobées sont triées ensuite avec d’autres algorithmes, bien au chaud dans leurs propres machines.
On voit que les cyberattaquants risquent un échec à chaque fois et que la procédure incrémentale récupère des gigaoctets de bruits par rapport à l’information recherchée ou commandée. Le but des équipes de cybersécurité repose dont sur trois objectifs : empêcher les effractions, les détecter pour les stopper ou éventuellement les utiliser, noyer l’information pertinente dans une somme d données afin de la rendre la plus inextricable possible. La stratégie consiste donc, pour les cyberpirates, de se tourner résolument vers des cyberattaques augmentées par l’IA. Cette nouvelle génération consiste à utiliser les outils d’IA pour simplifier, automatiser et rendre indétectable chacune des étapes précédentes. On réduit ainsi le facteur de risque de se voir bloqué ou repéré, voire poursuivi, et on augmente le rendement. Étape 1 : Ce sont des chatbots qui deviennent amis avec la personne par qui l’effraction se fera, et qui a été déterminée par big data. Ces bots calculent les types de profils recherchés parmi les dizaines (ou centaines) d’employés ainsi bernés, croyant de bonne foi être en relation avec des personnes, par exmple des lcients, des fournisseurs ou des collègues. Des profils et des photos ont créés par une IA en fonction des attentes et des affinités des personnes cibles. Les outils de résolution automatique de captcha seraient utilisés pour la reconnaissance automatisée d’images sur les sites Web des victimes. Étape 2 : L’hameçonnage est ciblé par rapport aux renseignements des bots pour des attaques convaincantes, avec des tweets réalistes pour de nombreux employés dont l’un au moins téléchargerait des documents infectés, ou renfermant des liens vers des serveurs d’attaque à l’aide d’algorithmes d’exploit kits. Le classement par IApeut tenir compte de toutes les informations historiques, en apprenant de mieux en mieux avec le temps (deep learning). Un moteur de fuzzing autonome pourrait alors parcourir en permanence le périmètre de la victime pour découvrir de nouvelles vulnérabilités, et cela de manière suffisamment courte pour disparaître et ne pas laisser de trace après que le crawler trouve le nouvel actif et pour que le moteur de fuzzing découvre une vulnérabilité exploitable. Étape 3 : Imitation de l’activité habituelle de l’entreprise Une fois que l’infection initiale lancée, par fuzzing ou par l’ingénierie sociale automatisée, le canal de C2 serait établi, en attente furtive tout en apprenant son comportement de ou des machines afin de veiller à imiter le fonctionnement d’une ou des machines non infectées. La stratégie devient alors indétectable, en se fondant dans les opérations habituelles de l’entreprise, et en utilisant les ports les plus habituels pour communiquer avec des API spécifiques sur Internet. Étape 4 : Un outil créerait une liste de mots-clés uniques en s’appuyant sur les documents et les e-mails présents sur la machine infectée et créer des permutations par machine learning supervisé à visée de piratage avancé par force brute. Étape 5 : L’identification des chemins optimaux, une fois les comptes identifiés et les mots de passe récupérés, favorise le déplacement latéral pour se rapprocher des données désirées. L’utilisation des méthodes de planification automatisées basées sur l’IA réduirait considérablement le temps requis pour atteindre la destination finale. Étape 6 : L’extraction de données peut commencer une fois que les documents cibles présélectionnés ont été acquis (par exemple reconnaissance de plans spécifiques, de notices, etc.). En même temps, On pourrait extraire des documents compromettants pouvant être utilisés ultérieurement pour du chantage ou de la déstabilisation. Les procédures étant automatisées, elles peuvent être multipliées à l’envi et conduites en parallèle, ce qui surcharge de travail les équipes de défense.
La conclusion de l’étude repose sur un constat simple : Seule l’IA peut combattre l’IA, et il devient urgent de développer des programmes de détection des signes les plus subtils d’une action pour que l’équipe de sécurité puisse couper toute communication, le temps de purger le système… ce qui est une autre stratégie pour retarder une entreprise. uant à croire en la supériorité des hommes pour se protéger ou pour défendre leur système, autant croire que les logiciels de radiologie sont médiocre par rapport à un médecin spécialiste et un Alpha Go ne battra jamais Lee Sedol.
Télécharger le rapport (ici).

25 avril 2020

IA - TECH : 25 Technologies pour booster l’économie post confinement

Le magasine Forbes propose aujourd’hui une liste prévisionnelle des technologies à mettre en œuvre pour booster l’économie de sortie de confinement (lien ici). Pour le magasine, il ne fait aucun doute que, malgré la crise terrible qui frappe le monde, cette décennie va mettre en œuvre des avancées technologiques permettant de compenser, rattraper voire rayer l’effet désastreux du confinement pour une reprise économique drivée par les technics.
Voici les 25 nouvelles technologies, dont bon nombre sont déjà de la compétence des ingénieurs diplômés de l’ENSC (voir plus de détail, lien ici).
  1. L’intelligence artificielle (au programme de toutes les années, plus parcours de 3eme année, et chaire ENSC/IBM autour de Watson) ;
  2. L’Internet des objets (IoT) ;
  3. Les technologies portables et l’humain augmenté (au programme de toutes les années et parcours de 3ème année) ;
  4. Le Big data et l’analyse augmentée (voir le DU Big data et statistiques pour l’ingénieur) ;
  5. Les environnements intelligents (au programme de deuxième année) ;
  6. Les Blockchains et la protection de registres ;
  7. Le cloud et la technologie de pointe (au programme) ;
  8. La réalité augmentée (idem) ;
  9. Les jumeaux numériques ;
  10. Le traitement du langage (au programme) ;
  11. Les interfaces vocales ;
  12. La vision artificielle et la reconnaissance faciale (en collaboration avec l’Institut d’optique, antenne de Bordeaux) ;
  13. Les robots et cobots (spécialité de 3ème année) ;
  14. Les véhicules autonomes (équipe de recherche avec l’IFSTTAR) ;
  15. La 5G ;
  16. La génomique et l’édition génétique ;
  17. La co-créativité homme-machine et le design augmenté (en collaboration avec les écoles de Condé) ;
  18. Les plateformes numériques ;
  19. Les drones et les véhicules aériens sans pilote (projets de 2eme année avec les simulateurs de la plateforme technologique) :
  20. La cybersécurité ;
  21. Les ordinateurs quantiques (au programme de la chaire ENSC/IBM) ;
  22. L’automatisation des procédés robotiques (cf. l’option de 3ème année) ;
  23. La personnalisation de masse et les micromoments ;
  24. Les impressions en 3D et 4D ;
  25. La nanotechnologie et la science des matériaux.
Voici une liste qui semble déjà bien remplie à l’ENSC, et qui donne plein d’idées pour collaborer avec l’ENSEiRB-MMK, l’Ecole de chimie (ENSCBP), l’Ecole des biotechnologies (ENSTBB), l’IOGS, et l’Institut Mines Telecom, dans un projet de rapprochement à reprendre par la nouvelle équipe de direction.

23 avril 2020

BIO : Ne nous plaignons pas des pangolins - Pour une vision écoépidémiologique.

Ne nous plaignons pas des Pangolins ni des chauves-souris, véritables souches à virus (voir ici). En effet, dans leur chronique pour une approche globale de la santé, les responsables de 14 organismes de recherche et d’universités fédérés par Allenvie (voir ici) précisent que les analyses génétiques du Sars-CoV-2 le rattachent au groupe des Betacoronavirus, et notamment montrent sa proximité avec le virus RaTG13, isolé sur une chauve-souris de la province chinoise du Yunnan,  à 60 kilomètres de Kunming, dans le sud-ouest de la Chine (77 % d’identité avec le Sars-Cov-2). Ils précisent qu’un virus encore plus proche a été récemment isolé chez le pangolin malais, qui peut infecter les cellules humaines (de 90% à 96%, voire 99 % d’identité avec le Sars-Cov-2 selon les publications - ici - et - là - ou encore - là - pour une revue), alors que le RaTG13 ne le peut pas. Cela suggère que le Sars-Cov-2 est issu d’une recombinaison entre deux virus différents, l’un proche de celui de la chauve-souris et l’autre plus proche de celui du pangolin (plus de précisions, voir ici).  L'épidémie de Sras qui a démarré en 2002 touchant 8000 personnes était déjà dû à un virus similaire qui s'était développé chez ces mammifères dans une grotte reculée de la province du Yunnan,Il était alors passé à l'humain par l'intermédiaire de la civette masquée, un petit mammifère carnivore.

« Une première leçon de ce constat sur les origines probables du virus est qu’il ne servirait à rien d’éradiquer les pangolins, ni les chauves-souris. Les virus de cette famille courent à travers toute la biodiversité des mammifères, laquelle comporte de nombreux porteurs sains », rappellent les scientifiques. Il est d’ailleurs absurde de « penser que la biodiversité représente un danger potentiel puisqu’elle héberge de nombreux pathogènes » et, bien que contre intuitif, c’est « tout le contraire ». En effet, d’une part « une grande diversité d’espèces hôtes potentielles ou effectives limite la transmission des virus par un effet de dilution » (voir l’explication ici d’un effet de dillution rencontré dans plus de 70% des cas), et d’autre part, « la diversité génétique propre à chaque espèce contribue à faire émerger des résistances de l’hôte à son pathogène, et donc limite aussi sa transmission ». Une récente étude d’une équipe de l’University of South Florida à Tampa (Floride, USA), publiée dans les Proceedings of the National Academy of Sciences (Pnas), et portant sur une méta-analyse de 202 études d’interactions hôtes/pathogènes, dont 47 espèces parasitaires n’affectant que les animaux et 14 touchant aussi l’homme, montre que l’hypothèse de l’effet de dilution n’est en rien une exception, mais semble au contraire la règle. Les organismes pathogènes feraient en effet plus de ravages lorsque le nombre d’espèces décroît dans le milieu (voir ici le débat). De nombreux travaux scientifiques récents montrent ainsi que de la qualité de la biodiversitédépend la qualité de la santé, d’où le concept de One Health, et que l’éradication des espèces vecteurs supprime l’effet de dillution et aggrave la situation sanitaire humaine.
La biodiversité amoindrit en effet les ravages causés par un parasite, et ce dans tous les contextes écologiques : microparasitee (virus, bactéries, champignons, etc.) ou macroparasites (vers nématodes, trématodes, etc.), cycles de vie soit plus ou moins complexes implicant un nombre plus ou moins grand d’espèces hôtes, et cela aussi bien pour les espèces animales (agriculture, chasse, médecine vétérinaire) ou l’homme (médecine humaine). C’est ainsi que « le déclin de la biodiversité qui, en réduisant les populations d’hôtes et, ce faisant, la probabilité d’apparition des résistances, augmente les risques de transmission des pathogènes et l’émergence des maladies associées ». Donc pour se protéger des virus, protégeons les souches à virus car, plus nombreux elles sont, plus elles nous protègent, pour peu qu’on les laisse tranquilles. Et là, et un second problème.
Voici le scénario que les auteurs de la tribune rapportent et qui a amené à la diffusion du virus. Alors que les chauves-souris et les pangolins n’ont aucune raison d’être en contact direct entre eux, et très peu de chances d’être en contact directement rapproché avec les hommes, c’est le fait de les chasser et de les concentrer sur des marchés qui a permis « le passage de la chauve-souris au pangolin, puis du pangolin aux humains ». Ainsi le coronavirus de la chauve-souris qui n'est pas transmissible à l'homme a bénéficié de la proximité des chauves-souris captives en contact avec des pangolins eux-mêmes captifs au même endroit. Deux hypothèses, soit il s'agit d'une mutation du virus de la chauve-souris àpar le passage par le pangolin, soit plus probablement il s’agit d’une chimère entre deux virus préexistants, qui a acquis des propriétés  de capacité à pénétrer les cellules humaines (voir ici).
Alors que ces espèces animales sont strictement protégées, et que leur commerce est évidemment interdit, on constate que la consommation de leur viande et l’incorporation de certaines parties (ailes, écailles…) dans les préparations de médecine traditionnelle asiatique sont les raisons principales de cette hécatombe, et de l’augmentation des contacts avec les humains. Il y a là, évidemment des raisons traditionnelles, mais elles sont amplifiées par de véritables trafics mafieux probablement en réponse à des effets de mode et de défiance de la médecine moderne au bénéfice des nouvelles industries des médecines alternatives, ainsi que des remontées des croyances et d’un mouvement global mondial de négation et de refus de la science.
Les conséquences de ce constat sont multiples, avec en premier lieu la mise en œuvre de politiques résolues ; c’est « une nécessité de santé publique » alertent les signataires de la chronique du Monde. Il faut d’urgence limiter « les activités humaines qui appauvrissent directement la biodiversité ». Cela ne se fera pas sans entreprendre une éducation globale des populations, de manière transculturelle, et surtout sans une revalorisation de l’image de la science (qui n’est pas bien aidée par les batailles de chiffonniers ni les pratiques individualistes de chercheurs maintenus en concurrence par des systèmes compétitifs d’appels d’offres ou d’évaluation de carrière). C'est à ce prix qu'un effort international de lutte contre les mafias pourra être efficace, par la chasse à l’institutionnalisation des comportements à risque et à la chute des demandes de marché noir, en engageant dès les plus jeunes âges de scolarisation au respect de logiques naturelles de préservation de la biodiversité.
Nous en sommes malheureusement encore loin, y compris dans notre pays.