14 octobre 2016

DIV : A quand l'anthropocène ?

Il était un élément de la nature, il en est devenu l'acteur de sa profonde modification. L'Homme a commencé par la cultiver, élevant les animaux et semant les végétaux pour en régler la reproduction. Puis il l'a exploité à travers mines et prélèvements, pillant les sols comme les mers, influençant le climat, devenant le superprédateur détruisant la biodiversité à qui l'on doit le basculement du Monde dans une rupture écologique majeure: l’anthropocène.
Après le pléistocène et l’holocène qui sont les deux premières divisions de l’ère quaternaire, voici que la Terre entre dans une nouvelle époque géologique.
Mais, depuis quand compter ce basculement.
La rigoureuse Commission pour la stratigraphie du quaternaire de l’Union internationale des sciences géologiques doit se prononcer sur la question. Et la tâche n'est pas facile, car fixer une nouvelle époque géologique doit se faire relativement à des marqueurs. jusqu'ici ils sont de nature physico-chimique, comme révélateurs d'un changement sur l’ensemble de la planète.
Lequel sera adopté pour l’anthropocène?
Les premiers à avoir théorisé la chose sont les anthropologues qui attribuent à l'homme la responsabilité du basculement avec les débuts de l’agriculture, il y a 8 000 ans.
Plus récemment, Paul Crutzen et Eugene Stoermer ont proposé en l'an 2000 que l'on adopte l'année 1784, c'est-à-dire celle de l’invention de la machine à vapeur. et du début de l'industrialisation, polluante, pillant les ressources pour ses productions, s'accompagnant des évolutions sociales et économiques qui mettent la nature au service d'une idée que l'on se fait de l'homme indépendamment de la planète ramenée au statut d'objet de transformation. Depuis cette date, l'homme a relâché 1000 milliards de tonnes de CO2 dans l'atmosphère, et il lui faut aujourd'hui moins de huit mois pour utiliser la totalité des ressources naturelles renouvelables que la planète peut produire en un an. C'est-à-dire qu'il vit à crédit.
D'autres scientifiques, notamment ceux de l’université de Leicester, détermine le basculement plus scientifiquement à compter de la date de dispersion des radionucléides artificiels sur toute la surface de la planète, où ils seront encore mesurables dans des milliers, voire pour certains des millions d’années. Cette date est le 16 juillet 1945: celle de la première explosion d’une bombe atomique.
À partir de cette catastrophe, au sens mathématique du terme, les mesures ont révélé dans l'air, les océans et les sols, que c'était l'année 1964 qui montrait le maximum de concentration en radionucléides et polluants chimiques persistants. C'est donc aussi une date intéressante pour fixer la frontière du basculement.
En début d'année 2016, des géographes anglais, Simon Lewis et Mark Maslin, ont proposé la date de 1610 comme celle de la découverte de l’Amérique et de la catastrophe écologique majeure et irréversible qui s'est ensuivie. Apportant leurs microbes dans le Nouveau Monde, les Européens ont été la cause de la chute des civilisations et des populations américaines, passant de 54 millions d’individus en 1492 à 6 millions en 1650. Soixante-cinq millions d’hectares de terres agricoles ont alors été abandonnés à la forêt et à la nature qui a ainsi stocké dans les végétaux le CO2 atmosphérique. Conséquence: une concentration de CO2 la plus faible de tout l’holocène (271,8 parties par millions, contre 400 ppm aujourd'hui), entraînant la réduction majeure de l’effet de serre et provoquant un "petit âge glaciaire" en 1610.

Alors, que choisir: -8000, 1610, 1784, 1945, 1964, ou simplement 2016, l'année de la décision arbitraire d'une instance internationale dont l'activité symbolique n'affectera pas, gageons-le, l'évolution de notre planète prise dans des logiques et des intérêts bien supérieurs à la raison. Peut-être, comme le prédisent les transhumanistes, la technologie nous permettra-t-elle de réguler tout cela pour repousser la frontière de la fin de l'anthropocène, celle de la disparition de l'homme classique.
Voir "La géologie de l’humanité : l’Anthropocène " par Paul J. Crutzen (lien), et le dinoblog (ici).

13 octobre 2016

DIV : Deux mille milliards de galaxies.

On en comptait jusqu'ici deux cents milliards. Voilà que l'erreur est corrigée (ici), avant d'en trouver d'autres : 2.000 milliards de galaxies.
Dans une étude publiée jeudi 13 octobre 2016, l'équipe du professeur Christopher Conselice, de l'Université de Nottingham (Grande-Bretagne), a montré à partir d'images en 3D issues données du télescope spatial Hubble qu'une simple extrapolation du nombre de galaxies présentes à différentes époques de l'histoire de l'Univers permettait de multiplier raisonnablement par dix le nombre jusqu'ici admis de galaxies de l'univers. La méthode consiste à utiliser des statistiques connues de ce que l'on connaît de l'Univers proche pour deviner ce qui se passe plus loin. Et si les télescopes actuels ne permettent d'étudier que 10% des galaxies, c'est que nous sommes loin de la fin du travail, avec 90% des galaxies du cosmos qui restent encore à être étudiées. Pour cela, il ne reste plus qu'à attendre la nouvelle génération de télescopes (voir  icigéants qui permettront de voir les régions lointaines. Ainsi, le Télescope géant européen E-ELT (European Extremely Large Telescope) est en train d'être construit au Chili par l'Observatoire européen austral (ESO) qui doit entrer en service en 2024 ou 2025. Son miroir primaire aura un diamètre de 39 mètres. Les USA  construirsent  à Hawaï le Thirty Meter Telescope (TMT), doté d'un miroir segmenté de 30 mètres.
De quoi observer les premier pas de la fusion inéluctable de la Voie Lactée et de la galaxie d'Andromède qui vont ainsi former une nouvelle galaxie ... dans 3 à 4 milliards d'années ...
De quoi surtout réfléchir à la certitude en science contrainte par les contraintes de la mesure.

05 août 2016

BIO : Tout va bien chez les branquignoles !!!

Après le succès d'un "Intelligent Design", mouvement théiste, en fait une espèce de procédure perverse pour insérer sous couvert de scientisme le coin des théories créationnistes dans l'édifice de la science, voilà que la compagnie des branquignolles invente une forme de déisme intitulée "Soft Overlap". C'est à peu près pareil, sauf que les scientifiques qualifiés d'incurables par les fondamentalistes de tout poil sont maintenant tenus de discuter d'une prétendue complémentarité entre science et religion. 
Rien ne les arrête pour pervertir la pensée des jeunes, cachetonner quelques biffetons et conquérir les territoires des lumières que nos politiques semblent parfois abandonner. Encore une histoire de hussards de la République, bien seuls et fatigués de ferrailler pour ceux qui portent des Rolex et autres bidules, brandissent des lois et prennent des arrêtés, plutôt que de rêver d'intelligence, de progrès et d'enseignement républicain.

06 juillet 2016

DIV : Le "Carnot Cognition" labellise un consortium piloté par l'ENSC - STAH

Le 6 juillet 2016, le Ministre délégué à l'Enseignement Supérieur et à la Recherche a annoncé la labellisation des "Instituts Carnot" (ici).
Parmi les lauréats, le "Carnot Cognition", labellisé "Tremplin Carnot".
Les « technologies cognitiques » désignent toutes les technologies d'interaction avec l'homme ou entre humains, qui engagent, aident, augmentent ou modifient les fonctions cognitives. Le "Carnot Cognition" est destiné à les assoir en mobilisant un consortium de 14 laboratoires engagés dans l’innovation des entreprises françaises par les produits et services prenant en compte de la dimension cognitique de l’humain (usager, utilisateur, client, décideurs, citoyens, etc.). 


Ces 14 laboratoires interdisciplinaires dépendant de 19 tutelles, et se sont organisés en 4 pôles pour participer à une démarche et une logique d’entreprise pour la recherche contractuelle en sciences de la cognition et technologies cognitiques.

Il prend pour point de repère l’expérimentation à Bordeaux de la chaire industrielle STAH (Systèmes Technologiques pour l’Augmentation de l’Humain) de l’ENSC (Ecole Nationale Supérieure de Cognitique – Bordeaux INP), qui a promu une offre de recherche contractuelle tirée par la demande industrielle : 75 entreprises, 17 prospects, 25 propositions, 8 projets, 4 ETP non-permanents - CA : 150K€, 8 start-up et 40 emplois créés à l’ENSC.
Le Carnot Cognition s’appuie sur un engagement des tutelles bien ancrées dans les stratégies de partenariat, avec un leadership du CNRS qui s’implique totalement dans l’institut (support par la DR15 du CNRS). Le directeur du réseau est issu de l’industrie en ayant une expérience académique de recherche scientifique. Il dispose des moyens de la chaire STAH à l'ENSC qui héberge cette direction.
L’offre technologique du Carnot vers les entreprises est la suivante :
A.—Les objets et environnements intelligents : 1.Systèmes autonomes et semi autonomes ; 2.Transport urbain intelligent; 3.Humain dans l’entreprise du futur ; 4.Habitat, architecture (Domotique) ;
B.—L'humain démultiplié et renforcé : 5.Interfaces homme-systèmes avancées (IHM, robotique cognitive) ; 6.Les systèmes et dispositifs médicaux personnalisés ; 7. Education, formation, apprentissage (serious games,…) ; 8.Accessibilité, inclusion, qualité de vie, autonomie (vieillissement) ;
C.—Les humains (inter)connectés : 9.Aide à la décision collective (Risque, sécurité) ; 10. Humain en société (Finance, économie, éthique, droit) ; 11. Cognition de groupe (réseaux sociaux, jeux,…) ; 12. Eco-humain (Energie, Nutrition, Objets/Humains connectés …)
Le siège social est établi 40 avenue d'Iéna, 75016 Paris - la direction à l'ENSC, 109 avenue Roul, 33405 Talence.

13 juin 2016

IA - BIO : De Iron Man à Yvan le Terrible - les humanoïdes russes.

La guerre a ceci de dramatique, elle est mortelle. Une des solutions prônées contre cette caractéristique inacceptable est de remplacer les combattants par des robots. L'humanoïde guerrier est conçu pour cela : remplacer les humains dans les zones à risques de combats, d'explosions, d'incendies ou de radiations ionisantes.
Deux voies sont aujourd'hui étudiées au-delà de la simple solution du scaphandre adoptée par les américains, solution qui peut s'apparenter à la problématique de l'avion, du char d'assaut ou de l'exosquelette blindé qui ne sont, en fait, que des cobots de prolongation de l'aptitude humaine ou d'augmentation sensor-comportementale, permettant une protection de l'homme qu'ils abritent. La première consiste à développer des robots autonomes qui vont, comme des machines indépendantes dotées d'intelligence embarquée ou en réseau tels certains drones de surveillance aériens, maritimes ou terrestres. La seconde consiste à développer des humanoïdes non autonomes mais contrôlés à distance par un opérateur. Dans ce dernier cas, on peut imaginer cet opérateur immergé dans un environnement virtuel réaliste, doté d'une combinaison bardée de capteurs qu'il revêt et qui transfère l'intégralité de ses mouvements à l'automate.
La Russie a annoncé le développement de son arme "Iron Man", dite "Ivan le Terrible" en référence au célèbre tsar de Russie. 
Développé par la Fondation russe pour les études avancées, l’équivalent de la Darpa américaine ou de la DGA française, Iron Man a été présenté officiellement la semaine dernière à la presse russe. Le quotidien Komsomolskaïa Pravda rapporte que le développement de la robotique militaire est l’une des priorités russes et que plusieurs dizaines d’entreprises sont impliquées dans le projet. Son but est de remplacer les personnes qui se situent dans les zones de combats ou dans les zones d’urgence en toute sécurité pour les humains. Le prototype est doté d'éléments autonomes mais reste globalement contrôlé par un opérateur qui porte une combinaison de commande des mouvements. Le but à court terme est de réussir une course sportive et de franchissement d’obstacles, avec conduite automobile.
Selon le quotidien, Iron man n'est qu'un élément d'une stratégie globale de développement de drones terrestres, marins et aériens, de véhicules et d'opérateur humanoïdes robotisés, et qui vise à rattraper le retard russe en la matière sur ses concurrents américains et asiatiques.
Voir une vidéo de présentation (ici).

TECH : Des drones de transport maritime sur une mer sans hommes.


L’équipe Ocean Blue d’Alesund (Norvège), équipe de R&D de Rolls-Royce, et des chercheurs d'un consortium academique associant plusieurs université finlandaises (Tampere University of Technology, VTT Technical Research Centre de Finland, Åbo Akademi University, Aalto University, University of Turku) et un cluster maritime associant Rolls-Royce, NAPA, Deltamarin, DNVGL et Inmarsat, ont réalisé un ensemble allant de la construction à l'exploitation en passant par la navigation de prototypes de drones de transport maritime (voir annonce).
De tels "navires fantômes" seraient plus sûrs, en assurant une plus grande sécurité aux marins, en faisant accompagner leurs navires par une flotte entièrement autonome, ou même permettre à des capitaines restant à terre de commander à distance leurs cargos depuis un centre de contrôle. Ils seraient également moins chers à la construction et moins polluants. Le but principal reste cependant financier, avec une une économie estimée à 375 milliards de dollars, selon l’entreprise. Ils pourront ainsi être déployés dans des régions inhospitalières telles que la mer Baltique ou pour les ,nouvelles routes du grand nord. 
Si le problème technologique semble en passe d'être résolu, les dimensions humaines et socio-économiques ne le sont pas. Ainsi, es syndicats représentant le million de marins concernés s’opposent à ce projet, d’après le vice-président de l’innovation maritime de l’entreprise, Oskar Levander. De même, les compagnies maritimes, les ports, mais également les assureurs et les organismes de réglementation doutent de la réalisation du projet à court terme. 
Pour Océan Blue, les cargos fantômes seraient complètement chargés de conteneurs. Le pont et les autres systèmes dévolus à l’équipage (habitat, génératrices d'électricité, chauffage et climatisation, eaux courantes et usées, réserve alimentaires et cuisines, etc.) seraient supprimées et remplacés par une quantité plus importante de marchandises, minimisant les les coûts et augmentant les recettes. Ces drones seraient ainsi 5 % plus légers et consommeraient 12 à 15 % en moins de carburant. L'absence d’humains à bord supprime les risques de santé et de sécurité (accidents, tempêtes, piraterie…). 
Rolls-Royce et son consortium se place ainsi dès aujourd'hui en leader dans une compétition maritime à vocation de transport qui pourrait bien bouleverser l’industrie et l'économie maritime.
Voir la galerie de photos des vaisseaux et salles de contrôle du programme "ship intelligence" (ici).

05 juin 2016

TECH : Airbus imprime un drone en 3D.

Airbus a présenté au 2016 ILA Berlin Air Show du 1er au 4 juin, un drone composé de 55 pièces imprimées en 3D qui ont été fabriquées en quatre semaines.
Le vol d'essai a été réalisé en 40 km de Hambourg à Stade, en Allemagne, en novembre de l'an passé. 
Airbus n'en est pas à son coup d'essai dans l'impression 3D puisque la société avait réalisé de manière additive la cloison d’un A320. Aujourd'hui, son drone Thor (Test of high tech objectives in reality) est complètement imprimé hormis le train d’atterrissage, la batterie, les deux moteurs électriques et les commandes de contrôle. Son envergure est de 4 mètres pour 25 kilos et un coût inférieur à 25 000 euros. 
Au-delà de son faible coût, c'est la possibilité de fabriquer très rapidement et en tous lieux une pièce abîmée qui en fait son principal avec rage concurrentiel.
Une première étape avant l'impression des avions du futur ?

03 juin 2016

IA : Watson pour la cybersécurité.

IBM a lancé depuis un an son programme de "cognitive era" (ère cognitive). C'est sur les performances de Watson, le super-ordinateur qui a gagné le jeu Jeopardy, que NYSE, le groupe de Sécurité d'IBM, compte pour aider les équipes de RSSI et de cybersécurité a mieux identifier les menaces. le rôle de Watson serait d'analyser des sources de données multiples non structurées, qu'elles soient exprimées en langage naturel, sous forme de texte, de posts, de blog ou de visuels,
pour repérer les faire remonter des données qu’il juge pertinentes et qui échappent jusqu'ici aux outils d’analyse classique. Or c'est ce patrimoine informationnel non structuré qui constitue 80% des données quotidiennes produites dans le monde. 
La tâche ainsi définie est nommée « sécurité cognitive ». La méthode consiste, selon IBM, à "formuler des hypothèses, des argumentaires basées sur des preuves ainsi que des recommandations" avec par exemple une analyse de malwares permettant d’identifier automatiquement les évolutions et variantes entre différents logiciels malveillants, même s'ils sont conçus de manière différente afin d’échapper aux antivirus classiques.
Après cette annonce du 10 mai 2016, IBM doit préciser la façon dont Watson sera proposé aux entreprises, avec une version beta pour la fin d’année.

02 juin 2016

BIO - IA : Human genome - l'humain synthétique

Au début des années 2000 a abouti le "Human Genome Project" (HGP), dont l’objectif était l’entière lecture du génome humain. Depuis, Craig Venter a réussi un autre exploit, il y a six ans : la synthétisation du génome d’une bactérie. Ce génome synthétique (c'est à dire créé par voie synthétique) compte près d’un million de paire de bases (ici) ACTG. 
Ce 2 juin 2016, un consortium de chercheurs s’est lancé dans une nouvelle phase de l'ingénierie génétique, réaliser la synthétisation complète d’un génome humain.
Le plan "Human Genome Project write" a été décrit dans un article publié ce jour dans Science et signé par 25 scientifiques. Le programme consiste en une organisation à but non lucratif, le "Center for Excellence for Engineering Biology", qui ses propose de lever 100 millions de dollars, afin que l’HGP write puisse réduire d’un facteur 1000 le coût d’ingénierie et de test de génome humain d’ici 10 ans, tout en développant de nouvelles technologies pour des applications médicales transformatrices. Le projet devrait permettre de créer des organes humains pour des transplantations et de produire des lignées de cellules résistantes à tous les virus et cancers. le but est de pouvoir implanter ou produire des vaccins et développer des médicaments ciblés en utilisant des cellules humaines et des organes synthétiques. 
Problème, même si les chercheurs s'en défendent, qui va leur interdire ou interdire à leurs suiveurs de créer un humain synthétique, c'est à dire, ex nihilo, sans parent, sans inscription phylogénétique, etc. Et dès lors, qui peut interdire de créer un trans-humain, un para-humain, un infra-humain, ou ... un post-humain ?
lire le pdf (ici).

31 mai 2016

DIV : Les 10 technos de rupture 2016 du MIT.

Comme chaque année, le MIT Technology Review a publié sa liste de 10 technologies de rupture de l’année 2016. 

1 - L’ingénierie immunitaire
Les lymphocytes T (cellules immunitaires) génétiquement modifiées grâce aux outils d’édition génétiques (Talens ou CRISPR–Cas 9) pourront d'ici un à deux ans guérir en un seul traitement les personnes souffrant d’un cancer, d’une sclérose ou du VIH. La compagnie américaine Cellectis est déjà capable d'extraire les lymphocytes T du sang d'un patient pour modifier son ADN, de manière à ce qu'il élimine ensuite précisément les cellules malades. La technique permet de rendre les lymphocytes T universellement utilisables, quel que soit le patient. De manière expérimentales, 300 malades ont été traités par cette méthode d'ingénierie immunitaire, avec plusieurs succès complets. 

2 - La manipulation génétique des plantes
Encore le CRISPR-Cas 9,  qui a été qualifié de découverte scientifique de l’année 2015 par le magazine Science. Il permet de créer des plantes génétiquement modifiées (OGM) qui n’ont plus d’ADN étranger, risque que faisait courir auparavant les méthodes d'ingénierie virale ou bactérienne, avec des insertions imprécises des gènes risquant être actifs ou perturber des fonctions importantes. Le CRISPR-Cas 9 permet d'insérer précisément des gènes étrangers connus, mais aussi d'inactiver ou modifier des gènes déjà présents via des mutations ponctuelles maîtrisées.

3 - La reconnaissance vocale
Elle représente une nouvelle forme d'interface homme-machine fiable et performante. Déjà accessible  chez Apple, Microsoft et Google, les technologies vocales liées à l'intelligence artificielle évoluent rapidement. La société Baidu qui propose un moteur de recherche chinois, est le leader mondial dans le domaine avec un laboratoire en Silicon Valley où a été développée la technologie "Deep Speech".

 4 - Les fusées réutilisables
Alors que l'Europe s'engouffre dans la course à fonds perdus pour sa future Ariane 6, Space X et Blue Origin misent sur les fusées réutilisables. Elles proposent des fusées capables de ré-atterrir, et donc d'être réutilisées. Double bénéfice ... C'est moins cher, et ça pollue moins.

5 - Les robots qui apprennent les uns des autres
L'idée est d'ici 3 à 5 ans de permettre aux robots d'apprendre par une base commune d'acquis partagée sur le Cloud. Un robot peut y déposer une compétence acquise ou aller y chercher une compétence disponible et se l'approprier.  L'idée est d'accélérer le progrès en faisant que chaque machine n’ait plus besoin d’être programmée séparément. Le ROS (Robot Operating System) a déjà montré la faisabilité de la procédure.

6 - L’ADN sur e-Store
Vu la baisse des coûts du séquençage du génome et la facilité de sa réalisation, l’entreprise californienne Helix  – rachetée par Illumina -  annonce pour cette année une appli d'analyse de l’ADN par test salivaire à la demande sur Android et iOS pour moins de 100 dollars. La connaissance de ses propres fragilités ou dispositions aux maladies, et de leur probabilité de transmission aux descendant est à la portée de toutes les bourses. Pour cela, Helix construit le plus grand centre de séquençage du génome du monde. Elle est suivie par Veritas Genetics qui lui emboite le pas.

7 - L’usine Solar City
L’usine Solar City de Buffalo coûtera 750 millions de dollars, pour produire à la chaine 10 000 panneaux photovoltaïques (rendement supérieur à 20%) par jour, soit de quoi produite en une année autant qu’une centrale nucléaire. Ce sera dès la fin de l'année la plus grande usine de l’Amérique du Nord.

8 - Slack
Ce système informatique intelligent permet d'échanger des fichiers, d'appeler, de souscrire à des chaînes ouvertes, de créer des bots, ou encore de joindre facilement une correspondance aussi bien depuis un téléphone que depuis un ordinateur. Trois millions de personnes l'utilisent quotidiennement depuis son lancement en 2013. Une offre entreprise est prévue en 2016. Avec Slack est aujourd'hui concurrencé par Quip et Hipchat dans cette nouvelle manière de travailler, correspondre et se détendre de manière intégrée.

9 - Le pilote automatique de Tesla
Le nouveau système opérationnel Tesla 7.0 offre une fonction d'auto-pilotage pour les voitures électriques Model S et X. Aujourd'hui, 70 000 voitures Tesla ont déjà parcouru plus de 160 millions de km. en mode autopilote, et envoient leurs données au constructeur pour perfectionner son système. La Google Car n'a quant à elle que 2,5 millions de km. d'expérience. Tesla a donc raison de parier sur le semi-automatique, sur lequel tous les constructeurs travaillent ardemment.

10 - La transmission d’énergie sans fil
D'ici 2 à 3 ans, et dans le sillage exponentiel des objets connectés, la transmission d'énergie par exploitation des signaux Wi-Fi et autres signaux de télécommunication va permettre à des objets de se recharger et de communiquer en  pleine autonomie. Tel est le cas du système de "Wi-Fi passif" mis au point par des chercheurs de l’Université de Washnigton et qui consomme 10 000 fois moins d’énergie que le Wi-Fi actuel, et 1 000 fois moins que du Bluetooth Low Energy ou du Zigbee. De nouvelles voies s'ouvrent donc à la pervasion d'appareils libérés de la contrainte du stockage d’énergie.

11 avril 2016

DIV : Les entreprises préférées des jeunes ingénieurs.

Le cabinet suédois Universum a publié mardi 5 avril 2016 (lien) les résultats d'une enquête menée sur 19.575 jeunes ingénieurs entre octobre 2015 et février 2016, et visant à déterminer le classement des jeunes quant à leur attentes en entreprise.
Voici la liste 2016 des smployeurs les plus attractifs pour les étudiants ingénieurs : 1. Airbus Group; 2. Google; 3. Thales; 4. Dassault Aviation; 5. Safran; 6. EDF; 7. Apple; 8. VINCI; 9. Microsoft; 10. Dassault Systèmes; 11. Total; 12. Air France; 13. L'Oréal Group; 14. BMW Group; 15. Ubisoft; 16. CNRS; 17. PSA Peugeot Citroën; 18. Envie; 19. IBM; 20. Bouygues Construction; 21. Eiffage; 22. LVMH; 23. Alstom; 24. SNCF; 25. Veilla; 26. Nestlé; 27. Groupe Renault; 28. General Electric; 29. Bombardier; 30. Sony; 31. Décathlon; 32. Areva; 33. Parrot; 34. Orange; 35. Danone; 36. BNP Paribas; 37. Electronic Arts; 38. Suez; 39. McKinsey & Company; 40. EY 
Une conclusion, qui ne transparait pas forcément dans le classement, s'impose néanmoins : les jeunes ingénieurs aspirent d'abord à travailler dans des entreprises engagées socialement et soucieuses de l'environnement, quitte à baisser leurs prétentions salariales. Ils accordent de plus en plus d'importance à des éléments extra-financiers comme la quête de sens, l'entreprise citoyenne, l'équilibre vie pro/vie perso, et les questions sociétales et environnementales. 
Même si on note un attrait croissant pour des petites structures ou de sociétés nouvelles comme Uber ou Blablacar, ainsi que des entreprises plus agiles, moins hiérarchisées, où le travail est différemment,
le classement reste mené par les majorsdu Cac 40 et de très grandes firmes américaines.
En réalité, une fois le diplôme en poche, les étudiants valorisent en grande majorité des entreprises internationales qui demeurent des références permettant de valoriser un CV et qui véhiculent une forte image d'innovation en concevant des produits et services valorisants.
Enfin, une des attentes des jeunes est de pouvoir évoluer vers des carrières de manager, manifestée comme le deuxième objectif exprimé des ingénieurs.
Référence : CHALENGEs du 5-4-16 (ici).

25 mars 2016

BIO - SHS : Attendez demain, c'est aujourd'hui la journée mondiale de la procrastination décrétée par l'ONU.

25 mars : Journée mondiale officielle de la procrastination.
Selon une équipe de chercheurs du Départément de psychologie et de neurosciences, et du Département de génétique l'Université du Colorado à Boulder (USA), la procrastination et l'impulsivité seraient influencés par des mêmes traits génétiques. Selon une étude publiée dans Psychological Science (lien), près de 50 % de ces traits génétiques seraient à l'origine de ces deux comportements particulièrement caractéristiques de la personnalité de chacun.
Comme Procrastination et impulsivité semblent génétiquement liées, il est fort probable que ces deux tendances comportementales aient évolué ensemble de manière phylogénétique. Et plusieurs facteurs leur seraient associés, tels le stress et la dépression. Une source de la procrastination et de l’impulsivité pourrait également résider dans l’oubli ou la perte de vue de ses objectifs, plutôt que dans une simple tendance à toujours repousser à plus tard. Reste à savoir si c'est la société moderne, dans laquelle, l'homme ne chasse plus pour vivre, n'a plus besoin de faire du feu, etc. et où tout est facilité, sans besoin de faire d'efforts, sans plus d'urgence vitale immédiate, est une cause facilitante ou si elle n'est qu'une conséquence de cette dimension évolutive.
L'étude a porté sur 181 paires de jumeaux identiques et 166 paires de faux jumeaux. Outre l'origine génétique, il existe un chevauchement certain entre les deux traits de caractère qui seraient liés à l'aptitude à une forme de distraction, lorsqu’on poursuit un objectif sur le long terme. Les procrastinateurs auraient tendance à succomber à une récompense sur le court terme, abandonnant leur but ultime et ayant des difficultés à gérer leurs ambitions. Les chercheurs s'attachent dorénavant à découvrir si les deux traits sont liés à des capacités cognitives telles que les fonctions exécutives, et s’ils influencent l’autorégulation au quotidien. Quant à la journée mondiale de la procrastination, elle a été fixée par les Nations unies en 2014, la première journée mondiale de la procrastination ayant eu lieu le 25 mars 2010. Elle est reproduite depuis tous les ans à la même date. L’idée a émergé à la parution du livre « Demain c’est bien aussi » de Kathrin Passig et Sascha Lobo, publié en 2009 et qui a connu un vrai succès en Allemagne. L’ouvrage, très vite traduit en français en 2010, vise à déculpabiliser les procrastinateurs ; l'ONU semble les avoir suivis, d'autant que maintenant, on sait que c'est n'est pas tout à fait de leur faute mais, pour la moitié, celle de leurs ancêtres. Enfin, on verra ça demain ...

24 mars 2016

DIV : 10 ans de RACAM - Un siècle d'innovation dans l'aéronautique

RACAM (Rencontre Aviation Civile Aviation Militaire) fête le 12 mai 2016 sa 10e édition, au Musée de l’Air et de l’Espace du Bourget.

L'innovation dans l'aéronautique - Un siècle de fertilisation croisée des domaines civil et militaire
Jeudi 12 mai 2016 - 14h30-19h00
Musée de l'Air et de l'Espace - Le Bourget

La fertilisation croisée, le mélange des ADN des deux grands partenaires de l'aéronautique, civile et militaire, telle sont la source et la condition de l'un des domaines d'innovation majeur qui, depuis cent ans, irrigue le monde d'aujourd'hui et celui de demain. L'innovation adresse tous les domaines de l'aéronautique, que ce soit celui des appareils, de leurs structures, leurs équipements et leurs performances, où celui des systèmes qui planifient, organisent et assurent leurs efficacité et performance. Elle concerne également leur sécurité et celle du ciel, celles des acteurs et des usagers qui peuvent ainsi mieux communiquer, collaborer, se rencontrer et voyager, mais aussi la sécurité des nations et des citoyens. L'innovation en aéronautique, c'est aussi un domaine sans précédent de transfert, pour irriguer les autres transports, l'économie, la santé de demain, l'usine du futur, sans oublier les méthodes, les procédés et la structuration d'organisations complexes, toujours en mouvement, en poussant à la fois les deux concepts d'efficacité et de vitesse. Rarement un domaine n'aura été aussi fertile, aussi innovant, créateur d'idées, de richesses et d'applications. Il est dû à la passion d'hommes qui se réunissent depuis cent ans autour d'un pari, initialement fou de quelques-uns et aujourd'hui accessible à tous : voler avec des machines. Tel est le message qui sera développé autour des plus grands acteurs nationaux de ces deux domaines aussi intriqués qu'inséparables et complémentaires.
RACAM est depuis dix ans le lieu privilégié d’échanges entre les grands acteurs du monde aéronautique, en réunissant les hauts responsables de l’aviation civile et des armées, les grands industriels, les dirigeants de compagnies aériennes et d’aéroports, les unions et groupements professionnels, les associations et, globalement, tous les acteurs et utilisateurs majeurs de l’espace aérien. Cet événement annuel unique en Europe est l’occasion d’évoquer des sujets d’actualité et d’identifier de nouvelles synergies dans le but commun de bâtir une aviation plus performante, un ciel plus sûr et un avenir réussi pour ceux qui volent ou font voler.
Au Programme de ce 12 mai, dès 14h30, Ouverture et allocution de bienvenue du président de RACAM, le général Gilles Desclaux, puis Allocution d’ouverture du chef du chef d’état-major de l’armée de l’air, le général André Lanata.
Une première session sera consacrée à l'innovation aéronautique, principe immuable, avec Éric Trappier, PDG de Dassault Aviation, Bruno Sainjon, IGA et président-directeur général de l'ONERA
Marwan Lahoud, directeur général délégué du groupe AirbusJean-Yves Le Gall, PDG du CNES, et Pierre Éric Pommellet, vice-président exécutif de Thales.
Mme Catherine Maunoury, directrice du musée de l’Air et de l’Espace interviendra à mi-temps. 
La deuxième session rappellera que l'aéronautique est une aventure d'hommes visionnaires et passionnés, avec le général Stéphane Abrial, directeur général délégué de SafranPatrick Jeantet, directeur général délégué de ADPJean-Pierre Letartre, PDG de EY (Ernst and Young), et le général Richard Reboul, commandant du CEAM (Air Warfare Center) de l'Armée de l'air. 
L'allocution de Patrick Gandil, directeur général de l’Aviation civile, clôturera les débats. 
Renseignements et inscriptions (ici) - tél : 02.85.52.40.02  - mail : racam@ienair.fr

22 mars 2016

DIV : Serpentex 2016 - Solenzara.

Du 7 au 25 mars, une flotte aérienne remarquable se retrouve en opération d'exercice tactique sur la base aérienne 126 de Solenzara, à Ventiseri, en Corse.
Chaque année depuis 2007, Serpentex est l'exercice "à l'échelle" pour l'entraînement aux opérations extérieures, telles celles du Mali, de Centrafrique, de la bande sahélo-saharienne (BSS) ou du Levant.
Rassemblant plus d'un millier d'hommes de plusieurs nationalités, l'exercice 2016 réunit surtout 7 Rafale, 11 Mirage 2000, 1Casa, 1Transall, 2 Fennec, 2 Tankers, 4 Hawks britannique, 1 Learjet allemand, 2 B52 américains, 2 AMX italiens, un drone Harfang ... flotte qui doit évoluer au fil des jours pour rassembler 13 nations alliées.
Plusieurs vagues d’aéronefs effectuent, de jour comme de nuit, des missions d’appui aérien selon des scénarios complexes et réalistes. Les unités de contrôle aérien avancé (JTAC : Joint terminal attack controllers) se concentrent que les procédures d'appui aérien rapprochés (CAS : Close Air Support) pour mener les tirs sur le champ de tir de Diane. Les procédure CAS assisté par l’emploi d’outils numériques (DACAS: Digital Aided CAS), les missions de coordination de frappe et reconnaissance (SCAR : Strike Coordination and Reconnaissance), et les moyens de renseignement et information (ISR : Intelligence, Surveillance and Reconnaissance) sont notamment testés en situation "dense".d'activité.
Un exercice grandeur nature ou les forces sont conjuguées aux procédures et moyens de C2 pour l'organisation de grands systèmes complexes en situation critique. Un chercheur de l'ENSC sera présent pour cela sur site, le 22 mars, lors d'une journée de démonstration aux personnalités et aux partenaires industriels, académique et de réserve.

21 mars 2016

IA : Robotique - Google n'investit plus dans les Replicant(s) ...

D'après Bloomberg (ici), Alphabet Inc.; qui est la maison mère de Google, se séparerait de "Boston Dynamics", la compagnie des robots autonomes, chiens de transport et humanoïdes développés initialement par la DARPA pour les combattants du futur (Waltham, Massachusetts, USA).
C'était en 2013 que Larry Page avait annoncé qu'Andy Rubin, ancien directeur d'Android que Google avait racheté en 2005, s'occupait de nouveaux projets et notamment de la division "Replicant", consacrée à la robotique, et créée suite au rachat de huit start-up dont Boston Dynamics. Le départ de Andy Rubin fin 2014 laissait Replicant sans réelle direction ni stratégie, avec des projets peu compatibles avec les activités centrales de Google, sans rapport entre-elles, et surtout sans débouché financier à court-terme. 
Alphabet a donc rendu son verdict : les équipes de Boston Dynamics sont perçues comme incapables de concevoir un produit commercialisable, il convient donc de s'en séparer. Quant aux autres chercheurs de Replicant, il sont intégré sous la direction de Astro Teller à la division X avec la perspective d'être réfractés sur d'autres sujets que la robotique, celle-ci pourrait alors être abandonnée purement et simplement par Google.
Trois conclusions et commentaires à cette nouvelle donne : (1) Difficile de faire du transhumanisme à court-terme, (2) des projets fous chez Google, mais dans le seul cadre d'une culture Google et d'un moule strict et rentable Alphabet, (3) des perspectives sombres pour la robotique au sein de Google...
Des suites intéressantes sont à attendre, surtout que le Toyota Research Institute et Amazon se sont déjà annoncés comme repreneurs potentiels. 

18 mars 2016

DIV : Pour une "Université du Futur" en Aquitaine.

Souhaitée par le Président du Conseil Régional d'Aquitaine et annoncée lors de sa dernière campagne électorale pour la Région Aquitaine-Limousin-Poitou-Charentes, l'Université du futur en Aquitaine doit permettre de doter la région d'un dispositif de recherche, formation et transfert, sensibilisation citoyenne et ouverture au monde concernant les révolutions numériques. Il s'agit d'une urgence stratégique absolue.
Nous passons à une vitesse inconcevable d’un ancien monde, semblant immuable et régi par les régularités, à un nouveau monde de plus en plus numérique, et auquel la plupart des citoyens ne comprend plus rien, dans un écart entre méfiance absolue et abandon dans une confiance totale aux politiques, économistes et scientifiques. Donner une vision panoramique du nouveau monde, en débattre, créer des vocations et permettre à chacun de mieux anticiper l’avenir, en mobilisant les forces vives pour l'avenir digital seront les principales missions de « l’Université du Futur en Aquitaine ». Cette structure à inventer devra notamment contribuer à transformer les menaces des technologies de rupture en opportunités de développement scientifiques et économiques, et donc en création de richesse et d’emplois.
L'urgence : face à un tsunami technologique qui submerge le monde, la première vague numérique a été surfée par les GAFA (Google, Amazon, Facebook, Apple) américains, une seconde voit le réveil de la Corée du Sud, l'avance du Japon et d'autres grands majors de l'IA, des biotechnologies et de l'hybridité. L’Europe est en retard. Elle doit se mobiliser pour aborder les vagues suivantes. l'une d'elles est celle des NBIC (Nanotechs, Biotechs, Infotechs, Cognotechs). Il y va de son avenir, de son indépendance, ou… de son déclin.
Le défi est immense. Orienter le destin de tous, jeunes et moins jeunes, mais aussi générations futures, à long terme, revient au politique. Pour l'heure, son monde reste sourd aux alertes et aux souhaits d'un monde scientifique en alerte, qui voit l'avenir s'inventer sur les bords américains du Pacifique, en Asie du sud-est ou dans quelques pays dont on ne sait parfois pas trop grand-chose. À l’instar des initiatives des géants du numérique, des instances de la défense américaine, des firmes chinoises, japonaises et coréennes, les spécialistes des NBIC colonisent le cybermonde. On connaît les 1400 milliards d’euros de valorisation des GAFA, mais on ignore aussi les avancés plus discretes de la robotique et de la cobotique, celles de l'intelligence artificielle, de la génétique ou des nanotechnologies dans la transformation du monde, la transformation de l'homme, la transformation de la biosphère, et bientôt celle de l'espace.
Face à un tel déferlement, et malgré l'ignorance des élites politiques et le quasi-analphabétisme technologique des citoyens, il convient d'urgence de donner à chacun les moyens de ses choix, aux scientifiques ceux de la recherche et aux entreprises ceux de la compétitivité pour aborder l'avenir en position dominante, ou pour le moins non dominée. Face à l'actuelle mainmise du marché du numérique par les géants américains, à la captation de valeur et au déclin de l'économie européenne, il faut réinventer un moyen d'aborder les nouvelles frontières en valorisant les meilleurs cerveaux, notamment en les gardant, sans qu'ils ne fuient vers les côtes californiennes ou de l'est américain. ce sera dans l'échange, et le rééquilibrage que l'avenir peut se construire, pour retrouver une Europe qui a créé l’aéronautique, l’électricité, la chimie, l’auto, le téléphone et le cinéma, et qui abandonne le numérique et son implication sur le vivant, y compris sur le statut génétique même de l'homme, à l'étranger, sans contre-pouvoir, sans compétition, sans alternative autre que le clientélisme ou la soumission.
Dans le cadre d'une rupture de la distanciation, l’ “Université du Futur en Aquitaine” pourra former, informer et susciter ces débats philosophiques et technologiques, organiser la réponse scientifique et économique, promouvoir l'entreprise, les écoles d'ingénieurs et les laboratoires. Faire tomber les frontières, alors que de vieilles barbes discutent encore des différences entre SHS et TIC, des limites jusqu’ici établies entre vivant et non biologique s'estompent. La naissance de l’intelligence “non biologique”, pas seulement celle qui bât les joueurs de Go ou pose des diagnostics médicaux, trouve aujourd'hui des ouvertures dans l'hybridité, dans la biologie de synthèse, dans l'intrication homme-système, dans l'autonomie d'êtres virtuels et pourtant dont les actes et conséquences d'actes sont bien réels.
Derrière les NBIC, il y a des mutations économiques qui se profilent, avec Google et Apple constructeurs de voitures, fournisseurs de santé, et bientôt peut-être d'implémentation de la pensée.
J'ai vécu les époques où l'on niait la possibilité de la suprématie artificielle sur les jeux d'intelligence alors que le dernier vient de tomber, celle de l'impossibilité du décodage du génome aujourd'hui possible à quelques dollars, de l'hybridité artificielle dans la reproduction de la vie, frontière elle aussi tombée l'an passé, la possibilité des robots amoureux, des voitures autonomes, du terrorisme numérique, etc. La poursuite de l'autisme politique et scientifique n'est plus tenable. Le choc idéologique à négocier d'urgence sera moins douloureux que celui de l'asservissement des peuples ou même de leur disparition au profit des seuls technologues américains, asiatiques, ou pire, religieux.
Face à cette bombe sociale, économique, de civilisation, les positions acquises disparaissent, comme Kodak au profit des téléphones. Ceux qui n’ont pas saisi les opportunités de la compétition universelle du futur numérique sont probablement, sans le savoir, déjà d'un autre siècle.
L'Université du Futur, c'est une chance de recoller à l'avenir, de développer les orientations stratégiques et mélangées, scientifiques, culturelles, technologiques, économiques, pour s'inscrire dans le futur en marche. En s'appuyant sur les forces vives de la région, les clusters, les pôles de compétitivité, les lycées, les écoles d'ingénieurs, les universités, sur les étudiants et scientifiques, sur les entreprises et les laboratoires, sur les systèmes de santé, industriel et de défense, sur les associations culturelles et sociétés savantes ... toutes les volontés et les intérêts sont à mobiliser. L'Université du Futur en Aquitaine est l'opportunité de donner à la région la dimension de leader dans la compétition européenne pour son avenir, son indépendance et le pleine réalisation des ses citoyens pour une vie qui, que l'on le veuille ou non, sera numérique.

17 mars 2016

IA : La Corée du Sud dans les starting-blocks de l'Intelligence Artificielle.

Jeudi 17 mars 2016 - Séoul. 
A l'issue de la série de matchs qui a opposé le champion du monde de Go Lee Sedol et la machine AlphaGo de Google (voir ce blog), le gouvernement sud-coréen a annoncé son intention de faire de la Corée du Sud  un des pays majeurs de l'Intelligence Artificielle. Face aux multiples critiques publiques contre le gouvernement dans le fait que la Corée du Sud reste un outsider dans la préparation de la 4eme révolution industrielle, celui-là a annoncé officiellement un investissement de 1 milliard de Won (quelque 760 millions d'euros) dans le but de stimuler l'industrie de l'IA en Corée d'ici 2020.
Les firmes Samsung LG Electronics, SKT, KT, Naver, Hyundai seront de la partie avec un investissement de 3 milliards de Won chacune.
Au programme, un centre de recherche pour la R&D de l'IA, commun avec ces majors de l'électronique, de l'informatique, de l'industrie... 
Pour ce qui est des chiffres, le marché mondial de l'intelligence artificielle a été estimé à 165 milliards de dollars US en 2016. La Corée du Sud n'y représente que moins de 3,5%. L'entreprise consiste donc à doter le pays des moyens de hisser la Corée du Sud à un niveau international de compétitivité, et comme l'espère les dirigeants sud coréens, juste derrière, voire au niveau des leaders américains.
Lien : Wonhap News Agency (ici).

IA-DIV : Formation Cobotique des enseignants et chercheurs de l'ENSC

Deux journées d'apprentissage avec les deux nouveaux cobots de l'école. Ces jeudi 17 et vendredi 18 mars 2016, les experts de Aerospline CRAM (Coopérative Robotics for Aerospace Manufacturing) sont venus former les enseignants, chercheurs et doctorants de l'ENSC.
Deux bras articulés collaboratifs "Universal Robots" UR3 viennent d'entrer dans la plateforme technologique de l'ENSC.
Trois objectifs et projets : (1) Ouvrir la formation d'ingénieurs et la formation continue (DU cobotique) à la cobotique effective avec des projets autour de l'hybridité anthropotechnique; (2) Développer les transversalités vers les axes d'excellence UX et KX; (3) Donner à l'ENSC une visibilité en cobotique, au même titre que l'intégration homme-système (IHS) dans les cockpits des avions et automobiles, le command and control (C2) dans la gestion de crises et la simulation organisationnelle, le bio-monitoring et les brain-computer interfaces (BCI), l'accessibilité des technologies, l'intelligence artificielle (IA) collaborative et partagée, l'aide au handicap et les TIC-santé, etc.
De belles perspectives pour nos futurs ingénieurs et diplômés de l'ENSC Bordeaux INP.

15 mars 2016

IA : More than Moore - la Loi de Moore revisitée.

C'est officiel ... pour le moins pour les scientifiques.
Dans un article publié le mois passé dans "Nature" (ici), Mitchell Waldrop, éditeur de la revue et spécialiste de l'IA et des sciences de la complexité, annonce une rupture fondamentale avec la "Loi de Moore" dans la conception des microprocesseurs.
Depuis quelque cinquante ans, le développement des composants électroniques répond à un principe selon lequel leur nombre se multiplie régulièrement sur chaque puce pour chaque période temporelle. Cette loi, dite "Loi de Moore", décrivant ce développement exponentiel a subi plusieurs adaptations. Une version "Moore v1.0" est initialement publiée en 1965, prévoyant le doublement des semi-conducteurs sur les chips tous les 12 mois (x2<->1 an). La version "Moore v2.0" de 1975 dispose qu'un doublement des transistors est prévu tous les 2 ans (x2<->1,96 an). Enfin, une version plus générale "Moore v3.0", en 1992, s'accorde sur un doublement de n'importe quelle caractéristique (puissance, capacité, vitesse, fréquence…) tous les 18 mois (2<->1,5 an) avec la "feuille de route" de la « Semiconductor Industry Association » (SIA). On le voit, le développement est expansif et illimité, abordant rapidement des vitesses de développement de plus en plus faramineuses.
Pourtant, cette loi n'est plus adaptée aux générations d'objets connectés. On aborde donc une nouvelle adaptation, une version 4.0 que l'on désigne par l'expression « more than Moore ».
Les microprocesseurs de cette époque nouvelle consomment déjà moins d'énergie et intègrent de multiples capteurs. Ils contiendront bientôt d'autres éléments structuraux tels que des puces GPS, de la mémoire vive d'inspiration biologique, des puces Wi-Fi ou autres destinées à la communication des objets entre eux, des gyroscopes, accéléromètres, boussoles ou même sextants. L'époque est aux "puces hautement intégrées". Cette évolution révolutionne la loi de Moore en ce sens qu'elle apporte des propriétés bien plus importantes qu'un processeur deux fois plus rapide que le précédent pourrait le faire. Ce principe est défini dans l’« International Technology Roadmap for Semiconductors » (ITRS) de 2013. L'histoire de cette modification trouve sa source dans deux contraintes majeures.
La première débute en 2000 quand il devient évident qu'une "mise à l'échelle géométrique" qui correspond à la réduction de la taille des composants pour avoir plus de transistors sur une même surface, touche à sa fin. Les modifications techniques imposées aux composants pour leur faire suivre la loi de Moore amène en 2011 à passer à la conception 3D de transistor en silicium de 22 manomètres (1nm=10^^-9m). Émergent alors plusieurs types de problèmes inhérents d'une part à la taille des transistors par rapport à la longueur d'onde qui les parcourt, et d'autre part à la chaleur produite par rapport à la fréquence du processeur. Des constructeurs se voient obligés de repousser leur conception des transistors de taille inférieure. Ainsi Intel qui prévoyait des tailles de 10nm en 2016 se voit contraint de les annoncer au mieux pour la fin 2017. Avec un tel décalage, la limite physique de 2 ou 3 manomètres ne serait pas atteinte avant 2020.
La seconde contrainte est celle de la "Loi de Rock". Celle-là postule que le coût de conception et de fabrication d'une nouvelle puce double tous les quatre ans. Or la logique de l'exponentiel impose très rapidement des coûts prohibitifs.
Pas d'autre solution que de changer de logique, et c'est ce qu'à fait l'ITRS en adoptant dès 2014 une feuille de route hors loi de Moore, dans une logique du « more than Moore » pour l'Internet des objets. Cette profonde mutation vient d'être officialisée par la publication de "Nature" (lien).

13 mars 2016

BIO-SHS-IA : Est-il intelligent de penser que l'IA a quelque chose à voir avec l'Intelligence ?

L'histoire a commencé avec Spearman et Binet. Au début du siècle dernier, la science s'écrivait encore aussi en Français. en Allemand, en Russe, en Italien ou en Espagnol. L'Anglais était même parfois évité pour correspondre à une forme de culture rigoriste qu'évitaient encore autant que possible des gréco-romains dont le but et l'espoir sont souvent de s'arranger de la complexité.
Outre manche, Charles Spearman recherchait alors le moteur "pur" de l'intelligence, constitué d'un "facteur G" (G pour intelligence "générale"), dont dépendraient les différentes aptitudes de l'homme. Spearman était un psychologue anglais notoirement connu pour ses méthodes statistiques. Son analyse factorielle a pour but de dégager des facteurs sous jacents d'un ensemble de données d'observation. Par conséquent ces données, dont celles des différents comportements, sont conçues comme issues de facteurs cachés explicatifs de la variabilité humaine : tel est le cas du facteur G ou facteur général d'intelligence qui sous-tendrait pour l'anglais les performances et les tâches intellectuelles.
Alfred Binet proposait quant à lui avec Théodore Simon, une mesure de l'intelligence à partir de toutes un fatras de données de base évoluant en fonction de l'âge (âge mental) et variant pour certains en fonction du milieu socioculturel : expression orale, écrite et caractères graphologiques, aptitude au calcul, au raisonnement (notamment à propos des suites) et à la représentation géométrique, données biologiques et céphalométriques, etc. L'intelligence est alors conçue comme émergente de ses composantes, multicritères, évolutive et surtout relative ; elle s'exprime en pourcentage par rapport à des normes d'âge et de moyennes socioculturelles. Binet s'attachait ainsi à souligner les influences sociales, physiques et évolutives. Des interprétations rapides, notamment par certains ergonomes, psychométriciens et naturalistes américains, feront paradoxalement de l'échelle du QI composite de Binet un "Q test", instrument de sélection, d'élitisme, voire d'exclusion et de racisme.
Les approches étaient alors top-down (descendantes) d'un côté de la Manche, et ascendantes (bottom-up) du côté sud. S'opposaient une conception d'une intelligence théorique structurant les aptitudes des Anglais et celle d'un ensemble de performances des Français synthétisées dans un coefficient global qu'on aurait souhaité réservé à la détection et l'aide des fragilités, à l'orientation vers des procédures d'adaptation ou de rattrapage et au respect des différences de chacun.
Ces deux orientations culturelles et opposées, l'une d'une essence "pure" dont dépendent les diverses aptitudes implémentées chez chacun, l'autre globalisant les aptitudes constitutives des personnes, ont longtemps été discutées puis testées par les psychologues expérimentalistes. Ainsi Louis Thurstone ou Joy Guilford semblent se rassembler autour d'un modèle analytique dans lequel le système cognitif est composé d’aptitudes indépendantes les unes des autres. Parallèlement, John Carroll, Raymond Cattell et John Horn ont développé chacun sur d’autres bases des modèles qui a été récemment généralisés sous l'acronyme "CHC" (pour Cattell-Horn-Carroll), à l'origine d'un test devenu une référence des principales échelles d’intelligence.
Au tournant du siècle, on a assisté à un rapprochement entre ces deux conceptions avec des modèles hiérarchiques de l’intelligence, dont le modèle en trois strates de Carroll. Selon lui, des aptitudes élémentaires se combinent en fonctions de plus grande étendue qui contribuent à l’intelligence générale. Cette pyramide voit une base d'une trentaine de capacités spécifiques, telles celles de raisonnement, de mémoire visuelle ou auditive, la fluidité des idées, l’aisance numérique, la maitrise du vocabulaire, etc. Un deuxième étage réunit huit grands facteurs comme l’intelligence fluide ou logico-mathéamtique caractéristique de capacités de raisonnement et de logique indépendantes des apprentissages, et comme l’intelligence cristallisée ou verbale basée au contraire sur des connaissances ou des capacités acquises. Sont également convoquées la mémoire, la vitesse de traitement de l’information qui elles sont à la fois gérées génétiquement et modulées par l'expérience. Ces facteurs de deuxième étage supporteraient quant à eux le sommet de la pyramide : le fameux facteur G d’intelligence générale. Il serait alors une combinaison entre rapidité à traiter l’information et capacité à la concentration pour la gestion d'un problème s'étayant sur les aptitudes sous jacentes.
À côté de cette intelligence particulièrement dépendante des aptitudes logico-mathématiques et verbales que privilégient les systèmes scolaires, de la sélection et du travail, d'autres approchent tentent heureusement d'enrichir le débat au-delà des jugements de valeur autour de termes très connotés d'intelligence, de surdoué, d'imbécillité ou de débilité. Elles appellent des notions de performance dans des domaines variés qui mobilisent des aptitudes exécutives, flexibles, de contrôle et de vitesse de traitement ou de raisonnement. Les chercheurs de la psychologie expérimentale, cognitive, différentielle, sociale ou culturelle, ceux des neurosciences, de la neuropsychologie et du handicap neurologique, les psychanalystes, les sociologues, les linguistes ont développé d'autres conceptions de l'intelligence, mesurable ou non, mais qui émerge progressivement d'aptitudes et d'expériences et de la construction progressive du cerveau qui s'exprime dans la confrontation à la complexité du monde extérieur comme intérieur. L'affinement des définitions, la multiplicité des mesures, le développement des recherches sur l'intelligence naturelle ont ainsi fait avancer les concepts. On a alors étudié l'intelligence des oiseaux, des rongeurs, des singes, et chez l'homme celle des bébés qui se constitue dans le rapport à la mère et à l'environnement, des enfants et adolescents qui se construit dans l'intégration et l'opposition au monde, l'intelligence du sportif, du danseur ou du musicien, celle du peintre ou de l'architecte, du militaire ou du manageur, de l'artisan ou du journaliste. Ces notions d'intelligence variées n'ont plus qu'un lointain rapport avec de simples "processus supérieurs" encapsulée dans des échelles strictes de jugement, d'attention, de mémoire. Elles privilégient l'adaptation, et convoquent des notions plus floues telles que celle de recrutement du cortex préfrontal, de mobilisation des connectomes cérébraux, de contribution des composantes du langage, des contraintes de la mémoire de travail, et surtout d'aptitudes à la "métacognition". Homo "sapiens sapiens" est l'homme "qui sait qu'il sait". Son intelligence est de savoir construire la sienne. Une telle construction émerge en fonction de stratégies qu'il sait mobiliser, adopter ou éviter, orienter ou mettre en œuvre avec plus ou moins de bonheur, de maturité et de sûreté, pour s'adapter à des modifications environnementales qu'il maîtrise sans pour autant les définir ou même parfois en avoir une pleine conscience.
Au-delà de cette puissance conceptuelle de la métacognition, la critique des modèles statiques a permis l'arrivée de modèles dynamiques. Le développement de l'intelligence prend du temps. Jean Piaget a ainsi montré la nécessité de développement par des stades qui traduisaient une modification dynamique des structures opératoires loin du modèle d'intelligence brute, factorielle, et du fantasme anglo-saxon du facteur général d'intelligence. Aujourd'hui, on s'intéresse à la diversité des processus d'apprentissage et des cultures, mais aussi à la "plasticité cérébrale" et au développement de modules cérébraux qui s'interconnectent en réseaux ou en sous-systèmes dynamiques, complémentaires, substitutifs les uns des autres, de la vie fœtale aux dernières heures de la vie des personnes de plus en plus âgées. Cette expression d'aptitudes auto-organisées est dépendante de celle de gènes interagissent entre eux en fonction du milieu et de l'expérience de la confrontation d'un individu "vicariant" à un milieu naturel, psychosocial ou culturel de plus en plus enrichi et dans lequel le numérique est omniprésent.
Au plan psychodynamique, l'intelligence est également conçue comme confrontation permanente et complémentarité réitérée entre d'une part les dimensions multisources telles que précédemment définies et d'autre part la personnalité. Celle-là est faite de préférences cognitives, d'émotions et d'affects stabilisés mais chaque jour réévalués. Chaque homme, pour l'avoir vécu, sait l'importance de ces dimensions affectives sur la mise en œuvre, la conduite, la fiabilité ou même la faillite du raisonnement. Ainsi certains neuropsychologues tels Antonio Damasio ou des psychanalystes s'intéressent-ils d'une part à l'existence d'une "cognition chaude" et d'autre part à la finalité d'une "pensée plaisir" plus orientée vers la récompense que la performance. On voit donc que l'intelligence est multidimensionnelle, et la réduire à la performance est bien preuve de son absence. Les aptitudes et compétences d'abstraction logico-mathématiques et verbales ont été balayées par des auteurs récents. Howard Gardner a par exemple, au contraire, montré leur dépassement dans un ensemble complexe et difficilement formalisable et réductible à de simples équations.
Et l'IA, là-dedans. C'est bien le problème. Certains informaticiens, qui n'ont souvent lu que des chiffres et quelques phrases en Anglais, ont retenu évidemment l'intelligence figée, celle de Spearman ou des échelles de CHC. Ils ont donc construit un projet automatique autour de cette définition obsolète pour doter les machine d'une forme calculatrice Le projet s'est structuré vers le Graal d'une intelligence "pure", avec le désir de la performance, mais aussi celui de la compétition qui en découle souvent. On a donc vu fleurir des IA qui ont permis de résoudre différents jeux dits d'intelligence, dont ceux de boules, le jeu de dame, le jeux d'échec, et maintenant, le Go. Reste le Poker, mais là, c'est connu, ça finira au révolver.
Bien sûr qu'il est idiot de vouloir être plus performant qu'une machine, que ce soit un régulateur de vitesse, un pilote automatique de bateau ou d'avion, de vouloir conduire mieux qu'une Google car, ou dépasse tout autre système artificiel intelligent. Mais quand ça va mal, chacun souhaite qu'il y ait un pilote dans l'avion ou dans la cabine du tgv. Ce qui veut bien dire que la définition de l'intelligence artificielle joue un petit peu sur l'écart référentiel à celle de l'homme. Les machines seront un jour, peut-être, aussi intelligente que les hommes, pour tout et dans tous les domaines, en s'appropriant les expériences des passés comme l'espoir et la conscience de l'avenir, mais ce sera alors l'intelligence d'un homme artificiel. Pour l'instant, ce n'est qu'une somme d'outils, comme des marteaux, de règles à calcul, des ordinateurs, des robots compagnons, ou des systèmes Internet. Il leur manque une caractéristique fondamentale de l'intelligence humaine : la vie.
On peut à ce propos revenir à une définition plus globale et biologique de l'intelligence, en ramenant son expression au meilleur moyen de favoriser et donc de transmettre un patrimoine génétique : la sexualité. Elle commence avec le choix des partenaires, leur séduction, l'échange des gamètes, la grossesse et sa protection, l'écoulement et l'élevage des lignées descendantes, la constitution d'un havre de paix chez les nidicoles, la famille, la tribu et autres artifices sociaux de protection des enfants, de valorisation des parents et de respect des aïeuls. Le plus intelligent est celui qui survit et fait survivre sa lignée, sa famille, et donc celui qui se reproduit. C'est donc celui qui sait, peut ou pourrait négocier au mieux la survie de ses gènes au-delà de sa propre existence. Tout le reste ne serait que des stratégies d'intelligence qui accompagnent le génome dans sa poursuite millénaire. Pour cela il faut évidemment savoir parler, calculer, mais être puissant et séducteur, avec la force, l'art, l'humour, les études, le niveau social… Toutes ces stratégies de contour que l'individu essaye de mettre en œuvre pour survivre, pour lui ou sa descendance, sont guidées par un principe dual majeur : la motivation et le plaisir, la recherche du renforcement positif... En définitive, l'intelligence ne serait-elle pas qu'une question d'espoir et de bonheur ?