07 octobre 2011

DIV : ABECédaire - appel à contributions

Pour faire évoluer l'ABÉCédaire, chaque lecteur est invité à rédiger et communiquer des pages de documentation et de définition des grandes notions utiles aux étudiants de l'ENSC.


Merci de votre contribution collective.

06 octobre 2011

BIO : Un laboratoire sur une puce.


La biopuce « mChip » conçue par Samuel Sia et ses collègues du département de biological engineering de l’Université de Columbia, est un véritable laboratoire d’analyses portable. Cette puce a un coût de production d'environ un dollar, et a la capacité de diagnostiquer (pour l'instant) dix maladies différentes simultanément.
Le système nécessite une goutte de sang déposée sur une carte dans laquelle est insérée la biopuce. La lecture se fait immédiatement sur un appareil électronique d’une centaine d’euros, comme un lecteur de cartes bancaires.
Le principe repose sur un dispositif qui fonctionne sur un système de nano particules d’or et d’argent couplées avec une puce électronique. En fonction de la concentration d’agents pathogènes, le film de la biopuce est plus ou moins opaque.
Testée sur une centaine de patients rwandais, l’efficacité de « mChip » est surprenante pour sa facilité et sa fiabilité (proche de 100%). Cette découverte ne manquera pas de modifier profondément le domaine de l'analyse biologique et médicale, avec une commercialisation facilitée qui peut être envisagée directement chez le médecin ou dans les pharmacies ou parapharmacies, avec un dépistage sur place.
Résumé dans Nature Medicine, n°17, pp. 1015–1019 (2011) doi:10.1038/nm.2408

DIV : Internet : toute une histoire ! (conférence)

Internet : toute une histoire !
Conférence de Serge Soudoplatoff.
Jeudi 13 octobre 2011 à 18h
A Cap Sciences
Hangar 20 des quais de Bordeaux
"De tout temps, nous avons inventé des nouveaux outils pour transmettre, partager et conserver nos connaissances et nos idées : l'écriture, l'alphabet puis le livre, l'imprimerie… et aujourd’hui Internet.
Serge Soudoplatoff vient nous parler de ce phénomène qui a si vite envahi nos vies que l’on oublie de s’interroger : quelle est l'origine d'Internet ? Comment fonctionne-t-il ? Pourquoi bouleverse-t-il tant notre quotidien et quel futur nous construit-il ?"

Entrée libre et gratuite.

BIO - IA : Cybersinges – des hybrides contre le handicap.

L'équipe de Miguel Nicolelis, du Duke University
Center for Neuroengineering de Caroline du Nord (USA) a testé pour la première fois avec succès une interface brain-computer-brain (BMBI) chez deux singes. Grace à un implant fixé dans le cerveau des singes, les animaux ont appris, sans bouger leur propre corps, à mouvoir un bras avatar et à sentir des objets (virtuels également) (voir la vidéo).
L'implant électronique a été fixé dans le cortex moteur. C'est donc exclusivement par la pensée que les singes bougent le bras virtuel, et ont appris en retour et sentir la texture des objets qu'ils touchent ainsi, à travers des signaux électriques envoyés dans leur cerveau.
L'enjeu d'une telle étude est la conception de puces permettant à terme à des patients paraplégiques de contrôler un exosquelette couvrant le corps entier, et qui pourrait ainsi mouvoir les membres paralysés via l'implant, tout en leur permettant en retour des sensations tactiles, voire kinestésiques, envoyées sous forme électrique à l'implant.
Cette étude a été publiée dans la revue Nature du 5 octobre 2011 (résumé), et relayée par le Guardian (lien).

DIV : Steve Jobs est mort.

03 octobre 2011

BIO : Chaud au cerveau, baillez un coup !

Phénomène physiologique réflexe, le bâillement est souvent associé à l'ennui ou à la fatigue. Il provoque une profonde respiration.
Chacun d'entre nous baille environ 5 à 10 fois par jour. La fréquence est accrue au réveil, après le repas méridien et le soir avant le coucher.
Une étude physiologique menée à Tucson (Arizona : le pays de Geronimo - 1829-1909 - chef apache dont le vrai nom était Go Khla Yeh : celui qui baille), laisse penser que le bâillement pourrait aussi jouer un rôle de régulateur thermique pour le cerveau.
Andrew Gallup, du Département d'Ecologie et de biologie évolutive de l'université de Princeton, et son coauteur Omar Eldakar, stagiaire postdoctoral à l'Université d'Arizona, ont publié dans le Journal "Frontiers in Evolutionary Neuroscience" des résultats obtenus chez 160 volontaires. L'étude montre que la fréquence des bâillements varie avec la saison et les individus baillent moins quand la température extérieure est égale ou supérieure à la température corporelle. Les auteurs ont quantifié les bâillements durant l'hiver (80 sujets testés à 22 degrés Celsius en moyenne) et durant l'été (80 sujets à 37 degrés en moyenne). Les résultats indiquent qu'environ 50 % des volontaires baillent plus l'hivers par contraste avec l'été quand les températures sont équivalentes ou supérieures à celles du corps humain (moins de 25 % des participants baillent). Le bâillement est également associé au temps passé à l'extérieur puisque 40 % des participants baillent dans les 5 premières minutes après leur sortie puis ce pourcentage chute à 10 % ensuite en été alors qu'il augmente en hiver.
L'interprétation des auteurs est que le bâillement est lié à l'augmentation de la température du cerveau et sert donc de régulateur thermique par échange d'air avec l'extérieur. Des températures extérieures proches de 37°C ne permettent pas au cerveau de se rafraîchir contrairement aux températures basses de l'hiver.
Cette hypothèse confirme chez l'homme les résultats d'une précédente étude qui montrait une variation de température dans le cerveau de rats avant et après un bâillement. Le refroidissement du cerveau serait alors lié à l'augmentation du flux sanguin engendré par l'étirement de la mâchoire qui favorise l'échange de chaleur à partir de l'air ambiant qui accompagne l'inhalation profonde du bâillement.
Une piste surprenante ... à faire chauffer les neurones !
Voir : Gallup, A. C. and Eldakar, O. T. (2011) Contagious yawning and climate variation. Frontiers in Evolutionary Neuroscience 3, 1-4.

IA - SHS : Le Web contextuel.

Le Web devient "user-centric", il prend aujourd'hui en compte l’utilisateur et son contexte comme une seule entité anthropotechnique. C’est en tout cas le but du "User-Context-Module" (Module Utilisateur contextuel) que des chercheurs de l'Ambiant Intelligence Laboratory de l’université de Singapour proposent d'intégrer dans les architectures Internet. L'objectif est évidemment d'améliorer l’expérience utilisateur, mais également d'ajuster les réseaux et les applications selon des besoins et des ressources, en fonction du terminal utilisé, de l’endroit où il se trouve, du réseau disponible, et surtout des attentes potentielles de l'usager. C'est-à-dire selon le contexte.
Cette conception d'architecture et de fonctionnement repose sur les sciences cognitives, et sur la façon dont les informations sont représentées et traitées par les sujets. Or la pensée humaine est "sensible" au contexte et à son environnement, et prend les bonnes décisions en fonction de ceux-ci. Pour parvenir à ce type d’intelligence, l’architecture idéale doit savoir séparer l’hôte, son adresse, le nom de l’utilisateur final, les données et les périphériques réseau, et les manipuler de manière individuelle. Le module proposé, User-Context Module, a pour but d’intégrer des informations pertinentes de contexte.
Le Module se divise en trois sous-systèmes : le Context Interface, le Context Model, et le Contrôleur. Le premier interagit directement avec l’utilisateur final, son identité, ses préférences, et son environnement, sa localisation... Le deuxième recueille des informations sur le modèle de contexte, données abstraites sur le statut de l’utilisateur, son comportement sur le réseau. Le Contrôleur interagit directement avec les couches réseau et l’infrastructure, pour ajuster automatiquement les protocoles ou les paramètres capables d’optimiser les performances du réseau, et ainsi offrir une meilleure expérience à l’utilisateur.

DIV : Un drone pour les phoques.

Les UAV (unmanned aerial vehicle) plus couramment appelés drones, sont des engins aériens commandés par un pilote ou un équipage de spécialistes aériens depuis une base au sol ou en mer. Leur utilisation tactique a été largement commentée lors des deux guerres du Golfe et aujourd'hui en Afghanistan. Principalement d'usage militaire, tactique ou d'observation, ils servent également depuis quelques années pour des usages civils de surveillance des frontières, du trafic maritime et routier, mais aussi de recherche ou de sauvetage, de veille des feux de forêts et d'observation des espaces écologiques, ou pour des usages plus spécialisés par des professionnels de la pêche en mer, du BTP, de l'architecture ou de l'aménagement de bâtiments ou de chantiers immobiliers, routiers ou ferroviaires... Les usages scientifiques sont encore rares et ils méritent donc d'être signalés.
Les chercheurs de l'Université d'Arizona viennent d'acquérir un drone "ScanEagle" des sociétés Boeing et Insitu pour étudier les espaces inaccessibles de la surface de l'Artique, les cartographier, et faire l'inventaire des animaux épars qui occupent la banquise.
Dérivé du drone SeaScan de Insitu utilisé par les pêcheurs pour repérer les bancs de thon, ScanEagle a été initialement conçu comme drone léger de surveillance militaire. Il a été déployé par l'Armée américaine en Irak dès 2004, puis dans la Marine en 2005 pour des missions de patrouille maritime mais également des missions côtières depuis des navires au large. Il est également aujourd'hui utilisé par les armées australienne et canadienne.
Ce mini UAV monomoteur à hélice peut être équipé de plusieurs types de capteurs, enregistreurs et transmetteurs d'informations visibles ou infrarouges, d'un navigateur GPS et même pour les versions militaires d'un mini radar.
Il est capable d'une autonomie de 20 heures et de 100 km de rayon d'action, télécommandé depuis sa base.
Le programme scientifique est une collaboration du Cooperative Institute for Research in Environmental Sciences de l'Université du Colorado à Boulder, et de la National Oceanic and Atmospheric Administration. Initié en 2009, le programme est coordonné par Elizabeth Weatherhead du CIRES, et concerne à la fois la topographie et la biologie animale. Un premier objectif a été l'étude de quatre espèces de phoques. Le programme s'intéresse notamment à l'impact de la fonte de la banquise et de sa diminution de surface sur les populations animales.
Un exemple réussi de transfert du militaire au civil, au service de la biologie et de l'étude de l'environnement.

02 octobre 2011

BIO : Le nocebo, ou le côté obscur du placebo.

L'effet placebo est un fait admis seulement depuis la fin du siècle dernier. Jusque là, la médecine ne pouvait admettre l'influence d'une substance biochimiquement non active. Le terme vient du latin "je plairai" ; il apparait pour la première fois dans le dictionnaire médical anglais Hooper de 1811 : "médication destinée plus à plaire au patient qu'à être efficace".
L'effet placebo provoque une amélioration de l'état du patient sans pour autant qu'il soit soumis à une substance chimique active. Il peut être direct, c'est-à-dire agir directement sur la maladie ou ses symptômes, ou indirect, c'est-à-dire potentialiser l'action d'une molécule active prise en même temps.
Il est objectivement quantifié par l'écart positif constaté entre le résultat thérapeutique observé lors de l'administration d'un médicament et l'effet thérapeutique prévisible en fonction des données strictes de la pharmacologie. Il est d'autant plus critique qu'il intervient dans les essais en double aveugle, puisque le patient croit qu'il prend un médicament alors qu'il s'agit d'un placébo, ou pire, peut croire qu'il prend un placébo alors qu'il reçoit un traitement actif. Dans ce dernier cas, on parle de l'aspect négatif du placebo, que certain nomment "nocebo".
Si jusqu'ici les chercheurs se sont consacrés principalement à l'étude de l'influence positive du placébo, celle de l'effet nocebo (du latin : "je nuirai") n'est encore que confidentielle. Le terme a été utilisé 150 ans après celui de placébo, en 1961, par le médecin Walter Kennedy. Selon lui, un patient sur quatre en ferait l’objet. Il s’agit en quelque sorte d’un placebo qui a mal tourné, en intoxiquant ou provoquant des effets secondaires  tels que vertiges, maux de tête, diarrhées, allergies, douleurs menstruelles, etc. On a même noté des effets d'accoutumance, avec des patients devenu « accro » à un produit totalement neutre. Plus important encore, la présentation que l'on fait du traitement : prescrire un placebo à des patients sans leur préciser de quoi il s’agit, ni quels effets il peut produire, déclencherait des symptômes dans plus de 80 % des cas. Accompagner la prescription par un discours désobligeant ou menaçant augmenterait ainsi le taux de cholécystokinine, hormone impliquée dans la perception de la douleur.
L’effet nocebo peut prendre des proportions critiques pour la santé. On a montré qu'un placébo provoque l’impuissance chez un tiers des hommes auxquels on a exposé les désagréments possibles sur leur libido d'un traitement pour la prostate. Des patients parkinsoniens traités par électrodes implantées peuvent retrouver des difficultés à bouger et des tremblements dès qu'on leur fait croire que les électrodes ne fonctionnent plus.  Certains habitants voisins d’une antenne-relais se sont plaints de différents symptômes alors que l’antenne n’avait pas encore émis. On a même rapporté la mort d'un patient en état non critique après une erreur d'un prêtre lui ayant administré l'extrême onction par erreur.
L'effet nocebo est donc un effet négatif qui va annuler ou réduire, voire annuler les effets pharmacologiques d’une substance, voire provoquer un trouble attendu de cette substance en sa parfaite absence. Comme l’effet placebo, l'effet nocebo n’est pas lié à la substance, mais à l’attente psychologique du patient, découlant souvent d'ailleurs de l’attente du médecin vis-à-vis du traitement qu’il prescrit.
Des chercheurs britanniques et allemands ont mené une étude sophistiquée sur l'effet nocebo et la douleur, publiée dans Science Translational Medicine (lien). Après avoir fixé des diffuseurs de chaleur sur la jambe de 22 volontaires en bonne santé, ils ont augmenté le rayonnement jusqu'à une plainte douloureuse de 70 sur une échelle de 1 à 100. Ils ont été placés sous perfusion d'une forte dose de rémifentanil (dérivé de la morphine), ce qui a provoqué la diminution de la douleur même chez les sujets non informés.
Puis, les expérimentateurs ont informés leurs patients qu'ils allaient leur injecter l'analgésique, même si celui-ci circulait déjà dans leur organisme. Les participants ont signalé une nouvelle réduction de la douleur — ce qui montre l'effet placebo de l'analgésique.
Enfin, les chercheurs ont encore menti, en disant aux sujets qu'ils allaient cesser le traitement et que leur douleur allait probablement augmenter. Leur niveau de souffrance a quasiment retrouvé celui enregistré avant tout traitement, leurs craintes annulant l'effet d'un médicament, montrant un effet nocebo.

"The Effect of Treatment Expectation on Drug Efficacy: Imaging the Analgesic Benefit of the Opioid Remifentanil", U. Bingel et al., Sci. Transl. Med., 16-02-2011, vol. 3, Issue 70, p. 70ra14.
"Nocebo-induced hyperalgesia during local anesthetic injection", D. Varelmann et al., Anesth. Analg.,  vol. 110, no 3, mars 2010, p. 868-70.
"L'effet placebo. Un voyage à la frontière du corps et de l'esprit", par Ivan O. Godfroid, Charleroi (Belgique) : Socrate Éditions Promarex, 2003.

"Un placebo peut être nocif", revue Science et Vie, Août 2010, page 55.

01 octobre 2011

DIV : Le numéro 8 de CSS est sorti.

CSS est le "journal des sciences de la cognition" par et pour les étudiants et jeunes chercheurs en sciences cognitives.  CogniScienceS est un édition trimestrielle participative créée initialement dans le cadre de la FRESCO, fondée et animée par William Hirigoyen et ses collègues de l'ENSC. 
Elle est ouverte aux publications des étudiants, doctorants et ex étudiants en sciences cognitives et des domaines connexes. Elle fait le point sur l'actualité et propose des articles de fond ou appliqués ainsi que des chroniques de ce domaine interdisciplinaire.
Le numéro 8 vient d'être publié en ligne, et outres les actualités, aborde les thèmes du rapport "émotion/cognition", du "mensonge", de la "grammaire générative" et des "objets de l'IA".
Accès aux numéros précédents (lien).

30 septembre 2011

IA : De l'Intelligence Artificielle pour remplacer les traders.

La sideration qu'exerce le metier de trader sur les jeunes tient à la fois du prestige et de l'image sociale attachée notamment aux revenus spectaculaires de certains d'entre-eux, et à la fois à la réputation de goût du risque et de passion du jeu et du pari, correspondant probablement à certaines personnalités psychologiques particulières.
Le côté obscur de la profession est également double, avec d'une part une faible proportion de traders qui reussissent pleinement une carrière certes rapide, mais nerveusement épuisante et physiquement usante, et d'autre part les erreurs, leurs conséquences affectives, et le cercle vicieux de spirales infernales d'enfermements psychologiques, de rupture sociale et de repli sur soi dans un monde purement virtuel de relations électroniques, favorisant des comportements d'excès, des inhibitions critiques ou des réactivités ratées.
Certains decideurs financiers et gestionaires de ressources humaines sont aujourd'hui convaincus de l'avantage de remplacer les traders, ou pour le moins certains d'entre eux, par des programmes informatiques spécialisés, appliquant des règles logiques strictes et sécurisée. C’est déjà en partie le cas et les décisions des tradeurs sont d'ailleurs accompagnées par des programmes décisionnels.
Le Foresight
, un organisme de prospective œuvrant pour le gouvernement britannique, vient de publier un rapport sur l’impact de la technologie sur les marchés financiers. L'hypothèse proposée est celle d'une généralisation du procédé d'automatisation intelligente dans les prochaines années.
En effet, les logiciels peuvent tous les jours encore plus accumuler, synthétiser, interpréter de plus en plus rapidement, toujours plus d'informations issues des sources les plus divers, en dépassant évidemment les compétences et aptitudes cognitives humaines. Le bénéfice pour l'optimisation des prises de décision financières instantanées, avec un niveau de securité optimal, favoriserait alors des robots decisionnels et auto-apprenants accessibles alors aux particuliers. Les auteurs du rapport précisent que ce type d’intelligence artificielle bénéficierait d’algorithmes lui permettant d’apprendre seule, sans intervention humaine, sur des critères objectifs, en se gardant des effets de contagion ou de panique qui ont agité le monde financier ces dernières années.
Référence (lien).

DIV : Une tablette à un euro par jour.

Le Ministère de l'Enseignement supérieur et de la Recherche annonce le lancement d'une opération dont le but est de proposer une tablette électronique aux étudiants post-bac. Le ministre déclare, dans une interview à M6 et à paraître aujourd'hui dans Direct Matin, qu'il s'agit de proposer un iPad 2 ou une Galaxy Tab 8,9" - toutes deux en version 3G mais sans précision sur la capacité de stockage - à 1 euro par jour pendant deux ans.
Information à suivre pour les élèves de l'ENSC.

La société IBM fait dans le gigantisme. Elle affirme mettre au point le plus grand système de stockage au monde, soit une capacité de 120 pétaoctets.
Cet équivalent d’environ 120 000 disques durs de 2 To, ou encore 24 milliards de MP3, aura donc une capacité dix fois supérieure aux plus grands systèmes actuels.  Pour constituer cette mémoire, IBM utilise 200 000 disques durs de 600 Go en parallèle, avec une sécurité de conservation que IBM juge lus que robuste (supérieur au million d’années sans perte de données ni diminution de performances).
Ce dispositif repose sur un système de fichiers inscrits sur de multiples disques afin de lire et d’écrire simultanément de multiples portions de chaque fichier. Baptisé GPFS, ce système a permis à IBM de recenser et scanner 10 milliards de fichiers sur un système de stockage en 3/4 heure seulement, remportant un nouveau record détenu jusque'à présente pour un simple milliard de fichiers scannés en 3 heures. Cette machine est attendue pour permettre des avancées scientifiques dans la modélisation, la simulation et la prévision numériques en physique, en astronomie, en climatologie, en biologie et en médecine.
Lien publication (lien).

IA : Des serious games pour la recherche.

Les Scientific Discovery Games (SDG) sont des jeux informatiques qui permettent à des joueurs en réseau de participer à une expérience scientifique menée grâce à Internet. Le principe est de traduire des éléments complexes issus d’une recherche scientifique sous la forme d'énigmes ou des puzzles, afin que des non spécialistes puissent les traiter sans connaissance scientifique précise. Seules la logique des joueurs et leurs capacités de résolutions de problème sont mises en jeu ... au service de la recherche
L'histoire des SDG débute en 2008 avec "Foldit" (littéralement "Plie-le"). Dans ce jeu vidéo expérimental sur le repliement des protéines, développé par le département d'informatique et le département de biochimie de l'Université de Washington, les joueurs tentent de résoudre un problème que les ordinateurs ne savent pas résoudre. 
Un exemple de ce principe collaboratif est celui du jeu "ESP" qui, face à l'incapacité des machines à classer les images (abscence de mots-clefs), confie cette tâche à des humains à travers un jeu en ligne. 
Lorsque deux personnes voient une même image et lui associe des mots-clefs ; si un même mot est proposé par les deux : il est validé et indexe l'image. L'ESP Game devrait permettre de classifier toutes les images du Web en quelques mois seulement. Ce principe permet de manière ludique de déléguer à des joueurs des procédures dont les machines sont incapables.
L’intérêt des SDG repose sur la participation quasi permanente des joueurs et leur nombre croissant. Plus le nombre de joueurs est grand, plus leurs connexions sont fréquentes, plus les chances de voir émerger des scores élevés est important : et donc plus les avancées scientifiques sont obtenues. 
C'est l’intelligence des articulants et l'émergence d'une intelligence collective qui permettent de résoudre "virtuellement" des problèmes scientifiques "réellement" posés. 
Au delà de FoldIt, on peut s'inscrire sur "Phylo", qui travaille sur la génomique comparative, "EteRNA" sur la compréhension de l’ADN, "Planet Hunters" en cosmologie, qui a récemment permis de découvrir deux nouvelles planètes (lien), etc.
Sommes nous à la veille d'une révolution des pratiques de recherche, ouvertes demain à une participation citoyen fédérative ? En effet, on constate un accroissement du nombre de jeux scientifiques collaboratifs mis en ligne. Néanmoins, pour un SDG réussi comme Foldit, trois autres sont également mis en ligne mais ne fonctionnent pas. la cause est double : un manque de visibilité et une faible communauté, une mauvaise conception ou une interface non conviviale.

Lire un article de Simon Bachelier, expert ne serious game, d’Universcience (lien).

29 septembre 2011

DIV : Science Factor - le concours des lycéennes pour les sciences

Dans un contexte difficile de crise, avec ses conséquences sur l’emploi, les entreprises manquent pourtant de scientifiques.
C'est dans les domaines des hautes technologies que le manque est le plus important. Pour le résorber, il convient d'intéresser les jeunes aux sciences et aux technologies, ainsi qu'aux carrières d'ingénieur. 
Le concours Science Factor a pour objectif de combattre cette désaffectation des jeunes pour la science, et d’intéresser les garçons mais surtout les filles aux filières scientifiques et techniques. C'est une action conduite avec le parrainage du Ministère de l'Education Nationale, du Ministère de l'Enseignement Supérieur et de la Recherche, et d'Universcienceen partenariat avec Orange et le Syntec.
Les lycéens ont jusqu’au 15 décembre 2011 pour s’inscrire sur la page Facebook de Science Factor, après s’être constitués en équipes de quatre. Le but pour chaque équipe est de décrire le projet, la découverte ou la recherche que les jeunes gens aimeraient entreprendre s’ils étaient déjà diplômés d’une filière scientifique. Les cinq équipes finalistes présenteront leurs projets au jury présidé par Claudie Haigneré.

28 septembre 2011

DIV : Aerospace Valley se dote d'une nouvelle présidente.

Fort de ses 490 membres, Aerospace Valley est l'un des trois pôles de compétitivité français les plus importants.Sa vocation mondiale s'appuie sur sa spécialité "Aeronautique, Espace et Systèmes embarqués" développée sur les territoires d'Aquitaine et de Midi-Pyrénées. AV a depuis sept ans labellisé ou accompagné plus de 480 projets de recherche et développement, pour un total de quelques 725 millions d’euros investis,
C'est à la suite de Jean-Marc Thomas, président fondateur sortant, que Agnès Paillard qui avait assuré ces deux dernières années la direction générale du pôle, a été élue présidente ce mercredi 28 septembre 2011 par les 37 membres du conseil d'administration. Ingénieur de l’École Supérieure de
Physique et Chimie Industrielle de Paris, Agnès Paillard a débuté sa carrière chez IBM France, puis a assuré la direction générale de
Serma Technologies, avant d'animer le développement économique, la recherche et le développement durable de la Région Aquitaine. Elle a assumé ensuite la direction générale du pôle Aerospace Valley, puis a rejoint EADS France Innovation Works comme vice-présidente.
Le programme de la nouvelle présidente sera notamment orienté vers la compétitivité et le développement des territoires et celui des PME et des ETI des deux régions. Agnès Paillard a réaffirmé la mission du pôle qui, au delà des nombreux projets de recherche et développement, doit aller jusqu’aux produits et aux procédés innovants, ainsi qu'à leurs marchés. Ce programme ambitionne le développement et la création d’entreprises et d'emplois dans les deux régions du Grand Sud-Ouest. Le pôle accompagnera également le nouvel Institut de recherche technologique (IRT) "Aeronautique, espace et systèmes embarqués" (AESE) labellisé cet été dans le cadre des Investissements d’avenir. Et si cet IRT est midi-pyrénéen, les aquitains n'en seront pas exclus puisque certaines de leurs spécialités viendront prochainement enrichir le projet.

24 septembre 2011

SHS : Psychodynamique du travail.

Le mot travail est apparu vers 1200. Il est issu du latin médiéval "trepalium" : instrument de torture. Il a longtemps été vécu comme une obligation, interdite aux privilégiés, et au service de leur propre rentabilité. Bien qu'ayant évolué dans le siècle dernier au bénéfice du travailleur, il revêt pourtant toujours son aspect d'obligation et de contrainte.
Au delà de ses aspects négatifs, le travail présente des aspects constructifs : il est important pour se forger une identité ; il permet de développer de nouvelles aptitudes ; il confronte le sujet à des obstacles en lui permettant de se découvrir lui-même, de prendre conscience de ses capacités et de structurer sa personnalité. A l’extérieur du contexte professionnel, il permet de se façonner une identité et de construire son image sociale.
C'est dans cet équilibre entre aspects positifs et négatifs du travail que réside l'adaptation du travailleur, qui peut alors être globalement affecté par son travail et ses modifications.
Christophe Dejours est psychiatre, psychanalyste, et consacre son activité à la psycho-dynamique du travail. Professeur titulaire de la chaire de psychanalyse-santé-travail au Conservatoire national des arts et métiers, il y dirige le laboratoire de psychologie du travail et de l'action.
Ses théories reposent sur l'interprétation que le sujet donne à l'écart entre travail prescrit et réel, les processus qu'il met en oeuvre pour gérer cet écart, et les mécanismes de défense qu'il élabore contre la souffrance. Selon ces théories, les personnes en souffrance au travail sont souvent dans l’incapacité de surmonter « le réel du travail ». Par « réel » il désigne les aspects du travail qui résistent aux savoirs du travailleur.
Lorsque le travailleur se voit assigner une tâche, certains aspects de la tâche échappent à sa maîtrise directe. Il doit évidemment en premier lieu rencontrer le réel (travailler puis échouer), puis il doit être capable de surmonter l’obstacle, faire preuve d’ingéniosité, trouver des astuces pour compenser ses faiblesses. Cet état d’échec peut s’avérer plus ou moins long et plus ou moins possible à endurer.
Le travail peut aussi être néfaste pour le travailleur et éroder petit à petit sa personnalité ainsi que l’image qu’il a de lui-même ou qu'il veut donner de lui. Tout cela dépend évidemment d’une part de l’organisation du travail et de la part de liberté qu’elle offre et d’autre part de l’état psychologique du travailleur. Le dépassement des limites du supportable peut amener le travailleur à mettre fin à ses jours et ceci malgré une vie sociale et privée équilibrée.
Selon Christian Dejours, lorsque l’on apporte une contribution par son travail, on attend de la reconnaissance ainsi qu’une rétribution. Le premier aspect est moral alors que le second est matériel, néanmoins tous deux ont un impact psychologique sur le travail. Cet effet pouvant être soit négatif soit positif. Ces éléments permettent au travailleur de se construire une identité et une estime de soi. L’impression d’être utile est aussi un élément clef des bénéfices du travail.
Voir les vidéos de C. Dejours (lien)
Travail, usure mentale de Christophe Dejours, édition Bayard, 2010.

BIO - SHS : Le raisonnement analogique des singes.

Le propre de l'analogie est de reconnaître les relations entre les relations. Cette aptitude cognitive était jusqu'ici réputée humaine, puisque les chercheurs la considéraient impossible sans langage.
Deux psychologues du Laboratoire de psychologie cognitive de l'Université de Provence (lien) et du Franklin & Marshall College De Lancaster (lien) aux États-Unis viennent pourtant de démontrer que les singes pouvaient produire des analogies, sans le langage. Leur expérience menée sur 29 babouins (Papio papio) repose sur l'observation de formes géométriques et le choix ultérieur sur un écran tactile de deux autres formes représentant la même relation (d'identité ou de différence) que la paire initiale. Les singes devaient donc détecter des relations entre relations. La réussite à l'exercice par 6 singes a été observée après l'acquisition, mais semble stabilisée avec un respire tissage facilité après un an.
Ces travaux prouvent donc que l'analogie est possible sans langage, ou bien que les singes disposent d'un protolangage sur lequel s'étaye cette capacité utile au transfert de connaissances d'un domaine à l'autre. Ils montrent comment une pensée peut également exister sans langage.
Accès au résumé (lien).
Generalized Relational Matching by Guinea Baboons (Papio papio) in two by two-item analogy problems – Roger K. R. Thompson et Joël Fagot, Psychological Science, 20 septembre 2011,

SHS : Ouverture du site Internet de Philosophia Scientiæ

Philosophia Scientiæ est une revue scientifique publiée semestriellement par les Archives Henri Poincaré de Bancy (UMR 7117). Elle propose des travaux en épistémologie, en histoire et en philosophie des sciences. Elle accueille principalement des études traitant des mathématiques, de la physique et de la logique, mais également des recherches portant sur les autres disciplines scientifiques : physique, biologie, sciences humaines, sciences cognitives ... Les articles sont en français ou en anglais.
La mise en ligne de quinze numéros vient d'être réalisé, dont neuf en accès libre. Le site proposera l'ensemble des numéro ainsi que les cahiers spéciaux disponibles en texte intégral. Accès au site (lien).

23 septembre 2011

DIV : Trop vite pour la théorie - chercher l'erreur.

Publiée hier sur le serveur public arXiv, des résultats de six mois d'expériences inquiètent bien les chercheurs du CNRS qui les ont produits.
En mesurant avec une précision de l'ordre de la dizaine de nanosecondes (milliardièmes de seconde) le trajet d'un faisceau de neutrinos entre l'accélérateur du Cern, près de Genève, et le détecteur Opera du laboratoire du Gran Sasso, sous les Apennins au centre de l'Italie, l'equipe menee par Dario Autiero de l'Institut de physique nucléaire de Lyon tombe sur un os !
Les particules semblent traverser les 731 kilomètres de croûte terrestre qui séparent les deux sites en quelques 2,5 millièmes de seconde. Or c'est en moyenne 60 nanosecondes d'avance par rapport à la vitesse calculée qu'aurait mis la lumière. Un tel décalage, qui paraît certes infime, est en contradiction avec la théorie actuelle.
Cette experience de violation est à prendre avec d'extrêmes précautions. Au-delà de la portée potentielle de ses résultats sur la théorie de la relativité, ils interrogent la communauté scientifique et ouvrent des pistes d'hypothèses jusqu'ici farfelues. Les particules ont-elles trouvé un raccourci dans une autre dimension que les 4 de la théorie (3 dans l'espace auxquelles s'ajoute celle du temps) ? La vitesse de la lumière ne serait-elle pas une vitesse limite ? La théorie actuelle peut-elle évoluer comme celle de Newton l'avait fait grâce à Einstein qui a proposé une théorie plus générale ? Et existe-t-il donc une théorie encore plus globale ?
L'immense avantage de cette expérience est celui de confirmer la réfutabilité poppérienne de la relativité restreinte et l'ingéniosité des scientifiques dans la recherche d'expériences cruciales pour toujours plus de validité de leurs théories.

Lien vers l'article dans arXiv.

Séminaire cet après-midi à 16 heure depuis le CERN à Genève par Dario Autiero (lien en direct).

Voir le communiqué du CNRS sur Opera (lien).
Article de Enviscope (lien).
Photos disponibles (lien - fichier .zip)
Reportage « Plus vite que la lumière ? » (lien - mp4).
Vidéo (lien - conducteur bilingue).

20 septembre 2011

IA : L'éclairage pour transmettre les données.

Accéder aux données d’un réseau sans fil (WLAN) peut se faire en utilisant un simple signal lumineux d'ambiance. Des chercheurs du Fraunhofer Institute for Telecommunications, Heinrich Hertz Institute (HHI) de Berlin (Allemagne) en partenariat avec Siemens et France Telecom Orange Labs sont parvenus à créer un réseau à haut débit en modifiant un éclairage basé sur la technologie LED, avec un débit de 100 Mbit/s.
La technologie de communication par lumière visible (VLC) est basée sur de simples diodes électroluminescentes en lumière blanche (LED). Elle permet de coder des informations en langage binaire par l’ajout d’un composant spécifique, un modulateur, tout en garantissant un éclairage perçu comme normal et stable. Ce modulateur allume et éteint successivement les LED à très haute fréquence (VHF), sans que l’œil humain ne puisse percevoir les variations de luminosité. Le signal lumineux modulé est alors capté par une photodiode fixée sur le terminal informatique.
Les limitations actuelles (fonctionnement uniquement direct en ligne droite et débit) seront probablement levées par des stratégies d'éclairage d'ambiance (multipoints) et de couleur (800 Mbit/s prevus en combinant des diodes rouges, bleues, vertes et blanches).
Bien en deçà des performances du WLAN électromagnétique, le WLAN optique trouve son application dans les hôpitaux, les avions, les environnements critiques industriels, voire les habitations, dans lesquels les ondes électromagnétiques sont nuisibles.

BIO : 8,7 millions d’espèces eucaryotes.

La question du nombre d’espèces présentes sur Terre n'a jusqu'ici pas de réponse puisque nous n’en connaissons aujourd’hui qu’1,2 million et savons que ce chiffre est sans commune mesure avec la réalité. Des estimations sur leur nombre total varient d'ailleurs entre 3 et 100 millions.
Grâce à une nouvelle approche, une équipe de chercheurs canadiens, américains et anglais (lien) vient d’émettre une nouvelle estimation : il existerait 8,7 millions d’espèces eucaryotes (c’est-à-dire si l'on compte pas les bactéries).
Cette équipe a mis au point un nouveau modèle à partir de la classification des êtres vivants. Son application a des parties bien connues de la classification permet son extrapolation à l’ensemble de l’arbre du vivant. Il existerait ainsi 2,2 millions d’espèces marines et 6,5 millions d’espèces terrestres. Il y aurait 7,77 millions d’espèces d’animaux, 298 000 espèces de végétaux et 611 000 espèces de champignons.
Rapporté au nombre d’espèces déjà connu, cela signifie qu’il reste à découvrir (hors bactéries) 86 % des êtres vivants terrestres, et 91 % des marins. D’après les scientifiques, les spécimens inconnus ne vivraient que dans des zones géographiques très restreintes ou peu accessibles, comme les fonds marins, les forêts équatoriales ...
Une estimation facile montre qu’il faudrait 1 200 ans et plus de 300 000 taxonomistes pour répertorier l’ensemble de cette biodiversité. Le problème est qu'on ignore tout de son évolution réelle, et que selon le rythme des extinctions, beaucoup auront disparu avant même d'avoir pu être découvertes.
article dans Plos Biology de aout 2011.

SHS : Modéliser les flux et habitudes pour l'urbanisme.

L'analyse des mouvements humains facilite les politiques d'urbanisme. C'est l'hypothèse de UNA (MIT) qui combine géospatialisation et d'analyse des flux pour modéliser les habitudes des habitants d'une ville. Le but : faciliter le lancement de programmes d'urbanisme.
Etablir les meilleurs endroits pour construire des résidences, installer des bureaux, ou faciliter le développement de commerces dans un espace urbain doit se faire sur des données objectives. C'est dans ce but que la UNA Toolbox, un programme d'analyse des réseaux urbains, a été mise au point. Elle permet de modéliser les mouvements spatiaux et leurs évolutions.
Selon Andres Sevtsuk, le principal investigateur du projet, on pourra ainsi expliquer plus simplement : "sur quelle rue ou dans quel bâtiment on a le plus de chances de trouver un commerce de proximité, dans quelle zone se trouve le trafic à pieds ou en voiture le plus important et pourquoi la valeur du terrain varie d'un emplacement à un autre". La Toolbox prend en compte la géométrie globale des zones urbaines et des axes de transport, les distances mais également les immeubles dont on peut pondérer l'importance suivant différents critères : volume, population, influence sur les bâtiments environnants. Elle combine des programmes de géospatialisation et d'analyse de l'environnement urbain. L'un d'eux, par exemple, mesure combien de bâtiments peuvent être atteints dans un rayon donné à partir d'un immeuble de départ. Un autre calcule l'accessibilité d'un immeuble suivant l'attractivité et la distance des constructions proches. Un autre établit le nombre de passants dans une zone, quand un autre s'intéresse à l'écart métrique entre chaque bâtiment. Et enfin, un dernier établit le chemin le plus court entre deux points suivant le tracé des rues et des routes, puis compare cette donnée avec le temps qu'il faudrait pour parcourir la même distance à vol d'oiseau.
Ces éléments devraient permettre, par exemple, de quantifier efficacement si un immeuble occupe une position centrale et la facilité avec laquelle un habitant peut accéder à plusieurs endroits à partir d'un point de départ donné.

IA : Une mémoire associative sans électricité

Une équipe de l'Université du Tohoku, dirigée par le Professeur Ohno, en partenariat avec DEC, a annoncé avoir développé la première mémoire adressable par contenu (CAM) ne nécessitant pas d'électricité pour enregistrer des données.
Pour conserver des données ou des paramétrages, les appareils actuels reçoivent, en étant simplement branchés au circuit électrique, un flux constant d'électricité. L'électricité utilisée par cette activité "passive" est estimée à environ 6 % de l'électricité totale consommée dans les foyers.
La mémoire adressable par contenu (CAM) qui, contrairement aux mémoires de types RAM, a un contenu non plus accessible par une adresse mais par une donnée, est une mémoire extrêmement rapide.
Sa non-volatilité (cad sa capacité à ne pas perdre d'information sans apport d'électricité) est directement due au système physique d'enregistrement des informations. La mémoire utilise ce qu'on appelle la spintronique : les spins des électrons sont capables de se comporter comme des petits aimants et, selon leur orientation, de "stocker" des données. Ce type de mémoire pourrait être utilisé dans de nombreux appareils électroniques, notamment pour développer des appareils démarrant instantanément et ne consommant aucune électricité en veille.

09 septembre 2011

IA : un humanoïde dans l'espace.

Selon BBC news, un robot-astronaute humanoïde a été mis en oeuvre dans la station spatiale internationale. Le robot R2 (pour Robonaut v2) ressemble à un astronaute dépourvu de jambe (un torse, deux bras et deux mains à forme humaine, ainsi que d’un casque doré avec visière pour la tête). Le poids de cet « homme de fer » est de 136kg. Une version ultérieure lui permettra de recevoir des jambes et des pieds afin qu'il puisse se déplacer dans l’ISS dont les coursives sont prévues pour les hommes. Il pourra également être fixé sur un module d’exploration Centaur 2 afin de parcourir la surface de la Lune ou de Mars.
Fruit de 15 ans de travaux de la Nasa et de General Motors, c'est le premier humanoïde spatial développé pour travailler et aider les humains à l’intérieur comme à l’extérieur de la station.
Selon la Nasa, le robot est capable d’effectuer des mouvements quatre fois plus rapide que les premières versions terrestres R1. Il a plus de dextérité et dispose de meilleurs capteurs R2 effecteurs.
F1 dispose d'un compte Twitter (@astrorobonaut) déjà suivi par plus de 45.000 followers. Il répond ainsi aux questions des internautes comme le ferait un astronaute humain, tout en étant capable de réaliser d'autres tâches techniques ou de communication avec les autres membres de l'équipage et les contrôleurs sur terre.
De tels robots tel que celui testé sur l'ISS seront chargés d’effectuer des tâches de maintenance et de ménage, d’aider les astronautes durant leurs sorties, de les remplacer dans des conditions critiques ou trop dangereuses, mais également de leur tenir compagnie.
On envisage également de recourir à eux de manière autonome pour effectuer de la maintenance sur les satellites et pour préparer l’arrivée des humains sur Mars, et cela sans se préoccuper de leur survie ou de leur retour.
Accès au site de R2 (lien)

03 septembre 2011

IA : robotique anthropomorphique.

Insérer des robots dans le monde physique conçu pour les humains peut se faire de deux manières. La première consiste à recourir à des robots dont la mobilité s'affranchit totalement des contraintes de la motricité humaine (roues, chenilles, survol, coussin d'air, etc.), la seconde réside dans l'imitation biomécanique des capacités humaines et de ses caractéristiques morphodynamiques. C'est la voie qu'à choisi de suivre l'équipe robotique du Department of Electrical Engineering and Computer Science (EECS) de l'Université du Michigan à Ann Arbor (USA).
Subventionné par la National Science Fundation et la DARPA, le programme MABEL consiste en la réalisation d'un robot bipède, ayant des jambes et genoux. Ce robot n'est pas un humanoïde, mais est capable de se mouvoir et courir à plus de 10 km/h sur ses deux pieds. Voir le film sur YouTube.
Les perspectives de développement sont envisagées pour l'aide au handicap dans la constitution d'exosquelettes autonomes ou pour l'aide robotique à distance dans des situations de secours aux personnes ou d'intervention dans des zones dangereuses, toxiques ou radioactives.
Voir le site de MABEL.

02 septembre 2011

SHS - IA : sur le Web en 60 secondes.

Une équipe de Web designers de Shanghai (Go-Gulf.com) vient de publier en ligne une étude qui estime ce qui se passe chaque minute sur le réseau mondial de communication électronique.
En 60 secondes :
Google : près de 700 000 requêtes ;
Flickr : plus de 6 600 images mises en ligne ;
YouTube : plus de 25 heures de vidéos mises en ligne ;
Pandore : plus de 13,000 heures de musique en streaming ;
Skype : plus de 370 000 minutes d'échanges vocaux ;
FaceBook : près de 700 000 mises à jour de statuts, plus de 500 000 nouveaux commentaires et près de 80 000 messages sur le mur de quelqu'un ;
Twitter : quelques 320 nouveaux comptes ouverts et 98 000 tweets générés ;
Linkedin : près de 100 comptes créés ;
AppleStore : 13 000 applications téléchargées ou mises à jour ;
FireFox : 1 700 téléchargements du programme ;
WordPress : plus de 50 téléchargement du programme ;
Yahoo : quelques 40 nouvelles questions posées sur YahooAnswers.com ;
Emails : plus de 168 millions de messages échangés ;
Noms de domaine : quelques 70 nouveaux noms déposés ;
etc.

22 août 2011

IA - BIO : Homme augmenté par capteurs bioniques

Mesurer le rythme cardiaque, celui de la respiration ou recueillir l'activité électroencéphalographique sera prochainement possible par l'accolement d'un patch électronique ultra-fin (quelques microns d'épaisseur) à la surface de la peau.
Le principe du tatouage électronique est appelé "épiderme électronique". il comporte sur un support élastique, qui consiste en une très fine couche de plastique soluble dans l'eau (élastomère), une série de composants électroniques (circuits, capteurs, diodes, transistors, condensateurs, photodétecteurs ...) conçus pour pouvoir se déformer en fonction de l'élasticité de la peau. Fabriqués en matériaux semi-conducteurs, ils ont une forme de "serpentins filamenteux" qui leur permet de suivre les déformations structurelles (rides, bosses ...) et fonctionnelles (torsions, étirements ...).de la peau.
Le dispositif s'applique simplement par transfert en frottant un "tatoo", dans lequel est dissimulé le dispositif, directement sur la peau avec un peu d'eau.
Publié dans la revue "Science" du 12 août 2011 par John Rogers et son groupe de l'université de l'Illinois, le dispositif présente un potentiel d'applications médicales, physiologiques et ergonomiques multiples, rapprochant encore plus les domaines du biologique et de l'électronique.
"Epidermal Electronics," Science 333, 838-843 (2011) - lien.
Comment - lien.

12 août 2011

DIV : Ecrivez ... vous polluez !

Envoyer des mails pollue l'environnement dans les mêmes proportions que le trafic aérien. C'est ce qu'affirme l'ADEME (Agence de l'environnement et de la maîtrise de l'énergie), en publiant le 7 juillet 2011 une note de synthèse sur l'impact environnemental du courrier électronique.
Ainsi, les courriels d'une société de cent personnes génèrent annuellement une pollution qui serait celle de quatorze allers-retours Paris-New York. Les technologies de l'information et de la communication (TIC) pourraient ainsi être responsables en 2020 de près de 4 % des émissions de gaz à effet de serre en Europe, contre 2 % en 2005. Cette pollution serait alors supérieure à celle du transport aérien, qui ne représenterait alors que 2 à 3 % des émissions européennes de gaz à effet de serre.
L'envoi d'un e-mail de 1 mégaoctet génère près de 20 grammes équivalent CO2, en raison de l'énergie consommée par les ordinateurs de l'expéditeur, du destinataire, et des serveurs et réseaux utilisés. Comme un salarié français reçoit en moyenne 58 e-mails par jour et en envoie 33, les courriels de 100 personnes entraîneraient l'émission de 13,6 tonnes équivalent CO2 par an. La situation est grave si l'on considère que quelques 500 milliards de e-mails sont envoyés chaque jour dans le monde.
Une solution : les bonnes pratiques !
Diminuer le nombre de mails, diminuer le nombre de destinataires, supprimer les copies, supprimer les réponses automatiques, faire la chasse aux spams, privilégier les filtres amont, etc.
Un exemple, selon l'ADEME, Réduire de 10 % l'envoi de courriels incluant systématiquement son responsable et son collaborateur direct au sein d'une entreprise de 100 personnes permet d'économiser environ une tonne équivalent CO2 sur l'année, soit un aller-retour Paris-New York.
Les recommandations de l'ADEME pour le bon usage des TIC (lien).

BIO : Le bonheur, c'est bon pour le coeur.

Une équipe multidisciplinaire associant la Harvard School of Public Health (Boston, USA), l'Université du Michigan (Ann Arbor, USA) et l'University College (Londres, GB), a étudié un échantillon de prés de 8000 personnes des deux sexes et d'âge moyen proche de 50 ans (cohorte Whitehall II).
Cette étude épidémiologique montre que le fait d'être satisfait de son sort, notamment dans sa vie personnelle, sa famille, sa vie sexuelle et son identité personnelle, a des conséquences bénéfiques et préventives sur le coeur et le système coronarien. Ces résultats ont été publiés le 4 juillet 2011 dans l'European Heart Journal.

03 août 2011

DIV : Où va la science ?

Voici quelques textes débats de quelques grands noms de la science et de l'épistémologie contemporaines, publiés en octobre 2007 dans le numéro 61 de Alliage.
La thématique qu'ils abordent n'est pas sans importance et tous les jours plus d'actualité : où va la science ?
On peut y adhérer, les contester, mais probablement aussi, les discuter.

Au sommaire :
Jacques Testart, « La recherche confisquée par l’innovation marchande »
Jean-Marc Lévy-Leblond, « Notes pour une autre politique scientifique »
Jean Chesneaux, « Construire une culture politique de l’écologie »
Aline Paillet, « Ça marche ! »
Gruppo scienza semplice, « Un Theatrum Mundi à l’heure d’internet ? »
Baudouin Jurdant, « La colonisation scientifique de l’ignorance »
Igor Babou, « Éloge de l’indisciplinarité »
Sulli Prudhomme, « Le chercheur »
Joost Mertens, « Les couleurs selon Charles Bourgeois »
Jorge Wagensberg, « Le plaisir intellectuel et la tristesse de la pensée »
Zéphyrin Xirdal, « La chronique du savant fou »

30 juillet 2011

DIV : Liberté de la presse

Signée il y a 130 ans, la Loi 29 juillet 1881 instaure la liberté de la presse. Le texte permet de s'affranchir des entraves à la publication d'un journal, dont l'autorisation administrative préalable, et établit le respect du ecret des sources des journalistes. Le délit d'opinion est supprimé. Cette loi est due à Jules Ferry, qui a oeuvré dix ans après l'instauration d'un régime démocratique, la IIIe République, pour qu'elle puisse être promulguée.
Lire la version consolidée au 21 mai 2011 (lien).

28 juillet 2011

DIV : Naissance de l'Alliance Numérique Aquitaine (ANA)

C'est le 26 juillet 2011, à l'initiative de l'Adeiso, que les différents représentants de la filière industrielle et économique des TIC et de l'électronique d'Aquitaine ont fondé l'Alliance numérique Aquitaine (ANA).
Sa mission est de structurer les deux filières dans la région.
L'Alliance numérique Aquitaine ambitionne de développer quatre secteurs stratégiques.
  • la santé : l'e-santé, biolocalisation, nouveaux équipements ... ;
  • l'électronique : innover au niveau des conversions énergétiques des éoliennes, les appareils électroniques pour mieux réguler les flux ... ;
  • le patrimoine numérique et son accessibilité ... ;
  • la cité digitale et ses services associés (mobilité ...).
L'ANA va également fonder un réseau d'entrepreneurs citoyens, composé de leaders locaux,pour aider de jeunes entrepreneurs du secteur à faire grandir leur "business", en leur apportant leur aide, leur expertise, leur réseau. De grands noms sont associés au projet : I2S, Keops, Be tomorrow, Cap-Gemini ...
Il s'agit de créer l'Alphanov des TIC et de l'électronique.

BIO - SHS : Neuroéthique

Le terme "neuroéthique" est dû à Leon Kass, médecin américain et spécialiste de bioéthique. Il s'agit de l’étude des implications éthiques des avancées en neurosciences et en neuropsychiatrie, dans et hors des laboratoires. La neuroéthique s’interroge donc sur leurs conséquences individuelles et sociétales, par exemple dans les domaines commercial, judiciaire, sécuritaire, militaire. Ainsi, la naissance d'un "neurodroit", c’est-à-dire l’utilisation des neurosciences au sein des tribunaux, commence à faire jurisprudence aux Etats-Unis, en Inde et en Israël. L’imagerie cérébrale est déjà utilisée pour juger de la responsabilité d’une personne, et certains proposent son recours comme détecteur de mensonge. Aux Etats-Unis, on peut être soumis à un examen IRM pour vérifier l’efficience et la fiabilité d’un candidat lors d’une d’embauche, ou même à la demande d’un assureur, pour s’assurer de l’absence d'anomalies, ou surtout de l'avancée de la dégénérescence avec l'âge. Le Centre d’analyse stratégique rédige aujourd'hui un rapport sur les implications scientifiques, légales et éthiques du neurodroit, pour la fin de l'année 2011.
En France la neuroéthique fait l’objet d’une décision législative :  l'article 16-14 de la loi de bioéthique du 6 août 2004, révisée en juin 2011 suite au rapport du député Jean Leonetti, a pour titre « Neurosciences et imagerie cérébrale ». Il dispose que « Sans préjudice de leur utilisation dans le cadre d’expertises judiciaires, les techniques d’imagerie cérébrale ne peuvent être employées qu’à des fins médicales ou scientifiques » et ceci heureusement « avec consentement de la personne révocable sans forme à tout moment ». L’article 16-15 qui interdisait la discrimination sur la base d’imagerie cérébrale, comme c'est le cas pour les données génétiques, a malheureusement été supprimé, ouvrant ainsi, ni plus ni moins, la porte à la possibilité de discipliner les personnes d'après leur cerveau. Si cette possibilité n'est pas réellement applicable aujourd'hui, on peut craindre qu'elle ne le devienne avec les progrès des technologies d'imagerie et leur diffusion avec la baisse des prix d'équipement et de fonctionnement.
De quoi rester vigilant.

07 juillet 2011

DIV : Bordeaux IDEX - Les clusters et l'i-MédiaLab

Voici la liste des 8 clusters d'excellence qui seront mis en oeuvre dans le cadre de l'IDEX (Initiative d'Excellence) de l'Université de Bordeaux (PRES), l'un des trois premiers sites universitaires nationaux :
  1. AMADEUS - Matériaux fonctionnels (Labex) - Thèmes : Matériaux, Nanostructures, Electronique organique ;
  2. BRAIN - Des molécules aux comportements pour comprendre le fonctionnement du cerveau et ses pathologies (Labex) - Thèmes : Neurosciences, Optique, Imagerie ;
  3. COTE - Ecosystèmes continentaux et côtiers (Labex) - Thèmes : Ecologie, Biologie, Chimie, Physique, Sciences Sociale ;
  4. LaScArBx - Apprendre de l'usage du monde par les sociétés anciennes (Labex) - Thèmes : Archéologie, Archéométrie, Pre/Proto-histoire, Paléoenvironnement, Anthropologie biologique ;
  5. TRAIL - Imagerie translationnelle : du laboratoire aux nouvelles thérapies (Labex) - Thèmes : Oncologie, Neurologie, Cardiologie, Pneumonie, Néphrologie ;
  6. CPU - Des systèmes à vivre et à produire, certifiés, fiables et sécurisés - Thèmes : Informatique, Mathématiques, Signal, Communication, Production ;
  7. LaPHiA - Sciences et technologies du LASER - Thèmes : Laser, Photonique, Matière, Procédés, Energie ;
  8. METISS - Mondes en transition : Internationalisation, Santé et Société - Thèmes : Science politique, Santé publique, Droit, Economie, Géographie.
Au delà, un campus numérique s'appuie sur le projet I-MediaLab selon 4 orientations : 
  1. l'appui au développement d'une offre de formation à distance ;
  2. la consolidation du patrimoine numérique de l'Université et de sa diffusion ;
  3. le développement d'outils pour la formation des langues : projet Maison des Langues et des Cultures (MILC) ;
  4. le développement d'outils numériques pour la recherche : projet des Humanités Digitales (Digital humanities : DH).
C'est principalement dans le projets CPU, Patrimoine numérique et Digital humanities que l'ENSC s'inscrit dès à présent, en mettant à disposition ses programmes de formation, de transfert et de recherche STIC/SHS en ingénierie cognitique et sa future plateforme technologique de Talence-Béthanie dans l'IDEX.

04 juillet 2011

DIV : Bordeaux IDEX

Bordeaux, Strasbourg et Paris Sciences-&-Lettres (PSL) ont été sélectionnés au titre des « initia tives d'excellence » (Idex), dans le cadre du grand emprunt.
C'est Laurent Wauquiez, nouveau Ministre de l'Enseignment Supérieur et de la Recherche, qui l'annonce officiellement ce lundi après-midi, lors d'un déplacement à Bordeaux avec René Ricol, le commissaire général aux investissements. Ces premiers « campus d'excellence » à vocation mondiale, doivent recevoir près d'un milliard d'euros chacun.
Le principe est d' "... aider quelques pôles universitaires à affronter le XXIe siècle".
Le pôle bordelais, qui réunit notamment les quatre universités de Bordeaux et les écoles d'ingénieurs, est ..."solide en recherche [... et] propose une refonte complète et harmonisée de son cycle de licence, un volet numé­rique innovant avec le MediaLab ... [en étant] très en phase avec le monde de l’entreprise".
Lien vers le site de l'IDEX de Bordeaux.

17 juin 2011

TIC : Texture des écrans tactiles

Affiner les sensations de la texture des écrans tactiles pour donner à l'utilisateur l'impression de toucher une surface de rugosité ou d'adhérence différente permet de favoriser les interactions sans regarder l'écran, est le projet d'un groupe de chercheurs canadiens de l'université de British Columbia, américains de la Northwestern University, et néo-zélandais de l'université de Canterbury.
Les chercheurs s'intéressent aux frictions programmables, qui permettent de paramétrer un caractère "adhérent" ou "rugueux" de l'écran. C'est un système de vibration qui donne l'illusion d'une différence de texture.
Le principe repose sur une superposition de deux couches et d'une série de capteurs. La première couche est une dalle LCD classique et la seconde est composée d'actionneurs piézoélectriques, qui sont des micro-éléments convertissant un signal électrique en signal mécanique. Des capteurs de position installés le long de l'écran permettent de repérer les mouvements des doigts sur la première couche. Ce dispositif permet de créer un "calque d'air" invisible entre le doigt et l'écran, actionné et modifié sous le doigt par les vibrations à hautes fréquences des actionneurs piézoélectriques.
Ce dispositif, appelé T-Pad (Tactile Pattern Display), a été présenté le 11 mai 2011 à la ACM Conference on Human Factors in Computing Systems à Vancouver (Canada) - résumé.
Selon les auteurs, le réglage d'un réveil qui s'effectue par un défilement vertical des heures et minutes sur un iPhone est facilité par des frictions qui s'accroissent au fur et à mesure que l'utilisateur fait glisser sont doigt sur l'écran, en fonction de la vitesse à laquelle il fait tourner la roue de réglage et de la proximité de l'heure cible. La sensation de glissement ou de dureté améliore l'interaction. Les utilisateurs semblent préférer ce type de toucher qui permet plus de réalisme, en favorisant la sensation tactile plus intuitive que le contrôle visuel.

Accès à l'article ACM.

SHS : Le handicap dans le Monde.

L'OMS et la Banque Mondiale publient un premier rapport sur le handicap dans le Monde. 
Présenté au public le 8 juin 2011 à Paris, puis le 9 à New-York (USA) par Margaret Chan (discours), directeur général de l’Organisation Mondiale de la Santé, ce rapport dénombre plus d’un milliard de personnes atteintes de handicap, dont la majorité rencontre des obstacles à tout moment et 110 à 190 millions sont confrontés à de graves difficultés dans la vie quotidienne. Le rapport montre que les handicapés constituent une population marginalisée, voire stigmatisée, discriminée ou même simplement délaissée par la société.
Ce sont les conditions de manque de soins, de défaut de santé, de services de réadaptation adéquats, d'éducation, de difficulté voire d'impossibilité d’accéder aux transports et aux bâtiments tels que les écoles et les lieux de travail, ou l'accès aux technologies de communication qui sont dénoncées.
C'est la mise en oeuvre de la Convention relative aux droits des personnes handicapées (CRDPH) de l'ONU, pourtant entrée en vigueur en 2007, qui doit être mise en oeuvre d'urgence par les états signataires ; c'est aussi aux citoyens de ces états a les obliger à cette mise en oeuvre.
En effet, si le handicap englobe des réalités différentes, avec des causes aussi variées que le diabète, les accidents de la route, les blessures par armes, la maladie, le vieillissement, etc., il s'agit d'un problème universel, concernant tous les pays sans épargner les plus riches (OCDE).
Donnant des bases claires à la définition du handicap, le rapport montre qu'il s'appréhende en termes de «situation physique et d'environnement, avec des obstacles érigés par la société». Le rapport émet une série de recommandations et appelle à ce que les personnes handicapées aient accès à tous les services de base de la vie en société (santé, éducation, accessibilité, culture, économie, politique, justice, sécurité, libertés individuelles, etc.), mais aussi à des investissements dans des programmes spécifiques que doivent mettre en oeuvre sans tarder les états signataires. Le but est de permettre à tout citoyen handicapé de mener une vie normale et aidée, tout en améliorant la recherche et la formation, la sensibilisation des administrations et du grand public, et la lutte contre toute discrimination.
Encore beaucoup de chemin reste donc à faire.

Télécharger le rapport (lien).
Fiche thématique "handicap et développement" de la Banque Mondiale (lien).
Convention relative aux droits des personnes handicapées de l'ONU (lien).

30 mai 2011

DIV ; i2c partenaire de Talence-Innovation.

L'agence de développement économique du Sud Bordeaux "Talence Innovation Sud Développementlance son concours annuel "jeunes entrepreneurs créateurs"
Soutenu par le Fonds social européen, la Communauté urbaine de Bordeaux, les communes de Talence, Gradignan, Villenave d'Ornon et Bègles, en en partenariat avec les junior-entreprises du site de Bordeaux, ce concours permet un soutien financier ou un accompagnement pour les porteurs de projets innovants. 
Cf.: http://www.jeunes-entrepreneurs.org
La junior de l'ENSC, i2c, a signé dans ce cadre le 26 mai 2011, avec 6 autres junior-entreprises, un partenariat avec Talence Innovation Sud Développement pour la valorisation de l'innovation.

01 mai 2011

DIV : I2c, la junior de l'ENSC remporte le label "meilleur espoir" 2011

La Junior Entreprise de l'ENSC remporte ce 30 avril 2011 le label "meilleur espoir" de la Confédération Nationale des Junior-Entreprises (CNJE).

Créé depuis 2005, et parrainé par l'Afnor, la société Ferrero et le Journal des Grandes Ecoles, anciennement chalenge puis label "meilleur espoir", le label dstingue annuellement la Junior-Entreprise la plus prometteuse parmi les jeunes Juniors et les Juniors en restructuration. (liste des lauréats des années antérieures - liste des lauréats des labels 2011).

Lire l'interview des responsables de i2c.
Aller au site de i2c.
Le blog du SIA-JE.
La CNJE sur Wikipedia.


Une junior aux mains bleues

27 avril 2011

DIV : Fonction épiphanique

Du grec ancien Ἐπιφάνεια (Epiphaneia), apparition, dérivé du verbe ἐπιφαίνω (epifainô), faire voir, montrer, manifester, issu de épi-, du grec ancien ἐπί- de ἐπί (epi) « sur, par dessus, au-dessus » et -phanie, du verbe grec ancien φαίνω (phaínô) « se manifester, apparaître, être évident ».
Une fonction épiphanique est par exemple l'imagination, c'est-à-dire cette invention qui part du néant ou qui recompose recomposition le rée.
Cynthia Fleury s'entretient avec Raphaël Enthoven au cours de l'émission «Imagination» d'Arte (lien).

21 avril 2011

DIV : les coulisses de la programmatique scientifique.

France 5 a pésenté un documentaire de Marie Ka qui a suivi le financer et l'industriel en charge de l'attribution des 35 milliards de l'emprunt aux "meilleurs" du programme d'excellence d'investissement "d'avenir".
Les hommes du grand emprunt
mardi 19 avril - 21h30 - sur la 5 (Vidéo intégrale disponible sur site jusqu’au mardi 26 avril 2011).
Lien : http://www.pluzz.fr/les-hommes-du-grand-emprunt.html

16 avril 2011

DIV : i2c, la junior de l'ENSC, en finale pour le label "meilleur espoir" 2011

La Junior Entreprise de l'ENSC a candidaté en mars dernier au label "meilleur espoir" 2011 de la Confédération Nationale des Junior-Entreprises (CNJE).
Après délibération et expertise, i2c a été classée parmi les 3 finalistes.

Restent en course :
La suite, à Paris, le 20 avril 2011 pour la grande finale.

i2c ne cesse de prospérer, et c'est grâce à l'enthousiasme et la motivation de tous les élèves de l'école.
Tous les voeux des enseignants et personnels, des administrateurs et des entreprises qui supportent l'ENSC, ses élèves et sa Junior.

15 avril 2011

DIV : Une petite bouteille de Bordeaux.

Une question souvent posée ...
pourquoi une bouteille de 0,75 litre ?
A Bordeaux, où elle a été inventée, la bouteille bordelaise était souvent exportée en Angleterre.
Le double gallon anglais correspondant à 4,5 litres, le 12ième du double gallon est donc la bouteille, et les bouteilles vont par caisses de douze (12 bouteilles de 0;75 litre = un double gallon).
Et un tonneau, de 900 litres ... Fait 1200 bouteilles (douze cents bouteilles) ou 100 caisses de 12. Quant à la barrique bordelaise, le 1/4 de tonneau, avec ses 225 litres, elle contient 300 bouteilles, c'est à dire 300 bouteilles ou 25 caisses, soit 50 gallons de l'époque (soit 25 gallons impériaux d'aujourd'hui).
Que des chiffres ronds, pour faciliter le commerce.
Et voilà ...