12 novembre 2011

DIV : 7 merveilles de la nature.

A l'instar du classement des "7 nouvelles merveilles du Monde", établies sur le principe des "7 merveilles du monde antique" (établies par Philon de Byzance), et avant le classement des "7 villes merveilleuses", ou "Wondercities", le classement des "7 merveilles de la Nature" a été publié par la fondation suisse New7Wonders.
Par ordre alphabétique, les plus beaux endroits du monde seraient, parmi 28 finalistes :
Pourquoi pas, et à quand, les "7 merveilles de la littérature", les "7 merveilles de l'art", "7 merveilles de la sciences " et les "7 merveilles de la technologie" ? Encore un peu d'imagination, Monsieur Werber !

11 novembre 2011

DIV : C'est le moment "1" à la minute près.

Il est onze heures onze, ce vendredi 11 novembre 2011.
Autrement dit ou, pour l'occasion, écrit : 11/11/11 11:11
Rendez vous l'an prochain, dans 13 mois et 71 minutes de plus ... ou dans un siècle exactement !

09 novembre 2011

IA - SHS : Du sérieux dans les jeux - Revue d'Intelligence Artificielle.

La Revue d’Intelligence Artificielle (RIA) publie ous la direction de Jérome Dupire, Jean-Marc Labat et Stéphane Natkin, un numéro spécial sur les "Serious Games".
Dans ce domaine, la France accompagne le mouvement international avec les américains, canadiens, anglais, allemands ou japonais. L'activité du domaine est d'ailleurs loin d'être négligeable, représentant un réel enjeu économique.
Intitulé "Jeu sérieux, révolution pédagogique ou effet de mode ?", RIA propose 6 articles questionnant les enjeux et problèmes soulevés par les serious games.
Au sommaire :
Du jeu sérieux au jeu utile - Introduction - par Jérome Dupire, Jean-Marc Labat et Stéphane Natkin;
Les sciences cognitives jettent un pont entre éducation et jeux sérieux - par Elena Pasquinelli;
Evaluation d’un jeu sérieux pour l’apprentissage de la programmation - par Mathieu Muratet, Patrice Torguet, Fabienne Viallet et Jean-Pierre Jessel;
Usage d’un jeu sérieux dans l’enseignement secondaire. Modélisation comportementale et épistémique de l’apprenant - par Eric Sanchez;
Améliorer la motivation dans les environnements d’apprentissage basés sur le jeu - par Thibault Carron et Jean-Charles Marty;
Techniques d’adaptation dans les jeux ludiques et sérieux. Etat de l’art - par Nadia Hocine, Abdelkder Gouaïch, Ines Di Loreto et Lylia Abrouk;
Authenticité d’un jeu sérieux. Modèle pour la conception et l’analyse - par Celso Gonçalves, Marie-Caroline Croiset, Muriel Ney, Nicolas Balacheff, Claudine Schwartz et Jean-Luc Bosson.
Accéder à la présentation du volume (.pdf).
Se procurer le numéro (lien).

08 novembre 2011

IA : Un chien d'aveugle en dur.

La firme NSK du japon vient de développer le NR003, qui est un chien robotique destiné aux aveugles.
Ce prototype de "dogbot" se présente comme une quadrupède, dont le malvoyant saisi une anse de collier, et qui est doté d’un capteur Kinect.
Kinect est un néologisme issu de kinetic et connect. Ce capteur est bien connu du monde du jeu vidéo depuis 2007, année de sa commercialisation. Il s'agit d'un périphérique de la console de jeux vidéo Xbox 360, qui permet d'interagir avec elle sans utiliser de manette ou de clavier, directement grâce à une caméra et un capteur sonore. La caméra utilise des techniques d’interaction développées par PrimeSense, et elle permet la reconnaissance d’image et de mouvement. Kinect permet ainsi d’interagir par commande vocale ou par geste.
Le capteur permet au robot-guide d’identifier des obstacles et de les franchir avec plus ou moins de rapidité.
NSK envisage de doter son dogbot d'un système de commandes vocales et de le doter d’un GPS permettant une géolocalisation interactive.
Le robot est actuellement en phase prototype, et bien peu adaptable à une utilisation fluide des déplacements des malvoyants. Néanmoins, on peut saluer la performance et prévoir des développements qui permettent d'espérer des dogbots en remplacement des chiens d'aveugles les prochaines années. Bien qu'il ne faille plus lui "apprendre le trottoir" ni lui servir sa "gamelle", restera cependant à savoir si les relations avec ce tas de ferraille seront aussi conviviales qu'avec un vrai "meilleur ami de l'homme".
Voir une vidéo (lien).

06 novembre 2011

IA - SHS : Du Web 1 au Web 5 - le 3, ça coince.

Du Web 1.0 au Web 5.0, le passage au Web 3.0 n'est pas celui que l'on attendait.
Lire la chronique de Jean-Marie Le Ray (lien), expert du monde web, sur l'excellent site "presse citron" et sur "humain sémantique".

DIV : Après "Aerospace valley", Agrimip devient pôle inter-régional Aquitaine Midi-Pyrénées.

Le pôle de compétitivité "Agrimip Sud-Ouest" devient une nouvelle structure inter-régionale associant Aquitaine et midi-Pyrénées, à l'exemple du pôle de compétitivité Aerospace Valley, pour l'excellence et l'innovation agro-industrielle.
Issu du développement du pôle midi pyrénéen AgriMip et à son extension à la région Aquitaine, le pôle de compétitivité a été officialisé ce 4 novembre 2011 lors de l'Assemblée générale de la Fédération Régionale des Coopératives Agricoles (FRCA).
Plus de détails (lien).

IA - SHS : Les nouvelles technologies : révolution culturelle et cognitive selon Serres

« Les nouvelles technologies nous ont condamnés à devenir intelligents ! ». C'est ce que postule Michel Serres...
Le 11 décembre 2007, à l'occasion des 40 ans de l'INRIA, le sociologuqe Michel Serres a donné une conférence sur la révolution culturelle et cognitive engendrée par les nouvelles technologies.
Pour lui, la révolution informatique change notre rapport au monde, comme avant elle l'écriture, puis l'imprimerie l'avaient fait. Une conséquence inévitable de cette révolution est le changement de notre rapport au monde.
La révolution cognitive générée par la révolution de l'information relève notamment de la dépersonnalisation et de l'externalisation de la mémoire, entrainant aussi inventivité, nouvelle intelligence et participation à cette nouvelle Histoire.
Visionner la vidéo - 1 heure - sur le site de culture scientifique "interstices" (lien).
Écouter la conférence en MP3 (lien).

05 novembre 2011

IA : Un UAV pour le viaduc de Millau.

Le viaduc de Millau est aujourd'hui l'ensemble routier le plus haut du Monde. Ce pont à haubans franchit la vallée du Tarn (Aveyron, France), sur une brèche de 2460 mètres de longueur avec 270 mètres de profondeur au point de surplomb le plus important. Il permet ainsi à l’autoroute "Méridienne" de relier, au sud de Millau, Clermont-Ferrand à Béziers. Oeuvre de l’architecte Norman Foster, il a été construit pour 320 millions d’euros par le groupe Eiffage, et mis en service en décembre 2004.
Bien que garanti pour 120 ans, l'ouvrage subit une "grande visite" d'entretien tous les six ans. C'est dans cette perspective que Eiffage a missionné la société Diadès qui adjoindra à la vingtaine d'ingénieurs, techniciens et experts, un drone doté de moyens de transmission et d'enregistrement des photos et vidéos. Ce dispositif technique permettra un diagnostic détaillé de pièces inaccessibles avec un géo-référencement temps réel.
L'UAV U-130 a été conçu par la société de robotique aérienne Novadem et peut voler à plus de 200 m de hauteur, en vol dynamique ou statique, par condition de beau temps.

01 novembre 2011

IA - SHS : Comment débattre des nouvelles technologies ?

Le Centre d'analyse stratégique propose un colloque

Comment débattre des nouvelles technologies ?
Mardi 8 novembre 2011 de 14h30 à 18h30
Maison de la Chimie, Salle 162
28, rue Saint-Dominique - 75007 Paris

Comment notre société peut-elle débattre du développement des technologies et des innovations émergentes, afin d’aboutir à leur développement responsable ? Quels principes doivent nous guider dans l’organisation des concertations correspondantes ?
Inscription (lien).

BIO : Le posthumanisme est-il en marche ? Reprogrammation de cellules âgées en cellules souches.

Le projet posthumaniste de maîtrise du vieillissement est-il en train de prendre de la concrétude ?
Des chercheurs de l'Institut de génomique fonctionnelle de l'université de Montpellier 1 viennent de publier dans le numéro du 1er novembre 2011 (lien) de la revue Genes & Development des travaux portant sur la possibilité d'effacer les marques de vieillissement des cellules de donneurs âgés de plus de 100 ans, et de les reprogrammant au stade de cellules souches, montrant ainsi que le processus du vieillissement est biologiquement réversible : il est possible de renverser le cours spontané du vieillissement.
En 2006-2007, l'équipe japonaise de Shinya Yamakanaka a montré qu'on pouvait obtenir des cellules souches non embryonnaires (Induced Pluripotent Stem Cells - IPSC) à partir de cellule adultes littéralement "reprogrammées" grâce à un "cocktail" de quatre gènes transportés par des virus qui vont s'intégrer au noyau (lentivirus). Ces cellules "artificiellement" dopées présentent les mêmes potentialités que des cellules souches embryonnaires et sont donc pluripotentes, c'est-à-dire capables de se différentier en différents tissus anatomo-fonctionnels selon les besoins.
On pensait que la reprogrammation des cellules adultes humaines en cellules souches était pourtant contrainte par la limite de la sénescence. la frontière est aujourd'hui tombée et les cellules ayant atteint l'arrêt de leur propre capacité de reproduction par prolifération en culture, peuvent être de la même manière reprogrammées.
Au delà des applications potentielles pour la réparation des organes malades, on pense évidemment au maintien d'une capacité cicatricielle, aux greffes de tissus tels que la peau ou les neurones, et au maintien artificiel d'une situation de combat du vieillissement. Cette reprogrammation à partir de propres cellules du receveur contourne d'ailleurs le problème éthique de l'utilisation potentielle de cellules souches d'embryons, jusqu'ici interdite.
La publication rapporte comment les chercheurs ont dans un premier temps multiplié des cellules de la peau (fibroblastes) d'un donneur de 74 ans pour atteindre l'état de sénescence et l'arrêt conséquant de la prolifération des cellules. La reprogrammation in vitro de ces cellules étant alors impossible avec la préparation classique (à base de quatre facteurs génétiques : OCT4, SOX2, C MYC et KLF4 utilisés par les chercheurs japonais), les chercheurs montpellierains ont ajouté deux autres facteurs génétiques (NANOG et LIN28) pour un nouveau "cocktail" à six ingrédients. Les cellules sénescentes reprogrammées ont réacquis les caractéristiques de cellules souches pluripotentes de type embryonnaire, en ne conservant aucune trace de leur vieillissement antérieur. Tout se passe comme si les marqueurs de l'âge des cellules ont été effacés, avec l'acquisition d'une capacité de prolifération et une longévité accrues.
Ce cocktail a également été testé sur des cellules de donneurs de 92 à 101 ans, avec le même résultats, montrant que l'âge n'est plus une barrière à la reprogrammation cellulaire.
Si le débat sur l'utilisation de cellules embryonnaires est ainsi contournée, s'ouvre aujourd'hui celui de la réparation des organes ou des tissus chez des sujets pouvant ainsi espérer reculer indéfiniment le vieillissement de leur corps.
La porte est-elle aujourd'hui ouverte sur le posthumanisme ? En tous cas, ce résultats ne manqueront pas d'alimenter les débats des partisans de l'homme augmenté.
Résumé de la publication (lien).
Les équipes citées appartiennent aux institutions montpelliéraines :
Institut de génomique fonctionnelle (Inserm, Cnrs, Université de Montpellier) - Institut de génomique humaine (Cnrs) - Département de génétique du CHU Arnaud de Villeneuve - Institut de recherche en biothérapie (CHU Saint-Eloi et Université de Montpellier).

28 octobre 2011

SHS : D'Alembert s'interroge sur les pratiques du numérique.

Le Centre Interdisciplinaire d'Étude de l'Évolution des Idées, des Sciences et des Techniques d'Alembert (CIEEIST) de l'Université Paris Sud organise son séminaire annuel autour des notions de Nouvelles pratiques et cultures du numérique dans les sciences et les technologies.
Le séminaire aborde l'émergence de ces nouvelles pratiques et cultures dans la production du savoir scientifique, sa validation et sa circulation, sous l'influence des récentes évolutions du numérique en particulier afférentes à Internet.

Au programme :

  • Modification de la manière de construire et partager le savoir.
  • Science participative, apprentissage collaboratif.
  • Les observatoires virtuels.
  • Nouveaux modes de publication scientifique, de validation et d'accès.
  • Logiciel libre, ressources libres, données libres.
  • Les mathématiques à l'heure du numérique.
  • Les changements dans les mathématiques appliquées.
  • Nouvelles problématiques et mise en réseau des données en physique des particules.
  • Web sémantique, web social.
  • Enseignement et apprentissage des sciences
  • Biologie et numérique.
  • Visualisation de données.

Renseignements - programme (pdf).

SHS : Nouveaux usages d’Internet, nouvelle gouvernance pour l’Etat

Colloque : Nouveaux usages d’Internet, nouvelle gouvernance pour l’Etat
Lundi 7 novembre 2011 de 8h30 à 13h
Amphithéâtre Boris Vian - Grande Halle de la Villette, 211 avenue Jean Jaurés - Paris XIXème.
L'Open Data est l'un des thèmes phares qui sera abordé lors de cet évènement en présence de nombreuses personnalités et en collaboration avec Etalab.
Programme du colloque (lien).

IA : Le guépard dévore les données.

Jubatus est le nom scientifique du guépard (Acinonyx jubatus). C'est aussi le nom d'une nouvelle technologie d'analyse en temps réel de très gros volumes de données développé par Nippon Telegraph and Telephone (NTT), l'un des leaders japonais des technologies de l'information connu récemment pour avoir doublé la vitesse et détenir le record de transmission par fibre optique, et par Preferred Research, la branche R&D de Prefered Infrastructure, une entreprise japonaise d'informatique et télécom du Hongo Campus de l'Université de Tokyo.
Classiquement, les systèmes d'analyse de données reposent sur un traitement séquentiel "par lots" (batch). Un tel type de traitement n'est pas assez efficace pour les applications massives temps-réel, puisque le batch demande à un serveur d'attendre que toutes les données précédemment reçues soient traitées avant de commencer sa propre analyse.
Les systèmes précédents qui traitent de ce problème d'"explosion des données" sont par exemple Hadoop [1], un framework de développement communautaire supporté par Yahoo!, permettent de diviser des données en clusters selon un procédé de type MapReduce (système conçu par Google) et de les proposer indépendemment à différents serveurs.
Le principe de Jubatus est une analyse continue "distribuée" entre les serveurs. Pour surmonter le problème de la communication entre les serveurs, Jubatus agrège de manière particulièrement flexible des résultats intermédiaires (appelé MIX). Au lieu d'effectuer une comparaison des résultats d'analyse uniquement à la fin de chaque itération, le système optimise le moment où cette opération sera réalisée de façon à augmenter la productivité de chaque serveur et la rapidité de début de calcul. Le système repose sur une architecture dite "pluggable" : les moteurs et modules d'analyse disposent d'interfaces communes. Ils peuvent alors être simplement utilisés comme "briques logicielles".
L'objectif de Jubatus est clairement l'analyse temps réel des informations Internet, avec des projets sur l'étude et la catégorisation instantannée des messages des réseaux sociaux types à des fins de filtrage ou de "recherche floue", dans la détection immédiate de tentatives terroristes ou de cyber-attaques.
Le framework sera prochainement mis à disposition du public en open-source, avec l'espoir ouvertement affirmé de créer une communauté d'utilisateurs

IA : Définition du Cloud Computing par le NIST (USA)

Mandaté par le Congrès américain via le Federal Information Security Management Act (FISMA 2002), notamment pour établir des standards et des directives dans le domaine de l'informatique à l'attention des agences fédérales américaines, le National Institute for Standards and Technology (NIST) a publié en septembre 2011 un rapport de définition finale du Cloud Computing (Informatique dans le nuage) et les recommandations pour le CC (lien).

Le cloud computing possède 5 caractéristiques essentielles :

  1. un service en libre-service à la demande;
  2. accessible sur l'ensemble d'un réseau;
  3. avec une mutualisation des ressources;
  4. rapidement élastique (adaptation rapide à une variation du besoin);
  5. et mesurable (mesure et affichage de paramètres de consommation).

Le NIST distingue 3 niveaux de service :

  1. le logiciel en tant que service (Software as a Service - SaaS) - par exemple un usager "loue" un logiciel de comptabilité, en ligne, à la demande, chez un prestataire externe;
  2. la plateforme en tant que service (PaaS) - une solution externe qui propose une suite logicielle et les outils d'intégration et de suivi, tels qu'un serveur web (Linux+Apache+MySQL+Php);
  3. l'infrastructure en tant que service (IaaS) - la totalité de l'infrastructure (ressources matérielles) est externe, par exemple une capacité de stockage et une capacité de calcul à la demande sur un réseau.

Le CC possède 4 modèles hiérarchiques de déploiement :

  1. le nuage privé (au sein d'une même organisation);
  2. le nuage communautaire (réservé à une communauté);
  3. le nuage public (ouvert au grand public);
  4. le nuage hybride (composition de plusieurs types de nuages).

Ce processus de standardisation implique un grand nombre d'institutions d'Etat et une large partie du secteur privé économique, administratif et industriel. La prochaine étape des travaux prévus est celle de l'élaboration des normes, notamment en termes d'échange de données, et celle des méthodes pour éviter le "lock-in" (emprisonnement) et des méthodes de sécurité.
Ce rapport sera présenté et discuté lors du prochain "Cloud Computing Forum & Workshop IV" qui se tiendra du 2 au 4 novembre 2011 à Gaithersburg (Maryland - USA).

Accès au rapport du NIST (pdf).

20 octobre 2011

IA : Colloque "Ingénierie numérique" : ruptures et technologies émergentes

Le Colloque Ingénierie Numérique «Entre ruptures technologiques et progrès économique et sociétal» est organisé par le pôle de compétitivité parisien des contenus et services numériques "Cap Digital".
Il se tiendra au Conseil Économique, Social et Environnemental à Paris (Palais d’Iéna) le vendredi 25 novembre 2011.
Ce colloque permettra de croiser les approches technologiques, économiques et sociétales, à propos des avancées et ruptures de certaines technologies-clé du numérique (virtualisation, immersion-3D, modélisation et simulation, masses de données), ainsi que des opportunités et des conditions de leur mise en œuvre à partir de l’expérience de quelques grands secteurs industriels (transports, chimie-matériaux, industries agro-alimentaires).
Organisé sous forme de tables rondes thématiques, le colloque fait intervenir chercheurs et industriels, grands groupes et PME, acteurs des pôles de compétitivité.
MATIN : Ruptures et technologies émergentes : virtualisation et immersion 3D, modélisation et simulation, masses de données ;
APRES-MIDI : Contribution des ruptures technologiques à l’activité industrielle : Secteurs des Transports, de la Chimie et des Matériaux, et Agro-alimentaire.

SHS : Les réseaux sociaux en débat.

L’Institut de Recherches Economiques et Sociales sur les Télécommunications (IREST) organise une réunion-débat sur les réseaux sociaux le jeudi 8 décembre 2011 de 18:00h à 20h à Telecom ParisTech (46, rue Barrault 75013 Paris).

Les réseaux sociaux : Quelles pratiques ? Quels usages ?
Débat animé par Anne-Marie Laulan (professeur émérite à l'Université Bordeaux 3),
avec : Alexandre Coutant (Université de Franche-Comté et ISCC), Bruno Salgues (Institut Télécom), Thomas Stenger (Université de Poitiers et ISCC), Jean-Michel Vergne (BlueKiwi Software).

infos et réservation en ligne (lien).

IA - SHS : Culture numérique - le réseau.

Culture Numérique est un réseau de chercheurs issus de différents domaines scientifiques, qui s'intéressent aux problématiques posées par les usages des technologies du numérique.
Culture Numérique organise chaque année le Colloque scientifique "Ludovia", lors de la dernière semaine d'août,
à Ax les thermes (Ariège).
Accès au site (lien).

DIV : Infuser les idées - un blog à suivre ...

L’Infusoir est le blog de Mélodie Faury, qui s'illustre aussi dans le Portail "Science et société" et "les atomes crochus". Elle le présente ainsi :
Une approche réflexive sur des sciences ? Faisons infuser nos idées… Mettons dans notre théière quelques pincées de réflexion, trois grammes de bioéthique, un zeste de politique, un parfum d’avenir ; en prendrez-vous une tasse ?
Un point de départ : questionner ma discipline d’origine, la biologie moléculaire et cellulaire.
Qui m’emmènera bien plus loin, aux croisements de l’histoire, de l’épistémologie, de la philosophie et de la sociologie des sciences… avec toujours au centre la question des relations entre sciences et société.
Pour une approche réflexive de la science, où communication scientifique, notamment via la vulgarisation, et culture scientifique auront certainement un place de choix.

IA - SHS : "Big Brother" impossible à arrêter !

"Surtout les réseaux sociaux, planétaires avec des ramifications infinies, et la géolocalisation, invisible et irréversible. Il est prévu qu'un jour les nanotechnologies soient utilisées dans les systèmes d'information. On se retrouvera alors avec des milliers, voire des millions, de puces RFID [de radio-identification, NDLR] invisibles à l'œil et disséminées partout à l'initiative du secteur public ou privé. On regrettera bientôt l'idée du bon vieux Big Brother, visible et ventripotent. Avec ces milliers de "nano-Brothers" invisibles qui se promènent partout dans la nature, on sera alors face à un phénomène irréversible. Les systèmes d'informations verront et entendront à distance. Nous n'aurons plus jamais la certitude absolue d'être seul, et serons toujours entendu, vu, surveillé... C'est absolument insupportable !"
Déclaration de Alex Türk, sénateur du Nord et président démissionnaire de la Commission nationale de l'informatique et des libertés (Cnil), dans le Nouvel Obs (lien).

Voir également sur ce sujet : Tous fichés ... (Nouvel Obs)

19 octobre 2011

SHS - BIO - IA : pour une définition de l'interdisciplinarité

Séminaire Intersciences
Centre François Viète
Université de Nantes

28 octobre à 14h

Édouard Kleinpeter de l'Institut des Sciences de la Communication du CNRS.
«Pour une définition de l’interdisciplinarité»
http://www.sciences.univ-nantes.fr/cfv/

16 octobre 2011

DIV : Les dimensions de l'univers physique.

En musique, pour comprendre les dimensions physiques, de l'immensité du cosmos aux espaces les plus fins de la matérialité, le site "The Scale of thé Universe" donne à voir la physique sous un jour amusant.

15 octobre 2011

IA : Anatomie du Web

La société Telegeography récolte et analyse depuis plus de vingt ans les données du marché des télécommunications pour en donner des illustrations compréhensibles, en déduire les grandes tendances, et donner des conseils aux entreprises et organismes du secteur.
Telegeographie vient de publier la carte interactive des câbles sous-marins et des infrastructures gigantesques qui sous-tendent notamment le Web mondial.
D’autres schémas sont également publiés, tels que celui de la morphologie du net.
Voir la carte interactive (lien).

07 octobre 2011

DIV : ABECédaire - appel à contributions

Pour faire évoluer l'ABÉCédaire, chaque lecteur est invité à rédiger et communiquer des pages de documentation et de définition des grandes notions utiles aux étudiants de l'ENSC.


Merci de votre contribution collective.

06 octobre 2011

BIO : Un laboratoire sur une puce.


La biopuce « mChip » conçue par Samuel Sia et ses collègues du département de biological engineering de l’Université de Columbia, est un véritable laboratoire d’analyses portable. Cette puce a un coût de production d'environ un dollar, et a la capacité de diagnostiquer (pour l'instant) dix maladies différentes simultanément.
Le système nécessite une goutte de sang déposée sur une carte dans laquelle est insérée la biopuce. La lecture se fait immédiatement sur un appareil électronique d’une centaine d’euros, comme un lecteur de cartes bancaires.
Le principe repose sur un dispositif qui fonctionne sur un système de nano particules d’or et d’argent couplées avec une puce électronique. En fonction de la concentration d’agents pathogènes, le film de la biopuce est plus ou moins opaque.
Testée sur une centaine de patients rwandais, l’efficacité de « mChip » est surprenante pour sa facilité et sa fiabilité (proche de 100%). Cette découverte ne manquera pas de modifier profondément le domaine de l'analyse biologique et médicale, avec une commercialisation facilitée qui peut être envisagée directement chez le médecin ou dans les pharmacies ou parapharmacies, avec un dépistage sur place.
Résumé dans Nature Medicine, n°17, pp. 1015–1019 (2011) doi:10.1038/nm.2408

DIV : Internet : toute une histoire ! (conférence)

Internet : toute une histoire !
Conférence de Serge Soudoplatoff.
Jeudi 13 octobre 2011 à 18h
A Cap Sciences
Hangar 20 des quais de Bordeaux
"De tout temps, nous avons inventé des nouveaux outils pour transmettre, partager et conserver nos connaissances et nos idées : l'écriture, l'alphabet puis le livre, l'imprimerie… et aujourd’hui Internet.
Serge Soudoplatoff vient nous parler de ce phénomène qui a si vite envahi nos vies que l’on oublie de s’interroger : quelle est l'origine d'Internet ? Comment fonctionne-t-il ? Pourquoi bouleverse-t-il tant notre quotidien et quel futur nous construit-il ?"

Entrée libre et gratuite.

BIO - IA : Cybersinges – des hybrides contre le handicap.

L'équipe de Miguel Nicolelis, du Duke University
Center for Neuroengineering de Caroline du Nord (USA) a testé pour la première fois avec succès une interface brain-computer-brain (BMBI) chez deux singes. Grace à un implant fixé dans le cerveau des singes, les animaux ont appris, sans bouger leur propre corps, à mouvoir un bras avatar et à sentir des objets (virtuels également) (voir la vidéo).
L'implant électronique a été fixé dans le cortex moteur. C'est donc exclusivement par la pensée que les singes bougent le bras virtuel, et ont appris en retour et sentir la texture des objets qu'ils touchent ainsi, à travers des signaux électriques envoyés dans leur cerveau.
L'enjeu d'une telle étude est la conception de puces permettant à terme à des patients paraplégiques de contrôler un exosquelette couvrant le corps entier, et qui pourrait ainsi mouvoir les membres paralysés via l'implant, tout en leur permettant en retour des sensations tactiles, voire kinestésiques, envoyées sous forme électrique à l'implant.
Cette étude a été publiée dans la revue Nature du 5 octobre 2011 (résumé), et relayée par le Guardian (lien).

DIV : Steve Jobs est mort.

03 octobre 2011

BIO : Chaud au cerveau, baillez un coup !

Phénomène physiologique réflexe, le bâillement est souvent associé à l'ennui ou à la fatigue. Il provoque une profonde respiration.
Chacun d'entre nous baille environ 5 à 10 fois par jour. La fréquence est accrue au réveil, après le repas méridien et le soir avant le coucher.
Une étude physiologique menée à Tucson (Arizona : le pays de Geronimo - 1829-1909 - chef apache dont le vrai nom était Go Khla Yeh : celui qui baille), laisse penser que le bâillement pourrait aussi jouer un rôle de régulateur thermique pour le cerveau.
Andrew Gallup, du Département d'Ecologie et de biologie évolutive de l'université de Princeton, et son coauteur Omar Eldakar, stagiaire postdoctoral à l'Université d'Arizona, ont publié dans le Journal "Frontiers in Evolutionary Neuroscience" des résultats obtenus chez 160 volontaires. L'étude montre que la fréquence des bâillements varie avec la saison et les individus baillent moins quand la température extérieure est égale ou supérieure à la température corporelle. Les auteurs ont quantifié les bâillements durant l'hiver (80 sujets testés à 22 degrés Celsius en moyenne) et durant l'été (80 sujets à 37 degrés en moyenne). Les résultats indiquent qu'environ 50 % des volontaires baillent plus l'hivers par contraste avec l'été quand les températures sont équivalentes ou supérieures à celles du corps humain (moins de 25 % des participants baillent). Le bâillement est également associé au temps passé à l'extérieur puisque 40 % des participants baillent dans les 5 premières minutes après leur sortie puis ce pourcentage chute à 10 % ensuite en été alors qu'il augmente en hiver.
L'interprétation des auteurs est que le bâillement est lié à l'augmentation de la température du cerveau et sert donc de régulateur thermique par échange d'air avec l'extérieur. Des températures extérieures proches de 37°C ne permettent pas au cerveau de se rafraîchir contrairement aux températures basses de l'hiver.
Cette hypothèse confirme chez l'homme les résultats d'une précédente étude qui montrait une variation de température dans le cerveau de rats avant et après un bâillement. Le refroidissement du cerveau serait alors lié à l'augmentation du flux sanguin engendré par l'étirement de la mâchoire qui favorise l'échange de chaleur à partir de l'air ambiant qui accompagne l'inhalation profonde du bâillement.
Une piste surprenante ... à faire chauffer les neurones !
Voir : Gallup, A. C. and Eldakar, O. T. (2011) Contagious yawning and climate variation. Frontiers in Evolutionary Neuroscience 3, 1-4.

IA - SHS : Le Web contextuel.

Le Web devient "user-centric", il prend aujourd'hui en compte l’utilisateur et son contexte comme une seule entité anthropotechnique. C’est en tout cas le but du "User-Context-Module" (Module Utilisateur contextuel) que des chercheurs de l'Ambiant Intelligence Laboratory de l’université de Singapour proposent d'intégrer dans les architectures Internet. L'objectif est évidemment d'améliorer l’expérience utilisateur, mais également d'ajuster les réseaux et les applications selon des besoins et des ressources, en fonction du terminal utilisé, de l’endroit où il se trouve, du réseau disponible, et surtout des attentes potentielles de l'usager. C'est-à-dire selon le contexte.
Cette conception d'architecture et de fonctionnement repose sur les sciences cognitives, et sur la façon dont les informations sont représentées et traitées par les sujets. Or la pensée humaine est "sensible" au contexte et à son environnement, et prend les bonnes décisions en fonction de ceux-ci. Pour parvenir à ce type d’intelligence, l’architecture idéale doit savoir séparer l’hôte, son adresse, le nom de l’utilisateur final, les données et les périphériques réseau, et les manipuler de manière individuelle. Le module proposé, User-Context Module, a pour but d’intégrer des informations pertinentes de contexte.
Le Module se divise en trois sous-systèmes : le Context Interface, le Context Model, et le Contrôleur. Le premier interagit directement avec l’utilisateur final, son identité, ses préférences, et son environnement, sa localisation... Le deuxième recueille des informations sur le modèle de contexte, données abstraites sur le statut de l’utilisateur, son comportement sur le réseau. Le Contrôleur interagit directement avec les couches réseau et l’infrastructure, pour ajuster automatiquement les protocoles ou les paramètres capables d’optimiser les performances du réseau, et ainsi offrir une meilleure expérience à l’utilisateur.

DIV : Un drone pour les phoques.

Les UAV (unmanned aerial vehicle) plus couramment appelés drones, sont des engins aériens commandés par un pilote ou un équipage de spécialistes aériens depuis une base au sol ou en mer. Leur utilisation tactique a été largement commentée lors des deux guerres du Golfe et aujourd'hui en Afghanistan. Principalement d'usage militaire, tactique ou d'observation, ils servent également depuis quelques années pour des usages civils de surveillance des frontières, du trafic maritime et routier, mais aussi de recherche ou de sauvetage, de veille des feux de forêts et d'observation des espaces écologiques, ou pour des usages plus spécialisés par des professionnels de la pêche en mer, du BTP, de l'architecture ou de l'aménagement de bâtiments ou de chantiers immobiliers, routiers ou ferroviaires... Les usages scientifiques sont encore rares et ils méritent donc d'être signalés.
Les chercheurs de l'Université d'Arizona viennent d'acquérir un drone "ScanEagle" des sociétés Boeing et Insitu pour étudier les espaces inaccessibles de la surface de l'Artique, les cartographier, et faire l'inventaire des animaux épars qui occupent la banquise.
Dérivé du drone SeaScan de Insitu utilisé par les pêcheurs pour repérer les bancs de thon, ScanEagle a été initialement conçu comme drone léger de surveillance militaire. Il a été déployé par l'Armée américaine en Irak dès 2004, puis dans la Marine en 2005 pour des missions de patrouille maritime mais également des missions côtières depuis des navires au large. Il est également aujourd'hui utilisé par les armées australienne et canadienne.
Ce mini UAV monomoteur à hélice peut être équipé de plusieurs types de capteurs, enregistreurs et transmetteurs d'informations visibles ou infrarouges, d'un navigateur GPS et même pour les versions militaires d'un mini radar.
Il est capable d'une autonomie de 20 heures et de 100 km de rayon d'action, télécommandé depuis sa base.
Le programme scientifique est une collaboration du Cooperative Institute for Research in Environmental Sciences de l'Université du Colorado à Boulder, et de la National Oceanic and Atmospheric Administration. Initié en 2009, le programme est coordonné par Elizabeth Weatherhead du CIRES, et concerne à la fois la topographie et la biologie animale. Un premier objectif a été l'étude de quatre espèces de phoques. Le programme s'intéresse notamment à l'impact de la fonte de la banquise et de sa diminution de surface sur les populations animales.
Un exemple réussi de transfert du militaire au civil, au service de la biologie et de l'étude de l'environnement.

02 octobre 2011

BIO : Le nocebo, ou le côté obscur du placebo.

L'effet placebo est un fait admis seulement depuis la fin du siècle dernier. Jusque là, la médecine ne pouvait admettre l'influence d'une substance biochimiquement non active. Le terme vient du latin "je plairai" ; il apparait pour la première fois dans le dictionnaire médical anglais Hooper de 1811 : "médication destinée plus à plaire au patient qu'à être efficace".
L'effet placebo provoque une amélioration de l'état du patient sans pour autant qu'il soit soumis à une substance chimique active. Il peut être direct, c'est-à-dire agir directement sur la maladie ou ses symptômes, ou indirect, c'est-à-dire potentialiser l'action d'une molécule active prise en même temps.
Il est objectivement quantifié par l'écart positif constaté entre le résultat thérapeutique observé lors de l'administration d'un médicament et l'effet thérapeutique prévisible en fonction des données strictes de la pharmacologie. Il est d'autant plus critique qu'il intervient dans les essais en double aveugle, puisque le patient croit qu'il prend un médicament alors qu'il s'agit d'un placébo, ou pire, peut croire qu'il prend un placébo alors qu'il reçoit un traitement actif. Dans ce dernier cas, on parle de l'aspect négatif du placebo, que certain nomment "nocebo".
Si jusqu'ici les chercheurs se sont consacrés principalement à l'étude de l'influence positive du placébo, celle de l'effet nocebo (du latin : "je nuirai") n'est encore que confidentielle. Le terme a été utilisé 150 ans après celui de placébo, en 1961, par le médecin Walter Kennedy. Selon lui, un patient sur quatre en ferait l’objet. Il s’agit en quelque sorte d’un placebo qui a mal tourné, en intoxiquant ou provoquant des effets secondaires  tels que vertiges, maux de tête, diarrhées, allergies, douleurs menstruelles, etc. On a même noté des effets d'accoutumance, avec des patients devenu « accro » à un produit totalement neutre. Plus important encore, la présentation que l'on fait du traitement : prescrire un placebo à des patients sans leur préciser de quoi il s’agit, ni quels effets il peut produire, déclencherait des symptômes dans plus de 80 % des cas. Accompagner la prescription par un discours désobligeant ou menaçant augmenterait ainsi le taux de cholécystokinine, hormone impliquée dans la perception de la douleur.
L’effet nocebo peut prendre des proportions critiques pour la santé. On a montré qu'un placébo provoque l’impuissance chez un tiers des hommes auxquels on a exposé les désagréments possibles sur leur libido d'un traitement pour la prostate. Des patients parkinsoniens traités par électrodes implantées peuvent retrouver des difficultés à bouger et des tremblements dès qu'on leur fait croire que les électrodes ne fonctionnent plus.  Certains habitants voisins d’une antenne-relais se sont plaints de différents symptômes alors que l’antenne n’avait pas encore émis. On a même rapporté la mort d'un patient en état non critique après une erreur d'un prêtre lui ayant administré l'extrême onction par erreur.
L'effet nocebo est donc un effet négatif qui va annuler ou réduire, voire annuler les effets pharmacologiques d’une substance, voire provoquer un trouble attendu de cette substance en sa parfaite absence. Comme l’effet placebo, l'effet nocebo n’est pas lié à la substance, mais à l’attente psychologique du patient, découlant souvent d'ailleurs de l’attente du médecin vis-à-vis du traitement qu’il prescrit.
Des chercheurs britanniques et allemands ont mené une étude sophistiquée sur l'effet nocebo et la douleur, publiée dans Science Translational Medicine (lien). Après avoir fixé des diffuseurs de chaleur sur la jambe de 22 volontaires en bonne santé, ils ont augmenté le rayonnement jusqu'à une plainte douloureuse de 70 sur une échelle de 1 à 100. Ils ont été placés sous perfusion d'une forte dose de rémifentanil (dérivé de la morphine), ce qui a provoqué la diminution de la douleur même chez les sujets non informés.
Puis, les expérimentateurs ont informés leurs patients qu'ils allaient leur injecter l'analgésique, même si celui-ci circulait déjà dans leur organisme. Les participants ont signalé une nouvelle réduction de la douleur — ce qui montre l'effet placebo de l'analgésique.
Enfin, les chercheurs ont encore menti, en disant aux sujets qu'ils allaient cesser le traitement et que leur douleur allait probablement augmenter. Leur niveau de souffrance a quasiment retrouvé celui enregistré avant tout traitement, leurs craintes annulant l'effet d'un médicament, montrant un effet nocebo.

"The Effect of Treatment Expectation on Drug Efficacy: Imaging the Analgesic Benefit of the Opioid Remifentanil", U. Bingel et al., Sci. Transl. Med., 16-02-2011, vol. 3, Issue 70, p. 70ra14.
"Nocebo-induced hyperalgesia during local anesthetic injection", D. Varelmann et al., Anesth. Analg.,  vol. 110, no 3, mars 2010, p. 868-70.
"L'effet placebo. Un voyage à la frontière du corps et de l'esprit", par Ivan O. Godfroid, Charleroi (Belgique) : Socrate Éditions Promarex, 2003.

"Un placebo peut être nocif", revue Science et Vie, Août 2010, page 55.

01 octobre 2011

DIV : Le numéro 8 de CSS est sorti.

CSS est le "journal des sciences de la cognition" par et pour les étudiants et jeunes chercheurs en sciences cognitives.  CogniScienceS est un édition trimestrielle participative créée initialement dans le cadre de la FRESCO, fondée et animée par William Hirigoyen et ses collègues de l'ENSC. 
Elle est ouverte aux publications des étudiants, doctorants et ex étudiants en sciences cognitives et des domaines connexes. Elle fait le point sur l'actualité et propose des articles de fond ou appliqués ainsi que des chroniques de ce domaine interdisciplinaire.
Le numéro 8 vient d'être publié en ligne, et outres les actualités, aborde les thèmes du rapport "émotion/cognition", du "mensonge", de la "grammaire générative" et des "objets de l'IA".
Accès aux numéros précédents (lien).

30 septembre 2011

IA : De l'Intelligence Artificielle pour remplacer les traders.

La sideration qu'exerce le metier de trader sur les jeunes tient à la fois du prestige et de l'image sociale attachée notamment aux revenus spectaculaires de certains d'entre-eux, et à la fois à la réputation de goût du risque et de passion du jeu et du pari, correspondant probablement à certaines personnalités psychologiques particulières.
Le côté obscur de la profession est également double, avec d'une part une faible proportion de traders qui reussissent pleinement une carrière certes rapide, mais nerveusement épuisante et physiquement usante, et d'autre part les erreurs, leurs conséquences affectives, et le cercle vicieux de spirales infernales d'enfermements psychologiques, de rupture sociale et de repli sur soi dans un monde purement virtuel de relations électroniques, favorisant des comportements d'excès, des inhibitions critiques ou des réactivités ratées.
Certains decideurs financiers et gestionaires de ressources humaines sont aujourd'hui convaincus de l'avantage de remplacer les traders, ou pour le moins certains d'entre eux, par des programmes informatiques spécialisés, appliquant des règles logiques strictes et sécurisée. C’est déjà en partie le cas et les décisions des tradeurs sont d'ailleurs accompagnées par des programmes décisionnels.
Le Foresight
, un organisme de prospective œuvrant pour le gouvernement britannique, vient de publier un rapport sur l’impact de la technologie sur les marchés financiers. L'hypothèse proposée est celle d'une généralisation du procédé d'automatisation intelligente dans les prochaines années.
En effet, les logiciels peuvent tous les jours encore plus accumuler, synthétiser, interpréter de plus en plus rapidement, toujours plus d'informations issues des sources les plus divers, en dépassant évidemment les compétences et aptitudes cognitives humaines. Le bénéfice pour l'optimisation des prises de décision financières instantanées, avec un niveau de securité optimal, favoriserait alors des robots decisionnels et auto-apprenants accessibles alors aux particuliers. Les auteurs du rapport précisent que ce type d’intelligence artificielle bénéficierait d’algorithmes lui permettant d’apprendre seule, sans intervention humaine, sur des critères objectifs, en se gardant des effets de contagion ou de panique qui ont agité le monde financier ces dernières années.
Référence (lien).

DIV : Une tablette à un euro par jour.

Le Ministère de l'Enseignement supérieur et de la Recherche annonce le lancement d'une opération dont le but est de proposer une tablette électronique aux étudiants post-bac. Le ministre déclare, dans une interview à M6 et à paraître aujourd'hui dans Direct Matin, qu'il s'agit de proposer un iPad 2 ou une Galaxy Tab 8,9" - toutes deux en version 3G mais sans précision sur la capacité de stockage - à 1 euro par jour pendant deux ans.
Information à suivre pour les élèves de l'ENSC.

La société IBM fait dans le gigantisme. Elle affirme mettre au point le plus grand système de stockage au monde, soit une capacité de 120 pétaoctets.
Cet équivalent d’environ 120 000 disques durs de 2 To, ou encore 24 milliards de MP3, aura donc une capacité dix fois supérieure aux plus grands systèmes actuels.  Pour constituer cette mémoire, IBM utilise 200 000 disques durs de 600 Go en parallèle, avec une sécurité de conservation que IBM juge lus que robuste (supérieur au million d’années sans perte de données ni diminution de performances).
Ce dispositif repose sur un système de fichiers inscrits sur de multiples disques afin de lire et d’écrire simultanément de multiples portions de chaque fichier. Baptisé GPFS, ce système a permis à IBM de recenser et scanner 10 milliards de fichiers sur un système de stockage en 3/4 heure seulement, remportant un nouveau record détenu jusque'à présente pour un simple milliard de fichiers scannés en 3 heures. Cette machine est attendue pour permettre des avancées scientifiques dans la modélisation, la simulation et la prévision numériques en physique, en astronomie, en climatologie, en biologie et en médecine.
Lien publication (lien).

IA : Des serious games pour la recherche.

Les Scientific Discovery Games (SDG) sont des jeux informatiques qui permettent à des joueurs en réseau de participer à une expérience scientifique menée grâce à Internet. Le principe est de traduire des éléments complexes issus d’une recherche scientifique sous la forme d'énigmes ou des puzzles, afin que des non spécialistes puissent les traiter sans connaissance scientifique précise. Seules la logique des joueurs et leurs capacités de résolutions de problème sont mises en jeu ... au service de la recherche
L'histoire des SDG débute en 2008 avec "Foldit" (littéralement "Plie-le"). Dans ce jeu vidéo expérimental sur le repliement des protéines, développé par le département d'informatique et le département de biochimie de l'Université de Washington, les joueurs tentent de résoudre un problème que les ordinateurs ne savent pas résoudre. 
Un exemple de ce principe collaboratif est celui du jeu "ESP" qui, face à l'incapacité des machines à classer les images (abscence de mots-clefs), confie cette tâche à des humains à travers un jeu en ligne. 
Lorsque deux personnes voient une même image et lui associe des mots-clefs ; si un même mot est proposé par les deux : il est validé et indexe l'image. L'ESP Game devrait permettre de classifier toutes les images du Web en quelques mois seulement. Ce principe permet de manière ludique de déléguer à des joueurs des procédures dont les machines sont incapables.
L’intérêt des SDG repose sur la participation quasi permanente des joueurs et leur nombre croissant. Plus le nombre de joueurs est grand, plus leurs connexions sont fréquentes, plus les chances de voir émerger des scores élevés est important : et donc plus les avancées scientifiques sont obtenues. 
C'est l’intelligence des articulants et l'émergence d'une intelligence collective qui permettent de résoudre "virtuellement" des problèmes scientifiques "réellement" posés. 
Au delà de FoldIt, on peut s'inscrire sur "Phylo", qui travaille sur la génomique comparative, "EteRNA" sur la compréhension de l’ADN, "Planet Hunters" en cosmologie, qui a récemment permis de découvrir deux nouvelles planètes (lien), etc.
Sommes nous à la veille d'une révolution des pratiques de recherche, ouvertes demain à une participation citoyen fédérative ? En effet, on constate un accroissement du nombre de jeux scientifiques collaboratifs mis en ligne. Néanmoins, pour un SDG réussi comme Foldit, trois autres sont également mis en ligne mais ne fonctionnent pas. la cause est double : un manque de visibilité et une faible communauté, une mauvaise conception ou une interface non conviviale.

Lire un article de Simon Bachelier, expert ne serious game, d’Universcience (lien).

29 septembre 2011

DIV : Science Factor - le concours des lycéennes pour les sciences

Dans un contexte difficile de crise, avec ses conséquences sur l’emploi, les entreprises manquent pourtant de scientifiques.
C'est dans les domaines des hautes technologies que le manque est le plus important. Pour le résorber, il convient d'intéresser les jeunes aux sciences et aux technologies, ainsi qu'aux carrières d'ingénieur. 
Le concours Science Factor a pour objectif de combattre cette désaffectation des jeunes pour la science, et d’intéresser les garçons mais surtout les filles aux filières scientifiques et techniques. C'est une action conduite avec le parrainage du Ministère de l'Education Nationale, du Ministère de l'Enseignement Supérieur et de la Recherche, et d'Universcienceen partenariat avec Orange et le Syntec.
Les lycéens ont jusqu’au 15 décembre 2011 pour s’inscrire sur la page Facebook de Science Factor, après s’être constitués en équipes de quatre. Le but pour chaque équipe est de décrire le projet, la découverte ou la recherche que les jeunes gens aimeraient entreprendre s’ils étaient déjà diplômés d’une filière scientifique. Les cinq équipes finalistes présenteront leurs projets au jury présidé par Claudie Haigneré.

28 septembre 2011

DIV : Aerospace Valley se dote d'une nouvelle présidente.

Fort de ses 490 membres, Aerospace Valley est l'un des trois pôles de compétitivité français les plus importants.Sa vocation mondiale s'appuie sur sa spécialité "Aeronautique, Espace et Systèmes embarqués" développée sur les territoires d'Aquitaine et de Midi-Pyrénées. AV a depuis sept ans labellisé ou accompagné plus de 480 projets de recherche et développement, pour un total de quelques 725 millions d’euros investis,
C'est à la suite de Jean-Marc Thomas, président fondateur sortant, que Agnès Paillard qui avait assuré ces deux dernières années la direction générale du pôle, a été élue présidente ce mercredi 28 septembre 2011 par les 37 membres du conseil d'administration. Ingénieur de l’École Supérieure de
Physique et Chimie Industrielle de Paris, Agnès Paillard a débuté sa carrière chez IBM France, puis a assuré la direction générale de
Serma Technologies, avant d'animer le développement économique, la recherche et le développement durable de la Région Aquitaine. Elle a assumé ensuite la direction générale du pôle Aerospace Valley, puis a rejoint EADS France Innovation Works comme vice-présidente.
Le programme de la nouvelle présidente sera notamment orienté vers la compétitivité et le développement des territoires et celui des PME et des ETI des deux régions. Agnès Paillard a réaffirmé la mission du pôle qui, au delà des nombreux projets de recherche et développement, doit aller jusqu’aux produits et aux procédés innovants, ainsi qu'à leurs marchés. Ce programme ambitionne le développement et la création d’entreprises et d'emplois dans les deux régions du Grand Sud-Ouest. Le pôle accompagnera également le nouvel Institut de recherche technologique (IRT) "Aeronautique, espace et systèmes embarqués" (AESE) labellisé cet été dans le cadre des Investissements d’avenir. Et si cet IRT est midi-pyrénéen, les aquitains n'en seront pas exclus puisque certaines de leurs spécialités viendront prochainement enrichir le projet.

24 septembre 2011

SHS : Psychodynamique du travail.

Le mot travail est apparu vers 1200. Il est issu du latin médiéval "trepalium" : instrument de torture. Il a longtemps été vécu comme une obligation, interdite aux privilégiés, et au service de leur propre rentabilité. Bien qu'ayant évolué dans le siècle dernier au bénéfice du travailleur, il revêt pourtant toujours son aspect d'obligation et de contrainte.
Au delà de ses aspects négatifs, le travail présente des aspects constructifs : il est important pour se forger une identité ; il permet de développer de nouvelles aptitudes ; il confronte le sujet à des obstacles en lui permettant de se découvrir lui-même, de prendre conscience de ses capacités et de structurer sa personnalité. A l’extérieur du contexte professionnel, il permet de se façonner une identité et de construire son image sociale.
C'est dans cet équilibre entre aspects positifs et négatifs du travail que réside l'adaptation du travailleur, qui peut alors être globalement affecté par son travail et ses modifications.
Christophe Dejours est psychiatre, psychanalyste, et consacre son activité à la psycho-dynamique du travail. Professeur titulaire de la chaire de psychanalyse-santé-travail au Conservatoire national des arts et métiers, il y dirige le laboratoire de psychologie du travail et de l'action.
Ses théories reposent sur l'interprétation que le sujet donne à l'écart entre travail prescrit et réel, les processus qu'il met en oeuvre pour gérer cet écart, et les mécanismes de défense qu'il élabore contre la souffrance. Selon ces théories, les personnes en souffrance au travail sont souvent dans l’incapacité de surmonter « le réel du travail ». Par « réel » il désigne les aspects du travail qui résistent aux savoirs du travailleur.
Lorsque le travailleur se voit assigner une tâche, certains aspects de la tâche échappent à sa maîtrise directe. Il doit évidemment en premier lieu rencontrer le réel (travailler puis échouer), puis il doit être capable de surmonter l’obstacle, faire preuve d’ingéniosité, trouver des astuces pour compenser ses faiblesses. Cet état d’échec peut s’avérer plus ou moins long et plus ou moins possible à endurer.
Le travail peut aussi être néfaste pour le travailleur et éroder petit à petit sa personnalité ainsi que l’image qu’il a de lui-même ou qu'il veut donner de lui. Tout cela dépend évidemment d’une part de l’organisation du travail et de la part de liberté qu’elle offre et d’autre part de l’état psychologique du travailleur. Le dépassement des limites du supportable peut amener le travailleur à mettre fin à ses jours et ceci malgré une vie sociale et privée équilibrée.
Selon Christian Dejours, lorsque l’on apporte une contribution par son travail, on attend de la reconnaissance ainsi qu’une rétribution. Le premier aspect est moral alors que le second est matériel, néanmoins tous deux ont un impact psychologique sur le travail. Cet effet pouvant être soit négatif soit positif. Ces éléments permettent au travailleur de se construire une identité et une estime de soi. L’impression d’être utile est aussi un élément clef des bénéfices du travail.
Voir les vidéos de C. Dejours (lien)
Travail, usure mentale de Christophe Dejours, édition Bayard, 2010.

BIO - SHS : Le raisonnement analogique des singes.

Le propre de l'analogie est de reconnaître les relations entre les relations. Cette aptitude cognitive était jusqu'ici réputée humaine, puisque les chercheurs la considéraient impossible sans langage.
Deux psychologues du Laboratoire de psychologie cognitive de l'Université de Provence (lien) et du Franklin & Marshall College De Lancaster (lien) aux États-Unis viennent pourtant de démontrer que les singes pouvaient produire des analogies, sans le langage. Leur expérience menée sur 29 babouins (Papio papio) repose sur l'observation de formes géométriques et le choix ultérieur sur un écran tactile de deux autres formes représentant la même relation (d'identité ou de différence) que la paire initiale. Les singes devaient donc détecter des relations entre relations. La réussite à l'exercice par 6 singes a été observée après l'acquisition, mais semble stabilisée avec un respire tissage facilité après un an.
Ces travaux prouvent donc que l'analogie est possible sans langage, ou bien que les singes disposent d'un protolangage sur lequel s'étaye cette capacité utile au transfert de connaissances d'un domaine à l'autre. Ils montrent comment une pensée peut également exister sans langage.
Accès au résumé (lien).
Generalized Relational Matching by Guinea Baboons (Papio papio) in two by two-item analogy problems – Roger K. R. Thompson et Joël Fagot, Psychological Science, 20 septembre 2011,

SHS : Ouverture du site Internet de Philosophia Scientiæ

Philosophia Scientiæ est une revue scientifique publiée semestriellement par les Archives Henri Poincaré de Bancy (UMR 7117). Elle propose des travaux en épistémologie, en histoire et en philosophie des sciences. Elle accueille principalement des études traitant des mathématiques, de la physique et de la logique, mais également des recherches portant sur les autres disciplines scientifiques : physique, biologie, sciences humaines, sciences cognitives ... Les articles sont en français ou en anglais.
La mise en ligne de quinze numéros vient d'être réalisé, dont neuf en accès libre. Le site proposera l'ensemble des numéro ainsi que les cahiers spéciaux disponibles en texte intégral. Accès au site (lien).

23 septembre 2011

DIV : Trop vite pour la théorie - chercher l'erreur.

Publiée hier sur le serveur public arXiv, des résultats de six mois d'expériences inquiètent bien les chercheurs du CNRS qui les ont produits.
En mesurant avec une précision de l'ordre de la dizaine de nanosecondes (milliardièmes de seconde) le trajet d'un faisceau de neutrinos entre l'accélérateur du Cern, près de Genève, et le détecteur Opera du laboratoire du Gran Sasso, sous les Apennins au centre de l'Italie, l'equipe menee par Dario Autiero de l'Institut de physique nucléaire de Lyon tombe sur un os !
Les particules semblent traverser les 731 kilomètres de croûte terrestre qui séparent les deux sites en quelques 2,5 millièmes de seconde. Or c'est en moyenne 60 nanosecondes d'avance par rapport à la vitesse calculée qu'aurait mis la lumière. Un tel décalage, qui paraît certes infime, est en contradiction avec la théorie actuelle.
Cette experience de violation est à prendre avec d'extrêmes précautions. Au-delà de la portée potentielle de ses résultats sur la théorie de la relativité, ils interrogent la communauté scientifique et ouvrent des pistes d'hypothèses jusqu'ici farfelues. Les particules ont-elles trouvé un raccourci dans une autre dimension que les 4 de la théorie (3 dans l'espace auxquelles s'ajoute celle du temps) ? La vitesse de la lumière ne serait-elle pas une vitesse limite ? La théorie actuelle peut-elle évoluer comme celle de Newton l'avait fait grâce à Einstein qui a proposé une théorie plus générale ? Et existe-t-il donc une théorie encore plus globale ?
L'immense avantage de cette expérience est celui de confirmer la réfutabilité poppérienne de la relativité restreinte et l'ingéniosité des scientifiques dans la recherche d'expériences cruciales pour toujours plus de validité de leurs théories.

Lien vers l'article dans arXiv.

Séminaire cet après-midi à 16 heure depuis le CERN à Genève par Dario Autiero (lien en direct).

Voir le communiqué du CNRS sur Opera (lien).
Article de Enviscope (lien).
Photos disponibles (lien - fichier .zip)
Reportage « Plus vite que la lumière ? » (lien - mp4).
Vidéo (lien - conducteur bilingue).

20 septembre 2011

IA : L'éclairage pour transmettre les données.

Accéder aux données d’un réseau sans fil (WLAN) peut se faire en utilisant un simple signal lumineux d'ambiance. Des chercheurs du Fraunhofer Institute for Telecommunications, Heinrich Hertz Institute (HHI) de Berlin (Allemagne) en partenariat avec Siemens et France Telecom Orange Labs sont parvenus à créer un réseau à haut débit en modifiant un éclairage basé sur la technologie LED, avec un débit de 100 Mbit/s.
La technologie de communication par lumière visible (VLC) est basée sur de simples diodes électroluminescentes en lumière blanche (LED). Elle permet de coder des informations en langage binaire par l’ajout d’un composant spécifique, un modulateur, tout en garantissant un éclairage perçu comme normal et stable. Ce modulateur allume et éteint successivement les LED à très haute fréquence (VHF), sans que l’œil humain ne puisse percevoir les variations de luminosité. Le signal lumineux modulé est alors capté par une photodiode fixée sur le terminal informatique.
Les limitations actuelles (fonctionnement uniquement direct en ligne droite et débit) seront probablement levées par des stratégies d'éclairage d'ambiance (multipoints) et de couleur (800 Mbit/s prevus en combinant des diodes rouges, bleues, vertes et blanches).
Bien en deçà des performances du WLAN électromagnétique, le WLAN optique trouve son application dans les hôpitaux, les avions, les environnements critiques industriels, voire les habitations, dans lesquels les ondes électromagnétiques sont nuisibles.

BIO : 8,7 millions d’espèces eucaryotes.

La question du nombre d’espèces présentes sur Terre n'a jusqu'ici pas de réponse puisque nous n’en connaissons aujourd’hui qu’1,2 million et savons que ce chiffre est sans commune mesure avec la réalité. Des estimations sur leur nombre total varient d'ailleurs entre 3 et 100 millions.
Grâce à une nouvelle approche, une équipe de chercheurs canadiens, américains et anglais (lien) vient d’émettre une nouvelle estimation : il existerait 8,7 millions d’espèces eucaryotes (c’est-à-dire si l'on compte pas les bactéries).
Cette équipe a mis au point un nouveau modèle à partir de la classification des êtres vivants. Son application a des parties bien connues de la classification permet son extrapolation à l’ensemble de l’arbre du vivant. Il existerait ainsi 2,2 millions d’espèces marines et 6,5 millions d’espèces terrestres. Il y aurait 7,77 millions d’espèces d’animaux, 298 000 espèces de végétaux et 611 000 espèces de champignons.
Rapporté au nombre d’espèces déjà connu, cela signifie qu’il reste à découvrir (hors bactéries) 86 % des êtres vivants terrestres, et 91 % des marins. D’après les scientifiques, les spécimens inconnus ne vivraient que dans des zones géographiques très restreintes ou peu accessibles, comme les fonds marins, les forêts équatoriales ...
Une estimation facile montre qu’il faudrait 1 200 ans et plus de 300 000 taxonomistes pour répertorier l’ensemble de cette biodiversité. Le problème est qu'on ignore tout de son évolution réelle, et que selon le rythme des extinctions, beaucoup auront disparu avant même d'avoir pu être découvertes.
article dans Plos Biology de aout 2011.

SHS : Modéliser les flux et habitudes pour l'urbanisme.

L'analyse des mouvements humains facilite les politiques d'urbanisme. C'est l'hypothèse de UNA (MIT) qui combine géospatialisation et d'analyse des flux pour modéliser les habitudes des habitants d'une ville. Le but : faciliter le lancement de programmes d'urbanisme.
Etablir les meilleurs endroits pour construire des résidences, installer des bureaux, ou faciliter le développement de commerces dans un espace urbain doit se faire sur des données objectives. C'est dans ce but que la UNA Toolbox, un programme d'analyse des réseaux urbains, a été mise au point. Elle permet de modéliser les mouvements spatiaux et leurs évolutions.
Selon Andres Sevtsuk, le principal investigateur du projet, on pourra ainsi expliquer plus simplement : "sur quelle rue ou dans quel bâtiment on a le plus de chances de trouver un commerce de proximité, dans quelle zone se trouve le trafic à pieds ou en voiture le plus important et pourquoi la valeur du terrain varie d'un emplacement à un autre". La Toolbox prend en compte la géométrie globale des zones urbaines et des axes de transport, les distances mais également les immeubles dont on peut pondérer l'importance suivant différents critères : volume, population, influence sur les bâtiments environnants. Elle combine des programmes de géospatialisation et d'analyse de l'environnement urbain. L'un d'eux, par exemple, mesure combien de bâtiments peuvent être atteints dans un rayon donné à partir d'un immeuble de départ. Un autre calcule l'accessibilité d'un immeuble suivant l'attractivité et la distance des constructions proches. Un autre établit le nombre de passants dans une zone, quand un autre s'intéresse à l'écart métrique entre chaque bâtiment. Et enfin, un dernier établit le chemin le plus court entre deux points suivant le tracé des rues et des routes, puis compare cette donnée avec le temps qu'il faudrait pour parcourir la même distance à vol d'oiseau.
Ces éléments devraient permettre, par exemple, de quantifier efficacement si un immeuble occupe une position centrale et la facilité avec laquelle un habitant peut accéder à plusieurs endroits à partir d'un point de départ donné.

IA : Une mémoire associative sans électricité

Une équipe de l'Université du Tohoku, dirigée par le Professeur Ohno, en partenariat avec DEC, a annoncé avoir développé la première mémoire adressable par contenu (CAM) ne nécessitant pas d'électricité pour enregistrer des données.
Pour conserver des données ou des paramétrages, les appareils actuels reçoivent, en étant simplement branchés au circuit électrique, un flux constant d'électricité. L'électricité utilisée par cette activité "passive" est estimée à environ 6 % de l'électricité totale consommée dans les foyers.
La mémoire adressable par contenu (CAM) qui, contrairement aux mémoires de types RAM, a un contenu non plus accessible par une adresse mais par une donnée, est une mémoire extrêmement rapide.
Sa non-volatilité (cad sa capacité à ne pas perdre d'information sans apport d'électricité) est directement due au système physique d'enregistrement des informations. La mémoire utilise ce qu'on appelle la spintronique : les spins des électrons sont capables de se comporter comme des petits aimants et, selon leur orientation, de "stocker" des données. Ce type de mémoire pourrait être utilisé dans de nombreux appareils électroniques, notamment pour développer des appareils démarrant instantanément et ne consommant aucune électricité en veille.

09 septembre 2011

IA : un humanoïde dans l'espace.

Selon BBC news, un robot-astronaute humanoïde a été mis en oeuvre dans la station spatiale internationale. Le robot R2 (pour Robonaut v2) ressemble à un astronaute dépourvu de jambe (un torse, deux bras et deux mains à forme humaine, ainsi que d’un casque doré avec visière pour la tête). Le poids de cet « homme de fer » est de 136kg. Une version ultérieure lui permettra de recevoir des jambes et des pieds afin qu'il puisse se déplacer dans l’ISS dont les coursives sont prévues pour les hommes. Il pourra également être fixé sur un module d’exploration Centaur 2 afin de parcourir la surface de la Lune ou de Mars.
Fruit de 15 ans de travaux de la Nasa et de General Motors, c'est le premier humanoïde spatial développé pour travailler et aider les humains à l’intérieur comme à l’extérieur de la station.
Selon la Nasa, le robot est capable d’effectuer des mouvements quatre fois plus rapide que les premières versions terrestres R1. Il a plus de dextérité et dispose de meilleurs capteurs R2 effecteurs.
F1 dispose d'un compte Twitter (@astrorobonaut) déjà suivi par plus de 45.000 followers. Il répond ainsi aux questions des internautes comme le ferait un astronaute humain, tout en étant capable de réaliser d'autres tâches techniques ou de communication avec les autres membres de l'équipage et les contrôleurs sur terre.
De tels robots tel que celui testé sur l'ISS seront chargés d’effectuer des tâches de maintenance et de ménage, d’aider les astronautes durant leurs sorties, de les remplacer dans des conditions critiques ou trop dangereuses, mais également de leur tenir compagnie.
On envisage également de recourir à eux de manière autonome pour effectuer de la maintenance sur les satellites et pour préparer l’arrivée des humains sur Mars, et cela sans se préoccuper de leur survie ou de leur retour.
Accès au site de R2 (lien)