02 décembre 2011

IA - SHS : Données publiques - suite ...

Dans la suite des deux récentes chroniques (1) et (2), la question de la réutilisation des données publiques est posée par Internet Actu.
sic : Alors que le 6 décembre 2011 devrait enfin ouvrir EtaLab, le portail de données publiques de l'Etat français (plus de 2 ans après l'initiative américaine Data.gov), nous vous proposons de faire un rapide point sur "l'open data", ce mouvement d'ouverture des données publiques, qui vise à rendre accessible, dans un format lisible tant par les humains que les machines, des ensembles de données publiques. A quoi cela sert-il ? Qui cela sert-il ?A l'heure où de nombreuses collectivités territoriales françaises ont commencé à développer des portails d'informations et à libérer des jeux de données, il est tant de revenir sur les enjeux de la réutilisation des données publiques tant pour l'action publique que pour le simple citoyen.

28 novembre 2011

BIO : L'EEG repousse les limites de l'état végétatif.

C'est la question qui hante les cliniciens et les proches des patients comateux : existe-t-il une conscience ches les patients plongés dans des états végétatifs chroniques (EVC) ?
Campons le tableau. Un sujet est alité, immobile, sans mouvement volontaire, sans réponse aux stimulations extérieures. Peut-il nous entendre, peut-il penser alors que toute communication vers l'extérieur lui est impossible ? Cette absence totale de réponse volontaire et reproductible au Monde est-elle le signe d'une absence de vie intérieure cognitive et affective ?
La neurologie l'affirmait jusqu'ici. Mais le 3 février 2010, une équipe belge et britanique publiait sur le site du New England Journal of Medicine, une recherche montrant que, parmi 21 patients en EVC, l’IRM fonctionnelle avait mis en évidence chez 4 d'entre eux une activité cérébrale structurée. Il y avait donc une conscience élaborée en dehors de tout signe extérieur, et la pensée est dissociée de la capacité comportementale. Cette découverte remettait alors en cause la définition clinique des états végétatifs chroniques et posait la question de l'attitude clinique et legale (definition de la mort) en preconisant la recherche systématique d’un tel état de conscience chez les sujets en EVC.
Cependant, tant pour des raisons économiques que d'accès aux dispositifs de détection, et que pour des raisons d'incomatibilité clinique (métal intra corporel par exemple), il est difficile de tester en IRM fonctionnelle tous ces patients. La même équipe vient de décrire dans le Lancet du 10 novembre 2011 une nouvelle méthode ambulatoire basée sur l'EEG (électro-encéphalographie) de détection d’une réponse cérébrale adaptée et hors motricité à des commandes verbales simples.
Les auteurs ont proposé à 16 patients en EVC (contre 12 témoins sains) un protocole demandant de répondre à des ordres simples tels que bouger la main et un orteil. Dans 3 cas et alors que le dossières l'examen cliniques ne permettaient pas de différencier les patients ou de prévoir des états de conscience, les sujets ont pu produire des répondes EEG différentiées.
Outre la confirmation des résultats IRMf par l'EEG, l'etude permet d'envisager de tester facilement tous les patients et ainsi de modifier la prise en charge des patients "conscients" et surtout d'envisager des dispositifs électroniques permettant d'établir une communication avec çes patients, en court-circuitant la motricité volontaire.
Voilà probablement du travail pour les cogniticiens et les spécialistes de l'IMS.
La question reste de savoir comment aborder le cas des patients qui ne seront pas positifs au test, car rien ne on permet de penser qu'ils ne sont pas conscients, comme rien ne nous le permettait il y a quelques temps à propos des patients concernés par cette étude, et que pourtant la neurologie considéraient comme en état désespéré. La technologie électronique ne permet que de repousser la frontière clinique, elle ne modifie pas la réalité de l'emmurement? Mais elle permet d'augmenter l'homme contraint, au delà de son incapacité comportementale "totale".
Cruse, D, et la. (2011) Bedside detection of awareness in the vegetative state : a cohort study. Lancet, mise en ligne le 10 novembre 2011 (DOI:10.1016/S0140-6736(11)61224-5).

26 novembre 2011

BIO : Des cellules programmables pour de multiples fonctions.

Une équipe interdisciplinaire de biologistes, chimistes et informaticiens, travaille sur une solution permettant de créer des cellules re-programmables, à l'image du fonctionnement d'un ordinateur, afin de créer un système d'exploitation biologique. Ce projet est baptisé "Towards an Universal Biological Cell Operating System".
Le consortium associe l'Université de Nottingham (chef de file) et l'Université d'Edinburgh(UK), les Universités d'Etat d'Arizona, du Michigan, les Universités de Californie à Santa-Barbara et à San-Francisco, l'Université de New York, le Massachusetts Institute of Technology (USA), le Centro Nacional de Biotecnologia espagnol et l'Institut Weizmann pour la Science (Israël).
Ce projet de biologie synthétique associe les principes de la biologie avec des principes de l'ingénierie. Le but est de programmer des cellules bactériennes, qui seront capables d'exécuter ce programme. Autrement dit, il s'agit de créer un système d'exploitation pour des cellules biologiques.
Actuellement, lorsqu'on veut créer des organismes pour capturer per exemple du carbone relâche dans l'air suite à la combustion de pétrole, ou pour transformer l'arsenic polluant des rivières, ou pour des traitements synthétiques sur le corps humain, les biotechnologistes doivent sélectionner des souches et les transformer en fonction des buts à atteindre. Le projet vise à permettre de programmer, puis de reprogrammer des micro-organismes grâce à cet OS biologique (software), et ceci à partir d'une même souche de cellule utilisée comme hardware (par exemple la bactérie E. coli.
Inspirée du fonctionnement des systèmes d'exploitations des ordinateurs, qui sont capables d'assurer plusieurs fonctions sur le même matériel, les scientifiques envisagent, sur le même principe, de reprogrammer un groupe de cellules afin d'exécuter une action précise. Cette méthode pourrait permettre de créer de nouvelles entités vivantes qui n'existent pas dans la nature à ce jour, une nouvelle forme de vie à fonctionnement universel. Les perspectives sont envisagées dans la création de nouveaux médicaments adaptés aux besoins précis d'un patient particulier, de créer de nouvelles sources de nourriture ou d'énergie, de dépolluants, de capteurs de carbone ou de purificateurs d'eau alimentaire.

24 novembre 2011

DIV : Batelle pointe le recul de la France en investissement de R&D.

Le conseil européen affichait en 2000 l'objectif de faire de l’Europe “l’économie de connaissance la plus compétitive et la plus dynamique du Monde”.
Cette stratégie de Lisbonne, véritable engagement européen vers l’avenir, s’accompagnait d’objectifs précis, dont la volonté de développer la recherche et développement (R&D), décrite comme seule source d’innovation et de croissance sur le long terme. La stratégie de Lisbonne a été développée au cours de plusieurs Conseils européens postérieurs et repose sur trois piliers :
Un pilier économique qui vise à transformer l'économie européenne en une économie compétitive, dynamique et fondée sur la connaissance.
Un pilier social qui doit permettre de moderniser le modèle social européen grâce à l'investissement dans les ressources humaines et à la lutte contre l'exclusion sociale.
Un pilier environnemental, ajouté lors du Conseil européen de Göteborg en juin 2001, qui attire l'attention sur le fait que la croissance économique doit être dissociée de l'utilisation des ressources naturelles.
Cet objectif était chiffré : les états s'engageaient à atteindre en 2010 un taux d'investissement -public et privé- total dans la R&D égal à 3% du PIB européen (objectif dit de Barcelone) et un taux d'emploi de 70% (proportion de la population européenne en âge de travailler qui occupe un emploi).
Cette règle unanime des 3% était jugée comme largement accessible en comparaison des autres pays développés. L'espoir était au rendez-vous, le développement scientifique était programmé, et d'ailleurs réaffirmé en 2005 par le Conseil Européen (chapitre 11 du rapport de mars 2005).
Même si la stratégie de Lisbonne a été revue à la baisse par les Etats, il convient de regarder les dépenses de R&D de manière relative entre eux. Ainsi la France se situait en 1993 au 5e rang mondial en pourcentage de la richesse nationale consacré à la recherche. Le rapport annuel de la société Battelle montre que le pourcentage de dépenses en R&D de la France est descendu sous la barre symbolique des 2% depuis 2010 (2% en 2009, 1,9% en 2010, 1,9% en 2011). La France se retrouve en 6ème place en valeur absolue dans le classement mondial en termes d’investissement en R&D pour 2011, alors qu'elle était encore 5ème en 2009. Elle se retrouve surtout mal placée en investissement relatif au PIB, bien loin des 3%, et 13ème derrière Israel (4,2%), le Japon et la Suède (3,3%), la Finlande (3,1%), la Corée du Sud (3%), les Etats-Unis (2,7%), l'Autriche (2,5%), le Dannemark (2,4%), l'Allemagne, Taiwan, la Suisse, l'Islande et Singapour (2,3%).
Bien entendu, toutes les bonnes raisons et justifications des politiques en charge sont au rendez-vous ! reste que la recherche française s'appauvrit, loin des engagements et du but fixé des 3%.
Voir le rapport Battelle 2009.
Voir le rapport Battelle 2011.
Voir l'ensemble des tableaux de la R&D en Europe/OCDE.

22 novembre 2011

DIV : 40 propositions des ingénieurs pour réindustrialiser la France !

Depuis trop longtemps négligés dans le débat public, méconnus des politiques plus prompts à valoriser les diplômés des écoles de commerce, de politique ou autres plus que de conception ou de production, régulièrement malmenés par des universitaires rêvant de dissoudre les écoles dans des universités pour conjurer leur propre décrépitude, et parfois victimes d'une nouvelle engeance de manageurs-dépaysateurs, les ingénieurs et scientifiques entendent profiter des campagnes électorales de 2012 pour faire valoir leur voix.
C'est sous la forme d'un livre blanc que les ingénieurs et scientifique de France ont regroupé 40 propositions pour réindustrialiser la France.
Le Livre blanc vient d'être envoyé aux candidats à la présidentielle et aux parlementaires.
Il fera l'objet de rencontres et débats jusqu'aux élections législatives, relayés par de grands médias comme L'Usine Nouvelle.
Les sujets n'y manquent pas : Fukushima, Mediator, PSA, Investissements d'avenir... C'est l'actualité qui guide les questions et les propositions pour lesquelles la science et l'ingénierie est au centre des réponses.
Selon L'Usine Nouvelle : un vrai travail d'ingénieurs, méthodique et mesuré. cela change de certains discours et sa lecture ferait certainement du bien à certains candidats ... pour peu qu'ils le veuillent ou le puissent, dans les quelques mois prochains qui s'annoncent fort mouvementés.
Lire le livre blanc (.pdf).

IA : L'année Turing

À l'occasion du centenaire de la naissance de Alan Turing, plusieurs actions vont être menées au cours de cette année 2012.
La revue Philosophia Scientiæ publiera un volume spécial, prévu pour mars, comportant une sélection d'articles en rapport avec trois thématiques : 
1. Histoire des sciences : L'œuvre de Turing dans l'histoire de la logique mathématique
2. Philosophie de la logique : L'œuvre  de Turing du point de vue de la philosophie de la logique
3. Logique mathématique, informatique fondamentale: L'influence actuelle de l'œuvre de Turing en logique mathématique.
Du 2 au 6 juillet 2012 se tiendra à Birmingham (Royaume Uni) la réunion conjointe de l'AISB (The Society for the Study of Artificial Intelligence and Simulation of Behaviour) et de l'IACAP (The International Association for Computing and Philosophy) consacrée à Turing.
De nombreuses autres initiatives seront signalées ici au fil des mois prochains.
L'année Turing est coordonnée par le Turing Centenary Advisory Committee (TCAC).

20 novembre 2011

DIV : Mystères chinois ...

(40.452107,93.742118), (40.458148,93.393145) pour un rectangle ou un carré rainurés, ou même des carrés en carré (ici) ;
(40.458679,93.31314) pour les douze cadrans d'une forme spirale ;
(40.452107,90.85693359375) pour de grands bassins ...!

Tapez ces coordonnées dans Google-Map ...
C'est la liste que Gizmodo publie en posant la question "mais que fait la Chine dans son désert" dans son billet du 13 novembre 2011 ?
Quelles sont ces gigantesques structures construites et couvertes parfois de voitures détruites, ou striées d'immenses bandes tirées au cordeau ? Et que sont ces aérodromes doubles et lumineux, à pièces déportées (40.488966,93.50004), ces immenses piscines côtoyant des tours similaires à celles d'une usine nucléaire, ou ces alignements de stries parallèles sur des kilomètres et des kilomètres (44.711336, 93.529494) ?
C'est à n'y rien comprendre, vu d'en haut, sauf que la Chine construit dans l'immensité du désert, des structures elle-mêmes démesurées, dont l'occident ignore tout ... mais que Google voit ...

19 novembre 2011

DIV : Encore trop vite pour la lumière ...

La polémique sur les particules qui semblent avoir dépassé la limite de la vitesse de la lumière, et que nous annoncions le 23 septembre dernier, n'est pas prête de s'arrêter.
Une nouvelle expérience organisée entre le Cern et l'Italie a encore une fois montré que les neutrinos avaient clairement dépassé la vitesse de la lumière, éliminant une source d'erreurs potentielles dans les premières mesures. Ces neutrinos ultraluminiques mettent à mal une nouvelle fois la théorie de la relativité restreinte.
faut-il revoir la physique ?

15 novembre 2011

IA : Google laboratoire du futur.

Le New York Times vient de révéler dans son édition du 13 novembre 2011 (lien) l'existence à Montain-View (juste entre Stanford et Sunnyvale, en plein coeur de la Silicon Valley) d'un laboratoire secret, baptisé Google X, où de nombreux projets futuristes et technologiques sont en train de voir le jour.
Ce laboratoire du futur développe théoriquement et/ou pratiquement des projets pensés par les cerveaux "maison" : voitures drones (déjà révélé par Google), robots, ampoules télécommandées, ascenseurs spatiaux, etc., concernant tous l'interface homme-machine, la robotique, la domotique, et l'intelligence artificielle.

13 novembre 2011

IA - SHS : L'Opendata s'ouvre aux entreprises.

L'opendata correspond à la fois à un processus et à un mouvement récent qui consistent pour certaines administrations, telles que par exemple les villes de Paris, San-Francisco, New-York, Toronto ou Bordeaux, les gouvernements des USA, britanique, du Piémont italien, ou de la, France notamment avec Etalab, et secondairement pour certaines entreprises utilisatrices et productrices de données, telles que par exemple Kéolis à Rennes, à les mettre librement à disposition pour pouvoir les étudier, les croiser notamment avec d'autres données locales, les synthétiser, de créer de nouvelles applications innovantes ou de nouveaux usages, etc. (voir le blog de la fabrique digitale).
L’intérêt de cette ouverture est de favoriser les innovations de rupture et, par conséquence, de permettre une aide au développement social et économique. Dans cette perspective, les entreprises sont principalement utilisatrices des données initialement fournies par les institutions, mais elles deviennent également elles-mêmes sources de données ouvertes. La culture a mis du temps à pénétrer (et du temps à pénétrer encore aujourd'hui) les institutions ; elle est loin d'avoir convaincu les chefs d'entreprises toujours soucieuses de confidentialité, souvent dans l'illusion du secret compétitif. Pourtant, d'après les spécialistes, l’opendata est un nouveau moyen d’engagement, de développement et de partenariat des organismes administratifs et des entreprises entre-elles.
Voir une présentation pédagogique sur Slideshare (lien).
En partenariat avec la SNCF, le Groupe La Poste, Suez Environnement, le Groupe POULT, Bluenove, l'un des leaders des services d'open-innovation et d'innovation de ruptures, publie son livre blanc «Open Data : quels enjeux et opportunités pour l’entreprise?»
Le livre est disponible au téléchargement ici (lien).
Le livre blanc est préfacé par Carlo Ratti, directeur du MIT Senseable City Lab., sous le titre «L’Open Data: quels enjeux et opportunité pour l’entreprise?», ainsi qu'en 4ème de couverture un texte de Martin Duval, CEO de Bluenove.

IA - SHS : Le RAT de l'ombre a-t-il été découvert ?

Qui est le RAT de l'ombre ? C'est la question que se pose la société de surveillance et sécurité informatique mondiale McAfee qui vient de révéler l'existence de la plus grande entreprise de piratage informatique de l'histoire.
En cinq ans, au moins 72 gouvernements, ONG, et autres organisations institutionnelles comme les Nations Unies, le Comité Olympique International, l’Agence mondiale antidopage, l'Agence américaine pour  l’énergie, les gouvernements des Etats-Unis, de Taïwan, de l’Inde, de la Corée du Sud, du Vietnam et du Canada, l’Association des nations de l’Asie du Sud-Est, ainsi qu’une multitude de sociétés, des spécialistes de la défense aux entreprises de High-Tech ... ont été attaqués et victimes d'effractions au cours de ces 5 ans.
McAfee suppose, sans la nommer, qu’il y a une seule «entité étatique» derrière ces attaques. D'autres experts, relayés par la presse, désignent plus explicitement un grand état asiatique en pleine progression mondiale. Ces attaques baptisées « Operation Shady RAT » ou « Opération RAT de l’ombre », (RAT étant l’acronyme de « Remote Access Tool » ou « Outil d’accès à distance ») ont pu être liées les unes aux autres par le fait qu’elles ont été découvertes via les archives d’un serveur de « commande et contrôle » examiné par McAfee au début de l'année 2009.
Une carte des attaques est disponible sur le site de Reuters.
Dans le cas des Nations Unies, les hackers ont pénétré dans le système informatique du secrétariat de l’organisation à Genève, ils y sont restés cachés pendant presque deux ans et y ont tranquillement consulté des informations confidentielles. D'autres effractions ont été plus rapides, surement par manque d'intérêt des contenus.
Lire le rapport McAfee "Shady Rat" (.pdf).

12 novembre 2011

DIV : 7 merveilles de la nature.

A l'instar du classement des "7 nouvelles merveilles du Monde", établies sur le principe des "7 merveilles du monde antique" (établies par Philon de Byzance), et avant le classement des "7 villes merveilleuses", ou "Wondercities", le classement des "7 merveilles de la Nature" a été publié par la fondation suisse New7Wonders.
Par ordre alphabétique, les plus beaux endroits du monde seraient, parmi 28 finalistes :
Pourquoi pas, et à quand, les "7 merveilles de la littérature", les "7 merveilles de l'art", "7 merveilles de la sciences " et les "7 merveilles de la technologie" ? Encore un peu d'imagination, Monsieur Werber !

11 novembre 2011

DIV : C'est le moment "1" à la minute près.

Il est onze heures onze, ce vendredi 11 novembre 2011.
Autrement dit ou, pour l'occasion, écrit : 11/11/11 11:11
Rendez vous l'an prochain, dans 13 mois et 71 minutes de plus ... ou dans un siècle exactement !

09 novembre 2011

IA - SHS : Du sérieux dans les jeux - Revue d'Intelligence Artificielle.

La Revue d’Intelligence Artificielle (RIA) publie ous la direction de Jérome Dupire, Jean-Marc Labat et Stéphane Natkin, un numéro spécial sur les "Serious Games".
Dans ce domaine, la France accompagne le mouvement international avec les américains, canadiens, anglais, allemands ou japonais. L'activité du domaine est d'ailleurs loin d'être négligeable, représentant un réel enjeu économique.
Intitulé "Jeu sérieux, révolution pédagogique ou effet de mode ?", RIA propose 6 articles questionnant les enjeux et problèmes soulevés par les serious games.
Au sommaire :
Du jeu sérieux au jeu utile - Introduction - par Jérome Dupire, Jean-Marc Labat et Stéphane Natkin;
Les sciences cognitives jettent un pont entre éducation et jeux sérieux - par Elena Pasquinelli;
Evaluation d’un jeu sérieux pour l’apprentissage de la programmation - par Mathieu Muratet, Patrice Torguet, Fabienne Viallet et Jean-Pierre Jessel;
Usage d’un jeu sérieux dans l’enseignement secondaire. Modélisation comportementale et épistémique de l’apprenant - par Eric Sanchez;
Améliorer la motivation dans les environnements d’apprentissage basés sur le jeu - par Thibault Carron et Jean-Charles Marty;
Techniques d’adaptation dans les jeux ludiques et sérieux. Etat de l’art - par Nadia Hocine, Abdelkder Gouaïch, Ines Di Loreto et Lylia Abrouk;
Authenticité d’un jeu sérieux. Modèle pour la conception et l’analyse - par Celso Gonçalves, Marie-Caroline Croiset, Muriel Ney, Nicolas Balacheff, Claudine Schwartz et Jean-Luc Bosson.
Accéder à la présentation du volume (.pdf).
Se procurer le numéro (lien).

08 novembre 2011

IA : Un chien d'aveugle en dur.

La firme NSK du japon vient de développer le NR003, qui est un chien robotique destiné aux aveugles.
Ce prototype de "dogbot" se présente comme une quadrupède, dont le malvoyant saisi une anse de collier, et qui est doté d’un capteur Kinect.
Kinect est un néologisme issu de kinetic et connect. Ce capteur est bien connu du monde du jeu vidéo depuis 2007, année de sa commercialisation. Il s'agit d'un périphérique de la console de jeux vidéo Xbox 360, qui permet d'interagir avec elle sans utiliser de manette ou de clavier, directement grâce à une caméra et un capteur sonore. La caméra utilise des techniques d’interaction développées par PrimeSense, et elle permet la reconnaissance d’image et de mouvement. Kinect permet ainsi d’interagir par commande vocale ou par geste.
Le capteur permet au robot-guide d’identifier des obstacles et de les franchir avec plus ou moins de rapidité.
NSK envisage de doter son dogbot d'un système de commandes vocales et de le doter d’un GPS permettant une géolocalisation interactive.
Le robot est actuellement en phase prototype, et bien peu adaptable à une utilisation fluide des déplacements des malvoyants. Néanmoins, on peut saluer la performance et prévoir des développements qui permettent d'espérer des dogbots en remplacement des chiens d'aveugles les prochaines années. Bien qu'il ne faille plus lui "apprendre le trottoir" ni lui servir sa "gamelle", restera cependant à savoir si les relations avec ce tas de ferraille seront aussi conviviales qu'avec un vrai "meilleur ami de l'homme".
Voir une vidéo (lien).

06 novembre 2011

IA - SHS : Du Web 1 au Web 5 - le 3, ça coince.

Du Web 1.0 au Web 5.0, le passage au Web 3.0 n'est pas celui que l'on attendait.
Lire la chronique de Jean-Marie Le Ray (lien), expert du monde web, sur l'excellent site "presse citron" et sur "humain sémantique".

DIV : Après "Aerospace valley", Agrimip devient pôle inter-régional Aquitaine Midi-Pyrénées.

Le pôle de compétitivité "Agrimip Sud-Ouest" devient une nouvelle structure inter-régionale associant Aquitaine et midi-Pyrénées, à l'exemple du pôle de compétitivité Aerospace Valley, pour l'excellence et l'innovation agro-industrielle.
Issu du développement du pôle midi pyrénéen AgriMip et à son extension à la région Aquitaine, le pôle de compétitivité a été officialisé ce 4 novembre 2011 lors de l'Assemblée générale de la Fédération Régionale des Coopératives Agricoles (FRCA).
Plus de détails (lien).

IA - SHS : Les nouvelles technologies : révolution culturelle et cognitive selon Serres

« Les nouvelles technologies nous ont condamnés à devenir intelligents ! ». C'est ce que postule Michel Serres...
Le 11 décembre 2007, à l'occasion des 40 ans de l'INRIA, le sociologuqe Michel Serres a donné une conférence sur la révolution culturelle et cognitive engendrée par les nouvelles technologies.
Pour lui, la révolution informatique change notre rapport au monde, comme avant elle l'écriture, puis l'imprimerie l'avaient fait. Une conséquence inévitable de cette révolution est le changement de notre rapport au monde.
La révolution cognitive générée par la révolution de l'information relève notamment de la dépersonnalisation et de l'externalisation de la mémoire, entrainant aussi inventivité, nouvelle intelligence et participation à cette nouvelle Histoire.
Visionner la vidéo - 1 heure - sur le site de culture scientifique "interstices" (lien).
Écouter la conférence en MP3 (lien).

05 novembre 2011

IA : Un UAV pour le viaduc de Millau.

Le viaduc de Millau est aujourd'hui l'ensemble routier le plus haut du Monde. Ce pont à haubans franchit la vallée du Tarn (Aveyron, France), sur une brèche de 2460 mètres de longueur avec 270 mètres de profondeur au point de surplomb le plus important. Il permet ainsi à l’autoroute "Méridienne" de relier, au sud de Millau, Clermont-Ferrand à Béziers. Oeuvre de l’architecte Norman Foster, il a été construit pour 320 millions d’euros par le groupe Eiffage, et mis en service en décembre 2004.
Bien que garanti pour 120 ans, l'ouvrage subit une "grande visite" d'entretien tous les six ans. C'est dans cette perspective que Eiffage a missionné la société Diadès qui adjoindra à la vingtaine d'ingénieurs, techniciens et experts, un drone doté de moyens de transmission et d'enregistrement des photos et vidéos. Ce dispositif technique permettra un diagnostic détaillé de pièces inaccessibles avec un géo-référencement temps réel.
L'UAV U-130 a été conçu par la société de robotique aérienne Novadem et peut voler à plus de 200 m de hauteur, en vol dynamique ou statique, par condition de beau temps.

01 novembre 2011

IA - SHS : Comment débattre des nouvelles technologies ?

Le Centre d'analyse stratégique propose un colloque

Comment débattre des nouvelles technologies ?
Mardi 8 novembre 2011 de 14h30 à 18h30
Maison de la Chimie, Salle 162
28, rue Saint-Dominique - 75007 Paris

Comment notre société peut-elle débattre du développement des technologies et des innovations émergentes, afin d’aboutir à leur développement responsable ? Quels principes doivent nous guider dans l’organisation des concertations correspondantes ?
Inscription (lien).

BIO : Le posthumanisme est-il en marche ? Reprogrammation de cellules âgées en cellules souches.

Le projet posthumaniste de maîtrise du vieillissement est-il en train de prendre de la concrétude ?
Des chercheurs de l'Institut de génomique fonctionnelle de l'université de Montpellier 1 viennent de publier dans le numéro du 1er novembre 2011 (lien) de la revue Genes & Development des travaux portant sur la possibilité d'effacer les marques de vieillissement des cellules de donneurs âgés de plus de 100 ans, et de les reprogrammant au stade de cellules souches, montrant ainsi que le processus du vieillissement est biologiquement réversible : il est possible de renverser le cours spontané du vieillissement.
En 2006-2007, l'équipe japonaise de Shinya Yamakanaka a montré qu'on pouvait obtenir des cellules souches non embryonnaires (Induced Pluripotent Stem Cells - IPSC) à partir de cellule adultes littéralement "reprogrammées" grâce à un "cocktail" de quatre gènes transportés par des virus qui vont s'intégrer au noyau (lentivirus). Ces cellules "artificiellement" dopées présentent les mêmes potentialités que des cellules souches embryonnaires et sont donc pluripotentes, c'est-à-dire capables de se différentier en différents tissus anatomo-fonctionnels selon les besoins.
On pensait que la reprogrammation des cellules adultes humaines en cellules souches était pourtant contrainte par la limite de la sénescence. la frontière est aujourd'hui tombée et les cellules ayant atteint l'arrêt de leur propre capacité de reproduction par prolifération en culture, peuvent être de la même manière reprogrammées.
Au delà des applications potentielles pour la réparation des organes malades, on pense évidemment au maintien d'une capacité cicatricielle, aux greffes de tissus tels que la peau ou les neurones, et au maintien artificiel d'une situation de combat du vieillissement. Cette reprogrammation à partir de propres cellules du receveur contourne d'ailleurs le problème éthique de l'utilisation potentielle de cellules souches d'embryons, jusqu'ici interdite.
La publication rapporte comment les chercheurs ont dans un premier temps multiplié des cellules de la peau (fibroblastes) d'un donneur de 74 ans pour atteindre l'état de sénescence et l'arrêt conséquant de la prolifération des cellules. La reprogrammation in vitro de ces cellules étant alors impossible avec la préparation classique (à base de quatre facteurs génétiques : OCT4, SOX2, C MYC et KLF4 utilisés par les chercheurs japonais), les chercheurs montpellierains ont ajouté deux autres facteurs génétiques (NANOG et LIN28) pour un nouveau "cocktail" à six ingrédients. Les cellules sénescentes reprogrammées ont réacquis les caractéristiques de cellules souches pluripotentes de type embryonnaire, en ne conservant aucune trace de leur vieillissement antérieur. Tout se passe comme si les marqueurs de l'âge des cellules ont été effacés, avec l'acquisition d'une capacité de prolifération et une longévité accrues.
Ce cocktail a également été testé sur des cellules de donneurs de 92 à 101 ans, avec le même résultats, montrant que l'âge n'est plus une barrière à la reprogrammation cellulaire.
Si le débat sur l'utilisation de cellules embryonnaires est ainsi contournée, s'ouvre aujourd'hui celui de la réparation des organes ou des tissus chez des sujets pouvant ainsi espérer reculer indéfiniment le vieillissement de leur corps.
La porte est-elle aujourd'hui ouverte sur le posthumanisme ? En tous cas, ce résultats ne manqueront pas d'alimenter les débats des partisans de l'homme augmenté.
Résumé de la publication (lien).
Les équipes citées appartiennent aux institutions montpelliéraines :
Institut de génomique fonctionnelle (Inserm, Cnrs, Université de Montpellier) - Institut de génomique humaine (Cnrs) - Département de génétique du CHU Arnaud de Villeneuve - Institut de recherche en biothérapie (CHU Saint-Eloi et Université de Montpellier).

28 octobre 2011

SHS : D'Alembert s'interroge sur les pratiques du numérique.

Le Centre Interdisciplinaire d'Étude de l'Évolution des Idées, des Sciences et des Techniques d'Alembert (CIEEIST) de l'Université Paris Sud organise son séminaire annuel autour des notions de Nouvelles pratiques et cultures du numérique dans les sciences et les technologies.
Le séminaire aborde l'émergence de ces nouvelles pratiques et cultures dans la production du savoir scientifique, sa validation et sa circulation, sous l'influence des récentes évolutions du numérique en particulier afférentes à Internet.

Au programme :

  • Modification de la manière de construire et partager le savoir.
  • Science participative, apprentissage collaboratif.
  • Les observatoires virtuels.
  • Nouveaux modes de publication scientifique, de validation et d'accès.
  • Logiciel libre, ressources libres, données libres.
  • Les mathématiques à l'heure du numérique.
  • Les changements dans les mathématiques appliquées.
  • Nouvelles problématiques et mise en réseau des données en physique des particules.
  • Web sémantique, web social.
  • Enseignement et apprentissage des sciences
  • Biologie et numérique.
  • Visualisation de données.

Renseignements - programme (pdf).

SHS : Nouveaux usages d’Internet, nouvelle gouvernance pour l’Etat

Colloque : Nouveaux usages d’Internet, nouvelle gouvernance pour l’Etat
Lundi 7 novembre 2011 de 8h30 à 13h
Amphithéâtre Boris Vian - Grande Halle de la Villette, 211 avenue Jean Jaurés - Paris XIXème.
L'Open Data est l'un des thèmes phares qui sera abordé lors de cet évènement en présence de nombreuses personnalités et en collaboration avec Etalab.
Programme du colloque (lien).

IA : Le guépard dévore les données.

Jubatus est le nom scientifique du guépard (Acinonyx jubatus). C'est aussi le nom d'une nouvelle technologie d'analyse en temps réel de très gros volumes de données développé par Nippon Telegraph and Telephone (NTT), l'un des leaders japonais des technologies de l'information connu récemment pour avoir doublé la vitesse et détenir le record de transmission par fibre optique, et par Preferred Research, la branche R&D de Prefered Infrastructure, une entreprise japonaise d'informatique et télécom du Hongo Campus de l'Université de Tokyo.
Classiquement, les systèmes d'analyse de données reposent sur un traitement séquentiel "par lots" (batch). Un tel type de traitement n'est pas assez efficace pour les applications massives temps-réel, puisque le batch demande à un serveur d'attendre que toutes les données précédemment reçues soient traitées avant de commencer sa propre analyse.
Les systèmes précédents qui traitent de ce problème d'"explosion des données" sont par exemple Hadoop [1], un framework de développement communautaire supporté par Yahoo!, permettent de diviser des données en clusters selon un procédé de type MapReduce (système conçu par Google) et de les proposer indépendemment à différents serveurs.
Le principe de Jubatus est une analyse continue "distribuée" entre les serveurs. Pour surmonter le problème de la communication entre les serveurs, Jubatus agrège de manière particulièrement flexible des résultats intermédiaires (appelé MIX). Au lieu d'effectuer une comparaison des résultats d'analyse uniquement à la fin de chaque itération, le système optimise le moment où cette opération sera réalisée de façon à augmenter la productivité de chaque serveur et la rapidité de début de calcul. Le système repose sur une architecture dite "pluggable" : les moteurs et modules d'analyse disposent d'interfaces communes. Ils peuvent alors être simplement utilisés comme "briques logicielles".
L'objectif de Jubatus est clairement l'analyse temps réel des informations Internet, avec des projets sur l'étude et la catégorisation instantannée des messages des réseaux sociaux types à des fins de filtrage ou de "recherche floue", dans la détection immédiate de tentatives terroristes ou de cyber-attaques.
Le framework sera prochainement mis à disposition du public en open-source, avec l'espoir ouvertement affirmé de créer une communauté d'utilisateurs

IA : Définition du Cloud Computing par le NIST (USA)

Mandaté par le Congrès américain via le Federal Information Security Management Act (FISMA 2002), notamment pour établir des standards et des directives dans le domaine de l'informatique à l'attention des agences fédérales américaines, le National Institute for Standards and Technology (NIST) a publié en septembre 2011 un rapport de définition finale du Cloud Computing (Informatique dans le nuage) et les recommandations pour le CC (lien).

Le cloud computing possède 5 caractéristiques essentielles :

  1. un service en libre-service à la demande;
  2. accessible sur l'ensemble d'un réseau;
  3. avec une mutualisation des ressources;
  4. rapidement élastique (adaptation rapide à une variation du besoin);
  5. et mesurable (mesure et affichage de paramètres de consommation).

Le NIST distingue 3 niveaux de service :

  1. le logiciel en tant que service (Software as a Service - SaaS) - par exemple un usager "loue" un logiciel de comptabilité, en ligne, à la demande, chez un prestataire externe;
  2. la plateforme en tant que service (PaaS) - une solution externe qui propose une suite logicielle et les outils d'intégration et de suivi, tels qu'un serveur web (Linux+Apache+MySQL+Php);
  3. l'infrastructure en tant que service (IaaS) - la totalité de l'infrastructure (ressources matérielles) est externe, par exemple une capacité de stockage et une capacité de calcul à la demande sur un réseau.

Le CC possède 4 modèles hiérarchiques de déploiement :

  1. le nuage privé (au sein d'une même organisation);
  2. le nuage communautaire (réservé à une communauté);
  3. le nuage public (ouvert au grand public);
  4. le nuage hybride (composition de plusieurs types de nuages).

Ce processus de standardisation implique un grand nombre d'institutions d'Etat et une large partie du secteur privé économique, administratif et industriel. La prochaine étape des travaux prévus est celle de l'élaboration des normes, notamment en termes d'échange de données, et celle des méthodes pour éviter le "lock-in" (emprisonnement) et des méthodes de sécurité.
Ce rapport sera présenté et discuté lors du prochain "Cloud Computing Forum & Workshop IV" qui se tiendra du 2 au 4 novembre 2011 à Gaithersburg (Maryland - USA).

Accès au rapport du NIST (pdf).

20 octobre 2011

IA : Colloque "Ingénierie numérique" : ruptures et technologies émergentes

Le Colloque Ingénierie Numérique «Entre ruptures technologiques et progrès économique et sociétal» est organisé par le pôle de compétitivité parisien des contenus et services numériques "Cap Digital".
Il se tiendra au Conseil Économique, Social et Environnemental à Paris (Palais d’Iéna) le vendredi 25 novembre 2011.
Ce colloque permettra de croiser les approches technologiques, économiques et sociétales, à propos des avancées et ruptures de certaines technologies-clé du numérique (virtualisation, immersion-3D, modélisation et simulation, masses de données), ainsi que des opportunités et des conditions de leur mise en œuvre à partir de l’expérience de quelques grands secteurs industriels (transports, chimie-matériaux, industries agro-alimentaires).
Organisé sous forme de tables rondes thématiques, le colloque fait intervenir chercheurs et industriels, grands groupes et PME, acteurs des pôles de compétitivité.
MATIN : Ruptures et technologies émergentes : virtualisation et immersion 3D, modélisation et simulation, masses de données ;
APRES-MIDI : Contribution des ruptures technologiques à l’activité industrielle : Secteurs des Transports, de la Chimie et des Matériaux, et Agro-alimentaire.

SHS : Les réseaux sociaux en débat.

L’Institut de Recherches Economiques et Sociales sur les Télécommunications (IREST) organise une réunion-débat sur les réseaux sociaux le jeudi 8 décembre 2011 de 18:00h à 20h à Telecom ParisTech (46, rue Barrault 75013 Paris).

Les réseaux sociaux : Quelles pratiques ? Quels usages ?
Débat animé par Anne-Marie Laulan (professeur émérite à l'Université Bordeaux 3),
avec : Alexandre Coutant (Université de Franche-Comté et ISCC), Bruno Salgues (Institut Télécom), Thomas Stenger (Université de Poitiers et ISCC), Jean-Michel Vergne (BlueKiwi Software).

infos et réservation en ligne (lien).

IA - SHS : Culture numérique - le réseau.

Culture Numérique est un réseau de chercheurs issus de différents domaines scientifiques, qui s'intéressent aux problématiques posées par les usages des technologies du numérique.
Culture Numérique organise chaque année le Colloque scientifique "Ludovia", lors de la dernière semaine d'août,
à Ax les thermes (Ariège).
Accès au site (lien).

DIV : Infuser les idées - un blog à suivre ...

L’Infusoir est le blog de Mélodie Faury, qui s'illustre aussi dans le Portail "Science et société" et "les atomes crochus". Elle le présente ainsi :
Une approche réflexive sur des sciences ? Faisons infuser nos idées… Mettons dans notre théière quelques pincées de réflexion, trois grammes de bioéthique, un zeste de politique, un parfum d’avenir ; en prendrez-vous une tasse ?
Un point de départ : questionner ma discipline d’origine, la biologie moléculaire et cellulaire.
Qui m’emmènera bien plus loin, aux croisements de l’histoire, de l’épistémologie, de la philosophie et de la sociologie des sciences… avec toujours au centre la question des relations entre sciences et société.
Pour une approche réflexive de la science, où communication scientifique, notamment via la vulgarisation, et culture scientifique auront certainement un place de choix.

IA - SHS : "Big Brother" impossible à arrêter !

"Surtout les réseaux sociaux, planétaires avec des ramifications infinies, et la géolocalisation, invisible et irréversible. Il est prévu qu'un jour les nanotechnologies soient utilisées dans les systèmes d'information. On se retrouvera alors avec des milliers, voire des millions, de puces RFID [de radio-identification, NDLR] invisibles à l'œil et disséminées partout à l'initiative du secteur public ou privé. On regrettera bientôt l'idée du bon vieux Big Brother, visible et ventripotent. Avec ces milliers de "nano-Brothers" invisibles qui se promènent partout dans la nature, on sera alors face à un phénomène irréversible. Les systèmes d'informations verront et entendront à distance. Nous n'aurons plus jamais la certitude absolue d'être seul, et serons toujours entendu, vu, surveillé... C'est absolument insupportable !"
Déclaration de Alex Türk, sénateur du Nord et président démissionnaire de la Commission nationale de l'informatique et des libertés (Cnil), dans le Nouvel Obs (lien).

Voir également sur ce sujet : Tous fichés ... (Nouvel Obs)

19 octobre 2011

SHS - BIO - IA : pour une définition de l'interdisciplinarité

Séminaire Intersciences
Centre François Viète
Université de Nantes

28 octobre à 14h

Édouard Kleinpeter de l'Institut des Sciences de la Communication du CNRS.
«Pour une définition de l’interdisciplinarité»
http://www.sciences.univ-nantes.fr/cfv/

16 octobre 2011

DIV : Les dimensions de l'univers physique.

En musique, pour comprendre les dimensions physiques, de l'immensité du cosmos aux espaces les plus fins de la matérialité, le site "The Scale of thé Universe" donne à voir la physique sous un jour amusant.

15 octobre 2011

IA : Anatomie du Web

La société Telegeography récolte et analyse depuis plus de vingt ans les données du marché des télécommunications pour en donner des illustrations compréhensibles, en déduire les grandes tendances, et donner des conseils aux entreprises et organismes du secteur.
Telegeographie vient de publier la carte interactive des câbles sous-marins et des infrastructures gigantesques qui sous-tendent notamment le Web mondial.
D’autres schémas sont également publiés, tels que celui de la morphologie du net.
Voir la carte interactive (lien).

07 octobre 2011

DIV : ABECédaire - appel à contributions

Pour faire évoluer l'ABÉCédaire, chaque lecteur est invité à rédiger et communiquer des pages de documentation et de définition des grandes notions utiles aux étudiants de l'ENSC.


Merci de votre contribution collective.

06 octobre 2011

BIO : Un laboratoire sur une puce.


La biopuce « mChip » conçue par Samuel Sia et ses collègues du département de biological engineering de l’Université de Columbia, est un véritable laboratoire d’analyses portable. Cette puce a un coût de production d'environ un dollar, et a la capacité de diagnostiquer (pour l'instant) dix maladies différentes simultanément.
Le système nécessite une goutte de sang déposée sur une carte dans laquelle est insérée la biopuce. La lecture se fait immédiatement sur un appareil électronique d’une centaine d’euros, comme un lecteur de cartes bancaires.
Le principe repose sur un dispositif qui fonctionne sur un système de nano particules d’or et d’argent couplées avec une puce électronique. En fonction de la concentration d’agents pathogènes, le film de la biopuce est plus ou moins opaque.
Testée sur une centaine de patients rwandais, l’efficacité de « mChip » est surprenante pour sa facilité et sa fiabilité (proche de 100%). Cette découverte ne manquera pas de modifier profondément le domaine de l'analyse biologique et médicale, avec une commercialisation facilitée qui peut être envisagée directement chez le médecin ou dans les pharmacies ou parapharmacies, avec un dépistage sur place.
Résumé dans Nature Medicine, n°17, pp. 1015–1019 (2011) doi:10.1038/nm.2408

DIV : Internet : toute une histoire ! (conférence)

Internet : toute une histoire !
Conférence de Serge Soudoplatoff.
Jeudi 13 octobre 2011 à 18h
A Cap Sciences
Hangar 20 des quais de Bordeaux
"De tout temps, nous avons inventé des nouveaux outils pour transmettre, partager et conserver nos connaissances et nos idées : l'écriture, l'alphabet puis le livre, l'imprimerie… et aujourd’hui Internet.
Serge Soudoplatoff vient nous parler de ce phénomène qui a si vite envahi nos vies que l’on oublie de s’interroger : quelle est l'origine d'Internet ? Comment fonctionne-t-il ? Pourquoi bouleverse-t-il tant notre quotidien et quel futur nous construit-il ?"

Entrée libre et gratuite.

BIO - IA : Cybersinges – des hybrides contre le handicap.

L'équipe de Miguel Nicolelis, du Duke University
Center for Neuroengineering de Caroline du Nord (USA) a testé pour la première fois avec succès une interface brain-computer-brain (BMBI) chez deux singes. Grace à un implant fixé dans le cerveau des singes, les animaux ont appris, sans bouger leur propre corps, à mouvoir un bras avatar et à sentir des objets (virtuels également) (voir la vidéo).
L'implant électronique a été fixé dans le cortex moteur. C'est donc exclusivement par la pensée que les singes bougent le bras virtuel, et ont appris en retour et sentir la texture des objets qu'ils touchent ainsi, à travers des signaux électriques envoyés dans leur cerveau.
L'enjeu d'une telle étude est la conception de puces permettant à terme à des patients paraplégiques de contrôler un exosquelette couvrant le corps entier, et qui pourrait ainsi mouvoir les membres paralysés via l'implant, tout en leur permettant en retour des sensations tactiles, voire kinestésiques, envoyées sous forme électrique à l'implant.
Cette étude a été publiée dans la revue Nature du 5 octobre 2011 (résumé), et relayée par le Guardian (lien).

DIV : Steve Jobs est mort.

03 octobre 2011

BIO : Chaud au cerveau, baillez un coup !

Phénomène physiologique réflexe, le bâillement est souvent associé à l'ennui ou à la fatigue. Il provoque une profonde respiration.
Chacun d'entre nous baille environ 5 à 10 fois par jour. La fréquence est accrue au réveil, après le repas méridien et le soir avant le coucher.
Une étude physiologique menée à Tucson (Arizona : le pays de Geronimo - 1829-1909 - chef apache dont le vrai nom était Go Khla Yeh : celui qui baille), laisse penser que le bâillement pourrait aussi jouer un rôle de régulateur thermique pour le cerveau.
Andrew Gallup, du Département d'Ecologie et de biologie évolutive de l'université de Princeton, et son coauteur Omar Eldakar, stagiaire postdoctoral à l'Université d'Arizona, ont publié dans le Journal "Frontiers in Evolutionary Neuroscience" des résultats obtenus chez 160 volontaires. L'étude montre que la fréquence des bâillements varie avec la saison et les individus baillent moins quand la température extérieure est égale ou supérieure à la température corporelle. Les auteurs ont quantifié les bâillements durant l'hiver (80 sujets testés à 22 degrés Celsius en moyenne) et durant l'été (80 sujets à 37 degrés en moyenne). Les résultats indiquent qu'environ 50 % des volontaires baillent plus l'hivers par contraste avec l'été quand les températures sont équivalentes ou supérieures à celles du corps humain (moins de 25 % des participants baillent). Le bâillement est également associé au temps passé à l'extérieur puisque 40 % des participants baillent dans les 5 premières minutes après leur sortie puis ce pourcentage chute à 10 % ensuite en été alors qu'il augmente en hiver.
L'interprétation des auteurs est que le bâillement est lié à l'augmentation de la température du cerveau et sert donc de régulateur thermique par échange d'air avec l'extérieur. Des températures extérieures proches de 37°C ne permettent pas au cerveau de se rafraîchir contrairement aux températures basses de l'hiver.
Cette hypothèse confirme chez l'homme les résultats d'une précédente étude qui montrait une variation de température dans le cerveau de rats avant et après un bâillement. Le refroidissement du cerveau serait alors lié à l'augmentation du flux sanguin engendré par l'étirement de la mâchoire qui favorise l'échange de chaleur à partir de l'air ambiant qui accompagne l'inhalation profonde du bâillement.
Une piste surprenante ... à faire chauffer les neurones !
Voir : Gallup, A. C. and Eldakar, O. T. (2011) Contagious yawning and climate variation. Frontiers in Evolutionary Neuroscience 3, 1-4.

IA - SHS : Le Web contextuel.

Le Web devient "user-centric", il prend aujourd'hui en compte l’utilisateur et son contexte comme une seule entité anthropotechnique. C’est en tout cas le but du "User-Context-Module" (Module Utilisateur contextuel) que des chercheurs de l'Ambiant Intelligence Laboratory de l’université de Singapour proposent d'intégrer dans les architectures Internet. L'objectif est évidemment d'améliorer l’expérience utilisateur, mais également d'ajuster les réseaux et les applications selon des besoins et des ressources, en fonction du terminal utilisé, de l’endroit où il se trouve, du réseau disponible, et surtout des attentes potentielles de l'usager. C'est-à-dire selon le contexte.
Cette conception d'architecture et de fonctionnement repose sur les sciences cognitives, et sur la façon dont les informations sont représentées et traitées par les sujets. Or la pensée humaine est "sensible" au contexte et à son environnement, et prend les bonnes décisions en fonction de ceux-ci. Pour parvenir à ce type d’intelligence, l’architecture idéale doit savoir séparer l’hôte, son adresse, le nom de l’utilisateur final, les données et les périphériques réseau, et les manipuler de manière individuelle. Le module proposé, User-Context Module, a pour but d’intégrer des informations pertinentes de contexte.
Le Module se divise en trois sous-systèmes : le Context Interface, le Context Model, et le Contrôleur. Le premier interagit directement avec l’utilisateur final, son identité, ses préférences, et son environnement, sa localisation... Le deuxième recueille des informations sur le modèle de contexte, données abstraites sur le statut de l’utilisateur, son comportement sur le réseau. Le Contrôleur interagit directement avec les couches réseau et l’infrastructure, pour ajuster automatiquement les protocoles ou les paramètres capables d’optimiser les performances du réseau, et ainsi offrir une meilleure expérience à l’utilisateur.

DIV : Un drone pour les phoques.

Les UAV (unmanned aerial vehicle) plus couramment appelés drones, sont des engins aériens commandés par un pilote ou un équipage de spécialistes aériens depuis une base au sol ou en mer. Leur utilisation tactique a été largement commentée lors des deux guerres du Golfe et aujourd'hui en Afghanistan. Principalement d'usage militaire, tactique ou d'observation, ils servent également depuis quelques années pour des usages civils de surveillance des frontières, du trafic maritime et routier, mais aussi de recherche ou de sauvetage, de veille des feux de forêts et d'observation des espaces écologiques, ou pour des usages plus spécialisés par des professionnels de la pêche en mer, du BTP, de l'architecture ou de l'aménagement de bâtiments ou de chantiers immobiliers, routiers ou ferroviaires... Les usages scientifiques sont encore rares et ils méritent donc d'être signalés.
Les chercheurs de l'Université d'Arizona viennent d'acquérir un drone "ScanEagle" des sociétés Boeing et Insitu pour étudier les espaces inaccessibles de la surface de l'Artique, les cartographier, et faire l'inventaire des animaux épars qui occupent la banquise.
Dérivé du drone SeaScan de Insitu utilisé par les pêcheurs pour repérer les bancs de thon, ScanEagle a été initialement conçu comme drone léger de surveillance militaire. Il a été déployé par l'Armée américaine en Irak dès 2004, puis dans la Marine en 2005 pour des missions de patrouille maritime mais également des missions côtières depuis des navires au large. Il est également aujourd'hui utilisé par les armées australienne et canadienne.
Ce mini UAV monomoteur à hélice peut être équipé de plusieurs types de capteurs, enregistreurs et transmetteurs d'informations visibles ou infrarouges, d'un navigateur GPS et même pour les versions militaires d'un mini radar.
Il est capable d'une autonomie de 20 heures et de 100 km de rayon d'action, télécommandé depuis sa base.
Le programme scientifique est une collaboration du Cooperative Institute for Research in Environmental Sciences de l'Université du Colorado à Boulder, et de la National Oceanic and Atmospheric Administration. Initié en 2009, le programme est coordonné par Elizabeth Weatherhead du CIRES, et concerne à la fois la topographie et la biologie animale. Un premier objectif a été l'étude de quatre espèces de phoques. Le programme s'intéresse notamment à l'impact de la fonte de la banquise et de sa diminution de surface sur les populations animales.
Un exemple réussi de transfert du militaire au civil, au service de la biologie et de l'étude de l'environnement.

02 octobre 2011

BIO : Le nocebo, ou le côté obscur du placebo.

L'effet placebo est un fait admis seulement depuis la fin du siècle dernier. Jusque là, la médecine ne pouvait admettre l'influence d'une substance biochimiquement non active. Le terme vient du latin "je plairai" ; il apparait pour la première fois dans le dictionnaire médical anglais Hooper de 1811 : "médication destinée plus à plaire au patient qu'à être efficace".
L'effet placebo provoque une amélioration de l'état du patient sans pour autant qu'il soit soumis à une substance chimique active. Il peut être direct, c'est-à-dire agir directement sur la maladie ou ses symptômes, ou indirect, c'est-à-dire potentialiser l'action d'une molécule active prise en même temps.
Il est objectivement quantifié par l'écart positif constaté entre le résultat thérapeutique observé lors de l'administration d'un médicament et l'effet thérapeutique prévisible en fonction des données strictes de la pharmacologie. Il est d'autant plus critique qu'il intervient dans les essais en double aveugle, puisque le patient croit qu'il prend un médicament alors qu'il s'agit d'un placébo, ou pire, peut croire qu'il prend un placébo alors qu'il reçoit un traitement actif. Dans ce dernier cas, on parle de l'aspect négatif du placebo, que certain nomment "nocebo".
Si jusqu'ici les chercheurs se sont consacrés principalement à l'étude de l'influence positive du placébo, celle de l'effet nocebo (du latin : "je nuirai") n'est encore que confidentielle. Le terme a été utilisé 150 ans après celui de placébo, en 1961, par le médecin Walter Kennedy. Selon lui, un patient sur quatre en ferait l’objet. Il s’agit en quelque sorte d’un placebo qui a mal tourné, en intoxiquant ou provoquant des effets secondaires  tels que vertiges, maux de tête, diarrhées, allergies, douleurs menstruelles, etc. On a même noté des effets d'accoutumance, avec des patients devenu « accro » à un produit totalement neutre. Plus important encore, la présentation que l'on fait du traitement : prescrire un placebo à des patients sans leur préciser de quoi il s’agit, ni quels effets il peut produire, déclencherait des symptômes dans plus de 80 % des cas. Accompagner la prescription par un discours désobligeant ou menaçant augmenterait ainsi le taux de cholécystokinine, hormone impliquée dans la perception de la douleur.
L’effet nocebo peut prendre des proportions critiques pour la santé. On a montré qu'un placébo provoque l’impuissance chez un tiers des hommes auxquels on a exposé les désagréments possibles sur leur libido d'un traitement pour la prostate. Des patients parkinsoniens traités par électrodes implantées peuvent retrouver des difficultés à bouger et des tremblements dès qu'on leur fait croire que les électrodes ne fonctionnent plus.  Certains habitants voisins d’une antenne-relais se sont plaints de différents symptômes alors que l’antenne n’avait pas encore émis. On a même rapporté la mort d'un patient en état non critique après une erreur d'un prêtre lui ayant administré l'extrême onction par erreur.
L'effet nocebo est donc un effet négatif qui va annuler ou réduire, voire annuler les effets pharmacologiques d’une substance, voire provoquer un trouble attendu de cette substance en sa parfaite absence. Comme l’effet placebo, l'effet nocebo n’est pas lié à la substance, mais à l’attente psychologique du patient, découlant souvent d'ailleurs de l’attente du médecin vis-à-vis du traitement qu’il prescrit.
Des chercheurs britanniques et allemands ont mené une étude sophistiquée sur l'effet nocebo et la douleur, publiée dans Science Translational Medicine (lien). Après avoir fixé des diffuseurs de chaleur sur la jambe de 22 volontaires en bonne santé, ils ont augmenté le rayonnement jusqu'à une plainte douloureuse de 70 sur une échelle de 1 à 100. Ils ont été placés sous perfusion d'une forte dose de rémifentanil (dérivé de la morphine), ce qui a provoqué la diminution de la douleur même chez les sujets non informés.
Puis, les expérimentateurs ont informés leurs patients qu'ils allaient leur injecter l'analgésique, même si celui-ci circulait déjà dans leur organisme. Les participants ont signalé une nouvelle réduction de la douleur — ce qui montre l'effet placebo de l'analgésique.
Enfin, les chercheurs ont encore menti, en disant aux sujets qu'ils allaient cesser le traitement et que leur douleur allait probablement augmenter. Leur niveau de souffrance a quasiment retrouvé celui enregistré avant tout traitement, leurs craintes annulant l'effet d'un médicament, montrant un effet nocebo.

"The Effect of Treatment Expectation on Drug Efficacy: Imaging the Analgesic Benefit of the Opioid Remifentanil", U. Bingel et al., Sci. Transl. Med., 16-02-2011, vol. 3, Issue 70, p. 70ra14.
"Nocebo-induced hyperalgesia during local anesthetic injection", D. Varelmann et al., Anesth. Analg.,  vol. 110, no 3, mars 2010, p. 868-70.
"L'effet placebo. Un voyage à la frontière du corps et de l'esprit", par Ivan O. Godfroid, Charleroi (Belgique) : Socrate Éditions Promarex, 2003.

"Un placebo peut être nocif", revue Science et Vie, Août 2010, page 55.

01 octobre 2011

DIV : Le numéro 8 de CSS est sorti.

CSS est le "journal des sciences de la cognition" par et pour les étudiants et jeunes chercheurs en sciences cognitives.  CogniScienceS est un édition trimestrielle participative créée initialement dans le cadre de la FRESCO, fondée et animée par William Hirigoyen et ses collègues de l'ENSC. 
Elle est ouverte aux publications des étudiants, doctorants et ex étudiants en sciences cognitives et des domaines connexes. Elle fait le point sur l'actualité et propose des articles de fond ou appliqués ainsi que des chroniques de ce domaine interdisciplinaire.
Le numéro 8 vient d'être publié en ligne, et outres les actualités, aborde les thèmes du rapport "émotion/cognition", du "mensonge", de la "grammaire générative" et des "objets de l'IA".
Accès aux numéros précédents (lien).

30 septembre 2011

IA : De l'Intelligence Artificielle pour remplacer les traders.

La sideration qu'exerce le metier de trader sur les jeunes tient à la fois du prestige et de l'image sociale attachée notamment aux revenus spectaculaires de certains d'entre-eux, et à la fois à la réputation de goût du risque et de passion du jeu et du pari, correspondant probablement à certaines personnalités psychologiques particulières.
Le côté obscur de la profession est également double, avec d'une part une faible proportion de traders qui reussissent pleinement une carrière certes rapide, mais nerveusement épuisante et physiquement usante, et d'autre part les erreurs, leurs conséquences affectives, et le cercle vicieux de spirales infernales d'enfermements psychologiques, de rupture sociale et de repli sur soi dans un monde purement virtuel de relations électroniques, favorisant des comportements d'excès, des inhibitions critiques ou des réactivités ratées.
Certains decideurs financiers et gestionaires de ressources humaines sont aujourd'hui convaincus de l'avantage de remplacer les traders, ou pour le moins certains d'entre eux, par des programmes informatiques spécialisés, appliquant des règles logiques strictes et sécurisée. C’est déjà en partie le cas et les décisions des tradeurs sont d'ailleurs accompagnées par des programmes décisionnels.
Le Foresight
, un organisme de prospective œuvrant pour le gouvernement britannique, vient de publier un rapport sur l’impact de la technologie sur les marchés financiers. L'hypothèse proposée est celle d'une généralisation du procédé d'automatisation intelligente dans les prochaines années.
En effet, les logiciels peuvent tous les jours encore plus accumuler, synthétiser, interpréter de plus en plus rapidement, toujours plus d'informations issues des sources les plus divers, en dépassant évidemment les compétences et aptitudes cognitives humaines. Le bénéfice pour l'optimisation des prises de décision financières instantanées, avec un niveau de securité optimal, favoriserait alors des robots decisionnels et auto-apprenants accessibles alors aux particuliers. Les auteurs du rapport précisent que ce type d’intelligence artificielle bénéficierait d’algorithmes lui permettant d’apprendre seule, sans intervention humaine, sur des critères objectifs, en se gardant des effets de contagion ou de panique qui ont agité le monde financier ces dernières années.
Référence (lien).

DIV : Une tablette à un euro par jour.

Le Ministère de l'Enseignement supérieur et de la Recherche annonce le lancement d'une opération dont le but est de proposer une tablette électronique aux étudiants post-bac. Le ministre déclare, dans une interview à M6 et à paraître aujourd'hui dans Direct Matin, qu'il s'agit de proposer un iPad 2 ou une Galaxy Tab 8,9" - toutes deux en version 3G mais sans précision sur la capacité de stockage - à 1 euro par jour pendant deux ans.
Information à suivre pour les élèves de l'ENSC.

La société IBM fait dans le gigantisme. Elle affirme mettre au point le plus grand système de stockage au monde, soit une capacité de 120 pétaoctets.
Cet équivalent d’environ 120 000 disques durs de 2 To, ou encore 24 milliards de MP3, aura donc une capacité dix fois supérieure aux plus grands systèmes actuels.  Pour constituer cette mémoire, IBM utilise 200 000 disques durs de 600 Go en parallèle, avec une sécurité de conservation que IBM juge lus que robuste (supérieur au million d’années sans perte de données ni diminution de performances).
Ce dispositif repose sur un système de fichiers inscrits sur de multiples disques afin de lire et d’écrire simultanément de multiples portions de chaque fichier. Baptisé GPFS, ce système a permis à IBM de recenser et scanner 10 milliards de fichiers sur un système de stockage en 3/4 heure seulement, remportant un nouveau record détenu jusque'à présente pour un simple milliard de fichiers scannés en 3 heures. Cette machine est attendue pour permettre des avancées scientifiques dans la modélisation, la simulation et la prévision numériques en physique, en astronomie, en climatologie, en biologie et en médecine.
Lien publication (lien).

IA : Des serious games pour la recherche.

Les Scientific Discovery Games (SDG) sont des jeux informatiques qui permettent à des joueurs en réseau de participer à une expérience scientifique menée grâce à Internet. Le principe est de traduire des éléments complexes issus d’une recherche scientifique sous la forme d'énigmes ou des puzzles, afin que des non spécialistes puissent les traiter sans connaissance scientifique précise. Seules la logique des joueurs et leurs capacités de résolutions de problème sont mises en jeu ... au service de la recherche
L'histoire des SDG débute en 2008 avec "Foldit" (littéralement "Plie-le"). Dans ce jeu vidéo expérimental sur le repliement des protéines, développé par le département d'informatique et le département de biochimie de l'Université de Washington, les joueurs tentent de résoudre un problème que les ordinateurs ne savent pas résoudre. 
Un exemple de ce principe collaboratif est celui du jeu "ESP" qui, face à l'incapacité des machines à classer les images (abscence de mots-clefs), confie cette tâche à des humains à travers un jeu en ligne. 
Lorsque deux personnes voient une même image et lui associe des mots-clefs ; si un même mot est proposé par les deux : il est validé et indexe l'image. L'ESP Game devrait permettre de classifier toutes les images du Web en quelques mois seulement. Ce principe permet de manière ludique de déléguer à des joueurs des procédures dont les machines sont incapables.
L’intérêt des SDG repose sur la participation quasi permanente des joueurs et leur nombre croissant. Plus le nombre de joueurs est grand, plus leurs connexions sont fréquentes, plus les chances de voir émerger des scores élevés est important : et donc plus les avancées scientifiques sont obtenues. 
C'est l’intelligence des articulants et l'émergence d'une intelligence collective qui permettent de résoudre "virtuellement" des problèmes scientifiques "réellement" posés. 
Au delà de FoldIt, on peut s'inscrire sur "Phylo", qui travaille sur la génomique comparative, "EteRNA" sur la compréhension de l’ADN, "Planet Hunters" en cosmologie, qui a récemment permis de découvrir deux nouvelles planètes (lien), etc.
Sommes nous à la veille d'une révolution des pratiques de recherche, ouvertes demain à une participation citoyen fédérative ? En effet, on constate un accroissement du nombre de jeux scientifiques collaboratifs mis en ligne. Néanmoins, pour un SDG réussi comme Foldit, trois autres sont également mis en ligne mais ne fonctionnent pas. la cause est double : un manque de visibilité et une faible communauté, une mauvaise conception ou une interface non conviviale.

Lire un article de Simon Bachelier, expert ne serious game, d’Universcience (lien).