28 octobre 2011

SHS : D'Alembert s'interroge sur les pratiques du numérique.

Le Centre Interdisciplinaire d'Étude de l'Évolution des Idées, des Sciences et des Techniques d'Alembert (CIEEIST) de l'Université Paris Sud organise son séminaire annuel autour des notions de Nouvelles pratiques et cultures du numérique dans les sciences et les technologies.
Le séminaire aborde l'émergence de ces nouvelles pratiques et cultures dans la production du savoir scientifique, sa validation et sa circulation, sous l'influence des récentes évolutions du numérique en particulier afférentes à Internet.

Au programme :

  • Modification de la manière de construire et partager le savoir.
  • Science participative, apprentissage collaboratif.
  • Les observatoires virtuels.
  • Nouveaux modes de publication scientifique, de validation et d'accès.
  • Logiciel libre, ressources libres, données libres.
  • Les mathématiques à l'heure du numérique.
  • Les changements dans les mathématiques appliquées.
  • Nouvelles problématiques et mise en réseau des données en physique des particules.
  • Web sémantique, web social.
  • Enseignement et apprentissage des sciences
  • Biologie et numérique.
  • Visualisation de données.

Renseignements - programme (pdf).

SHS : Nouveaux usages d’Internet, nouvelle gouvernance pour l’Etat

Colloque : Nouveaux usages d’Internet, nouvelle gouvernance pour l’Etat
Lundi 7 novembre 2011 de 8h30 à 13h
Amphithéâtre Boris Vian - Grande Halle de la Villette, 211 avenue Jean Jaurés - Paris XIXème.
L'Open Data est l'un des thèmes phares qui sera abordé lors de cet évènement en présence de nombreuses personnalités et en collaboration avec Etalab.
Programme du colloque (lien).

IA : Le guépard dévore les données.

Jubatus est le nom scientifique du guépard (Acinonyx jubatus). C'est aussi le nom d'une nouvelle technologie d'analyse en temps réel de très gros volumes de données développé par Nippon Telegraph and Telephone (NTT), l'un des leaders japonais des technologies de l'information connu récemment pour avoir doublé la vitesse et détenir le record de transmission par fibre optique, et par Preferred Research, la branche R&D de Prefered Infrastructure, une entreprise japonaise d'informatique et télécom du Hongo Campus de l'Université de Tokyo.
Classiquement, les systèmes d'analyse de données reposent sur un traitement séquentiel "par lots" (batch). Un tel type de traitement n'est pas assez efficace pour les applications massives temps-réel, puisque le batch demande à un serveur d'attendre que toutes les données précédemment reçues soient traitées avant de commencer sa propre analyse.
Les systèmes précédents qui traitent de ce problème d'"explosion des données" sont par exemple Hadoop [1], un framework de développement communautaire supporté par Yahoo!, permettent de diviser des données en clusters selon un procédé de type MapReduce (système conçu par Google) et de les proposer indépendemment à différents serveurs.
Le principe de Jubatus est une analyse continue "distribuée" entre les serveurs. Pour surmonter le problème de la communication entre les serveurs, Jubatus agrège de manière particulièrement flexible des résultats intermédiaires (appelé MIX). Au lieu d'effectuer une comparaison des résultats d'analyse uniquement à la fin de chaque itération, le système optimise le moment où cette opération sera réalisée de façon à augmenter la productivité de chaque serveur et la rapidité de début de calcul. Le système repose sur une architecture dite "pluggable" : les moteurs et modules d'analyse disposent d'interfaces communes. Ils peuvent alors être simplement utilisés comme "briques logicielles".
L'objectif de Jubatus est clairement l'analyse temps réel des informations Internet, avec des projets sur l'étude et la catégorisation instantannée des messages des réseaux sociaux types à des fins de filtrage ou de "recherche floue", dans la détection immédiate de tentatives terroristes ou de cyber-attaques.
Le framework sera prochainement mis à disposition du public en open-source, avec l'espoir ouvertement affirmé de créer une communauté d'utilisateurs

IA : Définition du Cloud Computing par le NIST (USA)

Mandaté par le Congrès américain via le Federal Information Security Management Act (FISMA 2002), notamment pour établir des standards et des directives dans le domaine de l'informatique à l'attention des agences fédérales américaines, le National Institute for Standards and Technology (NIST) a publié en septembre 2011 un rapport de définition finale du Cloud Computing (Informatique dans le nuage) et les recommandations pour le CC (lien).

Le cloud computing possède 5 caractéristiques essentielles :

  1. un service en libre-service à la demande;
  2. accessible sur l'ensemble d'un réseau;
  3. avec une mutualisation des ressources;
  4. rapidement élastique (adaptation rapide à une variation du besoin);
  5. et mesurable (mesure et affichage de paramètres de consommation).

Le NIST distingue 3 niveaux de service :

  1. le logiciel en tant que service (Software as a Service - SaaS) - par exemple un usager "loue" un logiciel de comptabilité, en ligne, à la demande, chez un prestataire externe;
  2. la plateforme en tant que service (PaaS) - une solution externe qui propose une suite logicielle et les outils d'intégration et de suivi, tels qu'un serveur web (Linux+Apache+MySQL+Php);
  3. l'infrastructure en tant que service (IaaS) - la totalité de l'infrastructure (ressources matérielles) est externe, par exemple une capacité de stockage et une capacité de calcul à la demande sur un réseau.

Le CC possède 4 modèles hiérarchiques de déploiement :

  1. le nuage privé (au sein d'une même organisation);
  2. le nuage communautaire (réservé à une communauté);
  3. le nuage public (ouvert au grand public);
  4. le nuage hybride (composition de plusieurs types de nuages).

Ce processus de standardisation implique un grand nombre d'institutions d'Etat et une large partie du secteur privé économique, administratif et industriel. La prochaine étape des travaux prévus est celle de l'élaboration des normes, notamment en termes d'échange de données, et celle des méthodes pour éviter le "lock-in" (emprisonnement) et des méthodes de sécurité.
Ce rapport sera présenté et discuté lors du prochain "Cloud Computing Forum & Workshop IV" qui se tiendra du 2 au 4 novembre 2011 à Gaithersburg (Maryland - USA).

Accès au rapport du NIST (pdf).