07 octobre 2019

DIV : IA et images - les réseaux de neurones de 1988 (7 octobre).

Y-a-t'il quelque chose de vraiment nouveau ?
http://bernard.claverie.free.fr/references/Neuro-Image-1988.pdf

Les 6 et 7 octobre 1988 se tenait, à l'Université Bordeaux 2 (Carreire - Bordeaux), le premier colloque français sur les réseaux de neurones et la reconnaissance d'image : "Neuro-Image". Inspiré du mouvement initié par les PDP (parallel distributed processes) et par la programmation parallèle de Inmos®, l'IRASCA (Institut Régional Aquitain des Sciences Cognitives Appliquées - Université de Bordeaux II) réunissait quelque 120 scientifiques autour des invités d'honneur Jacques PAILLARD (Institut de Neurophysiologie et Psychophysiologie du CNRS - Marseille) et Paul SMOLENSKY (Université du Colorado - Boulder) une réunion historique autour de quatre thèmes :
  1. l'approche clinique de la reconnaissance (présidence de séance : Fréda NEWCOMBE - Radcliffe Infirmary - Oxford) ; 
  2. les neurosciences de la vision, de l'image à la représentation (Présidence Michel IMBERT - Neurosciences de la Vision - Univ. Pierre et Marie Curie - Paris) ; 
  3. les machines neuro-mimétiques pour la reconnaissance (Gérard DREYFUS - Ecole Supérieure de Physique et Chimie Industrielle - Paris) et Michel WEINFELD - Ecole Polytechnique - Paris) ; 
  4. les modèles connexionnistes et l'IA pour la représentation (Jacques PAILLARD et Yves BURNOD - Institut Pasteur - Paris).
Chantre de l'interdisciplinarité, l'IRASCA avait ainsi mêlé les dimensions neuropsychologiques, cognitives, informatiques et électroniques des applications naissantes de réseaux de neurones. Ainsi les personnalités citées côtoyaient Glyn HUMPHREYS (Birkbeck College - Londres), Raymond BRUYER (Université de Louvain la Neuve - Bruxelles) et Xavier SERON (Clinique St. Luc - Bruxelles) Bernard RENAULT (Labo. d'Electrophysiologie et Neurophysiologie Appliquées - CNRS Salpêtrière - Paris), Simon THORPE (Lab. Neurosciences de la vision - UPMC Paris), ou J.M. CHASSERY et C. BELLISSANT de l'Institut de Mathématiques Appliquées de Grenoble), P. ANIZAN (CNET - Lannion), L. PERSONNAZ (ESPCI - Paris), H.P. GRAF (AT&T Bell Lab. - Holmdel et ses collègues, M. MOUGEOT et R. AZENCOTT (Lab. math. Application. - Paris Sud - Orsay), B. ANGENIOL (I.A. , Thomson CSF - Bagneux), B. ZAVIDOVIQUE et ses collaborateurs (ETCA - Arceuil), A. MARUANI et collaborateurs (Ecole nationale supérieure des Télécommunication - Paris), et Yves CHAUVIN (Lab. Psychologie de l'Univ. Stanford).
Des sessions de conférences étaient complétées par d'autres consacrées à l'exposition commentée de posters.
Le colloque était patronné par l'Université de Bordeaux II, et le colloque ouvert par son président, le Professeur Dominique DUCASSOU, et avait obtenu le soutien de la Région Aquitaine et du Département de la Gironde, de la Direction de la Recherche et des Etudes Techniques (DRET) du Ministère de la Défense (DGA), du Ministère des Affaires Etrangères, de la CCI de Bordeaux, ainsi que des sociétés TELMAT, BULL, INMOS, SCAIB, France Télécom, SARDE, OFFIKLI, Soft-Image, Definicon-Systems, Graftk, Microtel, et des écoles ENSERB, ESPCI, ainsi que de l'institut de neurobiologie théorique (INBT) de l'Université d'Angers et le CARME de l'Université de Bordeaux, et de la Banque Populaire du Sud Ouest.

L'initiative était lancée et le comité d'organisation présidé par Bernard CLAVERIE et comportait des personnalités comme Jean-Louis ERMINE (CEA, Univ. Bordeaux 1), Pierre HUMBERT (IGD, Univ. Bordeaux 3), Jean-Pierre BOURGEOIS (Institut Pasteur - Paris), Jacques PATY (Univ. Bordeaux 2) et bien d'autres (voir la liste ici).

DIV : Complexité explicable.

(Texte en anglais plus bas)

La complexité explicable (ou compréhensible) est une doctrine scientifique (SHS) basée sur le constat du refus et/ou de l’intolérance d’usage des technologies numériques, notamment dans le cadre de l’augmentation humaine et de l’hybridité, par des sujets lambda, et ce d’autant plus qu’augmente la complexité de cet usage ou celle de l’environnement dans lequel il s’insère ou qu’ils génèrent.
Le but est de doter ces systèmes des formes/aptitudes communicationnelles permettant aux sujets concernés de comprendre :
  • à quoi ils servent (pour faire quoi ?), 
  • en quoi ils servent (comment font-ils cela ?) et 
  • pourquoi ils servent (quelle est la justification de leur existence ?).
Les objets ou systèmes complexes ou induisant de la complexité doivent être, dès leur conception, prévus pour les utilisateurs (anthropologie, médecine et ergonomie) et doivent être accessibles comme objet de raisonnement (cognitique), et cela de manière indépendante des groupes culturels ou nationaux amenés à collaborer grâce à ces dispositifs.
Ceux-là doivent expliquer capables de « décrire » leurs objets et d’ « expliquer » leur logique dans le cadre d’une adéquation intelligible à des objectifs explicités. Notamment, leur logique et leur degré d’autonomie doivent pouvoir être transparentes et facilement compréhensibles. 
Le but recherché s’articule autour :
  • de l’acceptabilité, 
  • de la tolérance et 
  • de la confiance.
La complexité explicable prend une dimension particulière, impérative, avec les dimensions de la formation des personnels et de/à leur collaboration. Elle doit pouvoir être comprise par les sujets qui y sont confrontés, permettant de faciliter à la fois les procédures d’apprentissage, mais aussi celles de l’adaptation continue. en cel, elle est à la fois un objectif (former à la complexité explicable) et un moyen (former par la complexité explicable) des pédagogies d.avenir.

La complexité explicable doit être connue selon un plan d’action conceptuel (design) qui prend en compte :
  • les points forts et les faiblesses des dispositifs ;
  • ceux des interfaces, notamment dans le cas d’interfaces adaptatives ;
  • la justification des démarches de décision impliquant l’humain ou d’autonomie substitutive ;
  • la logique de ces choix décisionnels ;
  • le niveau de confiance à accorder à chaque niveau explicatif ;
  • le type d’erreurs susceptibles d’être produits ;
  • les mesures correctives (ou d’échappement) en fonction du but à atteindre.
La redevabilité, c’est-à-dire la responsabilité artéfactielle explicitée, attachée à chaque niveau contribuant à la complexité globale, doit pouvoir être justifiée et comprise par les individus qui y sont formés. On est donc dans des plans de formation à la compréhension plus qu’à l’utilisation, ce qui inverse une position classique de la préparation des personnels.
Dans le cadre d’une complexité technologique ou instrumentale de plus en plus répandue, il est important de pouvoir disposer d’indice de confiance permettant l’adaptation ou la tolérance à cette complexité.

Le concept est à la base de certains cours de l’ENSC.
Bernard Claverie © 7 octobre 2019 (Bordeaux).


The explicable (or understandable) complexity is a scientific doctrine (HSS) based on the observation of the refusal and / or intolerance of the use of digital technologies, particularly in the context of human increase and hybridity. subjects lambda, and all the more so that increases the complexity of this use or that of the environment in which it is inserted or that they generate.

The goal is to equip these systems with communication forms / skills that enable relevant subjects to understand what they are used for (to do what?), What they serve (how do they do that?) And why they serve (what is the justification of their existence?).

Complex or complexity-inducing objects or systems must be designed for users (anthropology, medicine and ergonomics) from the outset and must be accessible as an object of reasoning (cognitive), independently of cultural or national groups brought to collaborate through these devices.
They must be able to "describe" their objects and "explain" their logic in the context of an intelligible adaptation to explicit objectives. In particular, their logic and degree of autonomy must be transparent and easily understandable. The goal is based on acceptability, tolerance and trust.

Explainable complexity is usually evoked with the dimensions of staff training and collaboration. It must be understood by the subjects who face it, making it possible to facilitate both learning procedures and those of continuous adaptation.

The explicable complexity must be known according to a conceptual action plan (design) that takes into account:
  • the strengths and weaknesses of the devices;
  • those of the interfaces, especially in the case of adaptive interfaces;
  • the justification of decision-making procedures involving the human being or of substitutive autonomy;
  • the logic of these decision-making choices;
  • the level of confidence to be given at each explanatory level;
  • the type of errors that can be produced;
  • corrective measures (or escape) depending on the goal to be achieved.

Accountability, that is to say the explicit artefactual responsibility attached to each level contributing to the overall complexity, must be justified and understood by the individuals who are trained there. We are therefore in training plans for understanding rather than for use, which reverses a classic position in staff preparation.
In the context of an increasingly widespread technological or instrumental complexity, it is important to have a confidence index allowing adaptation or tolerance to this complexity.