(Texte en anglais plus bas)
La complexité explicable (ou compréhensible) est une doctrine scientifique (SHS) basée sur le constat du refus et/ou de l’intolérance d’usage des technologies numériques, notamment dans le cadre de l’augmentation humaine et de l’hybridité, par des sujets lambda, et ce d’autant plus qu’augmente la complexité de cet usage ou celle de l’environnement dans lequel il s’insère ou qu’ils génèrent.
Le but est de doter ces systèmes des formes/aptitudes communicationnelles permettant aux sujets concernés de comprendre :
- à quoi ils servent (pour faire quoi ?),
- en quoi ils servent (comment font-ils cela ?) et
- pourquoi ils servent (quelle est la justification de leur existence ?).
Les objets ou systèmes complexes ou induisant de la complexité doivent être, dès leur conception, prévus pour les utilisateurs (anthropologie, médecine et ergonomie) et doivent être accessibles comme objet de raisonnement (cognitique), et cela de manière indépendante des groupes culturels ou nationaux amenés à collaborer grâce à ces dispositifs.
Ceux-là doivent expliquer capables de « décrire » leurs objets et d’ « expliquer » leur logique dans le cadre d’une adéquation intelligible à des objectifs explicités. Notamment, leur logique et leur degré d’autonomie doivent pouvoir être transparentes et facilement compréhensibles.
Le but recherché s’articule autour :
Le but recherché s’articule autour :
- de l’acceptabilité,
- de la tolérance et
- de la confiance.
La complexité explicable prend une dimension particulière, impérative, avec les dimensions de la formation des personnels et de/à leur collaboration. Elle doit pouvoir être comprise par les sujets qui y sont confrontés, permettant de faciliter à la fois les procédures d’apprentissage, mais aussi celles de l’adaptation continue. en cel, elle est à la fois un objectif (former à la complexité explicable) et un moyen (former par la complexité explicable) des pédagogies d.avenir.
La complexité explicable doit être connue selon un plan d’action conceptuel (design) qui prend en compte :
- les points forts et les faiblesses des dispositifs ;
- ceux des interfaces, notamment dans le cas d’interfaces adaptatives ;
- la justification des démarches de décision impliquant l’humain ou d’autonomie substitutive ;
- la logique de ces choix décisionnels ;
- le niveau de confiance à accorder à chaque niveau explicatif ;
- le type d’erreurs susceptibles d’être produits ;
- les mesures correctives (ou d’échappement) en fonction du but à atteindre.
La redevabilité, c’est-à-dire la responsabilité artéfactielle explicitée, attachée à chaque niveau contribuant à la complexité globale, doit pouvoir être justifiée et comprise par les individus qui y sont formés. On est donc dans des plans de formation à la compréhension plus qu’à l’utilisation, ce qui inverse une position classique de la préparation des personnels.
Dans le cadre d’une complexité technologique ou instrumentale de plus en plus répandue, il est important de pouvoir disposer d’indice de confiance permettant l’adaptation ou la tolérance à cette complexité.
Le concept est à la base de certains cours de l’ENSC.
Bernard Claverie © 7 octobre 2019 (Bordeaux).
Le concept est à la base de certains cours de l’ENSC.
Bernard Claverie © 7 octobre 2019 (Bordeaux).
The explicable (or understandable) complexity is a scientific doctrine (HSS) based on the observation of the refusal and / or intolerance of the use of digital technologies, particularly in the context of human increase and hybridity. subjects lambda, and all the more so that increases the complexity of this use or that of the environment in which it is inserted or that they generate.
The goal is to equip these systems with communication forms / skills that enable relevant subjects to understand what they are used for (to do what?), What they serve (how do they do that?) And why they serve (what is the justification of their existence?).
Complex or complexity-inducing objects or systems must be designed for users (anthropology, medicine and ergonomics) from the outset and must be accessible as an object of reasoning (cognitive), independently of cultural or national groups brought to collaborate through these devices.
They must be able to "describe" their objects and "explain" their logic in the context of an intelligible adaptation to explicit objectives. In particular, their logic and degree of autonomy must be transparent and easily understandable. The goal is based on acceptability, tolerance and trust.
Explainable complexity is usually evoked with the dimensions of staff training and collaboration. It must be understood by the subjects who face it, making it possible to facilitate both learning procedures and those of continuous adaptation.
The explicable complexity must be known according to a conceptual action plan (design) that takes into account:
- the strengths and weaknesses of the devices;
- those of the interfaces, especially in the case of adaptive interfaces;
- the justification of decision-making procedures involving the human being or of substitutive autonomy;
- the logic of these decision-making choices;
- the level of confidence to be given at each explanatory level;
- the type of errors that can be produced;
- corrective measures (or escape) depending on the goal to be achieved.
Accountability, that is to say the explicit artefactual responsibility attached to each level contributing to the overall complexity, must be justified and understood by the individuals who are trained there. We are therefore in training plans for understanding rather than for use, which reverses a classic position in staff preparation.
In the context of an increasingly widespread technological or instrumental complexity, it is important to have a confidence index allowing adaptation or tolerance to this complexity.
Aucun commentaire:
Enregistrer un commentaire