Chapitre B 4: Le projet " Métadémonstrateur ".
- de la distribution de l’initiative à la répartition de l’intelligence -
Le projet SAFARI comportait des instruments " d’authoring " classiques, raccordés aux modules qui visaient la réaction intelligente. La démonstration de l'utilisation de ces outils posait exactement le problème récursif que j'ai décrit dans le chapitre B1. Il fallait concevoir une métadémonstration Dd qui montre à un auteur la façon de concevoir des démonstrations Dx avec l'outil D... En revenant donc au problème de la formation des auteurs multimédia, j’ai choisi comme thème pour mon projet " métadémonstrateur " la présentation du module SAFARI, appelé " démonstrateur multimédia ", qui permettait à un auteur d’attacher des ressources multimédia aux nœuds (ou points de choix) d'un " graphe de tâches "..
Je voulais explorer surtout la négociation de la modalité des messages, de la distribution des pistes du discours et du mode d’interaction, dont l'étape précédante m'avait révélé l’importance. J’avais déjà étudié l'espace de variation de ces éléments, donc je savais ce qu’il fallait négocier. Maintenant je voulais établir "par qui? " et " comment? " il fallait le faire. Je revenais ainsi à ma position d’auteur, pour évaluer la facilité d’utilisation des instruments de composition que j'avais à ma disposition ou que j’avais fabriqué. Je voulais aussi observer la nécessité éventuelle d'autres outils, qui pourraient faciliter la coopération auteur-ordinateur-utilisateur.
Comme cadre extérieur de la métadémonstration, j’ai repris la " carcasse " du projet " stéréo-explication ", que j’avais réalisé en " HyperCard " et que j’avais enrichie par des routines " HyperTalk " au lieu d'utiliser de manière récursive l'outil démonstrateur conçu par mes collègues en SmallTalk. Si j'ai choisi cette solution, c’est parce que le " démonstrateur multimedia " de SAFARI ne permettait pas la physiologie explicative qui m’intéressait. J'avais remarqué que les démonstrations des " phases " du projet SAFARI se faisaient de manière synchrone par des présentateurs humains, pour des raisons qui me paraissaient intéressantes à scruter. Je voulais montrer la pertinence de la " stéréo–explication ", de la métamorphose et du mixage synchrone-asynchrone pour ce genre de situation et démontrer ainsi le besoin de nouveaux outils de composition.
Je fus le premier convaincu. Le remplacement du "Multimédia métamorphique " par le "Démonstrateur Safari " dans le cadre de ma carcasse " métadémonstrative " a demandé des efforts importants. Je n’ai réussi une " reproductibilité " que pour des stratégies générales, mais au niveau de la composition du discours; le travail créatif de chaque partie de la méta-démonstration s’avérait inévitable. Je n'avais pas programmé des structures démonstratives réutilisables, qui maintenant apparaissaient très délicates à réaliser. Les seules composantes que j'ai pu récupérer du projet "Multimédia Métamorphique" étaient les sous-routines qui assuraient la gestion du jeu de fenêtres et le partage des éléments actifs.
J'ai ressenti aussi d’autres limites de l'environnement de démonstration que j'avais préparé. S’il permettait à un présentateur de gérer une démonstration directe, il ne réussissait pas à offrir un bon encadrement à un utilisateur qui travaillait seul. En constatant avec surprise que mon instrument de démonstration asynchrone... se portait mieux dans les mains d'un présentateur, je me suis posé de nouvelles questions et je me suis proposé de nouveaux objectifs. Je devais mettre au point un mécanisme flexible mais ergonomique de partage de la décision entre l’environnement, l’auteur (présent ou absent) et l’utilisateur.
J’ai compris que le couple synchrone " novice-expert " pouvait résoudre avec brio le besoin de variation dynamique du rituel effectif de coopération et opérer une délicate négociation du protocole d’intervention. Quand les deux partenaires coopéraient directement et se synchronisaient simultanément, le changement fréquent de la " formule d’initiative " se faisait aisément. Dans le cas où les deux ne travaillaient pas ensemble, la synchronisation de la décision devenait difficile, même si on utilisait un ordinateur comme intermédiaire. L’auteur devait implanter dans l’instrument qui portait son message un mandat de participation à la négociation durant la lecture, ce qui compliquait sérieusement la composition.
J’ai abordé la problématique de la gestion de l’intelligence en percevant l’ordinateur parfois comme partenaire de dialogue, parfois comme outil de synchronisation entre l’expert et le novice. Ma conclusion fut que l’ordinateur ne pouvait pas rivaliser avec un présentateur humain même quand il devait négocier avec l’utilisateur la modalité de présentation, la structure des pistes du discours et le niveau d’assistance! L’idée qu’il aurait pu négocier la sémantique du discours pédagogique en fonction des réactions du novice me paraissait d'autant plus hasardeuse.
La gestion de " l’initiative " apparaissait très complexe même dans le cas d’une action élémentaire, comme faire un geste dans la fenêtre de l’application qui était l'objet de la démonstration (ou dans une fenêtre explicative secondaire ou dans le panneau affecté à la négociation des droits de contrôle). J’ai repli de notes un cahier entier avec ces variantes de rituels de négociations entre l’expert (Ex) et le novice (No), en visant la simplicité de l’appui sur un seul bouton ! Voici quelques exemples: " Ex prend l’initiative de l’action et agit sans commentaires, d’une façon que No peut observer "; " No sollicite la continuation quand il sent le besoin et Ex répond en agissant et en commentant "; " Ex sollicite la continuation; No agit, sous l’observation de Ex qui n’intervient que s’il le croit nécessaire "; " Ex sollicite la continuation; No explique ses intentions; Ex valide; No agit "; "Ex indique à No d’agir; No demande comment; Ex donne certaines indications; No propose une mauvaise action; Ex corrige, explique, et démontre la bonne action" etc.
Je voulais établir un " alphabet " de rituels possibles pour une décision élémentaire, afin de définir clairement sur cette base les protocoles de coopération et d'assurer leur propagation cohérente tout au long de la démonstration. Je devais aussi faire la distinction entre les décisions possibles en principe, les décisions réellement accessibles dans un certain nœud (point de choix) de la démonstration et les décisions effectives, prises par la paire active. Puis, il fallait classer les chaînes homogènes de nœuds décisionnels (ayant le même spectre de décisions accessibles) et caractériser les chaînes hybrides - ayant des formules de décision variables -, pour arriver à une modélisation de la structure décisionnelle potentielle. Aussi, pour décrire le chemin effectif de l’utilisateur dans l’univers de la démonstration, je devais classifier les chaînes de décisions effectives. Je cherchais donc une caractérisation de la démonstration préparée, ainsi qu’une caractérisation de son parcours. Sur cette base, je voulais modéliser le phénomène de la métamorphose, vu comme changement de la formule de partage des décisions, et extraire des spécifications pour la construction des modules de gestion de la coopération.
J’ai traité plus en détail le sujet de la coopération explicative dans l’essai C8. Dans ce chapitre, je suis les implications que l’étude sur la distribution de l’initiative a eues sur ma vision de la répartition de l’intelligence. Sans déconsidérer les autres dimensions du comportement " intelligent " (observation et action, mémorisation et récupération des informations, raisonnement, etc.), je percevais la prise des décisions coopérative comme un phénomène clef de la physiologie des systèmes explicatifs intelligents.
Parvenu à ce stade, je fus frappé par le nombre assez réduit d'études dédiées à l’utilisation de l’ordinateur comme assistant des démonstrations " en direct " par rapport à ceux qui traitaient intensément de son utilisation en l’absence du professeur. Ce n’est que ces dernières années que les préoccupations liées au fonctionnement du système classe-professeur-ordinateur-élève-parents s'amplifient et que l’ordinateur est replacé dans une position d’instrument pédagogique au lieu d'être vu comme substitut de la personne qui explique. En effet, en 1996, l’hypothèse tacite quasi- générale de la littérature sur l’EAO était que l’ordinateur devait se substituer simultanément au manuel et au professeur. Les informaticiens voulaient équiper les ordinateurs avec des professeurs plutôt qu’équiper les professeurs avec des ordinateurs. L’absence du professeur dans les modèles " d’enseignement assisté par ordinateur " m’a posé des questions sur les plans scientifique, moral et pragmatique.
L’ambition de l’intelligence artificielle et de l’informatique en général de modeler, de simuler et de reproduire toutes les activités humaines produisit en moi de l’admiration, mais aussi des inquiétudes. Les nouvelles approches de modélisation complètent le traitement qualitatif classique, frôlent un niveau de détails profond et relancent des sujets importants pour les sciences de la psychologie, de l’éducation, des communications, etc. Elles ont de remarquables applications , théoriques et pratiques ! La préoccupation de rendre opérationnel ce domaine détermine des progrès significatifs dans la compréhension de phénomènes qui auparavant étaient traités seulement en sciences humaines.
Je donne seulement un exemple de l'influence que cette littérature a eu sur ma vision de l'intelligence. J'ai compris que les performances intellectuelles les plus extraordinaires, les plus difficiles à simuler par des machines, sont en fait très communes: la plasticité, la créativité, la capacité de communication, l'émotion, l'intuition, la manipulation de concepts ambigus etc. Nous partageons tous ces capacités formidables et c'est probablement pour cela que nos avons la tendance de ne pas les apprécier suffisamment et de former des hiérarchies intellectuelles exagérées. En mesurant l’intelligence à partir de la surface de la terre, soit des particularités individuelles, il pourrait paraître que quelqu’un en a deux fois plus qu’un autre, alors qu’en la mesurant à partir du centre de la terre, soit du fonds commun des capacités humaines, la différence est beaucoup moins significative.
Mais, d’autre part, en proposant que l’homme dépasse, au nom de la reproductibilité, le statut de fournisseur direct de services pour devenir un concepteur d’objets fournisseurs de services, la technologie " intelligente " soulève d’importantes questions d’écologie sociale. Par la généralisation des modèles d’organisation simplificatrice qu’elle prêche et encourage, la nouvelle technologie peut appauvrir les rituels sociaux humains en éliminant les phénomènes incommodes pour la simulation! Inventer des structures et des fonctionnements reproductibles est un jeu efficace et captivant. Mais la société moderne ne devrait pas évacuer les rituels existants sous prétexte qu’ils sont peu " reproductibles ", éludant les éventuels effets uniformisants, artificiels, aliénants.
Pour moi, l’intelligence de l’instrument n’a jamais été un objectif en soi. J’ai visé un compromis entre la fonctionnalité, l’efficacité et le naturel. On arriverait peut être à assurer l'intelligibilité par d’autres moyens que l'intelligence artificielle, à savoir par la simplification des tâches, par la clarté du discours, par la bonne adaptation préalable de l'instrument à l’élève, par les facilités de réglage offertes à l'apprenant, par le bon guidage, par la qualité des explications, par la négociation flexible mais simple, par l'intervention d'un surveillant humain.
L'intelligence explicative artificielle me paraissait d'ailleurs assez " virtuelle "... Je voyais les avantages des didacticiels face à un manuel classique (multimodalité, interactivité, pluri-pistes, mémoire, etc.), mais je ne comprenais pas sur quoi se basait l’idée d’utiliser l’ordinateur comme substitut du pôle professoral dans la paire explicative. Chaque système expert doit émaner du domaine dans lequel il veut fonctionner. W. Clancey, un pionnier de l’application de l’IA en médecine, a signalé par exemple le caractère social de l’activité médicale et la profondeur inépuisable de l’interaction médecin- patient. Mon point de vue était similaire. L’application de l’IA en éducation rencontre des difficultés encore plus redoutables, car ici la pensée et le dialogue ne sont pas seulement des moyens d'arriver à une conclusion (éventuellement remplaçables par des formes a-humaines de raisonnement), mais représentent aussi le but . Nous devrions comprendre de manière microscopique et dynamique la compréhension et la communication humaine, pour pouvoir les simuler !
Je savais que l'art du formateur est de conduire l'apprenant sur les "voies royales" de la perception, de la compréhension, du savoir, de la mémorisation et de la performance. Le tracé de l'excursion est essentiel pour arriver au bout facilement, paisiblement, profondément (voir à ce sujet les chapitres A1, A4, A5). Le concept même a un volume historique, une forme dans le temps, une dimension temporelle. On apprend des notions-évolutions, bâties pendant et par le parcours de l'apprentissage. Établir l'ordre de la présentation, c'est la plus fine partie de l'expertise, c'est la tâche la plus spécifique de l'expert. Le professeur (l'auteur) doit prendre continuellement des décisions raffinées pour l’engendrement du discours, suivant la logique interne du sujet enseigné, tout en gardant une ouverture pour s'adapter aux besoins de son élève, de son public. Une explication de qualité se distingue d’un enchaînement banal de propositions vraies. Si on change l'ordre de présentation, on trouve éventuellement les mêmes connaissances, mais pas la même explication!
En conséquence, on n'a pas intérêt à laisser le hasard combinatoire établir la séquence de l'enseignement... D'autre part, il est difficile (voire impossible) de programmer un algorithme qui tienne compte à tout moment d'un univers ouvert d'alternatives pour prendre les meilleures décisions. L'expert en didactique ne fonctionne pas par l’inférence basée sur un groupe de règles, mais, comme tout créateur, par l’inspiration censurée par la somme de son savoir. La granulation des mini-discours englobés dans les " bases de connaissances " demande un assemblage mécanique pour parvenir au discours global. En remplaçant le discours créé, les " instructeurs artificiels " ne peuvent pas éviter la médiocrité! Le guide artificiel devrait plutôt utiliser les principes de l'IA pour aider quelqu'un à accéder aisément à une base d’explications déjà créées (" ressources explicatives ")…
A plusieurs reprises, j’ai invité mes collègues de recherche à des discussions sur les possibilités de participation de l’ordinateur dans la gestion de la démonstration asynchrone. Quels étaient les moyens dont l’ordinateur dispose pour saisir le besoin d’une modification de mode, de piste ou de mode de coopération? Quelle est sa plage de manœuvre? Quelles sont ses capacités de négocier son intervention avec l’utilisateur? Quelles sont les mécanismes que l’auteur peut utiliser pour préparer le mandat de l’ordinateur et pour l’améliorer, à mesure que l’utilisation apporte un feed-back correcteur?
Au cours de mes exposés, j’ai suggéré l’intérêt des systèmes qui combinent (alternent) la coopération synchrone expert-novice (utilisant l’ordinateur comme interface raffinée de communication) et asynchrone (utilisant l’ordinateur comme partenaire mandaté par le pôle manquant). Quand l’intervention directe de l’expert n’est pas nécessaire ou possible, on peut recourir à l'ordinateur comme intermédiaire. Son comportement peut aller de la rigidité cohérente d’un discours à reproduire jusqu’à la flexibilité d’une structure des messages à gérer. Quand l’intervention directe d'une personne qui explique devient nécessaire et possible, elle peut améliorer la synchronisation à un prix bien plus bas que celui réclamé par la préparation exhaustive d’une adaptation automatique. On ne doit pas dépenser par " purisme " des efforts énormes pour forcer des solutions artificielles quand l’intervention directe est opportune ! Il faut épargner les experts... quand cela est rentable. Intéressé par le rapport performance-coût, je pensais au schéma classique : "résoudre 80% des situations avec 20% d'effort "...
Pour l’adaptation efficace de l’explication, j’ai donc proposé un système de distribution flexible de l’intelligence entre les agents humains et artificiels. Dans mon modèle, l’ordinateur était un intermédiaire de plus en plus raffiné entre des acteurs de plus en plus intelligents. Une telle stratégie pragmatique et " incrémentale " (progressive) demandait une vision plus large sur l’utilisation des systèmes experts en éducation que les paradigmes qui étaient à la mode en ce moment en intelligence artificielle. Même si les nouvelles idées sur les processus parallèles et l’intelligence distribuée entre plusieurs agents émergeaient, les informaticiens ne parlaient pas encore beaucoup de la distribution dynamique de l'intelligence entre les agents humains et artificiels.
En STI (les systèmes tutoriels intelligents), l’influence de l’auteur sur la leçon était réduite au mécanisme initial de " l’extraction de l’expertise ". C’était le corollaire de la statique conceptuelle qui dominait encore les sciences cognitives. Peu de systèmes STI traitaient avec attention le rapport dynamique et historique entre l’expert et le système, leurs relations évolutives après l’extraction initiale d’expertise. L’interférence entre l’évolution du savoir-faire et du faire, qui caractérise les experts humains, n'était pas exploitée par ces systèmes... à experts enterrés sous les règles d'inférence. On parlait davantage de l'évolution de l'outil qui représentait un enseignant dans une série de processus d'explication que de celle de l'expert représenté, en oubliant que, dans des conditions normales, il aurait évolué au rythme de sa prestation! Le fait que le présentateur apprend à enseigner dans un contexte, aurait du imposer une relation serrée et continuelle entre les enseignants et les STI .
Mais dans les paradigmes "statiques" des STI, l’intervention de l’expert ne serait plus nécessaire pendant ou après l’utilisation de l’objet explicatif, car l'ordinateur est chargé dès le début de la capacité de déduire les réactions explicatives pour une certaine classe de sujets et de situations. Il est préparé initialement pour les actes de composition générique, performance surhumaine, belle, mais... encore imaginaire. Ma thèse essaie de révéler la complexité énorme du problème de l'extraction d'expertise et de la formalisation de " règles " qu’un expert en explication appliquerait dans son activité courante. Face à la plasticité, à l’ouverture, à la créativité mises en jeu par un bon professeur, " l’intelligence générique " de l’ordinateur ne peut être que rudimentaire.
Il me paraissait raisonnable qu’on avance vers l’intelligence explicative artificielle en perfectionnant la capacité de l’ordinateur de faciliter la synchronisation entre les intelligences de l’auteur, de l’élève et du professeur. Au lieu d’une extraction initiale d’expertise, on pourrait chercher un mécanisme pour raffiner progressivement les rôles dans le triangle expert- ordinateur- novice. L’ordinateur deviendrait expert en intermédiation, par expérience (voir aussi les développements de la littérature sur le " machine learning ").
Ainsi, quand le " maître " humain est présent et explique quelque chose, l’ordinateur pourrait enregistrer les actions des deux protagonistes en préparant des interventions similaires lorsqu’un autre novice poursuivra seul la démonstration. Si l’expert est absent, les questions et les situations sans réponses immédiates seraient enregistrées dans leur contexte, ce qui permettrait à l’expert de répondre avec retard et de perfectionner la composition. L’expert pourrait laisser la paire novice- ordinateur se débrouiller sans lui (en la surveillant éventuellement) jusqu’au point où son intervention deviendrait opportune ou serait réclamée. Cette intervention pourrait être facilitée par l’enregistrement du chemin qui a conduit à une certaine situation , par des moyens de communication en triangle, par la gestion d’une éventuelle queue d’attente ou de rendez-vous avec un expert- assistant occupé ou servant plusieurs personnes etc.
Ces problèmes étaient d'une facture différente de ceux liés à l’investissement initial de l’ordinateur avec l’intelligence nécessaire pour des réactions complexes. Elles m’ont déterminé à suivre attentivement des tendances comme " parallel processing " , " distributed systems ", " situated action ", " social cognition ", " intelligent agents ". Par contre, j’étais de plus en plus intrigué par l’approche trop ambitieuse et théorique des grands projets STI. Ils visaient des objectifs extrêmement ambitieux et ne répondaient pas aux problèmes urgents de la formation, peu connus et mal compris. Il était bizarre de voir qu’au moment où la dynamique des connaissances nécessaires pour le fonctionnement d’une entreprise était devenue presque hystérique, on songeait à des systèmes instructifs lourds, difficiles à mettre en marche et à mettre à jour.
Influencé continuellement par l’ingénieur que j’abritais en moi, j’ai continué à scruter les mécanismes qui permettaient à un auteur la construction rapide et économique d’une démonstration raisonnable. Je donne ici un exemple révélateur de l'esprit de mes préoccupations. J’ai étudié attentivement les produits de type " wizard " ou " template ", qui n'étaient pas trop flexibles mais étaient facile à utiliser. En analysant dans la bibliothèque MFC (Microsoft Foundation Class) les objets utilisables pour le développement rapide des systèmes d’aide des applications Windows, j’ai pensé à organiser de manière similaire une classe d’objets qui permette à un auteur de monter rapidement des démonstrations. Un enregistreur des gestes sur l’interface suivrait les opérations d’un expert. Un " player " permettrait à l’auteur de revoir le " film " des opérations (piste 1) en l’enrichissant d'une piste secondaire de commentaires, etc. Les démonstrations ainsi préparées seraient mises à la disposition du novice pour qu'il les étudie seul, ou pourraient être exploitées pendant des séances de coopération novice- expert. Des annotations supplémentaires (questions et réponses) pourraient être faites à ces occasions, en enrichissant la démonstration à chaque utilisation. Voilà donc mes couleurs....
En décembre 1995, après plusieurs interventions dans les discussions sur l'architecture de SAFARI, j’ai déposé un mémoire expliquant mon point de vue. Voilà un extrait de mes suggestions:
"Problèmes, remarques et propositions :
1 Le rapport entre les besoins de formation en entreprise et le développement des STI . Explorer les vrais besoins en formation. Assurer le feed-back des clients. Penser à la pertinence instructive "avant ", " pendant " et pas seulement " après " la construction des modules.
2 Le rapport complexité - " économie ". Réduire la surface du front de recherche pour accroître son efficacité. Tenir compte de la performance relative de ceux qui préparent ou qui consomment l'instruction.. Évaluer le rapport entre efforts et résultats. Comparer aux autres moyens envisageables. Assurer la facilité de la mise à jour.
3. Le rapport artificiel - humain. Préparer des outils d'aide pour la construction facile des cours par un humain et pour l'assistance humaine pendant la formation avec l’ordinateur. Définir un système hybride qui n'oblige pas les bénéficiaires à recourir à d'autres outils quand les solutions " artificielles " ne sont pas opportunes.
4 Le rapport informatique- autres expertises dans la création des STI. Intégrer plus d’experts en formation, didactique, psychologie, communications etc. Utiliser leur expertise au niveau de la création de chaque module. Saisir l'importance de l'expérience pédagogique dans la création des objets instructifs.
5 Le rapport modularité ( séparabilité) - unité (cohérence): Tenir compte de l'unité du discours instructif. Penser à l'intégration des divers " agents intelligents " dans un discours global cohérent et capable de métamorphose. Explorer les effets pédagogiques " transversaux ", entre les pistes discursives.
6. Le rapport "quoi ?" - "comment ?" dans la préparation du dialogue instructif: Tenir compte de l'unité fond-forme du message instructif et de l'importance de l'interaction au niveau de l'interface. Construire des modules pour la gestion de la forme de présentation des connaissances. »
Ces considérations ont soulevé un assez faible intérêt. Les dialogues avec mes collègues m'ont démontré que ma position était comprise comme une critique spéculative ou stérile et pas comme un essai constructif de redéfinir le paradigme des STI pour agrandir leur chances de réussite.
J'ai eu la certitude que ma vision était hors du courant principal à l’occasion du congrès mondial STI qui a eu lieu en 1996 à Montréal. J’ai profité de l’occasion pour poser aux autorités du domaine les questions qui me creusaient l’esprit. Les réponses n’ont fait que renforcer ma conviction que l’accent mis sur les systèmes éducatifs intelligents autonomes, au détriment des systèmes hybrides qui permettent une croissance progressive de la participation de l’ordinateur dans l’économie de l’intelligence, était une erreur de parcours. Il y avait une distance entre les modèles sophistiqués qui étaient présentés dans les sections théoriques et les instruments classiques " d’authoring multimédia " exposés dans les stands démonstratifs. Cela parlait de soi... Le congrès m’a décidé de quitter la recherche de l'intelligence pédagogique artificielle pour explorer le potentiel de l'ordinateur comme assistant de l’homme dans la gestion intelligente des processus explicatifs.