Séminaire de lecture

-automne 1993- Ioan Rosca

BUTS

   a. S'introduire dans l'univers des préoccupations liées au développement des didacticiels interactifs.

   b. Se former une carte de références bibliographiques dans le domaine.

   c. Démarrer l' organisation d'une banque personelle des donnés utiles (établir sa structure)

   d. Explorer les directions de recherche susceptibles de devenir l'intérêt principal de la thèse.

   e. Vérifier la pertinence des QUESTIONS de départ proposées pour l'étude , trouver des indications pour des réponses ou pour l'orientation de la recherche :

 

         1. Quelles sont les caractéristiques de l'apprentissage interactif ? Les avantages ? Les moyens d'implémentation ?  Les résultats obtenus, à jour ? L'Echelle "d'interactivité" ? Les moyens d'évaluation ?

 

         2.  Comment peut être établi l'équilibre optimal entre l'apprenant et l'environnement d'apprentissage du point de vue du contrôle de l'évolution de la "leçon" ? Dans quelles conditions les tendances limites (contrôle à l'apprenant et contrôle à l'environnement) sont opportunes ? Comment doit-on concevoir (les principes ) un mécanisme de réglage (adaptation) capable d'assurer une flexibilité ?

 

         3.  Quelle est la gamme des rapports entre les nécessités d'information et de formation qui conditionnent la performance? Quelles sont les différences entre les environnements structurés pour informer et pour instruire? Peut-on mélanger  efficacement les deux fonctions dans la même structure environnementale ? Serait-il une solution intéressante pour les besoins des entreprises? Dans cette vision, comment peut être conçu un environnement d'aide à l'apprentissage non-formel (par expérience)?

 

         4.  Quelles sont les caractéristiques "interactives" des instruments classiques d'instruction (professeur, livre,etc) ?  Les résultats féconds et utilisables de l'expérience historique?

     

         5.  Quel est le potentiel interactif de l'utilisation de l'ordinateur ,et en général de la nouvelle technologie? Peut-on parler des  nouveaux principes didactiques relevés par ces nouveaux instruments? Quels sont les observations sur l'interactivité qu'on peut extraire de l'expérience accumulée en EAO ?

 

         6.   Quels sont les critères et les procédures d'orientation du point de vue de l'interactivité lors du développement d'un système d'EAO ou d'EIAO ? Quels sont les différences potentielles entre l'EAO et l'EIAO de ce point de vue ?

 

         7.   Comment pourrait-on concevoir l'interacvtivité entre le didacticiel et le professeur (  avant l'apprentissage- dans l'élaboration du didacticiel, pendant l'apprentissage- pour une double assistance et après -pour  évaluation et correction) ?

 

         8.  Serait-il pertinent aussi d'organiser une participation interactive de l'élevé avant et après la leçon (pour le design et la correction du didacticiel)?

 

         9.  Quel est l'apport à la "qualité de l'interactivité" de la manière d'organisation de la base de connaissance à transmettre ? Quels sont les principes de l'organisation d'une base de connaissances en vue de maximiser son accessibilité  ? Peut on parler d'une qualité intrinsèque  de la  représentation d'une connaissance du point de vue de son explicabilité ? Quels sont les procédures de la transformation d'une information dans une explication?

 

       10.  Pourrait on utiliser les réponses aux questions précédantes comme principes d'orientation des nouveaux modèles de développement d'un didacticiel interactif? Comment? Pourquoi? A quels moyens d'expérimentation, de mesure et d'évaluation?

 

       11. Peut-on envisager une variante largement accessible de  développement des didacticiels (interactifs)  pour EAO et EIAO ? Dans quelle technique ( micro-ordinateurs personnels, accès par moyens modernes de télécommunication aux ordinateurs puissants ,multimédia etc)? Dans quelle vision pédagogique? Avec quelle méthodologie de design ? Quand ? Pourquoi?

       

METHODOLOGIE

        Dans la première étape je parcourrai une par une les références proposées en faisant des observations successives sur les points qui touchent un des problèmes énumérés antérieurement.

        Dans la deuxième , j'établirais l'espace des paramètres impliques dans les observations (le type: "quoi?", "pourquoi?", "comment?"; la position : question  soulevé dans la littérature, réponse, observation personnelle; le chapitre; etc ) et les paramètres correspondants à chaque observation . Le but est de bâtir une base utilitaire personelle  de connaissances sur le sujet et, dans le même temps ,d'expérimenter la construction d'un corps d'expertise pendant  la formation de l'expert et non après !

        Dans la troisième j'organiserai la base de connaissances résultée des opérations précédantes, comme un mini-module expert et je ferai d'une part la synthèse de la lecture et d'autre part l'analyse de l'expérimentation d'organisation de la base d'observations.

 

L'intelligence artificielle- comprendre et prolonger l'intelligence humaine

G.Paquette- A.Bergeron                          Télé université 1990

 

1.pag.20 Les précurseurs. Les disciplines intégrées. Les pionniers. Les deux approches historiques: l'examination exhaustive des cas et l'imitation des experts humains.Le problème de l'explosion combinatoire.(a;b)

2.pag.29 Les domaines de IA:perception(rec. de la parole, des images, de l'écriture, compr. du langage naturel);traitement intellectuel(déduction, induction, résolution, apprentissage)et représentation des connaissances; expression.(a)

3.pag31.Les deux tendances fondam. :l'étude de principe (le fonctionnement de l'intelligence humaine et son imitation artificielle; les recherches pratiques .Leurs synthèse. Leurs contradictions.(a)

4.pag36 L'IA comme base d'une 3-ième révolution de devellop.(i)

5.pag48.Le pr. fondam. de la représentation des connaissances. On donne des exemples. La représentation par propositions.(ex. introd.) Base de connaissances et moteur d'inférence. Le mécanisme de l'utilisation de la logique propositionnelle pour faire des déductions. On trouve un ex. simple avec l'exemplification du chaînage avant et arrière.(a;b)

6.pag67 Exemples d'utilisation des systèmes experts (MYCIN,Sphinx) (b)

7.pag71 La principale caract. d'un système expert par rapport à un logiciel classique : séparation des connaissances du mécanisme de contrôle, qui permet de ne pas être obligée d'enchaîner d'avance la suite d'exécution du programme donnant ainsi la possibilité de réagir à des situations variées, sans programmer explicitement ces réactions. Au lieu d'une séquence d'instructions, on a une collection d'assertions à caractère déclarative(et non pas directive).

OBS J'ai l'impression d'une spéculation à ce point. A chaque étape du déroulement de l'activité du moteur d'inférences ,il choisira la continuation conformément aux critères pré définis, incorporés dans sa structure ,il exécutera donc toujours un programme ,même si celui ci sera implicite .L'exécution reste complètement prévisible ,ce qu'on gagne c'est la simplification dans la rédaction du programme. Les manières implicites de dicter la continuation du déroulement ont probablement la mémé efficacité que l'utilisation des règles symboliques au lieu des tables des calculs. C'est une "algebrisation de la programmation" On donne à l'ordinateur les lois pour qu'il déduise comment continuer au lieu de lui préciser explicitement quoi faire. Cela promet!(a;o)

 8. pag.76 On explique le formalisme des règles de production. L'indépendance et la déclarativité. L'avantage de pouvoir changer une règle sans devoir repenser l'algorithme. Exemples. Modus ponens et modus tollens. Chaînage avant et arrière. Les étapes du fonct.(sélection des règles applicables, choix d'une règle, application) OBS Le style est très confus ! Comment on pourrait expliquer ça systématiquement? (a;b;o)

9. pag.82 L'idée des métarégles pour orienter le choix des règles.(a)

10.pag 82. Le problème du raisonnement approximatif. Alternatives L'utilisation de la logique floue. La dépendance des conditions rend difficile l'approche probabilistique. (a) 

11.pag83. L'idée des systèmes experts auto perfectibles.(par expérience pendant l'utilisation).(i)

12 pag 84 Les promesses de l'utilisation d'un système expert pour faire de l'apprentissage. La différence par rapport à l'EAO :la flexibilité ,qui permet à l'EIAO de simuler le comportement du professeur en s'adaptant aux besoins spécifiques de l'apprenant. La nécessité de création des modules experts en spécialité et en pédagogie. (a)

13.pag91. L'utilisation de la logique des prédicats. Exemples. Représentation. Déduction. Résolution des problèmes. Style assez confus. A revenir. (a,b)

 

Séminaire de lecture : " Principes des systèmes intelligents" P.Jorion (Masson 1990)

 

Observation: Les aspects suivis ont été principalement :

   1. Dans quelle mesure les méthodes de l'IA peuvent résoudre les problèmes liés à l'utilisation de l'ordinateur dans l' instruction ?

   2. Quelles sont les principes d'organisation de l'IA en général (desquels doit tenir compte l'ingénieur de AIAO )?

   3. Les opinions de l'auteur et les observations personelles (mises en évidence par A, respectivement P)

 

1.P: Parmi toutes les livres que j'ai consultés, celle-ci a été pour moi le plus enrichissant. Ce serait peut être à cause de la formation de l'auteur (humaniste à la base) où parce qu'il est le résultat d'une démarche engagée, démonstrative. Le discours et polarisé par le désire de convaincre, il s'éloigne de la " neutralité " du ton scientifique , on est en face d'un avocat d'une idée et non pas d'un rapporteur . L'effet paisible que ce parti- pris à eu sur ma lecture est d'autant plus intéressant que, en général , je ne suis pas d'accord avec sa vision. Pourtant la cohérence que son implication a donnée au discours m'a offert la possibilité de comprendre (enfin...) une multitude de problèmes avec lesquelles l' IA est confrontée, et l'esprit de son approche. Je tiens à faire cette remarque , parce qu'elle produit des suggestions sur une des qualités qu'un interlocuteur devrait avoir pour être intéressant :  s'impliquer dans le sujet, le vivre. Voilà une des dimensions dont la réalisation sera délicate pour un partenaire artificiel

2. A:pag4. La pensé peut être vue comme auto organisation d'un univers de mots. Le livre veut montrer que cette approche est raisonnable et pratique.

3. A:pag7. Les caractéristiques d'un système "intelligent" :il saisit l'intention du partenaire; il choisit comme réponse l'information la plus pertinente; il apprend continuellement pour répondre à des nouvelles situations; il négocie sa connaissance .

4.  A:pag8. Le coeur d'un système intelligent est formé d'une partie statique (les éléments du discours) et d'une partie dynamique (les procédures opérationnelles). La sortie est une chaîne d'éléments choisis à l'aide des procédures. Le raffinement semble être assuré par la finesse des éléments et par la complexité des procédures. Mais pour l'auteur il existe une autre voie:" une meilleure organisation des éléments stockés qui minimise les manipulations en raison de contraintes associatives existant entre eux" .

5.  A:pag9.  Ce qui est important est que le système se comporte comme un humain, et non qu'il le soit. Le reste tient de la philosophie. Le débat sur l'intelligence de l'homme, de la machine et en général est souvent superflu. En fait, les problèmes posés par la simulation de l'intelligence ont permis des observations fécondes sur le fonctionnement de l'intelligence humaine. De plus les choses se sont compliquées par le fait qu'ils existent deux modèles sur l'intelligence (scientifique et populaire) qui sont souvent mêlés de manière à agrandir la confusion.

6.  A:pag15.  "Une réflexion portant sur les principes des systèmes intelligents ne peut se concevoir valablement que dans le cadre d'un projet qui en constitue à la fois l'horizon et l'épreuve: la réalisation d'un système intelligent". Il doit :disposer d'un savoir, pouvoir le transmettre, pouvoir en acquérir, vouloir apprendre, le négocier avec l'utilisateur, avoir une personnalité propre.

P: Sur ce dernier point je partage l'opinion de l'auteur sur l'historicité de l'être intelligent. La connaissance est déterminée fondamentalement par  l'ordre dans laquelle elle est construite. J'ai pu constater dans toutes les situations d'apprentissage que j'ai vécues, en tant qu' élève ou professeur que le sucés de la leçon tient du chemin qu'on emploie , plus que ça , que les notions mêmes ont un "relief historique", qu'elles sont des évolutions plutôt que des entités stables. Je suis persuadé  que pour bâtir un bon "professeur artificiel" on devra tenir comte de la dimension évolutive des notions, car par comparaison à des autres applications de l'IA qui doivent trouver "la solution" à un certain problème , pour les problèmes d'apprentissage les solutions sont des chemins , des  séries des transformations. D'où une contrainte difficile pour le design

7.  A:pag17.  Le discours peut être vu comme un chemin tracé sur un lexique. A chaque étape on doit faire le choix d'un nouvel élément (signifiant).  C'est le modèle du parcours séquentiel d'un espace de mots. Le premier problème :organiser le dictionnaire. Le deuxième: orienter le choix. Pour le choix on a envisagé trois méthodes: 1. Du singe (exhaustive) avec le problème insurmontable de l'explosion combinatoire 2. Des règles (soumettre chaque choix à des contraintes- syntaxiques, sémantiques, pragmatiques, logiques) avec les grandes difficultés crées par l'obligation de vérifier à chaque étape le système des contraintes établi préalablement et appliqué globalement. 3. Du "coup par coup" (si on dispose d'un principe local, qui permette de déterminer quel devra être le mot suivant, dans une situation particulière) avec la diminution significative du nombre des possibilités à prendre en vue pour la continuation.

L'auteur fait dans le livre (et par le système ANELLA qu'il a construit) des recherches sur cette troisième voie parce que c'est elle qui semble correspondre le mieux au mécanisme cérébral et non pas les deux autres. C'est une approche fondamentalement psychologique. On  analyse l'organisation des éléments de la mémoire pour voir l' auto organisation de cette "base de donnés". Il y a un lien plus fort entre "pomme" et "fruit" qu'entre "pomme" et  "chaise". Les notions sont liés par certaines relations intrinsèques à l'organisation de la base. L'hypothèse de l'auteur et que ces liens associatifs guident le choix de la continuation du discours, en réduisant sensiblement les possibilités pour une continuation normale. Il veut les utiliser pour simuler le réseau des contraintes locales, dans la structure même de la base de connaissances.

P: L'idée est captivante et fertile est peut être généralisée pour prendre en vue les choix dans un univers d' unités de lexique plus compliquées que les mots (phrases,. faits). Pourtant je doute que le choix de la continuation d'un discours intelligent dépend seulement des restrictions locales et des critères de les résoudre. L'expérience montre rapidement qu'il y a aussi une polarisation  globale du discours (on veut entrer , on arrive à prononcer le mot "porte" !) La déconsidération de l'interférence des deux types de contrainte et le point faible de son approche.

    Par contre, l'idée la plus fructueuse , celle d'une auto organisation de l'espace de la mémoire de la manière à influencer (faciliter, permettre même) l'organisation du discours n'est pas suffisamment exploitée comme principe du design de l'IA. Moi je risque une proposition qui porte cette idée à des limites encore plus aventureuses : de concevoir des bases de donnés de telle manière que les relations entre les données (les faits, les connaissances) soient implicites , déductibles de la position des faits dans la base et non pas précisées par des relations explicites. Ainsi on aura une partie de l'information sur la base (celle qui décrit les relations) englobée dans la base même avec un prévisible gain d'effort... et de naturalité. On arrivera peut-être à imiter l'organisation du cerveau ,dans lequel il est bien possible que ce qu'on considère comme lien ne soit pas l'effet d'un élément  physique supplémentaire (liaison) mais l'effet de la position relative des deux éléments . Pourquoi exprimer par une construction supplémentaire le fait que deux choses se trouvent sur le même "étage" du moment que cette information est contenue dans leur position même et "lisible" par le système qui "sent" cette position. J'avance que l'encombrement qui confronte ceux qui essayent de produire une base relationnelle simulant la mémoire humaine vient de ce que les relations implicites contenues dans la position des éléments dans la structure sont  traduites par des relations explicites. Prenons la série "a,b,c,d,e". Elle contient toutes les observations possibles sur l'ordre de ses éléments...! Ainsi il semble que une manière vraiment efficace d'imiter le cerveau c'est de simuler sa structure, pas son comportement !

8.  A: "...chez l"être humain l'organisation des traces mnésiques représentant des éléments de discours, doit être optimale dans une perspective multitâche de remémoration, de raisonnement et de génération du discours."

9.  A:pag30-35.  L'auteur doute de l'existence des  idées  au-delà des paroles. La séparation des mots et de leurs significations est discutable et relative. Par exemple des autres cultures (chinoise) ne la font guerre. C'est un argument anthropologique contre l'impression de l'obligativité d'une différenciation entre mots et idées. On peut se réduire à la génération d'un discours intelligent. vu comme ensemble de mots. L'impression qu'il y a des idées qui précédent les mots, qui les produisent, qu'il y a de la pensée sans mots où les théories sur un "langage de la pensé" sont des suppositions sans support et plutôt encombrantes. Aussi la psychologie populaire (par l'utilisation des notions comme :intention de dire, penser, signifier) et les considérations scientifiques sophistiquantes (sur le rapport entre les signifiants et les signifiés) ne font qu'accroître une confusion qui rend inutilement plus difficile la tâche de l'IA. Plus pertinent c'est l 'associationnisme : "les enchaînements associatifs révèlent la manière dont les signifiants sont stockés en mémoire"

10. A:pag 45. Les types d'enchaînements de signifiant à signifiant: 1. matériels (acoustiques, syntagmatiques, graphiques) 2. sémantiques (synonymie, inclusion, connexion simple, traduction, paradigme, attribution essentielle- ciel bleu, attribution accidentelle- père ivre)

11.  A:pag50. Emanée du langage pour exprimer les associations de manière organisée la logique a suivi un chemin d'abstraction et de remodélisation pour des buts mathématiques qui ont fini par l'éloigner du phénomène réel de la pensée humaine , qu'elle n'est plus capable d'exprimer.

12.  A: pag 51. L'enchaînement associatif autobiographique : "...on ne peut imaginer de modèle de réseau mnésique réellement dynamique sans que sa constitution soit automatiquement à la fois historique et idiosyncrasique, du fait que le contenu des inscriptions successives et leur chronologie définissent de manière univoque la structure du réseau."

P:  Une réaffirmation du principe analysé au point 7 avec des conséquences lourdes sur le design d'un AIAO. Apprendre c'est faire évoluer la pensée par des touches successives, comme une toile peinte par un peintre et non  pas comme un mosaïque (puzzle) auquel on ajoute des morceaux, un après l'autre.

13. A:pag52. Intéressante suggestion anthropologique. Ils existent des cultures qui ne connaissent pas les relations d'appartenance et d'inclusion (affirmées par "être"). Ils se résument à traiter la connexion simple entre deux entités. Parmi les connexions simples (manger, chanter etc) on peut considérer "avoir" comme exposant essentiel.

14. A:pag62. Dans le "réseau mnésique" (la mémoire) chaque "trace mnésique" (mot, notion) peut occuper plusieurs positions. On trouvera quelque part "pomme" prés de "fruits" et "poire" mais aussi dans un autre endroit un de ses représentants physiques prés de "Adam" et de "Eve" . Plus que ça, le mot n'est pas obligatoirement localisé (il peut être physiquement distribué), son unité et le résultat d'un procès de synthèse. D'ailleurs il est difficile à croire que des mots comme "pomme" et "être" où "et" aient la même structure mnésique.

15. A: pag 66. Le réseau se forme par sédimentation, par déposition des couches successives. Ils existent des notions centrales, formées aux débuts qui sont perçus comme des "croyances" et difficile à changer. Pour ceux qui font partie des couches supérieures (superficielles) la négociabilité et plus grande: on parle des savoirs.

P: Cela suggère la naturalité d'une hiérarchisation valorique de la base de faits qui constitue une "intelligence". De nouveau , étant donné que l ' " instructeur expert"  doit accomplir intelligemment la tâche de faire évoluer ...une intelligence, on est obligé de connaître ,de respecter et d'utiliser les observations sur l'organisation de la pensé humaine.

16. A:pag 72. Une fois le réseau mnésique présenté, on doit passer au deuxième problème central de l'IA : la dynamique (les mécanismes du choix d'un parcours). On a déjà un espace réduit des choix autour de chaque trace mnésique (restrictions produites par la structure même du réseau). Il faut expliquer en plus le mécanisme du choix entre les alternatives laissées libres par le réseau. Pour cela l'auteur nous parle de la "dynamique de la pertinence" .Les traces se trouvent dans la mémoire sous l'effet d'un potentiel psychique créé par l'affect. (semblable au potentiel du relief qui détermine les cours d'eaux). C'est à dire , les synapses qui lient une trace à des autres ont un certain coefficient d'ouverture, contrôlé par l'affect. Evidement qu'une fois la synapse parcourue elle doit se "fermer" (devenir plus résistante) ,parce que si le discours est arrivé au même endroit on peut supposer qu'il cherche une autre sortie. Par contre , à la longue, la répétition d'un tracé fait preuve de sa pertinence, et la liaison doit être encouragé. Ce mécanisme continu d' inhibition et excitation des liaisons constitue la dynamique de la pertinence réalisé par l'affect. Donc, situé dans un certain endroit du réseau mnésique ,le discours continue par l'endroit duquel il est lié et qui lui oppose la résistance minimale.

P: Le modèle et de nouveau attractif  mais il laisse place à des objections.  Cette réduction du choix au niveau locale n'est pas crédible.(voir obs. 7). Il considère l'organisation de la mémoire à un seul étage, regroupant toutes les traces enchaînables. Il pourrait raffiner son modèle en envisageant une certaine "hiérarchisation", qui est très probable. Ainsi le discours peut évoluer à un certain niveau (par exemple des catégories générales) en cherchant une sortie au niveau des principes pour "s'effondre" vers les détails d'un étage inférieur si cela devient nécessaire. Il est instructif dans ce sens l'exemple du choix du chemin entre Paris et Rome: on ne le trouve pas par des tâtonnements locaux , mais par des "coups par coups" sur la carte de grande échelle, suivis par des orientations locales.  

Une autre complication vient si on envisage le cas de l'apprentissage . Dans ce cas l'excursion dans la mémoire pour établir le discours a deux centres de décision . L'ordinateur (si on veut le concevoir comme interactif) reçoit tout le temps de l'extérieur des suggestions qui influencent son parcours. A la limite , dans l'apprentissage , il y a un seul discours fait par deux intelligences à la fois.  Or l'auteur ne s'occupe que du discours uni-maîtrisé, et en si faisant il établit des résultats plutôt intéressants pour les systèmes experts destinés à produire des résultats que pour dialoguer. On aurait été mieux servis s' il avait insisté sur le dialogue.  C'est une direction de recherche incitante. Comment fonctionnent deux réseaux mnésiques connectés compatiblement et  deux mécanismes de choix du discours synchronisés?  Il répond  en considérant que l'effet de l'extérieur est un changement du relief potentiel (comme une déstabilisation des synapses  qui force des nouveaux trous de potentiel) mais ce n'est pas assez, surtout dans le cas d'une intervention continuelle. Je crois que le modèle du double réseau serait plus fertile.

17. A:pag86.  La signification d'un signifiant n'existe pas à l'extérieur du réseau. El consiste en fait de l'ensemble des connexions dans lesquelles le signifiant est présent. C'est le modèle offert par le dictionnaire : le sens d'un mot est le réseau des expressions auxquelles il participe. Pour certains mots il existe un correspondant extérieur, un objet représenté, pour la grande majorité la seule signification et la "constellation" englobante (l'espace des liaisons)

18. A: pag 92. L'intention  n'est pas la cause de l'action mais l'effet de sentir la décision ( qui est inconsciente), une reconstruction postérieure à l'action. Comme pour des autres conclusions l'auteur se base sur des résultats de la psychologie, surtout de la psychanalyse.(P: Il est évident que l'insistance pour montrer l'autodétermination du discours va dans le sens désiré: d'envisager la décision  par des contraintes strictement locales.) L'impression qu'on a de savoir ce qu'on veut dire avant de dire est l'effet d'une illusion (on confond le discours prononcé par le discours pensé).On est tout aussi surpris par notre discours que ceux qui nous écoutent ! Mais , on va répliquer, on se propose dès le matin de faire une chose, et le souci nous le rappelle toute la journée. Oui, répond l'auteur, mais parce que le souci change le relief du potentiel affectif, créant une tendance accentuée pour le parcours du réseau. Autrement dit, même les décisions globales influencent le choix du chemin par ce qu'ils changent l'architecture locale , la seule qui influence directement le choix. Une conception limite pour l'IA :les seules décisions extérieures à la base doivent changer la base et non pas choisir le chemin.

19. A: pag 100. Apprendre c'est ajouter un nouveau trait mnésique, cohérent au réseau. DE nouveau il accentue la dimension historique d'une telle construction dans laquelle l'ordre des étapes détermine la personnalité du résultat. A la limite, même deux ordinateurs qui communiquent, apprennent.

20. A: pag 104 . Pour la restriction que la phrase ait un sens, il y a deux possibilités:  le sens de la phrase est la somme des sens des mots ( où une combinaison ) où qu'elle a un sens unitaire. On doit respecter une cohérence entre les mots qui la composent et entre les phrases qui se succèdent. Cela demande une analyse .

21.  A:pag110.  Ils existent deux types des mots dans la phrase :les mots de contenu (les catégorémes ) et les mots d'armature (les syncatégorémes) .Par exemple "chien" et "donc". Les mots de liaison ont une autre représentation physique que ceux de contenu. Ils sont aussi dirigés par des processus de contrôle différents. Probablement de cette division provient la séparation entre "syntaxe" et "sémantique" .

22.  A:pag115.  McDermott ,pionnier de l'utilisation de la logique en IA , conclut en 1986 que cette approche est un échec., parce que nos raisonnements ne sont pas généralement déductifs. Le fait de respecter certaines lois (par exemple de ne pas tuer) ne veut pas dire qu'on se conforme à la loi (qu'on s'abstient à tuer à cause de l'interdiction). On peut agir naturellement en créant l'impression qu'on suit une règle. Le normatif apparaît seulement si la spontanéité fait défaut. Ce n'est pas la logique qui conduit le discours. La vraie armature est constituée par les syncatégorémes mais mêmes elles ne sont pas suffisantes pour assurer la compatibilité entre les phrases, les catégorémes intervient aussi .Pour  pouvoir les négliger la logique les jette dans en abîme bon à tout, extérieur à la phrase même, qu'elle appelle vérité... S'occuper de la phrase après avoir établi par des autres moyens (?!) qu'elle ...est vraie, c'est d'éluder le mécanisme du raisonnement. Le syllogisme est inférence mnésique et non pas abstraction logique.

23.  A:pag127. Qu'est ce que c'est la vérité donc? L'auteur lui dédie deux chapitres, dans lesquels il présente deux visions:

    1. La vérité comme adéquation du mot à la chose. C'est le cas de la région du réseau mnésique en train de se modifier (d'apprendre) à la suite d'un contacte avec extérieur. On peut parler ici de la description du monde tel qu'il est, de la conformité à la réalité. On peut arriver à une logique bivalente.

    2. La vérité comme degré d'adhésion à  sa propre représentation, relative et négociable. Arguments anthropologiques: ils existent des cultures pour lesquelles le rapport entre les discours et régit par la convenabilité . La vérité c'est un problème de rapport de force entre deux partenaires, un rapport de raccord. Tout homme a pour ses notions un certain niveau d'adhésion et pendant une discussion intelligente une négociation doit avoir lieu. 

24. A:pag 142 Une conséquence de l'existence des deux types de vérité, celle du discours (bien établie par les experts, non négociable) et celle de la parole (négociable) et l'orientation dans la construction de systèmes intelligents :1. Si le système et "plein" (il doit livrer ses connaissances à un ensemble d'utilisateurs) il doit respecter la vérité rigide du discours  2. S'il est vide (il est destiné à se remplir en s'accommodant avec l'utilisateur) il doit savoir négocier. Pour le faire il devra se comporter simuler que les concepts qu'il négocie ont pour lui une importance. Ainsi il sera perçu comme un partenaire intelligent.

25. A: La vraie manifestation d'intelligence humaine est la capacité de négocier son savoir, parce que le dialogue est un échange d'opinions et non pas de certitudes.  Les situations plus précises (scientifiques) peuvent très bien être traités par les moyens de l'informatique classique. Pour l'IA le champ d'intérêt c'est échange des opinions. La solution doit être structurellement nouvelle , tenant compte  de l'adhésion d'un homme à ses opinions et non pas le recors à une "quantification" de cette situation faite d'un angle flou (le vague de la réalité) où probabilistique( mesure d'une indétermination). Si vraiment on admet la perspective de l'opinion on doit trouver un moyen plus naturel de la traiter que de la "quantifier" pour la forcer de se soumettre aux modèles scientifiques.

 P: J'ai vécu cette expérience il y a dix années quand on m'a demandé de trouver une application  des notions sur les ensembles flous à la fiabilité : après avoir constaté avec surprise la mesure dans laquelle l'optique floue (vue comme conscientisation de la gradation  possible pour des sentences comme "bon" ou "mauvais")était appropriée, j'ai senti la désintégration de l'émerveillement  quand j'ai introduit..."les coefficients de flou". J'ai quitté le collectif de recherche avec la certitude que ce n'est pas la mesurabilité classique qui répond le mieux au spécifique des situations floues...

 26. A: pag155. La signification de la phrase ne peut se concevoir qu'au sein d'un discours construit des phrases compatibles. La compatibilité est assurée par les connecteurs associatifs (les syncatégorèmes) qui jouent un rôle d'armature .Les catégorémes sont à leur tour de deux types: ceux qui interviennent indifféremment dans un quelconque de leurs enchaînements associatifs, et ceux qui n'interviennent plus de manière privilégiée que dans un seul de ceux-ci. Les premières correspondent aux notions pré-systémiques : ils acceptent une pluralité d'interprétations et c'est la phrase qui les contient qui leur précise le sens. Par contre les deuxièmes correspondent aux notions théoriques , ils sont tellement univalentes qu'ils peuvent aider à la compréhension de la phrase. Ils aident donc à stabiliser le sens.

 

Lecture: "Integrating Hypermédia into Intelligent tutoring". Philippe C. Duchastel

 

1. Le cadre conceptuel

 

a. Les Systèmes tutoriels intelligents (ITS)

 

a1. Sont basés sur la représentation des connaissances (l'expression de la signification des informations et des leurs relations sémantiques) Les informations forment une base de connaissances , c'est à dire un réseau d'unités et relations sémantiques gouvernées par des lois de production. L'ordinateur peut faire des opérations sur les connaissances (déduction etc).

a2.  Font appel aux structures d'organisation établies en intelligence artificielle : la base des faits, les règles de productions, le modèle expert, le modèle utilisateur.

a3. Disposent d'un modèle étudiant et d'un modèle pédagogique. Pendant l'interaction entre l'utilisateur et l'environnement, les actions sont poursuivies, mémorisées et analysées. Le modèle étudiant sert à interpréter les actions et faire une estimation en conséquence de la base de connaissances de l'apprenant à un moment donné. C'est le "filtre d'observation de l'étudiant". Le modèle pédagogique sert à adapter le comportement du système à la particularité de l'utilisateur. En somme le ITS est capable d'observer l'apprenant et de changer son "discours" en conséquence.

a4. Par comparaison au tutoriels classiques , les ITS ont l'avantage que , par l'adaptation continuelle à l'apprenant, offrent à tout moment un choix plus pertinent et attirant pour celui-ci. Ainsi le défaut principal du "teaching" (imposer un encadrement) est atténué. Le "teaching" adaptable intègre une dimension implicite de "learning" , car l'apprenant influence le procès. N'empêche que les ITS restent des systèmes de type "teaching"

 

b. Les HPS ( systèmes hypermédia)

 

b1. Les informations sont structurées de manière classique (sans dimension sémantique explicite). Le paradigme et celui d'une base de donnés, de type réseau, avec des liens (liaisons ponctuelles) . C'est la généralisation du l'hypertexte , pour des collections de donnés multimédia. Cela leur donne une grande richesse et expressivité.

b2 La structure HMS permet une bonne navigation et une bonne visualisation des informations. Le design des HMS met l'accent sur l'accès  et la présentation , sans se soucier des significations. C'est l'utilisateur qui est responsable du décodage cognitif des informations reçues.

b3. Ainsi le type d'apprentissage réalisable par les HMS est le "learning" : l'utilisateur explore, découvre , utilise. Il n'y a pas de l'encadrement, il n'y a pas d'expertise pédagogique.

 

 

2. L'Equilibre entre le "learning " et le "teching"

 

a. Il y a un antagonisme entre les attitudes que l'utilisateur adopte quand il se "laisse enseigné" et quand il "explore pour apprendre".  Cela provoque une contradiction entre la philosophie de design des systèmes d'aide au "learn" et celle destinés au "teach". La didactique traditionnelle est axée sur le "teach" .

 b. La racine de ce conflit est au niveau de l'équilibre des facteurs cognitifs et affectifs qui motivent l'apprenant. Pendant l'apprentissage hautement encadré, l'aide des systèmes (surtout s'il se fait de manière intelligente) apporte un important appui cognitif (il aide à réaliser une adaptation cognitive, à maintenir l'apprenant au bord de sa surface cognitive, (ni très loin pour compromettre la compréhension , ni à l'intérieur pour compromettre l'intérêt) . Le sujet est aidé à comprendre ce qu'il fait, ce qu'il peut faire. Par contre, dans le cas de la navigation libre , la stimulation affective peut être beaucoup plus intense, le sujet ayant tout la responsabilité de l'adaptation.

c. Il serait intéressant de combiner les deux leviers motivationels et de définir une didactique centrée sur l'apprenant. Au lieu de diriger on va seulement suggérer la continuation. On cherchera des mécanismes de contrôle pour ce rapport délicat entre les partenaires.

 

3. L'intégration de l'HMS et ITS

 

a. Une première direction : élargir les capacités d'un HMS avec des fonctions intelligentes (Barden, Jonassen). Elle n'est pas choisie par l'auteur.

b. Le choix de l'auteur : intégrer des capacités hypermédia aux STI.

     b1 Le principe de structuration :

          - la mémorisation de la navigation dans la HM, facile à faire

          - l'élaboration d'une base de connaissances mise en correspondance (parallèle) avec la base de donnés multimédia; les informations auront une dimension -signification et une autre -apparence au niveau de l'interface. L'auteur attire l'attention sur la difficulté d'établir cette correspondance. Par exemple il y a une contradiction entre la granulation fine de l'organisation sémantique et celle ample des "pages écran"

         - l'analyse de la navigation à l'aide de la représentation sémantique de la base et d'un modèle étudiant.

         - l'adaptation des choix offerts pendant la navigation , selon les ses intérêts déduits de l'observation de l'utilisateur; on utilisera les services d'un modèle "assistant" (guide).

b2. Les effets pédagogiques préconisés:

         - on fera des grands efforts pour que l'explorateur ne se sente pas perdu dans la HM (la didactique de la bonne orientation)

         -  l'adaptation  aura un effet pédagogique indirect, par l'amélioration de la pertinence de l'espace proposé à l'exploration.

         - le but d'un tel système sera de provoquer pendant l'exploration. Il n'essayera pas d'imposer une ligne de conduite, mais il sera un partenaire attentif, attirant l'attention en cas de péril d'égarement ,utilisable en tout moment pour répondre intelligemment aux questions que l'utilisateur pose pour s'orienter dans son exploration.

        - l'espoir et d'intégrer les motivations cognitives et affectives, de laisser à l'apprenant le plaisir,  le dynamisme et l'acuité de l'initiative, mais en même temps, de lui offrir une intelligibilité maximale dans le rapport avec l'environnement.

 

Notes de lecture  : une incursion pluridisciplinaire à la poursuite de l'explication

 

I  Introduction

 

L'acte de l'explication est étudié maintenant de plusieurs angles de vue , dans plusieurs sciences , selon des développements souvent parallèles. Etant donné la complexité de cet acte, il n'est pas surprenant qu'il génére une riche pluridisciplinarité. Ce qui est à améliorer c'est le dialogue interdisciplinaire entre les divers "lignes de recherche". Pour trouver des modèles qui recomposent son unité primaire.  Et aussi pour utiliser le génie créateur investi dans des autres disciplines comme source d'inspiration et validation pour celle qui s'inspire.

 

                   La nécessité de l'interdisciplinarité dans l'étude de l'explication est reflétée par les regroupements scientifiques actuels. La linguistique informatique,  l'enseignement assisté par ordinateur,  la psychopédagogie,  la "cognition sociale" , l'étude de la compréhension, les systèmes experts, etc sont autant de manifestations de cette multidiciplinarité . Des publications  ou  des projets de recherche qui réunissent les efforts des psychologues, philosophes, informaticiens, pédagogues, linguistes, technologues etc sont de plus en plus répandus.

 

                    Ainsi l'étude interdisciplinaire de l'explication est un fait courant. Par contre , la conscience de l'unité et de la spécificité de l'objet étudié (l'explication) est réduite. L'effet est un certain éclatement "interdisciplinaire" de ce qui mériterait faire l'objet d'une science à part , multidisciplinaire . Je me suis proposé d'en apporter des arguments.

 

                    Une des manières de mettre en évidence ce besoin est l'étude de la littérature scientifique de plusieurs disciplines, liée à l'explication. La présente étude , n'est qu'un début de cette analyse, un exemple- source de suggestions et ne prétend guerre d'être exhaustive. Je précise pourtant que pour trier les articles, j'ai fait une recherche bibliographique très vaste.  J'ai dû vaincre le sentiment de perplexité créé par la grandeur excessive de la surface de l'étude (une multitude d'aspects, une multitude de disciplines) .

 

                     Pour placer mes observations dans un contexte unitaire j'utiliserai ce modèle  pour l'explication : sujet,   source ,   recepteur ,            instrument

                     Pour diverses sciences , l'explication est un instrument fondamental de travail. Elles se sentent plus ou moins obligées de le modéliser avec précision. Leur objectif est de décrire et comprendre la réalité. L'intérêt pour l'explication et donc secondaire, mais crucial , car la validité de l'explication conditionne la validité de son résultat. En général la tache de  l'analyse de validité explicative est laissée à l'épistémologie , qui insiste sur des paramètres comme : vérité, causalité, justesse, argumentation, logique.  On s'interroge sur la vérité de la chose expliqué. Expliquer- c'est argumenter.

                    Pour la Psychologie  , la  Neurophysiologie , les Sciences cognitives , l'accent est mis sur la compréhension, sur l'effet de l'explication dans l'univers cognitif du récepteur. Souvent,  de l'intérieur de ces sciences se manifestent des tendances d'extension vers l'explication dans son ensemble (voir  "simulation theory" , "theory theory" , "social cognition" , "coconstruction" , le "situated knolwedge" etc). La question : comment on comprend les explications.  Expliquer- c'est de faciliter la compréhension.

                    A l'autre bout, la "cognition " de l'explicateur est très peu analysée. Les anciens filons de la théorie de la création  et de la rhétorique  , sont inexplicablement peu repris dans les développements actuels. A l'immense littérature sur la psychologie de l'élève et son aventure cognitive pendant l'explication , correspondent peu de  préoccupations sur l'aventure cognitive de l'explicateur. Serait-ce à cause de la perception instrumentale de son rôle ?  En tout cas, c'est un vide à combler. La question est "Comment l'explication et crée ?". Expliquer -c'est d'épanouir son savoir.

                     Enfin , quand on fait appel à des instruments (techniques) pour faciliter le passage du message explicatif, la concentration peut passer sur la structure des instruments  : média ,multimédia et hypermédia ,  texte et hypertexte , graphisme et réalité virtuelle , etc  On se demande comment doivent être constitués   les instruments d'aide à l'explication. Evidemment , à la recherche des critères , les techniciens arrivent aussi à l'analyse de l' explication dans son ensemble. Expliquer c'est de réifier les connaissances pour les disponibiliser.

                     Des autres domaines ont un caractère synthétique plus prononcé, traitant la relation entre les protagonistes  de l'acte explicationel.

                      Pour la Sémantique , la Logique  , la Gnoséologie  , le rapport entre l'homme et la réalité focalise l'attention. Mais des extensions vers l'explication dans son ensemble apparaissent  souvent. On se demande sur ce qu'on comprend.  Expliquer c'est enrichir les connaissances.

                     Le rapport entre l'instrument (modèle, représentation , symbole, appareil etc) et la réalité représentée fait l'objet d'étude en Théorie de la Modélisation  , Théorie des Systèmes , Théorie des symboles , Mathématiques  etc.  Mais au-delà de l'objectivité de ses sciences , on accepte de plus en plus la présence d'une dimension humaine , dialogique , dans le discours scientifique . La question  : "comment expliquer par des artefacts qui reflètent bien la réalité ?". Expliquer c'est représenter.

                    En Cybernétique  , le dialogique interactif est au centre de l'attention . Des termes comme interactivité et synchronisation sortent en évidence. .

                    On analyse attentivement le fonctionnement du dialogue habituel (Linguistique), ou  l'essence formalisable du transfert (théorie de l'information -), . On se demande comment  une explication est transmise. Expliquer c'est transférer.

                    Le rapport entre l'explicateur et la réalité est le symétrique de celui du récepteur . C'est pour lui que l'étude cognitive  de "savoir stable" est plus utile , tandis que pour le récepteur, la dynamique de la compréhension est plus intéressante.  A l'époque des systèmes experts , connaître la géographie interne  de l'expertise communicable est devenu essentiel.  On se demande quelle est l'expertise sur la réalité, qui permet l'explication. Expliquer, c'est expliciter l'expertise.

                    Le rapport instrument- consommateur est étudié dans des domaines comme : Compréhension du texte , Interface homme- machine ,  Science du décodage  ,  Langage Visuel . La question : comment on extrait l'explication d'un support instrumental ? Expliquer, c'est permettre l'extraction de l'explication. 

                    Enfin, le rapport explicateur- instrument fait l'objet d'étude en Théorie du codage  , ou les diverses techniques d'Authoring (Design de didacticiel) . C'est un aspect essentiel pour la pratique de l'explication, qui pose le problème : comment on construit un instrument d'explication ?. Plus encore , s'il s'agit d'une "leçon enregistrée", utilisable plus tard sans la participation de l'auteur, on doit répondre aux questions théoriques et pratiques liées à "l'explication potentielle". Expliquer, c'est préparer une explication potentielle pour une future dévirtualisation.

Pour terminer , passons en revue les approches sur l'explication les plus englobantes:

                    Les Sciences de la Communication ,  pour le triangle entre les partenaires et la réalité-sujet. Expliquer, c'est de se synchroniser sur un sujet.

                    Les Télécommunications  - pour le triangle source, récepteur, intermédiaire.  La question est la fidélité de la transmission. Expliquer, c'est de reproduire.

                    La sémiotique , pour le triangle représentant, représenté, interprète.  Avec la question :  comment se reflète la compréhension de la réalité dans la compréhension des symboles , pendant une explication?  Explique,  c'est de symboliser .

                    La théorie de la composition  pour le triangle explicateur- réalité- produit explicatif. On se demande comment l'auteur transpose optimalement son explication sur un support physique? Expliquer, c'est de matérialiser son savoir.

                    L' informatique, qui essaye de modéliser le système pour l'oppérationaliser.. Attaque important surtout à cause des éclaircissements structurels qu'il est en train de forcer. On se demande comment on pourrait  modéliser  l'explication de manière opérationalisable, ce qui est important pour la naissance d'une science de l'explication.

                    Les  Sciences de l'éducation, qui couvrent , dans son ensemble , le système de l'explication, surtout de manière globale, fonctionnelle, laissant les mécanismes atomiques , peu expliqués.  On se demande plutôt comment faire l'explication, que ce que l'explication est.

            .

                     Conclusion et prémisse pour la suite :

                      L'explication est un phénomène multidimensionnel. Plusieurs "acteurs" et mécanismes concourent à sa "physiologie". Plusieurs disciplines ont l'autorité de s'en occuper. Le risque de desynchronisation entre ces filons de recherche (incohérence , dédoublements, réduction ) est considérable et ... à considérer. L'unité et l'importance du sujet justifient un effort de synthèse. Une excursion dans la littérature marque un point de départ pour une telle entreprise.

 

II A la recherche de l'explication  (Excursion ou incursion  bibliographique ...)

 

                    Le but de cette incursion est inductif (saisir des problèmes ) et non pas déductif. J'espère qu'il suggérera l'atmosphère.  Ce n'est donc pas une "démonstration" et c'est pour cela qu'elle prend la liberté d'un parcours peu structuré. Pour chaque article choisi, je parcourrai deux étapes :

                    - une description de son contenu ( en sélectionnant les éléments jugés pertinents pour mon entreprise)

                    - une réaction personnelle, cellule de mon discours   (sur la géographie complexe des préoccupations sur l'explication)

 

                     1 .Hempel , Carl G. Explanation in Science and in History, (chapter 1 of the book "Explanation" edited by David Hillel Ruben -1993 -pag 17-41)

    

                     A Résumé sélectif :

           

                    L'importance de l'explication comme instrument que les sciences utilisent dans leur avancement est indéniable. Expliquer - c'est aider à comprendre et comprendre c'est un but clé, à la fois :

-  pragmatique (savoir se débrouiller dans ce monde)

-  intellectuel (satisfaire sa curiosité)

           

                    On a utilisé longtemps l'explication comme instrument, de manière de plus en plus efficace, de plus en plus rigoureuse. Le temps est venu pour analyser son mécanisme .

 

 

                     C'est John Dewey dans son livre "How we think ?" (1910) qui ouvre la voie de cette analyse. En résumant et en adaptant ses observations, on pourrait définir un premier type d'explication : l'explication déductive- nomologique comme un argument déductif de la forme :

  (D)    C1, C2, ....  Ck;

                        L1,L2,.........Lr;

                        _____________

                                   E

ou C1, C2, .....Ck décrivent les faits particuliers invoqués dans l'argumentation            L1, L2 ....Lr     , les lois générales appliquées  (l'ensemble des faits et des lois forme "l'explanans") et E est "l'explanandum" - le fait expliqué (ou la proposition utilisée pour formuler ce fait).

           

                       Dans ce type d'explication , on répond à la question "Pourquoi E se produit ?" , en montrent que cela est une conséquence de l'application des lois L aux faits C. Bien sur que les "lois" évoluent , et avec elles la chaîne de l'explication. La théorie de Newton a changé l'explication des lois de Kepler etc.

 

                        Souvent l'explication est causale. On dispose des lois L en vertu desquelles on peut anticiper que les causes C produisent toujours l'effet E.  On ne perçoit pas le caractère déductif- nomologique des explications causales parce que les lois L sur lesquelles elles se basent ne sont pas formulées explicitement.

 

                        Par contre , il y a des explications déductives qui ne sont pas causales. Déduire les lois de Kepler de ceux plus générales de Newton c'est d'expliquer, mais non pas par causalité. Les lois de Kepler ne sont pas causées par celles de Newton. Aussi on a des situations où des valeurs pour certaines grandeurs physiques, peuvent être déduites (expliquées) si on connaît des autres , au même moment (ce qui exclut la causalité) .

 

                       Le deuxième type fondamental d'explication est l'explication statistique- probabilistique.  Cette fois on ne dispose pas des lois qui nous donnent la certitude sur la conclusion.  On dispose seulement de la garantie que, dans les conditions données, l'effet sera produit avec une certaine probabilité, près de la certitude. La forme est :

(P)                   Fi

                        p(O,F) très grand

              _________________     donne très probablement

                                   Oi   

            Mais la justification n'est plus déductive, mais inductive, quoi que toujours basée sur des lois (statistiques).

 

            La forme complète des explications, idéale, est rarement réalisée dans la pratique de la science, mais a une importante valeur de repère. Dans la pratique de l'explication, on ne présente pas toutes les conditions , et les lois appliquées. On suppose souvent que l'auditoire connaît déjà certains arguments sous-entendus, ce qui est essentiel pour l'économie de l'explication. Il en résulte une explication elliptique.

           

            D'ailleurs il est rarement possible de tenir compte de tous les facteurs dont la combinaison donnerait l'explication complète. Nous devons accepter l'utilité des explications partielles. À la limite , nous devons reconnaître le rôle des "esquisses explicatoires" , qui ne font que suggérer une explication.

 

            Une fois cette ouverture faite , la théorie de l'explication est prête à traiter l'explication utilisée habituellement en histoire sur le même modèle que celui applicable pour les Sciences de la Nature. 

 

            L'explication historique se base sur les modèles déductif ou probabilistique, même si elle ne le fait pas de manière explicite ou complète. Il y a toujours des lois sociales, psychologiques etc, que les auteurs sous-entendent quand ils se lancent dans une explication.

            (Hempel donne une série d'exemples pour montrer ce mécanisme).

                       

            On peut bien se demander si l'histoire n'utilise pas des explications spécifiques à son objet d'étude, qui sortent des deux modèles proposés . L'explication "génétique" (le présent comme résultat d'une évolution) et "par motivation" (l'importance de la volonté humaine, du but ) paraissent de structure différente.  Pourtant,  l'étude attentive de ces deux mécanismes explicatifs nous montre qu'ils peuvent être encadrés  dans les  deux modèles pour l'explication.

 

             L'explication "génétique" présente de manière continuelle les faits (étapes) , entre lesquelles le passage est nomologique mais d'habitude tacite.

            L'explication par la "motivation" de l'acteur semble profondément différente  de celle nomologique. Il ne n'agit pas "parce que" mais "pour que". La forme serait cette fois-ci :

(R)     A était dans une situation de type C

            dans une situation de type C , la chose appropriée à faire est X          donc

                                               X

            Mais cet argument ne peut pas être considéré comme une vraie explication, car il ne garantit pas , ni même à grande probabilité , l'avènement de X. Pour vraiment expliquer X, on ajoute la présomption tacite que, dans des circonstances comme C, un agent comme A, est sensé de faire X.  On obtient ainsi :

(R)      A était dans une situation de type C

              A est disposé d'agir de manière rationnelle

              Une personne qui est disposée d'agir de manière rationnelle dans une situation de type C, fera (avec une grande probabilité) X

 

            Ainsi on retrouve l'explication nomologique.... Et de la même façon on peut procéder avec des arguments qui tiennent plutôt de la personnalité émotive de l'acteur que de sa ration.

 

            Le cas  vraiment spécifique (et délicat) est celui de l'action faite de manière "irrationnelle" , intuitive, spontanée . En effet , il y a une différence significative entre la vraie motivation d'un geste humain, celle que l'humain offre quand il est demandé sur sa motivation et celle imaginée par un observateur. On accède difficilement aux "vrais raisons". Plus encore, définir le "vrai" est une aventure complexe, qui nous fait sortir de l'épistémologique, pour entrer dans l'ontologique de l'explication .

(ce que l'auteur ne veut pas faire).

 

            En conclusion, sans que cela reflète une approche mécaniste de l'humain , l'explication des phénomènes empiriques a la même structure, dans tous les domaines de la recherche scientifique, de la mécanique jusqu'à l'histoire, ce qui représente une heureuse unité méthodologique des sciences empiriques.

 

B.Commentaire:

           

            L'article de Hempel est considéré comme un moment clé pour la naissance de la science de l'explication. Depuis sont parution, une multitude de contributions ont bâti l'échafaudage de ce chapitre de l'épistémologie.  Les monographies de David-Hillel Ruben , ou  de Peter Achinstein  ou de G.H Von Wright  , en font la synthèse.

 

            Le débat sur la structure et l'essence (épistémologique, ontologique, causale, pragmatique) de l'explication continue. Il est passionnant. Mais dans le cadre de mon excursion, je ne peux pas me permettre de le détailler.

 

            Ce que je veux mettre en relief est que , dans tous ces développements (qui entraînent d'habitude des philosophes, des logiciens , des épistémologues) , l'accent reste sur  l'explication- produit, sur la validité de l'explication, sur la mesure de laquelle elle décrit correctement la réalité. Même les approches plus globalistes comme celle de P. Achinstein  qui lie l'explication de l'acte d'expliquer , ne vont pas jusqu'à ouvrir largement l'analyse (et le modèle) sur la dimension psychologique,  communicationelle et didactique de l'explication. La manière de laquelle Hempel traite l'explication "génétique" et "motivationelle" (voir plus haut) est à mon avis hautement suggestive pour cette réduction.

 

            J'espère  que le résumé de l'article de Hempel surprend assez bien "l'esprit épistémologique". Si le côté "curiosité intellectuelle" (soif de savoir profond) est bien servi par cette approche sur l'explication (chose normale pour une démarche philosophique) , la valeur "pragmatique" est moins claire. On n'en apprend pas à expliquer.... De plus, même sur le plan conceptuel, je crois que le "comment l'explication se déroule ?"  aura des influences significatives sur le "qu'est ce que l'explication est ?" 

 

 

            2  Neisser, Ulric . Multiple Systems : A New Approach to Cognitive Theory. European journal of Cognitive Psychology, 1994, v.6, no.3, p. 225-241

 

A. Résumé sélectif :

           

            La psychologie cognitive est entrée dans une étape de profonds changements, provoqués par des découvertes faites pas seulement dans son domaine, mais aussi dans  les sciences dévéloppementales,  les neurosciences et la psychologie sociale. Les enfants connaissent plus qu'on le soupçonnait, le cerveau est  distribué dans plus d'unités qu'on peut dénombrer , le comportement est à la fois plus transmis et plus déterminé culturellement qu'on avait imaginé.

 

            Une nouvelle synthèse est nécessaire, basée plutôt sur la modularité, le développement et l'écologique, que sur le paradigme habituel de l' "information processing" . Celui-ci s'est avéré moins fertile qu'on avait pensé, ambigu et source d'une explosion de modèles particuliers, simplistes , fausses . (Neisser y a renoncé dans les années '70 pour adopter celui de "schéma" pour expliquer le cycle perceptif, les nouvelles informations modifiant le schéma utilisé pour percevoir.) Mais le concept de schéma a perdu son attrait. Il expliquait tout... trop aisément! (perception, imagination, orientation et mémoire). D'autre part le cerveau, le développement, le caractère social de la cognition et l'apprentissage étaient absents. Maintenant ils ont envahi la psychologie cognitive.

 

            On sait que l'enfant est orienté vers l'environnement dès le début, que l'apprentissage humain est social commencent avec les interactions interpersonnelles de l'enfance, que le comportement est très dépendant du contexte, et que le cerveau est la somme d'une multitude de systèmes modulaires en relation.   Complexité et interdépendance à l'extérieur et à l'intérieur.  Tout cela suggère que la cognition n'est pas explicable par un principe unique.

 

            (L'auteur exemplifie  cette "approche modulaire" en proposant trois systèmes perceptifs qui coexistent dès la naissance. Il attire l'attention que ce n'est qu'une ébauche, une première tentative incomplète de modéliser le "multimécanisme"  de la perception).

 

            Il y a trois mécanismes partiellement indépendants qui coopèrent dans la perception:

            - la perception directe, (étude lancée par Gibson -1979 et continuée par les écologistes)

            - la perception réactive interpersonnelle (étudiée par les sociopsychologues et les dévéloppementalistes)

            - la représentation- reconnaissance (étudiée par les psychologues de l' "information processing" et l'intelligence artificielle.)

 

            La perception directe nous permet de réagir efficacement au changements environnementaux, sans faire appel aux représentations stockées en mémoire. Elle se base sur  la structure appropriée des organes perceptifs ,  qui explique les "disponibilités" de réaction à l'environnement émetteur . Des phénomènes comme : l'effet de profondeur cinétique , l'occlusion par un obstacle, la modification de la grandeur avec la distance, l'utilisation du  flux optique pour saisir son propre mouvement témoignent de la présence de la perception directe dès la naissance et de son importance. Elle est à la base de toute autre forme de perception. , elle est immédiate, impénétrable cognitivement, non décomposable. C'est elle qui nous donne le sentiment fondamental de notre présence dans l'espace, de notre "soi écologique" . Ainsi, le fait que par déplacement , avec le point d'observation, le flux perçu de la part de l'environnement change aussi , témoigne le caractère dual "environnement- moi" de la perception.

 

            La perception -réactivité interpersonnelle est un mécanisme spécial perceptif qui explique la socialisation. On se regarde l'un l'autre et nos gestes ont un sens consenti au-delà de leur mécanique. Cette co-perception n'est pas réductible à des autres formes de perception.  Le contact entre les deux partenaires est à la base du "l'apprentissage social", et toute vie intellectuelle commence par une relation professeur- étudiant. Une expérience qui a mis en lumière l'importance de l'intersubjectivité a été conduite en 1985 : Placées dans deux chambres séparées , des mères qui communiquaient par télévision avec leurs enfants de 10 mois ont obtenu une interaction tout à fait satisfaisante. Mais, quand la transmission directe a été remplacée par la bande enregistrée,  la satisfaction des enfants a brusquement cessé : le même signal qu'ils avaient reçu avec plaisir une minute avant , ne les satisfaisaient plus ! L'interaction coordonnée du moi et de l'autre n'était plus présente. Le contact affectif non plus. On se trouve enface d'un mécanisme spécifique pour notre espèce.

 

            La reconnaissance- représentation - qui nous permet de répondre adéquatement aux objets et situations familières. A l'encontre des deux autres formes de perception, elle est liée plutôt au passé qu'à la réaction immédiate : elle est basée sur une comparaison entre l'information présente et celle mémorisée. Elle a été étudiée le plus, et ne peut pas se réduire aux autres formes , chose démontrée par diverses expériences.

 

            (A la fin de son article, l'auteur  présente des preuves néuropsychologiques de la séparabilité psychologique et néuronale des trois mécanismes et décrit leur coopération. Il conclut : " Grand theories based on single global explanatory principles have had their day in psychology, but that day is drawing to a close. What really exists is a multiplicity of sytems , differin widely from one another , developing from recognisable precursors in infancy into forms determined by ecological and cultural experience. Together, those systems make human perception and action possible" )

             

            B. Commentaire :

 

            L'approche de la psychologie sur l'explication a été  "intériorisée" , focalisée sur l'aventure interne du l'être qui comprend. Parfaitement conscients que la compréhension est un processus (compare avec la vision épistémologique), les psychologues se sont concentrés sur la "physiologie" de la compréhension , sur l'évolution du système  des connaissances.  Ils avaient à leur disposition l'observation introspective et extrospective, qu'ils ont continuellement utilisées et organisées.  Leur recherche se heurtait d'un côté , à l'impénétrabilité des procès physiques et d'autre part,  à l'insuffisante modélisation de ce que les connaissances sont.

 

            La neurophysiologie  se concentre sur le mécanisme physique.  Elle a avancé beaucoup dans cette voie, influençant le trajet de la psychologie. L'informatique a enrichi la panoplie des modèles applicables au traitement de l'information. La science cognitive essaye de faire la synthèse  sur la modélisation de la cognition. On a généralement considéré que cette synthèse étendue au système cognitif du récepteur de l'information, axée sur la compréhension,  serait assez complète . On a considéré décisif le rapport entre l'homme  qui comprend et la chose comprise (voir le modèle de la figure 1), un rapport monopolaire (vision strictement psychologique) ou bipolaire (vision cognitive). La différence par rapport à l'épistémologie était  la pondération renversée dans le rapport sujet-objet.

             L'article de Neisser, un des pionniers de la psychologie cognitive, exprime de manière nette le besoin d'évasion du modèle bipolaire pour comprendre  ... la compréhension. La présence de l'autre est manifeste, surtout dans le mécanisme de la perception- réactivité interpersonnelle. Le triangle sujet- objet- partenaire s'impose comme le seul cadre capable à modéliser le phénomène du développement intellectuel. L'Emission et la réception sont les deux côtés de la même surface de contact, les deux projections du même phénomène dans les univers intérieurs des partenaires.  L'un explique, l'autre comprend , mais cela ne représente que deux visions sur une aventure commune , simultanée. 

            Je ne peux que me réjouir de cette évolution de la science cognitive (l'article n'est qu'un des multiples signes ) vers l'intégration de la compréhension dans son contexte réel, ternaire, vers le dialogique. Car j'espère que ce changement réanimera l'intérêt pour la bi- présence humaine en éducation  et équilibrera la pression de la mode du "cognitivisme individualiste", et la réduction de l'éducation à l'apprentissage  . On se concentrera plus sur le rapport professeur- élève , comme manifestation d'un procès fondamental pour  l'intellect humain.

 

            3 Resnick, Lauren B.& athers Reasoning in Conversation. Cognition and Instruction, 1993, v11 no 3-4 p.347-364

 

A.Résumé sélectif :

 

            L'article se base sur une vision du raisonnement comme une forme de pratique sociale. (voir les conceptions de Vygotsky-1978 et Mead-1934). Selon cette approche ,le raisonnement est l'internalisation d'un procès originalement publique et interactif. A  la place de la manipulation individuelle d'un ensemble de symboles, de la logique formelle, du mécanisme déductif ou statistique , on commence à parler des connaissances distribuées dans un réseau social, des modèles "connexionistes" de pensée. L'école de la  "situated cognition" nie  la prémisse classique que le noyau "cognitif" est isolable des facteurs affectifs, intentionnels et contextuels.

            La pensée est pour Mead "une conversation avec l'autre , généralisé" . Les racines du raisonnement privé devraient être cherchées dans la conversation, dans les formes publiques du raisonnement. C'est ce que l'article se propose, dans l'espoir de dépasser les limites de la logique formelle , de surprendre les liens intimes entre la rationalité et le discours. Les travaux des pionniers de la rhétorique, de la logique informelle et de la structure  conversationnelle deviennent des importantes ressources pour cette entreprise multidimensionnelle.

            Le cadre expérimental a été un cours de philosophie de la science et politique publique. Le sujet : l'opinion sur la prolifération de l'énergie nucléaire. Les étudiants se sont prononcés, préalablement , s'ils sont pour, ou contre. On a formé des groupes de trois étudiants, deux d'une opinion et le troisième de l'opinion contraire. Ils ont eu la tache de discuter 20 minutes, pour arriver à un consensus. Le dialogue a été enregistré sur bande vidéo.

            Sur la base de ces enregistrements , le déroulement de l'effort de résolution -partagée  à été analysé.  Les situations typiques ont été classifiées (élaboration, objection, concession, affirmation de position etc).  Un formalisme de représentation pour des interventions, pour les liens entre elles (continuité thématique, coopération séquentielle etc) et pour la structure de la conversation dans son ensemble a été introduit.

            Sur cette base, on a pu faire une comparaison entre les structures sociales de discussion des groupes différents. On a pu observer les caractéristiques communes et les différences, faire des statistiques et dresser le "portrait" de chaque groupe.

            Puis, on a analysé la structure du raisonnement "distribué" , la distribution des prémisses factuelles ou générales , explicite ou implicites (les lois sont généralement sous-entendues) entre  les participants, et le cheminement du raisonnement par des arcs "de provocation" , de "réponse" et de "concession". 

            L'impression initiale provoquée par la première écoute des enregistrements, que la discussion n'est pas très cohérente a disparu après l'analyse minutieuse de la structure conversationnelle. En fait, chaque participant a englobé son discours dans le tissu des interventions des autres, en balançant l'attaque, la défense et la concession .

            Le principal apport que l'article réclame est la nouvelle ligne méthodologique

pour l'analyse de la "pensée distribuée".

 

B Commentaire :

 

            Cet article est assez vague et pauvre en arguments. Il est évident que les auteurs explorent un terrain  nouveau, peu organisé. Je l'ai choisi pour l'importance qu'il accorde à la dimension dialogique du raisonnement, pour son approche "communication", pour l'extension de l'acte explicatoire vers l'univers multipolaire des participants à la conversation.

            Il crée un pont intéressant entre les deux articles précédants : d'un côté il parle des mécanismes de l'argumentation. D'autre part, il choisit l'optique interactive, sociale sur la  cognition. La situation qu'il  traite est plus générale que celle de mon modèle:

- parce que le but de la discussion n'est pas strictement explicatif

- parce que le rôle des participants est hybride (expliquer et suivre l'explication de l'autre, participer à une co- explication)

-parce qu'ils sont plusieurs (pas seulement deux)

            Pour mon incursion je retiens la vision de l'explication comme un acte de communication et l'intérêt pour l'explication collective (de groupe).


4. Derek J. Koehler Explanation, Imagination, and Confidence in Judgment. Psychollogical Bulletin,1991, No3, pp 499-519

 

A. Résumé sélectif

 

            On est souvent obligé à argumenter nos options. Dans des situations ambiguës, nos explications ne sont pas seulement le résultat de notre jugement et de nos croyances , mais les influencent aussi (par un subtil mécanisme de réaction). L'article analyse l'influence de l'explication que quelqu'un donne sur le renforcement de sa confiance dans l'alternative expliquée.

 

            Les expériences sur lesquelles il se base sont amplement décrites dans  la littérature. En général leur modèle est le suivant : on propose à deux groupes à exprimer leur confidence dans une ou l'autre de deux hypothèses complémentaires. (par exemple un pronostique sportif) . Préalablement, un des deux groupes doit livrer une explication sur la justesse d'une des hypothèses A, comme s'il la prenait comme vraie. On constate que, même si  l'exercice d'explication est fait avec une croyance simulée, même si pour l'estimation le groupe qui a livré "l'explication" est libéré de l'indication de soutenir l'hypothèse A imposée dans l'exercice préalable , ce groupe à la tendance de considérer l'hypothèse A plus plausible que l'autre groupe, qui n'a pas fait l'exercice d'explication de A.

 

            Autre forme de l'expérience : des médecins psychiatres ont à leur disposition le dossier d'un patient . Un groupe a le vrai dossier, qui reflète l'évolution de la maladie. L'autre groupe a un dossier "enrichi" avec un événement significatif que le patient a subi. Le groupe desinformé est prié d'expliquer l'événement , selon les donnés du dossier. Puis il est annoncé de l'erreur, il prend connaissance que l'événement n'a pas eu lieu.  Maintenant, les deux groupes sont priés d'exprimer leur opinion sur l'évolution possible du malade. Le groupe qui a expliqué le phénomène imaginaire croit sensiblement plus que l'autre dans la possibilité de son apparition comme conséquence de l'évolution décrite dans  le reste du dossier. L'importance de cet "effet de persévérance de la croyance" est plus grande si les explications ont été générées que si elles ont été choisies d'un "menu" d'alternatives,  et si elles ont été écrites.

 

            Le phénomène se manifeste aussi de manière indirecte, car par suggestion , il influence la performance. . Le groupe  qui explique son présumé succès , réussit mieux que celui qui n'est pas mis à expliquer le succès préalablement ,  en face d'une épreuve. Parfois l'effet sur la performance est paradoxal, la personne qui explique les raisons d'un comportement peut le changer par la suite. Cela peut se passer à cause de la différence entre nos vraies mobiles et ceux "préférables socialement" qu'on utilise pour nous expliquer. Il se passe qu'après avoir fourni une telle explication , on sent un besoin de cohérence avec ce qu'on a expliqué  et on change l'attitude.

 

            Enfin, si les sujets sont priés d'expliquer une hypothèse contraire à la première, avant de se prononcer sur la plausibilité, l'influence initiale de l'explication peut être annulée complètement. Mais il se peut aussi que la "contreexplication" ne réussit pas à rétablir l'équilibre. En fait , dans certaines situations la contreexplication ne produit plus de confidence. 

 

            Un effet similaire sur la confidence , mais moins fort, se produit quand les sujets sont priés d'imaginer la suite d'une hypothèse. Cette fois l'effet dépend de la facilité avec laquelle  la personne  s'imagine l'hypothétique alternative.

 

            En résumé, les observations sont :

a-Expliquer pourquoi une possibilité pourrait être la vraie , fait croître la confiance dans la validité réelle de cette possibilité.

b-Imaginer que la possibilité est vraie , fait aussi croître la confidence

c- la contreexplication réduit souvent l'effet de l'explication sur la confiance

d- dans le cas de la suite de deux explications contradictoires, souvent la première alternative gagne plus de confidence, que la deuxième ne réussit pas à atténuer

e-L'effet diminue si la personne a un riche savoir préalable sur le sujet en question

 

            Pour interpréter ces phénomènes, l'auteur commence par repousser deux possibles modèles , dont il souligne les limites  :

            - les interprétations sociales ou motivationelles (le désir d'éviter la dissonance) sont importantes mais qui négligent la dimension cognitive)

            - le fonctionnement  associatif de la mémoire (lié à "l'effet de la génération") , pertinent , mais pas totalement.

 

            Puis, il présente sa théorie sur le "conditional reference frame" : hypothèse considérée vraie "focalise" (polarise) le traitement cognitif du problème .

             La personne qui fait l'exercice d'expliquer filtre les opérations mentales en conformité à cette hypothèse. Elle sélectionne les éléments qui se couplent bien avec l'hypothèse.

             Elle établit la pondération des aspects pris en compte, interprète les preuves , dirige la recherche (déconsidère les alternatives contraires) selon cette polarisation.

              Une fois un tel "frame" (cadre ,vision) adopté , il manifeste de l'inertie. ("belief perseverence" - cognition sociale, "mental set of fixedness"- théories de résolution des problèmes, "accommodation"- mémoire ,"conservatisme"- la prise de décision et le jugement ) Les développements ultérieurs sont faits à partir de ce cadre. Il est difficile de le renverser.

            La contreexplication peut réussir la dépolarisation si les opérations de reconstruction qu'elle suppose ne sont pas trop gênées par le cadre déjà modelé par l'explication.

 

            Le fin de l'article est réservé à l'énumération de quelques questions ouvertes :

-le mécanisme de la génération naturelle des hypothèses

-l'influence de la structure de représentation du problème traité

- l'étude de l'évolution de l'effet (après un certain temps).

 

B Commentaire

 

            L'intérêt de cet article est sur plusieurs plans.

 

            D'une part , il est dédié à l'analyse des mécanismes cognitifs de l'explicateur, ce qui est assez rare (la littérature psychologique et cognitive est généralement penchée vers l'étude des mécanismes mentaux liés à la réception et non pas à l'émission du discours explicatif).

            L'explicateur humain qui participe à une explication, change pendant qu'il explique, il ...comprend. Expliquer c'est aussi s'obliger à comprendre...  L'explicateur fait partie de la partie transformable du système de l'explication. Il évolue pendant qu'il livre son discours , il est soumis à un continuel feed-back auto formateur. Il crée une explication qui le crée à son tour , et c'est cette circularité ouverte qui donne à l'acte de l'explication un caractère créateur, impossible de modéliser avec le "moteur d'inférence"...

            On  observe  une dualité argument- connaissance et explication- compréhension ,une interdépendance plus profonde que la vision selon laquelle l'argumentation est un épiphénomène bâti sur le savoir et l'explication une occasion pour la compréhension.

 

            D'autre part il met en évidence la complexité des mécanismes cognitifs liés à l'explication dans le cas des connaissances "relatives", imprécises, floues.

            À la place de "preuve", "démonstration" , "logique" etc , on trouve des réalités condensées dans des termes comme : "croyance" , "focalisation", "inertie" etc.

            Il est évident que pour des cas pareils, les modèles "logiques" de l'explication (voir l'article de Hempel comme exemple) ne sont pas très utiles, même si on leur démontre une validité de principe (ce qui est d'ailleurs discutable). On peut se demander si même dans le cas des sciences exactes, les mécanismes de polarisation (filtrage) par croyance sont totalement évitables...