Séminaire de lecture
-automne 1993- Ioan Rosca
BUTS
a. S'introduire dans l'univers des préoccupations liées au développement
des didacticiels interactifs.
b. Se former une carte de références bibliographiques dans le domaine.
c. Démarrer l' organisation d'une banque personelle des donnés utiles
(établir sa structure)
d. Explorer les directions de recherche susceptibles de devenir
l'intérêt principal de la thèse.
e. Vérifier la pertinence des QUESTIONS de départ proposées pour l'étude , trouver des
indications pour des réponses ou pour l'orientation de la recherche :
1. Quelles sont les caractéristiques
de l'apprentissage interactif ? Les avantages ? Les moyens d'implémentation
? Les résultats obtenus, à jour ?
L'Echelle "d'interactivité" ? Les moyens d'évaluation ?
2.
Comment peut être établi l'équilibre optimal entre l'apprenant et
l'environnement d'apprentissage du point de vue du contrôle de l'évolution de
la "leçon" ? Dans quelles conditions les tendances limites (contrôle
à l'apprenant et contrôle à l'environnement) sont opportunes ? Comment doit-on
concevoir (les principes ) un mécanisme de réglage (adaptation) capable
d'assurer une flexibilité ?
3.
Quelle est la gamme des rapports entre les nécessités d'information et
de formation qui conditionnent la performance? Quelles sont les différences
entre les environnements structurés pour informer et pour instruire? Peut-on
mélanger efficacement les deux fonctions
dans la même structure environnementale ? Serait-il une solution intéressante
pour les besoins des entreprises? Dans cette vision, comment peut être conçu un
environnement d'aide à l'apprentissage non-formel (par expérience)?
4.
Quelles sont les caractéristiques "interactives" des
instruments classiques d'instruction (professeur, livre,etc) ? Les résultats féconds et utilisables de
l'expérience historique?
5.
Quel est le potentiel interactif de l'utilisation de l'ordinateur ,et en
général de la nouvelle technologie? Peut-on parler des nouveaux principes didactiques relevés par
ces nouveaux instruments? Quels sont les observations sur l'interactivité qu'on
peut extraire de l'expérience accumulée en EAO ?
6.
Quels sont les critères et les procédures d'orientation du point de vue
de l'interactivité lors du développement d'un système d'EAO ou d'EIAO ? Quels
sont les différences potentielles entre l'EAO et l'EIAO de ce point de vue ?
7.
Comment pourrait-on concevoir l'interacvtivité entre le didacticiel et le professeur (
avant l'apprentissage- dans l'élaboration du didacticiel, pendant
l'apprentissage- pour une double assistance et après -pour évaluation et correction) ?
8.
Serait-il pertinent aussi d'organiser une participation interactive de l'élevé
avant et après la leçon (pour le design et la correction du didacticiel)?
9.
Quel est l'apport à la "qualité de l'interactivité" de la
manière d'organisation de la base de connaissance à transmettre ? Quels sont
les principes de l'organisation d'une base de connaissances en vue de maximiser
son accessibilité ? Peut on parler d'une qualité intrinsèque
de la représentation d'une
connaissance du point de vue de son explicabilité
? Quels sont les procédures de la transformation d'une information dans une explication?
10.
Pourrait on utiliser les réponses aux questions précédantes comme
principes d'orientation des nouveaux modèles de développement d'un didacticiel
interactif? Comment? Pourquoi? A quels moyens d'expérimentation, de mesure et
d'évaluation?
11. Peut-on envisager une variante
largement accessible de développement
des didacticiels (interactifs) pour EAO
et EIAO ? Dans quelle technique ( micro-ordinateurs personnels, accès par
moyens modernes de télécommunication aux ordinateurs puissants ,multimédia
etc)? Dans quelle vision pédagogique? Avec quelle méthodologie de design ?
Quand ? Pourquoi?
METHODOLOGIE
Dans la première étape je parcourrai
une par une les références proposées en faisant des observations successives
sur les points qui touchent un des problèmes énumérés antérieurement.
Dans la deuxième , j'établirais
l'espace des paramètres impliques dans les observations (le type:
"quoi?", "pourquoi?", "comment?"; la position :
question soulevé dans la littérature,
réponse, observation personnelle; le chapitre; etc ) et les paramètres
correspondants à chaque observation . Le but est de bâtir une base utilitaire
personelle de connaissances sur le sujet
et, dans le même temps ,d'expérimenter la construction d'un corps d'expertise pendant la formation de l'expert et non après !
Dans la troisième j'organiserai la base
de connaissances résultée des opérations précédantes, comme un mini-module
expert et je ferai d'une part la synthèse de la lecture et d'autre part
l'analyse de l'expérimentation d'organisation de la base d'observations.
L'intelligence artificielle- comprendre et prolonger l'intelligence
humaine
G.Paquette- A.Bergeron Télé université 1990
1.pag.20 Les précurseurs. Les
disciplines intégrées. Les pionniers. Les deux approches historiques:
l'examination exhaustive des cas et l'imitation des experts humains.Le problème
de l'explosion combinatoire.(a;b)
2.pag.29 Les domaines de
IA:perception(rec. de la parole, des images, de l'écriture, compr. du langage
naturel);traitement intellectuel(déduction, induction, résolution,
apprentissage)et représentation des connaissances; expression.(a)
3.pag31.Les deux tendances
fondam. :l'étude de principe (le fonctionnement de l'intelligence humaine et
son imitation artificielle; les recherches pratiques .Leurs synthèse. Leurs
contradictions.(a)
4.pag36 L'IA comme base d'une
3-ième révolution de devellop.(i)
5.pag48.Le pr. fondam. de la
représentation des connaissances. On donne des exemples. La représentation par
propositions.(ex. introd.) Base de connaissances et moteur d'inférence. Le
mécanisme de l'utilisation de la logique propositionnelle pour faire des
déductions. On trouve un ex. simple avec l'exemplification du chaînage avant et
arrière.(a;b)
6.pag67 Exemples d'utilisation
des systèmes experts (MYCIN,Sphinx) (b)
7.pag71 La principale caract.
d'un système expert par rapport à un logiciel classique : séparation des
connaissances du mécanisme de contrôle, qui permet de ne pas être obligée
d'enchaîner d'avance la suite d'exécution du programme donnant ainsi la
possibilité de réagir à des situations variées, sans programmer explicitement
ces réactions. Au lieu d'une séquence d'instructions, on a une collection d'assertions
à caractère déclarative(et non pas directive).
OBS J'ai l'impression d'une
spéculation à ce point. A chaque étape du déroulement de l'activité du moteur
d'inférences ,il choisira la continuation conformément aux critères pré
définis, incorporés dans sa structure ,il exécutera donc toujours un programme
,même si celui ci sera implicite .L'exécution
reste complètement prévisible ,ce qu'on gagne c'est la simplification dans la
rédaction du programme. Les manières implicites de dicter la continuation du déroulement
ont probablement la mémé efficacité que l'utilisation des règles symboliques au
lieu des tables des calculs. C'est une "algebrisation de la
programmation" On donne à l'ordinateur les lois pour qu'il déduise comment
continuer au lieu de lui préciser explicitement quoi faire. Cela promet!(a;o)
8. pag.76 On explique le formalisme des règles de production. L'indépendance et
la déclarativité. L'avantage de pouvoir changer une règle sans devoir repenser
l'algorithme. Exemples. Modus ponens
et modus tollens. Chaînage avant et arrière. Les étapes du fonct.(sélection des
règles applicables, choix d'une règle, application) OBS Le style est très
confus ! Comment on pourrait expliquer ça systématiquement? (a;b;o)
9. pag.82 L'idée des métarégles pour orienter le choix des règles.(a)
10.pag 82. Le problème du
raisonnement approximatif. Alternatives L'utilisation de la logique floue. La
dépendance des conditions rend difficile l'approche probabilistique. (a)
11.pag83. L'idée des systèmes
experts auto perfectibles.(par expérience pendant l'utilisation).(i)
12 pag 84 Les promesses de
l'utilisation d'un système expert pour faire de l'apprentissage. La différence
par rapport à l'EAO :la flexibilité ,qui permet à l'EIAO de simuler le
comportement du professeur en s'adaptant aux besoins spécifiques de
l'apprenant. La nécessité de création des modules experts en spécialité et en
pédagogie. (a)
13.pag91. L'utilisation de la
logique des prédicats. Exemples. Représentation. Déduction. Résolution des
problèmes. Style assez confus. A revenir. (a,b)
Séminaire de lecture : "
Principes des systèmes intelligents" P.Jorion (Masson 1990)
Observation: Les aspects suivis
ont été principalement :
1. Dans quelle mesure les méthodes de l'IA peuvent résoudre les
problèmes liés à l'utilisation de l'ordinateur dans l' instruction ?
2. Quelles sont les principes d'organisation de l'IA en général
(desquels doit tenir compte l'ingénieur de AIAO )?
3. Les opinions de l'auteur et les observations personelles (mises en
évidence par A, respectivement P)
1.P: Parmi toutes les livres que
j'ai consultés, celle-ci a été pour moi le plus enrichissant. Ce serait peut
être à cause de la formation de l'auteur (humaniste à la base) où parce qu'il
est le résultat d'une démarche engagée, démonstrative. Le discours et polarisé
par le désire de convaincre, il s'éloigne de la " neutralité " du ton
scientifique , on est en face d'un avocat d'une idée et non pas d'un rapporteur
. L'effet paisible que ce parti- pris à eu sur ma lecture est d'autant plus
intéressant que, en général , je ne suis pas d'accord avec sa vision. Pourtant
la cohérence que son implication a donnée au discours m'a offert la possibilité
de comprendre (enfin...) une multitude de problèmes avec lesquelles l' IA est
confrontée, et l'esprit de son approche. Je tiens à faire cette remarque ,
parce qu'elle produit des suggestions sur une des qualités qu'un interlocuteur
devrait avoir pour être intéressant :
s'impliquer dans le sujet, le vivre. Voilà une des dimensions dont la
réalisation sera délicate pour un partenaire artificiel
2. A:pag4. La pensé peut être vue
comme auto organisation d'un univers de mots. Le livre veut montrer que cette
approche est raisonnable et pratique.
3. A:pag7. Les caractéristiques
d'un système "intelligent" :il saisit l'intention du partenaire; il
choisit comme réponse l'information la plus pertinente; il apprend
continuellement pour répondre à des nouvelles situations; il négocie sa connaissance .
4. A:pag8. Le coeur d'un système intelligent est
formé d'une partie statique (les éléments du discours) et d'une partie
dynamique (les procédures opérationnelles). La sortie est une chaîne d'éléments
choisis à l'aide des procédures. Le raffinement semble être assuré par la
finesse des éléments et par la complexité des procédures. Mais pour l'auteur il
existe une autre voie:" une
meilleure organisation des éléments stockés qui minimise les manipulations en
raison de contraintes associatives existant entre eux" .
5. A:pag9.
Ce qui est important est que le système se comporte comme un humain, et
non qu'il le soit. Le reste tient de la philosophie. Le débat sur
l'intelligence de l'homme, de la machine et en général est souvent superflu. En
fait, les problèmes posés par la simulation de l'intelligence ont permis des observations
fécondes sur le fonctionnement de l'intelligence humaine. De plus les choses se
sont compliquées par le fait qu'ils existent deux modèles sur l'intelligence
(scientifique et populaire) qui sont souvent mêlés de manière à agrandir la
confusion.
6. A:pag15.
"Une réflexion portant sur les principes des systèmes intelligents
ne peut se concevoir valablement que dans le cadre d'un projet qui en constitue
à la fois l'horizon et l'épreuve: la réalisation d'un système
intelligent". Il doit :disposer d'un savoir, pouvoir le transmettre,
pouvoir en acquérir, vouloir apprendre, le négocier avec l'utilisateur, avoir
une personnalité propre.
P: Sur ce dernier point je
partage l'opinion de l'auteur sur l'historicité de l'être intelligent. La
connaissance est déterminée fondamentalement par l'ordre dans laquelle elle
est construite. J'ai pu constater dans toutes les situations d'apprentissage
que j'ai vécues, en tant qu' élève ou professeur que le sucés de la leçon tient
du chemin qu'on emploie , plus que ça , que les notions mêmes ont un
"relief historique", qu'elles sont des évolutions plutôt que des
entités stables. Je suis persuadé que
pour bâtir un bon "professeur artificiel" on devra tenir comte de la
dimension évolutive des notions, car par comparaison à des autres applications
de l'IA qui doivent trouver "la solution" à un certain problème ,
pour les problèmes d'apprentissage les solutions sont des chemins , des séries des transformations. D'où une contrainte
difficile pour le design
7. A:pag17.
Le discours peut être vu comme un chemin tracé sur un lexique. A chaque
étape on doit faire le choix d'un nouvel élément (signifiant). C'est
le modèle du parcours séquentiel d'un espace de mots. Le premier problème
:organiser le dictionnaire. Le deuxième: orienter le choix. Pour le choix on a
envisagé trois méthodes: 1. Du singe (exhaustive) avec le problème
insurmontable de l'explosion combinatoire 2. Des règles (soumettre chaque choix
à des contraintes- syntaxiques, sémantiques, pragmatiques, logiques) avec les
grandes difficultés crées par l'obligation de vérifier à chaque étape le
système des contraintes établi préalablement et appliqué globalement. 3. Du "coup par coup" (si on
dispose d'un principe local, qui permette de déterminer quel devra être le mot
suivant, dans une situation particulière) avec la diminution significative du
nombre des possibilités à prendre en vue pour la continuation.
L'auteur fait dans le livre (et
par le système ANELLA qu'il a construit) des recherches sur cette troisième
voie parce que c'est elle qui semble correspondre le mieux au mécanisme
cérébral et non pas les deux autres. C'est une approche fondamentalement
psychologique. On analyse l'organisation
des éléments de la mémoire pour voir l' auto organisation de cette "base
de donnés". Il y a un lien plus fort entre "pomme" et
"fruit" qu'entre "pomme" et
"chaise". Les notions sont liés par certaines relations
intrinsèques à l'organisation de la base. L'hypothèse de l'auteur et que ces
liens associatifs guident le choix de la continuation du discours, en réduisant
sensiblement les possibilités pour une continuation normale. Il veut les
utiliser pour simuler le réseau des contraintes locales, dans la structure même
de la base de connaissances.
P: L'idée est captivante et
fertile est peut être généralisée pour prendre en vue les choix dans un univers
d' unités de lexique plus compliquées que les mots (phrases,. faits). Pourtant
je doute que le choix de la continuation d'un discours intelligent dépend
seulement des restrictions locales et des critères de les résoudre.
L'expérience montre rapidement qu'il y a aussi une polarisation globale du discours (on veut entrer , on
arrive à prononcer le mot "porte" !) La déconsidération de l'interférence
des deux types de contrainte et le point faible de son approche.
Par contre, l'idée la plus fructueuse ,
celle d'une auto organisation de l'espace de la mémoire de la manière à
influencer (faciliter, permettre même) l'organisation du discours n'est pas
suffisamment exploitée comme principe du design de l'IA. Moi je risque une
proposition qui porte cette idée à des limites encore plus aventureuses : de
concevoir des bases de donnés de telle manière que les relations entre les données (les faits, les connaissances) soient implicites , déductibles de la
position des faits dans la base et non pas précisées par des relations
explicites. Ainsi on aura une partie de l'information sur la base (celle qui
décrit les relations) englobée dans la base même avec un prévisible gain
d'effort... et de naturalité. On arrivera peut-être à imiter l'organisation du
cerveau ,dans lequel il est bien possible que ce qu'on considère comme lien ne soit pas l'effet d'un
élément physique supplémentaire
(liaison) mais l'effet de la position
relative des deux éléments . Pourquoi exprimer par une construction
supplémentaire le fait que deux choses se trouvent sur le même
"étage" du moment que cette information est contenue dans leur
position même et "lisible" par le système qui "sent" cette
position. J'avance que l'encombrement qui confronte ceux qui essayent de
produire une base relationnelle simulant la mémoire humaine vient de ce que les
relations implicites contenues dans la position des éléments dans la structure
sont traduites par des relations
explicites. Prenons la série "a,b,c,d,e". Elle contient toutes les
observations possibles sur l'ordre de ses éléments...! Ainsi il semble que une
manière vraiment efficace d'imiter le cerveau c'est de simuler sa structure,
pas son comportement !
8. A: "...chez l"être humain l'organisation
des traces mnésiques représentant des
éléments de discours, doit être optimale dans une perspective multitâche de
remémoration, de raisonnement et de génération du discours."
9. A:pag30-35.
L'auteur doute de l'existence des idées au-delà des paroles. La séparation des mots et
de leurs significations est discutable et relative. Par exemple des autres
cultures (chinoise) ne la font guerre. C'est un argument anthropologique contre
l'impression de l'obligativité d'une différenciation entre mots et idées. On
peut se réduire à la génération d'un discours intelligent. vu comme ensemble de
mots. L'impression qu'il y a des idées qui précédent les mots, qui les
produisent, qu'il y a de la pensée sans mots où les théories sur un
"langage de la pensé" sont des suppositions sans support et plutôt
encombrantes. Aussi la psychologie populaire (par l'utilisation des notions
comme :intention de dire, penser, signifier) et les considérations
scientifiques sophistiquantes (sur le rapport entre les signifiants et les
signifiés) ne font qu'accroître une confusion qui rend inutilement plus
difficile la tâche de l'IA. Plus pertinent c'est l 'associationnisme : "les enchaînements associatifs révèlent
la manière dont les signifiants sont stockés en mémoire"
10. A:pag 45. Les types
d'enchaînements de signifiant à signifiant: 1. matériels (acoustiques,
syntagmatiques, graphiques) 2. sémantiques (synonymie, inclusion, connexion
simple, traduction, paradigme, attribution essentielle- ciel bleu, attribution
accidentelle- père ivre)
11. A:pag50. Emanée du langage pour exprimer les
associations de manière organisée la logique a suivi un chemin d'abstraction et
de remodélisation pour des buts mathématiques qui ont fini par l'éloigner du
phénomène réel de la pensée humaine , qu'elle n'est plus capable d'exprimer.
12. A: pag 51. L'enchaînement associatif
autobiographique : "...on ne peut imaginer de modèle de réseau mnésique
réellement dynamique sans que sa constitution soit automatiquement à la fois
historique et idiosyncrasique, du fait que le contenu des inscriptions
successives et leur chronologie définissent de manière univoque la structure du
réseau."
P: Une réaffirmation du principe analysé au
point 7 avec des conséquences lourdes sur le design d'un AIAO. Apprendre c'est
faire évoluer la pensée par des touches successives, comme une toile peinte par
un peintre et non pas comme un mosaïque
(puzzle) auquel on ajoute des morceaux, un après l'autre.
13. A:pag52. Intéressante
suggestion anthropologique. Ils existent des cultures qui ne connaissent pas
les relations d'appartenance et d'inclusion (affirmées par "être").
Ils se résument à traiter la connexion simple entre deux entités. Parmi les
connexions simples (manger, chanter etc) on peut considérer "avoir" comme
exposant essentiel.
14. A:pag62. Dans le "réseau
mnésique" (la mémoire) chaque "trace mnésique" (mot, notion)
peut occuper plusieurs positions. On trouvera quelque part "pomme"
prés de "fruits" et "poire" mais aussi dans un autre
endroit un de ses représentants physiques prés de "Adam" et de
"Eve" . Plus que ça, le mot n'est pas obligatoirement localisé (il
peut être physiquement distribué), son unité et le résultat d'un procès de
synthèse. D'ailleurs il est difficile à croire que des mots comme "pomme"
et "être" où "et" aient la même structure mnésique.
15. A: pag 66. Le réseau se forme
par sédimentation, par déposition des couches successives. Ils existent des
notions centrales, formées aux débuts qui sont perçus comme des
"croyances" et difficile à changer. Pour ceux qui font partie des
couches supérieures (superficielles) la négociabilité et plus grande: on parle
des savoirs.
P: Cela suggère la naturalité
d'une hiérarchisation valorique de la base de faits qui constitue une
"intelligence". De nouveau , étant donné que l ' " instructeur
expert" doit accomplir
intelligemment la tâche de faire évoluer ...une intelligence, on est obligé de
connaître ,de respecter et d'utiliser les observations sur l'organisation de la
pensé humaine.
16. A:pag 72. Une fois le réseau
mnésique présenté, on doit passer au deuxième problème central de l'IA : la
dynamique (les mécanismes du choix d'un parcours). On a déjà un espace réduit
des choix autour de chaque trace mnésique (restrictions produites par la
structure même du réseau). Il faut expliquer en plus le mécanisme du choix
entre les alternatives laissées libres par le réseau. Pour cela l'auteur nous
parle de la "dynamique de la
pertinence" .Les traces se trouvent dans la mémoire sous l'effet d'un
potentiel psychique créé par l'affect. (semblable
au potentiel du relief qui détermine les cours d'eaux). C'est à dire , les
synapses qui lient une trace à des autres ont un certain coefficient
d'ouverture, contrôlé par l'affect. Evidement qu'une fois la synapse parcourue
elle doit se "fermer" (devenir plus résistante) ,parce que si le
discours est arrivé au même endroit on peut supposer qu'il cherche une autre
sortie. Par contre , à la longue, la répétition d'un tracé fait preuve de sa
pertinence, et la liaison doit être encouragé. Ce mécanisme continu d'
inhibition et excitation des liaisons constitue la dynamique de la pertinence
réalisé par l'affect. Donc, situé dans un certain endroit du réseau mnésique
,le discours continue par l'endroit duquel il est lié et qui lui oppose la
résistance minimale.
P: Le modèle et de nouveau
attractif mais il laisse place à des
objections. Cette réduction du choix au
niveau locale n'est pas crédible.(voir obs. 7). Il considère l'organisation de
la mémoire à un seul étage, regroupant toutes les traces enchaînables. Il
pourrait raffiner son modèle en envisageant une certaine
"hiérarchisation", qui est très probable. Ainsi le discours peut
évoluer à un certain niveau (par exemple des catégories générales) en cherchant
une sortie au niveau des principes pour "s'effondre" vers les détails
d'un étage inférieur si cela devient nécessaire. Il est instructif dans ce sens
l'exemple du choix du chemin entre Paris et Rome: on ne le trouve pas par des
tâtonnements locaux , mais par des "coups par coups" sur la carte de
grande échelle, suivis par des orientations locales.
Une autre complication vient si
on envisage le cas de l'apprentissage . Dans ce cas l'excursion dans la mémoire
pour établir le discours a deux centres
de décision . L'ordinateur (si on veut le concevoir comme interactif)
reçoit tout le temps de l'extérieur des suggestions qui influencent son
parcours. A la limite , dans
l'apprentissage , il y a un seul discours fait par deux intelligences à la
fois. Or l'auteur ne s'occupe que du
discours uni-maîtrisé, et en si faisant il établit des résultats plutôt
intéressants pour les systèmes experts destinés à produire des résultats que
pour dialoguer. On aurait été mieux servis s' il avait insisté sur le dialogue.
C'est une direction de recherche incitante. Comment fonctionnent deux réseaux mnésiques connectés compatiblement
et deux mécanismes de choix du discours
synchronisés? Il répond en considérant que l'effet de l'extérieur est
un changement du relief potentiel (comme une déstabilisation des synapses qui force des nouveaux trous de potentiel)
mais ce n'est pas assez, surtout dans le cas d'une intervention continuelle. Je
crois que le modèle du double réseau serait plus fertile.
17. A:pag86. La signification d'un signifiant n'existe pas
à l'extérieur du réseau. El consiste en fait de l'ensemble des connexions dans
lesquelles le signifiant est présent. C'est le modèle offert par le
dictionnaire : le sens d'un mot est le réseau des expressions auxquelles il
participe. Pour certains mots il existe un correspondant extérieur, un objet
représenté, pour la grande majorité la seule signification et la
"constellation" englobante (l'espace des liaisons)
18. A: pag 92. L'intention
n'est pas la cause de l'action mais l'effet de sentir la décision (
qui est inconsciente), une reconstruction postérieure à l'action. Comme pour
des autres conclusions l'auteur se base sur des résultats de la psychologie,
surtout de la psychanalyse.(P: Il est évident que l'insistance pour montrer
l'autodétermination du discours va dans le sens désiré: d'envisager la
décision par des contraintes strictement
locales.) L'impression qu'on a de savoir ce qu'on veut dire avant de dire est
l'effet d'une illusion (on confond le discours prononcé par le discours pensé).On
est tout aussi surpris par notre discours que ceux qui nous écoutent ! Mais ,
on va répliquer, on se propose dès le matin de faire une chose, et le souci
nous le rappelle toute la journée. Oui, répond l'auteur, mais parce que le
souci change le relief du potentiel affectif, créant une tendance accentuée
pour le parcours du réseau. Autrement dit, même les décisions globales
influencent le choix du chemin par ce qu'ils changent l'architecture locale ,
la seule qui influence directement le choix. Une conception limite pour l'IA
:les seules décisions extérieures à la base doivent changer la base et non pas
choisir le chemin.
19. A: pag 100. Apprendre c'est
ajouter un nouveau trait mnésique, cohérent au réseau. DE nouveau il accentue
la dimension historique d'une telle construction dans laquelle l'ordre des
étapes détermine la personnalité du résultat. A la limite, même deux
ordinateurs qui communiquent, apprennent.
20. A: pag 104 . Pour la
restriction que la phrase ait un sens, il y a deux possibilités: le sens de la phrase est la somme des sens
des mots ( où une combinaison ) où qu'elle a un sens unitaire. On doit
respecter une cohérence entre les mots qui la composent et entre les phrases
qui se succèdent. Cela demande une analyse .
21. A:pag110.
Ils existent deux types des mots dans la phrase :les mots de contenu (les catégorémes ) et les mots d'armature
(les syncatégorémes) .Par exemple
"chien" et "donc". Les mots de liaison ont une autre
représentation physique que ceux de contenu. Ils sont aussi dirigés par des
processus de contrôle différents. Probablement de cette division provient la
séparation entre "syntaxe" et "sémantique" .
22. A:pag115.
McDermott ,pionnier de l'utilisation de la logique en IA , conclut en
1986 que cette approche est un échec., parce que nos raisonnements ne sont pas
généralement déductifs. Le fait de respecter certaines lois (par exemple de ne
pas tuer) ne veut pas dire qu'on se conforme à la loi (qu'on s'abstient à tuer
à cause de l'interdiction). On peut agir naturellement en créant l'impression
qu'on suit une règle. Le normatif apparaît seulement si la spontanéité fait
défaut. Ce n'est pas la logique qui conduit le discours. La vraie armature est
constituée par les syncatégorémes mais mêmes elles ne sont pas suffisantes pour
assurer la compatibilité entre les phrases, les catégorémes intervient aussi
.Pour pouvoir les négliger la logique
les jette dans en abîme bon à tout, extérieur à la phrase même, qu'elle appelle
vérité... S'occuper de la phrase
après avoir établi par des autres moyens (?!) qu'elle ...est vraie, c'est
d'éluder le mécanisme du raisonnement. Le syllogisme est inférence mnésique et
non pas abstraction logique.
23. A:pag127. Qu'est ce que c'est la vérité donc?
L'auteur lui dédie deux chapitres, dans lesquels il présente deux visions:
1. La vérité comme adéquation du mot à la chose. C'est le cas de la région du réseau
mnésique en train de se modifier (d'apprendre) à la suite d'un contacte avec
extérieur. On peut parler ici de la description du monde tel qu'il est, de la
conformité à la réalité. On peut arriver à une logique bivalente.
2. La vérité comme degré d'adhésion à sa propre représentation, relative et négociable. Arguments anthropologiques:
ils existent des cultures pour lesquelles le rapport entre les discours et
régit par la convenabilité . La
vérité c'est un problème de rapport de force entre deux partenaires, un rapport
de raccord. Tout homme a pour ses notions un certain niveau d'adhésion et pendant une discussion intelligente une
négociation doit avoir lieu.
24. A:pag 142 Une conséquence de
l'existence des deux types de vérité, celle du discours (bien établie par les
experts, non négociable) et celle de la parole (négociable) et l'orientation
dans la construction de systèmes intelligents :1. Si le système et "plein"
(il doit livrer ses connaissances à un ensemble d'utilisateurs) il doit
respecter la vérité rigide du discours
2. S'il est vide (il est destiné à se remplir en s'accommodant avec
l'utilisateur) il doit savoir négocier. Pour le faire il devra se comporter
simuler que les concepts qu'il négocie ont pour lui une importance. Ainsi il
sera perçu comme un partenaire intelligent.
25. A: La vraie manifestation
d'intelligence humaine est la capacité de négocier son savoir, parce que le dialogue est un échange d'opinions et
non pas de certitudes. Les
situations plus précises (scientifiques) peuvent très bien être traités par les
moyens de l'informatique classique. Pour l'IA le champ d'intérêt c'est échange
des opinions. La solution doit être
structurellement nouvelle , tenant compte
de l'adhésion d'un homme à ses opinions et non pas le recors à une
"quantification" de cette situation faite d'un angle flou (le vague
de la réalité) où probabilistique( mesure d'une indétermination). Si vraiment
on admet la perspective de l'opinion
on doit trouver un moyen plus naturel de la traiter que de la
"quantifier" pour la forcer de se soumettre aux modèles
scientifiques.
P: J'ai vécu cette expérience il y a dix années quand
on m'a demandé de trouver une application
des notions sur les ensembles flous à la fiabilité : après avoir
constaté avec surprise la mesure dans laquelle l'optique floue (vue comme
conscientisation de la gradation
possible pour des sentences comme "bon" ou "mauvais")était
appropriée, j'ai senti la désintégration de l'émerveillement quand j'ai introduit..."les coefficients
de flou". J'ai quitté le collectif de recherche avec la certitude que ce
n'est pas la mesurabilité classique qui répond le mieux au spécifique des
situations floues...
26. A: pag155. La signification de la phrase ne peut
se concevoir qu'au sein d'un discours construit des phrases compatibles. La
compatibilité est assurée par les connecteurs associatifs (les syncatégorèmes)
qui jouent un rôle d'armature .Les catégorémes sont à leur tour de deux types:
ceux qui interviennent indifféremment dans un quelconque de leurs enchaînements
associatifs, et ceux qui n'interviennent plus de manière privilégiée que dans
un seul de ceux-ci. Les premières correspondent aux notions pré-systémiques :
ils acceptent une pluralité d'interprétations et c'est la phrase qui les
contient qui leur précise le sens. Par contre les deuxièmes correspondent aux
notions théoriques , ils sont tellement univalentes qu'ils peuvent aider à la
compréhension de la phrase. Ils aident donc à stabiliser le sens.
Lecture: "Integrating
Hypermédia into Intelligent tutoring". Philippe C. Duchastel
1. Le cadre conceptuel
a. Les Systèmes tutoriels
intelligents (ITS)
a1. Sont basés sur la
représentation des connaissances (l'expression de la signification des
informations et des leurs relations sémantiques) Les informations forment une base de connaissances , c'est à dire un
réseau d'unités et relations sémantiques gouvernées par des lois de production.
L'ordinateur peut faire des opérations sur les connaissances (déduction etc).
a2. Font appel aux structures d'organisation
établies en intelligence artificielle : la base des faits, les règles de
productions, le modèle expert, le modèle utilisateur.
a3. Disposent d'un modèle
étudiant et d'un modèle pédagogique. Pendant l'interaction entre l'utilisateur
et l'environnement, les actions sont poursuivies, mémorisées et analysées. Le
modèle étudiant sert à interpréter les actions et faire une estimation en
conséquence de la base de connaissances de l'apprenant à un moment donné. C'est
le "filtre d'observation de l'étudiant". Le modèle pédagogique sert à
adapter le comportement du système à la particularité de l'utilisateur. En
somme le ITS est capable d'observer l'apprenant et de changer son
"discours" en conséquence.
a4. Par comparaison au tutoriels
classiques , les ITS ont l'avantage que , par l'adaptation continuelle à
l'apprenant, offrent à tout moment un choix plus pertinent et attirant pour
celui-ci. Ainsi le défaut principal du "teaching" (imposer un
encadrement) est atténué. Le "teaching" adaptable intègre une
dimension implicite de "learning" , car l'apprenant influence le
procès. N'empêche que les ITS restent des systèmes de type "teaching"
b. Les HPS ( systèmes hypermédia)
b1. Les informations sont
structurées de manière classique (sans dimension sémantique explicite). Le
paradigme et celui d'une base de donnés, de type réseau, avec des liens
(liaisons ponctuelles) . C'est la généralisation du l'hypertexte , pour des
collections de donnés multimédia. Cela leur donne une grande richesse et
expressivité.
b2 La structure HMS permet une
bonne navigation et une bonne visualisation des informations. Le design des HMS
met l'accent sur l'accès et la
présentation , sans se soucier des significations. C'est l'utilisateur qui est
responsable du décodage cognitif des informations reçues.
b3. Ainsi le type d'apprentissage
réalisable par les HMS est le "learning" : l'utilisateur explore,
découvre , utilise. Il n'y a pas de l'encadrement, il n'y a pas d'expertise
pédagogique.
2. L'Equilibre entre le
"learning " et le "teching"
a. Il y a un antagonisme entre
les attitudes que l'utilisateur adopte quand il se "laisse enseigné"
et quand il "explore pour apprendre".
Cela provoque une contradiction entre la philosophie de design des
systèmes d'aide au "learn" et celle destinés au "teach". La
didactique traditionnelle est axée sur le "teach" .
b. La racine de ce conflit est au niveau de
l'équilibre des facteurs cognitifs et affectifs qui motivent l'apprenant. Pendant
l'apprentissage hautement encadré, l'aide des systèmes (surtout s'il se fait de
manière intelligente) apporte un important appui cognitif (il aide à réaliser
une adaptation cognitive, à maintenir l'apprenant au bord de sa surface
cognitive, (ni très loin pour compromettre la compréhension , ni à l'intérieur
pour compromettre l'intérêt) . Le sujet est aidé à comprendre ce qu'il fait, ce
qu'il peut faire. Par contre, dans le cas de la navigation libre , la
stimulation affective peut être beaucoup plus intense, le sujet ayant tout la
responsabilité de l'adaptation.
c. Il serait intéressant de
combiner les deux leviers motivationels et de définir une didactique centrée
sur l'apprenant. Au lieu de diriger on va seulement suggérer la continuation.
On cherchera des mécanismes de contrôle pour ce rapport délicat entre les
partenaires.
3. L'intégration de l'HMS et ITS
a. Une première direction :
élargir les capacités d'un HMS avec des fonctions intelligentes (Barden,
Jonassen). Elle n'est pas choisie par l'auteur.
b. Le choix de l'auteur :
intégrer des capacités hypermédia aux STI.
b1 Le principe de structuration :
- la mémorisation de la navigation
dans la HM, facile à faire
- l'élaboration d'une base de
connaissances mise en correspondance (parallèle) avec la base de donnés
multimédia; les informations auront une dimension -signification et une autre
-apparence au niveau de l'interface. L'auteur attire l'attention sur la
difficulté d'établir cette correspondance. Par exemple il y a une contradiction
entre la granulation fine de l'organisation sémantique et celle ample des
"pages écran"
- l'analyse de la navigation à l'aide
de la représentation sémantique de la base et d'un modèle étudiant.
- l'adaptation des choix offerts
pendant la navigation , selon les ses intérêts déduits de l'observation de
l'utilisateur; on utilisera les services d'un modèle "assistant"
(guide).
b2. Les effets pédagogiques
préconisés:
- on fera des grands efforts pour que
l'explorateur ne se sente pas perdu dans la HM (la didactique de la bonne
orientation)
-
l'adaptation aura un effet
pédagogique indirect, par l'amélioration de la pertinence de l'espace proposé à
l'exploration.
- le but d'un tel système sera de provoquer pendant l'exploration. Il
n'essayera pas d'imposer une ligne de conduite, mais il sera un partenaire
attentif, attirant l'attention en cas de péril d'égarement ,utilisable en tout
moment pour répondre intelligemment aux questions que l'utilisateur pose pour
s'orienter dans son exploration.
- l'espoir et d'intégrer les
motivations cognitives et affectives, de laisser à l'apprenant le plaisir, le dynamisme et l'acuité de l'initiative,
mais en même temps, de lui offrir une intelligibilité maximale dans le rapport
avec l'environnement.
Notes de lecture : une incursion pluridisciplinaire à la
poursuite de l'explication
I
Introduction
L'acte de l'explication est étudié maintenant
de plusieurs angles de vue , dans plusieurs sciences , selon des développements
souvent parallèles. Etant donné la complexité de cet acte, il n'est pas
surprenant qu'il génére une riche pluridisciplinarité. Ce qui est à améliorer
c'est le dialogue interdisciplinaire entre les divers "lignes de
recherche". Pour trouver des modèles qui recomposent son unité
primaire. Et aussi pour utiliser le
génie créateur investi dans des autres disciplines comme source d'inspiration
et validation pour celle qui s'inspire.
La nécessité de
l'interdisciplinarité dans l'étude de l'explication est reflétée par les
regroupements scientifiques actuels. La linguistique informatique, l'enseignement assisté par ordinateur, la psychopédagogie, la "cognition sociale" , l'étude de
la compréhension, les systèmes experts, etc sont autant de manifestations de
cette multidiciplinarité . Des publications
ou des projets de recherche qui
réunissent les efforts des psychologues, philosophes, informaticiens, pédagogues,
linguistes, technologues etc sont de plus en plus répandus.
Ainsi l'étude interdisciplinaire
de l'explication est un fait courant. Par contre , la conscience de l'unité et
de la spécificité de l'objet étudié (l'explication) est réduite. L'effet est un
certain éclatement "interdisciplinaire" de ce qui mériterait faire
l'objet d'une science à part , multidisciplinaire
. Je me suis proposé d'en apporter des arguments.
Une des manières de mettre
en évidence ce besoin est l'étude de la littérature scientifique de plusieurs
disciplines, liée à l'explication. La présente étude , n'est qu'un début de
cette analyse, un exemple- source de suggestions et ne prétend guerre d'être
exhaustive. Je précise pourtant que pour trier les articles, j'ai fait une
recherche bibliographique très vaste. J'ai
dû vaincre le sentiment de perplexité créé par la grandeur excessive de la
surface de l'étude (une multitude d'aspects, une multitude de disciplines) .
Pour placer mes
observations dans un contexte unitaire j'utiliserai ce modèle pour l'explication : sujet, source ,
recepteur , instrument
Pour diverses sciences ,
l'explication est un instrument fondamental de travail. Elles se sentent plus
ou moins obligées de le modéliser avec précision. Leur objectif est de décrire
et comprendre la réalité. L'intérêt pour l'explication et donc secondaire, mais
crucial , car la validité de l'explication conditionne la validité de son
résultat. En général la tache de
l'analyse de validité explicative est laissée à l'épistémologie , qui
insiste sur des paramètres comme : vérité, causalité, justesse, argumentation,
logique. On s'interroge sur la vérité de
la chose expliqué. Expliquer- c'est argumenter.
Pour la Psychologie , la
Neurophysiologie , les Sciences cognitives , l'accent est mis sur la
compréhension, sur l'effet de l'explication dans l'univers cognitif du
récepteur. Souvent, de l'intérieur de
ces sciences se manifestent des tendances d'extension vers l'explication dans
son ensemble (voir "simulation
theory" , "theory theory" , "social cognition" ,
"coconstruction" , le "situated knolwedge" etc). La
question : comment on comprend les explications. Expliquer- c'est de faciliter la
compréhension.
A l'autre bout, la
"cognition " de l'explicateur est très peu analysée. Les anciens
filons de la théorie de la création et
de la rhétorique , sont inexplicablement
peu repris dans les développements actuels. A l'immense littérature sur la
psychologie de l'élève et son aventure cognitive pendant l'explication ,
correspondent peu de préoccupations sur
l'aventure cognitive de l'explicateur. Serait-ce à cause de la perception
instrumentale de son rôle ? En tout cas,
c'est un vide à combler. La question est "Comment l'explication et crée
?". Expliquer -c'est d'épanouir son savoir.
Enfin , quand on fait
appel à des instruments (techniques) pour faciliter le passage du message
explicatif, la concentration peut passer sur la structure des instruments : média ,multimédia et hypermédia , texte et hypertexte , graphisme et réalité
virtuelle , etc On se demande comment
doivent être constitués les instruments
d'aide à l'explication. Evidemment , à la recherche des critères , les
techniciens arrivent aussi à l'analyse de l' explication dans son ensemble.
Expliquer c'est de réifier les connaissances pour les disponibiliser.
Des autres domaines ont un
caractère synthétique plus prononcé, traitant la relation entre les
protagonistes de l'acte explicationel.
Pour la Sémantique , la
Logique , la Gnoséologie , le rapport entre l'homme et la réalité
focalise l'attention. Mais des extensions vers l'explication dans son ensemble
apparaissent souvent. On se demande sur
ce qu'on comprend. Expliquer c'est
enrichir les connaissances.
Le rapport entre
l'instrument (modèle, représentation , symbole, appareil etc) et la réalité
représentée fait l'objet d'étude en Théorie de la Modélisation , Théorie des Systèmes , Théorie des symboles
, Mathématiques etc. Mais au-delà de l'objectivité de ses sciences
, on accepte de plus en plus la présence d'une dimension humaine , dialogique ,
dans le discours scientifique . La question
: "comment expliquer par des artefacts qui reflètent bien la
réalité ?". Expliquer c'est représenter.
En Cybernétique , le dialogique interactif est au centre de
l'attention . Des termes comme interactivité et synchronisation sortent en
évidence. .
On analyse attentivement le
fonctionnement du dialogue habituel (Linguistique), ou l'essence formalisable du transfert (théorie
de l'information -), . On se demande comment
une explication est transmise. Expliquer c'est transférer.
Le rapport entre
l'explicateur et la réalité est le symétrique de celui du récepteur . C'est
pour lui que l'étude cognitive de
"savoir stable" est plus utile , tandis que pour le récepteur, la
dynamique de la compréhension est plus intéressante. A l'époque des systèmes experts , connaître
la géographie interne de l'expertise
communicable est devenu essentiel. On se
demande quelle est l'expertise sur la réalité, qui permet l'explication.
Expliquer, c'est expliciter l'expertise.
Le rapport instrument-
consommateur est étudié dans des domaines comme : Compréhension du texte ,
Interface homme- machine , Science du
décodage , Langage Visuel . La question : comment on
extrait l'explication d'un support instrumental ? Expliquer, c'est permettre
l'extraction de l'explication.
Enfin, le rapport
explicateur- instrument fait l'objet d'étude en Théorie du codage , ou les diverses techniques d'Authoring
(Design de didacticiel) . C'est un aspect essentiel pour la pratique de
l'explication, qui pose le problème : comment on construit un instrument
d'explication ?. Plus encore , s'il s'agit d'une "leçon enregistrée",
utilisable plus tard sans la participation de l'auteur, on doit répondre aux
questions théoriques et pratiques liées à "l'explication
potentielle". Expliquer, c'est préparer une explication potentielle pour
une future dévirtualisation.
Pour terminer , passons en revue les approches
sur l'explication les plus englobantes:
Les Sciences de la
Communication , pour le triangle entre
les partenaires et la réalité-sujet. Expliquer, c'est de se synchroniser sur un
sujet.
Les Télécommunications - pour le triangle source, récepteur,
intermédiaire. La question est la
fidélité de la transmission. Expliquer, c'est de reproduire.
La sémiotique , pour le
triangle représentant, représenté, interprète.
Avec la question : comment se
reflète la compréhension de la réalité dans la compréhension des symboles ,
pendant une explication? Explique, c'est de symboliser .
La théorie de la
composition pour le triangle
explicateur- réalité- produit explicatif. On se demande comment l'auteur
transpose optimalement son explication sur un support physique? Expliquer,
c'est de matérialiser son savoir.
L' informatique, qui essaye
de modéliser le système pour l'oppérationaliser.. Attaque important surtout à
cause des éclaircissements structurels qu'il est en train de forcer. On se
demande comment on pourrait
modéliser l'explication de
manière opérationalisable, ce qui est important pour la naissance d'une science
de l'explication.
Les Sciences de l'éducation, qui couvrent , dans
son ensemble , le système de l'explication, surtout de manière globale,
fonctionnelle, laissant les mécanismes atomiques , peu expliqués. On
se demande plutôt comment faire l'explication, que ce que l'explication est.
.
Conclusion et prémisse
pour la suite :
L'explication est un
phénomène multidimensionnel. Plusieurs "acteurs" et mécanismes
concourent à sa "physiologie". Plusieurs disciplines ont l'autorité
de s'en occuper. Le risque de desynchronisation entre ces filons de recherche
(incohérence , dédoublements, réduction ) est considérable et ... à considérer.
L'unité et l'importance du sujet justifient un effort de synthèse. Une
excursion dans la littérature marque un point de départ pour une telle
entreprise.
II A la recherche de l'explication (Excursion ou incursion bibliographique ...)
Le but de cette incursion
est inductif (saisir des problèmes ) et non pas déductif. J'espère qu'il
suggérera l'atmosphère. Ce n'est donc
pas une "démonstration" et c'est pour cela qu'elle prend la liberté
d'un parcours peu structuré. Pour chaque article choisi, je parcourrai deux
étapes :
- une description de son
contenu ( en sélectionnant les éléments jugés pertinents pour mon entreprise)
- une réaction personnelle,
cellule de mon discours (sur la
géographie complexe des préoccupations sur l'explication)
1 .Hempel , Carl G.
Explanation in Science and in History,
(chapter 1 of the book "Explanation" edited by David Hillel Ruben
-1993 -pag 17-41)
A Résumé sélectif :
L'importance de
l'explication comme instrument que les sciences utilisent dans leur avancement
est indéniable. Expliquer - c'est aider à comprendre et comprendre c'est un but
clé, à la fois :
-
pragmatique (savoir se débrouiller dans ce monde)
-
intellectuel (satisfaire sa curiosité)
On a utilisé longtemps
l'explication comme instrument, de manière de plus en plus efficace, de plus en
plus rigoureuse. Le temps est venu pour analyser son mécanisme .
C'est John Dewey dans son
livre "How we think ?" (1910) qui ouvre la voie de cette analyse. En
résumant et en adaptant ses observations, on pourrait définir un premier type
d'explication : l'explication déductive-
nomologique comme un argument déductif de la forme :
(D) C1, C2, .... Ck;
L1,L2,.........Lr;
_____________
E
ou C1, C2, .....Ck décrivent les faits
particuliers invoqués dans l'argumentation L1, L2 ....Lr , les lois générales appliquées (l'ensemble des faits et des lois forme
"l'explanans") et E est "l'explanandum" - le fait expliqué
(ou la proposition utilisée pour formuler ce fait).
Dans ce type
d'explication , on répond à la question "Pourquoi E se produit ?" ,
en montrent que cela est une conséquence de l'application des lois L aux faits
C. Bien sur que les "lois" évoluent , et avec elles la chaîne de
l'explication. La théorie de Newton a changé l'explication des lois de Kepler
etc.
Souvent l'explication
est causale. On dispose des lois L en vertu desquelles on peut anticiper que
les causes C produisent toujours l'effet E.
On ne perçoit pas le caractère déductif- nomologique des explications
causales parce que les lois L sur lesquelles elles se basent ne sont pas
formulées explicitement.
Par contre , il y a des
explications déductives qui ne sont pas causales. Déduire les lois de Kepler de
ceux plus générales de Newton c'est d'expliquer, mais non pas par causalité.
Les lois de Kepler ne sont pas causées par celles de Newton. Aussi on a des
situations où des valeurs pour certaines grandeurs physiques, peuvent être
déduites (expliquées) si on connaît des autres , au même moment (ce qui exclut
la causalité) .
Le deuxième type
fondamental d'explication est l'explication
statistique- probabilistique. Cette
fois on ne dispose pas des lois qui nous donnent la certitude sur la
conclusion. On dispose seulement de la
garantie que, dans les conditions données, l'effet sera produit avec une
certaine probabilité, près de la certitude. La forme est :
(P) Fi
p(O,F)
très grand
_________________ donne très
probablement
Oi
Mais
la justification n'est plus déductive, mais inductive, quoi que toujours basée
sur des lois (statistiques).
La
forme complète des explications, idéale, est rarement réalisée dans la pratique
de la science, mais a une importante valeur de repère. Dans la pratique de
l'explication, on ne présente pas toutes
les conditions , et les lois appliquées. On suppose souvent que l'auditoire
connaît déjà certains arguments sous-entendus, ce qui est essentiel pour
l'économie de l'explication. Il en résulte une explication elliptique.
D'ailleurs il est rarement possible de tenir compte de
tous les facteurs dont la combinaison donnerait l'explication complète. Nous
devons accepter l'utilité des explications partielles. À la limite , nous
devons reconnaître le rôle des "esquisses explicatoires" , qui ne
font que suggérer une explication.
Une
fois cette ouverture faite , la théorie de l'explication est prête à traiter
l'explication utilisée habituellement en histoire sur le même modèle que celui
applicable pour les Sciences de la Nature.
L'explication
historique se base sur les modèles déductif ou probabilistique, même si elle ne le fait pas de manière explicite ou
complète. Il y a toujours des lois sociales, psychologiques etc, que les
auteurs sous-entendent quand ils se lancent dans une explication.
(Hempel
donne une série d'exemples pour montrer ce mécanisme).
On peut bien se demander si l'histoire
n'utilise pas des explications spécifiques à son objet d'étude, qui sortent des
deux modèles proposés . L'explication "génétique" (le présent comme
résultat d'une évolution) et "par motivation" (l'importance de la
volonté humaine, du but ) paraissent de structure différente. Pourtant,
l'étude attentive de ces deux mécanismes explicatifs nous montre qu'ils
peuvent être encadrés dans les deux modèles pour l'explication.
L'explication "génétique" présente
de manière continuelle les faits (étapes) , entre lesquelles le passage est
nomologique mais d'habitude tacite.
L'explication
par la "motivation" de l'acteur semble profondément différente de celle nomologique. Il ne n'agit pas
"parce que" mais "pour que". La forme serait cette fois-ci
:
(R)
A était dans une situation de type C
dans
une situation de type C , la chose appropriée à faire est X donc
X
Mais
cet argument ne peut pas être considéré comme une vraie explication, car il ne
garantit pas , ni même à grande probabilité , l'avènement de X. Pour vraiment
expliquer X, on ajoute la présomption tacite que, dans des circonstances comme
C, un agent comme A, est sensé de faire X.
On obtient ainsi :
(R)
A était dans une situation de type C
A est disposé d'agir de manière rationnelle
Une personne qui est disposée d'agir de
manière rationnelle dans une situation de type C, fera (avec une grande
probabilité) X
Ainsi
on retrouve l'explication nomologique.... Et de la même façon on peut procéder
avec des arguments qui tiennent plutôt de la personnalité émotive de l'acteur
que de sa ration.
Le
cas vraiment spécifique (et délicat) est
celui de l'action faite de manière "irrationnelle" , intuitive,
spontanée . En effet , il y a une différence significative entre la vraie
motivation d'un geste humain, celle que l'humain offre quand il est demandé sur
sa motivation et celle imaginée par un observateur. On accède difficilement aux
"vrais raisons". Plus encore, définir le "vrai" est une
aventure complexe, qui nous fait sortir de l'épistémologique, pour entrer dans
l'ontologique de l'explication .
(ce que l'auteur ne veut pas faire).
En
conclusion, sans que cela reflète une approche mécaniste de l'humain ,
l'explication des phénomènes empiriques a la même structure, dans tous les
domaines de la recherche scientifique, de la mécanique jusqu'à l'histoire, ce
qui représente une heureuse unité méthodologique des sciences empiriques.
B.Commentaire:
L'article
de Hempel est considéré comme un moment clé pour la naissance de la science de
l'explication. Depuis sont parution, une multitude de contributions ont bâti
l'échafaudage de ce chapitre de l'épistémologie. Les monographies de David-Hillel Ruben ,
ou de Peter Achinstein ou de G.H Von Wright , en font la synthèse.
Le
débat sur la structure et l'essence (épistémologique, ontologique, causale,
pragmatique) de l'explication continue. Il est passionnant. Mais dans le cadre
de mon excursion, je ne peux pas me permettre de le détailler.
Ce
que je veux mettre en relief est que , dans tous ces développements (qui
entraînent d'habitude des philosophes, des logiciens , des épistémologues) ,
l'accent reste sur l'explication-
produit, sur la validité de l'explication, sur la mesure de laquelle elle
décrit correctement la réalité. Même
les approches plus globalistes comme celle de P. Achinstein qui lie l'explication de l'acte d'expliquer , ne vont pas jusqu'à ouvrir largement l'analyse
(et le modèle) sur la dimension psychologique,
communicationelle et didactique de l'explication. La manière de laquelle
Hempel traite l'explication "génétique" et "motivationelle"
(voir plus haut) est à mon avis hautement suggestive pour cette réduction.
J'espère que le résumé de l'article de Hempel surprend
assez bien "l'esprit épistémologique". Si le côté "curiosité
intellectuelle" (soif de savoir profond) est bien servi par cette approche
sur l'explication (chose normale pour une démarche philosophique) , la valeur
"pragmatique" est moins claire. On n'en apprend pas à expliquer....
De plus, même sur le plan conceptuel, je crois que le "comment
l'explication se déroule ?" aura
des influences significatives sur le "qu'est ce que l'explication est
?"
2 Neisser, Ulric . Multiple Systems : A New
Approach to Cognitive Theory. European
journal of Cognitive Psychology, 1994,
v.6, no.3, p. 225-241
A. Résumé sélectif :
La
psychologie cognitive est entrée dans une étape de profonds changements,
provoqués par des découvertes faites pas seulement dans son domaine, mais aussi
dans les sciences
dévéloppementales, les neurosciences et
la psychologie sociale. Les enfants connaissent plus qu'on le soupçonnait, le
cerveau est distribué dans plus d'unités
qu'on peut dénombrer , le comportement est à la fois plus transmis et plus
déterminé culturellement qu'on avait imaginé.
Une
nouvelle synthèse est nécessaire, basée plutôt sur la modularité, le
développement et l'écologique, que sur le paradigme habituel de l'
"information processing" . Celui-ci s'est avéré moins fertile qu'on
avait pensé, ambigu et source d'une explosion de modèles particuliers,
simplistes , fausses . (Neisser y a renoncé dans les années '70 pour adopter
celui de "schéma" pour expliquer le cycle perceptif, les nouvelles
informations modifiant le schéma utilisé pour percevoir.) Mais le concept de
schéma a perdu son attrait. Il expliquait tout... trop aisément! (perception,
imagination, orientation et mémoire). D'autre part le cerveau, le
développement, le caractère social de la cognition et l'apprentissage étaient
absents. Maintenant ils ont envahi la psychologie cognitive.
On
sait que l'enfant est orienté vers l'environnement dès le début, que
l'apprentissage humain est social commencent avec les interactions
interpersonnelles de l'enfance, que le comportement est très dépendant du
contexte, et que le cerveau est la somme d'une multitude de systèmes modulaires
en relation. Complexité et
interdépendance à l'extérieur et à l'intérieur. Tout cela suggère que la cognition n'est pas explicable par un
principe unique.
(L'auteur
exemplifie cette "approche
modulaire" en proposant trois systèmes perceptifs qui coexistent dès la
naissance. Il attire l'attention que ce n'est qu'une ébauche, une première
tentative incomplète de modéliser le "multimécanisme" de la perception).
Il
y a trois mécanismes partiellement indépendants qui coopèrent dans la
perception:
-
la perception directe, (étude lancée par Gibson -1979 et continuée par les
écologistes)
-
la perception réactive interpersonnelle (étudiée par les sociopsychologues et
les dévéloppementalistes)
-
la représentation- reconnaissance (étudiée par les psychologues de l'
"information processing" et l'intelligence artificielle.)
La perception directe nous permet de
réagir efficacement au changements environnementaux, sans faire appel aux
représentations stockées en mémoire. Elle se base sur la structure appropriée des organes
perceptifs , qui explique les
"disponibilités" de réaction à l'environnement émetteur . Des
phénomènes comme : l'effet de profondeur cinétique , l'occlusion par un
obstacle, la modification de la grandeur avec la distance, l'utilisation
du flux optique pour saisir son propre
mouvement témoignent de la présence de la perception directe dès la naissance
et de son importance. Elle est à la base de toute autre forme de perception. ,
elle est immédiate, impénétrable cognitivement, non décomposable. C'est elle
qui nous donne le sentiment fondamental de notre présence dans l'espace, de
notre "soi écologique" . Ainsi, le fait que par déplacement , avec le
point d'observation, le flux perçu de la part de l'environnement change aussi ,
témoigne le caractère dual "environnement- moi" de la perception.
La perception -réactivité interpersonnelle est
un mécanisme spécial perceptif qui explique la socialisation. On se regarde
l'un l'autre et nos gestes ont un sens consenti au-delà de leur mécanique.
Cette co-perception n'est pas réductible à des autres formes de perception. Le contact entre les deux partenaires est à
la base du "l'apprentissage social", et toute vie intellectuelle commence par une relation professeur-
étudiant. Une expérience qui a mis en lumière l'importance de
l'intersubjectivité a été conduite en 1985 : Placées dans deux chambres
séparées , des mères qui
communiquaient par télévision avec leurs enfants de 10 mois ont obtenu une
interaction tout à fait satisfaisante. Mais, quand la transmission directe a
été remplacée par la bande enregistrée,
la satisfaction des enfants a brusquement cessé : le même signal qu'ils
avaient reçu avec plaisir une minute avant , ne les satisfaisaient plus !
L'interaction coordonnée du moi et de l'autre n'était plus présente. Le contact
affectif non plus. On se trouve enface d'un mécanisme spécifique pour notre
espèce.
La reconnaissance- représentation - qui
nous permet de répondre adéquatement aux objets et situations familières. A
l'encontre des deux autres formes de perception, elle est liée plutôt au passé
qu'à la réaction immédiate : elle est basée sur une comparaison entre
l'information présente et celle mémorisée. Elle a été étudiée le plus, et ne
peut pas se réduire aux autres formes , chose démontrée par diverses
expériences.
(A
la fin de son article, l'auteur présente
des preuves néuropsychologiques de la séparabilité psychologique et néuronale
des trois mécanismes et décrit leur coopération. Il conclut : " Grand
theories based on single global explanatory principles have had their day in
psychology, but that day is drawing to a close. What really exists is a
multiplicity of sytems , differin widely from one another , developing from
recognisable precursors in infancy into forms determined by ecological and
cultural experience. Together, those systems make human perception and action
possible" )
B.
Commentaire :
L'approche
de la psychologie sur l'explication a été
"intériorisée" , focalisée sur l'aventure interne du l'être
qui comprend. Parfaitement conscients que la compréhension est un processus (compare
avec la vision épistémologique), les psychologues se sont concentrés sur la
"physiologie" de la compréhension , sur l'évolution du système des connaissances. Ils avaient à leur disposition l'observation
introspective et extrospective, qu'ils ont continuellement utilisées et
organisées. Leur recherche se heurtait
d'un côté , à l'impénétrabilité des procès physiques et d'autre part, à l'insuffisante modélisation de ce que les
connaissances sont.
La
neurophysiologie se concentre sur le
mécanisme physique. Elle a avancé
beaucoup dans cette voie, influençant le trajet de la psychologie.
L'informatique a enrichi la panoplie des modèles applicables au traitement de
l'information. La science cognitive essaye de faire la synthèse sur la modélisation de la cognition. On a
généralement considéré que cette synthèse étendue au système cognitif du
récepteur de l'information, axée sur la compréhension, serait assez complète . On a considéré
décisif le rapport entre l'homme qui
comprend et la chose comprise (voir le modèle de la figure 1), un rapport
monopolaire (vision strictement psychologique) ou bipolaire (vision cognitive).
La différence par rapport à l'épistémologie était la pondération renversée dans le rapport
sujet-objet.
L'article de Neisser, un des pionniers de la
psychologie cognitive, exprime de manière nette le besoin d'évasion du modèle
bipolaire pour comprendre ... la
compréhension. La présence de l'autre est
manifeste, surtout dans le mécanisme de la perception- réactivité
interpersonnelle. Le triangle sujet- objet- partenaire s'impose comme le seul
cadre capable à modéliser le phénomène du développement intellectuel.
L'Emission et la réception sont les deux côtés de la même surface de contact,
les deux projections du même phénomène dans les univers intérieurs des
partenaires. L'un explique, l'autre
comprend , mais cela ne représente que deux visions sur une aventure commune ,
simultanée.
Je
ne peux que me réjouir de cette évolution de la science cognitive (l'article
n'est qu'un des multiples signes ) vers l'intégration de la compréhension dans
son contexte réel, ternaire, vers le dialogique. Car j'espère que ce changement
réanimera l'intérêt pour la bi- présence humaine en éducation et équilibrera la pression de la mode du
"cognitivisme individualiste", et la réduction de l'éducation à
l'apprentissage . On se concentrera plus
sur le rapport professeur- élève , comme manifestation d'un procès fondamental
pour l'intellect humain.
3
Resnick, Lauren B.& athers Reasoning in Conversation. Cognition and Instruction, 1993, v11 no 3-4 p.347-364
A.Résumé sélectif :
L'article
se base sur une vision du raisonnement comme une forme de pratique sociale.
(voir les conceptions de Vygotsky-1978 et Mead-1934). Selon cette approche ,le
raisonnement est l'internalisation d'un procès originalement publique et
interactif. A la place de la
manipulation individuelle d'un ensemble de symboles, de la logique formelle, du
mécanisme déductif ou statistique , on commence à parler des connaissances
distribuées dans un réseau social, des modèles "connexionistes" de
pensée. L'école de la "situated
cognition" nie la prémisse
classique que le noyau "cognitif" est isolable des facteurs
affectifs, intentionnels et contextuels.
La
pensée est pour Mead "une conversation avec l'autre , généralisé" .
Les racines du raisonnement privé devraient être cherchées dans la
conversation, dans les formes publiques du raisonnement. C'est ce que l'article
se propose, dans l'espoir de dépasser les limites de la logique formelle , de
surprendre les liens intimes entre la rationalité et le discours. Les travaux
des pionniers de la rhétorique, de la logique informelle et de la
structure conversationnelle deviennent
des importantes ressources pour cette entreprise multidimensionnelle.
Le
cadre expérimental a été un cours de philosophie de la science et politique
publique. Le sujet : l'opinion sur la prolifération de l'énergie nucléaire. Les
étudiants se sont prononcés, préalablement , s'ils sont pour, ou contre. On a
formé des groupes de trois étudiants, deux d'une opinion et le troisième de
l'opinion contraire. Ils ont eu la tache de discuter 20 minutes, pour arriver à
un consensus. Le dialogue a été enregistré sur bande vidéo.
Sur
la base de ces enregistrements , le déroulement de l'effort de résolution
-partagée à été analysé. Les situations typiques ont été classifiées
(élaboration, objection, concession, affirmation de position etc). Un formalisme de représentation pour des
interventions, pour les liens entre elles (continuité thématique, coopération
séquentielle etc) et pour la structure de la conversation dans son ensemble a
été introduit.
Sur
cette base, on a pu faire une comparaison entre les structures sociales de
discussion des groupes différents. On a pu observer les caractéristiques
communes et les différences, faire des statistiques et dresser le
"portrait" de chaque groupe.
Puis,
on a analysé la structure du raisonnement "distribué" , la
distribution des prémisses factuelles ou générales , explicite ou implicites
(les lois sont généralement sous-entendues) entre les participants, et le cheminement du
raisonnement par des arcs "de provocation" , de "réponse"
et de "concession".
L'impression
initiale provoquée par la première écoute des enregistrements, que la discussion
n'est pas très cohérente a disparu après l'analyse minutieuse de la structure
conversationnelle. En fait, chaque participant a englobé son discours dans le
tissu des interventions des autres, en balançant l'attaque, la défense et la
concession .
Le
principal apport que l'article réclame est la nouvelle ligne méthodologique
pour l'analyse de la "pensée
distribuée".
B Commentaire :
Cet
article est assez vague et pauvre en arguments. Il est évident que les auteurs
explorent un terrain nouveau, peu
organisé. Je l'ai choisi pour l'importance qu'il accorde à la dimension
dialogique du raisonnement, pour son approche "communication", pour
l'extension de l'acte explicatoire vers l'univers multipolaire des participants
à la conversation.
Il
crée un pont intéressant entre les deux articles précédants : d'un côté il
parle des mécanismes de l'argumentation. D'autre part, il choisit l'optique
interactive, sociale sur la cognition.
La situation qu'il traite est plus
générale que celle de mon modèle:
- parce que le but de la discussion n'est pas
strictement explicatif
- parce que le rôle des participants est
hybride (expliquer et suivre l'explication de l'autre, participer à une co-
explication)
-parce qu'ils sont plusieurs (pas seulement
deux)
Pour
mon incursion je retiens la vision de l'explication comme un acte de
communication et l'intérêt pour l'explication collective (de groupe).
4. Derek J. Koehler Explanation, Imagination,
and Confidence in Judgment. Psychollogical
Bulletin,1991, No3, pp 499-519
A. Résumé sélectif
On
est souvent obligé à argumenter nos options. Dans des situations ambiguës, nos
explications ne sont pas seulement le résultat de notre jugement et de nos
croyances , mais les influencent aussi (par un subtil mécanisme de réaction). L'article
analyse l'influence de l'explication que quelqu'un donne sur le renforcement de
sa confiance dans l'alternative expliquée.
Les
expériences sur lesquelles il se base sont amplement décrites dans la littérature. En général leur modèle est le
suivant : on propose à deux groupes à exprimer leur confidence dans une ou
l'autre de deux hypothèses complémentaires. (par exemple un pronostique
sportif) . Préalablement, un des deux groupes doit livrer une explication sur
la justesse d'une des hypothèses A, comme s'il la prenait comme vraie. On
constate que, même si l'exercice
d'explication est fait avec une croyance simulée, même si pour l'estimation le
groupe qui a livré "l'explication" est libéré de l'indication de
soutenir l'hypothèse A imposée dans l'exercice préalable , ce groupe à la
tendance de considérer l'hypothèse A plus plausible que l'autre groupe, qui n'a
pas fait l'exercice d'explication de A.
Autre
forme de l'expérience : des médecins psychiatres ont à leur disposition le
dossier d'un patient . Un groupe a le vrai dossier, qui reflète l'évolution de
la maladie. L'autre groupe a un dossier "enrichi" avec un événement
significatif que le patient a subi. Le groupe desinformé est prié d'expliquer
l'événement , selon les donnés du dossier. Puis il est annoncé de l'erreur, il
prend connaissance que l'événement n'a pas eu lieu. Maintenant, les deux groupes sont priés
d'exprimer leur opinion sur l'évolution possible du malade. Le groupe qui a
expliqué le phénomène imaginaire croit sensiblement plus que l'autre dans la
possibilité de son apparition comme conséquence de l'évolution décrite
dans le reste du dossier. L'importance
de cet "effet de persévérance de la croyance" est plus grande si les
explications ont été générées que si elles ont été choisies d'un
"menu" d'alternatives, et si
elles ont été écrites.
Le
phénomène se manifeste aussi de manière indirecte, car par suggestion , il
influence la performance. . Le groupe
qui explique son présumé succès , réussit
mieux que celui qui n'est pas mis à expliquer le succès préalablement , en face d'une épreuve. Parfois l'effet sur la
performance est paradoxal, la personne qui explique les raisons d'un
comportement peut le changer par la suite. Cela peut se passer à cause de la
différence entre nos vraies mobiles et ceux "préférables socialement"
qu'on utilise pour nous expliquer. Il se passe qu'après avoir fourni une telle
explication , on sent un besoin de cohérence avec ce qu'on a expliqué et on change l'attitude.
Enfin,
si les sujets sont priés d'expliquer une hypothèse contraire à la première,
avant de se prononcer sur la plausibilité, l'influence initiale de
l'explication peut être annulée complètement. Mais il se peut aussi que la
"contreexplication" ne réussit pas à rétablir l'équilibre. En fait ,
dans certaines situations la contreexplication ne produit plus de
confidence.
Un
effet similaire sur la confidence , mais moins fort, se produit quand les
sujets sont priés d'imaginer la suite d'une hypothèse. Cette fois l'effet
dépend de la facilité avec laquelle la
personne s'imagine l'hypothétique
alternative.
En
résumé, les observations sont :
a-Expliquer pourquoi une possibilité pourrait
être la vraie , fait croître la confiance dans la validité réelle de cette
possibilité.
b-Imaginer que la possibilité est vraie , fait
aussi croître la confidence
c- la contreexplication réduit souvent l'effet
de l'explication sur la confiance
d- dans le cas de la suite de deux
explications contradictoires, souvent la première alternative gagne plus de
confidence, que la deuxième ne réussit pas à atténuer
e-L'effet diminue si la personne a un riche
savoir préalable sur le sujet en question
Pour
interpréter ces phénomènes, l'auteur commence par repousser deux possibles
modèles , dont il souligne les limites :
-
les interprétations sociales ou motivationelles (le désir d'éviter la
dissonance) sont importantes mais qui négligent la dimension cognitive)
-
le fonctionnement associatif de la
mémoire (lié à "l'effet de la génération") , pertinent , mais pas
totalement.
Puis,
il présente sa théorie sur le "conditional reference frame" :
hypothèse considérée vraie "focalise" (polarise) le traitement
cognitif du problème .
La personne qui fait l'exercice d'expliquer
filtre les opérations mentales en conformité à cette hypothèse. Elle
sélectionne les éléments qui se couplent bien avec l'hypothèse.
Elle établit la pondération des aspects pris
en compte, interprète les preuves , dirige la recherche (déconsidère les
alternatives contraires) selon cette polarisation.
Une fois un tel "frame" (cadre
,vision) adopté , il manifeste de l'inertie. ("belief perseverence" -
cognition sociale, "mental set of fixedness"- théories de résolution
des problèmes, "accommodation"- mémoire ,"conservatisme"-
la prise de décision et le jugement ) Les développements ultérieurs sont faits
à partir de ce cadre. Il est difficile de le renverser.
La
contreexplication peut réussir la dépolarisation si les opérations de
reconstruction qu'elle suppose ne sont pas trop gênées par le cadre déjà modelé
par l'explication.
Le
fin de l'article est réservé à l'énumération de quelques questions ouvertes :
-le mécanisme de la génération naturelle des
hypothèses
-l'influence de la structure de représentation
du problème traité
- l'étude de l'évolution de l'effet (après un
certain temps).
B Commentaire
L'intérêt
de cet article est sur plusieurs plans.
D'une
part , il est dédié à l'analyse des mécanismes cognitifs de l'explicateur, ce
qui est assez rare (la littérature psychologique et cognitive est généralement
penchée vers l'étude des mécanismes mentaux liés à la réception et non pas à
l'émission du discours explicatif).
L'explicateur
humain qui participe à une explication, change pendant qu'il explique, il
...comprend. Expliquer c'est aussi s'obliger à comprendre... L'explicateur fait partie de la partie
transformable du système de l'explication. Il évolue pendant qu'il livre son
discours , il est soumis à un continuel feed-back auto formateur. Il crée une
explication qui le crée à son tour , et c'est cette circularité ouverte qui
donne à l'acte de l'explication un caractère créateur, impossible de modéliser
avec le "moteur d'inférence"...
On observe
une dualité argument- connaissance et explication- compréhension ,une
interdépendance plus profonde que la vision selon laquelle l'argumentation est
un épiphénomène bâti sur le savoir et l'explication une occasion pour la
compréhension.
D'autre
part il met en évidence la complexité des mécanismes cognitifs liés à
l'explication dans le cas des connaissances "relatives", imprécises,
floues.
À
la place de "preuve", "démonstration" , "logique"
etc , on trouve des réalités condensées dans des termes comme :
"croyance" , "focalisation", "inertie" etc.
Il
est évident que pour des cas pareils, les modèles "logiques" de
l'explication (voir l'article de Hempel comme exemple) ne sont pas très utiles,
même si on leur démontre une validité de principe (ce qui est d'ailleurs
discutable). On peut se demander si même dans le cas des sciences exactes, les
mécanismes de polarisation (filtrage) par croyance sont totalement évitables...