ANNEXE II: Sommaire des difficultés de modélisation
1. La complexité excessive. Si on essaie de prendre en compte tous les éléments qui influencent l'explication, on obtient un modèle trop complexe pour être opérationnel. Les multiples acteurs, les multiples rapports, le " feed-back ", les évolutions nonlinéaires et dynamiques, mènent à un " système d'équations " difficile à exprimer et encore plus à résoudre. La technique a l'avantage de pouvoir modifier les " pièces " qu'elle utilise tandis que l'ingénierie de l'instruction doit respecter la structure de l'humain ... telle qu'elle est. Ainsi la simplification, la linéarisation et l'approximation ont des bornes imposées par la réalité et ne peuvent les dépasser sans compromettre la validité des résultats.
2. La pluridisciplinarité d'une réalité unitaire. Il n'est pas surprenant que plusieurs domaines se soient penchés sur l'étude d'une partie ou d'un aspect de l'explication. Cette spécialisation est nécessaire pour diviser raisonnablement et focaliser la recherche. Mais le résultat doit être réintégré si on veut comprendre le métabolisme de l'ensemble, car il est en réalité un processus unitaire. C'est le réalisme qui oblige à la synthèse systémique. Or cette fusion n'est pas simple. Les diverses disciplines en jeu sont à l'heure des révolutions internes. Dans cette situation, s'arrêter pour mettre à jour des explications " externes " , compréhensibles pour les spécialistes des autres domaines intéressés, est une préoccupation peu répandue. Le résultat est que chaque " visiteur " d'un domaine (chercheur intéressé par les résultats d'une autre discipline ) se trouve en sérieuse difficulté
3. La non-mesurabilité. Il y a une longue distance de la construction du modèle qualitatif qui reflète les relations complexes de l'explication jusqu'à la construction du " système d'équation " qui l'exprime quantitativement et qui permet la déduction rigoureuse d'une solution pour un problème particulier. Les modèles qu'on a, déjà complexes, sont des illustrations " topologiques " (les acteurs et les liens) ou " conceptuelles " (les aspects) mais un modèle " calculable " exige des grandeurs mesurables. Après la définition de ces grandeurs et l'introduction des étalons (unités de mesure) on pourrait parler de l'évolution quantitative de chaque grandeur qui reflète l'évolution du système. On arriverait ainsi à la possibilité d'appliquer la théorie mathématique des systèmes (grandeurs d'état, entrées, sorties, fonctions d'état et d'entrée- sortie, etc.). On arriverait aussi à la perception du transport des connaissances comme une propagation des signaux. Mais tout cela est fort problématique. Les " ondes " de propagation du savoir déclenchent des procès subtils, engrènent des " grandeurs " d'essence complexe et variable. La non-mesurabilité d'une bonne partie de nos " grandeurs évolutives " exclut l'application opérationnelle du modèle mathématique quantitatif de la théorie des systèmes. Il reste à l'utiliser seulement comme une métaphore qui oriente. L'apport de la systémique qualitative est la compréhension de la réalité complexe, l'orientation générale de l'action et non pas la déductibilité précise des solutions.
4. L’ambiguïté. Déjà résigné au qualitatif, notre instrument d'analyse doit supporter les conséquences appréciables de l'ambiguïté, de la relativité, du vague. Cela veut dire qu'on ne dispose même pas, d'un système de " règles qualitatives " claires. Nos concepts sont de type " fuzzy ", une ambiguïté inévitable accompagne leur définition. Chaque " entité qualitative " de notre modèle est fluide, sans contour délimité, se prêtant à une vaste palette d'interprétations et nuances. Les délimitations sont relatives, les " instanciations " des " concepts généraux " peuvent s'éloigner de leur classe, qui ne les englobe que pour une certaine similitude, jamais absolue. L'homme a la merveilleuse qualité d'opérer dans de telles circonstances, il a une dimension vague incorporée. Mais les instruments scientifiques qu'il emploie actuellement n'ont pas encore réussi à englober cette dimension. Il reste à atteindre que la notion presque paradoxale de traitement rigoureux de l'ambigu trouve des implantations convaincantes. Pour le moment, la " dimension vague " est un obstacle redoutable de notre effort de modélisation opérationnelle.
5. La " multdimensionnalité " dense. Les " objets " et les " grandeurs " qui participent à notre système ne sont pas seulement nombreux, à multiple liens, non-mesurables et vagues, ils sont aussi multidimensionnels. Chaque " concept " s'étend dans un vaste " espace de dimensions ". Une proposition a un contenu, une source, une forme, une intention, un destinataire, une histoire-cadre, une structure, etc. Un geste a un support, une mécanique, une intention, un contexte, une codification, etc. La représentation des objets spatiaux par la projection sur des surfaces ou des droites ne peut les refléter que partialement, avec la perte de leur essence profonde tridimensionnelle. La représentation d'un concept a des limites analogues. Le calcul et la représentation des entités n- dimensionnels pose déjà des problèmes difficiles. La superposition partielle des dimensions nous place dans un univers à " ambiguïté dimensionnelle ", un espace " sous-vectoriel " dont la base de représentation ne vérifie ni le critère de l'indépendance ni celui de la completitude....
6. La variabilité et la faible reproductibilité géographique. On connaît les difficultés causés en électronique par la " variation des caractéristiques des composantes fabriqués en série ". Deux résistances réelles, supposées identiques, n'ont pas la même valeur, la pièce d'échange n'a pas les mêmes caractéristiques que celle remplacée… Le design qui suppose un certain comportement pour une composante, doit tenir compte de la variabilité, s'il veut être réaliste. Cela produit des procédures spécifiques de " stabilisation des schémas aux variations de fabrication ". Dans le cas des " composantes humaines de l'explication ", cette difficulté est amplifiée. Comment " stabiliser " le design de l'explication, le rendre applicable à une certaine classe de protagonistes? Entre la fabrication de masse (pour satisfaire des critères d'efficacité ) et artisanale (pour satisfaire des critères de qualité), il y a une dialectique subtile qui mériterait d'être traitée sans préjugés. Il faudrait saisir les limites prévisibles de " l'enseignement générique "... (voir la production des habits à dimension et forme variables...) Un public réduit n'est pas un problème en soi (destiner à chaque assisté un assistant spécialisé serait une réponse de qualité), mais pose des problèmes de coût qui peuvent devenir décourageantes, voire prohibitives.
7 L’instabilité et la faible reproductibilité dans le temps. La reproductibilité est aussi mise en cause par la variabilité temporelle: des composantes, des relations, des objectifs. La dynamique du curriculum, la dynamique des réalités, la dynamique des méthodes, la dynamique des instruments, la dynamique des personnalités, tout cela ne fait pas le bonheur de l'ingénieur de système, car le design du dynamique est difficile. Il peut voir les objets de son étude changeant exactement quand il a réussi les modéliser. Il peut être confronté même à une situation de " design ouvert " c'est à dire par un flux continu de changements qu'il doit supporter, intégrer, traduire. Quand les analyses deviennent rapidement caduques, il est difficile d'éviter leur superficialité. La diminution de la reproductibilité par les changements trop fréquents est un facteur prohibitif sérieux.
8. Les influences " externes " imprévues. Une des premières précautions que la théorie des systèmes prend, c'est de s'assurer de la " fermeture " du système traité par rapport à son monde externe. Sans cette condition, les résultats sont arbitraires, car les influences externes non-modélisés peuvent produire des déviations imprévisibles. Si les influences externes ne sont pas saisies, la situation devient incontrôlable et l'application de la formule-solution pour un problème, risque de se couvrir de ridicule. Que dire d'une merveilleuse leçon tenue à un étudiant ivre, ou qui hait son assistant et n'est pas intéressé par le sujet... Le fait d'expliquer, en lui-même, a un potentiel perturbateur sur la chose expliquée. On peut revoir à ce sujet les discussions sur l'influence des instruments dans l'observation des particules et la révolution qu'ils ont produits dans la physique contemporaine (le principe d'incertitude ...). Notre problème promet des révélations analogues: observer un sujet pour le faire comprendre, c'est de le modifier.
9. Le libre arbitre et la probabilité. Une source inépuisable de surprises est la réaction des participants humains. On peut la traiter comme " variabilité " ou comme " influence externe ". En la traitant séparément, on met l'accent sur une particularité humaine essentielle: " le libre arbitre ", c'est à dire la capacité de l’homme de réagir différemment dans les mêmes circonstances. Les discussions sur l'éventuelle réductibilité du " libre arbitre " à un déterminisme inexprimable car trop complexe ou à un hasard neurologique à effets externes, ne changent rien. La réalité du phénomène de la décision humaine libre et créative a des conséquences fondamentales pour le design de l'explication (instruction, etc.) car elle limite la " solubilité " déductive. Le langage des probabilités semble plus opportun, car même s'il n'exprime pas bien l'acte de la décision libre, il décrit ses résultats extérieurs. On n'a pas la solution mais une solution possible. Le design ne peut que chercher une variante probablement meilleure. L'incertitude vient avec la liberté...
10. Les structures et les processus non-linéaires et circulaires. L'espoir d'un analyste est de trouver une " linéairisation " raisonnable du système, les relations topologiques " en boucle " et " en étoile ", les dépendances non-linéaires étant des difficultés redoutables. Après, il pourra parler d'entrée et de sortie, de causes et d'effets et il pourra suivre un raisonnement en cascade. Mais la boucle de rétroaction n'est pas réductible à une chaîne cause- effet-cause, qui ne pourrait d'ailleurs " commencer " de nulle part.... Le cercle causal n'est pas l'addition de deux chaînes causales, il est une nouvelle entité dont le fonctionnement est le résultat simultané de sa structure. La " linéarisation " a des limites profondes dans le design de l'explication, qui est un phénomène essentiellement non-linéaire (processus parallèles, boucles, rétroaction, dépendances non- proportionnelles).
11. Les dépendances " dérivatives " (dynamiques) et intégratives (historiques). Un autre pas difficile dans l'analyse des systèmes techniques c'est le passage du " régime statique " au " régime dynamique ", l'étude des phénomènes transitoires. (voir l'analyse mathématique comme instrument). La " sortie " ne suit pas ponctuellement " l'entrée ", son état n'est pas une fonction " algébrique " de l'état de l'entrée au même moment. C'est l'évolution de la sortie, dans son ensemble, qui résulte de l'évolution globale de l'entrée. A la place d'une fonction y= f(x) , on parle d'un opérateur y(t)= L [x(t)]. L'opérateur est dérivatif , quand la sortie dépend de la vitesse de changement de l'entrée. Le discours a une " courbe " dont les ondulations comptent, les éléments fusionnent en fonction de la cadence de leur présentation. Les " simultanéités " peuvent conditionner les comparaisons ou la fusion conceptuelle, la proximité temporelle peut conditionner l'établissement des rapports. L'opérateur est intégratif, quand la sortie à chaque moment dépend de l'histoire de l'évolution de l'entrée. L'ordre des arguments compte. Les nouvelles touches s'ajoutent sur la peinture existante. L'histoire du discours est un cadre omniprésent qui participe à sa compréhension. Chaque mot est reçu par le filtre de ses antécédents et influence le filtrage de ceux qui le suivent.... Ainsi, dérivatif et intégratif à la fois, le processus de réception du discours explicatif exige l'intégration des évolutions conceptuelles, perçues comme des entités distribuées dans le temps et non pas comme des séries de pièces isolées. La constitution des concepts intègre le temps, a une logique temporelle. " L'explenandum " et " l'explenans " sont deux aspects d'un processus: la transition et l'état, qui n'existent pas séparément. En électronique, les " signaux " ne sont que des modifications d'états, la forme de ces modifications codant les informations. Les concepts seraient-ils des états ou des " signaux "? Leur consistance est " solide " ou " fluide "? Le modèle de l'explication doit être une dynamique conceptuelle?
12. La désincronisation entre la théorie et la pratique. Tout comme le traitement empirique des maladies, la recommandation pédagogique est d'une valeur indéniable. La théorie peut faire une organisation systémique et systématique des observations de l'expérience, pour offrir un outil d'orientation au praticien.. A l'époque actuelle, on attend plus de la part d'une science. On attend qu'elle modélise jusqu'à synthétiser les observations dans une structure élégante et économique, jusqu'à permettre la prévision des résultats non-observés encore, jusqu'à faire apparaître des isomorphismes éloquents pour l'abstraction, jusqu'à pouvoir déduire les remèdes, par raisonnements. La vague " cognitiviste " est la concrétisation de cette ambition d'émanciper la théorie de l'éducation. En reprenant la métaphore médicale, on veut comprendre maintenant le métabolisme de " l'organisme explicatif " jusqu'à pouvoir en déduire la logique d'intervention. Mais, portés exclusivement par l'enthousiasme de ce projet, les chercheurs des Sciences de l'éducation ne doivent pas négliger le procès plus modeste d'extraction, de structuration et d’interprétation des résultats de l'expérience explicative naturelle, qui est encore une source d'autorité imbattable. Nous ne sommes pas encore en mesure de " calculer " (déduire) l'intervention explicative sur un modèle. L'enseignant réussit parce qu'il l'induit, il la crée, il l'extrait de son essence profonde. Il n'y a pas de motifs pour présenter la théorie de l'explication de manière autoritaire. La morgue " scientifique " de certains auteurs est déplacée, car elle cache la difficulté profonde du problème et éloigne les experts " naturels " en explication. Dans le rapport entre théorie et pratique, il revient à la première de trouver les principes et le langage d'un dialogue. Une manifestation typique de " l'évasion théorique " est la déconsidération du coût des solutions... Pour la recherche fondamentale, qui ne doit pas être l'esclave d'un pragmatisme paralysant, il peut être essentiel de négliger des facteurs circonstanciels, qui empêchent l'abstraction et la vision prospective. Mais pour la recherche appliquée, l'absence du critère d'efficacité (rapport effort/résultat) est anormale, surtout dans une ... démarche technologique. D'ailleurs l'optimisation, dans des conditions si complexes, devient un problème scientifique remarquable.
13. La déconsidération sociale et politique. La transformation des informations dans des explications demande l'effort, la subtilité et l'expertise de celui qui s'y engage. L'effet de cet investissement est difficilement mesurable. Si l'évaluation de l'informatif est encore faisable, celle de l'explicatif est problématique. Mais sans évaluation, le domaine ne dispose pas d'un bon mécanisme de récompense Comme réaction, à part ceux qui ont la passion pour leur noble métier, une grande partie des enseignants (explicateurs professionnels) répondent avec une prestation médiocre, ce qui contribue au maintien de la perception sous-évaluante de leur métier, dont le caractère d'ingénierie des connaissances n'est pas encore reconnu. Le facteur de la compétitivité, stimulant pour d’autres situations (innovation, etc) joue un rôle plutôt inhibant pour l'activité explicative. Ceux qui savent sont parfois directement intéressés à faire connaître leurs résultats, mais ont rarement intérêt à s'expliquer profondément. Par contre, ils doivent éviter que l'excès de transparence avantage les compétiteurs ou les critiques potentiels. Ainsi, " l’explicativité " n'est pas très rentable, dans le climatactuel. Une science de l'explication pourrait contribuer à la sensibilisation du publique face à l'opération difficile, essentielle et ... ingrate qui est l'explication.
14. Le recours à la méthode et la récursivité. La majorité de ceux qui étudient et expliquent l'explication (ou une partie) ne font pas recours aux méthodes qu'ils recommandent aux autres, dans l'exposition de leurs recherches mais vantent les possibilités explicatives d'un système moderne, en le présentent de manière tout-à-fait classique. Il est intéressant de voir les raisons de ce phénomène et d'en tirer certaines conclusions. En effet, comment éviter l'impression que la présentation directe face à un auditoire reste la manière la plus efficace de se faire comprendre? Et que pour le moment le " design explicatif " avec les nouveaux instruments est intéressant seulement si une certaine reproductibilité justifie l'effort de conception? La présentation des propositions d'une technique d'explication utilisant la technique même est une application particulièrement intéressante. L'étude de l'explication de l'explication a l'opportunité (et le devoir) de s'appliquer à son propre domaine!
15. La manipulation impropre de la subjectivité(introspection). Il est tout à fait normal de chercher l'objectivation des modèles, des prémisses, des méthodes. Le recours exclusif à la subjectivité peut générer un blocage par " relativisation généralisée ". Mais cela ne veut pas dire que nous devons nous laisser paralysés par cette peur. L'absence de l'introspection comme méthode d'étude de l'explication est paradoxale pour ceux qui en souligne la dimension individuelle, subjective. Il aurait été normal que la conscientisaition des phénomènes de la conscience ait comme effet l'établissement d'une méthodologie introspective dans l'étude de l'apprentissage. Or, à part les démarches de la méthodologie narrative, on est loin de ça. Être scientifique suppose de parler à la troisième personne. Décrire " l'extérieur de l'intérieur " et non pas " l'extérieur vu de l'intérieur "... On n'en fait même pas la différence, on ne parle pas assez de la position ou du point de vue de l’émission d’une affirmation. Ainsi on arrive à la situation absurde de chasser de la théorie " cognitiviste " de l'explication les observations faites de l'intérieur ou d'utiliser la vision constructiviste pour bâtir des architectures internes... de l'extérieur. Quel chercheur oserait étudier les mécanismes de sa propre compréhension, et de définir un design en conséquence?
16. L’explosion conceptuelle et le pséudo-systémisme. Un autre obstacle significatif pour une modélisation opérationnelle est " l'explosion descriptive ". L'inflation informationnelle peut devenir un obstacle redoutable. Un million d'alternatives peuvent bloquer autant que leur absence. L'explosion combinationnelle a déjà tempéré les espoirs des informaticiens. Suivre continuellement une documentation vaste et dynamique devient plus compliqué que d'observer directement son sujet! Obligés d'être " au courent " dans ce fleuve informationnel, les chercheurs doivent rétrécir leur cône d'intérêt de plus en plus. Cela diminue les chances d'une vision globale, synthétique, intégré dans une pensé humaine. Le penseur ne peut plus refléter la science, ne peut que se placer dans un point de sa carte. Paradoxalement l'avancement de la science collective peut faire reculer la science individuelle. Pourrait-on faire quelque chose pour décanter l'immense littérature qui décompose le sujet jusqu'à l'anéantir par atomisation et explosion interprétative? Si le travail méticuleux de l'analyse n'est pas suivi par des hiérarchisations, des filtrages, des systématisations, des généralisations, etc., on risque d'être noyés par les résidus de notre propre pensée. Cette asphyxie serait une triste punition pour notre refus de doubler la recherche de la nouveauté par l'organisation des acquis, pour notre ivresse de vitesse, pour notre déconsidération envers l'organisation du savoir humain, envers le métier crucial de cartographe d'idées, envers ... l'explication.