Un élément-clé de la Méthode Warnke :

L’automatisation - le secret de l’apprentissage

Il existe des réactions motrices acquises, par exemple dans le domaine du langage, qui sont déclenchées et maîtrisées presque automatiquement. Aussi, ces réactions sont-elles qualifiés d’« automatisées ». Il n’existe pas de définition exacte et largement reconnue de la notion d’automatisation, cependant la vie de tous les jours nous montre que certaines actions motrices entraînées peuvent être effectuées automatiquement, c’est-à-dire rapidement et sans effort mental perceptible (voir à ce sujet James, 1980).

Les actes manqués indiquent tout comme le phénomène du déclenchement inconscient de réactions préprogrammées, que des actions bien que relativement complexes peuvent globalement être déclenchées et/ou contrôlées indépendamment du processus conscient qui se déroule simultanément.

Le concept traditionnel d’automatisation

Le processus d’apprentissage menant à l’automaticité est appelé automatisation. Le phénomène d’automatisation a été élaboré - cela peut surprendre - moins du point de vue des processus d’apprentissage moteurs, mais bien plus de celui des processus sensoriels-perceptifs et cognitifs (stricto sensu) de traitement de l’information (voir p. ex. LaBerge, 1981 ; Schneider, Dumais & Shiffrin, 1984). L’automatisation et l’automaticité sont souvent reliées au concept d’attention par les chercheurs travaillant dans ce domaine. Ils considèrent que les réactions automatisées ne requièrent aucune attention (consciente) et que l’automatisation s’accompagne d’un coût attentionnel progressivement moindre (p. ex. Shiffrin & Schneider, 1977). L’attention est ainsi conçue comme une instance homogène qui se caractérise par une capacité de traitement limitée : plus le degré d’automaticité est élevé, plus large est la capacité de traitement ou d’attention utilisable à la disposition du système de traitement central de l’information (aussi appelé « mémoire de travail », Baddeley, 1986).

Ce concept de l’automatisation relève du bon sens et couvre une opinion répandue selon laquelle l’apprentissage moteur peut être divisé en plusieurs stades ou phases. Fitts (1964 ; Fitts & Posner, 1967 ; cf Adams, 1971) considère par exemple que le processus d’apprentissage commence par une phase cognitive, passe ensuite par une phase associative et se réalise enfin par une phase autonome. Fitts considère que la phase cognitive est dévolue au choix et à l’évaluation de ce qu’il faut faire, des stratégies qui sont utilisables etc. A ce stade initial de l’acquisition d’habileté, selon Fitts, les processus d’information verbaux-cognitifs sont dominants et le sujet apprenant profite considérablement des instructions verbales et des démonstrations de l’objectif du comportement. A l’inverse, dans la phase associative, les processus verbaux-cognitifs seraient en retrait et remplacés par des processus d’apprentissage associatifs, plus « primitifs » qui se rapportent au comment de l’exécution du mouvement. Tandis que dans la phase cognitive les progrès d’apprentissage sont relativement rapides, le processus d’apprentissage de la phase associative consécutive est ralenti à vue d’œil. Au cours du troisième et dernier stade d’apprentissage selon Fitts, la phase autonome, le mouvement est automatisé. En d’autres termes, le sujet peut exécuter le mouvement de façon sûre et rapide, sans pour cela devoir lui accorder (beaucoup) d’attention.

Le concept d’automatisation relié à l’attention, comme il est présenté par Fitts en répartition par phases, a certainement une valeur explicative et est conforté par diverses données. Il est en accord avec des données psychologiques selon lesquelles les différentes capacités à partir desquelles se forme une certaine habileté perceptivo-motrice, diminuent avec une pratique de niveau avancé, de sorte que les capacités intellectuelles d’un sujet sont de moins en moins capables de prédire sa performance (Adams, 1953, Fleishman & Hempel, 1955 ; Fleishman & Rich, 1963 ; cf Heuer, 1984). Il existe des preuves confortant l’hypothèse selon laquelle les mouvements hautement automatisés sont maîtrisés inconsciemment et n’encombrent pas la mémoire de travail. D’une part, il a pu être démontré dans une expérience portant sur le choix-réaction qu’une pratique intensive peut conduire à la disparition de la relation dite de « loi de Hick » faisant que le temps choix-réaction augmente de façon logarithmique avec le nombre d’alternatives stimulus-réaction en temps linéaire (Mowbray & Rhoades, 1959 voir également Hellyer, 1963). D’autre part, chacun peut faire l’observation au quotidien que les activités routières peuvent être exécutées « comme ça » sans poser de problème, alors que l’on est occupé simultanément à d’autres choses. Pour le dire simplement : puisque l’activité automatisée n’encombre pas la mémoire de travail, la pleine capacité de cette dernière est disponible pour le traitement conscient de l’information (Posner & Snyder, 1975 ; Shiffrin & Schneider, 1977).

Le phénomène que nous venons d’évoquer est appelé dans le jargon spécialisé absence d’interférence en situation de doubles tâches (dual-task interference). Diverses preuves empiriques ont montré qu’un certain nombre de doubles tâches peuvent être effectuées sans la contrepartie d’interférence. Ainsi, Allport, Antonis & Reynolds (1972) ont découvert que des pianistes entraînés étaient capables (après une courte phase d’échauffement) de répéter oralement un texte diffusé dans un casque, tandis qu’ils jouaient les notes d’une partition qu’ils ne connaissaient pas. Au cours de la seconde séance, la difficulté des partitions a été augmentée, sans que la performance du texte répété n’ait à en souffrir. Répéter sans faire de fautes ne suppose pas que l’on saisisse la signification de ce qui est répété. En fait, dans l’étude de Allport et al. (1972), seule un sujet participant à l’expérience avait compris le texte répété aussi bien que les sujets du groupe contrôle, qui n’entendaient que le texte. Ce sujet était une pianiste particulièrement experte pour laquelle non seulement l’action de répéter mais aussi celle de jouer une partition inconnue se produisaient absolument automatiquement.

Conception alternative de l’automatisation

Critique du modèle traditionnel. Les recherches sur la théorie de l’attention et de la capacité a fourni un grand nombre de méthodes et de résultats d’études intéressants. Malheureusement les modèles s’avéraient dans l’ensemble peu homogènes et tributaires de facteurs spécifiques aux demandes (voir p. ex. Heuer & Wing, 1984, Neumann, 1987, 1992). Ceci est particulièrement vrai pour les expérimentations basées sur un travail sur les doubles tâches. Ainsi Shaffer (1975b) a-t-il découvert dans une étude comparable à celle de Allport et al. (1972) que la frappe de mots lus et la répétition de mots entendus se combinaient sans aucune dégradation, tandis que la frappe de mots entendus était quasiment impossible lorsqu’il s’agissait de lire simultanément d’autres mots à haute voix. McLeod und Posner (1984) ont obtenu des résultats similaires au cours d’une expérience réalisée en laboratoire.

La spécificité des demandes en cas d’interférence en situation de double tâche a été prouvée à maintes reprises, il n’empêche qu’elle ne se s’accorde pas bien avec la représentation d’une ressource attentionnelle unique limitée dans sa capacité et requise par tous les processus non-automatiques. Il serait par conséquent préférable de partir de l’hypothèse d’homogénéité (Neumann, 1992) et de postuler non pas une mais plusieurs ressources attentionnelles (p. ex. Navon & Gopher, 1979 ; Wickens, 1984). Cet élargissement du concept d’attention peut cependant mener à un cercle vicieux, car les ressources hypothétiques sont opérationnalisées en présence de performances en situation de double tâche. Vouloir expliquer ces performances par le concept de ressources multiples reviendrait à tourner en rond (Neumann, 1992 ; cf Navon, 1984).

Par ailleurs, on est en droit de se demander si le critère d’interférence se prête à l’opérationnalisation des processus attentionnels (Neumann, 1992). Il n’existe aucune mesure absolue de l’interférence de sorte que l’ampleur de l’interférence observée dépend du critère de performance choisi. Pashler (1989, 1993) a d’ailleurs démontré que pour une même paire de tâches, on observe une interférence ou aucune interférence selon le critère de performance (temps de réaction vs exactitude).

Le concept d’automatisation de Neumann. Neumann (p. ex. 1985, 1992) a apporté une série de nouveaux arguments de poids contre le concept traditionnel d’attention, qui n’ont pas besoin d’être rappelés ici (cf aussi Allport, 1989 ; Navon, 1984 ; Pashler, 1993). Selon cette critique, le modèle traditionnel du processus d’automatisation nécessite d’être révisé. Neumann (1984) propose de se rallier à une idée précédemment formulée par Wundt (1903) et de voir l’essence de l’automaticité du point de vue de la liaison qui se créé par la pratique entre les processus sensoriels et moteurs (cf 1.2.2). Wundt avait déjà reconnu que la formation de ces liaisons stimulus-réaction était tributaire d’une relation constante entre stimulus et réaction et que la réaction dépend normalement de l’état intérieur du sujet, notamment de son objectif d’action actuel. Selon Neumann (1984), le processus d’automatisation renferme l’acquisition d’une habileté spécifique, et une réaction doit, dans cette mesure, être vue comme automatisée, du fait que ses paramètres peuvent être spécifiés par la capacité acquise reliée à une information sensorielle. Contrairement à la conception traditionnelle, Neumann considère l’automaticité non pas comme une qualité intrinsèque de certains processus mais comme une qualité émergente de la relation acteur-environnement présente.

Le concept d’automatisation de Neumann ne se limite pas à livrer un cadre général d’analyse pour une multitude de données (voir Neumann, 1984, 1992), mais il s’accorde remarquablement bien avec la conception des structures et processus sensorimoteurs présentée plus haut. Selon ce concept, l’automatisation est caractérisée par le stockage de fonctions partielles acquises par la pratique dans des modules de contrôle inférieurs. Ce modèle de processus d’automatisation s’accorde bien mieux que le modèle traditionnel avec le fait que de nombreuses performances de pointe perceptives-motrices requièrent un niveau de concentration élevé. Il suffit de songer au tennis et à la phase de préparation avant le service, au basket et au tir au panier et au saut en hauteur (cf Kohl, 1956). Le stockage de fonctions partielles dans les modules « inférieurs » n’implique justement pas que ces dernières remplissent leurs fonctions indépendamment de l’état intérieur du sujet (cf 1.2.2.2).

Méchanismes. De même que pour le langage-machine, on peut qualifier ce stockage de fonctions partielles de compilation. On entend par compilation, la traduction de programmes informatiques en langage-machine. Lorsqu’un programme se présente déjà sous forme compilée, il peut être exécuté nettement plus rapidement que s’il doit être traduit par étape au cours du déroulement du programme. Partant de ce principe, il est possible en programmation informatique, de distinguer les ordres plus ou moins « mécaniques ». Plus un programme est formulé de façon abstraite, donc moins mécanique, plus sa vitesse de déroulement est généralement lente. Par analogie, on peut considérer le processus d’automatisation comme l’acquisition d’une routine toujours plus efficace. Cette métaphore permet de comprendre le gain en rapidité observé sur un exercice de niveau avancé (p. ex. Grossman, 1959) de même que le rétrécissement des capacités partielles déterminant la performance (Heuer, 1984).

J. R. Anderson (1982, 1987) différencie dans sa théorie de l’acquisition d’habileté deux composants de la compilation : la procéduralisation et la composition. La procéduralisation est pensée comme la construction de règles « quand/donc » spécifiques à un domaine ou à des productions. Cette acquisition de connaissances procédurales est produite par des heuristiques dans la résolution de problème, qui ne sont pas propres à ce domaine, qui agissent sur la connaissance déclarative disponible, c’est-à-dire la connaissance explicite, factuelle. Par composition, Anderson entend la composition ou la fusion de plusieurs productions en une seule. Le processus de composition est utilisé uniquement si une séquence constituée de plusieurs productions garantie d’atteindre un objectif ou objectif partiel donné.

La théorie d’Anderson a été élaborée dans un premier temps du point de vue de l’acquisition d’habiletés cognitives, mais elle peut être rapportée au domaine de l’apprentissage perceptivo-sensoriel. Elle peut être reliée, entre autres, à l’explication de ce que l’on appelle « loi de la puissance de la pratique » (power law of practice) (J. R. Anderson, 1982 ; cf également Annett, 1985 ; Logan, 1988 ; MacKay, 1982 ; Newell & Rosenbloom, 1981 ; Rosenbloom & Newell, 1987). Cette légitimité empirique possède un large domaine d’application et stipule que le temps nécessaire à l’exécution d’une demande (de mouvement) diminue continuellement (consécutivement à une fonction de puissance) avec le nombre d’exercices pratiqués.

La notion de groupement (chunking) est étroitement liée avec le concept de la composition d’Anderson. Au moins pour le processus de mémorisation, appelé encodage, il peut être considéré comme sûr qu’à la suite d’une longue pratique dans un environnement de tâches constant, sont formés des groupements ou chunks de plus en plus complexes (p. ex. Bryan & Harter, 1899). Si l’on admet que certains chunks sont impliqués à la fois dans le processus de mémorisation et dans la production de mouvements (p. ex. MacKay, 1987 ; cf Prinz, 1990), alors on peut considérer la formation de chunks comme le mécanisme essentiel à la construction de structures de perception et d’action hiérarchiquement organisées.

Quelles que soient les hypothèses spécifiques faites sur l’architecture cognitive, de nombreux chercheurs issus de domaines très différents s’accordent à dire que la formation de chunks joue un rôle central dans l’acquisition d’habileté (voir en plus des travaux déjà mentionnés p. ex. Keele, 1973 ; Rosenbaum, 1991 ; Schmidt, 1988). Il peut paraître d’autant plus étonnant, qu’il n’existe que peu de preuves empiriques supportant ce consensus, du moins en ce qui concerne le domaine assez restreint de la motricité. Une étude menée par Pew (1966) fait ici figure d’exception.

Pour cette expérience, on avait demandé aux sujets de maintenir un curseur le plus possible au centre d’un écran, à l’aide de deux touches. La touche de droite faisant accélérer le curseur vers la droite ; la touche de gauche le faisant accélérer vers la gauche. Quand aucune des touches n’était actionnée, le curseur se déplaçait rapidement vers la gauche ou vers la droite et disparaissait de l’écran. Au cours des premières séances d’exercice, les sujets actionnaient typiquement deux à trois fois par seconde alternativement la touche de gauche et la touche de droite. Leur comportement montrait qu’ils s’arrêtaient après chaque pression de touche pour inverser la direction du curseur en actionnant l’autre touche. Au stade avancé de l’exercice, cette stratégie peu efficace laissa la place à une autre méthode. Les sujets augmentaient alors sensiblement la fréquence des pressions alternatives des touches. Tant que les pressions sur les touches étaient effectuées à intervalle temporel régulier, ils parvenaient à maintenir le curseur au centre de l’écran. La moindre irrégularité au niveau du tempo se traduisait par une déviation du curseur dans une des deux directions. Deux des cinq sujets participant à l’expérience ne réagissaient à cette déviation qu’au moment où l’éloignement de l’objectif atteignait une valeur critique. Ces deux sujets semblaient alors s’arrêter quelques instants, pour effectuer une correction discrète et revenir à une « salve » de pressions de touches rapide. Les salves étaient dans l’ensemble vraisemblablement programmées à l’avance, c’est-à-dire qu’elles faisaient partie d’un chunk supérieur sous la forme d’un programme de mouvement. Les trois autres sujets avaient développé une stratégie de contrôle particulièrement efficace dans laquelle aucune pause perceptible ou correction discrète n’entrait en jeu. La stratégie consistait à diriger le curseur par modifications systématiques du tempo relatif des pressions des touches.

Cette dernière stratégie implique que le tempo relatif des mouvements individuels n’est pas invariable, mais qu’il est, au contraire, modulé continuellement en tant que paramètre critique. Il n’est mis en œuvre aucun programme général motorisé, au sens de Schmidt, mais un mécanisme de liaison sensorimoteur - Pew und Rosenbaum (1988) parlent d’un principe de contrôle (control law). La formation d’un mécanisme de liaison ou d’un principe de contrôle n’est cependant rien d’autre qu’une automatisation au sens de Neumann, car elle conduit à une spécification automatique de paramètre.

Source : Krist, H. (1995). Kognitive Entwicklung, Handlungssteuerung und intuitive Physik : Eine integrative Forschungsperspektive. Habilitationsschrift, Université de Francfort.

© Meditech-France.com - Réalisation Mieux-Etre.org