Rechercher
Fermer ce champ de recherche.

Web-conférence gratuite avec Anne Tuffigo dans

00
heures
00
minutes
00
secondes

La boîte de Skinner : Qu’est-ce qu’une chambre de conditionnement opérant ?

7 minutes de lecture
La boîte de Skinner : Qu’est-ce qu’une chambre de conditionnement opérant ?

Sommaire

    Sommaire

    La boîte de Skinner est une chambre qui isole le sujet de l’environnement extérieur et dispose d’un indicateur de comportement tel qu’un levier ou un bouton.

    Lorsque l’animal appuie sur le bouton ou le levier, la boîte est en mesure de fournir un renforcement positif du comportement (comme de la nourriture) ou une punition (comme du bruit), ou un conditionneur de jetons (comme une lumière) qui est corrélé avec le renforcement positif ou la punition.

    Points clés

    • La boîte de Skinner, également connue sous le nom de chambre de conditionnement opérant, est un appareil de laboratoire utilisé pour étudier le comportement des animaux dans un laps de temps réduit.
    • Le concept de conditionnement opérant, un type d’apprentissage qui se produit en conséquence d’un comportement, est à la base du développement de la boîte de Skinner.
    • La boîte de Skinner a été confondue à tort avec le berceau pneumatique de Skinner, ce qui a eu des conséquences publiques préjudiciables pour Skinner.
    • Les commentateurs ont établi des parallèles entre la boîte de Skinner et la publicité et les jeux modernes, citant leurs qualités de dépendance et leurs récompenses systématiques.
    Apprenez des meilleurs mentors

    Comment cela fonctionne-t-il ?

    La boîte de Skinner est une chambre, souvent petite, qui est utilisée pour mener des recherches sur le conditionnement opérant avec des animaux. Dans cette chambre, il y a généralement un levier ou une clé que l’animal peut actionner pour obtenir une source de nourriture ou d’eau à l’intérieur de la chambre en tant que renforçateur.

    La chambre est connectée à un équipement électronique qui enregistre la pression du levier ou la frappe de la clé par l’animal, ce qui permet de quantifier précisément le comportement.

    Schéma de la boîte de Skinner ou de la chambre de conditionnement opérant. Structure d'un appareil de laboratoire éducatif étiqueté pour une expérience sur la souris ou le rat afin de comprendre le comportement animal.

    Avant les travaux de Skinner, l’auteur de la boîte de Skinner, l’apprentissage instrumental était généralement étudié à l’aide d’un labyrinthe ou d’une boîte à énigmes.

    L’apprentissage dans ces contextes est bien adapté à l’examen d’essais discrets ou d’épisodes de comportement au lieu d’un flux continu de comportement.

    La boîte de Skinner, quant à elle, a été conçue comme un environnement expérimental mieux adapté à l’examen du flux de comportement plus naturel chez les animaux.

    Caractéristiques

    La conception de la boîte de Skinner varie fortement en fonction du type d’animal qui y est enfermé et des variables expérimentales.

    Néanmoins, elle comprend, au minimum, au moins un levier, une barre ou une clé qu’un animal peut manipuler. Outre le renforçateur et le suiveur, une boîte de skinner peut inclure d’autres variables, telles que des lumières, des sons ou des images. Dans certains cas, le plancher de la chambre peut même être électrifié (Boulay, 2019).

    La conception de la boîte de Skinner vise à empêcher l’animal de faire l’expérience d’autres stimuli, ce qui permet aux chercheurs d’étudier soigneusement le comportement dans un environnement très contrôlé.

    Cela permet aux chercheurs de déterminer, par exemple, quel horaire de renforcement – ou relation entre les récompenses et les punitions et le renforçateur – entraîne le taux de réponse le plus élevé chez l’animal étudié (Boulay, 2019).

    Le renforçateur

    Le renforçateur est la partie de la boîte de Skinner qui fournit, de façon naturelle, le renforcement d’une action. Par exemple, un levier peut fournir une boulette de nourriture lorsqu’il est actionné un certain nombre de fois. Ce levier est le renforçateur (Boulay, 2019).

    Le traqueur/quantificateur

    Le traqueur, quant à lui, fournit des données quantitatives concernant le renforçateur. Par exemple, le tracker peut compter le nombre de fois qu’un levier est actionné ou le nombre de chocs électriques ou de pastilles distribuées (Boulay, 2019).

    Les horaires de renforcement partiel

    On parle de renforcement partiel lorsque le renforcement n’est donné que dans des circonstances particulières. Par exemple, une pastille ou un choc ne peut être distribué que lorsqu’un pigeon a appuyé sur un levier un certain nombre de fois.

    Il existe plusieurs types d’horaires de renforcement partiel (Boulay, 2019) :

    • Des horaires à ratio fixe, où un animal reçoit une pastille après avoir appuyé sur la gâchette un certain nombre de fois.
    • Des horaires à ratio variable, où les animaux reçoivent un renforcement après un nombre aléatoire de réponses.
    • Les horaires à intervalles fixes, où les animaux reçoivent une pastille après une période de temps déterminée, par exemple toutes les 5 minutes.
    • Les horaires à intervalles variables, où les animaux reçoivent un renforçateur au hasard.

    Une fois que les données ont été obtenues à partir de la boîte de Skinner, les chercheurs peuvent examiner le taux de réponse en fonction de l’horaire.

    Excellent
    4.8 out of 5
    Programme confiance en soi : formation éligible au CPF. Coaching individuel et collectif.

    La boîte de Skinner dans la recherche

    Des versions modifiées de la chambre de conditionnement opérant, ou boîte de Skinner, sont encore largement utilisées aujourd’hui dans le cadre de la recherche.

    Skinner a élaboré sa théorie du conditionnement opérant en identifiant quatre types différents de punition ou de récompense.

    Pour tester l’effet de ces résultats, il a construit un dispositif appelé la « boîte de Skinner », une cage dans laquelle un rat pouvait être placé, avec un petit levier (sur lequel le rat était entraîné à appuyer), une goulotte qui libérait des boulettes de nourriture et un plancher qui pouvait être électrifié.

    Par exemple, un rat affamé était placé dans une cage. Chaque fois qu’il actionnait le levier, une boulette de nourriture tombait dans le distributeur de nourriture (renforcement positif). Les rats ont rapidement appris à se diriger directement vers le levier après avoir été placés plusieurs fois dans la boîte.

    Cela suggère que le renforcement positif augmente la probabilité que le comportement soit répété.

    Dans une autre expérience, un rat a été placé dans une cage dans laquelle il était soumis à un courant électrique inconfortable (voir le schéma ci-dessus).

    En se déplaçant dans la cage, le rat a actionné le levier, ce qui a immédiatement coupé le courant électrique (renforcement négatif). Les rats ont rapidement appris à se diriger directement vers le levier après avoir été placés dans la boîte à plusieurs reprises.

    Cela suggère que le renforcement négatif augmente la probabilité que le comportement soit répété.

    Le dispositif permettait à Skinner de fournir chacun de ses quatre résultats potentiels, qui sont:

    • Renforcement positif : une récompense directe pour l’exécution d’un certain comportement. Par exemple, le rat pourrait être récompensé par une boulette de nourriture pour avoir appuyé sur le levier.
    • Punition positive : un résultat négatif direct à la suite d’un comportement particulier. Une fois que le rat a appris à appuyer sur le levier, par exemple, Skinner l’entraîne à cesser ce comportement en électrifiant le sol chaque fois qu’il appuie sur le levier.
    • Renforcement négatif : suppression d’une situation désagréable lorsqu’un comportement particulier est adopté (produisant ainsi un sentiment de soulagement). Par exemple, un léger courant électrique passait dans le plancher de la cage et était retiré lorsque le comportement souhaité était adopté.
    • Punition négative : suppression d’une récompense ou d’une situation agréable. Dans la boîte de Skinner, par exemple, le rat pouvait être entraîné à cesser d’appuyer sur le levier en libérant des boulettes de nourriture à intervalles réguliers et en les retenant lorsque le levier était actionné.

    Applications commerciales

    L’application du conditionnement opérant et classique et de l’idée correspondante de la boîte de Skinner dans le domaine commercial est très répandue, en particulier en ce qui concerne la publicité et les jeux vidéo.

    Les publicitaires utilisent un certain nombre de techniques basées sur le conditionnement opérant pour influencer le comportement des consommateurs, telles que le programme de renforcement à rapport variable (l’effet « machine à sous »), qui encourage les téléspectateurs à continuer à regarder une chaîne particulière dans l’espoir d’obtenir un résultat souhaitable (par ex, gagner un prix) (Vu, 2017).

    De même, les concepteurs de jeux vidéo ont souvent recours aux principes skinnériens afin de maintenir l’intérêt des joueurs pour le jeu.

    Par exemple, de nombreux jeux utilisent des schémas de renforcement à rapport variable, selon lesquels les joueurs reçoivent des récompenses (par exemple, des points, de nouveaux niveaux) à des intervalles aléatoires.

    Cela encourage les joueurs à continuer à jouer dans l’espoir de recevoir une récompense. En outre, de nombreux jeux utilisent le principe de modelage de Skinner, selon lequel les joueurs se voient progressivement confier des tâches plus difficiles à mesure qu’ils maîtrisent les tâches faciles. Cela encourage les joueurs à persévérer face à la frustration afin d’obtenir des résultats.

    L’utilisation des principes du conditionnement opérant dans un cadre commercial pose un certain nombre de problèmes potentiels.

    Premièrement, les publicitaires et les concepteurs de jeux vidéo peuvent créer par inadvertance des comportements de dépendance chez les consommateurs.

    Deuxièmement, le conditionnement opérant est un phénomène à relativement court terme, c’est-à-dire qu’il n’affecte le comportement que pendant la durée du renforcement.

    Une fois que le renforcement est supprimé (par ex, la chaîne de télévision est changée, le jeu est arrêté), le comportement souhaité est susceptible de disparaître également.

    Ainsi, les techniques de conditionnement opérant peuvent se retourner contre elles, conduisant à une dépendance sans conduire aux expériences de jeu espérées par les développeurs (Vu, 2017).

    Mythes de la boîte de Skinner

    En 1945, B. F. Skinner a inventé le berceau pneumatique, un berceau métallique dont les parois et le plafond étaient en verre de sécurité amovible.

    La vitre avant du berceau était également en verre de sécurité, et l’ensemble de la structure devait reposer sur des pieds afin de pouvoir être déplacée facilement.

    Le berceau pneumatique était conçu pour créer un environnement climatiquement contrôlé et plus sain pour les nourrissons. Le berceau pneumatique n’a pas connu de succès commercial, mais les médias lui ont accordé une certaine attention.

    En particulier, le magazine Time a publié un article sur le berceau pneumatique en 1947, qui le décrivait comme un « bébé tendre » qui « donnerait aux soins des nourrissons une nouvelle base scientifique » (Joyce & Fay, 2010).

    Le manque général de publicité autour du berceau pneumatique de Skinner a cependant permis de perpétuer le mythe selon lequel le berceau pneumatique de Skinner était une boîte de Skinner et que les nourrissons placés dans le berceau étaient conditionnés.

    En réalité, le berceau pneumatique n’était rien de plus qu’un simple couffin doté de quelques caractéristiques destinées à faciliter les soins des parents à leurs nourrissons.

    Il n’existe aucune preuve que Skinner ait jamais utilisé le berceau pneumatique pour conditionner des enfants, et en fait, il a déclaré plus tard qu’il n’avait jamais eu l’intention de le faire.

    Un mythe célèbre entourant le berceau de Skinner était que la fille de Skinner, Deborah Skinner, avait été élevée dans une boîte de Skinner.

    Selon cette rumeur, Deborah Skinner était devenue mentalement malade, avait poursuivi son père en justice et s’était suicidée à la suite de son expérience. Ces rumeurs ont persisté jusqu’à ce qu’elle les démente publiquement en 2004 (Joyce & Fay, 2010).

    Efficacité

    L’une des critiques les plus courantes de la boîte de Skinner est qu’elle ne permet pas aux animaux de comprendre leurs actions.

    Comme le behaviorisme n’exige pas qu’un animal comprenne ses actions, cette théorie peut être quelque peu trompeuse quant au degré auquel un animal comprend réellement ce qu’il fait (Boulay, 2019).

    Une autre critique de la boîte de Skinner est qu’elle peut être assez stressante pour les animaux concernés. La conception de la boîte de Skinner vise à empêcher un animal de faire l’expérience d’autres stimuli, ce qui peut entraîner du stress et de l’anxiété.

    Enfin, certains critiques soutiennent que les données obtenues à partir des boîtes de Skinner peuvent ne pas être généralisables aux situations du monde réel.

    Comme l’environnement dans une boîte de Skinner est tellement contrôlé, il peut ne pas refléter avec précision la façon dont un animal se comporterait dans un environnement en dehors du laboratoire.

    Il existe très peu d’environnements d’apprentissage dans le monde réel qui reproduisent un environnement de conditionnement opérant parfait, avec une action unique ou une séquence d’actions menant à un stimulus (Boulay, 2019).

    Références

    Bandura, A. (1977). Théorie de l’apprentissage social. Englewood Cliffs, NJ : Prentice Hall.

    Dezfouli, A., & Balleine, B. W. (2012). Habitudes, séquences d’action et apprentissage par renforcement. European Journal of Neuroscience, 35 (7), 1036-1051.

    Du Boulay, B. (2019). S’échapper de la boîte de Skinner : Le cas des environnements d’apprentissage intelligents contemporains. British Journal of Educational Technology, 50 (6), 2902-2919.

    Chen, C., Zhang, K. Z., Gong, X., & Lee, M. (2019). Double mécanisme de récompense de renforcement et d’habitude dans la conduite de la dépendance au smartphone : le rôle des caractéristiques du smartphone. Internet Research.

    Dad, H., Ali, R., Janjua, M. Z. Q., Shahzad, S., & Khan, M. S. (2010). Comparaison de la fréquence et de l’efficacité des pratiques de renforcement positif et négatif dans les écoles. Contemporary Issues in Education Research, 3 (1), 127-136.

    Diedrich, J. L. (2010). Motivating students using positive reinforcement (Doctoral dissertation).

    Dozier, C. L., Foley, E. A., Goddard, K. S., & Jess, R. L. (2019). Reinforcement. T he Encyclopedia of Child and Adolescent Development, 1-10.

    Ferster, C. B., & Skinner, B. F. (1957). Schedules of reinforcement. New York : Appleton-Century-Crofts.

    Gunter, P. L., & Coutinho, M. J. (1997). Negative reinforcement in classrooms : What we’re beginning to learn. Teacher Education and Special Education, 20 (3), 249-264.

    Joyce, N., & Faye, C. (2010). Skinner Air Crib. APS Observer, 23 (7).

    Kamery, R. H. (2004, juillet). Techniques de motivation pour le renforcement positif : A review. I n Allied Academies International Conference. Academy of Legal, Ethical and Regulatory Issues. Proceedings (Vol. 8, No. 2, p. 91). Jordan Whitney Enterprises, Inc.

    Kohler, W. (1924). La mentalité des singes. Londres : Routledge & Kegan Paul.

    Staddon, J. E., & Niv, Y. (2008). Operant conditioning. Scholarpedia, 3 (9), 2318.

    Skinner, B. F. (1938). Le comportement des organismes : An experimental analysis. New York : Appleton-Century.

    Skinner, B. F. (1948). Superstition » chez le pigeon. Journal of Experimental Psychology, 38, 168-172.

    Skinner, B. F. (1951). How to teach animals. Freeman.

    Skinner, B. F. (1953). Science and human behavior. SimonandSchuster.com.

    Skinner, B. F. (1963). Operant behavior. American psychologist, 18 (8), 503.

    Smith, S., Ferguson, C. J., & Beaver, K. M. (2018). Apprendre à faire exploser un chemin vers le crime, ou juste un bon amusement propre ? Examiner le jeu agressif avec des armes jouets et sa relation avec la criminalité. Criminal behaviour and mental health, 28 (4), 313-323.

    Staddon, J. E., & Cerutti, D. T. (2003). Operant conditioning. Annual Review of Psychology, 54 (1), 115-144.

    Thorndike, E. L. (1898). Animal intelligence : An experimental study of the associative processes in animals. Psychological Monographs : General and Applied, 2(4), i-109.

    Vu, D. (2017). Une analyse du conditionnement opérant et de sa relation avec l’addiction aux jeux vidéo.

    Watson, J. B. (1913). La psychologie vue par les behavioristes. Psychological Review, 20, 158-177.

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

    Web-conférence gratuite
    Comment et pourquoi nos défunts communiquent avec nous ?