Rechercher
Fermer ce champ de recherche.

Web-conférence gratuite avec Anne Tuffigo dans

00
heures
00
minutes
00
secondes

Fiabilité dans la recherche en psychologie : Définitions et exemples

4 minutes de lecture

Sommaire

    Sommaire

    Le terme fiabilité dans la recherche psychologique fait référence à la cohérence d’une étude quantitative ou d’un test de mesure. Pour les instruments tels que les questionnaires, la fiabilité garantit que les réponses sont cohérentes à tout moment et en toute occasion. Il existe plusieurs formes de fiabilité, dont le test-retest, l’inter-juges et la cohérence interne.

    Par exemple, si une personne se pèse au cours de la journée, elle s’attend à obtenir une lecture similaire. Les balances qui mesurent le poids différemment à chaque fois seraient peu utiles.

    La même analogie pourrait être appliquée à un mètre ruban qui mesure les pouces différemment à chaque fois qu’il est utilisé. Il ne serait pas considéré comme fiable.

    Si les résultats d’une recherche sont reproduits de manière cohérente, ils sont fiables. Un coefficient de corrélation peut être utilisé pour évaluer le degré de fiabilité. Si un test est fiable, il devrait présenter une corrélation positive élevée.

    Bien entendu, il est peu probable que les mêmes résultats soient obtenus à chaque fois, car les participants et les situations varient. Néanmoins, une forte corrélation positive entre les mêmes résultats de test indique la fiabilité.

    Il existe deux types de fiabilité : interne et externe.

    • La fiabilité interne fait référence à la cohérence des différents éléments d’un même test qui mesurent le même concept ou la même construction. Elle garantit la stabilité d’un test à travers ses composantes.
    • La fiabilité externe mesure la cohérence avec laquelle un test produit des résultats similaires lors d’administrations répétées ou dans des conditions différentes. Elle garantit la stabilité d’un test dans le temps et dans différentes situations.
    Apprenez des meilleurs mentors

    Méthode de la moitié divisée

    La méthode de la moitié divisée évalue la cohérence interne d’un test, tel que les tests psychométriques et les questionnaires.

    Elle mesure la mesure dans laquelle toutes les parties du test contribuent de manière égale à ce qui est mesuré.

    Voici comment cela fonctionne:

    1. Un test ou un questionnaire est divisé en deux moitiés, généralement en séparant les éléments pairs des éléments impairs, ou la moitié des éléments de la seconde moitié.
    2. Chaque moitié est notée séparément, et les scores sont corrélés à l’aide d’une méthode statistique, souvent la corrélation de Pearson.
    3. La corrélation entre les deux moitiés donne une indication de la fiabilité du test. Une corrélation plus élevée indique une meilleure fiabilité.
    4. Pour tenir compte de la longueur réduite du test (parce que nous l’avons divisé en deux), la formule de prophétie de Spearman-Brown est souvent appliquée pour estimer la fiabilité du test complet sur la base de la fiabilité de la moitié divisée.

    La fiabilité d’un test pourrait être améliorée en utilisant cette méthode. Par exemple, tous les éléments des moitiés séparées d’un test dont la corrélation est faible (par exemple, r = 0,25) devraient être supprimés ou réécrits.

    La méthode de la moitié divisée est un moyen rapide et facile d’établir la fiabilité. Toutefois, elle ne peut être efficace que pour les grands questionnaires dans lesquels toutes les questions mesurent le même concept. Par exemple, l’inventaire multiphasique de la personnalité du Minnesota comporte des sous-échelles mesurant différents comportements tels que la dépression, la schizophrénie et l’introversion sociale. Par conséquent, la méthode de la moitié divisée n’était pas une méthode appropriée pour évaluer la fiabilité de ce test de personnalité.

    Excellent
    4.8 out of 5
    Programme confiance en soi : formation éligible au CPF. Coaching individuel et collectif.

    Test-Retest

    La méthode du test-retest permet d’évaluer la cohérence externe d’un test. Les questionnaires et les tests psychométriques sont des exemples de tests appropriés. Elle mesure la stabilité d’un test dans le temps.

    Une évaluation typique consisterait à faire passer le même test aux participants à deux occasions distinctes. Si les résultats obtenus sont identiques ou similaires, la fiabilité externe est établie.

    Voici comment cela fonctionne:

    1. Un test ou une mesure est administré aux participants à un moment donné.
    2. Après une certaine période, le même test est administré à nouveau aux mêmes participants sans aucune intervention ou traitement entre les deux.
    3. Les scores des deux administrations sont ensuite corrélés à l’aide d’une méthode statistique, souvent la corrélation de Pearson.
    4. Une corrélation élevée entre les scores des deux administrations du test indique une bonne fiabilité test-retest, suggérant que le test produit des résultats cohérents dans le temps.

    Cette méthode est particulièrement utile pour les tests qui mesurent des traits ou des caractéristiques stables qui ne sont pas censés changer sur de courtes périodes. L’inconvénient de la méthode test-retest est qu’il faut beaucoup de temps pour obtenir des résultats. La fiabilité peut être influencée par l’intervalle de temps entre les tests et par tout événement susceptible d’affecter les réponses des participants pendant cet intervalle.

    Beck et al. (1996) ont étudié les réponses de 26 patients externes lors de deux séances de thérapie distinctes à une semaine d’intervalle, ils ont trouvé une corrélation de .93, ce qui démontre une grande fiabilité test-retest de l’inventaire de la dépression.

    C’est un exemple de la raison pour laquelle la fiabilité est nécessaire dans la recherche psychologique, si ce n’était de la fiabilité de ces tests, certaines personnes pourraient ne pas être diagnostiquées avec succès comme souffrant de troubles tels que la dépression et, par conséquent, ne recevraient pas la thérapie appropriée.

    Le moment du test est important ; si la durée est trop courte, les participants peuvent se rappeler des informations du premier test, ce qui pourrait fausser les résultats.

    A l’inverse, si la durée est trop longue, il est possible que les participants aient changé de manière importante, ce qui pourrait également fausser les résultats.

    La méthode test-retest évalue la cohérence externe d’un test. Il s’agit de la mesure dans laquelle différents évaluateurs donnent des estimations cohérentes d’un même comportement. La fiabilité inter-juges peut être utilisée pour les entretiens.

    Fiabilité inter-juges

    La fiabilité inter-juges, souvent appelée fiabilité inter-observateurs, désigne la mesure dans laquelle différents évaluateurs ou notateurs s’accordent pour évaluer un phénomène, un comportement ou une caractéristique particuliers. Il s’agit d’une mesure de la cohérence et de l’accord entre les personnes qui notent ou évaluent les mêmes éléments ou comportements.

    Une fiabilité inter-juges élevée indique que les résultats ou les mesures sont cohérents entre les différents évaluateurs, ce qui suggère que les résultats ne sont pas dus au hasard ou aux préjugés subjectifs des évaluateurs individuels.

    Des mesures statistiques, telles que le Kappa de Cohen ou le coefficient de corrélation intraclasse (CCI), sont souvent utilisées pour quantifier le niveau d’accord entre les évaluateurs, ce qui contribue à garantir que les résultats sont objectifs et reproductibles.

    Il est essentiel de garantir une fiabilité inter-évaluateurs élevée, en particulier dans les études impliquant des jugements ou des observations subjectifs, car cela permet de s’assurer que les résultats sont reproductibles et qu’ils ne sont pas fortement influencés par les biais des évaluateurs individuels.

    Notez qu’elle peut également être appelée fiabilité inter-observateurs lorsqu’il s’agit d’une recherche par observation. Dans ce cas, les chercheurs observent le même comportement indépendamment les uns des autres (pour éviter les biais) et comparent leurs données. Si les données sont similaires, elles sont fiables.

    Lorsque les scores des observateurs ne sont pas significativement corrélés, la fiabilité peut être améliorée en:

    • Formant les observateurs aux techniques d’observation et en s’assurant que tout le monde est d’accord avec elles.
    • S’assurant que les catégories de comportement ont été opérationnalisées. Cela signifie qu’elles ont été définies de manière objective.

    Par exemple, si deux chercheurs observent le « comportement agressif » d’enfants à la crèche, ils auront tous deux leur propre opinion subjective sur ce qu’est l’agression.

    Dans ce scénario, il est peu probable qu’ils enregistrent le comportement agressif de la même manière, et les données ne seraient pas fiables.

    En revanche, s’ils devaient opérationnaliser la catégorie de comportement de l’agression, cela serait plus objectif et faciliterait l’identification d’un comportement spécifique.

    Par exemple, alors que le « comportement agressif » est subjectif et non opérationnalisé, le fait de « pousser » est objectif et opérationnalisé. Ainsi, les chercheurs pourraient compter le nombre de fois où les enfants se poussent les uns les autres sur une certaine période de temps.

    Validité et fiabilité en psychologie

    En psychologie, la validité et la fiabilité sont des concepts fondamentaux qui évaluent la qualité des mesures.

    • La validité concerne l’exactitude d’un instrument. Elle permet de déterminer si le test mesure ce qu’il prétend mesurer. Les différentes formes de validité comprennent la validité de contenu, de critère, de construction et externe.
    • La fiabilité concerne la cohérence d’un instrument. Elle évalue si le test produit des résultats stables et reproductibles dans des conditions cohérentes. Les types de fiabilité comprennent le test-retest, l’inter-évaluation et la cohérence interne.

    Il est essentiel de comprendre que la fiabilité est une condition nécessaire mais non suffisante pour la validité.

    Cela signifie qu’un test peut être fiable, c’est-à-dire produire constamment les mêmes résultats, sans être valide ou mesurer avec précision l’attribut prévu.

    Toutefois, un test valide, qui mesure réellement ce qu’il est censé mesurer, doit être fiable. Dans le cadre d’une recherche psychologique rigoureuse, la validité et la fiabilité sont toutes deux indispensables.

    Références

    Beck, A. T., Steer, R. A., & Brown, G. K. (1996). Manual for the beck depression inventory The Psychological Corporation. San Antonio, TX.

    Hathaway, S. R., & McKinley, J. C. (1943). Manuel pour l’inventaire multiphasique de la personnalité du Minnesota. New York : Psychological Corporation.

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

    Web-conférence gratuite
    Comment et pourquoi nos défunts communiquent avec nous ?