Les 5 types de rationalité les plus importants chez l’être humain
23 mars 2021
Qu’est-ce que c’est et comment ça marche
23 mars 2021

Il y a de nombreuses erreurs dans lesquelles nous pouvons tomber en défendant nos arguments, consciemment ou non.

Cette fois, nous allons nous concentrer sur celui connu sous le nom de l’erreur de fréquence de base. Nous découvrirons en quoi consiste ce biais, quelles conséquences il a lorsque nous l’utilisons et nous essaierons de le soutenir avec quelques exemples qui nous permettent de visualiser ce concept de manière plus simple.

Quelle est l’erreur de fréquence de base?

L’erreur de fréquence de base, également connue sous d’autres noms, comme le biais du taux de base ou même la négligence du taux de base, est une erreur formelle dans laquelle, à partir d’un cas spécifique, une conclusion est tirée sur la prévalence générale d’un phénomène, même si c’est contraire. des informations ont été données dans ce sens.

Cette erreur a lieu parce que la personne a tendance à surestimer l’importance du cas particulier, contrairement aux données de la population générale. On l’appelle l’erreur de fréquence de base précisément parce que c’est le taux de base qui est mis en arrière-plan, ce qui donne une plus grande pertinence au cas particulier en question.

Bien sûr, comme pour toutes les erreurs, la conséquence immédiate de tomber dans cette erreur est que nous arriverons à des conclusions biaisées qui ne correspondront pas nécessairement à la réalité, qui est un problème qui pourrait même devenir sérieux si le raisonnement en question fait partie d’une étude pertinente.

L’erreur de fréquence de base fait elle-même partie d’un type de biais cognitif connu sous le nom de négligence d’extension ou de négligence d’extension. Cette erreur consiste, fondamentalement, à ne pas prendre en compte la taille de l’échantillon d’une certaine analyse. Ce phénomène peut conduire à des conclusions non fondées si, par exemple, nous extrapolons des données d’un échantillon trop petit à une population entière.

Dans un sens, c’est précisément ce qui se passerait lorsque nous parlons de l’erreur de fréquence de base, puisque l’observateur pourrait attribuer les résultats du cas particulier à l’ensemble de l’échantillon de l’étude, même avec des données indiquant le contraire ou au moins nuancer ledit résultat.

Le cas des faux positifs

Il existe un cas particulier de l’erreur de fréquence de base dans laquelle le problème qu’elle représente peut être visualisé, et c’est le soi-disant paradoxe du faux positif. Pour ce faire, il faut imaginer que la population est menacée par une maladie, chose simple en ces temps, où l’on a vécu de première main le coronavirus ou la pandémie COVID-19.

À présent nous imaginerons deux hypothèses différentes pour pouvoir établir une comparaison ultérieure entre elles. Tout d’abord, supposons que la maladie en question ait une incidence relativement élevée dans la population générale, par exemple 50%. Cela signifierait que sur un groupe de 1000 personnes, 500 d’entre elles auraient cette pathologie.

Mais en plus, il faut savoir que le test utilisé pour vérifier si une personne a la maladie ou non, a une probabilité de 5% de donner un faux positif, c’est-à-dire de conclure qu’un individu a dit une maladie alors qu’en réalité ce n’est pas le cas. . Cela ajouterait 50 personnes supplémentaires à l’ensemble des points positifs (bien qu’ils ne le soient vraiment pas), soit un total de 550. Par conséquent, on estime que 450 personnes ne sont pas atteintes de la maladie.

Pour comprendre l’effet de l’erreur de fréquence de base, nous devons continuer dans notre raisonnement. Pour cela il faut maintenant proposer un second scénario, cette fois avec une faible incidence de la pathologie en question. On peut estimer cette fois qu’il y aurait 1% d’infectés. Ce serait 10 personnes sur 1000. Mais nous avions vu que notre test a une erreur de 5%, c’est-à-dire des faux positifs, ce qui se traduit par 50 personnes.

Il est temps de comparer les deux hypothèses et de voir la différence remarquable qui se dégage entre elles. Dans le scénario d’incidence élevée, 550 personnes seraient considérées comme infectées, dont 500 seraient effectivement infectées. en prenant au hasard une des personnes jugées positives, on aurait une probabilité de 90,9% d’avoir sélectionné un sujet vraiment positif, et seulement 9,1% d’entre eux étaient des faux positifs.

Mais l’effet de l’erreur de fréquence de base se trouve lorsque nous examinons le deuxième cas, car c’est à ce moment-là que le paradoxe des faux positifs se produit. Dans ce cas, nous avons un taux de 60 personnes sur 1000 qui sont comptabilisées comme positives dans la pathologie qui affecte cette population.

Cependant, seuls 10 de ces 60 sont atteints de la maladie, tandis que les autres sont des cas erronés qui sont entrés dans ce groupe en raison du défaut de mesure de notre test. Que voulez-vous dire? Que si nous choisissions l’une de ces personnes au hasard, nous n’aurions que 17% de chances d’avoir trouvé un vrai patient, alors qu’il y aurait 83% de chances de sélectionner un faux positif.

En considérant dans un premier temps que le test a 5% de chances d’établir un faux positif, nous disons implicitement que sa précision est donc de 95%, puisque c’est le pourcentage de cas où il n’échouera pas. Cependant, nous voyons que si l’incidence est faible, ce pourcentage est déformé à l’extrême, parce que dans la première hypothèse, nous avions une probabilité de 90,9% qu’un positif soit vraiment positif, et dans la seconde, cet indicateur est tombé à 17%.

Evidemment, dans ces hypothèses on travaille avec des figures très éloignées, où il est possible d’observer clairement l’erreur de la fréquence de base, mais c’est précisément l’objectif, puisque de cette façon on pourra visualiser l’effet et surtout le risque que nous courons en tirant des conclusions hâtives sans avoir pris en compte la vue d’ensemble du problème en question.

Études psychologiques sur l’erreur de fréquence de base

Nous avons pu approfondir la définition de l’erreur de fréquence de base et avons vu un exemple qui met en évidence le type de biais dans lequel nous tombons si nous nous laissons emporter par cette erreur de raisonnement. Nous allons maintenant enquêter sur certaines études psychologiques qui ont été menées à cet égard, qui nous fourniront plus d’informations à ce sujet.

L’une de ces tâches consistait à demander aux volontaires de saisir les notes académiques qu’ils considéraient comme un groupe fictif d’étudiants, selon une certaine répartition. Mais les chercheurs ont observé un changement lorsqu’ils ont donné des données sur un étudiant spécifique, bien que cela n’ait aucune influence sur leur évaluation possible.

Dans ce cas, les participants ont eu tendance à ignorer la répartition qui avait été précédemment indiquée pour tous ces élèves et ont estimé la note individuellement, même lorsque, comme nous l’avons déjà dit, les données fournies n’étaient pas pertinentes pour cette tâche particulière.

Cette étude a eu un impact au-delà de la démonstration d’un autre exemple de l’erreur de fréquence de base. Et c’est qu’il a révélé une situation très courante dans certains établissements d’enseignement, qui sont des entretiens de sélection d’étudiants. Ces processus sont utilisés pour attirer les étudiants ayant le plus grand potentiel de réussite.

Cependant, suivant le raisonnement de l’erreur de fréquence de base, il convient de noter que les statistiques générales seront toujours un meilleur prédicteur en ce sens que les données qu’une évaluation de la personne peut fournir.

D’autres auteurs qui ont consacré une longue partie de leur carrière à l’étude de différents types de biais cognitifs sont les Israéliens, Amos Tversky et Daniel Kanheman. Lorsque ces chercheurs ont travaillé sur les implications de l’erreur de fréquence de base, ils ont constaté que son effet reposait principalement sur la règle de représentativité.

Le psychologue également, Richard Nisbett, considère que cette erreur est un échantillon de l’un des biais d’attribution les plus importants, tout comme l’erreur d’attribution fondamentale ou le biais de correspondance, puisque le sujet ignorerait le taux de base (les raisons externes, pour le biais d’attribution fondamental), et appliquerait les données du cas particulier (les raisons internes).

En d’autres termes, les informations du cas particulier sont préférées, même si elles ne sont pas vraiment représentatives, aux données générales qui, de manière probabiliste, devraient avoir plus de poids pour tirer des conclusions de manière logique.

Toutes ces considérations, prises ensemble, nous permettront maintenant d’avoir une vision globale des problèmes que pose la chute dans l’erreur de la fréquence de base, même s’il est parfois difficile de se rendre compte de cette erreur.

Références bibliographiques:

  • Bar-Hillel, M. (1980). L’erreur du taux de base dans les jugements de probabilité. Acta Psychologica.
  • Bar-Hillel, M. (1983). La controverse fallacieuse sur le taux de base. Progrès en psychologie. Elsevier.
  • Christensen-Szalanski, JJJ, Plage, LR (1982). L’expérience et le sophisme du taux de base. Comportement organisationnel et performance humaine. Elsevier.
  • Macchi, L. (1995). Aspects pragmatiques de l’erreur du taux de base. Le journal trimestriel de psychologie expérimentale. Taylor et Francis.
  • Tversky, A., Kahneman, D. (1974). Jugement sous incertitude: heuristiques et biais. Science.