Biais de confirmation

Biais de confirmation
Page d'aide sur l'homonymie Pour les articles homonymes, voir Confirmation (homonymie).

Le biais de confirmation, également dénommé biais de confirmation d'hypothèse, est la tendance qu'ont les individus à privilégier les informations qui confirment leurs idées préconçues ou leurs hypothèses (sans considération pour la véracité de ces informations) et/ou d'accorder moins de poids aux hypothèses jouant en défaveur de leurs conceptions. En conséquence, ces personnes rassemblent des éléments ou se rappellent les informations mémorisées, de manière sélective, et les interprètent d'une manière biaisée. Les biais apparaissent notamment pour des questions de nature affective et des croyances établies. Par exemple, pour s'informer d'un sujet controversé, celles-ci préfèrent généralement lire des sources qui affirment leur position actuelle. Ils ont aussi tendance à interpréter des preuves équivoques pour appuyer leur position actuelle. Les biais dans la recherche, l'interprétation et le rappel de la mémoire ont été invoqués pour expliquer l'attitude de polarisation (quand un désaccord devient plus extrême, même si les différentes parties sont confrontés à la même preuve), de persévérance de conviction (quand la croyance persiste après que les preuves la soutenant sont démontrées fausses), l'effet de primauté irrationnelle (une plus forte importance pour les premières données rencontrées) et l'illusion de corrélation (par laquelle les personnes perçoivent à tort une association entre deux événements ou situations).

Une série d'expériences dans les années 1960 suggère que les individus sont biaisés en faveur de la confirmation de leurs actuelles croyances. Des travaux ultérieurs ont expliqué ces résultats par une tendance à évaluer les idées d'une manière unilatérale, mettant l'accent sur une possibilité unique et ignorant les alternatives. En combinaison avec d'autres effets, cette stratégie de pensée peut biaiser les conclusions qui sont atteintes. Des explications pour les biais observés incluent le rôle du désir dans la pensée, et les limitations de la capacité humaine au traitement de l'information. Une autre hypothèse est que les individus montrent un biais de confirmation, car d'une manière pragmatique ils évaluent le coût d'être dans l'erreur, plutôt que d'enquêter d'une manière neutre ou scientifique.

Les biais de confirmation contribuent à l'excès de confiance dans les croyances personnelles et peuvent maintenir ou renforcer les croyances face à des preuves contraires. Par conséquent, ils peuvent conduire à des décisions désastreuses, en particulier dans des contextes organisationnels, militaires, politiques ou sociaux.

Sommaire

Types

Le biais de confirmation est un effet dans le traitement de l'information, distinct de l'effet comportemental de confirmation, aussi appelé prophétie autoréalisatrice, par lequel les gens se comportent de manière à réaliser leurs attentes[1]. Certains psychologues emploient « biais de confirmation » pour désigner toutes manières utilisées par des personnes pour éviter le rejet d'une croyance, que ce soit dans la recherche de preuves, l'interprétation, ou l'appel à la mémoire. D'autres limitent le terme à la collecte sélective de preuves[2].

La recherche biaisée d'information

Des expériences ont relevé à plusieurs reprises que les gens ont tendance à tester les hypothèses d'une manière unilatérale, par la recherche de preuves compatibles avec l'hypothèse qu'ils détiennent à un moment donné. Plutôt que de chercher à travers tous les éléments de preuve pertinents, ils posent des questions qui sont formulées de manière qu'une réponse affirmative soutient leur hypothèse. Ils recherchent les conséquences que l'on observerait si leur hypothèse était vraie, plutôt que ce qui se passerait si elle était fausse. Par exemple, si quelqu'un essaie d'identifier un nombre en utilisant des interrogations oui/non et soupçonne que le nombre est 3, il demandera par exemple : « est-ce un nombre impair ? » Les gens préfèrent ce genre de question, appelé « test positif », même si un test négatif tel que « est-ce un nombre pair ? » (réponse : non) donnerait exactement la même information. Toutefois, cela ne signifie pas que les gens cherchent des tests qui sont garantis pour donner une réponse positive. Dans les études où les sujets pouvaient choisir entre des pseudo-tests diagnostiques (pair/impair) et de véritables tests diagnostiques (oui/non), ils favorisent les véritables tests.

La préférence pour les tests positifs n'est pas en soi un biais, puisque les tests positifs peuvent être très informatifs. Cependant, en conjonction avec d'autres effets, cette stratégie peut confirmer les croyances ou des hypothèses déjà existantes, indépendamment de savoir si elles sont vraies. Dans les situations du monde réel, la preuve est souvent complexe et décomposée. Par exemple, diverses idées contradictoires au sujet de quelqu'un pourraient chacune être relevées en se concentrant sur un seul aspect de son comportement. Ainsi, toute recherche de preuve en faveur d'une hypothèse est susceptible de réussir. Une illustration de ceci est la façon dont la formulation d'une question peut modifier considérablement la réponse. Par exemple, les personnes à qui on demande « Êtes-vous satisfait de votre vie sociale ? » rapportent une plus grande satisfaction que ceux interrogés avec « Êtes-vous insatisfait de votre vie sociale ? ».

Même un petit changement dans le libellé d'une question peut affecter la façon dont les gens cherchent l'information disponible, et donc les conclusions auxquelles ils parviennent. Ceci a été démontré en utilisant un cas fictif de garde d'enfant. Les sujets lisent que le parent A est moyennement apte à assurer la garde, pour de multiples raisons. Le parent B avait un mélange de qualités saillantes positives et négatives : une relation étroite avec l'enfant, mais un travail qui le tiendrait loin de l'enfant pour de longues périodes. Lorsqu'on demanda « Quel parent devrait avoir la garde de l'enfant ? » les sujets pointèrent les attributs positifs et une majorité choisirent le parent B. Toutefois, lorsque la question était : « Quel parent devrait se voir refuser la garde de l'enfant ? » ils examinèrent les attributs négatifs, mais là encore, une majorité désigna le parent B, ce qui implique que le parent A devrait avoir la garde.

Des études similaires ont démontré comment les gens s'engagent dans une recherche biaisée d'information, mais aussi que ce phénomène peut être limité par une préférence pour les véritables tests diagnostiques, quand ils sont possibles. Dans une première expérience, les sujets devaient évaluer une autre personne sur les dimensions d'introversion et extraversion d'une personnalité, sur la base d'une entrevue. Ils ont choisi les questions d'entrevue à partir d'une liste donnée. Lorsque la personne interrogée a été présentée comme un introverti, les sujets ont choisi des questions qui présument de l'introversion, telles que « Qu'est-ce que vous trouvez désagréable dans les fêtes bruyantes ? » Lorsque la personne interrogée a été préalablement décrite comme extravertie, presque toutes les questions présumaient de l'extraversion, telles que « Que feriez-vous pour animer une fête ennuyeuse ? ». Ces questions chargées donnèrent peu ou bien aucune opportunité aux personnes interrogées pour infirmer les hypothèses à leur propos. Toutefois, dans une version plus récente de cette expérience, il fut proposé aux sujets de choisir des questions moins présomptives, telles que « Avez-vous peur des interactions sociales ? ». Les sujets préférèrent poser ces genre de questions diagnostiques (oui/non), démontrant seulement un faible biais pour les tests positifs. Ce modèle d'une préférence principale pour des tests diagnostics, et une faible préférence pour des tests positifs, a été reproduit dans d'autres études. Une autre expérience proposa aux sujets une tâche particulièrement complexe de découverte de règles, comprenant le déplacement d'objets simulés par ordinateur. Les objets sur l'écran de l'ordinateur suivaient des lois spécifiques, que les sujets avaient à comprendre. Ils pouvaient « incendier » les objets sur l'écran pour vérifier leurs hypothèses.[à vérifier] Malgré de nombreuses tentatives durant une session de dix heures, aucun des sujets n'arriva à définir les règles du système. En général, ils ont cherché à confirmer plutôt qu'infirmer leurs hypothèses, et ils étaient réticents à envisager des alternatives. Même après avoir vu la preuve qui objectivement réfutait leur hypothèse de travail, ils ont fréquemment continué à refaire les mêmes tests. Certains des sujets étaient instruits des manières appropriées de conduire des « tests d'hypothèses », mais cette instruction n'a eu quasiment aucun effet.

L'interprétation biaisée‬

Un scanner à IRM a permis aux chercheurs d'examiner comment le cerveau humain gérait des informations embarrassantes.

‪Le biais de confirmation n'est pas limité à la collecte de preuves.‬ ‪Même si deux individus détiennent la même information, la façon dont ils l'interprètent peut être biaisée.‬ ‪Une équipe de l'Université Stanford a mené une expérience avec des sujets aux opinions très fortes à propos de la peine capitale, la moitié de ceux-ci en sa faveur et l'autre moitié contre. Chacun de ces sujets lit les descriptions de deux études ; une comparaison des états américains avec et sans la peine de mort, et une comparaison des taux d'assassinat dans un état avant et après l'introduction de la peine de mort.‬ ‪Après lecture d'une brève description de chaque étude, les sujets devaient indiquer si leurs opinions avaient changé.‬ ‪Ils ont ensuite lu un compte rendu beaucoup plus détaillé de la procédure de chaque étude et durent évaluer si les recherches étaient convaincantes et bien conduites.‬ ‪En fait, les études étaient fictives.‬ Half the subjects were told that one kind of study supported the deterrent effect and the other undermined it, while for other subjects the conclusions were swapped.*
‪Les sujets, qu'il s'agisse des partisans ou des opposants, ont rapporté n'avoir que légèrement dévié de leur opinion initiale à la lecture de la première étude.‬ ‪Une fois qu'ils ont lu les descriptions plus détaillées des deux études, ils sont presque tous revenus à leur croyance d'origine, malgré les preuves présentées, pointant des détails qui soutiennent leur point de vue, et négligeant les éléments contradictoires.‬ ‪Les sujets décrivent précisément et explicitement les études soutenant leur point de vue préexistant comme supérieures à celles qui le contredisent. A propos d'une étude semblant torpiller l'effet de dissuasion, un partisan de la peine de mort écrit : « La recherche n'a pas couvert une période de temps suffisamment longue », quand un opposant déclare à propos de cette recherche : « Aucune preuve solide permettant de contredire les chercheurs n'a été présentée ».‬ ‪Ces résultats illustrent que les gens fixent des normes plus strictes pour les hypothèses qui vont à l'encontre de leurs attentes actuelles.‬ ‪Cet effet, connu aussi sous le terme de « biais de non confirmation », a été soutenu par d'autres expériences.‬

‪Une étude de l'interprétation biaisée a eu lieu lors de l'Élection présidentielle américaine de 2004, et porta sur des sujets qui se décrivaient comme passionnés par les candidats.‬ ‪On leur exposa des paires de déclarations apparemment contradictoires, provenant du candidat républicain George W. Bush, du candidat démocrate John Kerry, ou d'une figure publique neutre.‬ ‪On leur exposa aussi des déclarations supplémentaires qui modéraient l'apparente contradiction.‬ ‪A partir de ces trois éléments d'information, ils ont dû décider si les deux déclarations d'une même personnalité étaient incohérentes. Il y avait de fortes différences dans ces évaluations, avec des sujets beaucoup plus susceptibles d'interpréter les déclarations comme contradictoires quand elles venaient du candidat auquel ils s'opposaient.‬
‪Dans cette expérience, les sujets émirent leurs jugements dans un scanner à résonance magnétique (IRM) qui suivit leur activité cérébrale.‬ ‪Lorsque les sujets évaluaient les déclarations contradictoires de leur candidat préféré, les centres émotionnels de leur cerveau étaient stimulés.‬ ‪Au contraire, cette stimulation ne se produisait pas avec les déclarations des autres personnalités.‬ ‪Les chercheurs ont déduit que les différentes réponses aux déclarations n'étaient pas dues à des erreurs de raisonnement passif.‬ ‪Au lieu de cela, les sujets ont activement réduit la dissonance cognitive induite par la découverte du comportement irrationnel ou hypocrite de leur candidat préféré.‬

‪L'interprétation biaisée ne se limite pas aux domaines émotionnellement significatifs.‬ ‪Dans une autre expérience, les sujets écoutèrent l'histoire d'un vol. Ils devaient évaluer l'importance probante des déclarations affirmant qu'un certain personnage était responsable ou non de ce vol.‬ ‪Quand ils émirent l'hypothèse de la culpabilité du personnage, ils évaluèrent les déclarations soutenant cette hypothèse comme beaucoup plus importantes que celles qui la contredisaient.

La mémoire biaisée

Même si quelqu'un a cherché des preuves et les a interprétées d'une manière neutre, il peut ensuite s'en souvenir de manière sélective afin de renforcer ses attentes. Cet effet est appelé « mémoire sélective », « mémoire de confirmation » ou « accès biaisé à la mémoire ». Les théories psychologiques diffèrent dans leurs prédictions quant à la mémoire sélective. Des schémas théoriques prédisent que les informations correspondant aux attentes antérieures, seront plus facilement stockées et rappelées. Certaines approches alternatives soutiennent que les informations surprenantes se distinguent plus, et sont donc plus mémorables. Les prédictions de ces deux types de théories ont été confirmées dans différents contextes expérimentaux, mais aucune théorie ne s'est particulièrement distinguée.

Dans une étude, les sujets lisent le profil d'une femme qui décrit un ensemble de comportements introvertis et extravertis. Ils ont ensuite dû rappeler des exemples de son introversion et extraversion. Un premier groupe a été informé qu'il s'agissait d'une évaluation pour un poste de bibliothécaire, tandis que pour le second groupe il s'agissait d'un emploi dans la vente immobilière. Il est apparu une différence significative entre ce que ces groupes ont rappelé, avec le groupe « bibliothécaire » rappelant plus d'exemples de l'introversion, et le groupe « vente » plus d'exemples du comportement extraverti.

Un effet de mémoire sélective a également été démontré dans des expériences qui manipulent le caractère désirable de différents types de personnalité. Dans l'un de ceux-ci, un groupe de sujets est confronté à des éléments montrant que les personnes extraverties ont plus de succès que les introvertis. Un autre groupe est confronté à des preuves contraires. Dans une étape suivante, apparemment sans rapport avec l'étude, les sujets sont invités à se rappeler les événements de leur vie où ils furent soit introvertis, soit extravertis. Chaque groupe de sujets a fourni plus de souvenirs les liant eux-mêmes au type de personnalité « plus désirable », et se rappelèrent de ces souvenirs le plus rapidement.

Une autre étude a montré comment la mémoire sélective peut maintenir la croyance pour la perception extrasensorielle. Croyants et incrédules ont chacun été confrontés à des descriptions d'expériences de perception extrasensorielle. La moitié de chaque groupe a été informée que les résultats expérimentaux confirmaient l'existence de la perception extrasensorielle, tandis que pour l'autre groupe les résultats ne confirmaient pas cette existence. Dans l'étape suivante, les sujets ont rappelé précisément les éléments, sauf parmi les croyants qui avaient lu les éléments qui ne soutenaient pas la perception extra-sensorielle. Ce groupe se souvenait beaucoup moins des informations et certains d'entre eux s'en rappelèrent de manière incorrecte comme prouvant l'existence de la perception extrasensorielle.

Effets connexes

Polarisation de l'opinion

Persistance des croyances discréditées

Préférence pour des informations préliminaires

Association illusoire entre événements

Article principal : Corrélation illusoire.

Histoire

Observations informelles

Francis Bacon (1561-1626)

Avant les premières recherches en psychologie sur le biais confirmation, ce phénomène avait été observé de manière anecdotique par des écrivains, notamment l'historien grec Thucydide (v. 460-v. 395 avant J.-C.), le poète italien Dante Alighieri (1265-1321), le philosophe et scientifique anglais Francis Bacon (1561-1626), et l'écrivain russe Léon Tolstoï (1828-1910).

Thucydide, dans Histoire de la guerre du Péloponnèse écrit « C'est une habitude de l'humanité [...] d'utiliser la raison souveraine d'écarter de côté ce qu'ils ne peuvent se figurer** ». Dans la Divine Comédie, le personnage de Saint Thomas d'Aquin met en garde Dante quand ils se rencontrent au Paradis : « il arrive souvent que l’opinion hâtive ploie d’un côté faux, et ensuite l’affection lie l’entendement. » [3]
Bacon, dans le Novum Organum écrit « The human understanding when it has once adopted an opinion ... draws all things else to support and agree with it. And though there be a greater number and weight of instances to be found on the other side, yet these it either neglects or despises, or else by some distinction sets aside or rejects.  » Bacon soutient que l'évaluation biaisée des éléments de preuve a conduit à « toutes les superstitions, que ce soit dans l'astrologie, les rêves, les présages, les jugements divins ou choses similaires »
Dans son essai Qu'est-ce que l'art ?, Tolstoï écrit : « Je sais que la plupart des hommes — non seulement ceux qui sont considérés intelligents, mais même ceux qui sont très intelligents et capables de comprendre les plus difficiles problèmes scientifiques, mathématiques ou philosophiques — peuvent très rarement discerner la vérité même la plus simple et évidente, s'il faut pour cela qu'ils admettent la fausseté des conclusions qu'ils ont formées, et peut-être avec encore plus de difficulté, les conclusions dont ils sont fiers, qu'ils ont enseigné à d'autres, et sur lesquelles ils ont construit leur vie.  »

Recherches de Wason sur les tests d'hypothèse

Le terme « biais de confirmation » (confirmation bias) a été inventé par le psychologue anglais Peter Wason (1924-2003). Pour une expérience publiée en 1960, il a défié des sujets d'identifier une règle s'appliquant à des triplets de nombres. Au début, il leur avait été expliqué que les nombres 2-4-6 correspondaient à la règle. Les sujets pouvaient ensuite générer leurs propres triplets de nombres, et l'expérimentateur leur disait si oui ou non ces triplets étaient conformes à la règle[4].
Bien que la règle réelle était simplement « une séquence ascendante », les sujets avaient beaucoup de difficulté à arriver à elle, annonçant souvent des règles beaucoup plus spécifiques, tels que « le nombre du milieu est la moyenne du premier et dernier ». Les sujets semblaient ne tester que des exemples positifs, c'est-à-dire des triplets qui obéissaient à leurs hypothèses de règle. Par exemple, s'ils imaginaient que la règle était : « On ajoute 2 au nombre suivant », ils proposaient des triplets qui correspondaient toujours à cette règle (tel que 11-13-15), plutôt que des triplets qui violaient la règle (comme 11-12-19).
Wason admettait une réfutabilité, selon laquelle un test scientifique d'une hypothèse est une tentative sérieuse de l'infirmer. Il a interprété ses résultats comme l'illustration d'une nette préférence pour la confirmation vis-à-vis de l'infirmation, d'où son terme choisi de biais de confirmation, ou bien « biais de vérification ».

Wason employa également le biais de confirmation pour expliquer les résultats de son expérience de tâche de sélection. Dans ce travail, les participants reçoivent une information partielle à propos d'un ensemble d'objets, et ils doivent préciser de quels autres renseignements ils auraient besoin pour conclure si oui ou non une règle conditionnelle (« Si A, alors B») s'applique. Il a été constaté à maintes reprises que les personnes obtiennent de mauvais résultats sur les différentes formes de ce test, ignorant dans la plupart des cas les informations qui pourraient réfuter la règle.

Critiques de Klayman et Ha

Explications

Conséquences

Dans la finance

Le biais de confirmation peut amener les investisseurs à être trop confiants, en ignorant les preuves que leur stratégie fera perdre de l'argent. Dans des études sur les marchés financiers liés aux résultats d'élections[5], les investisseurs firent de plus importants bénéfices quand ils résistèrent à ce biais[6]. Par exemple, les participants qui interprétèrent, de manière neutre plutôt que partisane, la prestation d'un candidat lors d'un débat, étaient plus susceptibles de faire des profits.
Pour lutter contre l'effet de biais de confirmation, les investisseurs peuvent essayer d'adopter un point de vue contraire « pour les besoins de l'argumentation ». Une telle technique consiste à imaginer l'effondrement de leurs investissements, et s'interroger alors sur les motifs de cet effondrement.

Dans le domaine de la santé

Raymond Nickerson, un psychologue, accuse le biais de confirmation de l'inefficacité des procédures médicales utilisées durant des siècles, avant l'avènement de la médecine scientifique. Si un patient se rétablissait, les autorités médicales considéraient le traitement comme efficace, plutôt que chercher des explications alternatives, telle qu'une maladie ayant suivi son cours naturel. L'assimilation biaisée est aussi un facteur du charme moderne des médecines alternatives, dont les promoteurs sont influencés par des preuves positives et anecdotiques, mais traitent les preuves scientifiques de manière hyper-critique.

La thérapie cognitive a été développée par Aaron Beck au début des années 1960 et est devenu une approche populaire. Selon Beck, le traitement biaisé de l'information est un élément de la dépression. Son approche enseigne aux gens à traiter la preuve de façon impartiale, plutôt que de renforcer sélectivement les perspectives négatives. Les phobies et hypochondries ont également montré qu'elles impliquaient le biais de confirmation dans le traitement de l'information.

En politique et en droit

Nickerson fait valoir que le raisonnement dans des contextes juridiques et politiques est parfois inconsciemment biaisé, favorisant les conclusions identiques à celles déjà faites par les juges, jurés ou gouvernements. Puisque les preuves dans un procès devant jury peuvent être complexes, et puisque les jurés prennent souvent leur décision au sujet du verdict dès le début du procès, il est raisonnable de s'attendre à un effet de polarisation d'attitude. La prédiction, de jurés devenant plus extrêmes dans leurs opinions en étant confrontés à des preuves plus nombreuses, a été confirmée dans des expériences avec des simulacres de procès. Parce qu'ils ne garantissent pas que les opinions concurrentes soient diffusées, la procédure inquisitoire de la justice pénale peut être plus faussée par le biais de confirmation que la procédure accusatoire.

Le biais de confirmation peut être un élément dans la création ou l'extension de conflits ; des débats chargés émotionnellement jusqu'aux guerres. En interprétant la preuve en leur faveur, chaque partie adverse peut devenir trop confiante dans l'idée qu'elle est dans la meilleure position. D'autre part, le préjugé de confirmation peut amener les gens à ignorer ou mal interpréter les signes d'un conflit imminent ou naissant. Par exemple, les psychologues Stuart Sutherland et Thomas Kida ont chacun fait valoir que l'amiral américain Husband Kimmel a montré un biais de confirmation en sous-estimant les premiers signes de l'attaque sur Pearl Harbor.

Une étude des politologues sur deux décennies, par Philip E. Tetlock, démontre que, dans l'ensemble, leurs prédictions ne furent guère plus correctes que le pur hasard. Tetlock divisa ces experts entre les « renards » soutenant de multiples hypothèses, et les « hérissons » plus dogmatiques. En général, les prévisions des hérissons furent beaucoup moins exactes. Tetlock expliqua leur échec par le biais de confirmation, et en particulier, leur incapacité à utiliser les nouvelles informations qui contredisaient leurs précédentes théories.

Sur le paranormal

Dans la démarche scientifique

Sur l'image de soi

Notes et références

  1. (en) John M. Darley et Gross Paget H., « Stereotypes and prejudice: essential readings », dans Psychology Press, 2000, p. 212 (ISBN 9780863775895) 
  2. (en) Jane Risen et Thomas Gilovich, « Informal Logical Fallacies », dans Robert J Sternberg, Henry L Roediger, Diane F Halpern et al., Critical Thinking in Psychology, Cambridge University Press, 2007, pp. 110–130, (ISBN 9780521608343), (OCLC 69423179)
  3. Dante Alighieri, traduction Lamennais, Le Paradis - Chant XIII, Édition de 1883. consulter en ligne
  4. Peter C. Wason, « On the failure to eliminate hypotheses in a conceptual task », in Quarterly Journal of Experimental Psychology, 1960
  5. Voir Election stock market (en)
  6. Hilton, Denis J. (2001), « The psychology of financial decision-making: Applications to trading, dealing, and investment analysis », Journal of Behavioral Finance (Institute of Behavioral Finance) 2 (1): 37–39, doi:10.1207/S15327760JPFM0201_4, ISSN 1542-7579

Bibliographie

Voir aussi

Articles connexes

Liens externes


Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Biais de confirmation de Wikipédia en français (auteurs)

Игры ⚽ Поможем сделать НИР

Regardez d'autres dictionnaires:

  • Biais De Confirmation D'hypothèse — Le biais de confirmation d hypothèse est un biais statistique décrivant la tendance d une personne à chercher, ou à interpréter, une information de manière qu elle confirme les préconceptions de cette personne. En inférence inductive, le biais de …   Wikipédia en Français

  • Biais de confirmation d'hypothese — Biais de confirmation d hypothèse Le biais de confirmation d hypothèse est un biais statistique décrivant la tendance d une personne à chercher, ou à interpréter, une information de manière qu elle confirme les préconceptions de cette personne.… …   Wikipédia en Français

  • Biais de confirmation d'hypothèse — Le biais de confirmation d hypothèse est un biais statistique décrivant la tendance d une personne à chercher, ou à interpréter, une information de manière qu elle confirme les préconceptions de cette personne. En inférence inductive, le biais de …   Wikipédia en Français

  • Biais Cognitif — Un biais cognitif est une erreur dans la prise de décision et/ou le comportement adopté face à une situation donnée résultant d une faille ou d une faiblesse dans le traitement des informations disponibles. L étude des biais cognitifs fait l… …   Wikipédia en Français

  • Biais (Statistique) — Pour les articles homonymes, voir Biais. En statistique ou en épidémiologie, un biais est une démarche ou un procédé qui engendre des erreurs dans les résultats d une étude. Formellement, le biais d un estimateur est l espérance de la différence… …   Wikipédia en Français

  • Biais statistique — Biais (statistique) Pour les articles homonymes, voir Biais. En statistique ou en épidémiologie, un biais est une démarche ou un procédé qui engendre des erreurs dans les résultats d une étude. Formellement, le biais d un estimateur est l… …   Wikipédia en Français

  • Biais Rétrospectif — En psychologie du raisonnement, le biais rétrospectif désigne la tendance à juger a posteriori qu un événement était probable ou prévisible, alors même que ce n était pas le cas avant qu il ait eu lieu. Ce phénomène correspond à l impression… …   Wikipédia en Français

  • Biais retrospectif — Biais rétrospectif En psychologie du raisonnement, le biais rétrospectif désigne la tendance à juger a posteriori qu un événement était probable ou prévisible, alors même que ce n était pas le cas avant qu il ait eu lieu. Ce phénomène correspond… …   Wikipédia en Français

  • Biais cognitif — Un biais cognitif est un schéma de pensée erronné qui apparaît dans un type de situation donnée. L étude des biais cognitifs fait l objet de nombreux travaux en psychologie cognitive, en psychologie sociale et plus généralement dans les sciences… …   Wikipédia en Français

  • Biais — Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom. Sur les autres projets Wikimedia : « Biais », sur le Wiktionnaire (dictionnaire universel) Le mot masculin biais (du grec ancien βιάς / …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”