Suis-je maître de mon cheminement vers l’information? En tant que professeurs-documentalistes soucieux de former nos élèves à la notion de fiabilité, les Sciences de l’Information nous ont apporté des méthodologies afin d’établir la qualité et la véracité d’une information. Ces recettes développées chez nos élèves nous ont permis de traiter avec eux les modalités de la recherche documentaire, à évaluer les sites canulars, ainsi que la pluie d’infox et de fake news qui circulent, à reconnaître l’autorité d’un site par rapport à ceux qui seraient moins sérieux, à observer les algorithmes de recherche et les résultats de nos requêtes. Le contexte actuel nous interroge, car il concerne la citoyenneté mais aussi la santé de nos élèves, chacun pouvant aisément tomber dans des discours pseudo-scientifiques, voire des phénomènes d’emprise intellectuelle. De ce fait, ce n’est pas tant l’ignorance qui pose problème mais une tendance à l’illusion de connaissance (ce qui est visible dans les théories conspirationnistes, par exemple).  L’esprit critique et l’éducation aux médias doivent se nourrir de la recherche en neurosciences, en didactique des sciences et en zététique afin d’offrir des outils d’autodéfense intellectuelle. 
 

Pourquoi repenser son rapport à l’information ?

1. La frontière entre les sources de qualité et celles qui peuvent divulguer des informations manquant cruellement d’assise scientifique, peut être poreuse sur certaines questions. Des sources, des médias, des revues reconnues peuvent publier des informations qui posent problème.
2. L’enseignant n’est pas à l’abri de la désinformation. Nous côtoyons des phénomènes de désinformation, voire de croyances, dont il est difficile de se dépêtrer, même en tant qu’enseignant (nous abordons ce point dans la partie 1) : l’attrait de la profession pour certaines pseudosciences et certains neuromythes en sont la preuve comme nous allons le voir.
3. Les recherches en psychologie montrent comment le cerveau peut nous mener à des distorsions dans le traitement de l’information. On a tendance à ne voir que ce que l’on croit.  La flexibilité mentale (changer d’avis sur un sujet) ne va pas de soi. Pour Olivier Houdé, Professeur de psychologie du développement, c’est notre système d’inhibition situé dans notre cortex préfontal qui nous permet de mettre en doute et de raisonner, en nous faisant passer d’un système intuitif, instinctif, rapide, à un système plus lent, plus logique et réfléchi.
4. Les phénomènes d’emprise ou de désinformation peuvent être atténués pas une vigilance accrue sur notre rapport à l’information et sur la maîtrise d’outils d’autodéfense intellectuelle. La zététique, la démarche scientifique, les neurosciences nous éclairent sur ces points.
5. Certaines informations sont contre-intuitives. Elles s’opposent à des idées reçues, ou informations énoncées comme vraies dans l’opinion populaire.  Par exemple , la confusion très présente entre un danger et un risque qui fait émerger des peurs infondées (ex : une banane est naturellement radioactive mais ne présente pas de risque).
 
L’expertise du professeur-documentaliste sur ces enjeux est primordiale. La recherche informationnelle est parsemée d’embûches cognitives qui sont souvent non conscientisées. De plus, cette expertise ouvre des champs interdisciplinaires. Certaines erreurs liées aux données chiffrées, aux phénomènes de causalité ou de hasard, à la démarche scientifique, intéresseront les disciplines scientifiques(mathématiques, physique-chimie, SVT, SES). Quant aux erreurs argumentatives énoncées plus bas, elles peuvent être reliées à des activités en Français.
 

1. Faire preuve d’humilité cognitive

Education et discours pseudo-scientifiques :

  • Plusieurs études, par le passé, ont montré que les enseignants avaient un niveau de croyance au paranormal et aux pseudosciences supérieur à la moyenne française (H. Broch. 1999. / D. Boy. 2002 ). 
  • Les neuromythes en éducation ont la vie dure. Les profils d’apprentissage , la théorie des intelligences multiples, les notions de cerveau gauche-cerveau droit, tous trois jugés sans fondement scientifique, sont intégrés dans la pédagogie de nombre d’entre nous.

Les découvertes neuroscientifiques montrent que le cerveau peut être “biaisé”.
Le cerveau pour s’adapter rapidement à son environnement fait preuve d’intuitions et d’automatismes qui se révèlent souvent justes. Il s’agit des heuristiques de jugement, des approximations utiles qui nous évitent d’avoir à trop réfléchir et de perdre trop de temps (un avantage de survie dans l’évolution). Mais dans certaines situations, cela peut induire des erreurs. Celles-là mêmes qui font le bonheur des magiciens et mentalistes qui savent en jouer pour l’art du spectacle. Mais d’autres les exploitent malhonnêtement (faux-médiums, charlatans, etc).

Ces erreurs peuvent être :

  • de type sensoriel : les illusions d’optique (persistances rétiniennes, déformations, etc) montrent comment le cerveau peut interpréter le réel différemment. Dans la réalité, cela peut occulter des informations ou des objets. C’est le cas, par exemple, du point aveugle (partie de la rétine reliée au nerf optique).
  • de type mnésique : notre cerveau n’est pas un disque dur. A chaque évocation de souvenirs, il recrée l’événement et peut le déformer légèrement. Depuis 40 ans, la psychologue Elizabeth Loftus travaille sur ces questions. Ses expériences ont montré qu’il était possible de suggérer à des enfants qu’ils avaient “enlacé Bugs Bunny lors de leur séjour à DisneyLand” ou que dans le visionnage d’une séquence vidéo, “il y avait une grange” (pourtant absente). Ses témoignages dans des procès ont fait inculper des thérapeutes, qui avaient fait émerger des faux-souvenirs (en fait, “suggérés”) chez leurs patients pour expliquer un mal-être (thérapies de la mémoire retrouvée). Ces travaux mettent à mal la technique judiciaire du Line Up (Etats-Unis), où une victime doit reconnaître un agresseur parmi un panel de personnes. Dans de nombreux cas, il apparaissait que la victime pouvait reconfigurer son souvenir en se fixant sur un visage et faire commettre une erreur judiciaire. Dans cette même logique, un témoignage en science ne peut pas être une preuve.

  • de type attentionnel : un trop plein d’informations peut provoquer une cécité attentionnelle. Le cerveau ne peut pas observer tous les éléments qu’il a à traiter. La célèbre expérience de Simmons a montré que dans une vidéo, en se concentrant sur le nombre de passes, certains ne voyaient pas le gorille à l’écran. Le test de Stroop montre également la difficulté du cerveau à inhiber certains éléments informationnels pour se concentrer sur d’autres. Dans la publicité Colgate ci-contre, combien d’entre nous se focalisent sur la dentition de la personne sans voir un détail plus surprenant ?!

 

  • elles peuvent être liées à nos facultés de jugement et de raisonnement. Erreurs de perception, erreurs de logique, confusion entre corrélation et causalité, sur-confiance en l’intuition, paréidolies…peuvent entraver notre rapport à l’information et à sa validation.
 

2. Biais et dissonance cognitive

Ces distorsions impliquent des biais cognitifs nombreux. Dans la plupart des cas, il s’agit de mécanismes qui ont permis des avantages dans l’évolution de l’homme dans son environnement, en réagissant vite. Dans certaines situations modernes (raisonnement scientifique, débat, prise de décision, validité de l’information), ils peuvent nous induire en erreur.

Quelques biais :

  • Biais de confirmation : tendance à aller vers les sources d’information qui sont déjà en lien avec nos croyances.
  • Effet Dunning-Kruger : tendance à surestimer nos connaissances dans un domaine, lorsqu’on ne voit pas la marge de connaissances à acquérir pour en avoir une bonne maîtrise.
  • Effet Barnum : accepter une vague description de sa personnalité comme s’appliquant spécifiquement à soi-même (ex : un horoscope).
  • Illusion des séries :  percevoir à tort des coïncidences dans des données dues au hasard (exemple : jouer le 18 à la roulette parce qu’il est déjà tombé deux fois / dans une guerre, croire à la présence d’espions dans un quartier, à la suite de frappes militaires qui ne touchent pas ce quartier, alors que les frappes sont tirées au hasard).

Dans notre recherche d’information, ces biais favorisent souvent la dissonance cognitive. Il s’agit de la tension que nous éprouvons face à une information qui réfute notre système de croyances, qui peut nous faire inventer des justifications pour résoudre cette tension. Exemple “fumer est dangereux? Oui mais cela m’aide à ne pas grossir“. Le psychologue Leon Festinger est à l’origine des travaux sur ces questions. La dissonance cognitive permet de comprendre la logique conspirationniste. Toute preuve de supercherie renforcera celui qui croit en une théorie complotiste sans preuve, car il l’intégrera à son système de convictions. (“la source que tu me montres doit être celle de quelqu’un qui est payé par le gouvernement”, “tu es un mouton, je suis éveillé”, etc).

3. Épistémologie scientifique et critères de validité

Partir des faits avant d’avoir une théorie. Certains discours sont souvent à rebours de la démarche scientifique, en commettant des erreurs de logique.

  • Parmi les principes qui fondent une démarche de science, on retiendra notamment :
– le rasoir d’Occam : si pour expliquer un phénomène, plusieurs hypothèses s’offrent à nous, on privilégiera la moins coûteuse (qui fait appel à des phénomènes déjà connus ou expliqués). Dans les spectacles d’hypnose, on observe souvent une personne hypnotisée capable de se dresser sur deux tréteaux et témoigner d’une force hors-norme. L’hypothèse la moins coûteuse est de considérer que tout le monde peut le faire, sans besoin d’hypnose (et cela se vérifie).
– la théière de Russell : qui prétend, prouve. C’est à celui qui énonce quelque chose d’extraordinaire de prouver que cela est vrai. Il s’agit d’éviter de croire à quelque chose sous le prétexte que l’on ne peut pas prouver que cela n’existe pas.
– le critère de réfutabilité : une expérience scientifique cherche à démontrer la fausseté d’une hypothèse. Ce qui est posé comme irréfutable n’est pas du ressort de la science. Cette distinction permet de reconnaître aux théories du complot et aux informations pseudo-scientifiques un point commun : leur irréfutabilité. Fonctionnant en “vase clos”, auto-immunes, ces théories n’acceptent pas la contradiction (par exemple, si une médecine pseudo-scientifique n’a pas fonctionné, le thérapeute dira que le patient n’a pas fait comme il fallait) alors que la science est auto-corrective.
 
  • Toutes les preuves en science ne se valent pas

Maîtriser la valeur d’une information scientifique revient à connaître cette hiérarchisation. En haut de cette pyramide on trouvera les méta-analyses (qui combinent les résultats de plusieurs études indépendantes sur un sujet avec un protocole d’expérimentation reproductible). Un témoignage ne peut être pris en tant que tel pour une preuve.

 

 

 

4. Argumentaires fallacieux

Repérer les arguments fallacieux peut être abordé avec les élèves pour leur permettre d’exercer leur pratique du débat, mais aussi relever les arguments (dans les médias, dans la publicité, dans les discours) qui ne constituent pas de preuves en soi. On trouve des exemples d’activités de professeurs-documentalistes en ligne sur ce sujet.

Certains aspects d’argumentation fallacieuse sont récurrents dans les théories du complot en ligne. Le raisonnement panglossien, la généralisation abusive, l’effet Fort ou mille feuilles-argumentatif : dans ce dernier, on empile des arguments parfois faibles, de manière rapide, si bien que cet empilement donne une sensation de véracité en saturant notre capacité de raisonnement.

 

5. Pseudosciences et conduites sectaires

 Le déconfinement de mai 2020 a été suivi d’une lettre du ministère sur les dérives sectaires. Il s’agit notamment de :

  • sensibiliser les élèves aux risques des discours dangereux qui prodiguent de faux
    remèdes et des conseils dangereux en lien avec le COVID-19” – certains youtubeurs se prétendant lanceurs d’alerte ou médecins “libres” diffusent des conseils de santé dont on peut aisément avec des élèves, et d’après des recherches, conclure qu’ils reposent sur des informations mensongères. Ceci est d’autant plus faisable si l’on a travaillé certains biais cognitifs que l’on retrouve dans leurs discours (effet Barnum, ancrage, biais statistiques, détection d’agent) et certains arguments fallacieux (appel à la tradition, appel à la nature, fausse-corrélation, etc). Certains sont toutefois suivis par plus de 500 000 personnes.
  • développer l’esprit critique des élèves pour mieux lutter contre la désinformation, les
    fake news, les rumeurs et les théories complotistes“.  Le professeur-documentaliste peut, sans lui prodiguer ce qui est vrai, ce qui est faux (éviter une posture d’expert prescripteur), développer chez l’élève ces outils critiques. Dans certains cas, il est possible de mettre en place des protocoles simples d’expérimentation (voir les ressources du Cortecs.) ou de réfléchir à nos erreurs cognitives que berçent ces discours.

6.  Esprit critique et recherche web

Les algorithmes et la captation de l’attention en ligne décuplent la manifestation de certains biais. Ce marché cognitif (au sens où les informations scientifiques sont mises en concurrence avec pseudosciences, les croyances, les produits “magiques”, etc) demande une vigilance accrue que nous ne pouvons ignorer. Plusieurs aspects sont à prendre en compte.
 

Les bulles de filtres : elles désignent le filtrage de l’information qui nous parvient et peut nous placer dans une bulle culturelle et intellectuelle. Ce filtrage peut être opéré :

  • indépendamment de ma personnalité : les résultats d’une recherche, sur un sujet scientifiquement controversé, peuvent privilégier des liens non scientifiques. Par exemple : inscrire dans Google “bougies hopi” (une bougie censée nettoyer l’oreille) ne me donnera aucun lien qui indique que ce produit en ligne ne repose sur rien de scientifique / n’est pas du tout un type de bougie utilisé par les indiens hopi…
  • être le fruit d’une personnalisation : la recherche peut alimenter mon biais de confirmation en ne me donnant que les informations qui correspondent à ce que j’attends (par exemple: sélectionner dans Google Actu, les médias qui sont en lien avec mes penchants politiques et éviter toute contradiction). Un confort cognitif (ce qui ne heurte pas mes croyances – ne crée pas de dissonance cognitive) peut être ressenti grâce à ces filtrages. Les algorithmes de recommandation favorisent les contenus à forte dimension affective – donnant des occasions multiples de confirmer ce qu’on croit déjà.  La réactance (réaction émotionnelle aux critiques) est prise en compte (supprimer quelqu’un qui ne va pas dans notre sens).

L’essor de la captologie : un modèle économique entre neurosciences et sciences informatiques, qui s’intéresse à la captation de l’attention en ligne. Si l’objectif des GAFAM était auparavant de nous faire gagner du temps (service for data), aujourd’hui les stimulis regorgent d’inventivité pour nous faire passer notre temps en ligne (service for time). Exemples ? Le scrolling addictif de Twitter ou Facebook, ou la technique des {…} quand quelqu’un nous y écrit en privé. L’attention étant une denrée limitée, Albert Moukheiber, docteur en neurosciences,  pense qu’il faut étudier “comment au lieu d’utiliser ces connaissances en neurosciences sur les limites de l’attention pour persuader les gens, on pourrait faire du design de l’information pour aider la personne à parvenir au résultat qu’elle cherche.” (Captologie, webinaire de la chaîne de zététique “la tronche en biais“).

Les biais de raisonnement inhérents à nos requêtes : l’usage des mots clés,  la sélection des résultats peuvent-être liés à des idées que nous nous faisons déjà avant même de vérifier. Effectuer une recherche sur le coronavirus en inscrivant “covid19   complot” dans sa barre de recherche, orientera forcément la recherche vers certaines théories nauséabondes (biais de confirmation).

Eric Boutin, chercheur en sciences de l’information, indiquait (dans biais cognitifs et recherche d’information sur internet)  que l’internaute “privilégie les premières réponses envoyées par l’outil de recherche en faisant l’hypothèse qu’elles seront représentatives de l’ensemble” (biais de représentativité).

Souvent, lors de sa recherche, “il considère comme confirmatoire une information redondante.” Cette “loi des petits nombres” correspond à l’idée selon laquelle les internautes “exploitent et attribuent une confiance excessive à des conclusions issues de l’exploitation d’informations obtenues à partir d’échantillons non significatifs“. N’avons-nous jamais dit aux élèves de recouper l’info ? Le fait qu’elle soit présente partout donne-t-elle une preuve de véracité ?

7. Scientificité et médias

En science, les médias traditionnels, voire les médias scientifiques ne sont pas dépourvus de fausses informations. Une certaine presse féminine (Marie-Claire, Femme actuelle..) donne une grande place aux pseudo-sciences et médecines alternatives. On se souviendra aussi que le premier reportage de la chaîne d’Arte en 1992 portait sur les pouvoirs surnaturels des pyramides d’Egypte, capables d’aiguiser des lames et de cuire la viande grâce à leurs ondes…
 
 
Quelques exemples de points de vigilance :
  • Le temps des médias n’est pas celui des sciences : la science est un processus lent (vérifier, accumuler des preuves, expérimenter), tandis que le modèle économique des médias actuel favorise souvent l’urgence, la vitesse, la course aux clics des internautes et la duplication (le bâtonnage est une pratique qui vise à dupliquer rapidement, sans regard critique, les dépêches AFP).
  • Se méfier du terme “expert” (argument d’autorité) : certaines chaînes sont spécialistes pour inviter un chercheur controversé sans lui opposer de regard critique. D’autre part, certains habitués des plateaux gonflent un CV qui peut révéler bien des choses. On se souviendra du cas du faux expert en criminologie “depuis 40 ans”, Stéphane Bourgoin.
  • Vérifier le consensus scientifique sur un sujet : souvent les médias peuvent publier la dernière étude en date sur un sujet, donnant l’impression qu’il s’agit de la meilleure car la plus récente (sans attendre de voir le retour d’autres scientifiques sur le sujet).
  • Se méfier de l’effet râteau (ou loi des séries) : tendance à exagérer la régularité du hasard. Exemples :
    1. Si plusieurs malheurs s’enchaînent d’un coup dans notre quotidien, on pense qu’on a la “poisse”. On oublie que les malheurs ne peuvent pas arriver selon des écarts constants entre eux. Le hasard peut créer des impressions de “regroupements”.
    2. Ce biais est souvent diffusé dans la presse (des cas “anormaux” de cancers dans une zone / une “vague” de suicides dans une grande entreprise concentrés sur une courte période).
  • Différencier causalité et corrélation : les graphiques peuvent donner l’impression de liens de causalité entre des phénomènes. En zététique on évoque par exemple, l‘effet “cigogne”. En Alsace, les villes qui ont le plus de cigognes sur les toits ont aussi le plus de bébés. Donc les cigognes apportent les bébés.” (En fait, c’est parce que plus une ville est grosse, plus il y a de bébés. Et comme il y a plus de toits, il y a plus de cigognes”).
  • Les biais statistiques : les statistiques et les chiffres sont deux des principaux soucis dans la présentation d’articles portant sur des études.  Les enseignants de mathématiques ou SES auraient certainement un rôle à jouer sur ces informations chiffrées. Deux exemples :
    1. Le biais de proportionnalité : il s’agit d’une tendance à croire que si l’on observe l’augmentation des manifestations d’un phénomène, c’est qu’il est en hausse. Alors qu’il peut s’agir d’une amélioration des outils d’observation (exemple : on voit plus de cancers aujourd’hui. Certains y voient le lien avec un environnement qui serait moins bon. Mais cela peut être dû au fait que l’imagerie médicale actuelle peut détecter davantage de cancers et que la population vieillit.)
    2. La négligence de la taille de l’échantillon : présent dans les théories complotistes, ce biais attribue un phénomène improbable à une cause alors qu’il est dû au hasard et à la grande taille d’un échantillon. Par exemple, certains ont vu la figure du diable (paréidolie) dans les fumées du 11 septembre 2001. Mais sur toutes les occurrences photographiques, il est facile de percevoir des formes dues au hasard.

Pour D. Kahneman (Système 1 Système 2), “les statistiques produisent beaucoup d’observations qui ne demandent qu’à trouver des explications causales, mais qui ne s’y prêtent pas. Bien des faits dans le monde sont dus au hasard, y compris aux accidents d’échantillonnage.

  • Etre vigilant face aux pourcentages, aux moyennes : certains cachent un faible nombre de sujets d’expérimentation, ce qui laisse de la place au hasard. Certaines formulations ne sont pas convaincantes (dire que le taux d’une maladie a doublé dans une région, si l’on est passé de 1/100000 à 2/100000 est peu probant). Certaines moyennes cachent l’étendue entre des données extrêmes. Il est possible de vérifier si des marges d’erreur sont indiquées dans les publications chiffrées. Enfin, certains pourcentages selon la forme qu’on leur donne, peuvent donner des résultats contradictoires comme dans le paradoxe de Simpson.

 

 

  • Analyser le jargon scientifique  : les informations formulées dans un jargon scientifique sont souvent difficiles à appréhender. L’exemple du canular de l’eau  montre comment on a pu monter des pétitions pour interdire…l’eau ! Dans le même esprit, la composition chimique de l’aliment ci-contre peut effrayer. 

 

Mais il s’agit de la composition chimique…d’une fraise. On oublie souvent que tout est chimique.

 

 

 

8. Des réflexes pour valider l’information de manière “scientifique”

Au-delà des points de vigilance habituels dans la recherche informationnelle, voici d’autres réflexes scientifiques possibles face à une information. Ces points sont inspirés du Détecteur de Distorsion de l’Information de Florian Gouthière, journaliste scientifique).
 
Pour toute information : 
  • Etre vigilant à l’égard d’une information qui conforte nos opinions
  • Bien comprendre le sens des mots employés
  • Observer si l’affirmation est cohérente avec les informations déjà connues sur la question (consensus scientifique)
  • Cette information peut-elle faire l’objet d’une expérimentation ou bien est-ce trop extraordinaire (ce qui doit alerter) ?
  • Vérifier la source des preuves apportées par l’interlocuteur
  • Ne pas se laisser noyer par un argumentaire trop dense (effet Fort)
  • Se demander pourquoi l’interlocuteur parle de ce dont il parle
  • Suspendre son jugement si besoin, en cas de doute
  • Ne pas colporter l’affirmation si elle reste douteuse
  • Sur une question vitale (santé, vie sociale, etc) consulter plusieurs avis (médecins, spécialistes indépendants les uns des autres)
Pour une information scientifique dans les médias :
  • Ne pas s’arrêter au titre
  • Prendre la mesure des sentiments qu’éveille l’information en nous
  • Lire l’article en entier avant de le partager
  • Vérifier la présence d’une signature de l’article journalistique
  • S’assurer de la compréhension du sens des mots
  • Repérer l’usage du conditionnel
  • Se demander quel est l’état du consensus scientifique sur cette question
  • Se demander si l’on peut confronter cette affirmation à la réalité (par l’expérimentation)
  • Observer la nature des preuves (études de cas, témoignages, expertise isolée ?)
  • Dans le cas du doute : ajouter des mots clés pour vérifier l’info (canular, hoax, critique, rumeur)
  • Rechercher quel média a diffusé cette information en premier, si l’article ou le reportage traite d’une actualité
  • Etre très vigilant face à des pourcentages
  • Vérifier l’accessibilité des données énoncées (liens)
  • Se poser la question du sérieux de la revue qui publie l’étude énoncée dans l’information
  • Cerner  la taille du groupe étudié (est-ce extrapolé à une vaste population ?)
  • Observer si la démarche des chercheurs et les méthodes sont détaillées par l’auteur
  • Chercher qui a financé l’étude

____________________________________________________

Ressources pédagogiques

5 activités conçues pour de déconfinement en juin 2020.
 
1. Une épidémie de fausses-infos !
2. Mon cerveau me trompe-t-il face à l’info? Illusions, biais, …
3. Des faits extraordinaires ou paranormaux réclament des preuves extraordinaires.
4. Savoir déjouer les mauvais arguments dans les discussions et les sources d’infos !
5. Savoir “disséquer” une théorie du complot !
 

Ateliers clé en main : exemples

“Médias et esprit critique”, maths et esprit critique,

Atelier Esprit critique au collège : repérer les arguments fallacieux,

Parler d’énergie en cours de physique-chimie,

Chimique, naturel, artificiel, synthétique : comment s’y retrouver ?,

Atelier zététique et esprit critique au lycée.

Quelques ressources pour former nos élèves à la zététique et à l’esprit critique. PDF (cette enseignante propose une liste exhaustive des ressources sur la zététique, l’esprit critique et la démarche scientifique, parmi lesquelles le chat sceptique, la Tronche en biais, Hygiène mentale, le pharmachien, etc).
Ce manuel d’Enseignement scientifique en classe de Terminale  propose des éléments sur la démarche scientifique et la pensée critique. Très utile !

  • penser la science” (p. 16-27),
  • des remises en perspective (radioactivité naturelle,  notion de risque et de danger, etc),
  • des fiches outils sur le tri de l’information et les arguments fallacieux (p.282-284),
  • des éléments de zététique.

 

La statistique expliquée à mon chat, par le créateur de la chaîne “le chat sceptique”. Des vidéos attrayantes pour comprendre les erreurs de logique dans les données chiffrées.
 
 

Ressources scientifiques.

  • DURAND, Thomas c. Quand est-ce qu’on biaise? Ed. Humensciences. 2019
  • DURAND, Thomas c. L’ironie de l’évolution. Ed. Le Seuil. 2018
  • GOUTHIERE, Florian. Doit-on tout gober ? Ed. Belin. 2019
  • BRUNNER Gérald. La démocratie des crédules. Ed. Odile Jacob. 2013
  • BROCH, Henry. Au coeur de l’extra-ordinaire. Ed. book-e-book. 2005
  • BROCH, Henry. Comment déjouer les pièges de l’information ou les règles d’or de la zététique. Ed. Book-e-book. 2008
  • MONVOISIN, Richard. Cours de zététique et autodéfense intellectuelle 2016-2017. Université de Grenoble.
  • LOFTUS, Elisabeth. How reliable is your memory. TedGlobal, 2013.
  • BAILLARGEON, Normand. Petit cours d’autodéfense intellectuelle. Lux Éditions. 2006.
  • MOUKHEIBER, Albert. Votre cerveau vous joue des tours. Allary Ed., 2019.
  • FEYTIT, Elisabeth. Meta de choc. chaîne de Podcast
  • MACKNICK, Stephen. MARTINEZ-CONDE, Susana. BLAKESLEE, Sandra. Ceci n’est pas un lapin. Ed. Belin. 2016
  • FESTINGER, Leon. A theory of cognitive dissonance. Stanford University Press. 1957.
  • HOUDE, Olivier. L’intelligence humaine n’est pas un algorithme. Ed. Odile Jacob. 2019
  • ROSLING, Hans. Factfullness. Ed. Flammarion. 2019
Valider l’information, à la lumière des neurosciences et de la démarche scientifique

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *