Home
Le Psi existe-t-il ? Expériences reproductibles indiquant des processus anormaux de transfert d’information

Le Psi existe-t-il ? Expériences reproductibles indiquant des processus anormaux de transfert d’information

Daryl J. Bem et Charles Honorton

« Does psi exist ? » fut publié dans le Psychological Bulletin en 1994. Il a été co-écrit par Charles Honorton, l’un des pionniers de la recherche en parapsychologie, et Daryl J. Bem, professeur de psychologie à l’Université de Cornell. Ces deux chercheurs y exposent les résultats obtenus avec le protocole le plus utilisé en parapsychologie jusqu’en 1994 : le Ganzfeld. Depuis, le nombre d’expériences de Ganzfeld effectuées a encore augmenté (plus d’une centaine ont été réalisées). Vous trouverez à la suite de cet article quelques liens vers d’autres publications sur le sujet, notamment celle d’Etzel Cardena de mai 2018.


Résumé

La plupart des psychologues ne reconnaissent pas encore la réalité du « psi », c’est à dire les transfert d’informations ou d’énergie (comme la télépathie ou d’autres formes de perceptions extra-sensorielles) qui ne sont pas expliqués actuellement par des lois physiques ou par des processus biologiques connus. Nous pensons que les résultats et les effets mesurés lors d’un protocole expérimental spécifique, le « ganzfeld », sont à présent suffisamment convaincants pour être portés à l’attention de l’ensemble de la communauté psychologique. Des méta-analyses des résultats du ganzfeld ont été effectuées, l’une par Ray Hyman (1985), observateur sceptique à propos des recherches sur les phénomènes psi et l’autre par Charles Honorton (1985), parapsychologue ayant contribué de façon majeure aux expériences de ganzfeld. Puis, nous proposons dans cet article un résumé des résultats de 11 nouvelles recherches ganzfeld qui se conforment aux indications rédigées conjointement par R.Hyman et C.Honorton (1986). Enfin, nous aborderons le problème de la reproductibilité et des explications théoriques de ces phénomènes.

Le terme « psi » désigne un processus anormal de transfert d’information ou d’énergie, processus comme la télépathie ou d’autres formes de perceptions extra-sensorielles qui demeurent à l’heure actuelle inexpliquées sur les plans physiques et biologiques. Ce terme est purement descriptif : il n’implique nullement que de tels phénomènes soient paranormaux et n’a pas de connotations sur l’explication de leurs processus.

Le psi existe-t-il ? La plupart des psychologues universitaires pensent que non. Un sondage montre que plus de 1100 professeurs d’université aux Etats-Unis, dont 55% en sciences naturelles, 66% en sciences sociales (sauf en psychologie) et 77% des universitaires en Lettres, Sciences Humaines et Sciences de l’éducation se représentent le psi comme un fait établi ou étant vraisemblablement possible. En comparaison, seulement 34% des psychologues sont du même avis. De plus, ils sont aussi nombreux à déclarer que les phénomènes « psi » sont impossibles, point de vue exprimé par seulement 2% de toutes les autres personnes sondées. (Wagner et Monnet, 1979)

En tant que psychologues, nous sommes probablement bien plus sceptiques en la matière que l’ensemble de la population et ceci pour plusieurs raisons. Premièrement, nous estimons que les affirmations extraordinaires exigent des preuves extraordinaires. Et, bien que nos collègues dans d’autres disciplines puissent être d’accord avec ce dicton, nous sommes particulièrement attentifs aux exigences méthodologiques et statistiques afin de prouver de telles choses, car de précédentes allégations n’ont pas survécu à nos exigences ni satisfait aux essais de reproduction. Même pour des assertions ordinaires, nos critères statistiques standards sont prudents. Le sacro-saint p=0.05 nous rappelle constamment qu’il est bien plus problématique d’affirmer qu’un effet existe alors qu’il n’existe pas (l’erreur de type 1) que d’affirmer qu’un effet n’existe pas alors qu’il existe vraiment (erreur de type 2).

Deuxièmement, la plupart des psychologues distinguent les phénomènes dont les explications demeurent peu claires ou controversées (par exemple l’hypnose) des phénomènes comme le « psi » qui semblent échapper à nos cadres théoriques (certains verront cela comme la différence existant entre l’inexpliqué et l’inexplicable). A l’inverse, les personnes sans formation en psychologie tendent à traiter sur le même plan épistémologique tous les phénomènes psychologiques un tant soit peu exotiques ; beaucoup considèrent par exemple le « déjà-vu » comme un phénomène psi. Le manque de clarté au niveau de cette distinction est amplifié par les médias, les livres « new-age », les programmes de développement personnel ainsi que les « voyants » qui proposent à la fois hypnose authentique et pseudo « télépathie ». Ainsi une part du public n’aurait pas à revoir sa conception de la réalité aussi radicalement que nous pour assimiler l’existence du psi. Pour nous, psychologues, l’existence du « psi » paraît encore plus extraordinaire.

Enfin, les recherches en psychologie sociale et cognitive nous ont rendus particulièrement attentifs vis-à-vis des biais qui entachent fréquemment les tentatives visant à tirer des conclusions à partir de données issues d’expériences quotidiennes. (Gilovich, 1991 ; Nisbett et Ross, 1980, Tversky et Kahneman, 1971). Cela nous amène à ne donner pratiquement aucune crédibilité aux témoignages de phénomènes psi ou aux articles de journaux, principale source citée par nos collègues d’autres disciplines comme élément en faveur de leur croyance au psi (Wagner et Monnet, 1979).

Pourtant, paradoxalement, les psychologues ne connaissent guère mieux que le public les récentes recherches expérimentales sur les phénomènes psi. Comme l’essentiel de la recherche en psychologie, la recherche en parapsychologie n’est publiée que dans des revues spécialisées ; cependant, contrairement aux recherches en psychologie, il n’est pas fait mention de ces travaux dans les manuels, les ouvrages ni dans les principales revues de psychologie. Par exemple, un seul manuel d’introduction en psychologie sur les 64 récemment répertoriés mentionne le ganzfeld, alors que ce protocole est largement utilisé depuis le début des années 1970 (Roig, Icochea, Cuzzucoli, 1991). En outre, d’autres sources destinées aux non-spécialistes fournissent des informations souvent inexactes au sujet des recherches en parapsychologie (à ce sujet, voir Child, 1985 et Palmer, Honorton et Utts, 1989).

Cette situation est peut-être en train de changer. Des discussions sur la recherche psi moderne ont récemment été abordées dans un manuel d’introduction très courant (Atkinson, Smith & Bem, 1990, 1993), dans deux journaux « mainstream » de psychologie (Child, 1985, Rao et Palmer, 1987) ainsi que dans un livre universitaire néanmoins accessible aux non spécialistes (Brouhgton, 1991). Le but du présent article est d’appuyer cette extension des publications en proposant une présentation plus détaillée, notamment sur le plan des méta-analyses, des résultats issus d’une méthode unique d’expérimentation : la procédure ganzfeld. Nous pensons que le taux de reproductibilité et les tailles d’effets mesurés à l’aide de cette procédure expérimentale sont à présent suffisants pour être portés à l’attention de l’ensemble de la communauté des psychologues.

Le protocole ganzfeld

Dans les années 1960, un certain nombre de parapsychologues n’étaient plus satisfaits des méthodes standard de tests ESP instaurées par JB Rhine, à l’Université de Duke, dans les années 1930. Ils pensaient en particulier que la répétition de protocoles à choix forcés, dans lesquels un sujet tente de façon répétée de sélectionner le symbole « cible » correct parmi plusieurs autres, ne permettait pas de mettre en oeuvre les conditions qui caractérisent les expériences psi de la vie quotidienne.

Historiquement, le psi a souvent été associé à la méditation, à l’hypnose, aux rêves, et à d’autres états de conscience modifiés, spontanés ou provoqués. Par exemple, l’idée que les phénomènes psi puissent se produire durant la méditation est fréquente dans la plupart des textes classiques portant sur les techniques de méditation. La croyance en l’hypnose comme état pouvant induire des expériences psi est également présente dès ses origines (Dingwall, 1968) ; et des études transculturelles indiquent que la plupart des expériences psi spontanées sont rapportées comme s’étant produites lors de rêves (Green, 1960 ; Prasad et Stevenson, 1968 ; L.E. Rhine, 1962, Sannwald, 1959).

Il existe aujourd’hui des travaux expérimentaux qui corroborent ces observations. Par exemple, plusieurs chercheurs travaillant en laboratoire rapportent que la méditation facilite les phénomènes psi (Honorton, 1977). Une méta-analyse de 25 expériences menées sur l’hypnose et le psi, entre 1945 et 1981, dans dix laboratoires différents, suggère que l’induction hypnotique peut aussi faciliter les perceptions psi (Schechter, 1984). De plus, le psi lors d’états oniriques a été étudié au cours d’une série d’expériences menées au Centre Médical Maimonides de New York et publiées entre 1966 et 1977 (Child, 1985 ; Ullman, Krippner et Vaughan, 1973).

Lors des recherches sur les rêves au Centre Médical Maimonides, deux sujets – un « percipient » (receiver) et un « agent »(sender) – passaient la nuit dans un laboratoire du sommeil. Les ondes cérébrales du percipient et ses mouvements oculaires étaient enregistrés lors de son sommeil, alors qu’il se trouvait dans une pièce isolée. Quand le percipient entrait en phase de sommeil paradoxal, l’expérimentateur pressait un bouton signalant à l’agent, situé dans une autre pièce, avec un autre expérimentateur, que la session commençait. L’agent se concentrait alors sur une image choisie au hasard (la cible) avec l’objectif d’influencer le contenu des rêves du percipient.

Vers la fin de la phase de sommeil paradoxal, le percipient était réveillé. On lui demandait alors de décrire ses rêves. Cette procédure était répétée la nuit durant avec la même cible. La transcription des rêves du percipient était ensuite transmise à des juges extérieurs qui devaient noter à l’aveugle les similarités entre les rêves et les différentes images, l’une d’entre elle étant la « cible ».
Dans certaines recherches, c’étaient les percipients eux-mêmes qui faisaient office de juges. Lors des différentes reproductions de cette procédure, les transcriptions des rêves des percipients ont été jugés comme davantage similaires, et ce de façon significative, aux images « cibles » (que les agents devaient « transmettre » aux percipients) qu’aux autres images de l’ensemble (les leurres). (Les difficultés de reproduction de ces résultats ont également été analysées par Child, en 1985)

Ces différentes recherches ont inspiré un modèle opérationnel des processus psi dans lequel des informations sont échangées sous forme d’un signal faible, habituellement masqué par un « bruit » provenant des perceptions sensorielles et somatiques.
On suppose que les divers états favorisant le psi, en réduisant les stimulations sensorielles externes, élèvent le ratio Signal/Bruit, augmentant ainsi la capacité d’une personne à détecter des informations induites par le psi (Honorton, 1969, 1977). Pour tester l’hypothèse que la réduction des stimuli sensoriels facilite le psi, des chercheurs ont développé la procédure ganzfeld (Braud, Wood, Braud, 1975 ; Honorton et Harper, 1974, Parker, 1975) qui fut introduite à l’origine en psychologie expérimentale, durant les années 30, afin de tester des propositions issues de la Gestalt Théorie (Avant, 1965, Metzger, 1930)

Tout comme les recherches sur les rêves télépathiques, le protocole ganzfeld a le plus souvent été utilisé pour tester la communication télépathique entre un percipient et un agent. Le percipient est installé dans un siège confortable situé dans une pièce isolée acoustiquement. Des moitiés de balles de ping-pong translucides sont placées sur ses yeux, tandis qu’il porte un casque sur ses oreilles. Une lampe émet un léger champ lumineux de couleur rouge dans la pièce, de façon à produire pour le percipient un champ visuel indifférencié. Un bruit blanc est diffusé dans le casque audio pour obtenir un environnement auditif constant. C’est ce champ uniforme de perception, ainsi créé, qu’on appelle « ganzfeld ». Pour réduire le « bruit » interne du corps, le percipient se soumet également à une série d’exercices de relaxation au début de la séance de ganzfeld.

L’agent est situé dans une autre pièce acoustiquement isolée, et un stimulus sensoriel (une image, une photo ou une brève séquence vidéo) est sélectionné au hasard, parmi un large éventail de choix, afin de servir de cible pour l’expérience. Pendant que l’agent se concentre sur la cible, le percipient rapporte verbalement ce qu’il perçoit mentalement tout le long de la session de ganzfeld, pendant environ 30 minutes. Lorsque la session est terminée, on présente au percipient plusieurs cibles (généralement quatre) et, sans savoir quelle est la bonne, il doit évaluer le degré de similarité de chaque cible avec ce qu’il a perçu durant le ganzfeld. S’il retrouve la bonne cible, celle sur laquelle l’agent s’est concentré, la session est un succès. Si l’expérience utilise 4 cibles potentielles (la bonne cible et 3 leurres), le taux de réussite dû au hasard est de 25%.

Les taux de succès peuvent également être analysées de manières différentes. Par exemple, ils peuvent être convertis en rangs de classement ou scores standardisés pour chaque essai et analysés paramétriquement pour l’ensemble des sessions. Et, de la même façon que pour les recherches sur les rêves télépathiques, le taux de similarité entre la description du percipient et la cible peut être évalué par des juges extérieurs qui utilisent des transcriptions écrites des verbalisations du percipient.

Méta-analyses de la base de données ganzfeld

En 1985 et 1986, le Journal of Parapsychology a dédié deux numéros entiers à l’examen critique de la base de données provenant des expériences ganzfeld. Le numéro de 1985 comprenait deux contributions: (a) une méta-analyse et une critique de Ray Hyman, psychologue cognitiviste sceptique à propos de la recherche parapsychologique et (b) en réponse une méta-analyse effectuée par Charles Honorton (1985), parapsychologue qui fut l’un des principaux chercheurs à avoir mis en place le ganzfeld. L’article de 1986 contenait quatre commentaires portant sur l’échange Hyman-Honorton, un communiqué co-signé d’Hyman et Honorton et six commentaires additionnels sur ce communiqué en question. Nous résumons ici les points majeurs et les conclusions tirés de ces échanges.

Taux de reproduction

Taux par études.

La méta-analyse d’Hyman portait sur 42 études ganzfeld, provenant de 34 publications allant de 1974 jusqu’à 1981 inclus. L’un des premiers problèmes qu’il rencontra lors de l’étude de la base de données des expériences ganzfeld fut la multiplicité des analyses. Comme nous l’avons indiqué précédemment, il est possible de calculer de façons différentes les performances psi lors d’une expérience de type ganzfeld et, de plus, il est possible d’étudier ces résultats selon de multiples traitements statistiques. De nombreux chercheurs ont utilisé plusieurs grilles d’évaluations ou ont appliqué des tests statistiques différents sans ajuster les critères de significativité au nombre d’analyses effectuées. Pire, certains chercheurs ont même recherché parmi les différentes possibilités d’analyses jusqu’à en trouver une qui mène à un résultat significatif. Honorton était d’accord pour dire qu’il s’agissait là d’un réel problème.

En conséquence, Honorton appliqua un test homogène à partir d’une grille d’analyse identique sur toutes les études, afin d’en extraire des données pertinentes, et sans se soucier de la façon dont les chercheurs avaient analysé les données dans leurs rapports d’origine. Il sélectionna la proportion de succès en tant qu’index commun car elle pouvait être calculée sur le plus grand nombre d’études (28 études sur 42). Ce taux de réussite est également un indice minimal car il met de côté la plupart des autres informations évaluées ; la bonne cible classée en deuxième position, un essai « presque réussi », n’est ainsi pas mieux noté qu’un essai manqué. Honorton calcula ensuite la probabilité binomiale exacte et l’associa au score z pour chacune des études.

Sur les 28 études, 23 (soit 82%) ont obtenu des score z positifs (p=4.6 x 10E-4, test de loi binomiale avec p=q=.5). Douze des études (soit 43%) eurent des scores significatifs de façon indépendante, avec un seuil de significativité à 5% (p=3.5 x 10E-9, test binomial avec 28 études, p=.05 et q=.95) et 7 des études menées (soit 25%) eurent des scores significatifs de façon indépendante avec un seuil à 1% (p=9,8 x E-9). Le Stouffer-z fut de 6.60 sur les 28 études (p=2.1 x 10E-11)[[Le Stouffer-z est calculé en divisant la somme des scores z pour les études individuelles par la racine carrée du nombre d’études (Rosenthal, 1978).]]

(note: Le Stouffer-z est obtenu en divisant la somme des scores z pour les études individuelles par la racine carrée du nombre d’études (Rosenthal, 1978))

Une estimation plus prudente de la significativité peut être obtenue en incluant 10 études supplémentaires qui ont aussi utilisé la procédure adéquate de jugement mais qui n’indiquent pas le taux de succès. Si on assigne à ces études un score z moyen nul, le Stouffer-z est de 5.67 (p=7.3 x E-9) sur les 38 études.

Ainsi, que l’on considère uniquement les études pour lesquelles les informations nécessaires à l’évaluation sont disponibles, ou que l’on estime comme conformes au hasard les résultats des études additionnelles pour lesquelles ces informations ne sont pas disponibles, les résultats rassemblés ne peuvent pas raisonnablement être attribués au hasard. Et, par conception, le résultat cumulatif rapporté ne peut pas être attribué au gonflement des niveaux de signification par des analyses multiples.

Les taux par laboratoires :

L’une des objections quant aux estimations telles que celles que nous venons de décrire est que les études en provenance d’un même laboratoire ne sont pas indépendantes les unes des autres.

Ainsi, il est possible pour un ou deux chercheurs d’être disproportionnellement responsables d’un fort taux de reproduction des résultats alors que d’autres chercheurs, indépendants de ceux-là, sont incapables d’obtenir le même effet. Effectivement, la base de données ganzfeld pourrait être soumise à cette critique. Les 28 études indiquant le taux de succès ont été conduites par des chercheurs provenant de dix laboratoires différents. Un laboratoire a contribué 9 de ces études, le laboratoire de Honorton en a fourni 5, 2 autres laboratoires en ont fourni 3 chacun, 2 ont contribué à 2 chacun, et les 4 labos restants ont chacun fourni 1 étude. Ainsi, la moitié des études ont été conduites par seulement deux laboratoires, dont l’un était celui de Honorton.

En fonction de tout cela, Honorton a calculé pour chaque laboratoire un score Stouffer-z. Des résultats significatifs et positifs ont été signalés par 6 des 10 labos, et les score z combinés sur l’ensemble des labos a été de 6.16 (p= 3.6 x E-10). Même si toutes les études conduites par deux des laboratoires les plus prolifiques sont écartées de l’analyse, le Stouffer-z de l’ensemble des 8 labos reste significatif (z=3.67, p)1.2 x E-4). Quatre de ces études sont significatives à 1% (p=9.2 x E-6, test binaire avec 14 études, p=0.01 et q=0.99) et chacune a été fournie par un laboratoire différent. Ainsi, même si le nombre total de laboratoires dans cette base de données est petit, la plupart de ces laboratoires ont publié des études significatives, et la pertinence de l’ensemble de l’effet obtenu ne dépend pas d’un ou deux laboratoires seulement.

La sélection des publications

Ces dernières années, les chercheurs en sciences du comportement sont devenus davantage conscients du problème dit de « l’effet tiroir » : c’est à dire le fait que les études menées avec succès et ayant des résultats significatifs ont de fortes chances d’être publiées, alors que les recherches ne donnant pas lieu à des résultats probants sont plus aptes à être laissées dans les tiroirs de quelques chercheurs déçus (Bozart & Roberts, 1972 ; Sterling, 1959).

Les parapsychologues ont été parmi les premiers à être sensibilisés à ce problème et, en 1975, le Conseil de la Parapsychological Association (PAC) a adopté une politique s’opposant à la sélection des publications de recherches en fonction de leurs résultats. En conséquence, les résultats négatifs ont systématiquement été rapportés lors des congrès de la PA et dans les publications associées à celle-ci, et cela depuis environ deux décennies.

Comme nous l’avons montré précédemment, plus de la moitié des études ganzfeld comprises dans les méta-analyses ont fourni des résultats dont l’indice p de signification tombe bien au-dessous du niveau conventionnel de 0.05.
Une variante du problème de sélection des rapports ressort de ce que Hyman appelle « l’étude rétrospective » (1985). Un chercheur conduit un petit nombre d’essais exploratoires. S’ils fournissent des résultats nuls, ils restent vus comme des essais d’exploration et ne font jamais partie de la version officielle de l’étude. En revanche, s’ils fournissent des résultats positifs, ils sont définis a posteriori en tant qu’étude réelle et sont soumis à publication. Pour corroborer cette hypothèse, Hyman a remarqué qu’il y avait plus d’études significatives de moins de 20 essais dans la base de données que l’on aurait pu s’y attendre, selon l’assertion que, toutes choses étant égales par ailleurs, la signification statistique augmente avec la taille de l’échantillon. Bien que Honorton ait remis en question cette affirmation que « toutes choses étaient égales par ailleurs » et était en désaccord avec l’analyse statistique d’Hyman, il a admis le fait qu’il y avait une apparente sur-représentation des études significatives de moins de 20 essais. (Sur la totalité de la base de données ganzfeld, soit 42 études, 8 comportaient moins de 20 essais, et 6 d’entre elles ont donné des résultats statistiques significatifs).
Parce qu’il est impossible, par définition, de savoir combien d’études inconnues (exploratoires ou autres) restent au fond des tiroirs, l’outil principal d’estimation de la gravité des problèmes de sélection de rapports est maintenant constitué d’une variante des statistiques de Rosenthal : il s’agit d’estimer combien d’études non-rapportées, avec un score-Z de 0, seraient nécessaires pour annuler le score-Z cumulatif d’études publiées (Rosenthal, 1979). Pour annuler le resultat cumulatif des 28 études ganzfeld, utilisant la mesure de réussite-directe, on estime que le nombre d’études non rapportées serait de 423, une proportion énorme de 15 contre 1. Quand on sait que conduire une seule session ganzfeld prend plus d’une heure, il n’est pas surprenant qu’en dépit de son souci concernant l’étude rétrospective, Hyman s’accorda avec Honorton – et avec d’autres collaborateurs du débat publié – à conclure que le biais des rapports sélectifs ne pouvait rendre compte de façon plausible de la significativité globale de l’ensemble des études ganzfeld (Hyman & Honorton, 1986). [[Un sondage auprès des parapsychologues_en 1980 a révélé seulement 19 études ganzfeld terminées mais non publiées. Sept d’entre elles avaient des résultats positifs significatifs, une proportion (37%) très similaire à la proportion des autres études significatives de la méta-analyse (43%) (Blackmore, 1980).]]

Défauts méthodologiques

Si la critique la plus fréquente concernant la parapsychologie est le fait qu’il n’existe pas d’effet psi reproductible, la seconde critique la plus habituelle est que de nombreuses expériences parapsychologiques, sinon la plupart, ont des contrôles et des garanties de protocole insuffisantes.

Une accusation fréquente est que les résultats positifs sont issus principalement des premières études faiblement contrôlées et qu’ils disparaissent dès que de meilleurs contrôles et des garanties suffisantes sont introduits. Heureusement, la méta-analyse permet d’évaluer concrètement dans quelle mesure les défauts méthodologiques peuvent avoir contribué artificiellement à des résultats positifs dans une série d’études. Tout d’abord, des cotes sont attribuées à chaque étude qui indiquent à quel degré chaque défaut méthodologique particulier est présent ou non ; ces cotations sont ensuite corrélées avec les résultats des études. Des corrélations grandement positives constituent la preuve que l’effet observé puisse être artefactuel. En recherche psi, les défauts les plus cruciaux sont ceux qui pourraient permettre au sujet d’obtenir l’information cible d’une manière sensorielle normale, que ce soit par inadvertance ou en trichant délibérément. C’est ce que l’on appelle le problème de fuite sensorielle. Un autre défaut potentiellement grave est celui de « randomisation » : que la sélection de la cible n’a pas été basée sur un processus suffisamment aléatoire.

Fuite sensorielle

Comme le ganzfeld est en lui-même une procédure d’isolation perceptive, on va très loin pour éliminer toutes fuites sensorielles potentielles durant la partie ganzfeld de la séance. Il y a, cependant, des canaux potentiels de fuite sensorielle après la période de ganzfeld. Par exemple, si l’expérimentateur qui interagit avec le receveur connaît l’identité de la cible, il ou elle pourrait biaiser les appréciations de similarité du percipient dans le sens d’une identification correcte de la cible. Une seule étude de la base de données présente ce défaut, une étude dans laquelle les sujets ont en fait obtenu une performance légèrement inférieure à celle due au hasard. Deuxièmement, si le stimulus que le receveur doit juger est la cible physique que l’émetteur avait dans les mains durant la période de transmission, il pourrait y avoir des signaux (par exemple, des traces de doigt, des tâches ou des différences de température) qui pourraient distinguer la cible des leurres. De plus, le procédé de transfert du matériel – stimulus dans la pièce du receveur ouvre en lui-même d’autres canaux potentiels de fuite sensorielle. Bien que les études de ganzfeld contemporaines aient éliminé ces deux possibilités en utilisant des séries de stimulus dupliquées, ce n’est pas le cas de certaines études antérieures.

Des analyses indépendantes menées par Hyman et Honorton ont convenu qu’il n’y a pas de corrélation entre l’insuffisance de sécurité par rapport à la fuite sensorielle et le résultat de l’étude. Honorton a d’ailleurs rapporté que même si les études qui n’utilisaient pas de séries de stimulus dupliquées étaient écartées de l’analyse, les études restantes sont encore hautement significatives (Stouffer-z = 4.35, p = 6.8xE-6)

Randomisation

Dans beaucoup d’expériences psi, le problème de randomisation de la cible est des plus importants, car si les séquences de cibles ne sont pas réellement aléatoires, alors des patterns systématiques pourraient être détectées par les sujets durant la session ou pourraient concorder avec les biais de réponse préexistants des sujets. Dans une étude ganzfeld, toutefois, la randomisation est un problème beaucoup moins critique car une seule cible est choisie pendant la session et la plupart des sujets ne participent qu’à une seule session. Mais l’essentiel est que tous les stimuli dans chaque groupe de jugement soient répartis aléatoirement sur l’ensemble du déroulement de l’étude. Des considérations semblables affectent la seconde randomisation qui a lieu après la séance ganzfeld et détermine l’ordre dans lequel la cible et les leurres sont présentés au percipient (ou au juge externe) pour évaluation.

Néanmoins, Hyman et Honorton ne sont pas d’accord sur ces résultats. Hyman a affirmé qu’il y a corrélation entre les défauts de randomisation et les résultats de l’étude ; Honorton a affirmé qu’il n’y en a pas. La source de ce désaccord provient :

des définitions contradictoires des catégories de défauts méthodologiques,

du codage et de l’attribution des cotations des défauts pour les études individuelles,

et du traitement statistique à partir de ces cotations.
Malheureusement, il n’y a pas eu de cotations des défauts par des évaluateurs indépendants qui n’étaient pas au courant des résultats des études (Morris, 1991). Néanmoins, aucun de ceux qui ont contribué au débat qui s’en est suivi n’ont partagé la conclusion d’Hyman alors que quatre non parapsychologues – deux statisticiens et deux psychologues – ont explicitement partagé la conclusion d’Honorton (Harris & Rosenthal, 1988b ; Saunders, 1985 ; Utts, 1991a). Par exemple, Harris et Rosenthal (un des pionniers de l’utilisation de la méta-analyse en psychologie) ont utilisé les propres cotations de défauts d’Hyman et n’ont pas trouvé de relation significative entre les défauts de randomisation et les résultats de l’étude dans chacune des deux analyses distinctes : « Notre analyse des effets des défauts de randomisation sur les résultats des études ne corrobore pas l’hypothèse que les résultats de la recherche ganzfeld seraient liés significativement á une série de défauts. » (1988b, p 3 ; pour un échange plus récent concernant l’analyse d’Hyman, voir Hyman, 1991 ; Utts, 1991a, 1991b)

Taille d’effet

Certaines critiques de la parapsychologie ont avancé que même si les effets psi produits actuellement en laboratoire s’avéraient être reproductibles et non artefactuels, ils sont trop petits pour être d’un quelconque intérêt théorique ou d’un importance pratique. Nous ne pensons pas que ce soit le cas pour l’effet psi ganzfeld. Dans les études de psi ganzfeld, le taux de réussite lui-même fournit une mesure descriptive manifeste de la taille d’effet mais cette mesure ne peut pas être comparée directement à travers les études car elles n’utilisent pas toutes une série d’évaluation à quatre stimuli et, par conséquent, n’ont pas toutes un seuil de hasard de 0.25. L’autre indice possible le plus évident, la différence dans chaque étude entre le taux de réussite observé et le taux de réussite attendu pour une hypothèse nulle, donne aussi une bonne idée mais n’est pas adapté à l’analyse statistique car toutes les différences entre des proportions égales ne sont pas détectables de façon équivalente (par ex, la puissance pour percevoir la différence entre .55 et .25 est différente de la puissance pour percevoir la différence entre .50 et .20). Pour fournir une échelle de détectabilité d’équivalence, Cohen (1988) a conçu l’indice de taille d’effet h qui implique une transformation arcsinus sur les proportions avant le calcul de leur différence. Le h de Cohen est assez général et peut évaluer la différence entre deux proportions tirées d’échantillons indépendants ou la différence entre une seule proportion et n’importe quelle valeur hypothétique spécifiée. Pour les 28 études examinées dans la méta-analyse, h était de .28 avec un intervalle de confiance de 95 % de .11 à .45. Mais parce que les valeurs de h ne fournissent pas une échelle descriptive intuitive, Rosenthal et Rubin (1989 ; Rosenthal, 1991) ont suggéré récemment un nouvel indice, pi, qui s’applique spécifiquement à des données à échantillon unique et choix multiple, du genre de celles obtenues par les expériences ganzfeld. En particulier, pi exprime tous les taux de succès comme la proportion de succès qui aurait été obtenue si il y avait seulement eu deux alternatives équivalentes – comme un pile ou face. Donc, pi varie de 0 à 1 avec .5 attendu sous l’hypothèse nulle. La formule est

Bem_Honorton_-_formule.jpg
où P est la proportion brute de réussites et k le nombre de choix alternatifs disponibles. Comme pi a une valeur intuitive évidente, nous l’utilisons (ou sa re-conversion en un taux de réussite équivalent à quatre alternatives) dans cet article à chaque fois qu’il est applicable.

Pour les 28 études examinées en méta-analyses, la valeur moyenne de pi était .62 avec un intervalle de confiance de 95 % de .55 à .69. Cela correspond à un taux de réussite à quatre alternatives de 35 % avec un intervalle de confiance à 95 % de 28 % à 43 %.

Cohen (1988, 1992) a aussi catégorisé les tailles d’effet en petite, moyenne et grande, où moyenne dénote une taille d’effet qui devrait être visible à l’œil nu pour un observateur attentif. Pour une statistique telle que pi qui indexe la déviation par rapport à une proportion de .5, Cohen considères que .65 est une taille d’effet moyenne : un observateur sans outils statistiques devrait être capable de détecter le biais d’une pièce qui tombe sur face dans 65 % des essais. Donc, à .62 la taille d’effet du psi ganzfeld tombe juste en dessous du critère de visibilité à l’œil nu de Cohen. « Dans la phénoménologie de l’expérimentateur ganzfeld, le taux de réussite correspondant à 35 % signifie qu’il ou elle verra un sujet réussir environ toutes les trois sessions plutôt que toutes les quatre ».

Il est également instructif de comparer l’effet psi ganzfeld avec les résultats d’une étude médicale récente qui cherchait à déterminer si l’aspirine peut prévenir les crises cardiaques (Steering Committee of the Physicians’ Health Study Research Group, 1988). L’étude fut interrompue après 6 ans car il était déjà clair que l’aspirine était efficace (p<.00001) et il fut considéré comme non éthique de garder le groupe contrôle sous placebo. L’étude a été largement médiatisée en tant qu’avancée médicale majeure. Mais malgré sa réalité incontestable et son importance pratique, la taille de l’effet de l’aspirine est assez petite : prendre de l’aspirine réduit la probabilité d’avoir une crise cardiaque de seulement .008. La taille d’effet correspondante (h) est .068, environ un tiers à un quart de la taille d’effet du psi ganzfeld (Atkinson et al, 1993, p. 236 ; Utts, 1991b).

En somme, nous croyons que l’effet psi ganzfeld est assez grand pour être à la fois d’un intérêt théorique et d’une importance pratique potentielle.

Corrélations expérimentales de l’effet psi ganzfeld

Nous avons montré plus haut que la technique de corrélation des variables avec les tailles d’effet dans l’ensemble des études peut aider à évaluer si des défauts méthodologiques peuvent avoir produit des résultats positifs artefactuels. La même technique peut être utilisée plus affirmativement pour explorer si un effet varie systématiquement avec des variations relatives à la conception de la procédure expérimentale. La découverte de telles corrélations peut aider à établir l’authenticité d’un effet, suggérer des manières d’améliorer les taux de reproductibilité et de tailles d’effet et augmenter les chances d’évoluer au-delà de la simple démonstration d’un effet, c’est-à-dire vers son explication. Cette stratégie, cependant, est seulement heuristique. Toutes les corrélations découvertes doivent être considérées comme assez provisoires, à la fois parce qu’elles émergent d’une exploration post hoc et parce qu’elles impliquent nécessairement des comparaisons entre des études hétérogènes qui diffèrent simultanément sur beaucoup de variables étroitement liées, connues et inconnues. Deux corrélations de ce type ont émergé des méta-analyses de l’effet psi ganzfeld.

IMAGES CIBLES SIMPLES / MULTIPLES

Bien que la plupart des 28 études de la méta-analyse aient utilisé des images simples comme cibles, 9 (conduites par trois investigateurs différents) utilisaient des bobines de diapos stéréoscopiques View Master qui présentaient de multiples images relatives à un thème central. Les études utilisant les bobines View Master ont généré des taux de réussite significativement plus élevés que les études utilisant des images cibles simples (50 % contre 34 %), t(26)=2.22, p=.035, bilatéral.

APPARIEMENT EMETTEUR-RECEVEUR

Dans 17 des 28 études, les participants étaient libres d’amener des amis pour qu’ils soient émetteurs. Dans 8 études, on ne prenait que des émetteurs désignés par le laboratoire. (Trois études n’utilisaient pas d’émetteurs). Malheureusement, il n’est pas précisé combien de participants des premières études ont effectivement amené des amis. Néanmoins, ces 17 études (conduites par six investigateurs différents) ont eu des taux de réussite significativement plus élevés que les études utilisant des émetteurs désignés par le laboratoire (44 % contre 26 %), t(23)=2.39, p=.025, bilatéral.

Le communiqué commun

Après la publication de leur échange en 1985, Hyman et Honorton ont accepté de contribuer par un communiqué commun à la discussion ultérieure qui fut publiée en 1986. Tout d’abord, ils ont présenté leurs champs d’accord et de désaccord :

 »Nous sommes d’accord qu’il y a un effet significatif global dans cette base de données qui ne peut raisonnablement pas être expliqué par une publication sélective ou des analyses multiples. Nous continuons de diverger sur le degré auquel l’effet trouvé constitue une preuve du psi, mais nous nous accordons sur le fait que le verdict final attend l’issue des futures expériences conduites par un plus grand nombre de chercheurs et selon des standards plus rigoureux. (Hyman & Honorton, 1986, p. 351) »

Puis ils ont exposé en détail quels seraient ces « standards plus rigoureux » qu’ils considéraient nécessaires pour les futures expériences. Ces standards incluaient des précautions strictes de sécurité contre les fuites sensorielles, des tests et la notification des méthodes de randomisation pour le choix des cibles et le séquençage de l’ensemble des choix pour le jugement, la correction statistique des analyses multiples, la spécification à l’avance du statut de l’expérience (étude pilote ou expériences confirmatoires…) et la spécification complète dans le compte-rendu publié des procédures expérimentales et du statut des tests statistiques (par exemple planifiés ou « post-hoc »).

Le rapport du National Research Council

En 1988, le National Research Council (NRC) de l’Académie des Sciences Nationale a réalisé un rapport à fort retentissement, commissionné par l’armée américaine, qui évaluait plusieurs technologies controversées d’amélioration des performances humaines dont l’apprentissage accéléré, la programmation neurolinguistique, l’exercice mental, le biofeedback et la parapsychologie (Druckman & Swets, 1988, résumé dans Swets & Bjork, 1990). Le rapport conclut négativement quant à la recherche parapsychologique : « Le Comité ne trouve aucune justification scientifique dans les recherches conduites sur une période de 130 ans quant à l’existence des phénomènes parapsychologiques » (Druckman & Swets, 1988, p. 22).

Une vaste réfutation protestant vigoureusement contre le traitement de la parapsychologie par le comité a été publiée ailleurs (Palmer et al., 1989). Ce qui se révèle pertinent ici est simplement que l’évaluation du NRC des études ganzfeld n’utilise pas un nouvel examen indépendant de la base de données ganzfeld mais est basé sur la méta-analyse conduite par Hyman dont nous avons parlé dans cet article.

Hyman a présidé le Sous-comité du NRC sur la parapsychologie et, bien qu’il ait été d’accord avec Honorton deux ans plus tôt dans leur communiqué commun qu’« il y a un effet significatif global dans cette base de données qui ne peut raisonnablement pas être expliqué par une publication sélective ou des analyses multiples » (p. 351) et que « des résultats significatifs ont été produits par de nombreux investigateurs différents » (p.352), aucun de ces points n’est reconnu dans le rapport du comité.

Le NRC a également sollicité un rapport de fond de la part de Harris et Rosenthal (1988), qui ont fourni au comité une analyse méthodologique comparative des cinq domaines controversés précités. Harris et Rosenthal ont relevé que de ces domaines « seules les études ganzfeld ESP [les seules études psi qu’ils ont évaluées] satisfont régulièrement aux exigences de base d’une procédure expérimentale saine » (p.53) et ils ont conclu

 »qu’il serait invraisemblable d’admettre un résultat nul étant donné le p combiné de ces 28 études. Etant donnés les divers problèmes ou défauts soulignés par Hyman et Honorton, nous pourrions estimer le taux de réussite obtenu à environ 1/3, alors que le taux attendu pour étayer l’hypothèse nulle est de ¼. (p. 51) »[[Lors d’un événement plutôt trouble, la chaire du Comité NRC appela Rosenthal et lui demanda de supprimer la partie parapsychologique de son article (Communication personnelle de R. Rosenthal, 15 septembre 1992). Bien que Rosenthal ait refusé de le faire, cette partie de l’article d’Harris et Rosenthal n’est citée nulle part dans le rapport du NRC.]]

L’autoganzfeld

En 1983, Honorton et ses collègues ont lancé une nouvelle série d’études ganzfeld conçues pour éviter les problèmes méthodologiques que lui et d’autres avaient identifié dans les études précédentes (Honorton, 1979 ; Kennedy, 1979). Ces études ont suivi en détail les lignes directrices que lui et Hyman devaient publier plus tard dans leur communiqué commun. Le programme a continué jusqu’en septembre 1989, lorsqu’une perte des subventions obligea le laboratoire à fermer. Les innovations majeures des nouvelles études étaient le contrôle informatique du protocole expérimental – d’où le nom d’auto-ganzfeld – et l’introduction de clips vidéo en tant que stimulus-cible.

Méthode

Le dispositif de base des études autoganzfeld était le même que celui décrit auparavant [[Puisque Honorton_et ses collègues se sont conformés à la consigne d’Hyman et Honorton de fournir des rapports d’expériences suffisamment complets pour permettre à d’autres de reconstruire le protocole du chercheur, les lecteurs qui veulent connaître plus de détails que ceux que nous fournissons ici sont invités à se rapporter aux publications originales de ces études dans le Journal of Parapsychology (Honorton et al., 1990).]]: Un percipient et un agent sont placés dans des salles séparées, isolées acoustiquement. Après une période de 14 minutes de relaxation progressive, le percipient subit la stimulation ganzfeld tandis qu’il décrit ses pensées et ses images mentales à haute voix pendant 30 minutes. Pendant ce temps, l’agent se concentre sur une cible sélectionnée aléatoirement. A la fin de la période ganzfeld, on montre quatre stimuli au percipient et, sans qu’il sache lequel des quatre était la cible, il cote chaque stimulus en fonction de sa similarité avec ce qu’il a perçu mentalement durant le ganzfeld.

Les cibles consistent en 80 images fixes (cibles statiques) et 80 clips vidéo complets avec leur bande-son (cibles dynamiques), toutes enregistrées sur des cassettes vidéo. Les cibles statiques incluent des copies d’oeuvres d’art, des photographies, et des pubs de magazines ; les cibles dynamiques incluent des extraits d’environ une minute de films de cinéma, d’émissions télé, et de dessins animés. Les 160 cibles ont été réparties dans des groupes comportant chacun 4 cibles statiques et 4 cibles dynamiques, construits de façon à minimiser les ressemblances entre les cibles d’un même groupe.

SELECTION DE LA CIBLE ET PRESENTATION.

Le magnétoscope contenant les cibles enregistrées a été relié à l’ordinateur de contrôle, qui sélectionne la cible et contrôle sa présentation répétitive devant l’agent durant la période ganzfeld, rendant inutile l’accompagnement de l’agent par un second expérimentateur. Après la période ganzfeld, l’ordinateur ordonne aléatoirement les quatre clips faisant partie du groupe qui va être présenté au percipient sur un écran télé pour qu’il fasse son jugement. Le percipient utilise un joystick d’ordinateur pour établir ses évaluations sur une échelle de 40 points qui apparaît sur l’écran après que chaque clip soit montré. Il est permis au percipient de voir chaque clip et de changer ses évaluations à volonté jusqu’à ce qu’il en soit satisfait. L’ordinateur enregistre les données de la session dans un fichier sur une disquette. A ce moment-là, l’agent rentre dans la pièce du percipient et révèle l’identité de la cible à la fois au percipient et à l’expérimentateur. Il faut remarquer que l’expérimentateur ne connaît même pas l’identité du groupe de quatre clips qui va être jugé avant qu’il ne soit montré au percipient pour le jugement.

RANDOMISATION.

La sélection aléatoire de la cible et le séquençage des quatre cibles pour le jugement étaient contrôlés par un générateur de nombres aléatoires basé sur du « bruit blanc » relié à l’ordinateur. La mise à l’épreuve de ce générateur a confirmé qu’il fournissait une distribution uniforme de valeurs dans toute la gamme des valeurs cibles (1-160). Les essais sur les fréquences réelles observées pendant les expériences ont confirmé que les cibles étaient, en moyenne, sélectionnées de manière uniforme parmi les quatre clips de chaque groupe et que les quatre séquences de jugement utilisées étaient réparties uniformément sur l’ensemble des sessions.

DISPOSITIFS DE CONTROLE SUPPLEMENTAIRES.

Les salles du percipient et de l’agent étaient isolées acoustiquement et protégées électriquement. C’étaient des pièces avec un accès unique par une porte que l’expérimentateur pouvait contrôler continuellement. Il y avait une communication bilatérale par interphone entre l’expérimentateur et le percipient mais seulement une communication unilatérale avec la salle de l’agent ; de cette façon, ni l’expérimentateur ni le percipient ne pouvait contrôler les événements à l’intérieur de la salle de l’agent. Le rapport d’archive pour chaque session inclut une cassette audio contenant les propos du percipient durant la période ganzfeld et tous les échanges verbaux entre l’expérimentateur et le percipient tout au long de l’expérience.

Le protocole de ganzfeld automatisé a été examiné par plusieurs douzaines de parapsychologues et de chercheurs en sciences du comportement, dont des critiques bien connus de la parapsychologie. Beaucoup ont participé en tant que sujets ou observateurs. Tous ont exprimé leur satisfaction concernant le traitement des questions de sécurité et de contrôle.

Les parapsychologues ont souvent été enclins à employer des magiciens comme consultants pour s’assurer que les protocoles expérimentaux ne sont pas vulnérables à des fuites sensorielles négligées ou à des fraudes délibérées. Deux « mentalistes », des magiciens spécialisés dans la simulation du psi, ont examiné le système et le protocole autoganzfeld. Ford Kross, un mentaliste professionnel et membre d’une organisation professionnelle de mentalistes, la Psychic Entertainers Association, a conclu ceci : « En ma capacité de mentaliste professionnel, j’ai examiné le système autoganzfeld du Psychophysical Research Laboratories et j’ai trouvé qu’il fournissait une excellente sécurité contre la fraude des sujets » (Communication personnelle, May, 1989).

Daryl J. Bem a également exercé comme mentaliste pendant plusieurs années et est membre de la Psychic Entertainers Association. Comme il est mentionné dans la note de l’auteur, cet article tire ses origines d’une visite qu’il a faite en 1983 du laboratoire d’Honorton, où il lui a été demandé s’il pouvait examiner de façon critique le protocole de recherche du point de vue du mentaliste, du chercheur en psychologie, et du sujet. Nul besoin de dire que cet article n’existerait pas s’il n’avait pas été d’accord avec Ford Kross quant à la sécurité des procédures.

Etudes expérimentales

En tout, 100 hommes et 140 femmes ont participé comme percipients dans 354 sessions pendant la durée du programme de recherche [[Un récent contrôle supplémentaire des fichiers informatiques originaux a mis au jour un enregistrement en double dans la base de données auto-ganzfeld. Cela a maintenant été corrigé, par la diminution d’une unité du nombre de sujets et de sessions. Il en résulte que certains des chiffres présentés dans cet article diffèrent légèrement de ceux apparaissant dans l’article de Honorton et al. (1990).]]. Les participants avaient entre 17 et 74 ans (m = 37,3 ; écart-type : 11,8), avec en moyenne 15,6 années d’études (écart-type : 2,0). Huit expérimentateurs distincts, dont Honorton, ont conduit ces études.

Le programme expérimental incluait trois études pilotes et huit études formelles. Cinq de ces études formelles employaient des participants novices (qui venaient pour la première fois) qui ont été utilisés comme percipient dans une session chacun. Les trois études restantes ont utilisé des participants expérimentés.

ETUDES PILOTES.

Les tailles d’échantillon n’étaient pas choisies d’avance dans les trois études pilotes. L’étude 1 a réuni 22 sessions et fut conduite durant le développement initial et le test du système autoganzfeld. L’étude 2 comprenait 9 sessions testant une procédure dans laquelle l’expérimentateur, plutôt que le percipient, servait de juge à la fin de la session. L’étude 3 comprenait 35 sessions et servait d’exercice pour les participants qui en avaient fini avec les sessions prévues dans les études formelles mais qui voulaient effectuer des expériences ganzfeld supplémentaires. Cette étude inclut également de nombreuses sessions de démonstration lorsque des équipes télé furent présentes.

ETUDES AVEC DES NOVICES.

Les études 101 à 104 furent toutes conçues pour tester 50 participants qui n’avaient encore jamais participé à une expérience ganzfeld ; chaque participant servait de percipient dans une unique session ganzfeld. L’étude 104 incluait 16 à 20 étudiants recrutés dans l’école Juilliard de New York City pour tester un groupe doué artistiquement. On débuta l’étude 105 pour prendre en compte le trop-plein de participants qui avaient été recrutés pour l’expérience 104, dont 4 étudiants de Juilliard qui n’avaient pas pu être inclus dans cette étude. La taille d’échantillon fut fixée à 25, mais seulement 6 sessions ont été effectuées avant que le laboratoire ne ferme. Pour une meilleure présentation, nous avons divisés les 56 sessions des études 104 et 105 en deux parties : l’étude 104/105(a) comprenant 36 participants qui n’étaient pas des étudiants de Juilliard, et l’étude 104/105(b) comprenant les 20 étudiants de Juilliard.

ETUDE 201.

Cette étude a été conçue pour retester les participants les plus prometteurs des études précédentes. Le nombre d’essais fut fixé à 20, mais seulement 7 sessions avec 3 participants ont pu être effectuées avant que le laboratoire ne ferme.

ETUDE 301.

Cette étude a été conçue pour comparer les cibles statiques et dynamiques. Le nombre d’essais était fixé à 50 sessions. Vingt-cinq participants expérimentés ont chacun servi de percipient dans 2 sessions. A l’insu des participants, le programme de contrôle de l’ordinateur fut modifié pour faire en sorte qu’ils aient chacun une session avec une cible statique et une session avec une cible dynamique.

ETUDE 302.

Cette étude a été conçue pour examiner un ensemble de cibles dynamiques qui avaient donné lieu à un taux de succès très élevé dans les études antérieures. Cette étude impliquait des participants expérimentés qui n’avaient pas eu d’expérience avec cet ensemble particulier de cibles et n’étaient pas informés du fait qu’on n’utilisait qu’un seul ensemble de cibles. Chacun d’entre eux a joué le rôle de percipient dans une unique session. Le dispositif prévu pour cette étude devait continuer jusqu’à ce qu’on ait fait 15 sessions avec chacune des cibles, mais seulement 25 sessions ont pu être effectuées avant que le laboratoire ne ferme.

Les onze études décrites ci-dessus comprennent toutes les sessions conduites durant les six ans et demi du programme. Il n’y a pas de « fonds de tiroir » contenant des sessions non publiées.

Résultats

TAUX DE REUSSITE GLOBAL.

De même que dans les méta-analyses précédentes, les évaluations des récepteurs ont été analysées en comptant la proportion de succès obtenus et en calculant la probabilité binomiale exacte du nombre de succès observés par rapport au score attendu selon le hasard (0.25). Comme il est dit plus haut, 240 participants ont contribué à 354 sessions. Pour les raisons discutées plus loin, l’étude 302 est analysée séparément, réduisant le nombre de sessions de la première analyse à 329.

Comme le montre le tableau 1, il y a eu 106 succès dans les 329 sessions, soit un taux de réussite de 32% (z = 2.89, p = .002, unilatéral), avec un intervalle de confiance de 95% entre 30% et 35%. Cela correspond a une taille d’effet (*pi*) de 0.59, avec un intervalle de confiance entre 0.53 et 0.64.

Bem_Honorton_-_tableau_1.jpg
Le tableau 1 montre également que lorsque les études 104 et 105 sont combinées et re-divisées en étude 104/105(a) et étude 104/105(b), 9 des 10 études donnent des tailles d’effet positives, avec une taille d’effet moyenne (*pi*) de 0.61, t(9) = 4.44, p = .0008, unilatéral. Cette taille d’effet est équivalente à un taux de succès dans une tâche à quatre alternatives de 34%. A l’inverse, si les études 104 et 105 restent considérées comme des études disjointes, 9 des 10 études fournissent encore une fois des tailles d’effet positives, avec une taille d’effet moyenne (*pi*) de 0.62, t(9) = 3.73, p = .002, unilatéral. Cette taille d’effet est équivalente à un taux de succès dans une tâche à quatre alternatives de 35%, et est identique à ce qui fut trouvé dans les 28 études de la précédente méta-analyse. [[Comme il est noté plus haut, le laboratoire a été forcé de fermer avant que trois de ces études n’aient pu être terminées. Si nous supposons que les essais restants dans les études 105 et 201 auraient fourni des résultats conformes au hasard, cela réduirait le z global des dix premières études autoganzfeld de 2.89 à 2.76 (p = .003). Par conséquent, l’inclusion de ces deux études incomplètes ne pose pas un problème d’arrêt optionnel. La troisième étude incomplète, l’étude 302, est discutée ci-dessous.]]

Regroupées ensemble, les sessions avec les participants novices (Etudes 101 à 105) donnent un taux de réussite statistiquement significatif de 32,5% (p = .009), ce qui n’est pas significativement différent du taux de succès de 31,6% des études 201 et 301 avec des participants expérimentés. Enfin, chacun des huit expérimentateurs a également obtenu une taille d’effet positive, avec une moyenne *pi* de 0.60, t(7) = 3.44, p = .005, unilatéral.

L’ECHANTILLON JUILLIARD.

Il a de nombreuses mentions dans la littérature de la relation entre la créativité ou les dons artistiques et les performances psi (Schmeidler, 1988). Pour explorer cette possibilité dans le cadre du ganzfeld, 10 hommes et 10 femmes furent recrutés au sein de l’Ecole Juilliard. Parmi eux, 8 étaient des étudiants en musique, 10 étaient des étudiants en théâtre, et 2 étudiaient la danse. Chacun a joué le rôle de percipient dans une session unique dans les études 104 et 105. Comme on le voit dans le Tableau 1, ces étudiants obtinrent un taux de réussite de 50% (p = .014), un des cinq meilleurs scores jamais constatés pour un échantillon particulier dans une étude ganzfeld. Les musiciens ont particulièrement bien réussi : 6 des 8 (75%) ont réussi à identifier leurs cibles (p = .004, d’autres détails à propos de cet échantillon et de sa performance ganzfeld ont été publiés dans Schlitz & Honorton, 1992).

TAILLE D’ETUDE ET TAILLE D’EFFET.

Il y a une corrélation négative significative pour les 10 études listées dans le tableau 1 entre le nombre de sessions d’une étude et la taille d’effet de cette étude (*pi*), r = -.64, t(8) = 2.36, p < .05, bilatéral. Cela nous rappelle la découverte d’Hyman du fait que les plus petites études de la base de données ganzfeld originale avaient beaucoup plus de chances de donner des résultats statistiquement significatifs. Hyman avait interprété cette découverte comme l’indice d’un biais dans le sens de la non-publication des petites études qui n’avaient pas de résultats significatifs. Cependant, une interprétation similaire ne peut pas être appliquée aux études autoganzfeld, car il n’y a aucune session non-publiée.

Un correcteur de cet article suggéra que la corrélation négative pouvait refléter un effet de déclin dans lequel les premières sessions d’une étude réussissent mieux que les sessions suivantes. S’il existait un tel effet, alors les études avec peu de sessions auraient une taille d’effet plus grande parce qu’elles s’arrêteraient avant que le déclin puisse se produire. Pour vérifier cette possibilité, nous avons calculé les corrélations bisériales ponctuelles entre les succès (1) ou les échecs (0) et le numéro de session dans chacune des 10 études. Toutes les corrélations ont tourné autour de zéro ; six furent positives, quatre négatives, et la moyenne globale fut de 0.01.

Une lecture de tableau 1 révèle que la corrélation négative provient principalement des deux études ayant la plus large taille d’effet : les vingt sessions avec les étudiants de Juilliard et les 7 sessions de l’étude 201, l’étude spécialement élaborée pour retester les participants les plus prometteurs des études précédentes. Par conséquent, il semble que les grandes tailles d’effet de ces deux études – et donc de la corrélation négative significative entre le nombre de sessions et la taille d’effet – reflètent de véritables différences de performance entre ces deux petits échantillons élitistes et les autres participants à l’autoganzfeld.

ETUDE 302.

Toutes les études, exceptée l’étude 302, sélectionnèrent aléatoirement des cibles provenant d’une base de 160 cibles statiques et 160 cibles dynamiques. L’étude 302 utilisa un ensemble unique de cibles dynamiques qui avait donné lieu à un taux de réussite particulièrement important dans les études précédentes. Les quatre clips de films dans cet ensemble consistaient en une scène d’un raz-de-marée du film « Clash of the Titans », une scène de sexe ultra-rapide tirée d' »Orange mécanique », une scène de serpents rampants tirée d’un documentaire TV, et une scène d’un dessin animé avec le lapin Bugs Bunny. Le dispositif expérimental prévoyait de continuer jusqu’à ce que chacun des clips aient servi comme cible 15 fois. Malheureusement, la fin prématurée de cette étude au bout de 25 sessions a entraîné un déséquilibre dans la fréquence avec laquelle chaque clip a servi comme cible. Cela veut dire que le taux de réussite important (64%) pourrait bien être gonflé par des biais de réponse.

Pour illustrer cette idée, il faut dire que l’imagerie autour de l’élément « eau » est par exemple fréquemment rapportée par les percipients dans les sessions ganzfeld tandis que l’imagerie « sexuelle » est rarement rapportée. (Certains participants sont probablement peu disposés à la fois à parler d’imagerie sexuelle et à donner la première place au clip « sexuel » lors du jugement.) Si un vidéo clip contenant une imagerie préférée (comme de l’eau) apparaît comme cible plus souvent qu’un clip contenant une imagerie moins choisie (comme du sexe), un fort taux de réussite peut simplement refléter la coïncidence de ces fréquences d’occurrence avec les biais de réponse des participants. Et, comme le révèle la seconde colonne du tableau 2, le clip avec le raz-de-marée est effectivement apparu plus fréquemment comme cible que le clip sexuel. Plus généralement, les seconde et troisième colonnes du tableau 2 montrent que la fréquence avec laquelle chaque clip est placé au premier rang correspond quasiment à la fréquence avec laquelle chacun des clips est apparu en tant que cible.

Bem_Honorton_-_tableau_2.jpg
On peut pallier ce problème en utilisant les fréquences observées dans ces deux colonnes pour calculer le taux de réussite attendu s’il n’y avait pas d’effet psi. En particulier, on peut multiplier chaque proportion dans la seconde colonne par la proportion correspondante dans la troisième colonne – ce qui donne la probabilité conjointe que le clip soit la cible et qu’il soit placé au premier rang dans le jugement – et les additionner ensuite pour les quatre clips. Comme on le voit dans la quatrième colonne du tableau 2, ce calcul donne un taux de réussite global attendu de 34.08%. Lorsque le taux de réussite observé de 64% est comparé avec cette ligne de base du hasard, la taille d’effet (h) est 0.61. Comme on peut le voir dans le tableau 1, cela est équivalent à un taux de réussite de 54% dans une tâche proposant quatre alternatives, ou à une valeur *pi* de 0.78, ce qui est statistiquement significatif (z = 3.04, p = .0012).

L’effet psi apparaît plus clairement dans les colonnes restantes du tableau 2, qui reflète les différences de préférence de l’imagerie dans les clips en montrant à quelle fréquence un clip est classé au premier rang lorsque c’est la bonne cible et à quelle fréquence un clip est classé au premier rang lorsque c’est un clip de contrôle (leurre). Comme on peut le voir, chacun des quatre clips fut sélectionné comme cible relativement plus fréquemment lorsqu’il était vraiment la cible que quand il était un leurre, une différence qui est significative pour trois des quatre clips. En moyenne, un clip était identifié comme cible 58% du temps lorsque c’était la cible et 14% lorsque c’était un leurre.

CIBLES DYNAMIQUES PAR RAPPORT AUX CIBLES STATIQUES.

Le succès de l’étude 302 soulève la question de savoir si les cibles dynamiques sont, en général, plus efficaces que les cibles statiques. Cette possibilité était également suggérée par la précédente méta-analyse, qui révélait que les études utilisant des cibles avec de multiples images (cf. des bobines de diapositives stéréoscopiques View Master) avaient obtenu des résultats plus significatifs que les études utilisant des cibles avec une image unique. Avec en supplément le mouvement et le son, les vidéos clips pourraient être considérés comme des versions high-tech des diapositives View Master.

Les dix études autoganzfeld qui choisissaient aléatoirement des cibles à la fois à partir de la base des cibles dynamiques et de la base des cibles statiques utilisèrent en fait des cibles dynamiques dans 164 sessions et des cibles statiques dans 165 sessions. Comme il était prédit, les sessions utilisant des cibles dynamiques donnèrent un meilleur taux de réussite que les sessions utilisant des cibles statiques (37% vs. 27%, p < .04 selon le test de Fisher-Yates).

APPARIEMENT AGENT-PERCIPIENT.

La précédente méta-analyse avait révélé que les études dans lesquelles les participants étaient libres d’amener des amis pour tenir le rôle d’agent avaient un taux de réussite plus significatif que les études n’utilisant que les agents désignés par le laboratoire. Toutefois, comme nous l’avons noté, il n’y avait pas eu d’enregistrement du nombre de participants qui avaient amené des amis dans les études antérieures. Quoi qu’il en soit, l’appariement agent-percipient ne fut pas corrélé significativement aux performances psi dans les études autoganzfeld : les 197 sessions dans lesquelles l’agent et le percipient étaient amis ne firent pas apparaître une proportion de succès significativement plus importante que ne le firent les 132 sessions dans lesquelles ce ne fut pas le cas (35% vs. 29%, p = .28 selon le test de Fisher-Yates).

CORRELATIONS ENTRE LES CARACTERISTIQUES DU PERCIPIENT ET LES PERFORMANCES PSI.

La plupart des participants aux études d’autoganzfeld croyaient fortement au psi : sur une échelle de 7 points, allant de (1) pour une incroyance forte jusqu’à (7) pour une croyance forte au psi, la moyenne était de 6.2 (écart-type = 1.03) ; seuls 2 participants ont coté leur croyance au psi au-dessous du milieu de l’échelle. De plus, 88% des participants ont rapporté avoir eu des expériences personnelles suggérant du psi, et 80% avait déjà pratiqué la méditation ou d’autres techniques relatives à une focalisation interne de l’attention.

Ce sont d’importantes variables qui apparaissent ainsi. La corrélation entre la croyance au psi et la performance psi est une des conclusions les plus régulières de la littérature parapsychologique (Palmer, 1978). Et dans les études autoganzfeld, les réussites des participants novices (première expérience personnelle du ganzfeld) ont pu être prédites de façon significative en se basant sur les témoignages d’expériences psi personnelles, la pratique de la méditation et d’autres disciplines mentales, et les scores élevés aux facteurs « Sentiment » et « Perception » du test Myers-Briggs Type Indicator ou MBTI (Honorton, 1992 ; Honorton & Schechter, 1987 ; Myers & McCaulley, 1985). Cette recette pour le succès a depuis été reproduite indépendamment par un autre laboratoire (Broughton, Kanthamani, & Khilji, 1990).

Le trait de personnalité dit « extraversion » est également associé à une meilleure performance psi. Une méta-analyse de 60 études indépendantes avec environ 3000 sujets a révélé une corrélation faible mais fiable entre l’extraversion et la performance psi, spécialement dans les études qui utilisaient les méthodes de réponse libre du type employé dans les expériences ganzfeld (Honorton, Ferrari, & Bem, 1992). Pour 14 études à réponse libre conduites par quatre investigateurs indépendants, la corrélation pour 612 sujets était de 0,20 (z = 4.82, p = 1.5 x 10E-6). Cette corrélation a été retrouvée dans les études autoganzfeld, dans laquelle les scores d’extraversion étaient disponibles pour 218 des 240 sujets : r = .18, t(216) = 2.67, p = .004, unilatéral.

Enfin, le fait que les étudiants de Juilliard aient eu de fortes performances psi, discuté plus haut, est en cohérence avec les autres études de la littérature parapsychologique suggérant une relation entre les performances psi et les talents artistiques ou la créativité.

Discussion

Plus haut dans cet article, nous avons cité un extrait du résumé du communiqué d’Hyman et Honorton (1986) : « Nous nous accordons sur le fait que le verdict final attend l’issue des futures expériences conduites par un plus grand nombre de chercheurs et selon des standards plus rigoureux. (p. 351) » Nous pensons que l’exigence de « standards plus rigoureux » a été satisfaite par les études autoganzfeld. Les résultats sont statistiquement significatifs et en cohérence avec ceux obtenus dans la précédente base de données. La taille d’effet moyenne est plutôt respectable en comparaison avec les autres domaines de recherche controversés sur les performances humaines (Harris & Rosenthal, 1988a). Et il y a des relations fiables entre les performances psi et des variables conceptuellement pertinentes relatives aux caractéristiques des sujets et aux procédures expérimentales, relations qui reproduisent également des conclusions antérieures.
Hyman (1991) a également commenté les études autoganzfeld : « Les expériences d’Honorton ont produit des résultats intrigants. Si des laboratoires indépendants peuvent produire des résultats similaires en retrouvant les mêmes relations tout en ayant porté la même attention à la méthodologie rigoureuse, alors en effet la parapsychologie peut avoir finalement capturé son insaisissable objet » (p.392).

PROBLEMES DE REPRODUCTION

Comme le dit Hyman dans son commentaire, les études autoganzfeld ne peuvent satisfaire en elles-mêmes à l’exigence que les reproductions des expériences soient conduites par « un éventail plus large de chercheurs ». Par conséquent, nous espérons que les résultats rapportés ici seront suffisamment provocants pour pousser d’autres scientifiques à essayer de reproduire l’effet du psi ganzfeld.

Nous croyons qu’il est cependant essentiel que les futures études respectent les normes méthodologiques, statistiques et les normes de présentation de l’information qui ont été mises en avant dans le communiqué commun et que les études autoganzfeld ont respectées. Il n’est pas nécessaire que les études soient aussi automatisées ou lourdement instrumentalisées que les expériences autoganzfeld pour satisfaire aux directives méthodologiques mais alors elles demanderont probablement une main d’œuvre importante, devenant ainsi potentiellement onéreuses.[[Comme le montre l’exemple de la fermeture du laboratoire autoganzfeld, il est également difficile d’obtenir des fonds pour la recherche parapsychologique. Les sources de fonds traditionnelles arbitrées par des pairs, familières aux psychologues, n’ont presque jamais financé des projets de la recherche parapsychologique. Le scepticisme important des psychologues envers le psi est certainement un facteur contribuant à cet état de faits.]]

Puissance statistique et reproduction

Ceux qui veulent reproduire ces expériences ont aussi besoin qu’on leur rappelle les puissances requises pour répéter de petits effets. Bien que beaucoup de psychologues académiques ne croient pas au psi, beaucoup croient apparemment aux miracles lorsqu’il s’agit de reproductibilité. Tversky et Kahneman (1971) ont posé le problème suivant à leurs collègues lors de conférences du Mathematical Psychology Group et de la American Psychological Association :

Supposez que vous ayez conduit une expérience sur 20 sujets et avez obtenu un résultat significatif qui confirme votre théorie (z=2.23, p<.05, bilatéral). Vous avez maintenant des raisons pour étudier un groupe additionnel de 10 sujets. A combien évaluez-vous la probabilité que les résultats soient significatifs, par un test unilatéral, pour ce groupe seul ? (p. 105)

L’estimation moyenne était de 0.85, et 9 des 10 personnes qui ont répondu ont donné une estimation supérieure à 0.60. La réponse correcte est d’environ 0.48.

Comme Rosenthal (1990) l’a évoqué : « étant donné les niveaux de puissance statistique auxquels nous opérons généralement, nous n’avons aucune raison d’espérer cette proportion de résultats significatifs à laquelle nous nous attendons généralement, même si par nature il y a un effet vraiment réel et très important. » (p. 16) A cet égard, il est également instructif d’examiner l’étude médicale qui a trouvé un effet hautement significatif de l’aspirine sur l’incidence des crises cardiaques. L’étude a impliqué plus de 22 000 sujets. Si les chercheurs n’avaient engagé que 3000 sujets, ils auraient eu moins d’une chance sur deux de trouver un effet conventionnellement significatif. Ainsi va la vie avec les petites tailles d’effet.

Etant donné sa taille d’effet plus grande, les chances de reproduire avec succès l’effet psi ganzfeld ne sont pas vraiment aussi décourageantes mais elles sont probablement encore moindres que l’intuition le suggérerait. Si le taux de réussite effectif tourne en fait autour de 34 % quand on s’attend à 25 % selon le hasard, alors une expérience avec 30 essais (la moyenne pour les 28 études de la méta-analyse originale) a seulement une chance sur 6 de trouver un effet significatif au seuil de .05 avec un test unilatéral. Une expérience de 50 essais remonte cette chance à environ 1 sur 3. On doit monter jusqu’à 100 essais pour approcher le point des chances égales auquel on a 50% de chances de trouver un effet statistiquement significatif (Utts, 1986). (Souvenez-vous que seulement 2 des 11 études autoganzfeld ont produit des résultats qui étaient individuellement significatifs au seuil conventionnel de .05.) Ceux qui exigent qu’un effet psi soit statistiquement significatif à chaque fois avant d’admettre sérieusement la possibilité qu’un effet existe réellement ne se rendent pas compte de ce qu’ils demandent.

Signification contre taille d’effet

La discussion précédente est cependant trop pessimiste car elle perpétue la tradition du culte du seuil de signification. Les lecteurs réguliers de ce journal sont vraisemblablement au courant des arguments récents implorant les scientifiques en psychologie, psychobiologie, éthologie et autres sciences du comportement, de dépasser leur dépendance servile au seuil de signification comme mesure ultime de vertu, alors qu’ils feraient mieux de focaliser davantage leur attention sur les tailles d’effet : « Pour sûr, Dieu aime le .06 presque autant que le .05 » (Rosnow & Rosenthal, 1989, p 1277)

Par conséquent, nous suggérons qu’atteindre une taille d’effet respectable avec une étude ganzfeld méthodologiquement stricte serait une contribution parfaitement bienvenue à l’effort de reproduction, peu importe la gêne que procure le seuil p au chercheur.

Conséquences professionnelles mises à part, cette suggestion pourrait sembler assez contre-intuitive. De nouveau, Tversky et Kahneman (1971) ont fourni une démonstration élégante. Ils ont demandé à plusieurs de leurs collègues de considérer un chercheur qui étudierait 15 sujets et obtiendrait une valeur significative t de 2.46. Un autre chercheur tente de reproduire la procédure avec le même nombre de sujets et obtient un résultat dans la même direction mais avec une valeur t non significative. Tversky et Kahneman ont alors demandé à leurs collègues d’indiquer le plus haut seuil de t dans l’étude de reproduction qu’ils considéreraient comme un échec de la reproduction. La majorité de leurs collègues ont considéré un t = 1.70 comme un échec à reproduire l’expérience. Mais si les données de ces deux études (t = 2.46 et t = 1.70) étaient regroupées, le t des données combinées serait environ de 3.00 (en supposant des variances équivalentes) :

Donc, nous sommes face à un état de fait paradoxal dans lequel les mêmes données qui augmenteraient notre confiance dans le résultat quand elles sont vues comme une partie de l’étude originale, ébranleraient notre confiance lorsqu’elles sont considérées comme une étude indépendante. (Tversky & Kahneman, 1971, p. 108)

Ainsi est l’emprise du .05 arbitraire. Regrouper les données est bien sûr l’objet de la méta-analyse. Par conséquent, nous suggérons que deux laboratoires ou plus pourraient collaborer dans un effort de reproduction du ganzfeld en conduisant indépendamment des études puis en les regroupant sous un mode méta-analytique, ce que l’on pourrait appeler méta-analyse en temps réel. (Chaque investigateur pourrait alors revendiquer le seuil p combiné pour son propre curriculum vitae.)

Maximiser la taille d’effet

Plutôt que d’acheter ou d’emprunter de plus grandes tailles d’échantillon, ceux qui cherchent à reproduire le psi ganzfeld pourraient trouver intellectuellement plus satisfaisant d’essayer de maximiser la taille d’effet en se concentrant sur les variables associées à de bons scores. Donc, les chercheurs qui souhaitent améliorer les chances de réussite d’une reproduction devraient utiliser des cibles dynamiques plutôt que statiques. De même nous conseillons d’utiliser des participants qui ont les caractéristiques que nous avons citées comme étant corrélées avec une bonne performance psi. Les étudiants recrutés au hasard dans les premières années de psychologie ne constituent pas le groupe de sujets optimal.

Pour finir, nous conseillons vivement aux chercheurs de lire attentivement la description détaillée de l’ambiance sociale chaleureuse qu’Honorton et al. (1990) ont essayé de créer dans le laboratoire autoganzfeld. Nous croyons que le climat social créé dans les expériences psi est un facteur déterminant de leur succès ou de leur échec.

Le problème des « autres » variables

Cette mise en garde sur l’ambiance sociale de l’expérience ganzfeld a conduit un critique de cet article à s’inquiéter en se demandant si cela ne fournit pas une « clause échappatoire » qui affaiblirait la falsifiabilité de l’hypothèse psi : « Jusqu’à ce que Bem et Honorton puissent fournir un critère opérationnel pour créer une ambiance sociale chaleureuse, l’échec à obtenir des résultats significatifs dans une expérience pourra toujours être attribué à un manque de chaleur affective. »

Hélas, il est vrai que nous souhaiterions sincèrement qu’il en soit autrement. Mais l’intervention de variables inconnues, affaiblissant les chances de succès des reproductions est une réalité de fait dans toutes les sciences. Considérez, par exemple, un article antérieur de Spence dans ce journal (1964). Il a passé en revue des études testant une hypothèse dérivant directement de la théorie de l’apprentissage de Hull, selon laquelle les sujets plus anxieux se laissent davantage conditionner que les sujets les moins anxieux. Cette hypothèse a été confirmée à 94 % dans le propre laboratoire de Spence à l’Université d’Iowa mais seulement à 63 % dans les laboratoires d’autres universités. En fait, Kimble et ses associés de l’Université Duke et de l’Université de Caroline du Nord ont obtenu des résultats opposés dans deux expériences sur trois.

En cherchant une explication  »post hoc », Spence a remarqué qu’« on avait délibérément essayé dans les études de l’Iowa de créer des conditions qui pouvaient susciter un certain degré d’émotivité. Ainsi les expérimentateurs avaient pour consigne d’être impersonnels et assez formels et n’ont pas essayé de mettre [les sujets] à l’aise ou d’apaiser des craintes exprimées » (pp. 135-136). De plus, releva-t-il, ses sujets étaient assis dans un siège de dentiste alors que les sujets de Kimble étaient assis dans un fauteuil de bureau. Spence a même considéré « la possibilité que le milieu culturel des étudiants du Sud et du Nord puisse conduire à des différences dans la manière dont ils répondent à différents items sur l’échelle [d’anxiété manifeste] » (p. 136). Si telle est la situation dans un domaine de recherche aussi bien établi que le conditionnement classique, alors la suggestion que le climat affectif du laboratoire de parapsychologie puisse affecter les résultats des expériences ganzfeld de manière pas encore tout à fait comprise, cette idée ne doit pas être rejetée en tant que tentative détournée de fournir une clause échappatoire en cas d’échec de la reproduction des expériences.

Le mieux que les chercheurs d’origine puissent faire est de communiquer leurs conditions expérimentales de façon aussi complète que possible afin d’anticiper certaines des variables ayant de l’influence. Dans l’idéal, cela pourrait impliquer une formation directe de la part des chercheurs d’origine ou un enregistrement vidéo des sessions réellement effectuées. Bien que pêchant sur ce point, la description détaillée de la procédure autoganzfeld fournie par Honorton et al. (1990) parvient, autant que les connaissances actuelles le permettent, à fournir aux autres chercheurs « les critères opérationnels pour créer une ambiance sociale chaleureuse ».

CONSIDERATIONS THEORIQUES

Jusqu’à maintenant, nous avons limité notre discussion aux aspects strictement empiriques. Nous apprécions l’idée que l’on se doit d’établir l’existence d’un phénomène, irrégulier ou non, avant d’essayer de l’expliquer. Aussi, supposons pour l’instant que nous avons ici une véritable anomalie de transfert d’information. Comment peut-elle être comprise ou expliquée?

La Psychologie du Psi

Dans leur tentative pour comprendre le psi, les parapsychologues ont généralement débuté avec l’hypothèse de travail selon laquelle quels que soient ses mécanismes sous-jacents, le psi doit se comporter comme les autres phénomènes psychologiques plus familiers. En particulier, ils supposent d’habitude que l’information-cible agit comme un stimulus sensoriel externe qui est encodé, traité et ressenti de la même manière que dans le traitement de l’information habituel. De même, les performances psi individuelles doivent varier conjointement avec les variables du sujet et les variables expérimentales de façon psychologiquement sensible. Ces hypothèses font partie du modèle psi qui a motivé les études ganzfeld en tout premier lieu.

LA PROCEDURE GANZFELD.

Comme il est précisé dans l’introduction, la procédure ganzfeld a été conçue pour tester un modèle dans lequel l’information transmise par le psi est conceptualisée comme un signal généralement faible masqué par le « bruit » somatique interne et par le bruit sensoriel externe. En conséquence, toute technique qui augmente le ratio signal / bruit devrait améliorer la capacité d’une personne à détecter l’information transmise par le psi. Ce modèle du psi visant à la réduction de bruit sous-tend un corpus large et varié de résultats expérimentaux, en particulier ceux démontrant les propriétés favorables au psi des états modifiés de conscience comme la méditation, l’hypnose, le rêve et bien sûr le ganzfeld lui-même (Rao & Palmer, 1987).

Des théories alternatives proposent que le ganzfeld (et les états modifiés de conscience) serait favorable au psi car il diminue la résistance à l’acceptation d’images étrangères, réduit les contraintes rationnelles ou contextuelles portant sur l’encodage ou la restitution d’information, stimule une pensée plus divergente, ou encore sert uniquement de rituel de type placebo perçu par les participants comme étant favorable au psi (Stanford, 1987). Dès lors, il n’y a aucune donnée qui permettrait de choisir parmi ces alternatives, et le modèle de réduction de bruit reste le plus largement accepté.

LA CIBLE.

Il y a aussi nombre d’hypothèses plausibles qui tentent de rendre compte de la supériorité des cibles dynamiques sur les cibles statiques : les cibles dynamiques contiennent plus d’information, impliquent plus de modalités sensorielles, évoquent plus de schémas internes du percipient, sont plus vivantes, ont une structure narrative, sont plus émotionnellement évocatrices et sont plus « riches » dans d’autres modalités non spécifiées. Plusieurs chercheurs psi ont tenté d’aller au-delà de la simple dichotomie dynamique/statique pour arriver à des définitions plus affinées, basées sur des théories, de ce que c’est qu’une bonne cible. Bien que ces efforts aient impliqué l’étude des propriétés à la fois psychologiques et physiques des cibles, il n’y a jusqu’à présent guère de progrès à signaler (Delanoy, 1990).

LE PERCIPIENT.

Certaines des caractéristiques du sujet associées à une bonne performance psi semblent avoir aussi des explications psychologiquement évidentes. Par exemple, les explications motivationnelles triviales semblent suffisantes pour rendre compte de la constatation faite relativement régulièrement que ceux qui croient au psi réussissent significativement mieux que ceux qui n’y croient pas. (Néanmoins, il serait moins évident de rendre compte de la fréquente constatation que les non croyants réussissent en fait significativement moins bien que ce que laisse attendre le hasard [Broughton, 1991, p 109])

La supériorité de la performance psi des individus créatifs ou artistiquement doués – comme les étudiants de Juilliard – peut refléter les différences individuelles qui sont analogues à certains des effets hypothétiques du ganzfeld mentionnés plus haut : les individus artistiquement doués pourraient être plus réceptifs aux images étrangères, être plus aptes à transcender les contraintes rationnelles ou contextuelles de l’encodage ou de la restitution d’information ou être plus divergents dans leur pensée. On a aussi suggéré que les capacités à la fois artistiques et psi puissent relever d’un meilleur fonctionnement du cerveau droit.

Depuis des années, on porte un intérêt théorique à la relation observée entre l’extraversion et la performance psi. Eysenck (1966) estimait que les extravertis devaient bien réussir dans des tâches psi parce qu’ils s’ennuient facilement et répondent favorablement aux stimuli nouveaux. Dans un cadre tel que le ganzfeld, les extravertis pourraient devenir « affamés de stimuli » et donc pourraient être hautement sensibles à toute stimulation, dont une faible information psi entrante. A l’opposé, les introvertis seraient plus enclins à se distraire avec leurs propres pensées et donc continueraient à masquer l’information psi malgré la diminution des données sensorielles. Eysenck a également fait l’hypothèse que le psi pourrait être une forme primitive de perception antérieure aux développements corticaux au cours de l’évolution, et, en conséquence, l’éveil cortical pourrait supprimer la fonction psi. Parce que les extravertis ont un niveau d’éveil cortical inférieur, ils devraient mieux réussir dans les tâches psi (la biologie évolutionniste du psi a aussi été discutée par Broughton, 1991, pp.347-352).

Mais il y aurait des explications plus banales. Les extravertis pourraient réussir mieux que les introvertis simplement parce qu’ils sont plus relaxés et à l’aise dans le cadre social de l’expérience psi typique (par ex., l’ambiance sociale « chaleureuse » des études ganzfeld). Cette interprétation est renforcée par l’observation d’introvertis qui ont surpassé des extravertis dans une étude où les sujets n’avaient pas de contact avec l’expérimentateur mais travaillaient seuls à la maison avec du matériel reçu par la poste (Schmidt & Schlitz, 1989). Pour arriver à trancher parmi ces interprétations, les expérimentateurs ganzfeld ont commencé à utiliser l’échelle d’extraversion du NEO Personality Inventory (Costa & McCrae, 1992) qui évalue six facettes différentes du facteur extraversion-intraversion.

L’AGENT.

A l’inverse de ces informations sur le percipient dans les expériences psi, on ne connaît pratiquement rien des caractéristiques d’un bon agent ou des effets de la relation de l’agent avec le percipient. Comme on l’a montré, la suggestion initiale d’une meilleure performance psi lorsque l’agent et le percipient sont amis, issue de la méta-analyse de la base de données ganzfeld originale, n’a pas été reproduite à un niveau statistiquement significatif dans les études autoganzfeld.

Beaucoup de parapsychologues ont admis l’hypothèse plus radicale que l’agent puisse même être un élément non nécessaire dans le processus psi. Dans la terminologie de la parapsychologie, le protocole agent-percipient teste l’existence de la télépathie, d’une communication anormale entre deux individus ; cependant, si le percipient tire en quelque sorte l’information de la cible elle-même, il s’agirait de clairvoyance et la présence de l’agent serait non pertinente (sauf pour d’éventuelles raisons psychologiques comme les effets d’attente).

Au moment de sa mort, Honorton prévoyait une série d’études autoganzfeld qui compareraient systématiquement les situations agent et sans agent tout en gardant le percipient et l’expérimentateur aveugles à la situation relative à la session en cours. En vue de ce projet, il a effectué une revue méta-analytique d’études ganzfeld qui n’utilisaient pas d’agent. Il a trouvé 12 études avec une médiane de 33,5 sessions conduites par 7 investigateurs. La taille d’effet totale (*pi*) était de .56 ce qui correspond à un taux de réussite dans une tâche à quatre alternatives de 29 %. Mais cette taille d’effet n’atteint pas la signification statistique (Stouffer-z = 1,31, p = .095). Jusqu’ici, donc, il n’y a pas de preuve solide du psi dans le ganzfeld en l’absence d’agent. (Il y a, cependant, des études non ganzfeld dans la littérature qui rapportent une preuve significative de clairvoyance dont une expérience classique avec des cartes conduite par J. B. Rhine et Pratt [1954].)

La physique du Psi

Le niveau psychologique de théorisation qui vient d’être discuté n’aborde bien sûr pas l’énigme qui rend les phénomènes psi anormaux de prime abord : leur incompatibilité présumée avec notre modèle conceptuel actuel de la réalité physique. Les parapsychologues diffèrent largement les uns des autres dans leur goût pour théoriser à ce niveau mais plusieurs de ceux formés en physique ou en ingénierie ont proposé des théories physiques (ou biophysiques) des phénomènes psi (une revue approfondie de la parapsychologie théorique a été fournie par Stokes, 1987). Seules certaines de ces théories obligeraient à une révision radicale de notre conception actuelle de la réalité physique.

Cependant, ceux qui suivent les débats contemporains de la physique moderne seront conscients que plusieurs phénomènes prédits par la théorie quantique et confirmés par l’expérience sont eux-mêmes incompatibles avec notre modèle conceptuel actuel de la réalité physique. Parmi eux, il y a la confirmation empirique en 1982 du théorème de Bell qui a créé les plus grandes excitations et controverses chez les philosophes et les quelques physiciens qui veulent spéculer sur de tels sujets (Cushing & Mc Mullin, 1989 ; Herbert, 1987). En résumé, le théorème de Bell pose que tout modèle de réalité qui est compatible avec la mécanique quantique doit être non-local : il doit permettre la possibilité que les résultats des observations à deux endroits arbitrairement distants soient corrélés de manière incompatible avec tout mécanisme causal admissible physiquement.

Plusieurs modèles de réalité possibles incorporant la non-localité ont été proposés à la fois par des philosophes et des physiciens. Certains de ces modèles excluent clairement le transfert d’information de type psi, d’autres le permettent et certains, en fait, le rendent nécessaire. Donc, à un plus haut niveau de théorisation, certains parapsychologues croient qu’un des modèles de réalité les plus radicaux, compatible à la fois avec la mécanique quantique et le psi, sera peut-être accepté un jour. Dans cette éventualité, quand cela se produira, les phénomènes psi cesseront d’être anormaux.

Mais nous avons appris que de tels propos provoquent des haussements de sourcils et des grincements de dents chez la plupart de nos collègues psychologues et physiciens. Aussi restons-en là.

Le Scepticisme revisité

Plus généralement, nous avons appris que la tolérance de nos collègues pour toute sorte de théorisation sur le psi est fortement déterminée par leur degré de conviction dans la démonstration expérimentale du psi. Nous avons de plus appris que leurs diverses réactions aux données elles-mêmes sont fortement déterminées par leurs convictions a priori à ce sujet et leurs attitudes envers nombre de questions assez générales, certaines scientifiques, d’autres non. En fait, plusieurs statisticiens croient que les méthodes de test d’hypothèse traditionnelles utilisées dans les sciences du comportement devraient être abandonnées en faveur des analyses bayésiennes qui prennent en compte les croyances a priori d’une personne sur le phénomène investigué (e. g., Bayarri & Berger, 1991 ; Dawson, 1991).

Nous suspectons toutefois, en dernière analyse, que les a priori bayésiens d’une personne et ses réactions aux données sont en fin de compte déterminés par le fait qu’elle ait été plus ou moins sévèrement punie dans l’enfance pour des erreurs de type I ou bien pour des erreurs de type II.

Note de l’auteur

Daryl J. Bem, Département de Psychologie, Université Cornell ; Charles Honorton, Département de Psychologie,Université d’Edimbourg, Edimbourg, Ecosse.

Fort malheureusement, Charles Honorton est décédé d’une crise cardiaque le 4 Novembre 1992, 9 jours avant que cet article ne soit accepté pour publication . Il avait 46 ans. La parapsychologie a perdu l’un de ses plus importants collaborateurs. Quant à moi, j’ai perdu un ami très cher.

Cette collaboration a débuté un jour de 1983 où j’ai visité le Psychophysical Research Laboratories (PRL) d’Honorton à Princeton, dans le New Jersey, en tant qu’un des nombreux consultants invités pour examiner la forme et la mise en place des protocoles expérimentaux.

La préparation de cet article a été soutenue financièrement, en partie, par des bourses offertes à Charles Honorton par l’American Society for Psychical Research et la Parapsychology Foundation, deux organismes new-yorkais. Le travail au PRL, résumé dans la deuxième moitié de cet article, a été soutenu par la Fondation James S. McDonnell de Saint-Louis, dans le Missouri, et par la Fondation John E.Fetzer de Kalamazoo dans le Michigan.

Remerciements également pour les commentaires constructifs lors de la rédaction de cet article, émis par Deborah Delanoy, Edwin May, Donald McCarthy, Robert Morris, John Palmer, Robert Rosenthal, Lee Ross, Jessica Utts, Philip Zimbardo et deux correcteurs anonymes.

La correspondance au sujet de cet article doit être adressée à Daryl J.Bem, Department of Psychology, Uris Hall, Cornell University, Ithaca,New York 14853.
Courriel: d.bem@cornell.edu

REFERENCES

Atkinson, R., Atkinson, R. C., Smith, E. E., &h; Bem, D. J. (1990). Introduction to psychology (10th ed.). San Diego, CA: Harcourt Brace Jovanovich.

Atkinson, R., Atkinson, R. C., Smith, E. E., &h; Bem, D. J. (1993). Introduction to psychology (11th ed.). San Diego, CA: Harcourt Brace Jovanovich.

Avant, L. L. (1965). Vision in the ganzfeld. Psychological Bulletin, 64, 246-258.

Bayarri, M. J., &h; Berger, J. (1991). Comment. Statistical Science, 6, 379-382.

Blackmore, S. (1980). The extent of selective reporting of ESP Ganzfeld studies. European Journal of Parapsychology, 3, 213- 219.

Bozarth, J. D., &h; Roberts, R. R. (1972). Signifying significant significance. American Psychologist, 27, 774-775.

Braud, W. G., Wood, R., &h; Braud, L. W. (1975). Free-response GESP performance during an experimental hypnagogic state induced by visual and acoustic ganzfeld techniques. A replication and extension. Journal of the American Society for Psychical Research, 69, 105-113.

Broughton, R. S. (1991). Parapsychology: The controversial science. New York: Ballantine Books.

Broughton, R. S., Kanthamani, H., &h; Khilji, A. (1990). Assessing the PRL success model on an independent ganzfeld data base. In L. Henkel &h; J. Palmer (Eds.), Research in parapsychology 1989 (pp. 32-35). Metuchen, NJ: Scarecrow Press.

Child, I. L. (1985). Psychology and anomalous observations: The question of ESP in dreams. American Psychologist, 40, 1219- 1230.

Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2nd ed.). Hillsdale, NJ: Erlbaum.

Cohen, J. (1992). Statistical power analysis. Current Directions in Psychological Science, 1, 98-101.

Costa, P. T. Jr., &h; McCrae, R. R. (1992). Revised NEO Personality Inventory (NEO-PI-R) and NEO Five-Factor Inventory (NEO-FFI): Professional manual. Odessa, FL: Psychological Assessment Resources.

Cushing, J. T., &h; McMullin, E. (Eds.). (1989). Philosophical consequences of quantum theory: Reflections on Bell’s theorem. Notre Dame, IN: University of Notre Dame Press.

Dawson, R. (1991). Comment. Statistical Science, 6, 382-385.

Delanoy, D. L. (1990). Approaches to the target: A time for reevaluation. In L. A. Henkel, &h; J. Palmer (Eds.), Research in parapsychology 1989 (pp. 89-92). Metuchen, NJ: Scarecrow Press.

Dingwall, E. J. (Ed.). (1968). Abnormal hypnotic phenomena (4 vols.). London: Churchill.

Druckman, D., &h; Swets, J. A. (Eds.). (1988). Enhancing human performance. Issues, theories, and techniques. Washington, DC: National Academy Press.

Eysenck, H. J. (1966). Personality and extra-sensory perception. Journal of the Society for Psychical Research, 44, 55-71.

Gilovich, T. (1991). How we know what isn’t so: The fallibility of human reason in everyday life. New York: Free Press.

Green, C. E. (1960). Analysis of spontaneous cases. Proceedings of the Society for Psychical Research, 53, 97-161.

Harris, M. J., &h; Rosenthal, R. (1988a). Human performance research: An overview. Washington, DC: National Academy Press.

Harris, M. J., &h; Rosenthal, R. (1988b). Postscript to « Human performance research: An overview. » Washington, DC: National Academy Press.

Herbert, N. (1987). Quantum reality: Beyond the new physics. Garden City, NY: Anchor Books.

Honorton, C. (1969). Relationship between EEG alpha activity and ESP card-guessing performance. Journal of the American Society for Psychical Research, 63, 365-374.

Honorton, C. (1977). Psi and internal attention states. In B. B. Wolman (Ed.), Handbook of parapsychology (pp. 435-472). New York: Van Nostrand Reinhold.

Honorton, C. (1979). Methodological issues in free-response experiments. Journal of the American Society for Psychical Research, 73, 381-394.

Honorton, C. (1985). Meta-analysis of psi ganzfeld research: A response to Hyman. Journal of Parapsychology, 49, 51-91.

Honorton, C. (1992). The ganzfeld novice: Four predictors of initial ESP performance. Paper presented at the 35th Annual Convention of the Parapsychological Association, Las Vegas, NV.

Honorton, C., Berger, R. E., Varvoglis, M. P., Quant, M., Derr, P., Schechter, E. I., &h; Ferrari, D. C. (1990). Psi communication in the ganzfeld: Experiments with an automated testing system and a comparison with a meta-analysis of earlier studies. Journal of Parapsychology, 54, 99-139.

Honorton, C., Ferrari, D. C., &h; Bem, D. J. (1992). Extraversion and ESP performance: Meta-analysis and a new confirmation. In L. A. Henkel &h; G. R. Schmeidler (Eds.), Research in parapsychology 1990 (pp. 35-38). Metuchen, NJ: Scarecrow Press.

Honorton, C., &h; Harper, S. (1974). Psi-mediated imagery and ideation in an experimental procedure for regulating perceptual input. Journal of the American Society for Psychical Research, 68, 156-168.

Honorton, C., &h; Schechter, E. I. (1987). Ganzfeld target retrieval with an automated testing system: A model for initial ganzfeld success. In D. B. Weiner &h; R. D. Nelson (Eds.), Research in parapsychology 1986 (pp. 36-39). Metuchen, NJ: Scarecrow Press.

Hyman, R. (1985). The ganzfeld psi experiment: A critical appraisal. Journal of Parapsychology, 49, 3-49.

Hyman, R. (1991). Comment. Statistical Science, 6, 389-392.

Hyman, R., &h; Honorton, C. (1986). A joint communique: The psi ganzfeld controversy. Journal of Parapsychology, 50, 351-364.

Kennedy, J. E. (1979). Methodological problems in free- response ESP experiments. Journal of the American Society for Psychical Research, 73, 1-15.

Metzger, W. (1930). Optische Untersuchungen am Ganzfeld: II. Zur phanomenologie des homogenen Ganzfelds [Optical investigation of the Ganzfeld: II Toward the phenomenology of the homogeneous Ganzfeld]. Psychologische Forschung, 13, 6-29.

Myers, I. B., &h; McCaulley, M. H. (1985). Manual: A guide to the development and use of the Myers-Briggs Type Indicator. Palo Alto, CA: Consulting Psychologists Press.

Morris, R. L. (1991). Comment. Statistical Science, 6, 393- 395.

Nisbett, R. E., &h; Ross, L. (1980). Human inference: Strategies and shortcomings of social judgment. Englewood Cliffs, NJ: Prentice-Hall.

Palmer, J. (1978). Extrasensory perception: Research findings. In S. Krippner (Ed.), Advances in parapsychological research (Vol. 2, pp. 59-243). New York: Plenum Press.

Palmer, J. A., Honorton, C., &h; Utts, J. (1989). Reply to the National Research Council Study on Parapsychology. Journal of the American Society for Psychical Research, 83, 31-49.

Parker, A. (1975). Some findings relevant to the change in state hypothesis. In J. D. Morris, W. G. Roll, &h; R. L. Morris (Eds.), Research in parapsychology, 1974 (pp. 40-42). Metuchen, NJ: Scarecrow Press.

Parker, A. (1978). A holistic methodology in psi research. Parapsychology Review, 9, 1-6.

Prasad, J., &h; Stevenson, I. (1968). A survey of spontaneous psychical experiences in school children of Uttar Pradesh, India. International Journal of Parapsychology, 10, 241-261.

Rao, K. R., &h; Palmer, J. (1987). The anomaly called psi: Recent research and criticism. Behavioral and Brain Sciences, 10, 539-551.

Rhine, J. B., &h; Pratt, J. G. (1954). A review of the Pearce- Pratt distance series of ESP tests. Journal of Parapsychology, 18, 165-177.

Rhine, L. E. (1962). Psychological processes in ESP experiences. I. Waking experiences. Journal of Parapsychology, 26, 88-111.

Roig, M., Icochea, H., &h; Cuzzucoli, A. (1991). Coverage of parapsychology in introductory psychology textbooks. Teaching of Psychology, 18, 157-160.

Rosenthal, R. (1978). Combining results of independent studies. Psychological Bulletin, 85, 185-193.

Rosenthal, R. (1979). The « file drawer problem » and tolerance for null results. Psychological Bulletin, 86, 638-641.

Rosenthal, R. (1990). Replication in behavioral research. Journal of Social Behavior and Personality, 5, 1-30.

Rosenthal, R. (1991). Meta-analytic procedures for social research (Rev. ed.). Newbury Park, CA: Sage.

Rosenthal, R., &h; Rubin, D. B. (1989). Effect size estimation for one-sample multiple-choice-type data: Design, analysis, and meta-analysis. Psychological Bulletin, 106, 332-337.

Rosnow, R. L., &h; Rosenthal, R. (1989). Statistical procedures and the justification of knowledge in psychological science. American Psychologist, 44, 1276-1284.

Sannwald, G. (1959). Statistische untersuchungen an Spontanphonomene [Statistical investigation of spontaneous phenomena]. Zeitschrift fur Parapsychologie and Grenzgebiete der Psychologie, 3, 59-71.

Saunders, D. R. (1985). On Hyman’s factor analyses. Journal of Parapsychology, 49, 86-88.

Schechter, E. I. (1984). Hypnotic induction vs. control conditions: Illustrating an approach to the evaluation of replicability in parapsychology. Journal of the American Society for Psychical Research, 78, 1-27.

Schlitz, M. J., &h; Honorton, C. (1992). Ganzfeld psi performance within an artistically gifted population. Journal of the American Society for Psychical Research, 86, 83-98.

Schmeidler, G. R. (1988). Parapsychology and psychology: Matches and mismatches. Jefferson, NC: McFarland.

Schmidt, H., &h; Schlitz, M. J. (1989). A large scale pilot PK experiment with prerecorded random events. In L. A. Henkel &h; R. E. Berger (Eds.), Research in parapsychology 1988 (pp. 6-10). Metuchen, NJ: Scarecrow Press.

Spence, K. W. (1964). Anxiety (Drive) level and performance in eyelid conditioning. Psychological Bulletin, 61, 129-139.

Stanford, R. G. (1987). Ganzfeld and hypnotic-induction procedures in ESP research: Toward understanding their success. In S. Krippner (Ed.), Advances in parapsychological research (Vol. 5, pp. 39-76). Jefferson, NC: McFarland.

Steering Committee of the Physicians’ Health Study Research Group. (1988). Preliminary report: Findings from the aspirin component of the ongoing Physicians’ Health Study. New England Journal of Medicine, 318, 262-264.

Sterling, T. C. (1959). Publication decisions and their possible effects on inferences drawn from tests of significance- or vice versa. Journal of the American Statistical Association, 54, 30-34.

Stokes, D. M. (1987). Theoretical parapsychology. In S. Krippner (Ed.), Advances in parapsychological research (Vol. 5, pp. 77-189). Jefferson, NC: McFarland.

Swets, J. A., &h; Bjork, R. A. (1990). Enhancing human performance: An evaluation of « new age » techniques considered by the U. S. Army. Psychological Science, 1, 85-96.

Tversky, A., &h; Kahneman, D. (1971). Belief in the law of small numbers. Psychological Bulletin, 2, 105-110.

Ullman, M., Krippner, S., &h; Vaughan, A. (1973). Dream telepathy. New York: Macmillan.

Utts, J. (1986). The ganzfeld debate: A statistician’s perspective. Journal of Parapsychology, 50, 393-402.

Utts, J. (1991a). Rejoinder. Statistical Science, 6, 396-403.

Utts, J. (1991b). Replication and meta-analysis in parapsychology. Statistical Science, 6, 363-378.

Wagner, M. W., &h; Monnet, M. (1979). Attitudes of college professors toward extra-sensory perception. Zetetic Scholar, 5, 7-17.


L’IMI remercie Daryl J. Bem pour son aimable autorisation de publication de cet article.

Publication originale :

Does Psi Exist? Replicable Evidence for an Anomalous Process of Information Transfer,Psychological Bulletin, 1994, Vol. 115, No. 1, 4-18.
http://mentor.lscf.ucsb.edu/course/spring/psyc007/bem.honorton.1994.pdf

Pour en savoir plus :

Etzel Cardena : The experimental evidence for paranormal phenomena : A review

Le phénomène Ganzfeld, par Daryl J. Bem

The Ganzfeld Debate

Sur la controverse avec O’Neill et Wiseman

Updating the ganzfeld database : a victim of its own success ? Par Bem, Palmer et Broughton
http://comp9.psych.cornell.edu/dbem/Updating_Ganzfeld.pdf

Tags: