A telepatia no laboratório

O debate Ganzfeld

 [Página Inicial]

 

 

 Na década de 1970, os psicólogos Charles Honorton, William Braud e Adrian Parker desenvolveram a técnica ganzfeld para constatação de fenômenos de percepção extrassensorial.

 

O ganzfeld consiste em colocar um sujeito-receptor (ou percipiente) numa câmara de privação sensória, apresentando-lhe estímulos visuais e audíveis homogêneos a fim de amplificar sua imaginação. Objetiva-se com isso a captação de impressões mentais enviadas por um agente-emissor. As impressões podem ter como base imagens estáticas ou vídeos clipes exibidos ao emissor e selecionados randomicamente (de uma biblioteca de vídeo-imagem) por um computador. Durante o ganzfeld, o percipiente verbaliza o que lhe vem à mente, sendo tudo devidamente registrado em tempo real. Depois, juízes independentes (ou o próprio percipiente) tentam parear corretamente as declarações do percipiente que foram gravadas a 4 possibilidades, das quais 3 são imagens/vídeo “iscas” e 1 a que realmente foi exibida ao agente-emissor. Portanto, em cada tentativa, a expectativa de acerto por pura sorte é de 25%.

 

Esse estado de isolamento do percipiente é chamado de ganzfeld (isto é, “campo homogêneo” ou “campo completo”, em alemão, refletindo a meta de colocar o sujeito numa condição perceptiva uniforme e constante).

 

Exemplificando algumas ocorrências durante as sessões ganzfeld, Schlitz (1996) nos conta:

 

Em nosso estudo com os estudantes da Juilliard, nós alcançamos um êxito de 50%, que é um resultado estatisticamente significativo. Talvez mais impressionante, no entanto, sejam alguns relatórios de imaginação. Por exemplo, numa sessão o ‘emissor’ observava uma imagem mostrando o Papai Noel segurando uma garrafa de Coca. Atrás de Noel estava um quadro de avisos com um símbolo da Coca-Cola nele. As pessoas postas em ganzfeld variavelmente informavam um homem com uma barba, um homem que se parecia com o Robin Hood, um homem usando um chapéu, um homem com um saco sobre o seu ombro, um quadro de avisos que dizia Coca-Cola nele e um homem com uma barba branca. É uma bela correspondência e, depois da sessão, o participante ganzfeld não tinha nenhum problema em identificar a imagem de Noel como o alvo correto, se comparado com as "iscas".

Em outra sessão, nós usamos uma cena do filme "Estados Alterados". A cena é tingida de vermelho e um dos personagens está descendo ao inferno. Veem-se crucifixos, fumaça, fogo e um close-up de um grande lagarto. O receptor nesse caso era um estudante de drama e eu era o emissor. O receptor era um ator tão bom que sua mentalização acatou um jeito dramático. À medida que descrevia suas imagens com intensidade (podia-se ouvi-las por fones de ouvido), lembro que tive calafrios subindo até minha espinha, à medida que o mistério da cena que eu observava no monitor ia combinando com as impressões do ator em ganzfeld: "Vermelho, vermelho, vermelho, vejo vermelho". Então informou que via um túnel de poluição ou fumaça. Ele repentinamente via o sol, igual ao sol de um desenho animado; e um lagarto com uma grande grande cabeça. Chegando na última parte, o lagarto veio ao monitor diante de mim e abriu e fechou a sua boca. A sincronização foi realmente interessante. De fato, são momentos como esse que me mantêm intrigado com a pesquisa psi, apesar de todas suas complexidades.

 

Uma meta-análise[1] de 28 estudos ganzfeld foi apresentada por Honorton em 1985 em resposta a uma análise de falhas do banco de dados ganzfeld conduzida por Hyman. Hyman achou um efeito global altamente significativo no banco de dados, mas concluiu que esse efeito era nulo, porque – segundo ele – havia uma relação significativa entre os resultados dos estudos e as falhas procedimentais e estatísticas contidas nesses estudos. Porém, a categorização de falhas de Hyman foi severamente censurada por Honorton e um psicometrista, Saunders, os quais encontraram defeitos na análise estatística de Hyman.

 

A meta-análise de Honorton não encontrou nenhuma relação significativa entre os resultados dos estudos e sua qualidade. A combinação global (Stouffer) z score para os 28 estudos ganzfeld incluídos na meta-análise de Honorton foi altamente significativa (z = 6,6, p < 10-9, bicaudal). Os tamanhos do efeito[2] por experimentador foram homogêneos e globais. A discrepância entre as análises de Honorton e Hyman sobre os estudos ganzfeld deu origem a uma meta-análise adicional por Rosenthal, um especialista independente em meta-análise. Como Honorton, Rosenthal achou uma combinação global z score de 6.60 para os 28 estudos ganzfeld. Seu filedrawer estimado combinou com aquele de Honorton, exigindo 423 estudos não relatados e nulos para neutralizar a significância do banco de dados.

 

Vale a pena notar que outro crítico, Blackmore, conduziu uma pesquisa para descobrir o número de estudos ganzfeld não relatados em 1980, antes do debate Honorton/Hyman. Sua pesquisa encontrou 32 estudos não relatados, dos quais 12 jamais foram finalizados e os quais não poderiam ser analisados. Dos 19 estudos restantes, 14 foram julgados por Blackmore tendo metodologia adequada, com 5 destes (36%) reportando resultados significativos. Ela concluiu que "o viés introduzido por reportes seletivos de percepção extrassensorial em estudos ganzfeld não é um colaborador importante para a proporção global dos resultados significativos". Rosenthal, depois de considerar a possível influência de várias falhas nos resultados dos estudos, concluiu que a taxa de acerto global dos estudos seria estimada em 33%, enquanto que a expectativa do acaso era de 25%.

 

Em 1986 Honorton e Hyman publicaram o Joint Communiqué, ou seja, um comunicado oficial através do qual eles concordaram que existia um efeito global no banco de dados de estudos ganzfeld, mas continuaram a discordar a questão desse efeito ter sido influenciado por falhas experimentais. No comunicado, eles esboçaram os cuidados metodológicos necessários que deveriam ser tomados para evitar a possibilidade de estudos futuros terem o mesmo nível de debate que cercou o anterior. Eles concluíram que mais estudos precisavam ser conduzidos, usando os controles que eles documentaram, antes de qualquer veredito final sobre o banco de dados pudesse ser feito.

 

Honorton e sua equipe de pesquisa projetaram um novo sistema ganzfeld que seguia os critérios que ele e Hyman especificaram no último comunicado oficial. Esse sistema, e os estudos que o usaram, foram chamados de "estudos autoganzfeld", à medida que o procedimento estava sob controle de computadores a fim de evitar problemas encontrados em alguns dos estudos anteriores. Antes de o laboratório de Honorton fechar em 1989, 11 séries experimentais, representando 355 sessões, foram conduzidas por 8 experimentadores usando o autoganzfeld. Honorton et al. publicaram um resumo dos estudos autoganzfeld e os compararam com sua antiga meta-análise. As sessões de autoganzfeld produziram resultados globais significativos (z = 3.89, p = 0.00005), com uma taxa de acerto obtida de 34.4% (com 25% sendo o esperado pelo acaso). Os tamanhos do efeito por série e por experimentador foram homogêneos. Ao se comparar os resultados autoganzfeld àqueles dos 28 estudos da antiga meta-análise, revelaram-se ser bem parecidos, com o autoganzfeld mostrando marcas de percepção extrassensorial ligeiramente melhores que aquelas obtidas nos estudos antigos (resultado do autoganzfeld por série: tamanho do efeito ou Es = .29, a meta-análise dos 28 estudos anteriores por experiência: Es = .28).

 

Hyman em 1991, comentando a apresentação desses resultados pela estatística Jessica Utts, concluiu que as experiências de "Honorton produziram resultados intrigantes. Se, como Utts sugere, os laboratórios independentes podem produzir resultados semelhantes, com as mesmas relações e com a mesma atenção à metodologia rigorosa, então a Parapsicologia pode, de fato, finalmente ter seu lugar". E esses “resultados semelhantes” têm sido replicados de forma independente por outros laboratórios.

 

[até aqui, este tópico retrata quase na íntegra Delanoy, 1993]

 

Assim, pesquisas utilizando a técnica ganzfeld têm repetidamente confirmado a existência de percepção extrassensorial. Desde 1974, seis meta-análises foram realizadas a respeito de estudos ganzfeld, obtendo-se resultados bastante significativos. As probabilidades contra o acaso ficaram na seguinte ordem:

 

Meta-análises de estudos

Ganzfeld(autores)

Nº de estudos

Período abrangido

Intervalo de confiança (95%)

Probabilidades (p)

Honorton (1985)

28

1974-1981

.62 (.60 a .66)

1.2 x 10-12

Bem e Honorton (1994)

10

1983 a 1989

.59 (.53 a .64)

.0002

Milton e Wiseman (1999)

30

1989 a 1997

.53 (.50 a .56)

.041*

Storm e Ertel (1999)

11

1982 a 1989

.58 (53. a .63)

.002

Bem, Palmer e Broughton (2001)

9

1997 a 1999

.64 (.59 a .68)

1.4 x 10-7

Storm, Tressoldi e Di Risio (2010)

29

1997 a 2008

.59 (.56 a .62)

2.13 x 10-8

 

 

Muito céticos objetam que a meta-análise de 1999 (elaborada por Julie Milton e Richard Wiseman), com p = 0.41, confirma a hipótese nula, ou seja, excluídas as explicações normais (tais como vazamento sensorial, fraude, viés do experimentador, erros estatísticos, etc.) os experimentos ganzfeld reproduzem probabilidades a nível do acaso, logo, fica desmistificada a existência de PES. Isso não é verdade. A razão para que a meta-análise de M./W. tenha falhado em confirmar psi é que estes autores utilizaram médias não ponderadas, ignorando o tamanho da amostra de cada estudo analisado. Dean Radin (2006) adverte que se somarmos o total de acertos e de tentativas nos 30 estudos avaliados por M./W. (o método correto de fazer meta-análise) encontraremos resultados estatisticamente significativos a favor de psi, com probabilidades contra o acaso em cerca de 20 para 1.

 

Além disso, a meta-análise de M./W. possui mais dois graves erros. Ela ignorara a existência dos resultados altamente positivos de Kathy Dalton (Exploring the links: Creativity and psi in the ganzfeld, 1997), muito embora tenham sido publicados quase 2 anos antes. Ademais, mistura estudos psi confirmatórios com exploratórios, ao contrário do que tinha ficado acordado no Joint Communiqué entre Honorton e Hyman; assim M./W. juntaram estudos sem a preocupação de avaliar o grau de aderência de cada estudo incluído na amostra com o protocolo ganzfeld (Carter, 2007).  Esse último equívoco de M./W. tem especial relevância, porque além da técnica ganzfeld padrão, a qual utiliza estímulos visuais, existem experimentos com variações de alvos, como usar formatos não-visuais, a exemplo de músicas. A experiência tem mostrado que o ganzfeld-padronizado (o adotado no protocolo) tem rendido muito mais sucesso em evidenciar a psi. Bem, Palmer e Brougton (2001) dividiram dois grupos de estudos, um usando a técnica padrão e o outro grupo usando variações técnicas, a exemplo de alvos melódicos. O exame revelou que as pesquisas padrão revelaram efeitos contra o acaso na ordem de 5 mil contra 1, enquanto os estudos não-padronizados não superaram a expectativa do acaso [fonte].

 

Em 2006 Radin atualizou o banco de dados ganzfeld, englobando o período de 1974 até 2004, num total de 88 experiências, com 1.008 acertos em 3.145 tentativas. Taxa global de 32%, em contraste aos 25% esperados pelo acaso. Essa diferença está associada a probabilidades contrárias ao acaso de 29 quintilhões contra 1. Radin verificou que seriam necessários 23 estudos com resultados negativos ocultados, para cada estudo publicado, a fim de reduzir a probabilidade encontrada dentro da expectativa do acaso (o chamado efeito filedrawer). Foram 88 experimentos publicados, logo 23 x 88 = 2.002 estudos negativos e escondidos deveriam existir para fulminar a evidência de psi em ganzfeld. Considerando que cada estudo usando essa técnica, em média, é composto por 36 tentativas, os supostos 2.002 estudos "engavetados" exigiriam 72.072 sessões (36 x 2.002). Radin arremata: "seria necessário rodar sessões ganzfeld continuamente, 24 horas por dia, sete dias por semana, durante 36 anos e não permitir que nem uma de todas essas sessões jamais viesse à luz para gerar essa quantidade de sessões, o que é simplesmente inadmissível". Na última atualização, englobando a 6ª meta-análise de 2010, Radin comenta: “quando atualizamos [o resultado global de todas] as meta-análises com os estudos publicados em 2010, encontramos 1.323 acertos em 4.196 tentativas, com uma taxa de acerto combinada de 31,5%. Os novos dados aumentam o a probabilidade global contra o acaso de meros 29 quintilhões contra 1, em 2004, para impressionantes 13 sextilhões contra 1. Esse aumento estatístico é esperado na hipótese de telepatia ser real, pois mais dados estatísticos proporcionam uma melhor capacidade para detectar o efeito” (Radin, 2013).

 

Mais sobre o debate Ganzfeld pode ser conferido nas refutações a Ray Hyman.

 



[1] “A meta-análise é um termo que se refere a um grupo de procedimentos estatísticos usados para sumarizar e descrever corpos de pesquisa. A meta-análise provê um meio sistemático de combinar os resultados de estudos individuais relatados com o objetivo de avaliar a consistência global dos resultados, consequentemente ajudar a identificar variáveis dentro do banco de dados que parecem afetar os resultados, conhecidas como "variáveis moderadoras''. Técnicas meta-analíticas proveem revisões quantitativas dos corpos de pesquisa, no lugar de qualitativas. O termo "meta-análise'' foi primeiramente cunhado por Glass em 1976[1], embora os procedimentos básicos já fossem conhecidos há várias décadas (Snedecor [2]; Mosteller e Bush [3])” (Delanoy, 1993).

[2] O tamanho do efeito é uma medida de graduação que serve para demonstrar o quanto um determinado fenômeno está presente na população ou amostra. “A maioria das medidas do tamanho do efeito são definidas de forma que elas são 0 (zero) quando a hipótese nula for verdadeira. Diferentemente das medidas de teste estatístico, tamanhos do efeito não crescem em magnitude com o tamanho do estudo. Desse modo, eles fornecem um retrato mais preciso da replicação através de estudos que podem ser feitos somente por medidas estatísticas padrões. Isso pode ser especialmente importante ao lidar-se com pequenos efeitos, consequentemente estudos com força relativamente baixa, como os comumente encontrados na pesquisa parapsicológica” (Delanoy, idem).