Críticas a la investigación psi: los contra-argumentos más fuertes

Un tratamiento honesto del carril investigador sobre la investigación psi tiene que comprometerse seriamente con los argumentos escépticos más fuertes. Desestimarlos es deshonesto; capitular ante ellos también es deshonesto.
Este artículo recorre los tres contra-argumentos más fuertes a la evidencia de investigación psi, qué aciertan, y dónde omiten. El objetivo: dejarte con una posición defendible independientemente de si comenzaste escéptico o curioso.
La crítica del prior Bayesiano de Wagenmakers
Eric-Jan Wagenmakers y colegas publicaron en 2011 un re-análisis del meta-análisis Ganzfeld de Storm 2010 usando estadística Bayesiana en lugar de frecuentista. Su conclusión: sin evidencia de psi.
El argumento: la inferencia Bayesiana requiere que el analista especifique una probabilidad a priori — qué tan probable es el fenómeno antes de mirar los datos. Wagenmakers usó un prior consistente con "psi es mecánicamente imposible." Bajo ese prior, la misma tasa de aciertos del 32% que el análisis frecuentista de Storm marcó como p < 10⁻⁹ produce un factor Bayes que falla en superar el prior.
Lo que acierta: El análisis Bayesiano es el marco apropiado para evaluar afirmaciones extraordinarias, y la probabilidad a priori importa. Si tienes razones a priori fuertes para no creer en psi, los datos deben ser correspondientemente fuertes para actualizarte.
Lo que omite: la elección del prior no son datos — es una suposición de partida. El prior de Wagenmakers asume que psi es imposible a un grado que ninguna evidencia empírica realista podría superar. Los críticos correctamente notan que esto colapsa la inferencia Bayesiana en un argumento de no-falsabilidad. La refutación de Storm 2013 muestra que priors más neutrales recuperan la significancia original.
Stanovich y el argumento de sesgo de publicación
Keith Stanovich, en su libro de texto How to Think Straight About Psychology, argumenta que efectos pequeños a lo largo de muchos estudios son particularmente vulnerables al sesgo de publicación — el problema del "cajón de archivo." Los investigadores y revistas publican preferentemente resultados significativos, dejando un número desconocido de resultados nulos en cajones de archivo.
Si el sesgo de publicación es real y severo, entonces los meta-análisis que agregan solo estudios publicados sobreestiman los tamaños de efecto verdaderos.
Lo que acierta: el sesgo de publicación es un problema documentado en psicología, no exclusivo de la parapsicología. La crisis de replicación de 2011-2016 demostró que incluso hallazgos mainstream son vulnerables.
Lo que omite: la parapsicología ha sido uno de los pocos campos con políticas explícitas de publicación-de-resultados-nulos. El meta-análisis de Bösch, Steinkamp y Boller 2006 en Psychological Bulletin modeló explícitamente el sesgo de publicación y concluyó que incluso después de la corrección, permaneció un pequeño pero significativo efecto acumulado.
Hyman y el análisis de falla de protocolo
Ray Hyman, un psicólogo afiliado con CSICOP, ha pasado décadas auditando protocolos parapsicológicos. Su crítica más citada se enfoca en los primeros estudios Ganzfeld (1970s-1980s) que tenían problemas documentados de fuga sensorial: el receptor a veces podía oír al emisor a través de aislamiento de sonido inadecuado, o podía recoger pistas de experimentadores que sabían el blanco.
Estas fallas de protocolo inflaron los tamaños de efecto en la literatura temprana.
Lo que acierta: los primeros estudios Ganzfeld eran metodológicamente más débiles que las replicaciones posteriores. La auditoría de Hyman identificó problemas reales, y la comunidad parapsicológica respondió implementando protocolos más estrictos.
Lo que omite: la literatura post-Hyman — los estudios de 1997-2008 agregados en el meta-análisis de Storm 2010 — usaron el protocolo auto-Ganzfeld que el propio Hyman contribuyó a diseñar. Estos estudios fueron específicamente construidos para abordar sus críticas. Produjeron significancia acumulada de p < 10⁻⁹.
Lo que los críticos más fuertes conceden
Leer la literatura escéptica cuidadosamente revela lo que incluso los críticos más rigurosos conceden:
- La significancia estadística acumulada a lo largo de PEAR (1.7M ensayos) y Storm 2010 (30 estudios) no es cero
- Las auditorías metodológicas identifican preocupaciones reales pero no eliminan la significancia acumulada
- El desacuerdo entre proponentes y escépticos es en gran parte sobre interpretación bajo diferentes priors, no sobre los datos mismos
Este es el estado real del campo en 2026. Es más complicado que "pseudociencia resuelta y desmentida" y más complicado que "mente-sobre-materia probada."
¿Cuál es la conclusión honesta?
Tres puntos que vale la pena sostener simultáneamente:
1. Las críticas escépticas son serias y parcialmente correctas. La elección del prior Bayesiano importa. El sesgo de publicación es una preocupación real. Las fallas tempranas de protocolo fueron reales. Cualquiera defendiendo la investigación psi debe comprometerse con estas críticas en lugar de desestimarlas.
2. Los datos acumulados sobreviven la auditoría. Después de corregir por sesgo de publicación (Bösch 2006), usar priors Bayesianos neutrales (Storm 2013), y aplicar protocolos post-Hyman (Storm 2010), la significancia acumulada permanece.
3. La interpretación es la pregunta abierta. "¿Es psi real?" es un compromiso metafísico. "¿Qué está midiendo el dato acumulado?" es la pregunta empírica real, y está sin resolver.
Para la base de evidencia más amplia, ver el Pilar de Evidencia de Investigación Psi. Para el test n=1 de una persona sobre la pregunta, ver la vista previa del Protocolo de Alineación.
Fuentes
Ver la versión en inglés para la lista completa de fuentes con enlaces.
/// TRANSMISIONES RELACIONADAS
El meta-análisis Ganzfeld de 2010 explicado: 30 estudios, p < 10⁻⁹
Storm, Tressoldi & Di Risio (2010) agregaron 30 estudios de telepatía Ganzfeld en Psychological Bulletin. Tasa de aciert…
LEER →
El Proyecto de Consciencia Global: 28 años de RNGs mundiales
El Proyecto de Consciencia Global corrió más de 70 generadores de números aleatorios alrededor del mundo durante 28 años…
LEER →
Lo que realmente encontró el laboratorio PEAR: 28 años de datos REG
El laboratorio de Investigación de Anomalías de Ingeniería de Princeton corrió 1.7 millones de ensayos de Generadores de…
LEER →
¿Es real la investigación psi? Los números que nadie cita.
La cobertura mainstream de la investigación psi se detiene en 'fringe'. Los datos no. El laboratorio PEAR de Princeton c…
LEER →