x
1

Crisis de replicación



La crisis de replicación (o crisis de replicabilidad) refiere a una crisis metodológica en las ciencias en que investigadores han encontrado que los resultados de muchos de los experimentos científicos son difíciles o imposibles de replicar en investigaciones posteriores por investigadores independientes o por los investigadores originales de estos estudios.[1]​ Aunque la crisis ha estado presente por largo tiempo, la frase fue acuñada a inicios de la década de 2010 como parte de una mayor concienciación sobre el problema. La crisis de replicación representa un tema de investigación importante en el campo de la metaciencia.

Considerando que la reproducibilidad de experimentos es una parte esencial del método científico, la incapacidad de replicar los estudios de otros tiene consecuencias potencialmente graves para muchos campos de la ciencia, en los que teorías significativas son hundidas o irreproducibles en su trabajo experimental.

La crisis de replicación ha sido particularmente discutida en psicología (y en particular, psicología social) y en medicina, donde un número de esfuerzos ha sido hecho para re-investigar resultados clásicos, con el fin de determinar tanto la fiabilidad de los resultados, y, si se hallan inválidos, las razones para el fracaso de la replicación.[2][3]

Según una encuesta realizada en 2016 a 1500 investigadores, por la revista Nature, el 70% de ellos habían sido incapaces de reproducir al menos uno de los experimentos de otro científico (y el 50% no habían logrado reproducir uno de sus propios experimentos).

Estos números difieren entre disciplinas:[4]

En 2009, el 2% de los científicos admitieron haber falsificado estudios al menos una vez y 14% admitieron saber personalmente de alguien que hubiera falsificado resultados. Estas malas prácticas han sido declaradas más frecuentemente por investigadores médicos que por otros.[5]

Un análisis sobre 49 estudios médicos realizados entre 1990–2003, con más de 1000 citas, mostró que en 45 de ellos se anuncia que la terapia estudiada era eficaz. Fuera de estos estudios, 16% estuvo contradicho por estudios subsiguientes, 16% presentó resultados aumentados sobre su efectividad y 24% no pudo ser replicado.[6]​ La FDA (Food and Drug Administration) de Estados Unidos entre 1977–1990 estima errores entre el 10% y el 20% sobre los estudios médicos.[7]​ En un artículo publicado en 2012, Glenn Begley, un asesor biotecnológico que trabaja en Amgen, y Lee Ellis, de la Universidad de Texas, argumentó que sólo rl 11% de los preestudios de cáncer clínico podrían ser replicados.[8][9]

Un artículo de 2016 de John Ioannidis, Profesor de Medicina y de Investigación en Salud y política de la Universidad Stanford, argumenta sobre "Por qué la mayor parte de la investigación clínica no es útil" ("Why Most Clinical Research Is Not Useful").[10]​ En el artículo Ioannidis puso en discusión algunos los problemas y llama a una reforma, relevando argumentos que permitan realizar investigaciones clínicas útiles – un ejemplo era la necesidad para la investigación en medicina centrada en el paciente.  (p. ej. en la forma del Paciente-Centró Instituto de Búsqueda de los Resultados) en vez de la práctica actual a principalmente cuidar de "las necesidades de médicos, investigadores y/o patrocinadores". Ioannidis es conocido por su foco en la ciencia en sí misma, desde su artículo de 2005 "Por qué la mayoría de los resultados publicados son falsos".  ("Why Most Published Research Findings Are False")[11]

Los fracasos de replicación no son únicos a la psicología y estos se han encontrado en todos los campos de la ciencia.[12]​ Aun así, varios factores se han combinado para poner a la psicología en el centro de la controversia, especialmente en el área de psicología social, a pesar de que otras áreas de la psicología como la psicología clínica también han sido implicadas.

En primer lugar, prácticas de búsqueda cuestionable (QRPs) han sido identificadas como denominador común en el campo. Tales prácticas, mientras no son intencionadamente fraudulentas, implican caer en un área gris de prácticas científicas aceptables o explotan la flexibilidad en recolección de datos, análisis, e información, a menudo en un esfuerzo para obtener un resultado deseado. Ejemplos de QRPs son la inclusión selectiva de información o publicación parcial de datos (informando solo algunos de las condiciones de estudio o medidas dependientes recogidas en una publicación), parada opcional (escogiendo cuándo parar la recolección de datos, a menudo basándose en la importancia estadística de las pruebas), redondear valores p (redondeando valores abajo a .05 para sugerir importancia estadística), efecto de "cajón del archivo"(omitir la publicación de ciertos datos), post-hoc storytelling (enmarcando análisis exploratorios como análisis confirmatorios), y manipulación de los valores más extremos (sacando los valores límite o dejándolos en un conjunto de datos para causar una prueba estadística significativa).[13][14][15][16]​ Una encuesta de encima 2,000 psicólogos indicaron que una mayoría de encuestadas admitió a utilizar al menos un QRP. Conclusiones positivas falsas, a menudo resultando de la presión para publicar o el sesgo de confirmación propia del autor, es una amenaza inherente en el campo, requiriendo un grado seguro de escepticismo en la parte de lectores.[17]

En segundo lugar, la psicología y la psicología social en particular, se ha encontrado en el centro de varios escándalos que implican francamente investigación fraudulenta, más notablemente se ha admitido fabricación de datos por Diederik Stapel[18]​ así como alegatos en contra otros. Aun así, la mayoría de los académicos reconocen aquel fraude es, quizás, la contribución menor a la crisis de replicación.

Tercero, varios efectos en ciencias psicológicas han sido encontrados como difíciles de replicar, incluso antes de la crisis de replicación actual. Por ejemplo, la revista científica Judgment and Decision Making ha publicado varios estudios sobre los años que falla en proporcionar soporte para la teoría del pensamiento inconsciente. Las replicaciones aparecen particularmente difíciles cuándo las pruebas de búsqueda son pre-registradas y la investigación conducida por grupos de investigación no involucrados afectan profundamente la teoría cuestionada.

Estos tres elementos juntos ha resultado en atención renovada para la replicación apoyada por Kahneman.[19]​ El escrutinio de muchos efectos ha mostrado que varias creencias de núcleo son duras de replicar. Una edición especial reciente de la revista la psicología Social se centró en estudios de replicación y aseguró que las creencias fueron encontradas como difíciles de replicar.[20]​ Una 2012 edición especial de las Perspectivas de revista en la ciencia Psicológica también centrada en los asuntos que varían de sesgo de publicación a null-aversión que contribuye a las crisis de replicación en psicología En 2015, el primer estudio empírico abierto de la reproducibilidad en Psicología fue publicado, llamado: Proyecto de Reproducibilidad.[21]​ Investigadores alrededor del mundo colaboraron para replicar 100 estudios empíricos de tres revistas de Psicología. Menos de la mitad de las replicaciones fueron exitosas en reproducir resultados estadísticos significativos en la dirección esperada, aunque la mayoría de las replicaciones produjeron tendencias en la dirección deseada.[22]

Un informe por la Colaboración de Ciencia Abierta en agosto de 2015 aquello estuvo coordinado por Brian Nosek estimó la reproducibilidad de 100 estudios en ciencia psicológica de tres alto-ranking revistas de psicología.[23]​ En general, 36% de las replicaciones cedieron hallazgos significativos (p valor abajo .05) comparó a 97% de los estudios originales que tuvo efectos significativos. La medida de efecto mala en las replicaciones era aproximadamente a medias la magnitud de los efectos informó en los estudios originales.

El mismo papel examinó los índices de reproducibilidad y medidas de efecto por la Revista de Personalidad y Psicología Social (JPSP), La revista de Psicología Experimental: Aprendizaje, Memoria, y Cognición (LMC), Ciencia Psicológica (PSCI) y disciplina (psicología social, psicología cognitiva). Índices de replicación del estudio eran 23% para JPSP, 38% para JEP:LMC, y 38% para PSCI. Estudios en el campo de psicología cognitiva tuvo un índice de replicación más alto (50%) que estudios en el campo de psicología social (25%).

Un análisis de la historia de publicación en la parte superior 100 revistas de psicología entre 1900 y 2012 indicó que aproximadamente 1.6% de todas publicaciones de psicología eran intentos de replicación . Los artículos estuvieron considerados un intento de replicación si la replicación "de plazo" aparecida en el texto. Un subconjunto de aquellos estudios (500 estudios) era aleatoriamente seleccionado para examen más lejano y cedió un índice de replicación más bajo de 1.07% (342 de los 500 estudios [68.4%] era de hecho replicaciones). En el subconjunto de 500 estudios, el análisis indicó que 78.9% de intentos de replicación publicada eran exitosos. El índice de replicación exitosa era significativamente más alto cuándo al menos un autor del estudio original era parte del intento de replicación (91.7% relativo a 64.6%).

Destacando la estructura social que desalienta replicación en psicología, Brian D. Earp y Jim Un. C. Everett enumeraron cinco puntos explicando por qué los intentos de replicación son infrecuentes:[24][25]

Por estas razones los autores defienden que la psicología está frente a un dilema social disciplinario, donde los intereses de la disciplina se contraponen con el interés del investigador individual.

El marketing es otra disciplina con una "necesidad desesperada para replicación".[27]​ Además de argumentos anteriormente mencionados, el estudios de replicaciones en marketing están necesitados para examinar la aplicabilidad de teorías y modelos a través de países y culturas, el cual es especialmente importante debido a influencias posibles de globalización.[28]

En un trabajo publicado en 2015 Glenn Begley y John Ioannidis ofrece cinco ideas fuerza cuando se resume este problemas:[29]

De hecho algunas predicciones de una crisis posible en el mecanismo de control de la calidad de ciencia puede ser remontado varias décadas, especialmente entre becarios en ciencia y estudios de tecnología (STS). Derek de Solla Precio @– consideró el padre de scientometrics @– pronosticó que la ciencia podría lograr esenility' a raíz de su crecimiento exponencial propio.[30]​ Algunos literatura de día presente parece a vindicate esto 'desbordamiento' prophesy, lamenting en decadencia en ambas atención y calidad.[31][32]

Filósofo e historiador de Ciencia Jerome R. Ravetz Pronosticó en su 1971 libro conocimiento Científico y sus problemas sociales que ciencia @– en emotivo de la poca ciencia hecha de restringió comunidades de científicos a ciencia grande o techno-ciencia @– padecería problemas de primer orden en su sistema interno de control de calidad. Ravetz Anticipó que el sistema de la ciencia moderna del incentivo podría devenir dysfunctional (el presente 'publicar o perecer' reto). Para Ravetz la calidad en ciencia está mantenida cuándo hay una comunidad de los becarios enlazaron por normas y estándares, y una disposición para estar por estos.

Historiador Philip Mirowski ofreció más recientemente una diagnosis similar en su 2011 Ciencia de libro Mart (2011).[33]​ Soyarte' es aquí una referencia al gigante minorista 'Walmart' y una alusión al commodification de ciencia. En el análisis de Mirowski cuándo la ciencia deviene una mercancía siendo comerciado en un mercado sus derrumbamientos de calidad. Mirowski Argumenta su caso por localizar la decadencia de ciencia a la decisión de empresas importantes para cerrar su en laboratorios de casa para outsource su trabajo a universidades, y posteriormente para mover su búsqueda fuera de universidades a incluso organización de búsqueda de contrato más barata (CRO).

La crisis del sistema de control de la calidad de la ciencia está afectando el uso de ciencia para política. Esto es la tesis de un trabajo reciente por un grupo de investigadors STS, quiénes identifican en 'la política basada ( o informada) en evidencia' es un punto de tensión presente.[34][35]

La replicación ha sido referida a como "el piedra angular de ciencia".[36][37]​ Intento de estudios de la replicación para evaluar si publicó los resultados reflejan hallazgos ciertos o falsos positivos. La integridad de reproducibilidad y hallazgos científicos de búsqueda son importantes cuando forman la fundación de conocimiento en qué estudios futuros está construida.



Escribe un comentario o lo que quieras sobre Crisis de replicación (directo, no tienes que registrarte)


Comentarios
(de más nuevos a más antiguos)


Aún no hay comentarios, ¡deja el primero!