Colaboración especial
De la Macorra García JC. La ciencia, el método científico, el azar y la navaja de Ockham. Cient. Dent. 2024; 21; 2; 90-92.
La ciencia, el método científico, el azar y la navaja de Ockham
La ciencia, el método científico, el azar y la navaja de Ockham Y la actividad que más ha contribuido a ello ha sido la ciencia, la empresa sistemática de recopilar conocimientos sobre el mundo, y de organizar y condensar dichos conocimientos en leyes y teorías comprobables1. La manera más eficiente que conocemos de hacerlo es la I+D+i: la investigación, el desarrollo y la innovación. La investigación se ha definido de muchas maneras, pero podríamos estar de acuerdo en que es una actividad novedosa, creativa, incierta, sistemática, transferible y reproducible2. Una actividad que trata de responder a algunas de las preguntas básicas que nos hacemos los humanos: por qué, quién, cómo o cuánto; cómo funciona, en fin, la naturaleza. Pero nos encontramos, para ello, con dos inconvenientes.
El primero, aunque eso no es por sí mismo un obstáculo, es que es un esfuerzo sistemático, como se ha dicho. Tiene unas reglas universalmente aceptadas, que conocemos como el método científico y que son un conjunto paulatinamente creciente de normas, una pauta general cuyo objetivo es formular una teoría que explique algún aspecto o evento actual de la naturaleza y prediga que ocurrirá en ciertas circunstancias. El método científico indica, para ello, las maneras de observar la naturaleza, de formular una explicación tentativa inicial -una hipótesis- consistente con lo observado y capaz de hacer predicciones de lo que ocurriría en unas circunstancias diferentes, si fuera correcta.
Nos dice también como comprobar esas predicciones con experimentos o nuevas observaciones. Solo si a la vista de sus resultados la hipótesis inicial se mantiene como la mejor explicación tras sucesivas comprobaciones, la consideraremos aceptable o creíble.
Hay que tener en cuenta que la ciencia avanza mediante el falseamiento de hipótesis, la demostración de que alguna hipótesis es inválida o no cierta3,4, de manera que una hipótesis es tomada como aceptable mientras no se demuestre que no funciona bien. Así, solo las hipótesis verificadas, que han sobrevivido a los intentos de comprobación, se aceptan -aunque sea provisionalmente- como válidas.
Sin embargo, el inconveniente aparece porque casi ninguna de las abundantes reglas que conforman el método científico es sencilla ni es, muchas veces, intuitiva. No solo el aprendizaje de cómo hacer investigación siguiendo el método científico es largo y complejo y con una curva de aprendizaje empinada, sino que el entender de qué manera se ha hecho y lo que significa la investigación hecha por otros es frecuentemente complicado. Y esta es una de las grandes paradojas de la ciencia: mueve y conforma nuestro mundo, pero pocas veces entendemos completamente por qué y cómo.
El otro gran inconveniente es el azar, que es más fácil de comprender que de explicar. Se ha definido como la impredecibilidad5: la imposibilidad de anunciar por revelación, conocimiento fundado, intuición o conjetura algo que ha de suceder (RAE*). En la experimentación, la gran generadora de conocimientos, el azar es el gran confundidor: es capaz de hacernos creer que algo es de cierta manera o se comporta de cierta forma cuando no es así, o no va a ser así siempre.
Es decir, ni en la investigación ni en la vida diaria tendremos la certeza de que si algo ha ocurrido ha sido debido al azar o a alguna otra causa. Y debemos tener presente que el azar está siempre presente, pero que no sabemos con qué intensidad influye.
El método científico tiene protocolos destinados a minimizar o a aprovechar en nuestro beneficio los efectos del azar al diseñar un experimento u observación. Otra parte esencial del método científico, que nos ayudará a discernir, una vez acabado el experimento o realizada la observación, cuánto ha actuado el azar es la estadística, que calculará mediante algoritmos más o menos complejos cual es la probabilidad de que haya sido el azar el causante de lo que hemos encontrado. Nada más y nada menos. Esa probabilidad es la tan conocida p. Hablaremos algo más de ella.
Una probabilidad puede estar, si hablamos en tantos por 1, entre el 0 (imposibilidad) y el 1 (certeza), o entre el 0% y el 100%, si hablamos en porcentajes.
Supongamos que ese análisis estadístico de nuestros resultados o de nuestra observación nos dice que la probabilidad (la p) de que el azar los haya producido es, digamos, 0.15: con un 15% de probabilidad, el azar ha hecho que sean así. Eso ¿es poco o es mucho? En otras palabras: nuestro experimento, nuestra observación, ¿resultan como nuestra hipótesis había predicho, o es que el azar está engañándonos? Esta es una pregunta clave: nuestra hipótesis ¿es una explicación válida, predice bien?, ¿hasta dónde es aceptable el juego del azar?
Conviene traer a colación ahora a William de Ockham, un monje franciscano inglés que vivió a caballo de los siglos XIII y XIV. Su aportación relevante para nuestras preguntas es lo que se conoce popularmente como la navaja de Ockham o principio de parsimonia, aunque en sus escritos nunca usó esta denominación ni escribió expresamente la formulación hoy aceptada: non sunt multiplicanda entia praeter necessitatem, las entidades o las asunciones no deben emplearse innecesariamente. En otras palabras, debe preferirse la explicación más simple.
Y, ¿cuál es la explicación más simple de los resultados que hemos obtenido?: el azar. Si es suficientemente probable que haya sido el azar, entonces debemos aceptar que ha sido él. Pero hay que decidir hasta dónde es admisible la influencia del azar. En un ejemplo de consenso -aunque haya voces diferentes6,7-, la comunidad científica acepta desde hace tiempo8 que un 5% de probabilidad o más (una p igual o mayor que 0.05, como era el caso del ejemplo anterior) de que el azar haya tenido un efecto importante, es demasiado. Si la probabilidad es tan alta, nuestra hipótesis no es una buena predictora dado que lo más verosímil es que haya sido el azar el que ha motivado los resultados o, al menos, de que haya influido en exceso. En este caso, la hipótesis que hemos ideado no es aceptable.
Podemos pensar que limitar la aceptabilidad de nuestras explicaciones, la verosimilitud de nuestras hipótesis, a una franja tan pequeña de probabilidad (del 0 al 5%) es muy exigente: solo cuando podemos casi -recalco: casi– excluir la acción del azar, aceptamos que no ha sido él. Esto es lo que le da robustez a la ciencia: solo cuando estamos bastante seguros –obsérvese: nunca estaremos seguros completamente, p nunca será cero– aceptamos las explicaciones.
Esta incerteza, esta inseguridad respecto a la credibilidad de las hipótesis es también uno de los motores de la ciencia: avanzará si conseguimos encontrar explicaciones mejores que las que hemos venido teniendo como buenas. Esto puede ejemplificarse mediante la descripción de los pasos graduales desde el descubrimiento hasta la descripción detallada del linfoma de Burkitt9.
Así pues, siempre habrá una posibilidad de demostrar que una hipótesis es incorrecta, mejorable. Si lo es deberemos buscar una explicación -una hipótesis- mejor. Y someterla a prueba, en una cadena continua. La navaja de Ockham ayuda que avance la ciencia.
*RAE: Real Academia Española. Diccionario de la lengua española.
Park RL. Ciencia o vudú. Barcelona, España: Grijalbo Mondadori S.A.; 2001.
Organisation for Economic Cooperation and Development (OECD). Frascati Manual 2015: Guidelines for collecting and reporting data on research and experimental development. The Measurement of Scientific, Technological and Innovation Activities. Paris: OECD Publisher; 2015.
Popper K. The logic of scientific discovery. GB: Rouletge, Taylor & Francis; 1959.
Hernández H. Formulation and testing of scientific hypotheses in the presence of uncertainty. ForsChem Res Rep. 2020;5:1-16.
Eagle A. Randomness is unpredictability. Br J Philosophy Sci.2005;56(4):749-790.
Ioannidis JPA. What have we (not) learnt from millions of scientific papers with P values? Am Stat. 2019;73(sup1):20-25.
Goodman SN. Toward Evidence-Based Medical Statistics. 1: The P Value Fallacy. Ann Intern Med.1999;130(12):995-1004.
Fisher RA, Russell Edward J. On the mathematical foundations of theoretical statistics. Philosophical transactions of the Royal Society of London Series A, Containing Papers of a Mathematical or Physical Character. 1922;222(594-604):309-368.
Burkitt DP. The discovery of Burkitt’s lymphoma. Cancer. 1983;51(10):1777-1786.
Prof. José Carlos de la Macorra García
Licenciado en Medicina. Especialista en Estomatología. Especialista en Medicina del Trabajo, Doctor en Medicina y Cirugía (1988) en la Universidad Complutense de Madrid (UCM). Profesor Emérito UCM.
Indexada en / Indexed in: – IME – IBECS – LATINDEX – GOOGLE ACADÉMICO
Correspondencia: Prof. José Carlos de la Macorra García. Departamento de Odontología Conservadora y Prótesis. Facultad de Odontología. Plaza Ramón y Cajal s/n Ciudad Universitaria. 28040 Madrid. [email protected]