Férvido y mucho

Lo que (quizás) nunca podremos saber

En parte por soberbia y arrogancia intelectual, a quienes participan en los programas de investigación científica las consideraciones epistemológicas les importan poco. Con raras excepciones, tiran para adelante adaptándose a una serie de protocolos más o menos rígidos, indiferentes a saber hasta qué punto seleccionan “valorativamente”, consciente o inconscientemente, hipótesis o datos y más indiferentes aun a la “objetividad” de los trabajos en curso. Casi sin excepción, lo que cuenta para los investigadores es el juicio de sus pares. Desgraciadamente es así: todo funciona en circuito cerrado. Por tanto, ni lo valorativo (excluido lo arbitrario) ni lo objetivo (excluida la circularidad o las correlaciones cigüeña que incurren en la falacia d Post hoc ergo propter hoc  -antecedente/simultaneidad/correlación- no es causalidad) forman parte estrictamente de las preocupaciones de los investigadores. No obstante, desde el segundo tercio del siglo XX los científicos son conscientes (o deberían serlo) que siendo la ciencia parte del saber no todo el saber es alcanzable (ni lo será aunque dispongamos de la IA más potente que pueda uno imaginar). Curiosamente, todo ello siendo metodológicamente grave es asunto de menor calado: los límites al conocimiento científico no los imponen la falta de objetividad o el eventual carácter valorativo sino razones lógicas inevitables. La revolución partió de los dos campos científicos donde la esperanza de alcanzar un conocimiento perfecto estaba, aparentemente, más justificada: la física y la matemática (que sin ser propiamente ciencia la considerado aquí ciencia instrumental por formar parte de todas las otras). En efecto, en 1931, Kurt Gödel, lógico y matemático, publicó dos teoremas que rompieron el sueño del gran matemático alemán David Hilbert de construir una matemática en la que todo enunciado o proposición o teorema pudiese ser demostrado sin ambigüedad, esto es, demostrar que una proposición es verdadera o es falsa. Gödel probó que existen –dentro de un sistema lógico suficientemente amplio como la aritmética de Peano- enunciados, proposiciones o teoremas respecto a los que no se puede decir si son verdaderos o si son falsos: son indecidibles Los trabajos de Gödel desencadenaron, allende el campo de la lógica y las matemáticas, debates filosóficos respecto a los límites del conocimiento humano sin excluir la ciencia.

Sin embargo, el exuberante diluvio de datos, de todo orden, que diariamente llueven sobre las sociedades modernas, así como la capacidad para almacenarlos, seleccionarlos y tratarlos (Big Data) gracias a los progresos de la computación en confluencia con las distintas versiones de IA, podrían hacernos creer que entramos, prácticamente, en la era de la Omnisciencia (a escala humana, dioses excluidos) rozando con la punta de los dedos, casi, casi, la Verdad. Ay, el moderno concepto  Verdad es muy deslizante y, por así decir, inexistente. El susodicho Gödel, para poner fin o al menos evitar el callejón sin salida al que conducen ciertas paradojas lógicas como la de Epiménides y en general las “paradojas del mentiroso” planteó que sólo es verdadero aquello que puede probarse en un sistema lógico coherente (esto es, que impide probar A y no-A). Los trabajos de Gödel son técnicamente muy difíciles, también para lógicos y matemáticos profesionales. Dichosamente, parte del mensaje contenido en esos resultados pertenecen al acervo común –o son Common Knwoledge- de los universitarios de ciencias humanas o sociales y, a fortiori, filósofos.

Se sigue que la gran diferencia entre la Verdad científica y la Verdad lógico-matemática es que sólo es “verdadero” lo que es demostrable (deductivamente) a partir de un sistema lógico o matemático con axiomas bien definidos. Es decir, la verdad, aunque sea científica, fuera del campo lógico-matemático siempre es provisional puesto que al no poder probarse deductivamente estará sometida constantemente a la prueba de fuego de la confirmación empírica. Ocurre que las confirmaciones empíricas aumentan la probabilidad de que una teoría científica sea verdadera pero nunca la prueban definitivamente puesto que un contraejemplo puede ser suficiente para refutarlas/falsarlas: todos los días amanece pero no es imposible que un día deje de amanecer. Por ejemplo, los modelos cósmicos aplicados a nuestro sistema solar garantizan su estabilidad hasta un horizonte de doscientos millones de años. Garantía precaria puesto que probabilística: la probabilidad de que no amanezca dentro de un mes es muy pequeña pero no nula.

No existe de momento (veremos qué sorpresas deparan en el futuro, a la epistemología y al conocimiento científico, la inteligencia artificial y el ordenador cuántico) codificación completa de la racionalidad científica. En una investigación científica, como en una investigación policial, se trata de inferir lo inobservable (el cuerpo del delito) a partir de lo observable (las supuestas pruebas). Y en cada caso existen inferencias más racionales que otras. Así, como las circunstancias son independientes, la ausencia de respuesta “absolutista” lleva a que no hay y no puede haber respuestas que satisfagan una justificación general del principio de inducción (problema heredado por Hume) En definitiva, según los casos, hay inducciones justificadas y otras que no lo son tanto (o nada de nada si las pruebas en la investigación policial han sido manipuladas o si el aparato de medir en un experimento funciona mal) Todo depende de cada caso considerado. Algún día el Sol dejará de salir (lo cual es previsible y cuantificable según las teorías astrofísicas actuales) Volvemos al problema de Hume: ningún argumento respecto al mundo real puede probarse absoluta y literalmente. ¿Ni siquiera el argumento “Todos los humanos son mortales; Messi es humano; por tanto Messi es mortal”? No, ni siquiera.

La idea que el método científico puede llegar a explicar y prever todo lo que concierne a nuestro mundo ya no se sostiene al evidenciarse, por la propia ciencia, los límites infranqueables de su propio discurso. Esos límites suelen clasificarse en cuatro categorías. 1) Límites constructivos, relativos a la imposibilidad de construir un discurso científico que escape a la duda y que repose en bases seguras. 2) Límites predictivos, muestran la imposibilidad de prever ciertos fenómenos con toda generalidad, es decir con una precisión dada y en cualquier escala temporal. Este tipo de límites se encuentran frecuentemente en los sistemas físico-matemáticos caóticos. 3) Límites cognitivos, aparecen en matemáticas en el estudio de números perfectamente definidos pero que no son calculables (como mucho sólo se pueden conocer cierto número finito de sus decimales). 4) Limites ontológicos, eliminan algunas entidades conceptuales mostrando su inconsistencia o situándolas fuera del campo de inteligibilidad del discurso matemático-científico. Por ejemplo, respecto a la existencia, o no, de ciertos objetos matemáticos.

Los anteriores límites al conocimiento se distinguen de los que provienen de obstáculos prácticos adheridos a datos demasiado numerosos para poder ser tratados correcta y significativamente o, por el contrario, a su insuficiencia; también los problemas de orden práctico que surgen de tiempos de cálculo demasiado largos. Estos límites pueden relajarse, pero quizás no puedan ser completamente abolidos, gracias a la colecta de datos, el perfeccionamiento de los algoritmos, IA mediante, o al aumento de la potencia de cálculo como la que se espera del ordenador cuántico. Más fundamentalmente, los límites a los que nos hemos referido son de otro tipo al estar íntimamente ligados a la naturaleza y construcción de teorías matemáticas y físicas y no podrán ser relajados por el progreso técnico.