Por José Luis Muñoz Pincheira, académico de la Facultad de Ingeniería de la Universidad Andrés Bello, Concepción
Los recientes premios Nobel de Química y Física, otorgados a figuras como Demis Hassabis, John Jumper, John Hopfield y Geoffrey Hinton, han destacado los avances de la inteligencia artificial (IA) en áreas como la predicción de la estructura de proteínas y el aprendizaje automático.
Aunque dichos galardones celebran logros significativos en campos críticos, también abren un debate crucial sobre los desafíos de depender cada vez más de algoritmos que los seres humanos no comprenden completamente. Este avance plantea una amenaza directa al método científico tradicional, que durante siglos ha sido la base de la producción de conocimiento humano.
El Nobel de Química concedido a Demis Hassabis y John Jumper, por el desarrollo de AlphaFold, un programa de IA capaz de predecir con precisión la estructura tridimensional de las proteínas, destaca un hito en la biología y la biotecnología.
Las proteínas, los «bloques de construcción» de la vida, tienen funciones biológicas determinadas por su estructura, por lo que entender cómo se pliegan ha sido una meta científica durante décadas. Los métodos tradicionales no habían logrado resolver este problema de manera efectiva. AlphaFold rompió esa barrera, utilizando aprendizaje profundo para generar predicciones precisas que antes parecían imposibles.
Sin embargo, lo más inquietante es que, aunque el programa es extremadamente efectivo, sus creadores no pueden explicar del todo cómo llega a sus conclusiones. Este fenómeno, común en muchos sistemas avanzados de IA, plantea un reto para la ciencia: estos algoritmos actúan como «cajas negras» cuyas operaciones internas son demasiado complejas para que incluso los expertos las comprendan completamente.
Así, mientras los científicos pueden confiar en los resultados de AlphaFold, surgen preguntas importantes: ¿qué implica depender de un sistema cuyo funcionamiento no entendemos del todo? ¿Estamos abandonando principios fundamentales del método científico, como la reproducibilidad y la transparencia?
La creciente dependencia de algoritmos como cajas negras plantea un dilema no solo filosófico, sino práctico para la ciencia. Durante siglos, el método científico ha sido la base de la generación de conocimiento. Este método se fundamenta en la observación, la formulación de hipótesis, la experimentación, y la verificación. Cada paso debe ser reproducible y verificable por otros científicos, asegurando que el conocimiento generado sea confiable y comprensible. Esta transparencia es lo que ha permitido el avance de la ciencia a lo largo de los años.
¿Estamos, entonces, sacrificando la comprensión en favor de la predicción? Esta es una de las preguntas más inquietantes que enfrenta la ciencia en la era de la IA. Si no podemos entender los procesos detrás de ciertos algoritmos, ¿cómo podemos mejorar o corregir sus resultados? ¿Estamos delegando demasiado en la tecnología, perdiendo la capacidad de comprender problemas complejos por nosotros mismos?
El filósofo danés Søren Kierkegaard sostenía que «la vida debe ser comprendida hacia atrás, pero vivida hacia adelante». En el contexto de la IA, podríamos parafrasearlo y decir que el conocimiento debe ser comprendido, no solo aplicado.
Sin una comprensión sólida de cómo se obtienen los resultados que impulsan nuestros descubrimientos, corremos el riesgo de avanzar en la oscuridad. Si permitimos que este enfoque prevalezca sin crítica, podríamos vernos en una situación donde los seres humanos se conviertan en usuarios pasivos de conocimiento producido por algoritmos, perdiendo el control sobre el proceso de creación de ese conocimiento.
La ciencia debe ser comprensible, no solo predictiva.