La ciencia no es moralmente neutral
Hay una imagen idealizada del científico como servidor desinteresado de la verdad: su única obligación es descubrir lo que es verdad; lo que la sociedad haga con ese conocimiento no es su responsabilidad. Esta imagen es conveniente para los científicos, pero filosóficamente insostenible. El conocimiento científico es poder — en el sentido más literal: permite hacer cosas que antes eran imposibles. Y el poder genera responsabilidades.
La historia del siglo XX ofrece una galería de casos en los que la ciencia fue utilizada para el crimen, el control o la destrucción. Estudiarlos no es demonizar la ciencia, sino entender las condiciones bajo las que el conocimiento puede volverse peligroso.
Novichok y el caso Mirzayanov: ciencia al servicio del crimen de Estado
El Novichok es un agente nervioso desarrollado en secreto por la URSS durante la Guerra Fría en el programa «Foliant». El químico Vil Mirzayanov participó en su desarrollo como parte del equipo soviético. En 1992, decidió romper el silencio: publicó un artículo revelando la existencia de estas armas, violando las leyes de secreto de Estado rusas. Fue detenido, juzgado y, tras una campaña internacional de presión, absuelto.
Décadas después, Mirzayanov pidió perdón públicamente a Alexei Navalny, quien fue envenenado con Novichok en 2020. «Incluso le escribí para pedirle perdón», declaró desde su exilio en Princeton.
«Me arrepiento de haber participado en aquel programa. Debería haberme negado desde el principio.»— Vil Mirzayanov (entrevista, 2023)
El caso plantea la cadena de responsabilidad: ¿quién es responsable cuando la ciencia se usa para matar?
- ¿El químico que sintetiza la molécula?
- ¿El director del programa que da las órdenes?
- ¿El Estado que financia la investigación?
- ¿El agente que ejecuta el asesinato?
La analogía del piloto de bombardero: un piloto que lanza bombas sobre una ciudad puede decir que solo ejecuta órdenes, que no eligió los objetivos, que sin él otro piloto habría tomado su lugar. La cadena de responsabilidad diluye la culpa individual — pero no la elimina. Igual que Mirzayanov, cada eslabón de la cadena tiene una elección.
Lysenko y la ciencia ideológicamente controlada
Trofim Lysenko (1898–1976) fue el ejemplo más dramático de lo que ocurre cuando el Estado controla qué ciencia es «correcta». Bajo Stalin, Lysenko —un agrónomo sin formación en genética— rechazó la genética mendeliana por considerarla «burguesa» e «idealista». Propuso en su lugar la «vernalización»: la idea de que los rasgos adquiridos por un organismo podían heredarse directamente (lamarckismo). Esto era, simplemente, falso.
Pero en la URSS estalinista, Lysenko tenía el apoyo político. En 1948, la genética mendeliana fue oficialmente prohibida. Los genetistas que se negaron a aceptar el lysenkoísmo fueron despedidos, encarcelados o ejecutados. Nikolai Vavilov, uno de los grandes genetistas del siglo XX, murió en prisión en 1943. Durante casi 30 años, la biología soviética operó bajo una doctrina científica políticamente impuesta.
El resultado fue desastroso para la agricultura soviética: los programas agrícolas basados en el lysenkoísmo fracasaron repetidamente. El conocimiento equivocado tiene consecuencias reales.
Implicación para TOK: el caso Lysenko muestra que la ciencia necesita libertad académica e institucional para funcionar. Cuando el Estado determina qué hipótesis son aceptables por razones ideológicas, el proceso científico colapsa. La epistemología y la política no son mundos separados.
Oppenheimer y la bomba: la física de la destrucción masiva
Robert Oppenheimer dirigió el Proyecto Manhattan que desarrolló las primeras bombas atómicas. Cuando presenció el primer ensayo nuclear en Nuevo México (Trinity, julio de 1945) recordó un verso del Bhagavad Gita: «Ahora me he convertido en la Muerte, el destructor de mundos».
Tras el bombardeo de Hiroshima y Nagasaki, Oppenheimer se convirtió en una figura trágica: advirtió de los peligros de la proliferación nuclear, se opuso al desarrollo de la bomba de hidrógeno y fue finalmente despojado de su autorización de seguridad durante el macartismo, acusado de deslealtad. Los físicos que participaron en el Proyecto Manhattan tuvieron respuestas morales muy distintas: algunos (Teller) continuaron trabajando en armamento; otros (Szilard, Franck) intentaron detener el uso de la bomba y alertaron sobre sus consecuencias.
El dilema de uso dual (dual-use dilemma): el conocimiento que permite una bomba nuclear también permite la energía nuclear civil. El conocimiento que permite modificar genéticamente un patógeno para hacerlo más transmisible (investigación gain-of-function) también puede ayudar a diseñar vacunas. La misma investigación puede salvar millones de vidas o poner en riesgo la civilización.
Argumento de la responsabilidad limitada
El científico produce conocimiento neutro. La responsabilidad del uso cae sobre los políticos, militares y ciudadanos. Los valores del método científico (búsqueda de la verdad) son distintos de los valores de aplicación (para qué se usa). Restringir la investigación por miedo al uso es censura del conocimiento.
Argumento de la responsabilidad ampliada
Los científicos son ciudadanos y tienen obligaciones morales más allá de su laboratorio. Crear una herramienta de destrucción masiva implica responsabilidad sobre sus usos previsibles. El argumento «yo solo investigaba» es la lógica de Eichmann trasladada al laboratorio.
Bioética: los cuatro principios de Beauchamp y Childress
El desarrollo de la investigación biomédica planteó durante el siglo XX conflictos éticos nuevos: experimentos en seres humanos sin consentimiento (experimentos de Tuskegee, 1932–1972; experimentos nazis), comercialización de órganos, investigación en embriones. En respuesta, en 1978 se publicó el Informe Belmont en Estados Unidos, que estableció los principios éticos para la investigación biomédica. En 1979, Beauchamp y Childress los sistematizaron en cuatro principios que se convirtieron en el marco estándar de la bioética:
Autonomía
Cada paciente o sujeto de investigación es una persona autónoma capaz de elegir y tomar decisiones. Requiere consentimiento informado genuino: la persona debe comprender qué se le propone, cuáles son los riesgos y tener libertad real para rechazar.
Beneficencia
La investigación debe buscar el bienestar de los sujetos y de la humanidad. Implica que la relación riesgo/beneficio debe ser favorable: no se justifica exponer a alguien a grandes riesgos por beneficios mínimos.
No maleficencia
«Primero, no hacer daño» (primum non nocere). El principio más antiguo de la ética médica. La investigación no debe causar daño innecesario, aunque el objetivo sea beneficioso a largo plazo.
Justicia
Los beneficios y los riesgos de la investigación deben distribuirse equitativamente. No se debe usar a los más vulnerables como sujetos de investigación para que los beneficios vayan a los privilegiados. Los pobres no deben ser el campo de pruebas de medicamentos para los ricos.
Estos cuatro principios no siempre apuntan en la misma dirección: la autonomía del paciente puede entrar en conflicto con la beneficencia del médico («el paciente quiere algo que le perjudica»). La no maleficencia puede entrar en conflicto con la beneficencia («hay que causar dolor ahora para curar después»). La bioética no resuelve estos conflictos mecánicamente: los identifica y obliga a razonarlos explícitamente.
Resucitar a un neandertal: cuando la ciencia llega a donde la filosofía aún no ha llegado
El genetista de Harvard George Church propuso que con tecnología CRISPR sería técnicamente posible reconstruir el genoma neandertal e insertarlo en un óvulo humano, gestándolo en una madre «sustituta» dispuesta a hacerlo. El neandertal, extinto hace 40.000 años, podría «resucitar».
Church señaló posibles beneficios: el neandertal tenía un cerebro de mayor volumen que el Homo sapiens; su «modo de pensar» podría aportar perspectivas cognitivas radicalmente distintas. Una especie más, argumentó, podría aumentar la diversidad cognitiva de la humanidad.
Las objeciones éticas son múltiples y de distinto tipo:
- Consentimiento: el neandertal que se crease no habría dado su consentimiento para existir en condiciones para las que no fue diseñado evolutivamente.
- Estatuto moral: ¿sería el neandertal un ser humano con derechos plenos? ¿Un sujeto de investigación? ¿Un experimento?
- Vulnerabilidad extrema: nacería en un mundo completamente ajeno, posiblemente sin capacidad para comunicarse, sin comunidad de su especie, como una rareza a merced de quienes lo creasean.
- El dilema del Parque Jurásico: la ficción de Michael Crichton sirve aquí como experimento mental: ¿debemos hacer todo lo que podemos hacer técnicamente? La capacidad tecnológica no implica la obligación ética.
«Sus científicos estaban tan preocupados por si podían hacerlo que no se detuvieron a pensar si debían.»— Ian Malcolm (personaje), en Parque Jurásico, Michael Crichton (1990)
Libertad académica y desobediencia científica
¿Puede el miedo impedir el conocimiento? Los casos de Mirzayanov y Vavilov muestran que sí. La libertad académica — el derecho de los investigadores a seguir sus preguntas sin interferencia política, religiosa o económica — no es un lujo sino una condición necesaria para la producción de conocimiento científico genuino.
Pero la libertad académica tiene también una dimensión de desobediencia: a veces avanzar el conocimiento requiere desafiar el consenso establecido (Galileo frente a la Iglesia, Semmelweis frente a la medicina académica que rechazaba su teoría del lavado de manos), o desafiar las órdenes del Estado (Mirzayanov). El científico que nunca se opone a nada no es más libre que el que obedece todo — solo es más cómodo.