La pregunta por la justificación
Saber algo no es solo creerlo —es estar en condición de dar razones de ello. La justificación es el puente entre una creencia y el conocimiento. Pero ¿qué cuenta como buena justificación? ¿Hay métodos universalmente válidos para todo tipo de conocimiento, o las vías de justificación dependen del área?
Piensa en algo que sabes. ¿Cómo puedes justificarlo? ¿Con evidencia empírica, con lógica deductiva, con autoridad experta, con intuición, con experiencia directa? ¿Hay justificaciones «mejores» que otras?
- ¿El conocimiento requiere siempre algún tipo de base racional?
- ¿Cómo podemos saber si una justificación es buena?
- ¿Qué constituye una buena justificación para respaldar una afirmación?
- ¿Qué constituye una buena prueba para respaldar una afirmación?
Tipos de razonamiento
Razonamiento deductivo
De lo general a lo particular. Si las premisas son verdaderas y el argumento es válido, la conclusión necesariamente es verdadera. Ejemplo: «Todos los humanos son mortales. Sócrates es humano. Por tanto, Sócrates es mortal.» El problema: ¿de dónde vienen las premisas generales?
Razonamiento inductivo
De lo particular a lo general. Observamos muchos casos y generalizamos. Ejemplo: «El sol ha salido todos los días de la historia registrada; por tanto, saldrá mañana.» El problema: nunca podemos observar todos los casos, por lo que la conclusión solo es probable, no necesaria (problema de la inducción, Hume).
Las ciencias naturales dependen de la inducción: observan patrones y formulan leyes generales. Pero Karl Popper señaló que ninguna cantidad de confirmaciones puede probar una teoría para siempre — basta un contraejemplo para refutarla. De ahí su propuesta de la falsabilidad como criterio de demarcación científica.
Cómo evaluar información
Antes de aceptar una afirmación como conocimiento, podemos preguntarnos:
- ¿Cuál es la fuente? ¿Quién lo afirma? ¿Tiene experiencia verificable en el área? ¿Puede tener intereses en promover esta afirmación?
- ¿Qué evidencias se presentan? ¿Son las evidencias relevantes para la conclusión? ¿Han sido replicadas de forma independiente?
- ¿Hay alternativas explicativas? ¿La evidencia podría explicarse de otras formas? ¿Se han descartado esas alternativas?
- ¿Es falsable? ¿Podría la afirmación, en principio, ser refutada por alguna evidencia? Las afirmaciones irrefutables por diseño no son ciencia.
- ¿Coincide con el consenso experto? El consenso no es infalible, pero las afirmaciones que se desvían de él tienen una carga de prueba mayor.
Sesgos cognitivos: el sistema 1 y el sistema 2
El psicólogo Daniel Kahneman (Premio Nobel de Economía, 2002) identificó dos modos de pensamiento que coexisten en nuestra mente:
Sistema 1 — Pensamiento rápido
Automático, intuitivo, rápido y sin esfuerzo consciente. Es el responsable de nuestras primeras impresiones, de reconocer caras, de completar expresiones («2 + 2 = …»). Es eficiente, pero propenso a errores sistemáticos — los sesgos cognitivos.
Sistema 2 — Pensamiento lento
Deliberado, analítico, lento y esforzado. Se activa cuando hacemos cálculos complejos, cuando revisamos un argumento o cuando dudamos de nuestra primera impresión. Consume más energía cognitiva y tendemos a evitarlo si el Sistema 1 da una respuesta «suficientemente buena».
La implicación para TOK es profunda: no somos agentes puramente racionales. Gran parte de lo que «sabemos» ha pasado por el Sistema 1 sin el escrutinio del Sistema 2. Esto no invalida el conocimiento intuitivo — a veces la intuición experta es fiable — pero sí exige que examinemos nuestras creencias con más cuidado del que naturalmente tendemos a hacer.
Sesgos cognitivos relevantes para TOK
Tendemos a buscar, interpretar y recordar información que confirme nuestras creencias previas, e ignorar o minimizar la que las contradice. El sesgo de confirmación no es deliberado — es un efecto del Sistema 1 que hace que el mundo «tenga sentido» con menos esfuerzo.
Implicación TOK: el investigador que cree en su hipótesis puede inconscientemente diseñar experimentos que la confirmen o interpretar los datos de forma favorable. El doble ciego en ensayos clínicos existe precisamente para contrarrestar este sesgo.
Juzgamos la probabilidad de un evento por la facilidad con la que podemos recordar ejemplos. Los accidentes de avión aterrorizan más que los de coche aunque estadísticamente los coches sean mucho más peligrosos: los accidentes de avión reciben más cobertura mediática, por lo que el Sistema 1 los «recuerda» con más facilidad y los sobreestima.
El primer número o dato que encontramos «ancla» nuestros juicios posteriores, incluso cuando el ancla es arbitraria. Si una tienda pone un precio tachado de 200 € y luego uno «de oferta» de 120 €, el ancla de 200 € hace que 120 € parezca una ganga — aunque 120 € fuera el precio «real» desde el principio.
Tendemos a creer que entendemos fenómenos complejos mejor de lo que realmente los entendemos. Un experimento clásico: ¿puedes describir con detalle cómo funciona una cremallera? La mayoría cree que sí hasta que lo intenta. La ilusión de conocimiento es especialmente peligrosa en política y ética, donde las intuiciones simplistas sobre problemas complejos pueden producir decisiones erróneas.
Emociones y conocimiento
La tradición filosófica occidental ha tendido a contraponer emoción y razón, como si las emociones fueran ruido que distorsiona el juicio racional. Pero la neurociencia contemporánea (Damasio, El error de Descartes) muestra que las emociones son constitutivas del razonamiento: pacientes con daño en regiones emocionales del cerebro no mejoran su toma de decisiones — la empeoran.
Las emociones pueden tanto distorsionar como iluminar el conocimiento. El miedo ante un peligro real es información útil; el miedo ante un peligro imaginado puede llevarnos a razonar mal. La empatía nos da acceso a dimensiones del conocimiento social que el análisis puramente lógico no alcanza.