El Salto Logico - La Induccion e - David Harriman

You might also like

Download as pdf or txt
Download as pdf or txt
You are on page 1of 193

El salto lógico

La inducción en física

David Harriman

con una introducción


de Leonard Peikoff

Traducción al español:
Juan Manuel Muñoz y Domingo García
David Harriman El salto lógico – la inducción en física

Información sobre el libro original en papel

Publicado por New American Library, una división de Penguin Group (USA) Inc., 375 Hudson
Street, New York, NY 10014, USA
Primera Impresión: Julio del 2010
10 9 8 7 6 5 4 3 2 1
Copyright David Harriman, 2010
Introducción - copyright Leonard Peikoff, 2010
Ilustraciones por Coral Cruz Harriman y Tom VanDamme
Todos los Derechos Reservados

NAL – Marca registrada


BIBLIOTECA DEL CONGRESO, DATOS DE CATÁLOGO EN PUBLICACIÓN
Harriman, David
The logical leap: induction in physics/David Harriman; with an introduction by Leonard
Peikoff. p. cm.
Includes Index.
ISBN 978-0-451-23005-8
1. Induction (Logic) 2. Reasoning 3. Science-Philosophy. 1.
Title
BC57.H36 2010
161-dc22 2010009813
Maquetado en Bulmer MT
Diseñado por Ginger Legato
Impreso en los Estados Unidos de América.
ORIGINAL COPYRIGHT NOTICE

Without limiting the rights under copyright reserved above, no part of this publication may be
reproduced, stored in or introduced into a retrieval system, or transmitted, in any form, or by any
means (electronic, mechanical, photopying, recording, or otherwise), without the prior written
permission of both the copyright owner and the above publisher of this book.

PUBLISHER´S NOTE
While the author has made every effort to provide accurate telephone numbers and Internet
addresses at the time of publication, neither the publisher nor the author assumes any
responsibility for errors, or for changes that occur after publication. Further, publisher does not
have any control over and does not assume any responsibility for author or third-party Web sites
or their content.
The scanning, uploading, and distribution of this book via the Internet or via any other means
without the permissions of the publisher is illegal and punishable by law. Please purchase only
authorized electronic editions, and do not participate in or encourage electronic piracy of
copyrighted materials. Your support of the author´s rights is appreciated.
TRADUCCIÓN

Traducción al español: Juan Manuel Muñoz y Domingo García - Copyright 2015

Derechos de traducción: Objetivismo Internacional

Distribución exclusiva de eBooks: Objetivismo Internacional

www.Objetivismo.org https://larebeliondeatlas.org/ebooks/

Ninguna parte de esta publicación puede ser reproducida, almacenada o introducida en un


sistema de recuperación, o transmitida en cualquier forma o por cualquier medio (electrónico,
mecánico, fotocopiado, grabación, o de otro tipo), sin permiso previo por escrito del titular del
copyright y del editor de este libro.
A Alyssa
Con la esperanza de que este libro te ayude a conseguir
una vida llena de descubrimientos apasionantes
CONTENIDOS

Introducción
Prefacio

1. El fundamento
La naturaleza de los conceptos
El carácter jerárquico de las generalizaciones
Percibir conexiones causales de primer nivel
Conceptualizar conexiones causales de primer nivel
La estructura del razonamiento inductivo

2. El método experimental
La cinemática de Galileo
La óptica de Newton
Los métodos de la diferencia y la concordancia
La inducción como inherente en la conceptualización

3. El universo matemático
El nacimiento de la física celeste
Matemáticas y causalidad
El poder de las matemáticas
Prueba de la teoría de Kepler

4. La integración de Newton
El desarrollo de la dinámica
El descubrimiento de la gravitación universal
El descubrimiento es la demostración
5. La teoría atómica
Elementos químicos y átomos
La teoría cinética de los gases
La unificación de la química
El método de la demostración

6. Causas de error
Aplicar mal el método inductivo
Abandonar el método inductivo

7. El papel de las matemáticas y la filosofía


El carácter inherentemente matemático de la física
La ciencia de la filosofía
Un final... y un nuevo comienzo

Referencias
INTRODUCCIÓN

La física es la más universal de las ciencias naturales. Nos enseña las leyes básicas del mundo
material como un todo, y sirve de paradigma del pensamiento racional.
La explosión de conocimiento en la física durante el siglo XVII tuvo una profunda influencia en
la forma que tiene el hombre de ver el mundo y su propia naturaleza. La mayoría de la gente no
adquiere esas opiniones leyendo libros de filosofía, sino viendo y tratando con los productos del
hombre en acción, como novelas, colegios, gobiernos, y los logros del descubrimiento científico.
En su batalla para establecer la teoría heliocéntrica, los nuevos científicos dieron una lección de
filosofía que cambió el curso de la historia. Rompieron el yugo del dogma religioso, al menos
durante un tiempo, y demostraron que el hombre puede conocer el mundo—si emplea el método
de la observación, la medida y la lógica. Se rebelaron contra la idea de que la tarea de los
astrónomos fuese la de “salvar las apariencias”, es decir, inventarse un esquema sin fundamento
para predecir los datos, y en vez de eso persiguieron la ambiciosa meta de comprender el
universo. La revolución quedó completa cuando Isaac Newton presentó un universo totalmente
inteligible, accesible a la mente humana y totalmente regido por leyes causales. Ningún tratado
filosófico pudo haber hecho más para enseñar filosofía al hombre que los Principia, y para
socavar el misticismo y el escepticismo. El hombre moderno había alcanzado la madurez como
ser racional.
El mensaje se difundió a través de Occidente y llevó a la Ilustración. Los pioneros empezaron a
recomponer el mundo en la nueva imagen del hombre: laico, pensador, confiado de sí mismo, y
deseoso de disfrutar la vida. Los resultados aparecieron en todos los campos (no menos en el
movimiento desde la monarquía hasta la Declaración de Independencia). La física de Newton no
tardó en llevar a la Revolución Industrial, y a otro hito de ella: el hombre pudo abandonar la
antigua dicotomía entre teoría y práctica y aprehender al fin que la razón es su medio
fundamental de supervivencia.
La influencia de la física en la cultura es un arma de doble filo. Cuando, gracias a Kant, la
ciencia más avanzada se aparta del método correcto; por ejemplo, cuando los físicos reniegan de
la causalidad en el ámbito de lo subatómico y regresan a la tarea mundana de “salvar las
apariencias”, o cuando desligan por completo la teoría de la realidad y vagan por una geometría
de once dimensiones de espacio-tiempo, las consecuencias son devastadoras. La gente oye esta
clase de ideas y concluye: “Si esto es racionalidad, ¿quién la necesita? Debe haber algo mejor”.
Es entonces cuando vemos a la sinrazón volverse ubicua, desde el ascenso de la religión
fundamentalista y la pseudociencia hasta el ascenso del multiculturalismo y el nihilismo.
La filosofía de la ciencia, que debería haber combatido esta tendencia, ha descendido hasta un
punto que habría sido inconcebible hace más o menos un siglo. El campo ha sido secuestrado por
el movimiento de la “sociología del lenguaje”, que afirma que las teorías científicas son
“construcciones sociales” basadas en la presión de grupo.
Este libro es un antídoto contra todos esos apóstoles de la irracionalidad. David Harriman
desvela la lógica de la física, identificando el método por el cual los científicos descubren las
leyes de la naturaleza. El libro comienza con una discusión acerca de cómo llegamos a nuestras
primeras generalizaciones inductivas, que son el fundamento del conocimiento científico, y
después responde a las preguntas clave: ¿Cuál es la naturaleza del método experimental? ¿Cómo
depende la interpretación apropiada de un experimento del contexto de conocimiento del
científico? ¿Por qué es la matemática el lenguaje de la física? ¿Cómo se relaciona el papel de las
matemáticas con la naturaleza de los conceptos? Y, poniéndolo todo junto: ¿Cuáles son los
criterios de prueba objetivos para una teoría científica? Todos estos asuntos son estudiados en
relación a los descubrimientos de la mecánica newtoniana y/o a la teoría atómica de la materia;
entonces, los resultados metodológicos se formulan como principios generales. Induciendo así
los principios del método a partir de la historia de la ciencia, su libro es una proeza, al demostrar
que la epistemología es ella misma una ciencia inductiva.
Una teoría de las generalizaciones presupone una teoría de los conceptos. Uno debe captar cómo
los conceptos que constituyen una generalización se relacionan con la realidad, antes de poder
captar cómo se relaciona la propia generalización con la realidad. La teoría que se desarrolla aquí
está basada en la teoría de los conceptos de Ayn Rand, presentada en Introducción a la
Epistemología Objetivista. Ayn Rand consideraba la cuestión de cómo demostrar
generalizaciones inductivas el único problema fundamental aún irresuelto en la filosofía.
Aunque ella no dio la solución, sí dio la clave para hallarla. Harriman muestra que los conceptos
válidos, en la definición de ella de “conceptos”, no sólo hace posible, sino que también guía
nuestra búsqueda de generalizaciones ciertas. Hay un paralelismo con un nivel de abstracción
más alto: una teoría de los conceptos no sólo hace posible sino que también guía nuestra
búsqueda de una teoría de las generalizaciones. Todo aspecto de peso de la visión Objetivista de
los conceptos—incluyendo el papel de las semejanzas y diferencias, de la integración, la
jerarquía, el contexto—tiene su equivalente en la teoría de las generalizaciones. De hecho, la
generalización, explica Harriman, “no es nada más (ni menos) que una forma esencial del
método de formación de conceptos”.
Este libro representa la primera aplicación a gran escala de la epistemología de Ayn Rand a un
campo fuera de la filosofía. Dentro de este campo, responde a la cuestión que ella consideró
como la más crucial. Y con ello frena (y condena) el torrente de escepticismo desatado por David
Hume y compañía.
Ya que este libro es un modelo de razonamiento inductivo, le muestra al lector, en lugar de
contárselo, lo que es la inducción en términos esenciales y en qué se basa. Una tarea así exige
que Harriman vaya de abstracciones estrechas a generales y vuelva, una hazaña que él realiza de
forma brillante. No se omite nada que sea imprescindible para una conclusión objetiva, y no se
incluyen detalles innecesarios. Al final, la naturaleza del método inductivo correcto no queda
sólo clara, sino luminosa.
La ciencia es un desarrollo muy reciente. Las increíbles maravillas que puede concederle al
hombre se han hecho creíbles ahora mismo. Digo “ahora mismo” porque si comprimimos la
historia humana en un día, el hombre se ha hecho científico tan sólo en los veinte últimos
minutos.
¿Seguirá siendo un científico mañana? Tal vez... con la ayuda de este libro.
—Leonard Peikoff
PREFACIO

Este libro es el resultado de una colaboración entre Leonard Peikoff y yo.


Comenzó hace varios años cuando el Dr. Peikoff se interesó por el problema de la inducción,
esto es, por la cuestión epistemológica de cómo podemos conocer la verdad acerca de
generalizaciones inductivas. Teniendo claro que necesitaba saber más sobre el proceso del
descubrimiento científico para abordar este tema, me contrató como su tutor particular. Durante
un año, tratamos la historia de la ciencia física desde la antigua Grecia hasta finales del siglo
XIX.
Una vez que el Dr. Peikoff digirió todo este material y lo integró con su conocimiento de
filosofía, el resultado fue una nueva teoría de la inducción que presentó en un curso de
conferencias titulado “La inducción en Física y en Filosofía”. Yo estaba entusiasmado por sus
descubrimientos pioneros en un tema que había sido dado por muerto por parte de los filósofos
contemporáneos, así que decidí escribir este libro, que es una presentación completa de su teoría
en lo que respecta a la ciencia física.
Un buen trabajo en la filosofía de la ciencia requiere un rango de conocimientos y de intereses
que pocos individuos poseen. En un libro que proporciona una guía práctica para científicos
investigadores, E. Bright Wilson expresó esa dificultad del siguiente modo:
Hay una gran necesidad de trabajo adicional en el asunto de la inferencia científica. Para
ser fructífero, debería ser llevado a cabo por mentes originales y críticas que no sólo
estén versadas en filosofía sino también familiarizadas con la forma real de trabajar de
los científicos…. Por desgracia, la inexistencia en la práctica de tales personas casi
sugiere que las cualidades mentales necesarias para ser un buen filósofo y las necesarias
para ser un científico activo son incompatibles.1
Nuestra solución al problema ha sido, en la medida de lo posible, tratar de combinar nuestros dos
cerebros. El lector podrá juzgar por sí mismo el éxito de esta operación. Aquí me limito a un
comentario personal: para mí este proceso no ha sido traumático, sino muy gratificante y
placentero.
No debe ser difícil identificar de qué cerebro viene cada parte del libro. Básicamente, las ideas
filosóficas originales son del Dr. Peikoff, mientras que yo aporté la evidencia procedente de la
historia de la ciencia. Concretamente, el fundamento filosófico presentado en el Capítulo 1 está
tomado casi textualmente de las conferencias del Dr. Peikoff. También he incorporado en el
Capítulo 2 su presentación sobre conceptos, que actúan como “luces verdes para la inducción”.
Finalmente, muchos de los puntos esenciales del Capítulo 7, incluyendo la explicación del papel
de las matemáticas en la ciencia física, están sacados de sus conferencias.
A ello se suma que cada capítulo del libro se ha visto beneficiado enormemente por sus
comentarios como editor. El malabarismo que he intentado hacer—yendo y viniendo entre la
ciencia y la filosofía, tratando la primera en suficiente profundidad mientras centraba mi atención
en la segunda—fue un desafío, y el Dr. Peikoff ha sido un generoso editor y profesor. Por
supuesto, yo soy el único responsable de cualquier error en la ciencia y su historia.
Al mismo tiempo que el Dr. Peikoff me enseñaba cómo escribir este libro, el Ayn Rand Institute
me dio el tiempo para escribirlo. Durante la década pasada, el ARI me proporcionó el apoyo
financiero que me permitió trabajar en la filosofía de la ciencia. Es cierto el viejo refrán de que
“el tiempo es oro”; desde la perspectiva de un escritor, sin embargo, parece más preciso decir
que “el oro es tiempo”: tiempo para investigar, para pensar, para hacer salidas en falso y
corregirlas, y, llegado el momento, para terminar un libro. El ARI y sus contribuidores tienen mi
eterna gratitud por proveerme de ese elemento de incalculable valor— el tiempo—que es el
tesoro de un escritor.
También he recibido ayuda de otras personas. Tom VanDamme, que fundó conmigo el Falling
Apple Science Institute, me alentó a seguir con su incesante entusiasmo por este trabajo. Keith
Lockitch, con su ejemplo, me recordó que los físicos, incluso hoy en día, no sólo pueden tener un
profundo conocimiento de filosofía, sino también apreciar por completo la relevancia de ésta en
su campo.
Por último, pero para mí siempre lo primero, le doy las gracias a mi esposa, Coral, por poseer ese
raro tipo de mente que combina claridad y pasión, y por darme el cariño que necesité para cruzar
la línea de meta.
—David Harriman

1. El fundamento

Han pasado más de tres siglos desde que la revolución científica culminase en el excepcional
logro de Isaac Newton. En ese plazo de tiempo, la vida humana se ha visto transformada por la
ciencia y por la tecnología que emana de ella.
Aun así nos encontramos en una situación peculiar e inestable. A medida que nuestro
conocimiento del mundo físico ha ido avanzando, nuestra comprensión del conocimiento en sí se
ha quedado atrás. Yo fui testigo de esta brecha entre física y epistemología durante mis años en
la Universidad de California, en Berkeley. En mis clases de laboratorio de física, aprendí a
determinar la estructura atómica de los cristales por medio de difracción de rayos X y cómo
identificar partículas subatómicas analizando fotografías de cámara de burbujas. En clase de
filosofía de la ciencia, en cambio, un profesor de renombre mundial (Paul Feyerabend) me
enseñaba que no existe tal cosa como el método científico, y que los físicos no tienen más
derecho a alegar conocimiento que los hechiceros.1 Yo sabía poco de epistemología por aquel
entonces, pero no podía pasar por alto que eran los físicos, no los hechiceros, quienes hacían
posible la tecnología que ha mejorado nuestras vidas y que disfrutamos hoy.
Los triunfos de la ciencia son un monumento al poder de la razón, y representan una clara
refutación del escepticismo epidémico en la filosofía de la ciencia contemporánea. ¿Por qué
persiste, entonces, esta situación en tantas universidades del mundo? ¿Cómo hemos llegado a
esta grotesca contradicción, de científicos desarrollando tecnología que explota nuestro
conocimiento detallado de la estructura atómica, mientras que los filósofos se lamentan o se
regocijan en la supuesta impotencia de la razón para captar hechos incluso relativamente
simples?
E. Bright Wilson, antiguo profesor de química en Harvard, planteó el problema de esta forma:
Los científicos prácticos que de forma temeraria se permiten escuchar a los filósofos
probablemente acaben marchándose desanimados, al convencerse de que no hay ningún
fundamento lógico para lo que hacen, que todas sus supuestas leyes científicas carecen
de justificación, y que están viviendo en un mundo de ingenua fantasía. Desde luego, en
cuanto salen al sol de nuevo, saben que eso no es cierto, que los principios científicos sí
funcionan, que los puentes no se caen, los eclipses ocurren a la hora prevista y las
bombas atómicas explotan.
No obstante, es muy insatisfactorio que todavía no se haya planteado ninguna teoría de la
inferencia científica aceptable por el público general. . . A menudo se cometen errores
que probablemente no se habrían cometido si se hubiera seguido una filosofía básica
consistente y satisfactoria.2
El asunto central aquí es el fracaso de los filósofos a la hora de ofrecer una solución de lo que se
ha llamado “el problema de la inducción”. La inducción es el proceso de inferir generalizaciones
a partir de casos particulares. El proceso complementario, que consiste en aplicar
generalizaciones a nuevos casos, es la deducción. La teoría del razonamiento deductivo fue
desarrollada por Aristóteles hace más de dos milenios. Este logro cardinal fue un punto de
partida para comprender y validar el conocimiento, pero sólo un punto de partida. Deducción
presupone inducción; uno no puede aplicar lo que uno no sabe o no puede concebir. El proceso
primario de adquirir un conocimiento que va más allá de los datos perceptuales es la inducción.
La generalización—la inferencia que lleva de unos cuantos miembros de una clase a todos—es la
esencia de la cognición humana.
Cuando razonamos a partir de “Los hombres en mi experiencia son mortales” a “Todos los
hombres son mortales”; o de “Estos fuegos me queman cuando los toco” a “El fuego quema por
su naturaleza”; o de “Esta manzana y la luna obedecen a la ley de gravitación” a “Todo objeto
físico en el universo obedece a esta ley”, en todos estos casos estamos pasando de un ámbito a
otro: de lo observado a lo no observado; del comportamiento de la naturaleza en el pasado a su
comportamiento futuro; de lo que descubrimos en un pequeño rincón de un vasto cosmos a lo
que es cierto en cualquier lugar de ese cosmos. Este paso es la línea epistemológica que separa al
hombre de los animales.
Los animales son organismos de nivel perceptual. Aprenden por experiencia, pero sólo mediante
asociación perceptual muy limitada. Ellos no pueden imaginar lo que no han observado, ni el
futuro, ni el mundo que hay más allá de esas asociaciones. Conocen, tratan con, y reaccionan
ante concretos, y sólo ante concretos. Pero este no es un nivel en el que el hombre pueda vivir y
prosperar. Para actuar exitosamente en el presente, un ser humano debe establecer metas a largo
plazo y planear un curso de acción a largo plazo; para hacerlo, debe conocer el futuro; un futuro
tal vez de meses, a menudo años, a veces décadas.
Una generalización es una proposición que atribuye una característica a cada miembro de una
clase ilimitada, con independencia de dónde esté en el espacio o el tiempo. En términos formales,
enuncia: Todo S es P. Este tipo de afirmación, en cualquier asunto, va más allá de cualquier
observación posible.
Pero el hombre no es ni omnisciente ni infalible. Sus generalizaciones, por tanto, no son
automáticamente correctas. De ahí que nos preguntemos: ¿Cómo puede el hombre conocer, a lo
largo de la escala de espacio y tiempo, hechos que ni percibe ni podrá percibir jamás? ¿Cuándo y
por qué es legítima la inferencia para pasar de “unos cuantos” a “todos”? ¿Cuál es el método de
inducción válida que puede demostrar la generalización a la que lleva? En resumen, ¿cómo
podemos determinar qué generalizaciones son ciertas (se corresponden con la realidad), y cuáles
son falsas (contradicen la realidad)?
La respuesta a esto es crucial. Si un hombre acepta una generalización verdadera, sus contenidos
mentales (hasta ese punto) son consistentes entre sí, y su acción, si nada más cambia, tendrá
éxito. Pero si un hombre acepta una generalización falsa, está introduciendo en su mente una
contradicción con su verdadero conocimiento y un choque con la realidad, lo que lleva
inevitablemente a frustración y al fracaso es sus acciones. Por tanto el “problema de la
inducción” no es un mero rompecabezas para académicos: es el problema de la supervivencia
humana.
El problema es identificar el método de la inducción, no buscar su “justificación”. Uno no puede
exigir una justificación de la inducción, igual que tampoco puede exigir una justificación de la
deducción. Inducir y deducir son los medios que tiene el hombre de justificar cualquier cosa. Su
validez como procesos cognitivos, por tanto, es algo dado e incuestionable. Aristóteles no se
preguntó: ¿Es la deducción legítima?, sino: ¿Cómo debe hacerse para llegar a conclusiones
válidas? De forma parecida, nuestra pregunta en cuanto a la inducción no es: ¿Es legítima?, sino:
Dada la validez de la inducción, ¿cómo debe uno realizarla para conseguir un conocimiento de
los hechos?
A la hora de considerar esta pregunta, uno debe comenzar con la observación, y centrarse en los
pasos del método apropiado de llegar a generalizaciones. Uno no puede empezar con
generalizaciones que ya existen, y después, ignorando su origen, tratar de evaluarlas. Esto
último, sin embargo, ha sido la práctica habitual de los filósofos. A ellos les son indiferentes,
dicen, las cuestiones de génesis (que desestiman como siendo psicología en vez de
epistemología), y les preocupan solamente las cuestiones de validación. Pero esto eleva la falacia
de ignorar el contexto a una política generalizada. Es inútil sopesar la validez de una
generalización a menos que sepamos cómo hemos llegado a ella: qué pasos hemos seguido, de
acuerdo con qué método, y si el método usado es válido. Ninguna otra cosa nos permitirá saber si
el producto de ese método se corresponde o no con la realidad.
Un punto de vista muy extendido, aunque falso, es que la inducción se basa simplemente en
enumeración. Según esta visión, el método del inductor se reduce exclusivamente a recopilar
casos particulares de una generalización; cuanto mayor sea el número de casos, mayor será la
probabilidad de la generalización (los que proponen este punto de vista niegan que alguna vez
podamos alcanzar la certeza).
El ejemplo clásico de este enfoque, que aún discuten los filósofos, es el caso de los cisnes. Un
filósofo observa una gran cantidad de cisnes blancos; en algún momento se aventura a afirmar
(como altamente probable) que “Todos los cisnes son blancos”, cuando de repente aparece uno
que es negro y tira por tierra su generalización. ¿Qué hacemos ahora?, se lamenta entonces.
La enumeración no es el método de la inducción, y no proporciona ninguna base para inferir de
“unos cuantos” a “todos”, ni siquiera con un cierto grado de probabilidad. Es por eso por lo que
todos los intentos de basar el razonamiento inductivo en la estadística han fracasado. Una
generalización a la que se llega sólo por enumeración es necesariamente arbitraria, y por tanto
debe sacarse sin más del campo de la consideración racional. Como veremos, hay inducciones
válidas basadas en un solo caso; y hay generalizaciones con millones de casos, que sin embargo
son completamente inválidas (por ejemplo, “Todas las personas buscan el placer”). ¿Por qué esa
diferencia? Los meros enumeradores no tienen respuesta a eso.
Para comprender cómo se llega a generalizaciones inductivas en las ciencias físicas, miraremos
de cerca al razonamiento de científicos como Galileo, Kepler, Newton, Lavoisier y Maxwell. Los
seguiremos mientras realizan experimentos, buscan relaciones matemáticas, y demuestran las
teorías más abstractas. El objetivo es identificar detalladamente los pasos y la esencia del método
que ellos usaron de forma tan brillante.
Una teoría de la inducción presupone respuestas a las preguntas fundamentales de la metafísica y
la epistemología. Por ejemplo, daré por sentada la ley de causalidad (que dice que la acción de
una entidad se sigue de su naturaleza) y la validez de la percepción sensorial. En gran medida,
los filósofos han fallado en el tema de la inducción porque estaban confundidos en estos asuntos
anteriores. El fundamento filosófico de la teoría aquí presentada puede encontrarse en los
capítulos 1 al 5 del libro de Leonard Peikoff Objetivismo: La Filosofía de Ayn Rand.

La naturaleza de los conceptos

Hay, sin embargo, un tema previo que requiere especial atención.


Ayn Rand presentó su revolucionaria teoría de conceptos en un libro titulado Introduction to
Objectivist Epistemology (traducido al castellano como Introducción a la Epistemología
Objetivista, 2012). En esta sección indicaré brevemente unos cuantos puntos que son
especialmente relevantes para validar las generalizaciones inductivas.
La razón es nuestra facultad de adquirir conocimiento por medio de conceptos. Formamos
conceptos captando similitudes entre existentes, similitudes que resaltan un grupo de existentes
frente a un fondo de existentes diferentes. [“Existente”: en inglés, "existent"): algo que existe, sea
un objeto, un atributo o una acción. Es un concepto más amplio que el de "entidad", que se
refiere sólo a cosas. Por ejemplo, un pájaro es una entidad (y también un existente); su color, su
canto, su vuelo, etc. son existentes, pero no entidades. N. del T.] Similitud, por supuesto, no
significa identidad; Rand observó que los existentes unidos por un concepto válido pueden
diferir en todos los aspectos. Pero también observó e identificó la naturaleza de tales diferencias:
son diferencias cuantitativas, es decir, son diferencias en las medidas de sus características.
Cuando formamos un concepto, nuestro proceso mental consiste en retener las características
mientras omitimos las medidas en las que difieren. Consideremos el concepto de “péndulo”, un
sencillo dispositivo que ha jugado un papel crucial en la historia de la física. Un péndulo es un
peso suspendido de un soporte fijo, de forma que se columpia libremente de un lado a otro. Al
formar ese concepto, nuestra mente retiene esa característica esencial, mientras omite las
medidas que diferencian un péndulo de otro. Los péndulos difieren en longitud (la distancia del
soporte fijo al peso), tamaño, forma y magnitud del peso, así como en su composición material
(que se identifica mediante varias medidas que distinguen un material de otro). Todas estas
medidas se omiten cuando se forma el concepto.
Ya que el concepto se refiere a péndulos reales, y ser es ser algo específico (ley de identidad), no
estamos negando la existencia de las medidas cuando las omitimos. Al contrario, aceptamos que
las medidas relevantes deben existir en alguna cantidad, pero que pueden existir en cualquier
cantidad. Al no especificar las medidas podemos integrar todos los péndulos en una sola unidad
mental y tratarlos como miembros intercambiables de una clase.
En la formación de conceptos, el proceso de omisión de medidas es subconsciente y automático.
Captamos que un atributo puede variar dentro de un rango, y retenemos el atributo sin especificar
su cantidad. Para omitir las medidas cuando formamos el concepto no es necesario saber cómo
tomarlas. Al contrario, tenemos que formar los conceptos relevantes antes de poder pasar a la
fase avanzada de aprender cómo tomar medidas numéricas.
“Un concepto”, según la definición formal de Rand, es “una integración mental de dos o más
unidades que poseen la(s) misma(s) característica(s) distintiva(s), con sus medidas particulares
omitidas.”3 En contra de lo que dicen los escépticos, un concepto no es meramente un nombre
que damos a un grupo arbitrario de cosas; es una integración de existentes particulares similares
en una sola unidad mental. La integración no es arbitraria; lo que la hace posible es que los
existentes en cuestión poseen de hecho los mismos atributos; difieren entre sí sólo en las medidas
de esos atributos. Al ignorar—al no especificar—las medidas, por tanto, la mente forma una
nueva unidad que incluye y se aplica a todos esos existentes, pasados, presentes y futuros. A
partir de ese momento, la mente retiene y trata cognitivamente con esa suma ilimitada por medio
de una única palabra (definida de forma apropiada).
El análisis de la similitud realizado por Ayn Rand le permitió identificar una profunda conexión
entre formación de conceptos y matemáticas. Escribió:
El principio básico de la formación de conceptos (que afirma que las medidas omitidas
deben existir en alguna medida, pero pueden existir en cualquier medida) es el
equivalente al principio básico del álgebra, que afirma que los símbolos algebraicos
deben tomar algún valor numérico, pero pueden tomar cualquier valor. En este sentido y
a este respecto, la consciencia perceptual es la aritmética, mientras que la consciencia
conceptual es el álgebra de la cognición.
La relación entre un concepto y los particulares que lo constituyen es la misma que la
relación entre los símbolos algebraicos y los números. En la ecuación 2a = a + a, puede
sustituirse “a” por cualquier número sin afectar a la veracidad de la ecuación. Por
ejemplo, 2 x 5 = 5 + 5, o 2 x 5.000.000 = 5.000.000 + 5.000.000. De igual manera, por el
mismo método psico-epistemológico, un concepto se usa como un símbolo algebraico
que representa cualquiera de las unidades en la secuencia aritmética que comprende.
Que aquellos que intentan invalidar los conceptos alegando que no pueden encontrar la
“hombreza” en los hombres, intenten invalidar el álgebra alegando que no pueden
encontrar la “a-eza” en 5 o en 5.000.000.
Los filósofos a menudo han sostenido que las matemáticas son el modelo del pensamiento
humano. Pero muchos se han equivocado al caracterizarlas como una ciencia exclusivamente
deductiva. Muy al contrario, las matemáticas revelan de forma explícita el proceso de
conceptualización, que es el método que el hombre tiene de extrapolar desde los datos
observados a la totalidad del universo.5
Cuando somos niños, comenzamos a formar conceptos en casos donde la similitud entre los
referentes se capta por percepción directa, por ejemplo conceptos tales como “mesa” o “perro”.
Después de formar estos conceptos “de primer nivel”, podemos apreciar la similitud entre mesas,
sillas y camas y así llegar a la abstracción “mueble”, más amplia; o podemos apreciar la similitud
entre perros, gatos y peces y así llegar a la abstracción “animal”, más amplia. No vemos muebles
ni animales; vemos sólo mesas concretas, perros concretos, y demás. Las unidades a partir de las
que se forman los conceptos de nivel superior son los conceptos de nivel inferior. Así, los
conceptos se desarrollan en una jerarquía, que empieza a partir de los conceptos de primer nivel
de un niño y se extiende hasta las abstracciones más amplias de un físico teórico.
Cuando se han formado correctamente, los conceptos de nivel superior son objetivos en el
mismo sentido que lo son los de nivel inferior: ambos están basados en hechos, sólo que para los
conceptos de nivel superior la similitud entre los referentes no puede ser captada sin la ayuda de
conceptos previos. Consideremos el concepto avanzado de “electricidad”. Los griegos conocían
cuatro fenómenos que hoy clasificamos como eléctricos: el relámpago que veían en las nubes de
tormenta, la descarga de un pez torpedo cuando noquea a su presa, la luminiscencia que se puede
observar en la punta de las lanzas cuando hay tormenta (el “fuego de san Telmo”), y la capacidad
de atraer trocitos de paja o papel que tiene el ámbar al frotarlo. Perceptualmente, estos
fenómenos son muy diferentes; los griegos ni vieron ni pudieron captar ninguna similitud que los
relacionase. Es necesaria una larga cadena de conceptos y generalizaciones, que culminan en la
teoría moderna de la electricidad, para poner de manifiesto esta similitud.
En las primeras etapas del desarrollo cognitivo, el significado de los conceptos de primer nivel
puede clarificarse simplemente con señalar a casos particulares. Un niño puede señalar a una
mesa o a un perro y decir “Me refiero a este tipo de cosa”. Pero para conceptos de nivel superior,
en los que la similitud no viene dada perceptualmente, este método no funciona. Necesitamos
alguna otra manera de mantener en la mente el significado de nuestros conceptos, es decir, de
identificar la naturaleza de los referentes y distinguirlos de otros existentes. Este es el papel que
desempeñan las definiciones.6
Un concepto hace referencia a existentes, incluyendo todas sus características (conocidas y
desconocidas). La definición presenta la(s) característica(s) distintiva(s) que explica(n) la mayor
cantidad posible de otras características (las diferencias), y muestra la clase más amplia de
existentes de la cual los referentes del concepto están siendo diferenciados (el género). Al hacer
eso, la definición nos dice cuál es la naturaleza esencial de los existentes, o sea, qué hace que
sean el tipo de existentes que son. Por tanto, las definiciones son afirmaciones breves y fáciles de
retener que al mismo tiempo identifican los referentes y condensan nuestro conocimiento acerca
de ellos.
Es importante reconocer que las características son identificadas como esenciales (y por tanto
definitorias) dentro de un contexto específico de conocimiento. A medida que nuestro
conocimiento de los referentes crece, las características que mejor explican y condensan ese
conocimiento pueden cambiar. Por ejemplo, consideremos el concepto de “temperatura”.
Inicialmente la temperatura se definía como “el atributo de un material que es una medida de lo
caliente o frío que está”. Basándose en descubrimientos hechos durante el siglo XIX (ver
capítulo 5), la definición pasó a ser “el atributo de un material que es la medida del promedio de
energía cinética de traslación por molécula”. Esta definición posterior explica mucho más acerca
de la temperatura, al relacionarla con la mecánica newtoniana y la teoría atómica de la materia.
Por tanto, las definiciones son afirmaciones empíricas; la identificación de una característica
esencial se basa en la totalidad del conocimiento que uno tiene sobre los referentes, y sobre otros
existentes de los que los distinguimos. En palabras de Rand, “Una definición es la condensación
de un vasto cuerpo de observaciones, y se mantiene o se cae con la veracidad o falsedad de esas
observaciones”.7
En la confusión de hoy en día, es necesario poner énfasis en que un concepto no puede
equipararse con su definición. El concepto de temperatura tenía el mismo significado para
Galileo que para Einstein, es decir, ambos hombres se referían a la misma propiedad física. La
única diferencia es que Einstein sabía mucho más sobre esta propiedad; entendía su relación con
el calor, con el movimiento y con la naturaleza fundamental de la materia. Pero esa expansión
del conocimiento fue posible sólo gracias a que el concepto en sí no cambió. Por ser los
conceptos estables, podemos comunicarnos y avanzar en nuestro conocimiento.
Rand ofreció una útil metáfora que abarca aspectos importantes de su teoría de los conceptos:
Puesto que los conceptos representan un sistema de clasificación cognitiva, un concepto
dado sirve (en términos metafóricos) como una carpeta de documentos en la que la
mente del hombre archiva su conocimiento de los existentes que incluye. El contenido de
esas carpetas varía de un individuo a otro, según el grado de su conocimiento—va desde
la información primitiva y generalizada en la mente de un niño o un lego, hasta la suma
enormemente detallada en la mente de un científico—pero pertenece a los mismos
referentes, al mismo tipo de existentes, y queda incluido bajo el mismo concepto. Este
sistema de archivos hace posibles actividades tales como el aprendizaje, la educación y
la investigación: la acumulación, transmisión y expansión del conocimiento.8
Una definición es la etiqueta que identifica y condensa el contenido de la carpeta. El concepto es
el total de los contenidos, y conlleva el compromiso de archivar en la misma carpeta cualquier
conocimiento futuro adicional sobre los referentes.
Los conceptos son las herramientas del conocimiento—las carpetas de documentos—pero en sí
mismos no constituyen conocimiento (aunque sí lo presuponen); es por esto que uno se refiere a
los conceptos como siendo válidos o inválidos (en vez de verdaderos o falsos). Si lo que
queremos es obtener conocimiento con estas herramientas, deben usarse para crear un producto
cognitivo, como una generalización, la cual o se corresponde con la realidad o no, es decir, la
cual, al ser una afirmación de conocimiento, se describe como cierta o falsa (en vez de válida o
inválida). Las generalizaciones son los objetos esenciales que entran en las carpetas de archivos
conceptuales. Pero para poder decir que constituyen conocimiento de la realidad, las
generalizaciones, como cualquier otro producto cognitivo, deben ser validadas en referencia a un
método racional.
Así, el propósito de este libro es dar respuesta a una doble pregunta: Dada la naturaleza de los
conceptos, ¿cómo se forman las generalizaciones sobre el mundo físico? Y, por lo tanto, ¿cómo
se relacionan con la realidad?

El carácter jerárquico de las generalizaciones


La ciencia no empieza en un vacío; emerge, después de muchos siglos, a partir de la pre-ciencia.
El hombre primero adquiere y asimila un enorme contexto de conocimiento, que incluye la
identificación conceptual de los concretos que observa a su alrededor, así como una gran
cantidad de generalizaciones iniciales (junto con lo esencial de una filosofía secular y pro-razón).
Sólo entonces es posible para unos pocos y grandiosos pioneros captar el sofisticado y
disciplinado método de conocimiento que llamamos ciencia.
Las generalizaciones, como los propios conceptos, son jerárquicas. Las generalizaciones
descubiertas por científicos son las avanzadas, o de nivel superior; por ejemplo, “la luz blanca es
una mezcla de colores”, o “los planetas se mueven en órbitas elípticas”, o “una corriente eléctrica
variable induce un campo magnético”. Esas generalizaciones no pueden ser percibidas de forma
directa.
Tales generalizaciones se apoyan en un gran número de observaciones precedentes y en
generalizaciones de nivel inferior, que en última instancia se basan en generalizaciones de primer
nivel. Estas últimas son los puntos de partida empíricos, y por tanto, la base de cualquier
inducción posterior, ya sea realizada por salvajes o por nuestros propios hijos, por pensadores
antiguos o por científicos modernos. Hay un paralelo exacto aquí con los conceptos de primer
nivel y de nivel superior.
Para entender las generalizaciones de la física hasta sus raíces, por tanto, debemos estudiar antes
la inducción pre-científica a partir de la cual se desarrolla la inducción científica. Como Leonard
Peikoff ha explicado, el proceso de identificar las raíces de primer nivel de una generalización de
nivel superior es lo que llamamos “reducción”:
Reducción es la forma de conectar un conocimiento avanzado a la realidad, al viajar
hacia atrás por la estructura jerárquica involucrada, es decir, en el orden inverso al que
fue necesario para llegar al conocimiento. La “reducción” es el proceso de identificar en
una secuencia lógica los pasos intermedios que conectan un objeto cognitivo a datos
perceptuales. Como hay opciones en cuanto a los detalles de un proceso de aprendizaje,
uno no tiene por qué reconstruir exactamente los pasos que dio la primera vez. Lo que
uno tiene que reconstruir es la estructura lógica esencial.9
Aquí, voy a esbozar dos ejemplos.
En el capítulo siguiente hablaremos del descubrimiento, por parte de Galileo, de la
generalización de que el movimiento horizontal no es acelerado. Cuando un cuerpo viaja
libremente (es decir, dejando de lado el rozamiento) en dirección horizontal, se mueve a
velocidad constante (en contraste con un cuerpo que cae verticalmente, el cual experimenta una
aceleración constante). ¿Cómo descubrió Galileo esta generalización? Entre otras cosas,
experimentó haciendo rodar bolas de metal con velocidad conocida hasta que cayeran de una
mesa, y demostrando que el lugar donde la bola golpea el suelo implica que la velocidad
horizontal permanece constante durante el descenso. Diseñó meticulosamente esta clase de
experimentos para reducir los efectos de la fricción. Claramente, esto presupone un conocimiento
sobre la existencia (siempre presente) del rozamiento (de la fricción) y de su efecto de oposición
al movimiento de los cuerpos. Sin ese conocimiento, a Galileo nunca se le habría ocurrido pensar
en minimizar el rozamiento, y por ello tampoco habría visto que el movimiento horizontal
continuaba a un ritmo que no cambia.
Así que ¿cómo descubriría alguien la generalización previa de que la fricción se opone al
movimiento? Es una integración de muchas generalizaciones aún más tempranas, a las que se
llegó observando cuerpos en movimiento en distintas circunstancias. Por ejemplo, cuando una
pelota rueda por encima de hierba alta se frena y termina parándose en relativamente poco
tiempo (una generalización); cuando rueda sobre alfombras gruesas, se frena con menos rapidez
y llega un poco más lejos (una generalización); cuando va sobre una superficie lisa, el
movimiento sigue durante más tiempo y la pelota va aún más lejos (una generalización).
Consideremos cada una de estas generalizaciones. ¿Qué debe saber un inductor antes de poder
descubrir algo sobre cómo afectan las diferentes condiciones al movimiento de una pelota que ha
empujado? Antes de poder saber que empujar a una pelota bajo ciertas condiciones X la hacen
rodar de una forma determinada Y, debe saber el hecho más simple de que empujar una pelota
(en contraste con un bloque o una almohada) hace que ruede de alguna forma. Sólo a partir de
ahí puede descubrir la influencia que una variación de las condiciones tendrá sobre la forma de
rodar. Así es como el principio científico de Galileo vuelve hacia atrás nivel por nivel hasta una
generalización que es irreducible, de primer nivel: empujar a una pelota causa que ruede. Eso es
un “axioma”—o un punto de partida—de la inducción.
Ahora consideremos, resumidamente, un caso más complejo. Vamos a reducir al nivel perceptual
la generalización avanzada: “La luz viaja en línea recta.” ¿De qué generalizaciones previas
depende?
Obviamente, presupone la generalización de que la luz viaja, es decir, que la luz se mueve a
través del espacio. Pero este hecho no es accesible a nivel perceptual; nadie puede ver a la luz
moverse, porque su velocidad es demasiado grande. Los científicos tuvieron que demostrar que
existe un lapso de tiempo entre que la luz está en un sitio y está en otro. Si tarda una cantidad
medible de tiempo en ir desde A hasta B, entonces la luz que viene desde una fuente determinada
no está al mismo tiempo en A y en B y en cualquier otro punto, como parece perceptualmente; la
luz debe estar moviéndose. Debido a la enorme velocidad de la luz, sin embargo, los primeros
científicos pudieron detectar ese intervalo de tiempo sólo cuando la luz atravesaba distancias
astronómicas. Fue Olaus Roemer, un astrónomo danés del siglo XVII, quien por primera vez
midió la velocidad de la luz estudiando los eclipses de las lunas de Júpiter.
¿Y qué presupuso este descubrimiento? Una multitud de generalizaciones científicas previas,
incluyendo las que llevaron a la teoría heliocéntrica (ver capítulo 3), y también muchas
generalizaciones sobre cómo se comporta la luz en relación a lentes y espejos, un conocimiento
que fue necesario para inventar el telescopio y poder así ver las lunas de Júpiter. Así que una
larga cadena de generalizaciones previas fue necesaria para poder descubrir que la luz viaja.
Dado el hecho de que la luz viaja, ¿cómo podemos saber que lo hace en línea recta (cuando viaja
por el mismo material)? Aquí hay unas cuantas pruebas diferentes, pero digamos que hemos
llegado a esta conclusión observando las sombras de los objetos. Descubrimos que podemos
explicar la forma de una sombra sólo si la luz se mueve desde su fuente en líneas rectas hacia el
objeto que proyecta la sombra.
Pero para llegar a esta conclusión sobre las formas de las sombras, tenemos que haber
descubierto primero una conexión mucho más simple entre la luz y las sombras, que es: la luz de
hecho proyecta sombras detrás de cualquier objeto opaco sobre el que incide (una
generalización), lo cual es a su vez una integración de muchas generalizaciones anteriores, tales
como “Las velas proyectan sombras detrás de la gente” y “las sombras aparecen en días
soleados”.
Pero todo esto requiere tener primero el concepto de “sombra”, que depende de nuestra
capacidad para diferenciar las regiones oscuras que hay detrás de objetos iluminados de los
objetos en sí. Y ¿cómo aprendimos a hacer esa distinción? A partir de una enorme cantidad de
datos anteriores, tales como “Las regiones oscuras, en contraste con los objetos junto a los que
están, no tienen propiedades táctiles” (una generalización), y “Las regiones oscuras aparecen o
desaparecen al cambiar la fuente luminosa, mientras que los objetos permanecen” (una
generalización). A partir de estas (y de otras generalizaciones similares), concluimos que las
regiones oscuras no son objetos, sino un efecto que se produce cuando un objeto bloquea el paso
de la luz (una generalización) , lo cual nos da el concepto de sombra.
Pero esto presupone el concepto de que una entidad le bloquee, le “cierre el paso” a otra. ¿Cómo
aprendimos acerca de este tipo de fenómeno? Al haberlo observado de muchas formas en el
mundo de los objetos físicos mucho antes de que pudiéramos entender abstracciones tales como
luz y sombra. Por ejemplo, descubrimos que “las paredes cierran el paso a las pelotas, es decir,
no las dejan seguir rodando” (una generalización). Y ¿cómo sabemos que es la pared la que
detuvo a la pelota, en vez de la pelota simplemente pararse por sí misma al llegar a la pared?
Empujamos una pared o la golpeamos con la mano y sentimos realmente su resistencia, su
negativa a ceder. Aquí de nuevo llegamos finalmente a una generalización de primer nivel, como
“Las paredes resisten los golpes que les damos con las manos.”
En los párrafos anteriores he regresado a propósito a generalizaciones de primer nivel a las que
un niño llega en sus primeras exploraciones sobre lo que, mucho después, se llamará “dinámica”.
Pero una enorme cantidad de otras generalizaciones de primer nivel, en muchas otras áreas, se
ven envueltas en los ejemplos anteriores. He procurado dar solamente una indicación
esquemática de algunos pasos en las reducciones, los suficientes como para que el patrón del
proceso quedase claro.
Una generalización sólo puede ser considerada objetivamente cierta si su reducción a
generalizaciones de primer nivel es posible. Como el Dr. Peikoff ha señalado, “El único contacto
directo del hombre con la realidad son los datos de los sentidos. Estos, por tanto, son el estándar
de la objetividad, a los que cualquier otro material cognitivo debe ser reducido”.10 Una
generalización que no puede reducirse a datos sensoriales no es más que una afirmación
arbitraria, cuyo origen es alguna emoción o alguna autoridad. Una afirmación de ese tipo es
inadmisible dentro del campo del conocimiento o de la ciencia.
Las generalizaciones de primer nivel son a la inducción lo que la percepción es al conocimiento
en general; son los “axiomas de la inducción”. El estudio del proceso de inducción, por tanto,
debe partir del estudio de las generalizaciones de primer nivel. Sólo entonces podemos pasar a
considerar las generalizaciones de nivel superior que se construyen a partir de ellas.
Una “generalización de primer nivel” es una que se deriva directamente de la observación
perceptual, sin necesidad de generalizaciones previas. Como tal, está compuesta sólo por
conceptos de primer nivel, es decir, aquellos conceptos que están basados en similitudes que son
captadas perceptualmente; cualquier forma de conocimiento que requiera la comprensión de
conceptos de nivel superior no puede obtenerse directamente a partir de datos perceptuales.
Ya que lo perceptual es auto-evidente, las generalizaciones de primer nivel son auto-evidentes; al
constituir la base del conocimiento inductivo (y por tanto del deductivo), ni admiten ni requieren
prueba alguna. Son accesibles, como certezas, a cualquiera con el sencillo vocabulario requerido
que se tome la molestia de mirar a la realidad.
Y no son accesibles de ningún otro modo. ¿Cómo sabes que empujar a una pelota hace que
ruede? No hay respuesta, ni por parte de Newton o Einstein, salvo esta: Mira y lo verás. Uno no
puede “probar” una generalización así derivándola de ninguna ley abstracta del movimiento. Por
el contrario, sin un fondo de generalizaciones establecidas como punto de partida, uno no podría
descubrir o probar ninguna ley del movimiento. Las leyes son válidas sólo si los antecedentes de
primer nivel son válidos, no al revés.
Como las generalizaciones de primer nivel son la base de todas las inducciones de nivel superior,
no pueden verse amenazadas o socavadas por éstas. Como la propia percepción sensorial, son
inmunes a que algún conocimiento futuro las desmienta. Esto no significa que el generalizador
de primer nivel sea omnisciente. Más bien significa que el conocimiento es contextual y, por
tanto, que—en cualquier nivel de generalización, desde el primero hasta el último—la certeza no
requiere omnisciencia.
Ya que a las generalizaciones siempre se llega por medio de un contexto cognitivo específico, la
forma de expresarlos incluye necesariamente a ese contexto. Citando de Objectivism: The
Philosophy of Ayn Rand (Objetivismo: La Filosofía de Ayn Rand, 2013):
El hombre es un ser de conocimiento limitado, y debe, por tanto, identificar el contexto
cognitivo de sus conclusiones. En cualquier situación donde haya motivo para sospechar
que hay varios factores relevantes para la verdad, y sólo algunos de los cuales se conocen
en ese momento, debe reconocer este hecho. El preámbulo implícito o explícito debe ser:
“En base a la evidencia disponible, esto es, dentro del contexto de los factores
descubiertos hasta ahora, la conclusión que es correcto extraer es la que sigue.” En lo
sucesivo, el individuo debe seguir observando e identificando; en caso de que nueva
información lo garantice, debe restringir su conclusión de acuerdo con ella.
Si uno sigue esta política, encontrará que su conocimiento en una etapa no se ve
contradicho por descubrimientos posteriores. Encontrará que los descubrimientos
expanden su comprensión; que aprende más sobre las condiciones de las que dependen
sus conclusiones; que se mueve de observaciones primitivas y relativamente
generalizadas hacia formulaciones sofisticadas y cada vez más detalladas. También
encontrará que el proceso está libre de traumas epistemológicos. Las conclusiones
avanzadas aumentan y realzan su conocimiento anterior; no chocan con él o lo anulan.11
Un niño aprende, por ejemplo, que empujar una pelota hace que ruede. Después descubre que
esto no pasa si la pelota alcanza un cierto peso, o si está pegada al suelo, o si está hecha de hierro
y colocada sobre un fuerte imán. Nada de esto tira por tierra la generalización inicial de primer
nivel. Por el contrario, ésta es necesaria para que cualquiera pueda considerar futuras
restricciones. Uno no puede alcanzar o validar “Empujar una pelota la mueve bajo X
condiciones” antes de haber captado el hecho elemental de que “empujar una pelota la mueve”.
De forma parecida, las leyes de Newton no son contradichas por el descubrimiento de la teoría
de la relatividad de Einstein (ver capítulo 4). Al revés, la ciencia de Newton se mantiene absoluta
dentro del contexto de Newton, y esa ciencia por sí sola es la que hace posible la expansión
futura de este contexto, en el que se descubren factores que operan que no se conocían en los
tiempos de Newton.
El conocimiento que posee un inductor racional siempre está limitado, pero no por ello deja de
ser real. Por ser limitado, está abierto a matizaciones futuras. Por ser real, sin embargo, estas
restricciones no tienen ningún significado negativo; son puramente positivas, un recurso
epistemológico, un paso adelante en la empresa cognitiva, no un paso hacia atrás que aplaste sus
propias raíces.

Percibir conexiones causales de primer nivel

Es necesario que examinemos las generalizaciones de primer nivel, los axiomas de la inducción,
en mayor profundidad, haciendo particular hincapié en cómo llegamos a aprenderlas y a
validarlas objetivamente.
Generalizaciones—sean de primer nivel o superior—son afirmaciones universales sobre una
cierta clase de entidades, identificando sus atributos o sus correspondientes formas de actuar.
Todas ellas afirman que los miembros de una clase de entidad tienen atributos que hacen que
sean un cierto tipo de cosa, o afirman que ese tipo de cosa actúa necesariamente de una forma
determinada bajo una serie de circunstancias determinadas, lo cual es la esencia de la ley de
causalidad. Esto es cierto en todos los niveles de desarrollo, desde “Las pelotas son esféricas” a
“Los elementos químicos están compuestos de átomos idénticos”; o desde “Empujar una pelota
hace que ruede”, a “Una fuerza neta ejercida sobre un cuerpo causa que éste acelere de acuerdo
con la ley F=mA”.
Aparte de los atributos que captamos por percepción directa, la naturaleza de las entidades la
descubrimos estudiando sus acciones. La única justificación para inferir el futuro de las acciones
del pasado es el hecho que esas acciones pasadas ocurrieron, no de forma arbitraria o milagrosa,
sino por una razón, una razón inherente en la naturaleza de las propias entidades actuantes; es
decir, la justificación es que las acciones pasadas fueron efectos de causas, y por eso, si la misma
causa opera mañana, dará lugar al mismo efecto. Lo que hacemos es unir a una entidad con sus
acciones al captar conexiones causales.
Cualquier validación de generalizaciones, por tanto, debe responder a la pregunta: ¿Cómo—por
medio de qué—aprendemos conexiones causales? Los capítulos siguientes de este libro
responderán a esta pregunta para las generalizaciones de nivel superior que culminan en teorías
científicas. Aquí empezaremos considerando cómo captamos las relaciones causales que se
expresan en generalizaciones de primer nivel.
Un prerrequisito esencial para que alguien descubra conexiones causales particulares es que haya
captado de forma más o menos clara la ley de causalidad. Si alguien viviese (o pensase que
vivía) en el universo sin causa descrito por el filósofo empirista David Hume, no podría
plantearse o responder a la pregunta “¿Por qué?” acerca de nada. Sin el hecho y el conocimiento
de la ley de causalidad, no habría nada más que un flujo de datos inconexos y aleatorios.
Un niño descubre la ley de causalidad al principio de forma implícita, en la etapa temprana y pre-
conceptual de la cognición; la capta como un corolario—una implicación auto-evidente—de la
ley de identidad, uno de los axiomas fundamentales de la filosofía. La ley de identidad establece
que ser es ser algo en particular, esto es, tener una naturaleza; la causalidad es la aplicación de la
identidad al ámbito de las acciones, es decir, afirma que una entidad debe actuar de acuerdo con
su naturaleza. Conocer (implícitamente) ambas leyes es necesario para cualquier desarrollo
cognitivo posterior. Sólo cuando uno conoce la ley de identidad puede proceder a entender y
hacerse la pregunta: “¿Qué es esta cosa?”, es decir, “¿Cuál es su identidad?” De forma parecida,
sólo cuando uno conoce la ley de causalidad, al menos de forma implícita, puede proceder a
preguntarse y entender la pregunta “¿Por qué?”, es decir, “¿Cuál es la causa?”
Asumiendo el fundamento filosófico necesario, nuestra pregunta es: ¿Cómo llega un individuo a
descubrir causas particulares? Específicamente, ¿cómo aprecia un inductor de primer nivel sus
primeras conexiones causales (y llega así a captar explícitamente el concepto de “causa”)? Los
primeros descubrimientos causales de un niño, creo yo, fluyen de las experiencias que ha tenido
con su propia capacidad personal de actuar. Esta es sólo una hipótesis probable (y no es
original); si no es aplicable universalmente, al menos sí indica un patrón de desarrollo posible.
Un bebé, digamos de uno o dos años, empuja una bola y ésta se aleja rodando. ¿Cómo
formulamos (en términos conceptuales y adultos) lo que el niño percibe aquí realmente sin el
beneficio del lenguaje? Aquí doy tres formulaciones: “Hice rodar a la bola empujándola”; “Que
yo la empujara hizo a la bola rodar”; “Yo causé que la bola rodara empujándola”.
Estas tres formulaciones son equivalentes en el sentido lógico; cada una encierra a las otras; cada
una identifica el mismo hecho auto-evidente (desde perspectivas ligeramente diferentes). Sólo la
tercera oración menciona el concepto de “causa”. Pero el contenido de ese concepto ya estaba
presente en las otras; está presente en la propia idea de “hacer rodar” un objeto. Hacer rodar un
objeto es causar que ruede de alguna manera. La experiencia de hacer rodar una bola, por tanto,
es la experiencia de causar que algo suceda. Es una experiencia pura de causación, sin la cual
nunca podría llegarse al concepto de “causa”.
La experiencia es directamente perceptual. Uno percibe un “rodar” intransitivo directamente
(como en “La bola está rodando”) de igual manera, exactamente igual, que en el caso de un
“rodar” transitivo (“Yo hice rodar la bola”). Y si tal hecho de rodar es objeto de la experiencia
directa, como claramente es, entonces el hecho de causar es también objeto de la experiencia
directa.
Consideremos otro ejemplo: un niño pequeño que tiene sed bebe un vaso de agua y la sed
desaparece. ¿Qué percibe? “Dejé de tener (me libré de, palié, sacié) la sed bebiendo agua…. El
que yo bebiera agua hizo que la sed se fuera…Causé que la sed se fuera por medio de beber
agua…” Otra vez, el contenido de “causa” está presente en la experiencia en sí. Saciar la sed que
uno tiene es objeto de experiencia directa (introspectiva). Es una experiencia de una cosa
causando otra, ya que saciar es causar un cierto efecto. Así es como la experiencia de saciar es la
experiencia de causar.
En estos casos (y un sinnúmero de casos similares), un niño, al contrario que Hume, experimenta
de verdad una conexión entre ciertos eventos, no sólo una conjunción de ellos. Experimenta la
conexión entre lo que hace y lo que esto provoca que suceda. Esta es la base de las
generalizaciones de primer nivel de un niño, y le da el conocimiento explícito de “causa” que
hace falta para seguir progresando.
Cuando un niño se traslada de estas experiencias tempranas a descubrir la causación en el mundo
externo más allá de sus propias acciones, sigue el mismo método. Armado con un conocimiento
explícito de “causa” (de que una cosa “haga” que otra suceda), está listo para percibir, todo a su
alrededor, más instancias de ello. “Hice que una bola rodara” pasa a ser, a su debido tiempo, “El
viento hace que las hojas revoloteen”, “El fuego hace que el papel se convierta en ceniza”, “La
lluvia moja el suelo”. En todos los casos como estos, la conexión causal se capta a partir de una
sola instancia, porque percibimos directamente la causación mientras está ocurriendo. De igual
forma que percibimos, sin necesidad de lenguaje, “rodar la bola”, percibimos también “llevarse
volando las hojas”, “quemar el papel”, “humedecer el suelo”. Todos los términos subrayados
denotan objetos de la experiencia que constituyen procesos causales, procesos en los que una
cosa hace que suceda otra.
El método primario de captar conexiones causales es, por tanto, percibirlas. Construyendo sobre
estos cimientos, los científicos desarrollan métodos más sofisticados y experimentales de
descubrir la causalidad, en casos de nivel más alto en los que no es posible la percepción de la
causa. El uso de estos métodos requiere un análisis de variables que van mucho más allá del
primer nivel de la cognición. No obstante, en lo que respecta a las generalizaciones de primer
nivel, la percepción de causa y efecto es esencial, y suficiente.
La mera observación de una regularidad, sin ninguna idea de su causa, no constituye una
generalización. Por ejemplo, por muy a menudo que el hombre primitivo observe los
movimientos anuales y diarios del sol, no puede, sólo con esa base, concluir que el sol siempre
tiene que moverse respecto a la Tierra de esa forma concreta. En su lugar, sus percepciones son
la primera evidencia que tiene para hacer una generalización, la cual sólo puede validarse
haciendo referencia a un conocimiento posterior basado en otros métodos (por ejemplo, en este
caso, el conocimiento y los métodos de Copérnico, Kepler y Galileo).
De nuevo aquí vemos que la cantidad de instancias por sí sola es irrelevante para la inducción.
En la inducción de primer nivel basta con una sola instancia. En contraste, miles de
observaciones y regularidades inconexas establecen como mucho una hipótesis que vale la pena
investigar.
En lo anterior he estado asumiendo una distinción muy clara entre dos formas de captar la
causalidad: en términos personales, mediante la capacidad personal de provocar algo, y después,
en relación al mundo externo, de forma impersonal, sin hacer referencia a la capacidad de acción
del hombre. Sin embargo, esta distinción, que para nosotros está muy clara, tuvo que aprenderse
a lo largo de muchos siglos.
Cuando dirigen la mirada a las causas y efectos en el mundo externo, los salvajes (y los niños si
se les deja solos) usualmente siguen interpretando los procesos causales que perciben en el
modelo de su experiencia personal temprana. Proyectando su propio patrón hacia el exterior,
piensan en agentes causales en el mundo externo, algunos o todos, como si fueran entidades
personales, y construyen la causación como la expresión de deseos internos o intenciones. El
ejemplo histórico arquetípico de este antropomorfismo es la idea animista de que incluso las
entidades inanimadas tienen un alma que actúa en busca de un fin. El teísmo sostiene la misma
visión de la causalidad, simplemente consolidando la multitud de agentes causales en unas pocas
deidades agentes o incluso en un solo y omnipotente Él.
A este respecto, la religión representa la mentalidad y metafísica de los hombres primitivos. Una
mente así tiene muy poco o nada del concepto de mundo impersonal y material, uno en el que la
acción de las entidades externas no proviene de almas o deseos, sino de la ley de identidad, es
decir, de la naturaleza física de las entidades que actúan en ausencia de cualquier consciencia,
inmanente o trascendente.
La metafísica impersonal fue el logro genial—e históricamente reciente—de los griegos,
específicamente del secularismo de Aristóteles y la defensa de la razón. Fue esta forma de
abordar el asunto lo que llevó a la clara distinción que hicieron los griegos entre lo animado y lo
inanimado, lo que incluía el hecho de que la consciencia sólo puede pertenecer a lo animado.
Una vez que la idea de los griegos quedó impregnada en la mentalidad de Occidente (y dejando a
un lado recaídas como durante la Edad Media), la causación no volvió a concebirse en términos
de una acción personal de agentes sobrenaturales. Así es como la visión objetiva de causa y
efecto desplazaron a la visión antropomórfica que, al principio, pareció sólo una inocente forma
de extender a la naturaleza la propia experiencia causal del hombre.
La civilización occidental amplió el concepto de “causa”, considerando la capacidad de acción
personal como un solo subtipo de ella. Este fue un prerrequisito crucial en el desarrollo de la
ciencia moderna. Eso asciende a llevar la causalidad por primera vez y por completo al terreno
de la realidad y la identidad; es decir, a romper sus ataduras tempranas al misticismo.

Conceptualizar conexiones causales de primer nivel

Las percepciones, como tales, revelan concretos, no abstracciones: Fulanito, Menganito y Pepito,
no “hombre”. Por la percepción sola, por tanto, el inductor de primer nivel puede captar
conexiones causales sólo en términos concretos, como una relación, en un momento y lugar
específicos, entre dos o más particulares. Capta, por ejemplo, que su acto de empujar acaba de
causar a la bola que ruede. O capta que esta mañana las llamas en la chimenea que tiene delante
quemaron ese trozo particular de papel.
Tales observaciones, aunque indispensables como punto de partida para un proceso inductivo,
todavía no son generalizaciones. ¿Qué es lo que las convierte en generalizaciones? ¿Qué es lo
que interviene en el paso de una conexión causal que conecta particulares, a una verdad
universalmente aplicable? La respuesta está en el distintivo medio que tiene el hombre de tratar
cognitivamente con los particulares: su facultad conceptual. La esencia de la formación de
conceptos es el paso de particulares a universales.
Es parte de la naturaleza del proceso de conceptualización que cuando se forma un concepto sólo
algunas de las instancias en el grupo englobado han sido percibidas. Las nuevas instancias se
conceptualizan, es decir, se colocan bajo el concepto que corresponda cuando, y a medida que, se
van encontrando. Este es el método que tenemos de conectar nuevas percepciones con antiguas,
y así aplicarles a todas cualquier conocimiento que hayamos adquirido sobre los miembros de
ese grupo.
Como mente joven en desarrollo, el inductor de primer nivel está ávido de usar su vocabulario
simple para nombrar nuevos objetos que reconoce. Identifica, en términos del vocabulario del
que dispone, las conexiones causales elementales que percibe directamente. No se contenta con
observar en silencio que la cosa caliente de ahí ha causado a la otra cosa oscurecerse y
desaparecer. Puede nombrar las entidades y procesos involucrados aplicando conceptos que ya
ha formado, tales como “fuego”, “papel” y “quemar”.
A la hora de utilizar los conceptos como sus herramientas cognitivas, está en ese momento
omitiendo las medidas de la conexión causal particular que percibe. “Fuego” relaciona las llamas
amarillo-anaranjadas que percibe con todas las llamas semejantes, con independencia de la
diferencia en sus medidas; lo mismo se aplica a “papel” y al proceso de “quemar”. De ahí la
primera expresión de su observación concreta: “El fuego quema al papel”. Esa expresión no es
más que una conceptualización de los datos percibidos, que es lo que la hace una generalización.
Hay que darse cuenta de que cuando nuestro inductor de primer nivel identifica en forma de
palabras una conexión causal percibida, no lo hace como una descripción de concretos
singulares, por mucho que eso sea todo lo que puede percibir; de una vez expresa una verdad
universal. Lo primero que señala no es “Veo relucientes llamas amarillo-anaranjadas que emiten
humo, de unos treinta centímetros de alto, convertir esa primera página enorme del periódico con
sus grandes titulares en una pila de cenizas ennegrecidas”. El niño, en esta etapa temprana, no
tiene el instrumental conceptual necesario para distinguir una instancia de fuego-quema-papel de
otra por medio de palabras; primero tiene que captar que lo que ve es una instancia de “fuego”,
“quemar”, “papel”, es decir, de sus conceptos previos. Sólo mucho después, cuando el
vocabulario que identifica medidas específicas de esos existentes ha sido desarrollado, puede
usar las palabras en combinaciones más sofisticadas para describir la acción de un fuego
particular. Desde el punto de vista lógico, la generalización tiene que estar antes; es el producto
directo de aplicar el instrumental conceptual a la conexión que uno percibe.
De forma parecida, un niño pequeño ve una pelota particular, pero su identificación de ella es
solamente “pelota”. En esta etapa temprana, el niño ni conoce ni puede conocer ninguna
integración más amplia o tipos más específicos o clasificaciones cruzadas de “pelota”; no puede
identificar una pelota como “un artefacto creado por el hombre”, o como “una pelota de tenis
amarilla”, o como “el producto de la búsqueda capitalista de beneficios”. Para él, al principio del
proceso conceptual, el objeto verbalizado es “pelota”, simple y llanamente. Lo mismo se aplica a
la experiencia que el niño tiene de sí mismo como el agente particular que la empuja. Su
identificación tiene que ser “empujar”, como tal, no “una acción humana voluntaria”, o “ejercer
una fuerza”, o “su acto individual de empujar”, ya que todavía no conoce ninguno de esos
términos, relativamente más abstractos; el concepto denota simplemente cualquier y todo acto de
empujar, al margen del agente que lo realice. Y, en cuanto al tiempo y lugar de su observación,
esta es la irrelevancia por excelencia para el niño (y para cualquiera). Es inherente a la formación
y aplicación de un concepto el entender que lo que cuenta a nivel cognitivo sólo es la identidad
de sus referentes. El simple paso del tiempo o el simple cambio de lugar, asumiendo que todo lo
demás permanece igual, no cambia nada para la conclusión a la que uno llega, porque el
concepto de un existente subsume todas las instancias en todos los lugares, pasadas, presentes y
futuras.
A causa de esta estructura conceptual simple y de primer nivel, nuestro inductor, en el propio
acto de nombrar lo que percibe, automáticamente pone a un lado las medidas de la causa y efecto
percibidos y de esta forma obtiene conocimiento que trasciende al concreto en cuestión. Así es
como puede darse la captación de que la causa hace referencia a empujar como tal, y al efecto en
las pelotas como tal, sin importar dónde o cuándo se empuja la pelota.
A juzgar por sus actos, los animales también pueden tener experiencia directa de la causación.
También perciben que diversas acciones que toman hacen que ocurran ciertas cosas. Pero no
pueden ir más allá e inferir generalización alguna a partir de esas percepciones. La diferencia
fundamental aquí es que los animales carecen de facultad conceptual, carecen de la facultad de
omitir medidas; así que no pueden dejar a un lado la particularidad de ningún dato percibido. Por
eso no tienen el poder cognitivo para separar lo que cuenta en una situación causal (por ejemplo,
ser fuego) de lo que no cuenta (el tono exacto de la llama, el área del papel, etc.). Lo que no
cuenta son las medidas, las cuales, en un contexto epistemológico, una mente que está
conceptualizando descarta (implícita o explícitamente) como irrelevante, simple detalle, no
esencial. Los animales, en consecuencia, no pueden proyectar, a partir de lo que perciben, qué
futuro se puede esperar. Pero esto es lo que el hombre hace en el puro acto de conceptualizar
algo percibido.
Una generalización es la conceptualización de la naturaleza de una entidad (su identidad) y/o de
modo necesitado de acción causal; esto es, la inducción puede describirse como una omisión de
medidas aplicada a la identidad de conexiones causales. Igual que un concepto, por medio de la
omisión de medidas, integra en una sola palabra un número ilimitado de existentes particulares
de un cierto tipo, así también una cierta unión de conceptos integra, a través de la omisión de
medidas, un número ilimitado de secuencias causales particulares de un cierto tipo en una sola
proposición que las subsume a todas: una generalización.
Hagamos un resumen ahora de lo que respecta a los axiomas de la inducción. Cuando un
inductor de primer nivel identifica su experiencia concreta de causa y efecto en términos de
palabras, su captación perceptual de la relación causal se convierte entonces en una captación
conceptual, esto es, una generalización. Y ya que la aplicación de los conceptos de primer nivel
es automática y auto-evidente, los dos aspectos de una generalización de primer nivel—el
perceptual y el conceptual—son ambos, para una mente humana, auto-evidentes.
Por tanto, la conclusión es la que sigue: Hay, en la base de toda la inducción futura,
generalizaciones de primer nivel de las que tenemos absoluta certeza, las cuales se extienden más
allá de cualquier percepción posible y que aun así se siguen de forma auto-evidente de la
experiencia perceptual altamente limitada que tiene el hombre, cuando son procesadas, y a
medida que se procesan, por su facultad conceptual.

La estructura del razonamiento inductivo

Ahora vamos a enfocarnos de forma más general en el proceso de inducción, sin restringirnos ya
al primer nivel. Concretamente, vamos a adentrarnos en busca de la esencia del razonamiento
inductivo en cualquier nivel.
En general, razonar es el proceso de inferir una conclusión a partir de un conocimiento previo.
En un razonamiento válido, las premisas no son el punto de despegue para un vuelo de la
imaginación: una suposición, una hipótesis o un “salto” arbitrario. En un razonamiento, la
conclusión se sigue necesariamente de las premisas. Si no las sigue necesariamente, entonces el
argumento es un non sequitur, y la inferencia es inválida.
Rand define la lógica como “el arte de la identificación no contradictoria”. Si uno niega la
conclusión de un argumento lógico, está contradiciendo la información previa desde la que se
infirió la conclusión, y por tanto está violando la ley de identidad. Pero una contradicción es
imposible; de ahí se sigue que si las premisas son ciertas, la conclusión en cuestión debe ser
cierta. Este es el patrón y el principio de todo el razonamiento válido, ya sea deductivo o
inductivo.
La aplicación de este principio a la inferencia deductiva es directa. Cuando se aplica una
generalización a un caso particular, se está haciendo explícita en la conclusión información que
estaba incluida implícitamente en la premisa desde el principio. En ese sentido, una conclusión
deductiva no contiene nada nuevo desde el punto de vista lógico. Es por esto que, en la
deducción, es auto-contradictorio afirmar las premisas y negar la conclusión. Por ejemplo, yo no
podría razonar: “Todos los hombres son mortales; Sócrates es un hombre; por tanto Sócrates no
es mortal”. Eso es equivalente a decir: “Todos los hombres son mortales, y aquí hay uno que no
lo es”. En el silogismo válido, en contraste, cuando concluyo que Sócrates es mortal, no estoy
haciendo más que seguir fiel a mi premisa.
Pero la situación en la inducción es más complicada. Si yo razono partiendo de la mortalidad de
Fulanito, Menganito y Pepito y llego a la conclusión de que todos los hombres son mortales, mi
conclusión aquí es algo nuevo. No está implícito en los datos sobre los individuos nombrados;
aquí ya no se trata simplemente de mantenerme fiel a lo que ya he establecido. De ahí viene el
problema: ¿Por qué la inferencia en esta dirección—es decir, de unos cuantos a todos, o de
particulares a una generalización—es necesaria? ¿Por qué una generalización tiene que seguirse
de la información sobre una o más de sus instancias? ¿Qué contradicción estaríamos abrazando si
aceptásemos la información sobre los individuos observados al tiempo que negamos la
generalización?
Ninguna respuesta satisfactoria ha sido ofrecida en la historia de la filosofía. Por regla general, el
intento de validar la inducción ha tomado la forma de intentar reducir la inducción a deducción.
Aristóteles es un buen ejemplo de esto. Según él, la inducción solamente sugiere
generalizaciones, las cuales, para ser validadas y constituir así conocimiento, deben después
deducirse a partir de generalizaciones más amplias, un proceso que continúa hacia atrás hasta
llegar a las generalizaciones más amplias de todas, que se supone que son auto-evidentes. Por
ejemplo, nuestra experiencia con Fulanito, Menganito y Pepito sólo sugiere que todos los
hombres son mortales. Pero después uno demuestra esto último deduciéndolo a partir de la
generalización de que todos los organismos vivientes son mortales. De acuerdo con esto, una
verdad general sólo puede conocerse por ser auto-evidente o mediante un proceso de deducción a
partir de lo que es auto-evidente. La inducción no es una forma independiente de razonamiento o
de prueba.
Este punto de vista (que es un elemento platónico en el pensamiento de Aristóteles) se convirtió
pronto en el rasgo esencial de los racionalistas, muchos de los cuales descartaron la inducción
incluso como sugerencias que servían de punto de partida. En respuesta a todo esto, los
empiristas negaron, con razón, por ser flotantes y místicos, los castillos deductivos de los
racionalistas, pero aun así pronto estuvieron de acuerdo con ellos en que la inducción no es una
forma válida de razonamiento, sino simplemente un “salto” ciego en la oscuridad que no puede
constituir la base de un conocimiento confiable. De esta forma, los empiristas terminaron
convirtiéndose en escépticos.
El desafío para los lógicos y los filósofos es identificar una forma de razonamiento hasta ahora
no reconocida: una forma de razonamiento en la que la conclusión se siga necesariamente de sus
premisas, pero no de forma deductiva. En este tipo de casos, la conclusión sí que dice algo
nuevo, algo que va más allá de todo el conocimiento previo. Y sin embargo esa misma
conclusión, dado ese conocimiento previo, es inevitable, obligando a la aquiescencia de la mente
bajo pena de auto-contradicción.
La pista para resolver este problema puede encontrarse en nuestro estudio del proceso de llegar a
generalizaciones de primer nivel. Como hemos visto, hay dos elementos involucrados: la
captación de forma concreta de un proceso causal, y la identificación conceptual de este proceso.
Esta combinación es lo que valida una generalización causal de primer nivel. ¿Cómo podría
aplicarse este esquema a generalizaciones más complejas de nivel superior?
Examinemos un caso que es típico de la inducción científica, en el que no percibimos
directamente las conexiones causales, y en el que no estamos restringidos a un puñado de
palabras de primer nivel, sino que para nuestras identificaciones dependemos de multitud de
conceptos avanzados. El ejemplo que he elegido es el famoso experimento de la cometa de
Benjamin Franklin. Servirá para ilustrar el patrón que veremos repetidas veces en los próximos
cuatro capítulos.
Franklin se dispuso a demostrar que los rayos consisten esencialmente en electricidad. Su
hipótesis era que las nubes de tormenta están cargadas eléctricamente, y que un rayo no es más
que una descarga eléctrica, cuando esta carga corre hacia la tierra. Los científicos no siempre
tienen planteada una hipótesis antes de hacer sus experimentos, pero a veces sí, y Franklin lo
hizo así en este caso. Montó su aparato de acuerdo con ella.
Voló una cometa durante una tormenta, protegiéndose él en una caseta, sujetando el hilo de la
cometa mojado por medio de un lazo de seda no conductor. Un hilo terminado en punta
sobresalía de la cometa; ya cerca del suelo, ató al hilo mojado una llave metálica y la mantuvo
cerca de un hilo metálico que descendía hasta una botella de Leyden, una especie de condensador
en el que se puede almacenar carga eléctrica. Si Franklin estaba en lo cierto, las nubes cargadas
eléctricamente causarían que la llave se cargase, y esta carga entonces se dirigiría a la botella de
Leyden y quedaría almacenada en ella. Por supuesto, todo lo que Franklin había predicho ocurrió
tal como él esperaba, y concluyó—a partir de su experiencia de una sola tormenta eléctrica—con
una generalización necesaria y de gran envergadura que describía la naturaleza de los rayos
como tales, que es cierta siempre y en todas partes. ¿Por qué su generalización quedó probada
por esto?
En primer lugar, ¿qué fue lo que vio Franklin durante el experimento? ¿Qué concretos observó
que podrían haber sido observados también por un niño o un salvaje? Entre otras cosas, vio
chispas salir de la llave en dirección al cable que iba a la botella de Leyden. Vio partes del hilo
húmedo volverse rígidas y repeler unas zonas a otras. Observó que si uno acerca sujeta un objeto
metálico puntiagudo a la botella de Leyden, saltan chispas del objeto. Y encontró que si apoyaba
una mano en la botella mientras tocaba con un dedo el cable que entraba en ella, sentía una
descarga desagradable.
Estas observaciones concretas son esenciales para el experimento; no podríamos aprender nada
sin ellas. Sin embargo, estas observaciones carecerían de todo significado para alguien sin
formación sobre el tema; unas cuantas chispas y descargas no le transmitirían ninguna secuencia
causal a un niño, ni siquiera incluso a un adulto con estudios en tiempos de Franklin. Hay una
secuencia causal actuando aquí, pero no es perceptible por sí sola. Por tanto, hace falta otro
elemento antes de que Franklin pueda captar la secuencia causal y validar su generalización.
Aparte de lo que había percibido, Franklin necesitó una serie de conceptos sofisticados; de lo
contrario, ni podría haber diseñado sus experimentos ni podría haber interpretado los resultados.
Por ejemplo, no habría sido capaz de hacer nada sin conceptos como electricidad, descargarse,
conductor, aislante, y botella de Leyden. Estos conceptos implican una gran cantidad de
conocimiento anterior, y fueron posibles gracias a ese conocimiento (que a su vez fue también
descubierto mediante experimentos). Sin lo que podemos llamar ese marco conceptual, Franklin
solamente podría haberse quedado mirando sin comprender las chispas y las descargas. Dado ese
marco conceptual, sin embargo, él pudo identificar en el acto lo que estaba haciendo: el aparato
de la cometa es un conductor largo, y por ello la nube de tormenta eléctricamente cargada
provoca que la llave se cargue, y es entonces cuando la llave se descarga hacia dentro de la
botella de Leyden.
Una vez que Franklin puede identificar lo que está viendo en estos términos, su conclusión—la
generalización—se sigue directamente. El marco conceptual le permite identificar, omitidas las
medidas concretas, la cadena causal en el centro de todo esto; nada conocido explica las
observaciones. La conclusión tiene que ser que las nubes de tormenta están cargadas
eléctricamente y por tanto que el rayo en sí mismo es una descarga eléctrica, lo cual constituye la
generalización.
Si uno capta las observaciones en este caso, y sabe que el marco conceptual es válido, entonces
la generalización se sigue necesariamente. Negarla en estas condiciones involucraría una
contradicción. Uno que negase la generalización de Franklin estaría contradiciendo las
observaciones directas y/o un marco conceptual que es válido.
Ya sea la inducción que nos ocupe de primer nivel o avanzada, por tanto, aparecen los dos
mismos elementos: aprehender un proceso causal a través de observaciones concretas, y el uso
de conceptos para identificarlo. La principal diferencia aquí entre el principiante y el científico
reside en la complejidad del marco conceptual necesario.
El niño conoce solamente un puñado de conceptos, como “fuego” o “papel”, que define de forma
ostensiva, y que todavía no están conectados lógicamente entre sí en su mente. Pero a medida
que la formación de conceptos progresa más allá del primer nivel, deja de ser adecuado un
conjunto de conceptos que no están relacionados. Todos los conceptos deben convertirse en
algún momento en aspectos de un marco conceptual integrado. El conocimiento es una suma,
una unidad, y ningún concepto puede ser válido hasta que se integre dentro de esa unidad. Un
concepto desconectado que flota libremente no tendría ningún contexto en el resto del
conocimiento que uno tiene, y por tanto no tendría ningún lazo con la realidad.
El marco conceptual que hace falta para el experimento de Franklin se extiende, por tanto,
mucho más allá de los pocos conceptos técnicos de electricidad que he mencionado hasta ahora.
Precisamente porque todo el conocimiento está integrado, el conocimiento acerca de la
electricidad no puede permanecer en un vacío como si fuese un compartimento cognitivo auto-
contenido. Para comprender por completo los conceptos eléctricos que él estaba aplicando—y
para saber que estos conceptos, en contraste con cualesquiera otros que se conozcan, son los
relevantes, los únicos que explican los hechos en este caso—Franklin necesitó acceso a todo su
conocimiento, incluyendo el vasto cuerpo de información que tenía de otros ámbitos, más allá de
la electricidad y sus formas de manifestarse.
Es instructivo que volvamos aquí al origen de la hipótesis de Franklin en lo que respecta a los
rayos. Empezó por un listado de doce hechos observados que relacionaban los rayos con
cualquier cosa de todos los ámbitos de su conocimiento que se podría concebir que fueran
relevantes para entender su naturaleza. Estos hechos se encontraban a lo largo y ancho de todo su
mapa cognitivo; relacionaban los rayos con la luz, el color, la velocidad y la dirección del
movimiento (y así implícitamente con la dinámica), con el comportamiento de los metales (y así
con el conocimiento acerca de diversos tipos de sustancias), con el sonido, el calor y la
temperatura, con el olfato, e incluso con la vida y la muerte de los animales. Habiendo
inspeccionado esta vasta y abierta extensión de territorio cognitivo, Franklin encontró datos por
todas partes que sugerían que el rayo era un fenómeno eléctrico. Concluyó que el siguiente paso
que había que tomar era obvio: “Hágase el experimento”.12
Para interpretar sus observaciones en este experimento, tuvo que escudriñar la suma completa de
su conocimiento; tuvo que integrar el rayo con todo lo conocido que podría ser relevante para su
naturaleza, ya fuesen o no elementos que estuvieran incluidos formalmente en el estudio de la
electricidad. La integración es un requisito de la lógica, y por tanto en la inducción de niveles
superiores la correcta identificación conceptual de un proceso causal exige conocer y emplear el
marco conceptual completo que uno posee.
La estructura del razonamiento inductivo, en general, a cualquier nivel, es: la observación; la
aplicación del marco conceptual completo que uno tiene; y, por tanto, necesariamente, la
generalización.
Ahora es cuando vemos el contraste auténtico entre la inducción y la deducción. No tiene que ver
con la idea de que la inducción es sólo probable, o de que la inducción involucra algún tipo de
salto arbitrario.
La deducción es una forma simple de razonamiento. Parte de una identidad—conexión causal—
que ya ha sido conceptualizada y formulada como una generalización. En otras palabras, parte de
un producto conceptual complejo considerado como establecido y que no causa problemas. Al
deductor no le preocupa como tal el proceso de conceptualizar datos complejos. Da por sentado
desde el principio que hemos resuelto todas las preguntas epistemológicas difíciles que hayan
hecho falta para formar y utilizar los conceptos. Asume como algo dado que la facultad
conceptual se ha usado para obtener conocimiento nuevo y profundo, y que se ha usado
correctamente. Entonces es cuando procede a aprovechar las implicaciones del nuevo
conocimiento.
En contraste, un argumento inductivo no es una serie de premisas auto-contenidas de las que la
conclusión se sigue por una cuestión de consistencia formal. El motivo es que el puente que une
la observación y la generalización no es una premisa ni cien premisas, sino el total del
conocimiento propiamente integrado. Esto explica por qué la inducción es mucho más difícil y
controvertida que la deducción, y por qué no puede ser reducida al formalismo de símbolos.
La deducción dice: Dada una relación específica entre conceptos (por ejemplo, “hombre” y
“mortalidad”), X debe ser la consecuencia. La inducción dice: Dado el sistema completo de los
conceptos, X debe ser la consecuencia. En la deducción la conclusión es necesaria; de no ser así
uno estaría negando un producto específico de la facultad conceptual, una generalización
específica. En la inducción la conclusión es necesaria; de no ser así uno estaría negando el
sistema completo de los conceptos que tiene el hombre, es decir, la suma del conocimiento
adquirido por medio de la razón humana, esto es, la facultad racional como tal.
El problema de la inducción ha sido irresoluble durante mucho tiempo porque la naturaleza de la
consciencia humana ha sido malentendida durante mucho tiempo. Para resolver el problema de la
deducción, uno debe captar que A es A: ese es el logro monumental de Aristóteles. Pero para
resolver el problema de la inducción, uno debe captar otro logro monumental: la teoría de
conceptos de Ayn Rand.
La deducción da por sentado el proceso de conceptualización. La inducción es el propio proceso
de conceptualizar, en acción.
2. El método experimental

La revolución científica del siglo XVII fue posible gracias a los logros de la Grecia Antigua. Los
griegos fueron los primeros en buscar explicaciones naturales (en vez de sobrenaturales) y
teorías comprensibles acerca del mundo físico, y en desarrollar la lógica deductiva y las
matemáticas avanzadas. Sin embargo, su progreso en física se vio obstaculizado por la noción
vastamente extendida de que el conocimiento superior es recibido de forma pasiva en vez de ser
adquirido activamente. Para muchos pensadores griegos, la perfección había que encontrarla en
el reino del “ser”, un reino eterno e inmutable de verdades universales que pueden ser captadas
por la mente contemplativa del filósofo. En contraste, el mundo físico de la actividad se
consideraba a menudo como un reino de “tender a ser”, un reino de cambio incesante que nadie
puede jamás comprender a fondo. El científico moderno se considera a sí mismo un investigador
activo, pero esa perspectiva era poco frecuente entre los griegos. Esta diferencia básica en la
actitud—contemplación frente a investigación—es una de las grandes diferencias entre las
mentes antiguas y las modernas.
La ciencia moderna empezó con el desarrollo completo de su particular y distintivo método de
investigación: el experimento. “Experimentación” es el método de establecer relaciones causales
por medio de controlar variables. El experimentador no sólo observa la naturaleza; la manipula
manteniendo constante algún factor (o factores) mientras varía otros, y mide los resultados. Él
sabe que el árbol del conocimiento no va a dejar caer sus frutos en su mente abierta; los frutos
deben cultivarse y recogerse, normalmente con ayuda de instrumentos destinados a tal fin.
Precisamente lo que les faltaba a los griegos puede verse examinando su acercamiento más
próximo a la ciencia experimental moderna, algo que está bien ilustrado en las investigaciones
sobre la refracción que llevó a cabo Claudio Ptolomeo. Él realizó un estudio sistemático en el
que midió la desviación angular de la luz en interfases de aire/agua, aire/vidrio y agua/vidrio.
Este experimento, cuando se repitió en el siglo XVII, llevó a Willebrord Snell a descubrir la ley
del seno para la refracción. Pero Ptolomeo no llegó a descubrir la ley, aunque hiciera el
experimento correcto y dispusiera tanto del conocimiento matemático necesario como de
recursos suficientes para recoger datos lo bastante precisos como para descubrir la ley.
El motivo de que Ptolomeo fracasase fue principalmente su punto de vista sobre la relación entre
experimentación y teoría. Él no consideraba el experimento como el medio para llegar a la teoría
correcta; en vez de eso, consideraba que la teoría ideal viene dada de antemano mediante la
intuición, y luego el experimento nos muestra las desviaciones del mundo físico observado
respecto del ideal. Ese es precisamente el enfoque platónico que Ptolomeo adoptó para la
astronomía. El círculo es la figura geométrica de simetría perfecta, así que él y otros astrónomos
griegos anteriores partieron de la intuición de que los cuerpos celestes orbitan en círculo a
velocidades constantes. Después, las observaciones determinaban las desviaciones de lo ideal
que Ptolomeo había modelizado sirviéndose de ardides matemáticos que no tenían ninguna
relación con principios físicos (como deferentes, epiciclos y ecuantes). De forma parecida, en
óptica partió del argumento a priori de que la razón entre los ángulos de incidencia y refracción
debería ser constante para cada tipo de interfase. Cuando las medidas indicaban que no era así, él
utilizaba una progresión aritmética para modelizar las desviaciones respecto de la razón
constante ideal.1
Platón había denigrado la percepción sensorial y el mundo físico, exhortando a sus seguidores a
dirigir su atención hacia adentro y así descubrir el conocimiento de las ideas perfectas que tienen
su origen en una dimensión no física. Por desgracia, Platón explicó, estas ideas perfectas sólo se
corresponderán de forma aproximada con el mundo físico que observamos, imperfecto y en
incesante cambio.
La ciencia de Ptolomeo era superficialmente anti-platónica por el hecho de enfatizar el papel de
la observación cuidadosa. Sin embargo, a un nivel más profundo, su ciencia era una aplicación
lógica del platonismo; en astronomía y en óptica, partió del modelo “perfecto” para luego
simplemente describir sin mayor explicación las desviaciones inherentemente ininteligibles
respecto de ese modelo. Así, Ptolomeo consideraba el experimento no como un método de
descubrimiento sino como la sirvienta de la intuición; él usaba los experimentos para rellenar los
detalles de un mundo físico que se niega a comportarse en perfecta armonía con nuestras ideas
predeterminadas. Este enfoque es una receta para el estancamiento: la teoría se impone sobre los
datos sensoriales en vez de derivarse de ellos, la matemática está desconectada de los principios
físicos y, al no comprender las causas, el científico se queda sin preguntas adicionales que
plantearse.
Fue necesario un punto de vista opuesto para que naciera la ciencia moderna: el experimento
debía considerarse como el método esencial de captar conexiones causales. El poder único de
este método se aprecia examinando cómo fue usado por los genios que crearon la era científica.

La cinemática de Galileo

Cuenta la leyenda que la física moderna empezó en una iglesia.


En un domingo de 1583, un Galileo de diecinueve años dejó que su atención se desviara del
sermón y en su lugar se fijase en una lámpara colgante de la catedral que se mecía en una
corriente de aire. Mientras observaba, se dio cuenta con asombro de que los vaivenes a lo largo
de arcos pequeños parecían tardar lo mismo que los vaivenes a lo largo de arcos mayores.
Usando el pulso de su corazón a modo de reloj, cronometró las oscilaciones y confirmó que el
periodo parecía ser independiente del tamaño del arco descrito.
Hasta ese momento, Galileo había hecho una observación interesante y una medida tosca, pero
no había demostrado nada. Para poder demostrar la independencia de la amplitud—y después
seguir adelante hasta descubrir una ley que relacionase las propiedades de un péndulo con su
movimiento—tuvo que diseñar y realizar una serie de experimentos.
Empezó construyendo dos péndulos similares, ambos de igual longitud y con iguales pesos de
plomo. Levantó ambos pesos de la vertical en ángulos diferentes (por ejemplo, veinte grados uno
y diez grados el otro), y los soltó al mismo tiempo. Galileo observó entonces que los dos
péndulos se columpiaban de un lado a otro casi al perfecto unísono, a pesar de que sus
amplitudes eran diferentes, y se dio cuenta de que seguían haciéndolo mientras contaba más de
diez oscilaciones. Manteniendo constantes todos los demás factores relevantes, doblar la
amplitud no tenía ningún efecto apreciable sobre el periodo.
Los pasos siguientes en la investigación de Galileo fueron guiados por sus pensamientos en
cuanto a la causa de ese resultado tan sorprendente. Se dio cuenta de que el peso del péndulo
cobra velocidad solamente porque está cayendo hacia la Tierra, es decir, sólo debido a la
componente descendente de su movimiento, y que esa componente obviamente crece a medida
que se incrementa la amplitud. Así, cuando el peso recorre una distancia mayor lo hace a mayor
velocidad; los dos factores deben compensarse para que el periodo se mantenga constante.
Pero ¿es esa compensación exacta para todas las amplitudes? Galileo abordó esta cuestión por
dos caminos: experimentalmente y matemáticamente. Primero, repitió el experimento anterior
utilizando una amplitud de casi noventa grados para un péndulo y de sólo diez grados para el
otro. En este caso extremo, midió que el periodo de las oscilaciones más amplias era más de un
10% mayor que el periodo de las oscilaciones pequeñas. A pesar de la discrepancia, ese resultado
no le disuadió de la “ley de la independencia de la amplitud”. Le pareció muy probable que el
incremento relativamente pequeño en el periodo estuviera causado porque la oscilación más
rápida y amplia encontraba mayor resistencia por parte del aire, y él estaba abstrayéndose
deliberadamente de los efectos de esas “obstrucciones”.
A Galileo le fue imposible determinar directamente por medio del experimento los efectos de la
resistencia del aire; una bomba de vacío le habría permitido retirar el aire, pero otro medio siglo
tuvo que pasar antes de que ese instrumento fuese inventado. Así que, en lugar de eso, se apoyó
en las matemáticas para intentar demostrar la independencia de la amplitud. Partiendo de la idea
de que la velocidad del péndulo es proporcional al seno de la amplitud—ya que este factor aísla
la componente eficaz descendente del movimiento—intentó demostrar que un peso soltado desde
cualquier punto del arco circular tardaría lo mismo en llegar abajo.
Aquí, Galileo se encontró con otro obstáculo: en general, los conceptos y métodos matemáticos
de su tiempo eran inadecuados para trabajar con un cuerpo que está continuamente cambiando de
dirección. Así que simplificó el problema reemplazando el arco circular con una cuerda del
círculo que terminaba abajo. Una vez que planteó un problema que podía resolver, y partiendo de
una hipótesis que relacionaba la velocidad con el ángulo de inclinación, llegó a la conclusión de
que el movimiento sin fricción en descenso sobre cualquiera de esas cuerdas tardaba la misma
cantidad de tiempo (ver Figura 1).2 El resultado estaba tentadoramente cerca de lo que él quería,
y sin embargo era diferente de forma irreconciliable: el movimiento en descenso por la cuerda no
es lo mismo que el movimiento en descenso por el arco circular. Pero Galileo no pudo progresar
más en el análisis. Al final decidió presentar como válida la ley de independencia de la amplitud,
mientras de forma privada expresaba su insatisfacción por carecer de una demostración.3

Después de descartar la amplitud como un factor relevante, se dedicó a considerar propiedades


que pudieran afectar al ritmo al que el péndulo oscila. Se preguntó: ¿Afectan al periodo el
material o el peso de la bola? La pregunta obtuvo respuesta de forma fácil gracias al
experimento. Partiendo de sus dos péndulos idénticos, reemplazó la bola de plomo de uno de
ellos con una bola de corcho. Luego levantó ambos pesos veinte grados o más y los dejó caer al
mismo tiempo. La amplitud del péndulo de corcho disminuyó más rápidamente, y Galileo
atribuyó correctamente esta diferencia a la resistencia del aire. A la luz de los resultados de sus
experimentos anteriores, pudo despreciar la diferencia en amplitud porque tiene un efecto
mínimo en el periodo. La observación crucial fue que los pesos de plomo y de corcho seguían
oscilando de un lado a otro en sincronía casi perfecta. Galileo generalizó de forma lógica y con
confianza a partir de ese resultado, concluyendo que en todos los casos ni el material ni el peso
de un péndulo afectan a su periodo.

Figura 1. El deslizamiento sin fricción a lo largo de cualquier cuerda que termina en el


punto inferior del círculo tarda el mismo tiempo.
Ya que los pesos de los péndulos en el experimento anterior oscilaban con el mismo periodo,
debe haber estado operando la misma causa. Al parecer la única propiedad relevante que dos
péndulos tienen en común es su longitud, y por lo tanto la longitud debe ser el factor causal que
determina el periodo. Un poco de reflexión nos muestra que esta idea se integra con una gran
cantidad de observaciones cotidianas; por ejemplo, un niño subido en un columpio que está
colgado de una rama alta de un árbol tarda más en ir y volver que si lo hace en uno más corto que
cuelga de una rama más baja, y una rama larga que cuelga se mece al viento más despacio que
otra corta. Pero exactamente ¿cómo afecta la longitud al periodo? Galileo descubrió la respuesta
llevando a cabo una serie de experimentos en los que fue variando la longitud de un péndulo
desde 60 cm hasta 9 m. Midió el periodo comparándolo con el de otro péndulo de longitud fija o
usando una clepsidra (un dispositivo que mide el tiempo marcando la fuga de agua regulada que
sale de un recipiente por una pequeña abertura). Sus datos establecieron una relación matemática
exacta entre la longitud y el periodo, lo cual él generalizó inmediatamente en una ley que se
aplica a todos los péndulos en cualquier lugar de la Tierra y en cualquier época: la longitud es
proporcional al cuadrado del periodo.
Es instructivo señalar los experimentos que Galileo no hizo. No le pareció necesario variar todas
las propiedades conocidas de un péndulo y ver si tenían un algún efecto sobre el periodo. Por
ejemplo, no varió sistemáticamente el color, la temperatura o el olor del peso del péndulo; no
investigó sobre si había alguna diferencia en que el brazo del péndulo estuviera hecho de cordel
de algodón o de hilo de seda. Basándose en observaciones del día a día, Galileo tenía un amplio
contexto pre-científico de conocimiento, suficiente como para descartar tales factores por ser
irrelevantes. Llamar a este conocimiento “pre-científico” no es poner en duda su objetividad;
esas generalizaciones de nivel inferior se adquieren por medio del uso implícito de los mismos
métodos que el científico usa deliberada y sistemáticamente, y son igualmente válidas. Con este
contexto, Galileo concluyó rápidamente que el periodo de un péndulo depende sólo de su
longitud.
En el proceso de llegar a esta conclusión, Galileo pasó por alto un factor relevante: la
localización del péndulo. Él sabía que un péndulo oscila porque el peso cae hacia la Tierra.
También sabía que la Luna no se precipita sobre la Tierra, lo cual podría haberle sugerido que la
gravedad de la Tierra debe disminuir con el aumento de la distancia. Así que ¿por qué no llevar
un péndulo a lo alto de una montaña y ver si allí oscila más despacio?
En la época de Newton vendrían consecuencias importantísimas cuando los científicos usaron
péndulos para descubrir esas variaciones gravitacionales. Pero esta posibilidad nunca se le
ocurrió a Galileo porque carecía del concepto de “gravedad”, del que Newton sí disponía.
Galileo pensaba aún en términos de un concepto más simple, el concepto de “pesadez”, que se
refería simplemente a la propiedad de los objetos terrestres que hace que empujen hacia abajo y
caigan a la Tierra. No tenía la idea de una interacción invisible entre el objeto y la Tierra. Con la
idea moderna de fuerza, es razonable pensar en que la interacción se debilite con el aumento de
la distancia entre los cuerpos. De todas formas, si uno piensa solamente en la “tendencia natural”
del objeto pesado, no es posible captar la relevancia del factor de la distancia al centro de la
Tierra. La idea más avanzada de “gravedad” fue necesaria antes de que los científicos pudieran
descubrir que el periodo de un péndulo varía ligeramente con la localización, y luego ir más allá
hasta descubrir todo lo que eso implica. Aquí vemos cómo carecer de un concepto fundamental
puede detener el progreso, y cómo la formación de un concepto puede allanar el camino hacia el
conocimiento posterior.
El péndulo le dio a Galileo una excelente introducción al estudio experimental del movimiento;
las medidas fueron relativamente fáciles de hacer porque el peso se quedaba en una zona
mientras repetía despacio su movimiento durante bastante tiempo. Aun así, como pudo descubrir
Galileo, el análisis del movimiento se complicaba por el hecho de que la bola cambiase de
dirección continuamente. En contraste, el caso más simple de un cuerpo que exhibe su tendencia
natural a moverse hacia la Tierra es el de un cuerpo cayendo directamente hacia abajo.
Al principio de su carrera, cuando era profesor de matemáticas en la Universidad de Pisa, Galileo
empezó su investigación de la caída libre abordando una vieja pregunta que todavía daba lugar a
confusiones: ¿cómo afecta el peso de un cuerpo al ritmo al que cae? Galileo demostró la
respuesta con su estilo dramático característico. Se subió a lo alto de la famosa Torre Inclinada y,
desde una altura de más de cincuenta metros, dejó caer dos bolas de plomo que diferían
considerablemente en tamaño y en peso. Los estudiantes y profesores reunidos abajo vieron
cómo ambos objetos golpeaban el suelo prácticamente a la vez. En contra de lo que se asumía
comúnmente, el ritmo al que que cae un cuerpo no depende de su peso.
Fue entonces cuando Galileo se planteó la pregunta que se seguía lógicamente: ¿Depende el
ritmo de caída de cuál sea el material del cuerpo que cae? Repitió el experimento usando una
bola de plomo y otra de roble. De nuevo, cuando las soltó simultáneamente desde una gran
altura, ambas golpearon el suelo prácticamente al mismo tiempo. Así es como Galileo llegó a una
amplísima generalización: todos los cuerpos libres, independientemente de sus diferencias de
peso y material, caen a la Tierra al mismo ritmo. A primera vista, parece demasiado fácil. Es
como si Galileo hubiese llegado a esta verdad fundamental de la física—una que había escapado
a las mejores mentes de la Antigua Grecia—sólo haciendo unos cuantos experimentos que
cualquier niño podría haber hecho. Pero si uno se fija en detalle verá que el razonamiento de
Galileo no era tan simple; dependía de su uso pionero de un concepto válido, y de su rechazo de
ciertos conceptos inválidos que eran ampliamente aceptados.
Primero hay que darse cuenta de que los objetos que soltó no los eligió al azar. Si hubiese dejado
caer un fardo de paja y una brizna de heno desde lo alto de la Torre Inclinada, el evento no habría
sido un hito en la historia de la física. Sin embargo, estos objetos están hechos de un material
similar y tienen pesos muy diferentes, igual que las dos bolas de plomo que él utilizó. O
consideremos su segundo experimento: imaginemos que Galileo se hubiese limitado a soltar
objetos de diferentes densidades en líquidos en vez de en el aire, pensando que tal vez fuese más
sencillo investigar un movimiento más lento. De hecho, él sí hizo ese tipo de experimentos, y
llegó a la conclusión de que los objetos rápidamente alcanzan una velocidad máxima que
depende de su densidad, lo cual es parecido a lo que los griegos habían asumido para todos los
cuerpos que caen. Tales experimentos pueden ser fácilmente malinterpretados como siendo
evidencia de que el peso es siempre un factor esencial que determina el ritmo de caída.
Galileo eligió las condiciones de sus experimentos de caída libre teniendo un criterio
fundamental en mente: quería minimizar los efectos del rozamiento. “Rozamiento” es la fuerza
que se opone al movimiento relativo entre dos cuerpos en contacto. A veces se dice que Galileo
ignoró esta fuerza, porque las leyes que descubrió describen el movimiento sin rozamiento. Pero
eso es todo lo contrario a la verdad. De hecho, él pensó profundamente sobre la resistencia del
aire y sobre otras formas de rozamiento, y distinguió cuidadosamente dos casos en los que el
rozamiento juega un papel menor de entre los muchos casos en los que juega un papel esencial.
Sin esta distinción es imposible llegar a ninguna ley del movimiento; con ella, Galileo descubrió
con éxito la ley de la caída libre.
Enrico Fermi, otro gran físico italiano, rindió homenaje a este logro con este comentario:
Fue el propio rozamiento el que durante miles de años mantuvo oculta la simplicidad y
validez de las leyes del movimiento. En otras palabras, el rozamiento es un elemento
esencial a toda experiencia humana; nuestra intuición está dominada por el rozamiento;
los hombres se pueden mover gracias al rozamiento; es por el rozamiento que podemos
agarrar objetos con nuestras manos, erigir fábricas, construir coches, casas, etc. Ver la
esencia del movimiento más allá de las complicaciones del rozamiento requirió, desde
luego, una gran perspicacia.4
Un físico contemporáneo ve el efecto del rozamiento por todas partes a su alrededor. Esto ocurre
porque ha sido educado en las verdades descubiertas por Galileo y Newton. Antes del siglo
XVII, los filósofos de la naturaleza consideraban los movimientos que observaban desde una
perspectiva diferente, una perspectiva manchada con los errores contenidos en la vieja física
griega. Por ejemplo, cuando Leonardo da Vinci estudió los péndulos, no se dio cuenta de que la
amplitud disminuye poco a poco por causa de la resistencia del aire. En vez de eso analizó el
arco en una porción “natural” hacia abajo y una porción antinatural, o “accidental”, hacia arriba.
Entonces hizo uso del dogma ampliamente aceptado de que el movimiento accidental siempre
será más corto que el natural, para explicar la amortiguación de las oscilaciones. Nunca se le
ocurrió abstraerse de este efecto, puesto que lo consideraba como algo fundamental en la
naturaleza del movimiento.
De igual forma que conceptos válidos como el de “rozamiento” pueden impulsar la ciencia hacia
adelante, conceptos inválidos pueden detenerla. El análisis erróneo de Da Vinci de los péndulos
se apoyaba en los conceptos griegos de movimiento “natural” y “violento”, los cuales fueron
barreras formidables para el progreso en la física. En la raíz de esta distinción está la idea
equivocada de que el movimiento requiere un motor, es decir, una fuerza. Las rocas que caen, el
humo que se eleva, y la Luna dando vueltas alrededor de la Tierra eran considerados todos ellos
casos de un movimiento natural en el que el cuerpo es movido por alguna fuerza interna
inherente a su naturaleza. Las rocas lanzadas hacia arriba, el humo soplado en horizontal y los
pájaros en vuelo se consideraban casos de movimiento violento en el que el cuerpo se mueve
empujado externamente por otros cuerpos. Se consideraba que los movimientos naturales eran el
verdadero terreno de los físicos, puesto que eran resultado de la naturaleza del cuerpo; los
movimientos violentos eran considerados por lo general menos interesantes.
Como estacas cuadradas en agujeros redondos, los hechos se resistían a los intentos de encajarlos
en esas categorías inválidas. Consideremos el caso sencillo de una persona que lanza una roca.
¿Por qué sigue moviéndose la roca después de abandonar la mano del lanzador? Mientras está
volando por el aire, ¿dónde está el motor? Ya que un movimiento violento requiere de una fuerza
externa, los defensores de la teoría griega se vieron obligados a dar una respuesta nada
convincente: el lanzador supuestamente le imprime su fuerza motriz al aire, y entonces son
corrientes de aire las que empujan a la piedra causando su movimiento prolongado. Según este
punto de vista, el papel primario que juega el aire no es el de oponerse a estos movimientos
violentos, sino el de causarlos.
Durante la Edad Media, algunos pensadores empezaron a rechazar la poco plausible afirmación
de que el aire empuja a un proyectil a lo largo de su trayectoria. Al tratar con el caso de un
saltador de longitud, el filósofo del siglo XIV Jean Buridan escribió: “La persona que corre y
salta no siente el aire moverle; más bien siente el aire frente a él oponérsele con fuerza”.5 Pero
nadie estaba preparado aún para abandonar la idea de que el movimiento requiere de una fuerza.
Así que “internalizaron” la fuerza; afirmaron, en este caso, que el lanzador de una piedra le
transfiere su fuerza motriz directamente a la piedra, dotándola de una propiedad llamada
“ímpetu”. A pesar de aceptar una premisa falsa, esos filósofos consiguieron romper parcialmente
con los errores del pasado. Abandonaron la distinción entre movimiento natural y movimiento
violento; su punto de vista transformó los movimientos violentos en naturales, al afirmar que
tales movimientos eran causados por el ímpetu interno del cuerpo.
Los defensores medievales del “ímpetu” dieron una respuesta al dilema griego sobre qué es lo
que hace que un proyectil vuele, pero entonces se encontraron con estas preguntas: ¿Qué hace
que el proyectil se acabe frenando o deteniendo? ¿Qué le ocurre a su ímpetu? Una respuesta fue
afirmar que el ímpetu se disipa naturalmente con el tiempo. Pero esa respuesta era inadecuada;
entre otros problemas, no daba ninguna idea sobre por qué el ritmo de disipación depende del
medio por el que viaja el cuerpo. Así que Buridan sugirió que un cuerpo pierde ímpetu sólo
cuando trabaja para vencer a una resistencia. Su idea contenía un elemento importante de verdad
en cuanto identificaba el papel del rozamiento como una oposición al movimiento.
Sin embargo, fue Galileo quien dio el paso clave al combinar esta apreciación del rozamiento
con el método experimental. Él no se limitó a reconocer la existencia del rozamiento; trató
activamente de controlarlo y minimizarlo. Eso fue lo que le permitió abstraer los efectos de la
resistencia del aire y descubrir así que todos los cuerpos libres caen con el mismo movimiento.
La siguiente pregunta razonable era: ¿Cuál es la naturaleza de este movimiento? En particular,
Galileo se preguntó cómo la velocidad de un cuerpo que cae aumentaba con el tiempo y la
distancia. Por supuesto, no tenía forma de medir directamente la velocidad; sin embargo, se dio
cuenta de que había una medida muy relacionada que era complicada de hacer pero no
imposible: podía medir cómo varía la distancia recorrida al caer según el tiempo transcurrido.
Usando su clepsidra, Galileo cronometró una caída desde unos dos metros y otra desde el doble
de esa altura. Encontró que duplicar la altura incrementaba el tiempo de caída en menos de un
50%. Este resultado parecía indicar que la distancia de caída podía ser proporcional al cuadrado
del tiempo, igual que la longitud de un péndulo es proporcional al cuadrado de su periodo.
Galileo se dio cuenta de que podía usar el péndulo para comprobar esta idea. Diseñó un péndulo
de longitud fácilmente ajustable, en el que el peso impactaba con una pared fija colocada donde
el péndulo alcanzaba el punto más bajo al oscilar. Luego midió el tiempo de caída libre desde
una altura determinada, y ajustó la longitud del péndulo de forma que llegase a la vertical en el
mismo tiempo. Encontró, por ejemplo, que un peso cae en torno a 1.5 m en lo que un péndulo de
1.2 m cae hasta la vertical. (Parece ser que Galileo empleó medidas de tiempo con la clepsidra,
aunque habría sido posible comparar las distancias directamente.) Repitiendo el proceso para
diferentes valores, demostró que la razón entre la altura de caída y la longitud del péndulo es
siempre la misma. Como la longitud del péndulo varía con el cuadrado del tiempo empleado, la
distancia recorrida en caída libre también debe ser proporcional al cuadrado del tiempo. De ese
modo, usando su conocimiento previo sobre los péndulos y el método experimental, Galileo
llegó a una generalización de un alcance impresionante: para todos los cuerpos libres en la
Tierra, la distancia de caída es igual al cuadrado del tiempo transcurrido multiplicado por una
constante específica (cuyo valor depende de las unidades concretas).
Galileo se dio cuenta de las implicaciones de su ley del cuadrado del tiempo. Como la altura de
la caída es igual a la velocidad media de caída multiplicada por el tiempo transcurrido, la altura
sólo puede ser proporcional al cuadrado del tiempo si la velocidad es directamente proporcional
al tiempo. Galileo había encontrado así la respuesta a su pregunta original sobre el aumento de la
velocidad durante la caída: la velocidad aumenta de forma directamente proporcional al tiempo
transcurrido, es decir, sufre incrementos iguales en intervalos de tiempo iguales. En unidades
métricas familiares, decimos que la velocidad aumenta en 9.8 metros por segundo (unos 35
kilómetros por hora) en cada segundo de caída.
Además del concepto de “rozamiento”, este descubrimiento dependía del desarrollo previo de
Galileo de dos conceptos fundamentales del movimiento. A lo largo del razonamiento anterior él
estaba utilizando conceptos de “velocidad” y “aceleración” que diferían profundamente de los
que se usaban comúnmente en aquella época. Stillman Drake, un experto en la obra de Galileo,
señala que “el término italiano ‘velocita’… significa solamente rapidez, un vago concepto
cualitativo…”6 La alternativa era el término latino “velocitas”, usado entonces por los filósofos
naturales para referirse a la “intensidad del movimiento”. Galileo observó que tales ideas
cualitativas eran callejones sin salida en la física; la ciencia de la cinemática requiere de
conceptos cuantitativos del movimiento que estén definidos matemáticamente y puedan ser
identificados empleando medidas.
Galileo se enfrentó a dos obstáculos que le impidieron desarrollar conceptos del movimiento que
fueran totalmente adecuados. En primer lugar, la teoría griega de las proporciones le dejaba
restringido a razones de “cantidades conmensurables”, por ejemplo, a razones de distancias,
tiempos, o velocidades. Un concepto de “número” demasiado restringido había llevado a los
griegos a rechazar razones de “cantidades no semejantes” como distancia entre tiempo, o
velocidad entre tiempo. Por otro lado, las ideas fundamentales de velocidad instantánea y
aceleración instantánea eran imposibles sin el concepto matemático de “límite”, que aún no había
sido desarrollado. A consecuencia de esto, Galileo pudo ofrecer definiciones matemáticamente
rigurosas sólo para un movimiento a velocidad constante o a aceleración constante.
A pesar de estas restricciones, los nuevos conceptos del movimiento que desarrolló Galileo
fueron un avance crucial respecto de sus predecesores, y resultaron adecuados para los objetivos
que él tenía, puesto que la caída libre ocurre con una simple aceleración uniforme. No obstante,
su evidencia experimental directa para la ley de caída libre daba pie a una crítica: era difícil
obtener medidas precisas y repetibles de intervalos de tiempo tan cortos. Uno podría investigar
más fácilmente la aceleración de la caída si hubiera alguna forma de ralentizarla sin afectar a su
naturaleza. Esa fue la motivación que llevó a Galileo a experimentar con planos inclinados.
En el caso de una bola que rueda cuesta abajo por un plano inclinado, el movimiento está
causado por la componente vertical del movimiento restringido de la pesada bola. Galileo razonó
que puesto que la causa del movimiento es la misma que en una caída libre y la dirección de la
bola es constante, la aceleración a lo largo del plano debería ser de la misma naturaleza que en
caída libre, excepto que estaría atenuada por la proporción entre la altura caída y la distancia total
recorrida. Así, una bola que rueda por un plano inclinado en un ángulo pequeño respecto de la
horizontal proporcionaba un medio de estudiar la aceleración de un cuerpo que cae de una forma
que había sido reducida considerablemente en magnitud, y que por tanto era más fácil de medir.
Galileo hizo rodar una bola de bronce por un canal finamente pulido en una tabla de madera recta
de unos 2.5 m de largo. Empleando un ángulo de inclinación de casi dos grados, la bola tardaba
más de cuatro segundos en recorrer la tabla. Entonces tuvo una idea ingeniosa. Ató ocho cuerdas
muy finas alrededor de la tabla. Cuando la bola pasaba por cada cuerda, sonaba un golpecito
tenue pero audible. A medida que iba dejando caer la bola por la tabla, fue ajustando la posición
de las cuerdas hasta que los sonidos ocurrieran a intervalos regulares de poco más de medio
segundo. Galileo estaba bastante versado en música y sabía que la regularidad de los golpes
puede juzgarse de forma muy precisa (la mayoría de las personas pueden detectar una desviación
de una sesentaicuatroava parte de un segundo). Las posiciones de las cuerdas que daban lugar a
los sonidos regulares daban cuenta de la distancia recorrida por la bola en cada unidad de tiempo.
Sus resultados demostraban que la distancia es proporcional al cuadrado del tiempo transcurrido,
y por tanto que el movimiento de caída por un plano inclinado ocurre a aceleración constante.
Posteriormente confirmó esta ley con experimentos adicionales en los que empleó planos
inclinados más largos e hizo las medidas del tiempo con la clepsidra.
Galileo también captó algunas implicaciones clave de su idea de que la aceleración de la bola a
lo largo del plano es proporcional al seno del ángulo de inclinación. Primero, dedujo
matemáticamente que la velocidad final de la bola al llegar al final del plano sólo depende de su
altura inicial, y no de la longitud del plano ni de lo inclinado que esté. Mostró que la altura del
plano es proporcional al cuadrado de la velocidad final de la bola. Segundo, la aceleración de la
bola debe tender a cero a medida que el ángulo de inclinación se acerca a cero, lo que significa
que el movimiento libre horizontal debe ocurrir a velocidad constante.
Galileo diseñó un experimento que hacía uso de la primera implicación para comprobar la
segunda. Montó su plano inclinado en una mesa de unos 90 cm de alto. Al final de la pendiente
ideó un deflector curvo para que la bola hiciera una transición suave hasta rodar brevemente por
la superficie horizontal de la mesa antes de salir volando y golpear el suelo a una cierta distancia
(ver Figura 2). Escogió una altura inicial del plano y después midió hasta dónde había llegado la
bola. Luego, armado con su conocimiento de la relación entre altura y velocidad y con su
hipótesis de velocidad horizontal constante, Galileo pudo calcular dónde iba a aterrizar la bola
para cualquier altura del plano inclinado. Hizo sus cálculos, llevó a cabo el experimento, y
encontró que sus predicciones concordaban con sus medidas.

Figura 2. Una bola que se mueve a velocidad constante y aceleración vertical constante
describe una semiparábola.
El plano inclinado le proporcionó a Galileo un puente entre el movimiento vertical y el
horizontal, y arrojó luz sobre la naturaleza de ambos. Lo utilizó para estudiar la aceleración de un
cuerpo que cae y para darle a un proyectil una velocidad horizontal conocida y fácilmente
variable. Los resultados de sus experimentos llevaron inexorablemente a la generalización
suprema de su cinemática: el movimiento vertical libre tiene lugar a aceleración constante,
mientras que el movimiento horizontal libre tiene lugar a velocidad constante.
El experimento descrito arriba llevó a otro descubrimiento crucial. Galileo no sólo había medido
la distancia de la mesa al punto de impacto de la bola; también había observado y dibujado
cuidadosamente la trayectoria de la bola en su movimiento por el aire. Él tenía un profundo
conocimiento de la geometría griega, y por eso la forma de la trayectoria le resultó familiar:
parecía una semiparábola. Esta observación dio pie a una cadena de pensamientos que le hizo
darse cuenta de por qué la trayectoria debe ser necesariamente una parábola.
Había demostrado que un cuerpo libre cae una distancia en vertical que es proporcional al
cuadrado del tiempo transcurrido. También había demostrado que la distancia horizontal
recorrida por un cuerpo libre es directamente proporcional al tiempo empleado. Además, su
experimento mostraba que el movimiento horizontal no se ve afectado cuando el cuerpo está
cayendo al mismo tiempo. Por tanto, los movimientos vertical y horizontal ocurren de forma
independiente, cada uno siguiendo rigurosamente su propia ley, al margen de lo que haga el otro.
Combinando esas dos leyes diferentes, Galileo derivó la conclusión de que la variación de altura
de un proyectil es proporcional al cuadrado de la variación en su posición horizontal, y él sabía
que esta relación describe la curva de una parábola. Sin un ápice del pánico y de la duda
arbitraria que podría tener un escéptico, concluyó que todo proyectil libre describe una
trayectoria parabólica.
Su teoría de los conceptos, como vimos en el Capítulo 1, le llevó a Ayn Rand a desafiar a los
escépticos: Quienes nieguen la validez de los conceptos deben primero demostrar la invalidez del
álgebra. Aquí estamos tratando con generalizaciones inductivas, pero cabe un desafío similar:
Quienes nieguen la validez de la inducción sosteniendo que es imposible encontrar “todos” en el
“algunos” deben demostrar primero la invalidez de la cinemática sosteniendo que es imposible
encontrar una conexión causal entre los referentes de los conceptos “proyectil” y “parábola”.
Tales argumentos de los escépticos son inútiles, pues Galileo encontró precisamente esa
conexión.
Galileo pensó en un modo sencillo de demostrar el principio descrito arriba. Cuando una bola se
deja rodar por el tablero de una mesa que es liso e inclinado, lo hace con velocidad constante a lo
largo de la mesa, y con aceleración constante cuando cae de la mesa, y por tanto describe una
trayectoria parabólica. Inmediatamente puso este principio en práctica resolviendo varios
problemas militares que habían sido planteados mucho tiempo atrás; por ejemplo, mostró cómo
el alcance de un cañón depende del ángulo en que se dispara, y mostró cómo se debe calcular el
ángulo de disparo correcto para un objetivo que esté a una determinada altura por encima del
suelo.
Fue la proeza de un genio captar que el movimiento de un proyectil podía analizarse en términos
de componentes horizontal y vertical independientes. Stillman Drake señala que los predecesores
de Galileo habían pensado de forma bastante diferente:
La teoría medieval del ímpetu, como la física aristotélica, suponía que cuando había en el
mismo cuerpo dos tendencias diferentes a moverse, sólo la más fuerte determinaría su
movimiento real. Cuando la tendencia más fuerte se imprimía de forma violenta, como
cuando una bola se lanza horizontalmente, se asumía que el conflicto entre ésta y la
tendencia natural a caer debilitaba el movimiento horizontal hasta que la tendencia
constante vertical se hacía más fuerte y llevaba a la bola hacia el suelo.7
Incluso hoy en día, ese punto de vista falso sigue siendo influyente. Consideremos un hombre no
instruido al que le dicen que una bala será disparada de forma horizontal desde la boca de una
pistola mientras que una segunda bala se deja caer al mismo tiempo desde la misma altura.
Cuando se le pregunta qué bala golpeará antes el suelo, el hombre escogerá invariablemente la
bala que se deja caer. Galileo fue el primero en captar que el movimiento horizontal de la bala
disparada es irrelevante y que por tanto ambas balas llegan al suelo al mismo tiempo (asumiendo,
por supuesto, que la superficie de la Tierra sea considerada un plano).
El análisis de Galileo le llevó a una nueva síntesis. Según el antiguo punto de vista medieval,
hacen falta dos causas para explicar el ascenso y el descenso de un proyectil. Una vez que el
proyectil está en el aire y moviéndose libremente, su ascenso está causado por el ímpetu
ascendente que se le ha impartido. Una vez que su ímpetu ascendente se disipa, una segunda
causa comienza a operar: la tendencia natural del cuerpo a caer hacia la Tierra. En oposición a
esto, Galileo identificó que la misma causa y el mismo efecto operan a lo largo de toda la
trayectoria: el proyectil está siempre acelerando hacia la Tierra al mismo ritmo, mientras que
simplemente conserva su velocidad horizontal.
Los experimentos permitieron a Galileo alcanzar y validar su descripción matemática del
movimiento y así conseguir una perspectiva más abstracta e integrada que las de sus
predecesores. Su abstracción de los efectos del rozamiento, su análisis del movimiento en
componentes horizontal y vertical, sus definiciones matemáticamente precisas de velocidad y
aceleración uniformes, su aplicación del conocimiento que tenían los griegos sobre las
parábolas... éstos fueron varios de los pasos clave conceptuales que lo elevaron hasta una altura
desde la que pudo ver los mismos principios en acción en muchos movimientos que diferían
entre sí tan sólo superficialmente. Desde su nueva perspectiva, al ver un péndulo oscilando, una
manzana cayendo, una bola rodando por una pendiente y una bala de cañón elevándose en el
aire, las vio como variaciones sobre el mismo tema: la aceleración constante de los cuerpos
pesados hacia la Tierra. Un historiador de la ciencia lo explica de este modo:
Galileo introdujo un sistema clasificatorio en el que cosas en apariencia muy distintas…
eran todas consideradas pertenecientes a una misma categoría, y por lo tanto analizables
de una forma coherente y comparable. Eran consideradas casos particulares de la misma
cosa, igual que la aguja de una brújula moviéndose, unas limaduras de hierro ordenadas,
y las corrientes inducidas en un conductor en movimiento—observacionalmente todas
ellas muy diferentes—se ven como indicadores de una única cosa: un campo magnético.8
Los diversos movimientos que Galileo estudió no sólo se relacionaron a posteriori, como
resultado de sus leyes; como hemos visto, se fueron conectando durante el proceso de
descubrimiento, y esas conexiones fueron esenciales para ir descubriendo las leyes. En cada
etapa del camino, Galileo hizo uso de todo el contexto de conocimiento del que disponía. El
péndulo jugó un papel fundamental en el estudio de la caída libre, y después tanto el péndulo
como las investigaciones sobre la caída libre llevaron al estudio del movimiento en un plano
inclinado, que eventualmente llevó a la comprensión del movimiento de un proyectil. La
cinemática de Galileo fue desarrollada y validada, no como un conglomerado de partes
separadas, sino como un todo unificado.
Integración es el proceso de unir una complejidad de elementos en un todo. La integración
cognitiva es la esencia misma del pensamiento humano, desde la formación de conceptos (la
integración de un número ilimitado de concretos en un todo designado mediante una palabra),
hasta la inducción (la integración de un número ilimitado de casos concretos—de identidad—en
una generalización), pasando por la deducción (la integración de premisas en una conclusión).
Las generalizaciones pueden expresar, o bien un atributo común a una cierta clase de entidades,
es decir, la naturaleza de una entidad (por ejemplo, los cuerpos están hechos de átomos), o bien
una forma necesaria de actuar, es decir, la forma de actuar necesitada por la naturaleza de la
entidad (por ejemplo, las leyes del movimiento).
Un elemento de conocimiento se adquiere y se valida por medio de captar su relación con el
resto del conocimiento que uno tiene. Un pensador siempre está buscando relacionar, captar
similitudes ocultas, descubrir conexiones, unificar. Una consciencia conceptual es un mecanismo
integrador, y su producto—el conocimiento—es un sistema interconectado, no un montón de
proposiciones aisladas.
Galileo integró su conocimiento no sólo dentro del campo de la física, sino también entre la
física y la relacionada ciencia de la astronomía. La astronomía copernicana afirmaba que la
Tierra da vueltas rápidamente alrededor de su propio eje y se mueve alrededor del Sol a gran
velocidad. Según los antiguos puntos de vista en lo relativo al movimiento, esa afirmación era
simplemente absurda. Si la Tierra se está moviendo, decían, ¿qué pasaría al lanzar una piedra
hacia arriba? La Tierra se movería bajo la piedra y, en contra de la experiencia, ésta llegaría al
suelo varios kilómetros más allá. Además, ¿qué causa ese supuesto movimiento de la Tierra? No
hay nada que la empuje, y los materiales en la Tierra no muestran ninguna tendencia natural a
dar vueltas en círculo. El único movimiento natural de los cuerpos pesados es caer directamente
hacia abajo. Si la Tierra no estuviera ya en su lugar natural, simplemente caería hacia él. Y como
la Tierra es muy pesada, caería muy deprisa; cualquier cuerpo más ligero que no fuera acelerado
hacia abajo—incluidos nosotros— ¡se quedaría atrás! La teoría del movimiento de Galileo anuló
estas objeciones, y sirvió así de fundamento para su defensa de la nueva astronomía. Esa
integración fundamental tuvo además el beneficio inverso: Galileo pudo señalar la abundante
evidencia observacional en favor de la teoría heliocéntrica (ver capítulo siguiente) como apoyo
adicional para su cinemática.
Pasemos ahora de estudiar los triunfos de Galileo a mencionar los problemas que encontró pero
no pudo resolver. Hoy en día, los errores de los grandes científicos se citan a menudo como
motivos para dudar de la validez del método científico. Si hasta los mejores practicantes de este
método cometen errores, dice el argumento, ¿cómo podemos fiarnos de cualquier resultado
científico? Para ver que esas dudas son infundadas, vale la pena examinar los errores de Galileo.
Veremos que no constituyen argumentos para el escepticismo; al contrario, muestran que un
proceso racional es auto-correctivo.
Empecemos por el análisis del movimiento del péndulo. Los científicos posteriores demostraron
que el periodo ligeramente superior de un péndulo que oscila en un arco mayor no está causado
por la resistencia del aire, como Galileo había supuesto. Incluso cuando se retira el aire, el
periodo del peso de un péndulo oscilando a lo largo de un arco circular es más de un 10% mayor
para oscilaciones muy amplias que para oscilaciones pequeñas. Galileo no tenía medios
experimentales ni matemáticos para identificar la causa en ese caso. Lo ideal habría sido
reconocer abiertamente la dependencia de las amplitudes pequeñas que había descubierto, en vez
de sólo sugerir que la resistencia del aire era una posible causa.
Pero el error fue de poco calado. Las condiciones para un péndulo auténticamente isócrono
fueron descubiertas una generación después de que Galileo hubiera publicado su teoría del
movimiento. En 1659, Christiaan Huygens demostró que el periodo de un péndulo es
independiente de la amplitud cuando el peso se mueve a lo largo del arco de una cicloide
invertida en lugar del de un círculo (una cicloide, mostrada en la Figura 3, es la curva descrita
por un punto en el borde de una rueda que se desplaza). Para resolver el problema al que Galileo
no supo responder, Huygens empleó dos nuevos desarrollos en matemáticas: las propiedades de
la cicloide, recientemente descubiertas, y la técnica de los “infinitesimales”. Partiendo de la ley
de Galileo del plano inclinado y después tratando el camino curvado del peso del péndulo como
una serie de planos inclinados infinitamente pequeños, Huygens demostró que el peso sólo tarda
siempre lo mismo en descender cuando la curva es una cicloide. Así, el mismo conocimiento que
Huygens heredó de Galileo—al combinarlo con las nuevas matemáticas—le permitió corregir el
error que éste había cometido.
La misma idea queda ilustrada por una omisión en el análisis que Galileo hizo del movimiento en
un plano inclinado. Su bola de bronce bajaba por el plano inclinado rodando—y no deslizándose
—a causa del rozamiento entre la bola y la superficie de madera. Él nunca sospechó que la
aceleración de la bola fuese aproximadamente un 28% inferior a la de una bola que se desliza. Su
teorema que relaciona la aceleración en un plano inclinado con la aceleración en caída libre sólo
es válido para un deslizamiento sin rozamiento, y sin embargo él dio a entender que era válido
para las bolas rodantes
Figura 3. El periodo es independiente de la amplitud cuando el peso del péndulo es
obligado a moverse por el arco de una cicloide invertida.

que utilizó en sus experimentos. Eso fue un error comprensible en un aspecto sutil. La mecánica
de las bolas que ruedan es compleja; Galileo carecía de los conceptos dinámicos y matemáticos
necesarios para captar el asunto en cuestión. Más adelante, en el siglo XVIII, fue la poderosa
combinación de la dinámica de Newton y la matemática de Euler la que retrató el
comportamiento de los cuerpos que rotan de forma totalmente inteligible. Una vez más, los
científicos se subieron a hombros de Galileo para alcanzar una altura desde donde poder ver y
corregir sus errores.
El error fundamental en la física de Galileo se encuentra en cómo trata el movimiento horizontal.
Su evidencia de que el movimiento libre horizontal tiene lugar con velocidad constante vino
principalmente de experimentos de laboratorio, y de forma secundaria de observaciones prácticas
con proyectiles de corto alcance. Por lo tanto las pruebas estaban limitadas a un contexto de
distancias cortas en las que la Tierra puede ser aproximada a un plano. Aun así, Galileo especuló
sobre cómo se aplicaría su principio a movimientos a lo largo de distancias muy grandes.
Argumentó que en tales casos “movimiento horizontal” sólo puede significar movimiento a
altitud constante, de lo cual dedujo que el movimiento libre horizontal se convierte a fin de
cuentas en un movimiento circular alrededor de la Tierra, que es esférica. Esa fue su concesión a
la idea griega del “movimiento circular natural”, y la defendió con un argumento a priori
heredado de Platón (un argumento que no se basa en nada más que la supuesta perfección de los
círculos).9
Galileo quedó vulnerable a cometer este error porque carecía del concepto de “gravedad”. Puesto
que nunca formó la idea de una interacción atractiva que disminuye con la distancia, no pudo
abstraer el concepto de gravedad a partir de la Tierra. Con esa abstracción él podría haber llegado
a la primera ley de Newton del movimiento, que dice: En ausencia de fuerzas, un cuerpo
permanece estático o se mueve a velocidad constante en línea recta. No obstante, la capacidad de
Newton para abstraer a partir de la gravedad dependió de haber captado que es una fuerza
variable que puede disminuir hasta ser insignificante a distancias suficientemente grandes; una
abstracción como esa no tiene sentido en la perspectiva de Galileo de que los cuerpos libres y
pesados simplemente caen a un ritmo constante de aceleración, siendo eso un efecto
omnipresente. Así que, en ausencia de un concepto previo necesario y crucial, la mente de
Galileo sólo pudo quedarse estática o ir en una dirección equivocada en este asunto; no pudo
llegar al principio que posteriormente se convertiría en la primera ley de Newton.
Vimos antes a Leonardo da Vinci cometer un error parecido en su análisis del movimiento del
péndulo. Dejando a un lado el aire por ser un fondo omnipresente, no identificó ni abstrajo los
efectos que tiene la resistencia del aire sobre el movimiento del péndulo. A consecuencia de eso,
no pudo explicar el frenado del péndulo, y rellenó ese vacío como él lo entendió, apelando a un
dogma arbitrario. De igual forma, Galileo no identificó ni abstrajo los efectos de la gravedad, y
rellenó el vacío como él lo entendió, apelando a un argumento platónico infundado.
Galileo se equivocó en otras cuestiones que no pueden entenderse sin la idea de la gravedad. Un
ejemplo obvio fue su intento de explicar las mareas de los océanos sin hacer referencia a la
fuerza gravitacional de la Luna y el Sol. Otros ejemplos menos obvios son su rechazo a aceptar
la ley de Kepler que establece que los planetas se mueven en órbitas elípticas, y su sugerencia de
que los cometas son fenómenos atmosféricos en vez de cuerpos celestes. Estos dos últimos
errores fueron causados por la concesión que Galileo hizo al “movimiento circular natural”, que
como hemos señalado, fue consecuencia de su incapacidad para abstraer a partir de los efectos de
la gravedad. En un tema tras otro, Galileo se vio obstaculizado por la misma barrera. Ahora
queda claro por qué el concepto de gravedad de Newton fue tan fundamental para el desarrollo
de la física moderna.
Por supuesto, fue Galileo quien allanó el camino para sus sucesores, no sólo al presentarles el
conocimiento que él había descubierto sino también dándoles un entendimiento del método
apropiado de hacer descubrimientos. Esto último fue la parte más valiosa de su legado. Aquí se
puede usar el viejo refrán: “Dale a un hombre un pez y se alimentará un día; enséñale a pescar y
se alimentará toda la vida”.
Lamentablemente, los trabajos publicados de Galileo no nos dan un retrato muy preciso de su
proceso de descubrimiento. A menudo ocurre que un científico presenta su teoría de una forma
que oscurece los pasos por los que llegó a ella. Ocasionalmente, Galileo dio una impresión
engañosa de su método, al presentar argumentos deductivos a partir de “primeros principios
plausibles” o a partir de experimentos imaginarios, mientras ponía menos énfasis en argumentos
inductivos a partir de experimentos reales. En lo relativo a su método, su práctica fue mejor que
su presentación. Así, no aprovechó al máximo la oportunidad de enseñarles a sus sucesores cómo
adquirir conocimiento científico.
Como resultado, el papel de la experimentación no fue debidamente captado por la generación de
científicos que sucedió a Galileo. Y eso dejó la puerta abierta para René Descartes, quien lideró
un resurgimiento platónico. Descartes rechazó explícitamente el método de inducir causas y
observar sus efectos, y criticó a Galileo por proceder de ese modo. “Me parece muy incorrecto el
que él no haya examinado las cosas en orden”, escribió Descartes, “y que sin haber considerado
las causas primeras de la naturaleza, solamente haya buscado las razones para algunos efectos
particulares, y por tanto haya construido sin cimientos”.10 En contraste, Descartes explicó que su
objetivo era “deducir una lista de efectos a partir de sus causas”.11 ¿Cómo conocemos las causas
fundamentales? Basándose en Platón, Descartes afirmó que tenía acceso directo a ellas por
medio de ideas innatas “claras y distintas”.
Así que ni siquiera el logro espectacular de Galileo fue suficiente para institucionalizar el método
experimental y desacreditar al platonismo entre los científicos. Esa tarea se le dejó al hombre que
completó la revolución científica: Isaac Newton.
La óptica de Newton

Cuando Newton empezó su lucha por establecer un método inductivo correcto en física, estaba
trabajando en el campo de la óptica, no en cinemática o en astronomía. En sus primeros años,
mucho antes de que los Principia le dieran la fama, llevó a cabo un estudio de la luz y los
colores, un estudio que ha sido descrito como “la más excelsa investigación experimental del
siglo XVII”.12
Vivimos en un mundo lleno de colores. Por lo general, los colores que vemos son producidos por
una reflexión de la luz normal (blanca) sobre los cuerpos, y el color específico reflejado depende
de la naturaleza del cuerpo. Ya hacia la segunda mitad del siglo XVII se sabía también que los
colores pueden ser producidos por refracción. Siendo estudiante en el Trinity College, Newton
estudió: la ley del seno para la refracción (descubierta por Snell en 1621); los colores que
resultan de que la luz blanca atraviese cuñas de vidrio (prismas); la idea de que un arco iris es
causado de algún modo por la luz que se refracta en las gotas de lluvia; y el hecho de que los
telescopios refractores producían imágenes borrosas con bordes coloreados.
El temprano interés de Newton por esta materia queda patente en su detallado estudio del libro
de Robert Boyle Experimentos y consideraciones sobre los colores (1664). Dos expertos dan la
siguiente descripción de las notas que Newton tomó sobre este libro:
Las notas comprenden datos acerca de la forma en que los colores de los objetos
cambian bajo una gran variedad de circunstancias. Dan cuenta de los efectos del calor, de
las características de varios sublimados, ácidos y precipitados, de la forma en que los
objetos cambian bajo diversas luces y posiciones, los efectos de los tintes, las
disoluciones y las sales, y los cambios en los colores que son provocados por varias
combinaciones de esos “instrumentos”. Aunque el objetivo de Newton era ampliar su
base de información, las entradas son más que una colección desordenada. Cada pieza de
información se relaciona de alguna forma o bien con la aparente diferencia en el color de
un cuerpo cuando uno lo mira y cuando mira a través de él, o bien con las formas que
hay de cambiar el color de un cuerpo.13
En estos años de estudiante, Newton llevaba con él un diario con el título “Algunas preguntas
filosóficas”, en el que anotaba sus preguntas y sus ideas iniciales sobre diversos temas de física,
incluido el tema de la luz y los colores. Por ejemplo, se preguntó por qué los materiales tienen
diferentes transparencias, por qué la refracción es ligeramente menor en agua caliente que en
agua fría, o por qué el carbón es negro y la ceniza es blanca. Se preguntó si la luz viaja a
velocidad finita, si los rayos de luz podrían mover un cuerpo “como el viento mueve la vela de
un barco”, y si la refracción en superficies de vidrio es la misma cuando se elimina el aire a su
alrededor. Estas preguntas muestran una mente extraordinariamente activa que había absorbido
el conocimiento disponible en la materia.
En sus notas sobre los colores, Newton hizo referencia a algunas de las explicaciones propuestas
que había encontrado en la literatura. Escribió: “Los colores surgen tanto a partir de sombras
entremezcladas con luz, o por reflexiones más fuertes o más débiles. O de partes del objeto
mezcladas con la luz y transportadas por ella.”14
Pronto abandonó la primera posibilidad, resaltando que hay muchos casos en los que el blanco y
el negro se mezclan sin producir ningún color, y señalando que los bordes de las sombras no son
de colores. En esta temprana etapa, no tenía su propia teoría, y se dio cuenta de que nadie tenía
una (a pesar de que algunos afirmaban presuntuosamente lo contrario).
No pasó mucho tiempo para que Newton se comprase un prisma y empezase su propia
investigación. Empezó mirando varios objetos a través del prisma. Sus primeras observaciones
importantes fueron de los colores que aparecen en la frontera entre objetos claros y objetos
oscuros. Por ejemplo, si se coloca una delgada tira de papel blanco contra un fondo oscuro y se
mira a través de un prisma, uno de los bordes del papel se verá azul y el otro rojo.
A partir de la observación del arco iris y de la luz refractándose a través de prismas, se sabía en
todas partes que el azul y el rojo están en lados opuestos del espectro de colores. Algunos
científicos propusieron que cuando un haz de luz blanca entra en el agua o en el vidrio con un
ángulo oblicuo, uno de los bordes del haz queda afectado de forma diferente al otro, haciendo
que la luz de un lado se vuelva azul mientras que la luz del otro se vuelve roja. A Newton, sin
embargo, se le ocurrió otra cosa: pensó que tal vez el arco iris y los “colores en la frontera”
aparecerían si la luz azul se refractara un poco más que la luz roja. En otras palabras, se le
ocurrió preguntarse: ¿Se ven la luz azul y la luz roja en lados opuestos, no porque se originen en
lugares distintos del haz, sino porque el agua o el vidrio las desvían en ángulos diferentes?
Esa pregunta sólo podía ser respondida experimentando. Newton cogió un hilo y pintó la mitad
de su longitud azul y la otra mitad roja. Cuando extendió el hilo en línea recta contra un fondo
oscuro y lo miró a través de un prisma, las mitades roja y azul parecían discontinuas, una encima
de la otra. El prisma desplazaba la imagen de la mitad azul del hilo más de lo que desplazaba la
mitad roja. Partiendo de este único experimento, Newton llegó a una verdad universal: en la
refracción, la luz azul se desvía más que la luz roja.
Puesto que luces de varios colores surgen del prisma en ángulos ligeramente distintos, el
espectro de colores se irá esparciendo a medida que la luz se vaya alejando del prisma. Esta idea
condujo a Newton a otro experimento. Habiendo oscurecido las ventanas de la habitación donde
trabajaba, dejó que la luz del sol entrara por un pequeño orificio. Colocó un prisma cerca de la
apertura de forma que la luz lo atravesase y se proyectase sobre la pared del fondo, a unos siete
metros de distancia. Observó que el estrecho haz circular de luz blanca era desviado por el
prisma y se convertía en un espectro de colores completo y alargado en este orden: rojo, naranja,
amarillo, verde, azul y violeta. El espectro se extendía en la misma dirección en la que el vidrio
desviaba la luz, y era cinco veces más largo que ancho.15
Después de haber observado este significativo cambio en un haz de luz blanca incidente, era
natural preguntarse qué efecto tendría un prisma sobre un haz incidente de luz coloreada. Para
hallar la respuesta, Newton llevó a cabo una serie de experimentos en los que generaba un
espectro con un prisma y después hacía pasar cada color de forma individual por un segundo
prisma. A diferencia de lo que ocurría con la luz blanca, observó que sólo variaba la dirección de
la luz coloreada. Sus medidas confirmaron que la luz azul se desviaba más que la luz roja, como
era de esperar. Más importante, sin embargo, era el nuevo hecho fundamental de que el color se
ve inalterado y los haces no se esparcen al pasar por el segundo prisma.
Al parecer los colores individuales varían su dirección pero no se ven afectados de ninguna otra
forma por los prismas. Pero si los prismas no afectan a los colores, ¿cómo pueden entonces crear
los colores a partir de un haz de luz blanca? Tal vez, pensó Newton, el prisma no crea los
colores; tal vez ya están en la luz blanca y simplemente son separados al tener un ángulo de
refracción diferente. En otras palabras, se le ocurrió una idea radical: tal vez vemos como luz
blanca lo que en realidad es una mezcla de todos los colores.
Él sabía que en algunos casos una mezcla de dos colores se ve como un color diferente. En sus
notas tempranas había documentado su observación de que la llama amarilla de una vela parece
verde si se mira a través de un vidrio azul. También sabía que la luz blanca vista a través de una
combinación de vidrios rojo y azul se ve morada. Estas evidencias ya le habían convencido de
que una mezcla de colores puede parecer muy distinta de cualquiera de sus componentes. Sin
embargo, era un paso atrevido sugerir que la blancura—que durante mucho tiempo había sido el
símbolo por excelencia de la “pureza”—fuese en realidad una mezcla de todos los colores del
espectro. Era atrevido, pero era algo que estaba fundamentado en evidencias observacionales.
Newton nunca quedaba satisfecho con sugerir una posibilidad; él no se conformaba sin tener una
prueba experimental. Si la luz blanca está compuesta por todos los demás colores, entonces
debería ser posible volver a juntar los colores separados y formar la luz blanca de nuevo. Se dio
cuenta de que eso podría hacerse empleando una combinación de prismas o una lente de
focalización, y mostró que cuando se hace converger todo el espectro de colores, se ve blanco. Y
es más, cuando se deja al espectro seguir más allá del foco de la lente y separarse de nuevo al
otro lado, los colores aparecen otra vez, y en orden inverso. La conclusión ahora era inevitable:
los colores individuales son los componentes simples y “puros”, mientras que la luz blanca es
una mezcla de ellos.
A continuación, Newton aplicó su nueva perspectiva para entender por qué los objetos a nuestro
alrededor muestran sus colores característicos. La implicación básica de su teoría estaba clara:
cuando un objeto se ilumina con luz blanca y aun así aparece un color específico, el motivo debe
ser que el objeto refleja ese color fuertemente mientras que absorbe o transmite la mayoría de la
luz del resto del espectro. Basándose en sus descubrimientos anteriores, Newton no esperaba que
los colores se crearan o cambiasen en la reflexión; deberían simplemente quedar separados en la
medida que un color es reflejado más que otros.
Para poner esto a prueba experimentalmente, tomó un trozo de papel y pintó la mitad izquierda
de azul y la mitad derecha de rojo. En una habitación a oscuras, iluminó el papel sólo con la luz
azul que venía de un prisma. Tal y como esperaba, el papel entero se veía azul, pero el color era
más intenso en la mitad izquierda y más débil en la derecha. Cuando iluminó el papel con la luz
roja del prisma, vio otra vez el resultado esperado: todo el papel era rojo, pero esta vez la mitad
izquierda se veía débil y la mitad derecha, intensa. Los colores no cambian con la reflexión; la
pintura azul refleja la luz azul fuertemente y la luz roja débilmente, mientras que la pintura roja
refleja la luz roja intensamente y la luz azul débilmente. Estas observaciones constituyeron una
confirmación simple pero poderosa de su teoría.
Newton propuso otras demostraciones convincentes de que los colores que componen la luz
blanca se separan cuando tienen lugar cantidades desiguales de reflexión y transmisión sobre
superficies. Por ejemplo, dejó su habitación a oscuras y luego dejó pasar un fino rayo de luz
blanca para que iluminase una lámina de oro muy delgada. Encontró que la luz reflejada por un
lado era del color amarillo-marrón típico del oro, mientras que la luz transmitida por el otro lado
era de un azul verdoso.
La teoría de los colores de Newton integraba y explicaba un enorme abanico de observaciones.
Por ejemplo, pudo explicar todas las propiedades esenciales del arco iris, como la mayor
luminosidad del cielo debajo de éste, la posición angular y anchura de los arcos iris primario y
secundario, y el orden de los colores invertido entre ellos dos. La teoría también le permitió
entender por qué los simples telescopios refractores producen imágenes borrosas y con bordes
coloreados. Al refractarse los colores de la luz blanca en ángulos ligeramente diferentes, no
convergen formando una imagen nítida. Él resolvió el problema inventando un nuevo tipo de
telescopio que enfocaba la luz mediante reflexión en espejos en vez de mediante refracción en
lentes. De ese modo llevó de inmediato su teoría al terreno de lo práctico, y el mayor rendimiento
de su telescopio reflector supuso una confirmación más de su teoría.
Sus predecesores habían asumido que los colores eran el resultado de algún tipo de modificación
de la luz blanca “pura”. Luego, sin evidencia alguna que lo apoyase, especularon sobre la
naturaleza específica de esa modificación. Descartes había afirmado que la luz era un
movimiento de ciertas partículas diminutas, y que la rotación de las partículas era la causa de los
colores: las partículas de luz que rotan más deprisa supuestamente se ven rojas, mientras que las
que rotan más despacio se ven azules. El eminente científico inglés Robert Hooke propuso una
teoría distinta. Supuso que la luz blanca era un pulso de onda simétrico, y dijo que los colores
son el resultado de una distorsión en el pulso. Según su teoría, la luz es roja cuando la parte
delantera del pulso de la onda es mayor en amplitud que la parte trasera, y que es azul cuando
ocurre lo contrario. Asumió que todos los demás colores eran una mezcla de rojo y azul.
Newton veía estas “teorías” por lo que realmente eran: ficciones basadas solamente en la fértil
imaginación de sus creadores. Rechazó ese método especulativo y refutó sus premisas básicas.
Demostró que los colores no son el resultado de ninguna modificación de la luz blanca, sino que
son sus componentes básicos.
El aspecto más radical de la teoría de Newton no consistía en lo que dijo, sino en lo que se
abstuvo de decir. Él presentó sus resultados y conclusiones sin ninguna idea a-priori en lo que
refiere a la naturaleza fundamental de la luz y los colores. Razonó hasta donde las evidencias
disponibles pudieron llevarlo, y ni un paso más. Muchos científicos reaccionaron a la
publicación original de Newton con sorpresa y confusión, al estar acostumbrados al método
cartesiano de deducir conclusiones a partir de “primeras causas” imaginadas. Y aquí tenían una
publicación sobre los colores en la que el autor simplemente ignoraba la controversia sobre si los
colores eran partículas en rotación, pulsos de onda distorsionados, o algo diferente. ‘¿Faltará
alguna página?’, se preguntaban.
Pero en vez de omitir alguna cosa, lo que Newton había hecho era incluir lo que había sido
omitido en el método de Descartes: la objetividad. Newton indujo sus conclusiones a partir de los
resultados observados en sus experimentos; no las dedujo a partir de “intuiciones”. Él llevó
mucho cuidado al identificar el estatus epistemológico de sus ideas, y al distinguir con claridad
las que consideraba demostradas de las que estaban basadas en evidencia no concluyente.
Conocía de sobra el enorme esfuerzo que requiere el descubrir verdades básicas sobre la
naturaleza, y no tenía paciencia para quienes intentaban buscar atajos en ese proceso mediante
especulaciones vacías.
Newton dijo una vez que él “no formulaba hipótesis”, una afirmación que se volvió a la vez
famosa y ampliamente malentendida. Explicando su terminología, escribió: “La palabra
‘hipótesis’ la empleo aquí para referirme exclusivamente a una proposición que no es ni un
fenómeno ni se deduce de algún fenómeno, sino que se asume o se supone sin prueba
experimental alguna.”16 Por desgracia, esto no dejó del todo claro lo que quería decir. Él no
pretendía rechazar de pleno todas las hipótesis que careciesen de una prueba experimental
completa; realmente, utilizó el término ‘hipótesis’ para referirse a una afirmación arbitraria, es
decir, a una afirmación que no se apoya en ninguna evidencia observacional.
Newton comprendió que aceptar una idea arbitraria—incluso como una mera posibilidad que
merece consideración—socava todo el conocimiento que uno posee. Es imposible establecer
cualquier verdad si uno considera válido el proceso de sacarse de la manga “posibilidades”
contrarias. Tal como le explicó en una carta a un colega:
Si cualquiera puede ofrecer conjeturas sobre la verdad de las cosas a partir de la mera
posibilidad de unas hipótesis, no veo la forma en que pueda determinarse nada con
certeza en ninguna ciencia; puesto que siempre podrá concebirse otro conjunto de
hipótesis que parezca plantear nuevas dificultades. Por tanto juzgué que uno debe
abstenerse de contemplar hipótesis, como uno se abstiene de hacer argumentaciones
impropias….17 (Énfasis añadido.)
Aquí, a la vez que defendía su teoría de los colores, introdujo un nuevo principio fundamental de
la lógica inductiva. Es la respuesta apropiada a la mayoría de las afirmaciones que hicieron
Descartes y los suyos, la única respuesta que merecen: la de desestimarlas rotundamente.
Newton observó que intentar refutar una afirmación arbitraria es un error fundamental. Para
comprender la naturaleza del mundo, el pensamiento de uno debe comenzar con la información
que ha recibido del mundo, es decir, con datos sensoriales. Pero una idea arbitraria está
desconectada de esos datos; considerarla es abandonar el ámbito de la realidad y entrar en el
mundo de la fantasía. Ningún conocimiento puede obtenerse a partir de esas digresiones. Uno no
puede ni siquiera alcanzar el objetivo erróneo de demostrar que una idea arbitraria es falsa,
porque estas afirmaciones siempre pueden escudarse tras otras afirmaciones arbitrarias. Al entrar
en el mundo de la fantasía, uno se ve atrapado en una red cada vez mayor de conjeturas sin
fundamento, y sólo hay un modo de escapar: desestimar todas esas afirmaciones por ser no
cognitivas y no merecer atención.
Los sentidos nos proporcionan el único contacto directo con la realidad. Sin ese contacto, puede
haber acción cerebral pero no hay pensamiento. Las elucubraciones mentales de la física
cartesiana son como las ruedas girando de un coche suspendido en el aire: las ruedas se mueven,
pero no hay posibilidad alguna de que lleven a algún sitio. En cuanto a los científicos que están
de acuerdo con Platón y Descartes, que rechazan la carretera porque es sucia y ruidosa y porque
deshonra a sus elevados neumáticos, ellos son quienes han perdido toda posibilidad de llegar
alguna vez a alguna parte.
La teoría de los colores de Newton fue recibida con hostilidad por esos científicos. Al principio
Newton repitió pacientemente cómo llevar a cabo los experimentos y qué conclusiones podían
inferirse con certeza a partir de los resultados. Al final estableció una ley epistemológica en su
intento de adelantarse a cualquier discusión que no estuviera basada en hechos observados.
Declaró que cualquier crítica válida a su teoría debía caer bajo una de dos categorías: o
argumentar que sus observaciones eran insuficientes para apoyar sus conclusiones, o citar
observaciones adicionales que contradecían sus conclusiones. Lo expresó así:
La teoría que yo presento quedó demostrada, no porque yo infiriera que es así porque no
es de otra manera—es decir, no deduciéndola sólo a partir de una refutación de
suposiciones contrarias— sino porque la derivé de experimentos conclusivos positiva y
directamente….Y por tanto me gustaría que se eliminasen de las objeciones todas las
hipótesis o cualesquiera fundamentos que no sean estos dos: o mostrar la insuficiencia de
los experimentos para dar respuesta a estas preguntas o para demostrar cualquier otra
parte de mi teoría,…; o producir experimentos diferentes que me contradigan
directamente, si hay alguno que lo hiciera.18
Galileo había luchado contra la Iglesia para poder expulsar a la fe religiosa del ámbito de la
ciencia; Newton luchó contra sus colegas científicos en un intento por expulsar a lo arbitrario
como tal, incluyendo las afirmaciones seculares.19 Apelar a la fe es exigir que las ideas se
acepten basándose en la emoción en vez de en la evidencia, y por lo tanto es un tipo de
arbitrariedad. Poco importa que la idea esté en la Biblia, por ejemplo, si a uno le piden que
acepte que Josué alargó el día ordenándole al Sol que se quedase inmóvil, o si a uno le piden que
acepte que las partículas de luz adquieren su color cuando rotan. No hay evidencia para ninguna
de esas cosas, y considerar cualquiera de ellas supone rechazar el único medio de conocimiento
del que dispone la mente: el de razonar a partir de hechos observados.
Aunque Galileo fue pionero en el método experimental, Newton fue quien estableció el papel
fundamental de ese método en la física moderna. Como señalan dos historiadores de la ciencia,
“Con Newton, la experimentación se convirtió tanto en un principio como en un método, y él
llegó a ver el fundamento experimental de su filosofía como el rasgo característico que la
separaba de las demás filosofías naturales y la hacía superior a ellas.”20 Su trabajo experimental
en óptica sirve como modelo de cómo debe desarrollarse la ciencia física.

Los métodos de la diferencia y la concordancia

Como vimos en el Capítulo 1, las primeras generalizaciones que hacemos en la vida las basamos
en conexiones causales que percibimos directamente. Por ejemplo, el primer paso hacia el
concepto que tiene el físico moderno de la gravitación es la generalización: “Las cosas pesadas
caen.” Un niño capta la idea de “peso” sujetando objetos y sintiendo la presión hacia abajo que
ejercen contra su mano. Se da cuenta de que algunas cosas presionan más que otras; omite
implícitamente las medidas, y llama al atributo “peso”. El concepto de “caída” también está
basado directamente en datos perceptuales: hace referencia al movimiento de las cosas hacia
abajo que ocurre espontáneamente, sin necesidad de empujar. Cuando un niño siente el peso de
una cosa y después la deja escapar y la ve caer, inmediatamente capta esta idea: “Su peso [lo que
hacía que presionase la mano] es lo que hizo que cayera.”
No hace falta aplicar deliberadamente ningún método para captar esas generalizaciones de
primer nivel. El proceso de omisión de medidas es subconsciente y automático, y la conexión
causal viene dada de forma perceptual. La necesidad de un método surge cuando intentamos
establecer relaciones que envuelven conceptos de nivel superior.
Recordemos el estudio de Galileo del movimiento del péndulo. En contraste con la conexión
entre el peso de la bola de un péndulo y su descenso, no percibimos directamente la conexión
causal entre la longitud de un péndulo y su periodo. “Longitud” es un concepto de primer nivel,
pero “periodo” no lo es. La aplicación del concepto de “periodo” en este contexto asume que se
sabe que un péndulo entra en un movimiento repetitivo que puede relacionarse cuantitativamente
con otros movimientos por medio de una unidad de tiempo. Aquí, necesitamos integraciones
conceptuales previas, y un método explícito.
En este caso, Galileo descubrió la relación causal cuando construyó y comparó dos péndulos que
diferían sólo en un factor relevante—la longitud de sus brazos—y luego midió la diferencia
resultante en los periodos. Al aislar y variar la longitud, creó una situación en la que una
diferencia en longitud podía ser identificada como la única causa posible de una diferencia en el
periodo. Ese es el mismo método que había usado antes para eliminar otros factores causales
posibles. Por ejemplo, observó que dos péndulos tienen el mismo periodo cuando sólo difieren
en el peso de sus bolas o en la amplitud de sus oscilaciones. En estos experimentos sólo se
introdujo una diferencia, que dio resultados negativos: la diferencia no cambió el periodo, y por
tanto el factor variado es causalmente irrelevante.
Siguiendo la terminología de John Stuart Mill, este método de identificar factores causales se
llama el “método de la diferencia”. El investigador introduce un nuevo factor (A) y como
resultado aprecia un efecto (B) que no existía antes de introducir el nuevo factor. El método se
apoya en el hecho de que el factor aislado es la única diferencia relevante. Todos los demás
factores son descartados como posible causa por estar presentes incluso cuando el efecto no
aparece. Al usar este método, un científico identifica la diferencia de entre todas las similitudes:
la diferencia A, que resulta ser la causa de la diferencia B. Asumiendo que no haya ignorado
algún factor o alguna condición relevante, se puede concluir que A causó B. Y luego,
identificando conceptualmente la conexión causal, se llega a la generalización: algunos casos de
A llevan a algunos casos de B. (No estoy haciendo aquí ninguna distinción básica entre el
método de la diferencia y lo que Mill llamó el “método de las variaciones”, es decir, entre un
caso en que el factor causal puede eliminarse por completo y un caso en el que solamente se
varía su magnitud. En ambos casos, vemos una diferencia en el factor causal que muestra ser el
causante de una diferencia en el efecto.)
La mayoría de los experimentos emplean el método de la diferencia (con resultados positivos o
negativos). Todos los experimentos de caída libre de Galileo empleaban este método: él aisló y
varió el peso y luego el material para demostrar que esas propiedades no afectaban al ritmo de
caída, y después aisló y varió la altura para establecer su relación con el tiempo total de caída.
Siguió el mismo esquema en su investigación del movimiento libre horizontal: introdujo
diferencias en una sola variable—la velocidad inicial horizontal—y después midió las diferencias
correspondientes en la distancia recorrida a lo largo de un intervalo de tiempo fijo.
Newton también usó este método a lo largo de su investigación experimental de los colores.
Empezó por introducir una diferencia en el color de un hilo y después observó a través de un
prisma la diferencia resultante en la posición de la imagen del hilo. Sus experimentos posteriores
revelaron directamente la relación causal entre un cambio de color aislado y el consecuente
cambio en el ángulo de refracción. De forma parecida, en su investigación experimental de la
reflexión, Newton mantuvo constante el color de la luz incidente a la vez que cambiaba el color
del cuerpo reflectante, y como resultado observó un cambio en la intensidad de la luz reflejada.
La formulación explícita del método de la diferencia es desconocida para la mayoría de la gente,
de igual forma que desconocen explícitamente las leyes de la lógica o la ley de causalidad. Pero
igual que la gente conoce la causalidad implícitamente, y (la mayoría del tiempo) piensan y
actúan de acuerdo con ella, también conocen implícitamente el método de la diferencia, puesto
que es un corolario de causa y efecto. Cuando un niño observa que algo cambia en un único
aspecto (mientras que las condiciones a su alrededor permanecen inalteradas) y luego ve un
cambio en la acción del objeto, concluye que el primer cambio causó el segundo. Así es como un
niño descubre que el interruptor de una lámpara causa que la luz se encienda y se apague (en este
caso, el niño repetirá la acción varias veces, eliminando así la posibilidad de una mera
coincidencia). Todos realizamos ese tipo de “experimentos” simples, y empleamos ese
razonamiento a lo largo de nuestras vidas. En una etapa avanzada de conocimiento, crear el
experimento crucial que revele una conexión causal puede requerir un gran esfuerzo por parte de
un ingenioso científico. En cualquier caso, sea un niño o un científico quien emplee el método de
la diferencia, la situación que interesa es siempre una en la que se observa una diferencia aislada
frente a un conjunto de similitudes y se ve luego el efecto que tiene.
El otro método fundamental usado para identificar relaciones causales es el “método de la
concordancia”. Aquí lo que buscamos es descubrir el factor semejante en dos o más casos que
muestre ser el causante (frente a un conjunto de diferencias) de la similitud en el efecto.
Cuando empleamos el método de la concordancia, observamos que dos o más casos de un cierto
efecto (B) concuerdan en un único factor previo relevante (A). El factor A puede ser identificado
entonces como la causa de B; el resto de factores son descartados porque el efecto persiste
aunque éstos no estén presentes (o cuando el efecto se mantiene constante cuando los factores
han variado). Y entonces, asumiendo que hayamos formado bien los conceptos relevantes,
podemos llegar a una verdad universal: algunos casos de A llevan a algunos casos de B.
Por ejemplo, recordemos que Galileo comparó dos péndulos que eran distintos en todos los
factores potencialmente relevantes excepto en longitud, y aun así el periodo seguía siendo el
mismo. Por el método de la concordancia, concluyó que la longitud es el factor causal que
determina el periodo. O consideremos una investigación experimental que trate de descubrir la
causa de la velocidad final de una bola que rueda por un plano inclinado. Hagamos variar el
peso, el tamaño y el material de la bola, así como la longitud y el ángulo del plano, mientras
mantenemos constante un único factor: la altura inicial de la bola. La velocidad final de la bola
siempre resulta ser la misma, y por tanto la altura desde la que la bola desciende es el factor
causal que determina su velocidad.
El estudio que hizo Galileo de la caída libre ilustra también el método de la concordancia.
Considerados por separado, cada uno de sus experimentos empleaba el método de la diferencia;
sin embargo, cuando la serie de experimentos se considera toda junta vemos que varió muchos
factores (por ejemplo: peso, tamaño, densidad y velocidad horizontal del cuerpo) al tiempo que
mantenía constante un único factor: al cuerpo pesado siempre se le dejaba caer sin obstáculos
hacia la Tierra. El resultado observado era siempre el mismo, llevando así a la generalización de
que todo cuerpo libre cae hacia la Tierra con igual aceleración constante.
El mismo proceso lo empleó Newton para apoyar la amplia generalización que integraba sus
observaciones en óptica. Muchos factores eran distintos en sus varias observaciones sobre la luz
blanca interactuando con prismas, lentes, gotas de lluvia y superficies reflectantes. De un caso a
otro cambiaban la desviación angular total del rayo de luz, su intensidad y la distancia recorrida;
más aún, a veces la luz se refractaba al pasar a través de vidrio o agua, mientras que otras veces
se reflejaba y viajaba solamente por el aire. De una forma u otra, hay una similitud que une a
todas estas instancias tan diferentes; un factor inicial permaneció constante: la luz era blanca; y
un aspecto del resultado permaneció constante: la luz blanca se descomponía en colores. Por el
método de la concordancia, esta amplia variedad de datos llevó a la conclusión de que la luz
blanca es una mezcla de colores elementales que pueden separarse por medio de refracción o
reflexión.
A menudo, los métodos de la diferencia y la concordancia trabajan juntos. Por lo general, uno
observa que una diferencia causa otra diferencia, lo cual aísla cierto factor X como factor causal;
y después observa que el factor X es el único presente en dos o más de los casos observados del
efecto. Por supuesto, esto puede ocurrir en el orden inverso, cuando uno identifica primero una
similitud causal frente a un conjunto de diferencias y después observa que al retirar la causa se
elimina el efecto. En ambos casos, los dos métodos se emplean para complementarse y
confirmarse el uno al otro. Sin embargo, esta conjunción de métodos no siempre es necesaria.
Cualquiera de ellos por sí solo, si se emplea correctamente, es concluyente.
En el trabajo experimental de Galileo y Newton, un rasgo sorprendente es la rapidez con la que
llegaron a las generalizaciones. Galileo no realizó un estudio laborioso de cien péndulos o de
cien proyectiles diferentes para llegar a sus conclusiones; Newton no pensó que fuese necesario
experimentar con decenas de prismas, lentes o fuentes de luz distintos. Es obvio que la validez de
la inducción no tiene nada que ver con el número de instancias que uno observa. Podemos
apreciar ahora de qué depende la inducción: de captar similitudes y diferencias en un contexto
causal. Cuando se emplea el método de la concordancia, esto puede ser posible en base a sólo
dos casos; cuando se emplea el método de la diferencia, puede que sólo una instancia del efecto
sea necesaria. Siempre lo que cuenta es captar una similitud o una diferencia que sea la única que
provoca un determinado efecto. Aquí, el proceso de generalización es paralelo al proceso de
formación de conceptos; no hace falta que uno vea cien mesas para formar el concepto de
“mesa”; uno puede captar el patrón necesario de similitudes y diferencias con ver sólo dos
mesas, en contraste con una silla.
En la formación de conceptos, captar diferencias y semejanzas entre dos cosas es el punto de
partida y la base de cualquier concepto; eso es algo esencial en todos los niveles de la jerarquía.
En el Capítulo 1 vimos que una generalización es una forma de conceptualización: es la omisión
de medidas aplicada a conexiones entre los referentes de dos o más conceptos. Por tanto, el
proceso de generalizar también depende de captar diferencias y semejanzas; por encima del
primer nivel, utiliza los métodos de la diferencia y la concordancia. Precisamente el tipo de
relación que hace posible la formación de conceptos es lo que hace posible captar relaciones
causales y, por tanto, las generalizaciones.
La validez de los métodos de diferencia y concordancia debería ser considerada indiscutible. La
aplicación correcta de estos métodos puede ser difícil en un caso complejo, pero los métodos en
sí se siguen de forma auto-evidente a partir de la ley de causalidad. Aun así, su validez ha sido
muy atacada y rechazada por parte de los filósofos de la ciencia contemporáneos. Las críticas
más comunes surgen por no haber entendido los dos componentes esenciales de la prueba
inductiva en cualquier generalización de nivel superior: el papel de la evidencia perceptual y el
papel del marco conceptual.
Primero, es fundamental entender la idea de Newton de que hace falta tener alguna evidencia—
basada en la observación—antes de poder sugerir un factor como posible causa. En ausencia de
esa evidencia, la afirmación de una posibilidad debe ser desestimada sin contemplaciones. De lo
contrario, el escepticismo es inevitable.
Hoy en día, muchos intelectuales crean posibilidades arbitrarias, igual que un falsificador crea
dinero. De hecho, son peores que los falsificadores, porque éstos al menos reconocen la
existencia del dinero real y tratan de imitarlo; los intelectuales que trafican con lo arbitrario
niegan la existencia del conocimiento real. Por ejemplo, los autores de un texto estándar sobre el
método científico tienen esto que decir sobre la ley de Galileo de la aceleración gravitacional
constante: “La evidencia en favor de la hipótesis de la aceleración siempre hay que considerarla
como algo que es sólo probable. La hipótesis basada en la evidencia es sólo probable, porque
siempre será lógicamente posible encontrar alguna otra hipótesis a partir de la cual se deriven
todas las proposiciones verificadas.”21 Esto lo ofrecen como una afirmación indiscutible. Los
autores ni siquiera sugieren otra “posibilidad lógica”, y mucho menos ofrecen evidencia a favor
de alguna; en vez de eso, sugieren que el lector es libre de inventar cualquier “posibilidad” que
quiera, sin ninguna responsabilidad de citar evidencia. No es de extrañar que estos autores
acaben concluyendo que los métodos de la diferencia y la concordancia “no son, por tanto,
capaces de demostrar ninguna ley causal”.22
El estado epistemológico de un científico no es el que tales escépticos quieren hacernos creer.
Cuando un científico se enfrenta con algún aspecto de la naturaleza, no lo hace como un bebé
desvalido; inicia su investigación armado con un amplio contexto de conocimiento que delimita
con precisión las posibilidades. Un factor puede ser considerado relevante para su investigación
sólo si hay alguna razón para sospechar que ese factor pueda jugar un papel causal, y esa razón
ha de estar basada en las generalizaciones a las que ya haya llegado, las cuales en última
instancia pueden ser reducidas a la evidencia aportada directamente por los sentidos.
Esto nos lleva a la segunda crítica comúnmente presentada contra los métodos de la diferencia y
la concordancia. Algunos filósofos argumentan que esos métodos son inválidos porque dependen
de algún contexto cognitivo anterior. Por ejemplo, al discutir esos métodos, los autores citados
antes escriben:
Este canon requiere la formulación previa de una hipótesis en cuanto a los posibles
factores relevantes. El canon no puede decirnos qué factores deben seleccionarse para el
estudio de entre las innumerables circunstancias presentes. Y el canon exige que las
circunstancias hayan sido analizadas y separadas debidamente. Debemos concluir que
este no es un método de descubrimiento.23
Según esta perspectiva, los métodos sólo pueden ser métodos de descubrimiento si pueden ser
aplicados mecánicamente. La necesidad de una “hipótesis previa” y de un “análisis correcto” es
lo que los invalida; en otras palabras, la necesidad de conocer y de pensar es lo que invalida
cualquier proceso de descubrimiento.
Estas críticas constituyen un doble ataque contra la inferencia inductiva. El escéptico empieza
afirmando que hay innumerables posibilidades que no pueden ser eliminadas, y que por lo tanto
no podemos conocer ninguna verdad general (exceptuando esa misma generalización, que la
consideran un absoluto incuestionable). Cuando un hombre racional responde que las
posibilidades vienen determinadas por su contexto de conocimiento conceptual anterior, el
escéptico responde que ese uso del marco conceptual está fuera del ámbito de la lógica. Lo que él
asume implícitamente es que el marco conceptual es necesariamente subjetivo; es decir, que no
se deriva de ninguna evidencia sensorial y que sus elementos no pueden ser reducidos de vuelta a
esa evidencia. Así, en el fondo, el ataque del escéptico sobre la validez de la inducción está
basado en su visión subjetivista de que los conceptos mismos están desconectados de la realidad.
Un hombre racional debe contrarrestar el primer golpe del escéptico por principio, rechazando lo
arbitrario, y debe contrarrestar el segundo con una teoría objetiva de conceptos y
generalizaciones. Todo pensamiento parte de la percepción; sin nuestro único contacto directo
con la existencia, no hay nada sobre lo que pensar. Toda nuestra estructura interconectada de
conceptos no puede ser otra cosa que integraciones de perceptos. Esa es la totalidad cognitiva
que el científico utiliza para delimitar los factores relevantes en su investigación y guiar su
análisis; es precisamente eso lo que le permite emplear los métodos de la diferencia y la
concordancia, y lo que le da validez a su razonamiento.

La inducción como inherente en la conceptualización

Los conceptos son lo que hacen que la inducción sea posible y necesaria.
Consideremos los conceptos de “horizontal” y “vertical”, que jugaron un papel tan importante en
el desarrollo de la cinemática de Galileo. Aunque son relativamente simples, estos conceptos son
integraciones de conceptos anteriores. Partimos de conceptos de direcciones específicas que
podemos indicar señalando. Así, empezamos con “arriba” y “abajo” y sólo llegamos a la
abstracción “vertical” en una etapa muy posterior; de forma parecida, empezamos con conceptos
de direcciones horizontales específicas (por ejemplo, adelante o atrás, hacia levante o hacia
poniente) mucho antes de abstraer para poder formar el concepto de “horizontal”. De intentar
comprender las acciones de los objetos es de donde surge la necesidad de estas abstracciones
más avanzadas. Después de observar que los objetos pesados caen y los objetos ligeros
ascienden, y que el movimiento espontáneo no ocurre en otras direcciones, reconocemos
eventualmente que “arriba” y “abajo” son semejantes en un aspecto importante, y
fundamentalmente diferentes de cualquier dirección perpendicular.
Está claro que los descubrimientos de Galileo habrían sido imposibles sin estas abstracciones
más amplias; su ley de aceleración constante es una generalización acerca del movimiento libre
vertical, y su ley de la velocidad constante es una generalización sobre el movimiento libre
horizontal. Además, la formación de esos conceptos fue en sí misma un paso enorme hacia el
descubrimiento de las leyes. Los conceptos se formaron al captar una diferencia esencial en la
forma en que los cuerpos se mueven verticalmente, en contraste a la forma en que lo hacen
horizontalmente. Armados de estos y otros conceptos clave (como “rozamiento”, “velocidad”,
“aceleración” y “parábola”), Galileo pudo hacerse preguntas específicas y formular las
respuestas cuantitativas que halló por medio de sus experimentos.
Hay conceptos clave que jugaron un papel semejante en la óptica de Newton. La pregunta que
llevó a su primer gran descubrimiento fue: ¿Se refracta la luz azul más que la luz roja?
Obviamente, es imposible preguntarse eso sin el concepto de “refracción”. Ese concepto es una
integración de todos los casos en los que la luz se curva al pasar por una interfase entre dos
materiales. Ese fenómeno sólo puede depender de la naturaleza de la luz y de la naturaleza de los
materiales, todo lo cual también se identifica mediante términos conceptuales (por ejemplo, toda
la luz de un determinado color, todo el vidrio de un cierto tipo). Así, cuando Newton cambió
solamente el color de la luz y vio el consecuente cambio en el ángulo de refracción, él
simplemente identificó su observación de forma conceptual para llegar a la generalización de que
la luz azul se refracta más que la luz roja.
O consideremos su investigación sobre por qué los cuerpos se ven de colores. Newton sabía que
cuando la luz incide sobre un cuerpo, la luz se refleja, se absorbe o se transmite. Sin
conceptualizar las posibles acciones de la luz no podría haber entendido cómo se separan los
colores por reflexión. Con estos conceptos, sus experimentos llevaron inevitablemente a la
conclusión de que los colores aparecen cuando una parte del espectro de colores se refleja más
que el resto de esos colores, que han sido absorbidos o transmitidos.
Cuando tenemos un concepto correctamente formado, uno que engloba concretos gracias a
características esenciales bien definidas, nos encontramos a menudo en una posición en la que
podemos saber de inmediato cuándo un atributo que hemos descubierto estudiando unos pocos
casos puede ser aplicado a todos los casos. Siguiendo la analogía de Rand entre un concepto y
una carpeta de archivos, podemos decir que esa generalización sobre los referentes de un
concepto está implícita en el propio acto de colocar cada nuevo elemento de conocimiento en esa
carpeta de archivos. Al hacer eso, uno está afirmando: “Ahora esto forma parte de mi
conocimiento sobre X, es decir, esto es cierto para todos los X, incluyendo la enorme mayoría de
ellos que nunca me encontraré.”
Una persona que se abstuviera de inducir encontraría que sus palabras no designan conceptos en
absoluto; tendrían que ser reducidos a sonidos. En el caso de los conceptos de primer nivel
formados a partir de similitudes dadas perceptualmente, esa persona podría darle un nombre a
algún referente que se encontrase, pero sin inducción no podría aplicar nada de su conocimiento
anterior a esos referentes. El nombre no serviría a ninguna función cognitiva; esa persona
permanecería en el estado de un ignorante que se enfrenta a cada nuevo objeto desde cero.
Pensemos en un niño pequeño que empieza con la definición implícita de hombre como siendo
“una cosa que se mueve y hace ruidos”. Si sigue observando a personas concretas, acabará
descubriendo que cuando las personas hacen ruidos están comunicando mensajes entre ellos, y
que cuando se mueven lo hacen por un motivo, para satisfacer diversos deseos. Ahora, ese niño
da el paso siguiente y observa a más personas moviéndose y haciendo ruidos. Cuando le
preguntan, “¿Por qué crees que se mueven y hacen ruidos?”, él responde: “No tengo la menor
idea; nunca había visto a esas personas concretas antes.” Eso sería un ejemplo de mantener un
concepto sin inducción.
Imaginemos el otro raro comportamiento de ese niño. Sus padres escucharían continuamente
respuestas como: “No sabía que este vaso concreto se rompería si lo dejara caer”; “No sabía que
ese fuego concreto me quemaría”; “No sabía que ese agua concreta saciaría mi sed”; etc.
No concluiríamos que ese niño estaba siendo precavido en cuanto a saltar hacia una
generalización; al contrario, pensaríamos que sufre de algún trastorno mental discapacitante. Él
sería el eslabón perdido entre los animales y el hombre, capaz de emplear una palabra pero
inútilmente, puesto que no podría aplicar ningún conocimiento obtenido previamente sobre las
cosas que esa palabra designa. Sus palabras no serían más que símbolos concretos asociados a
unos pocos casos observados, y por tanto ese individuo carecería por completo de la capacidad
humana de pensar.
Un concepto es un mandamiento: ir de algunos a todos es una “luz verde” para la inducción.
Las normas de circulación nos ordenan que sigamos adelante cuando vemos una luz verde; las
normas de la cognición humana nos ordenan que generalicemos a partir de los referentes de
nuestros conceptos. Cuando lo hacemos, avanzamos por medio de un mecanismo muy especial
(la facultad conceptual) que otros animales no poseen, un mecanismo integrador diseñado para
llevarnos de instancias particulares a generalizaciones universales.
Cuando Newton descubrió que el Sol, la Luna, la Tierra, las manzanas y los cometas, todos ellos
ejercen una fuerza atractiva de un cierto tipo (la “gravedad”), se vio forzado a adscribir esa
fuerza a todos los cuerpos. Al hacer eso integró la astronomía con la mecánica, marcando así el
inicio de la era científica moderna; consiguió explicar las órbitas planetarias, la caída de los
cuerpos terrestres, las mareas, el movimiento de los cometas, la forma de la Tierra y el
movimiento de rotación alrededor de su eje; en resumen, pudo presentar un universo inteligible e
integrado por primera vez. Sus generalizaciones se seguían precisamente porque pudo relacionar
el nuevo concepto de “gravedad” con el marco total de su conocimiento anterior (ver Capítulo 4).
Hemos visto cómo en óptica Newton descubrió que la luz blanca ordinaria es una mezcla de
colores que forman un “espectro”, es decir, un conjunto ordenado compuesto por los colores
rojo, naranja, amarillo, verde, azul y violeta. Igual que el de “gravedad” en mecánica, el concepto
de “espectro” en óptica es una integración clave que hizo posibles muchos descubrimientos
posteriores. Por ejemplo, cuando los científicos descubrieron que el color existía más allá del
extremo rojo del espectro y que el papel fotográfico se oscurecía más allá del extremo violeta, se
vieron obligados a extender ese concepto para que incluyese la luz no visible infrarroja y
ultravioleta. Eso a su vez fue un paso clave para descubrir que la luz es una onda
electromagnética, un descubrimiento que llevó a una integración a gran escala de la óptica con el
electromagnetismo. Tal es el poder de los conceptos y del razonamiento inductivo que necesitan.
Por supuesto, la veracidad de nuestras generalizaciones depende de la validez de nuestros
conceptos. Un concepto inválido es una luz roja para la inducción; detiene el proceso de
descubrimiento o lleva positivamente a generalizaciones falsas.
Recordemos los conceptos de movimiento “natural” y “violento” en la física griega. Estos
conceptos hacen una distinción tajante entre movimientos que de hecho son similares; por
ejemplo, el movimiento del humo ascendiendo en el aire se considera “natural”, mientras que el
de la madera emergiendo del agua se considera un movimiento “violento”; una pelota dando
vueltas en el extremo de una cuerda se mueve de forma “violenta”, mientras que la Luna
orbitando a la Tierra lo hace de forma “natural”. Por otra parte, esos conceptos agrupan
movimientos que de hecho son muy diferentes; por ejemplo, tanto el humo elevándose como las
piedras cayendo se mueven “naturalmente”, mientras que tanto una bola moviéndose en círculos
y otra bola con velocidad horizontal constante se mueven “violentamente”.
Esos conceptos no pueden ser reducidos a similitudes y diferencias observadas. Son
yuxtaposiciones en vez de integraciones válidas, y por tanto es imposible llegar a
generalizaciones verdaderas sobre sus referentes, que no guardan parecido. Cuando los griegos
intentaron generalizar, llegaron a una serie de falsedades. Por ejemplo: “El movimiento
horizontal violento de un proyectil es causado por el aire, que empuja al proyectil”; “Los cuerpos
celestiales están hechos de un material no terrestre llamado “éter” que se mueve de forma natural
en círculos alrededor de la Tierra”; “En ausencia de fuerzas externas, todos los cuerpos pesados
se mueven hacia su lugar natural en el centro de la Tierra”; etc. La ciencia de la física quedó
detenida por esa luz roja hasta que los conceptos de movimiento “natural” y “violento” fueron
rechazados.
El concepto de “ímpetu” nos proporciona un ejemplo excelente de un caso más complejo. Como
vimos, ese concepto estaba basado en una premisa falsa pero no obstante era un primer intento
de llegar a una integración válida e importante. Buridan estaba en lo cierto al pensar que hay algo
en un cuerpo que se mueve libremente, algo que permanece constante en ausencia de fuerzas de
rozamiento, y que se disipa como resultado de esas fuerzas. Sin embargo, al pensar que hace
falta una fuerza para provocar movimiento, identificó mal la naturaleza de la propiedad
conservada. Propuso un atributo intrínseco del cuerpo que proporciona la fuerza interna que lo
mueve, y llamó a ese atributo “ímpetu”. Como no existe tal atributo, todas las generalizaciones
que se refieran a él serán falsas. Aun así, los físicos se dieron cuenta de que los hechos que se
referían al movimiento no podían integrarse sin alguna idea de ese tipo, y por eso el “ímpetu” en
algún momento tuvo que ser reformado y reemplazado, en vez de simplemente ser rechazado.
Una vez que Galileo identificó y eliminó la premisa falsa subyacente, fue Newton quien captó
finalmente el concepto de “cantidad de movimiento” que había quedado fuera del alcance de
Buridan. [N del T: Actualmente el concepto de “cantidad de movimiento” (en inglés momentum)
se conoce como “momento lineal”, o a menudo simplemente “momento” de un cuerpo, pero
mantendremos el término antiguo por considerar que tiene un significado más claro, además de
que ya hay un concepto físico y matemático que se traduce por “momento” (en inglés moment), y
porque ambos tienden a confundirse]
Aunque un marco conceptual válido no garantiza que generalizaciones posteriores sean ciertas,
los errores de generalización que cometen los científicos pueden normalmente ser identificados
como procedentes de alguna deficiencia en su marco conceptual. Si los científicos generalizan
demasiado (es decir, extienden su conclusión más allá del rango de validez legítimo), es a
menudo porque carecen de los conceptos necesarios para identificar distinciones importantes.
Vimos a Galileo lidiar con ese problema en varias ocasiones. Su afirmación de que un péndulo
circular es isócrono para todas las amplitudes fue echar una cana al aire en un asunto que no
podría haber resuelto sin tener los conceptos de “infinitésimo” y “límite”; cuando extendió
equivocadamente su análisis al movimiento sin rozamiento de la rodadura de las bolas, fue
porque le faltaban los conceptos dinámicos y matemáticos necesarios para captar los efectos de
la rotación; y cuando asumió que su ley de la aceleración vertical constante se aplicaba también a
grandes distancias de la superficie de la Tierra fue porque carecía del concepto de “gravedad”.
Sin embargo, también vimos que esos pasos en falso se corrigen en el curso normal de perseguir
la ciencia mediante un método racional. Una vez que los conceptos necesarios fueron formados,
los científicos pudieron de inmediato juzgar las conclusiones de Galileo desde puntos de vista
que él no tenía.
Un último punto nos llevará al tema del siguiente capítulo. Hemos visto que un concepto puede
funcionar como una luz verde para la inducción sólo si está definido con precisión; y, en las
ciencias naturales, la precisión necesaria es matemática. Recordemos que Galileo tuvo que
definir los conceptos de “velocidad” y “aceleración” en términos matemáticos antes de poder
llegar a su teoría del movimiento. Un desarrollo similar puede encontrarse en la óptica. Antes de
Newton, el tema de los colores se había tratado de un modo casi completamente cualitativo, y a
consecuencia de ello se hizo muy poco progreso. Un aspecto esencial del logro de Newton fue
transformar el tema en una ciencia cuantitativa. Empezó midiendo los diferentes ángulos de
refracción para cada color, y terminó de forma triunfante asociando cada color con una longitud
de onda calculada con precisión en su análisis del famoso experimento de los “anillos”. Como
veremos más adelante, la integración cognitiva necesaria para validar una generalización de nivel
superior en física sólo es posible gracias a que los descubrimientos en leyes han sido formulados
en términos cuantitativos. El progreso exige que los conceptos clave sean definidos en términos
susceptibles de medición numérica.
La inducción en física depende esencialmente de dos métodos especializados: la experimentación
es el camino a la matemática, y la matemática es el lenguaje de la ciencia física.
3. El universo matemático

Para descubrir la naturaleza del mundo físico, el hombre debe poder relacionar cualquier hecho
con lo que es capaz de percibir de forma directa. Históricamente, el método que hace esto posible
se aplicó por primera vez en astronomía.
Empezamos en la escala de nuestra percepción. Por eso el hombre pre-científico veía la Tierra
como el gigantesco centro del universo, rodeado por otros objetos mucho más pequeños que se
mueven de este a oeste por el cielo. Casi todos esos objetos parecen simples puntos de luz que
decoran el cielo nocturno y que sirven para orientarnos. Al prestar atención a los movimientos de
esos objetos, el hombre pudo dividir esos puntos de luz en dos categorías: los cientos y cientos
de “estrellas fijas” visibles, cuyas posiciones relativas no cambian; y cinco “estrellas errantes”, o
“planetas”, que se mueven de forma compleja respecto de las estrellas fijas. Además de las
estrellas, dos objetos destacaban: el Sol y la Luna, ambos con un tamaño en apariencia similar.
En el siglo V a.C., el filósofo Anaxágoras sugirió que el Sol tal vez fuese de un tamaño parecido
al del Peloponeso. A mucha gente en su época le parecía absurdo que el Sol pudiese ser tan
grande. Pero como las distancias a los cuerpos celestes eran desconocidas y por lo visto
imposibles de conocer, nadie halló forma de zanjar esa cuestión.
Dos siglos más tarde, sin embargo, un astrónomo matemático encontró una forma de hacerlo.
Aristarco empezó dándose cuenta de que la trigonometría, la rama de las matemáticas que
estudia los triángulos, proporcionaba un método para comparar la distancia de la Tierra al Sol
con la distancia de la Tierra a la Luna. Cuando la Luna está exactamente medio llena, la línea
que une el Sol con la Luna debe formar un ángulo de 90º con la línea que une la Luna con la
Tierra. Así que, una noche de media luna, Aristarco midió el ángulo formado entre la línea de
visión que va a la Luna y la que va al Sol. Usando las conocidas relaciones entre las longitudes
de los lados y los ángulos de un triángulo rectángulo, su resultado de 87º implicaba que la
distancia de la Tierra al Sol es unas veinte veces mayor que la distancia de la Tierra a la Luna.
Teniendo en cuenta que ambos objetos tienen el mismo tamaño aparente, concluyó que el
diámetro del Sol debía ser unas veinte veces mayor que el diámetro de la Luna. (Este método es
muy sensible a pequeños errores en la medida del ángulo, y por eso Aristarco subestimó el
tamaño del Sol y su distancia a la Tierra.)
Ese resultado no decía nada en cuanto a los tamaños del Sol y de la Luna en comparación al
tamaño de la Tierra. Para conseguir esta información, Aristarco aplicó un razonamiento
matemático a la observación de un eclipse lunar. Durante uno de esos eclipses, tomó medidas
que le permitían comparar el tamaño de la Luna con el tamaño de la sombra circular que la
Tierra proyecta sobre ésta. Luego, partiendo de los valores que había calculado para las
distancias y los tamaños relativos entre el Sol y la Luna, usó la trigonometría para relacionar el
tamaño de la sombra de la Tierra con el tamaño de la propia Tierra. Juntando toda esta
información, llegó a la conclusión de que el diámetro lunar es aproximadamente una tercera parte
del de la Tierra, y por tanto que el diámetro del Sol es unas seis o siete veces mayor que el de la
Tierra.
La potente combinación de observación, medida y matemática proporcionó todavía más
resultados. Se habían medido los tamaños aparentes del Sol y la Luna; ambos cuerpos tenían una
amplitud de aproximadamente medio grado de arco en la bóveda celeste. Así que, una vez
calculados sus tamaños reales (en relación con la Tierra), sus distancias desde la Tierra podrían
ser calculadas. La distancia a la Luna parecía ser de unos 30 diámetros terrestres, lo que significa
que la distancia de la Tierra al Sol es de unos 600 diámetros terrestres.
Faltaba por resolver el problema de relacionar estas medidas con las distancias que podemos
percibir, puesto que nadie puede ver un diámetro terrestre. Quien dio la solución fue Eratóstenes,
el principal astrónomo griego de la generación posterior a la de Aristarco. Nuevamente, la
trigonometría jugó un papel clave para llegar a la respuesta. Eratóstenes sabía que a las 12 del
mediodía del 21 de junio el sol se encuentra directamente encima del observador en la ciudad
egipcia de Siena, de forma que una barra colocada verticalmente no forma ninguna sombra a esa
hora. También sabía que la ciudad de Alejandría estaba a 800 km justo al norte de Siena (usamos
unidades modernas por conveniencia). Colocó una barra vertical en el suelo en Alejandría, y al
mediodía del 21 de junio midió la longitud de la sombra y la comparó con la longitud de la barra.
A partir del hecho que la sombra era la octava parte de la longitud de la barra, dedujo que 800
km deben ser aproximadamente la octava parte del radio de la Tierra. Y así llegó al resultado
correcto unos 12.700 km para el diámetro de la Tierra y unos 40.000 km para su circunferencia.
Y un kilómetro, obviamente, tiene una relación conocida con una unidad perceptible: el metro.
Los griegos aplicaron las matemáticas más extensamente a la astronomía que a ninguna otra
ciencia. Como resultado, la astronomía se convirtió en la ciencia de la naturaleza más avanzada
de la Antigüedad. En contraste, se hizo relativamente poco avance en física. La influencia del
platonismo convenció a muchos pensadores griegos de que los cambios físicos y los
movimientos de la materia terrestre no podían ser comprendidos por completo, y que por lo tanto
no eran susceptibles de tratamiento matemático. Pero, al creer que los cuerpos celestes poseían
un mayor grado de perfección, los griegos se sentían más seguros aplicando las matemáticas a
ese campo.
Desgraciadamente, los pensadores griegos no fueron capaces de mantener esta confianza. Aquí,
también, el platonismo dejó su huella. Al principio, los griegos basaron su astronomía
matemática en ideas físicas. La Tierra era considerada, por su propia naturaleza, como inmóvil
en el centro del universo; los cuerpos celestes, o eran arrastrados por esferas en rotación
uniforme o se movían en trayectorias circulares simplemente en virtud de la naturaleza física de
su material constituyente (el “éter”). Sin embargo, en poco tiempo los movimientos observados
del Sol, la Luna y los planetas exigieron que esos principios fuesen abandonados. En vez de
buscar nuevos principios, los griegos abandonaron completamente el empeño de comprender los
cielos, y en su lugar persiguieron el objetivo de “describir las apariencias”. El resultado fue la
teoría de Ptolomeo, que empleó artificios matemáticos (distancias excéntricas, epiciclos y puntos
ecuantes) que estaban inherentemente desprovistos de referencias a causas físicas. De este modo,
la matemática se separó de sus anclajes a la física, y como resultado la astronomía quedó a la
deriva, en aguas estancadas, durante los siguientes catorce siglos.
La matemática no es un conjunto aislado y “puro” de abstracciones y deducciones; y, si lo fuera,
no sería más que un juego inútil. Es la ciencia que relaciona unas cantidades con otras, y esas
cantidades en última instancia están relacionadas con objetos perceptibles. Como veremos en
breve, relacionar cantidades entre sí es el medio que tienen los científicos para captar y expresar
relaciones causales.

El nacimiento de la física celeste

Aristarco fue el primero en proponer una idea que con el tiempo llevaría a la integración de la
física y la astronomía. Nuestra experiencia cotidiana es que un objeto relativamente pequeño se
puede mover con más facilidad que un objeto grande. Por eso, cuando Aristarco descubrió que el
Sol es mucho más grande que la Tierra, sugirió que la Tierra se mueve alrededor del Sol, y no al
contrario.
La idea heliocéntrica se quedó en una simple propuesta que nunca fue desarrollada por los
astrónomos griegos. De hecho, había serios obstáculos para su total desarrollo. Primero, la idea
requería como base, en última instancia, una nueva física. Segundo, hacían falta unos métodos
experimentales y matemáticos nuevos para descubrir esa física. Y, de forma más general, era
necesaria la absoluta convicción de que el universo—desde la Tierra hasta los confines del
cosmos—puede ser comprendido mediante métodos racionales como los propuestos. Esta última
convicción tiene sus orígenes en la Antigua Grecia, pero entró en declive y luego se desvaneció
por completo cuando Occidente se sumió en el misticismo cristiano.
Con el redescubrimiento de Aristóteles a principios de la Edad Media comenzó a resurgir la
confianza en el poder de la razón. Una consecuencia de ello fue una creciente insatisfacción con
la astronomía ptolemaica. Averroes, el filósofo aristotélico del siglo XII, identificó la esencia del
problema y escribió: “Ptolomeo no fue capaz de ver los verdaderos cimientos de la astronomía…
Debemos, por tanto, dedicarnos a una nueva investigación de la auténtica astronomía, cuyos
cimientos son los principios de la física… De hecho, en nuestra época, la astronomía es
inexistente; lo que tenemos es algo que se ajusta a los cálculos pero que no concuerda con lo
que ocurre” (la cursiva es mía).1
Nicolás Copérnico fue el primero que respondió a la llamada de Averroes de tener una “auténtica
astronomía”, es decir, una astronomía que tratase de explicar las observaciones identificando
movimientos reales. Copérnico resucitó la idea heliocéntrica de Aristarco y la desarrolló hasta
formar una teoría matemática completa. Con el Sol fijo, y todos los planetas—incluida la Tierra
—girando a su alrededor, pudo explicar ciertos aspectos del movimiento planetario que
Ptolomeo sólo podía describir empleando artificios matemáticos. De esa forma, la teoría
copernicana, publicada en 1543, supuso el primer paso clave para devolverles a las matemáticas
el papel que les corresponde como herramienta para captar la realidad, en vez de simplemente
servir para predecir “apariencias”.
La perspectiva heliocéntrica le permitió a Copérnico identificar que las observaciones contenían
más información de lo que Ptolomeo pensaba. En la teoría geocéntrica, sólo era posible calcular
la posición angular de los planetas; los tamaños relativos de las órbitas no podían determinarse.
Sin embargo, si todos los planetas orbitan al Sol, y nuestro punto de observación varía a medida
que la Tierra se mueve, entonces podremos ser capaces de calcular los tamaños relativos de las
órbitas si hacemos observaciones cuidadosamente seleccionadas y las combinamos con el poder
de la geometría. Copérnico hizo estos cálculos con una precisión impresionante.
Sus resultados proporcionaron más evidencias a favor de una teoría heliocéntrica. Conocer el
tamaño de las órbitas le permitió calcular la velocidad relativa de cada planeta. Observó que
cuanto más lejos está un planeta del Sol, más despacio se mueve. Esta correlación entre distancia
al Sol y velocidad sugería fuertemente una relación causal. Copérnico escribió: “El Sol, como si
estuviera descansando en su trono real, gobierna la familia de estrellas que dan vueltas a su
alrededor… En esta ordenación encontramos… que hay ciertamente un lazo de armonía entre el
movimiento y la magnitud de los círculos orbitales, como no puede hallarse en ningún otro
sitio.”2 La relación matemática exacta, la cual él no llegó a descubrir, jugaría más tarde un papel
clave en el desarrollo de la física celeste.
El conocimiento de las distancias relativas y las velocidades de los planetas—incluida la Tierra
—le permitió a Copérnico explicar fenómenos que son un misterio absoluto para la visión
geocéntrica. Por ejemplo, se sabía desde hacía milenios que la dirección del movimiento de un
planeta a través del cielo nocturno varía de forma periódica. Marte, por ejemplo, normalmente se
mueve lentamente hacia el este con relación al fondo de estrellas. Sin embargo, cada 780 días
invierte su dirección y se mueve hacia el oeste durante aproximadamente dos meses, antes de dar
la vuelta y continuar con su movimiento hacia el este. Este movimiento aparentemente errático es
una razón para el nombre de “planeta”, que proviene de un verbo griego que significa “vagar”.
Ptolomeo modelizó los movimientos hacia atrás, o “retrógrados”, creando un segundo círculo
llamado epiciclo. Según él, cada planeta se mueve girando en su epiciclo, mientras que el centro
del epiciclo gira en una órbita circular mayor (ver Figura 4). Los epiciclos funcionaron como un
artilugio matemático para describir y predecir las posiciones angulares observadas, pero nadie
planteó ningún motivo físico jamás que explicase por qué los planetas tendrían que moverse de
ese modo.

Figura 4. La teoría geocéntrica tiene que emplear el dispositivo no-causal de los epiciclos
para describir el movimiento retrógrado.

Los movimientos retrógrados, sin embargo, pueden entenderse fácilmente desde la perspectiva
heliocéntrica. Todos los planetas giran en la misma dirección alrededor del Sol. Así que, por
ejemplo, cuando la Tierra está entre el Sol y Marte, la Tierra, que se mueve más deprisa, le
adelanta a Marte, que va más lento, haciendo que parezca que el movimiento de este último
parezca retrógrado, o hacia atrás, desde nuestro punto de observación (ver Figura 5). La teoría
copernicana explicó los movimientos retrógrados de Júpiter y Saturno del mismo modo, y dejó
perfectamente claro por qué esos movimientos dependen de la posición del planeta con respecto
a la Tierra y al Sol. Copérnico mostró que los rasgos más desconcertantes de las “estrellas
errantes” podían entenderse como consecuencias inevitables de estar siendo observados desde la
Tierra en rotación. Él lo expresó así: “Todas estas cosas proceden de la misma causa, la cual
reside en el movimiento de la Tierra.”3
Consideremos ahora los planetas interiores, Mercurio y Venus. Según la visión geocéntrica, su
comportamiento es muy peculiar. A diferencia de los otros planetas, ellos siguen al Sol en su
órbita alrededor de la Tierra, como si estuvieran enganchados al Sol con una correa. Ptolomeo
nos pide que aceptemos—sin explicación—que hay dos tipos de planetas: los que siguen al Sol y
los que no. En contraste, en la teoría heliocéntrica no aparece ese misterio. Como Mercurio y
Venus están más cerca del Sol que está la Tierra, es obvio por qué esos planetas se ven siempre
en la vecindad del Sol. De modo que, a diferencia de Ptolomeo, Copérnico pudo justificar sus
observaciones mediante una teoría en la que todos los planetas se mueven esencialmente del
mismo modo.
La teoría heliocéntrica tuvo una implicación fundamental en cuanto a la distancia entre la Tierra
y las estrellas. Las posiciones angulares de las “estrellas fijas” no cambian apreciablemente a
medida que la Tierra se mueve alrededor del Sol. Esto era sorprendente; a medida que nuestra
posición cambia, la dirección desde nosotros a cualquier estrella observada debería cambiar
también. La única explicación posible, según la teoría heliocéntrica, es que la distancia por la que
la Tierra se mueve (o sea, el diámetro de la órbita terrestre) es pequeñísima en comparación con
la distancia a las estrellas. Dada la precisión de las posiciones angulares medidas, y la distancia
entre la Tierra y el Sol que Aristarco había estimado, eso implicaba que las estrellas debían estar
por lo menos a 16 mil millones de kilómetros. Ese valor es dos órdenes de magnitud mayor de lo
que Ptolomeo pensaba; así pues, las matemáticas de la teoría heliocéntrica requerían un universo
mucho más grande.

Figura 5. Explicación heliocéntrica del movimiento retrógrado de Marte: cuando el Sol y


Marte están en oposición, la Tierra le adelanta a Marte, que va más despacio.

Aunque la nueva escala del universo fue difícil de aceptar para algunos, el principal obstáculo
para aceptar la teoría heliocéntrica fue el movimiento de la Tierra misma. En base a la teoría
griega del movimiento, se pensaba que un movimiento tan rápido de la Tierra llevaría a efectos
evidentes y catastróficos (por ejemplo: vientos increíbles, gente saliendo despedida de la Tierra
hacia el espacio, etc.). En el siglo XVI, la idea de que nuestro mundo rotase sobre su eje y
orbitase al Sol todavía despertaba la misma reacción que había expresado Ptolomeo: “Desde
luego, ese tipo de propuesta sólo debe concebirse para ser considerada una completa ridiculez.”4
Para dar a conocer esta teoría, Copérnico tuvo que ofrecer alguna respuesta a esa acusación. No
tuvo que dar una respuesta completa (esa ambiciosa tarea fue completada finalmente por
Newton), pero sí tuvo que indicar que hay un modo de resolver la aparente contradicción entre el
movimiento de la Tierra y nuestra falta de apreciación directa de éste. Lo hizo citando la
relatividad del movimiento. “Todo cambio aparente de posición,” escribió Copérnico, “ocurre
debido al movimiento o de la cosa vista o del espectador, o a los movimientos necesariamente
distintos de ambos… Si algún movimiento se atribuye a la Tierra, se verá desde una región fuera
de ella, como si esa región se moviera pasando por delante de la Tierra.”5 Más tarde, añadió: “De
hecho, cuando un barco flota en un mar en calma, le parece a los pasajeros que todas las cosas
externas se mueven, en un movimiento que es la imagen del suyo propio, y piensan que es al
contrario, que ellos mismos y las cosas que les acompañan están en reposo. Así que podría
ocurrir fácilmente en el caso de la Tierra que debería pensarse que todo [el universo de estrellas
fijas] se mueve en círculos.”6 De modo que aunque Copérnico no fuera físico, sí que señaló el
camino hacia la nueva física. En el siglo siguiente, Galileo sacaría partido de este ejemplo del
navío y lo extendería para explicar los principios del movimiento que subyacen a la astronomía
heliocéntrica.
A falta de unos fundamentos de física apropiados, Copérnico retuvo algunos de los rasgos no-
causales de la teoría geocéntrica. Siguió empleando epiciclos, los cuales seguían siendo
necesarios, no para dar cuenta del movimiento retrógrado de los planetas, sino para compensar la
asunción errónea de que las órbitas son circulares. Además, los círculos mayores en la teoría
copernicana todavía estaban centrados en puntos donde no había nada, con el Sol separado a una
distancia libremente elegida para dar el mejor ajuste a los datos. Estos elementos tuvieron que ser
eliminados para completar la transformación de la antigua “astronomía de las apariencias” a la
nueva física celeste. A principios del siglo XVII, esta tarea fue abordada por Johannes Kepler.
Kepler fue el astrónomo teórico más grande de su época, y tuvo la buena fortuna de heredar la
base de datos de Tycho Brahe, el astrónomo observacional más importante de la generación
anterior. Esa combinación era justamente lo que la nueva astronomía necesitaba: las medidas
más precisas y completas, en manos de un teórico brillante decidido a entender a fondo los
verdaderos movimientos de los cuerpos astronómicos. Como dijo el propio Kepler, “Tycho posee
las mejores observaciones y, por lo tanto, por así decir, el material para erigir una nueva
estructura; también tiene trabajadores y todo lo demás que uno pueda desear. Sólo le falta el
arquitecto que utilice todo eso de acuerdo con un plan.”7
¿Cuál era el plan de Kepler? El objetivo era identificar los movimientos de los cuerpos celestes
por medio de captar sus causas físicas. “Mi meta en esto es mostrar que la máquina celestial se
asemeja más a un mecanismo de relojería que a un organismo divino….”8 En un reloj, explicaba,
los movimientos regulares están causados por fuerzas naturales actuando sobre un peso; el
sistema solar, proponía, puede entenderse de un modo parecido. ¿Por medio de qué podemos
descubrir las relaciones causales? Con una visión acertadísima, escribió: “De igual modo que el
ojo fue creado para el color y el oído para el tono, así también fue el intelecto de los hombres
creado para la comprensión, no de cualquier cosa, sino de cantidades.”9 Si nuestras mentes
pueden abrirnos la puerta a los secretos del universo, pensaba él, la matemática debe ser la llave.
Muy al principio de su carrera, Kepler se dio cuenta de la potente evidencia a favor de la teoría
heliocéntrica; el enorme tamaño del Sol en comparación con el de los planetas, la relación entre
la velocidad de un planeta y su distancia al Sol, y la explicación que le daba esa teoría al
movimiento retrógrado y a las diferencias observadas entre planetas interiores y exteriores. Lo
que toda esta evidencia significa, razonó, no es sólo que el Sol es el cuerpo central del sistema
solar; lo que significa es que el Sol es el cuerpo dominante en el sistema solar, es decir, que
ejerce una fuerza física sobre los planetas y que esa fuerza es la causa de sus órbitas.
El concepto de “fuerza” se usaba originalmente para referirse solamente a empujones y tirones
observables entre objetos en contacto directo entre sí. Pero los fenómenos de la electricidad y el
magnetismo exigieron que los científicos expandieran el concepto. En el caso de estos
fenómenos, era patente que un cuerpo puede ejercer una fuerza física sobre otro cuerpo distante
por algún medio imperceptible. En el año 1600, William Gilbert publicó su influyente libro
Sobre los imanes, en el que recopilaba el conocimiento existente sobre electricidad y
magnetismo, y anunciaba su descubrimiento de que la Tierra es, por sí misma, un imán. Kepler
leyó el libro cuidadosamente, y tomó de él el concepto moderno de “fuerza”, el cual fue un
requisito indispensable para la física celeste.
Kepler no tardó en encontrar más evidencias para su idea de una fuerza solar. Sabía que las
órbitas planetarias no están todas en el mismo plano. Están inclinadas respecto del plano orbital
de la Tierra en diversas cantidades (hasta 7º en el caso de Mercurio). Cuando determinó
cuidadosamente las inclinaciones de las órbitas, descubrió un hecho básico: Los planos de las
órbitas se entrecruzan en la posición del Sol, y el Sol es el único objeto común a todos los planos
orbitales. Así, por el método de la concordancia, el Sol parecía ser la única causa posible de las
órbitas. Con este descubrimiento, Kepler había empezado el proceso de erigir una nueva
estructura a partir de los datos de Brahe; había llegado a la idea física que serviría de base, de
cimientos.
Al principio, el enfoque causal de Kepler llevó a una innovación crucial en la forma en que
analizaba los datos. Copérnico había referido las posiciones planetarias al centro de la órbita
terrestre. Como el Sol estaba separado del centro, Copérnico había estado calculando las
posiciones de los planetas respecto a un punto donde no había nada. Kepler objetó que ese
procedimiento era absurdo desde el punto de vista físico, y en vez de seguirlo, decidió referir
todas las posiciones planetarias directamente a la localización del Sol. Este cambio de
perspectiva acabaría resultando esencial para el éxito.
Con esta base, Kepler se preguntó: Exactamente, ¿cómo se mueven los planetas, como resultado
de la fuerza solar? Era lógico que se fijase en Marte para encontrar la respuesta. De todos los
planetas, Marte era el que había dado más problemas, tanto a Ptolomeo como a Copérnico. En
ambos modelos orbitales había discrepancias significativas entre las posiciones angulares
predichas y las observadas. Por supuesto, estas discrepancias no eran el único problema; Kepler
también había rechazado esos modelos porque ambos empleaban epiciclos, lo que requería que
Marte girase en torno a un punto vacío sin ningún motivo físico. En palabras de Kepler, eso era
“una suposición puramente geométrica, para la cual no existe ningún cuerpo en los cielos que se
le corresponda.”10 Como su objetivo era desarrollar una física celeste, no podía tolerar el
artilugio arbitrario de los epiciclos.
Así, Kepler empezó a estudiar el movimiento de Marte, ignorando los epiciclos e intentando
construir la mejor órbita posible con el uso de otros recursos matemáticos típicos que hay en la
caja de herramientas de un astrónomo. Siguiendo una tradición de 2.000 años de antigüedad,
asumió que la órbita era circular. El Sol quedaba desplazado una cierta distancia del centro del
círculo, y Kepler colocó un “punto ecuante” por el otro lado del centro. El recurso del punto
ecuante lo había introducido Ptolomeo como una forma de “salvar las apariencias”, abandonando
el principio de movimiento uniforme. El movimiento parece uniforme sólo desde el punto
ecuante; es decir, una línea desde ese punto hasta el planeta barrerá ángulos iguales en tiempos
iguales. Pero como el punto ecuante no está en el centro del círculo, el planeta deberá moverse
más despacio cuando está más cerca del ecuante, y más deprisa cuando está más lejos (ver Figura
6).
Puede parecer lógico que Kepler hubiese rechazado los ecuantes por la misma razón por la que
había rechazado los epiciclos: un ecuante es un punto vacío que controla el movimiento de un
cuerpo físico. Sin embargo, se dio cuenta de que sí era posible darle una interpretación física al
ecuante. Colocando ese punto en el lugar correcto, Kepler podía modelizar la forma en la la
velocidad de un planeta variaba con su distancia al Sol. Así que Kepler empezó a utilizar el
ecuante como un recurso matemático conveniente para modelizar una relación causal entre un
planeta y el Sol.
Una vez que Kepler hubo seleccionado el modelo, se enfrentó a la difícil tarea de determinar los
parámetros numéricos específicos que mejor se ajustan a las posiciones angulares observadas de
Marte. Los datos observacionales proporcionan la dirección de la línea que une la Tierra y Marte,
pero las variaciones en esta dirección dependen tanto del movimiento de Marte como del de la
Tierra. La posición variable de la Tierra es un factor que lo complica todo; modelizar la órbita de
Marte alrededor del Sol sería mucho más fácil si nuestras observaciones se hicieran desde el Sol.
Kepler resolvió este problema seleccionando cuidadosamente un pequeño subconjunto de datos
que eliminaban el factor que complicaba las cosas. Cada dos años aproximadamente, hay un
periodo de tiempo en el que la Tierra está entre el Sol y Marte, y durante el cual los tres se
encuentran en la misma línea. Se dice que en esos periodos Marte está en oposición a la Tierra
(en el lado opuesto al Sol). Cuando están en oposición, la dirección de la Tierra a Marte es la
misma que la dirección del Sol a Marte; es decir, la posición angular que se mide es la misma
que la que se mediría desde el Sol.
En la base de datos de Brahe había diez de estas oposiciones de Marte. Kepler tenía que
determinar cuatro parámetros en su modelo circular de la órbita: la velocidad angular, la
proporción entre la distancia Sol-centro y el radio de la órbita, la proporción entre la distancia
ecuante-centro y el radio de la órbita, y la dirección de la línea que pasa por el Sol, el centro y el
ecuante. Seleccionó cuatro puntos de oposición para calcular los cuatro parámetros. A falta de
los métodos de la matemática moderna, Kepler llevó a cabo un tedioso proceso de
aproximaciones sucesivas. Después de más de setenta iteraciones, llegó finalmente a unos
valores de los parámetros que daban la mejor aproximación a las cuatro posiciones angulares.
Descubrió que la distancia del Sol al centro del círculo tenía que ser mucho mayor que la
distancia del centro al ecuante.
Figura 6. En el modelo circular original de Kepler para la órbita de Marte, el Sol está
separado del centro, y se usa un punto “ecuante” para variar la velocidad.

Entonces, Kepler comparó las posiciones angulares predichas por su modelo con los otros seis
puntos de oposición que no habían sido usados para llegar al modelo. Las predicciones
coincidían con esas observaciones hasta unos dos minutos de arco, que era aproximadamente la
magnitud de los errores en las medidas de Brahe. Por el momento, parecía que Kepler había
triunfado sobre Marte.
Sin embargo, él no estaba interesado sólo en salvar las apariencias. Él quería determinar la órbita
real, y hay mucho más que posiciones angulares en una órbita. Así que Kepler se hizo la
siguiente pregunta lógica: ¿Predecía su modelo también las distancias correctas entre el Sol y
Marte? Los datos de oposición no le daban la información necesaria para responder a esa
pregunta. Aquí, necesitaba observaciones de cuando Marte no está en oposición, para poder
formar triángulos trazando líneas entre el Sol, la Tierra y Marte. Su idea era comparar esos
triángulos. Partiendo del conocimiento de los ángulos y las distancias relativas entre la Tierra y
el Sol, pudo calcular las distancias relativas entre Marte y el Sol; es decir, pudo determinar cómo
varía en la órbita la distancia entre el Sol y Marte.
Es interesante fijarse en cómo halló Kepler los ángulos en estos triángulos. Por supuesto, las
observaciones de Brahe proporcionaban la dirección de la línea que une la Tierra y Marte. Para
las direcciones de las otras dos líneas, Kepler utilizó modelos disponibles en vez de datos brutos.
Ya había mostrado que su modelo de la órbita de Marte daba direcciones de la línea Sol-Marte
con una precisión de dos minutos de arco. Para la dirección de la línea Sol-Tierra, usó un modelo
desarrollado por Brahe que era lo bastante preciso para sus objetivos. No era posible ir
directamente de los datos brutos a la teoría final; esos modelos intermedios, que eventualmente
serían reemplazados por la teoría final de Kepler, integraban grandes cantidades de datos y
servían así como peldaños indispensables.
Aunque el modelo Sol-Tierra de Brahe era suficientemente preciso para las posiciones angulares,
Kepler no estaba seguro de que modelizase bien las distancias Sol-Tierra. Razonó que las órbitas
planetarias tienen la misma causa, y que por tanto los planetas deberían moverse esencialmente
del mismo modo. Pero Brahe había usado un modelo más simple del sistema Sol-Tierra en el que
no había punto ecuante. Kepler estaba convencido de que la Tierra debía moverse más despacio
cuando estaba más lejos del Sol, y más deprisa cuando estaba más cerca (como hacían los demás
planetas). De ser así, añadir un ecuante resultaría en un modelo mucho mejor de la órbita
terrestre. Y la órbita de la Tierra era crucial en su pelea con Marte: necesitaba distancias precisas
Sol-Tierra para poder calcular las distancias Sol-Marte.
Desarrollar un nuevo modelo para la órbita terrestre le planteó a Kepler otro difícil problema.
Los astrónomos están atrapados en la Tierra; no pueden irse a algún lugar alejado para desde allí
observar el movimiento de la Tierra contra el fondo de estrellas fijas. Pero Kepler ideó con
ingenio una forma de superar esta restricción de no poder viajar. Sabía que el periodo de la órbita
de Marte es de 687 días; es decir, que cada 687 días Marte completa una órbita entera y vuelve al
lugar desde el que empezó. Así que Kepler seleccionó observaciones de Marte en intervalos de
687 días. Esto equivale a mantener constante la posición de Marte; en ese conjunto de datos, las
variaciones en la posición angular de Marte sólo se deben a los cambios en la posición de la
Tierra. Para cada punto de los datos, Kepler consideró el triángulo formado por las líneas que
unen el Sol, la Tierra y Marte. Como ya hemos visto, sabía las direcciones de las tres líneas, y
por tanto conocía los tres ángulos del triángulo. Y como la posición de Marte siempre es la
misma, todos los triángulos tienen siempre un lado en común (la recta Sol-Marte). A partir de
esos triángulos, Kepler pudo calcular cómo variaba la distancia Tierra-Sol de un punto a otro.
Los resultados de esos cálculos mostraron que el valor que Brahe había calculado para la
distancia entre el Sol y el centro de la órbita terrestre era demasiado grande. Kepler logró un
mejor ajuste a los datos con una distancia Sol-centro menor, y con un ecuante situado a igual
distancia del centro, por el otro lado. Este fue un paso fundamental en el camino hacia su meta;
por fin tenía un modelo de la órbita terrestre lo bastante preciso como para ser usado en los
cálculos de distancias Sol-Marte.
Este trabajo tenía una ventaja adicional. Mientras desarrollaba el método descrito arriba, Kepler
descubrió que la velocidad de la Tierra era aproximadamente inversamente proporcional a su
distancia al Sol. Este era el tipo de relación causal que él buscaba. Inmediatamente formuló la
hipótesis de que la relación inversa velocidad/distancia era la ley correcta, y que el uso del punto
ecuante sólo era un recurso conveniente para acercarse a ella.
Pero, ¿cómo de precisa era esta aproximación? Kepler decidió calcular la órbita terrestre
aplicando de forma directa la ley de velocidad/distancia y comparar esos resultados con su
modelo del ecuante. El proceso matemático fue extremadamente tedioso. El cálculo infinitesimal
aún no había sido descubierto, de modo que Kepler sólo pudo dividir la órbita en pequeños
segmentos, hacer un cálculo para cada segmento, y sumar laboriosamente los resultados.
Mientras hacía estos cálculos, que parecían eternos, se le ocurrió un ingenioso atajo. Lo que
realmente necesitaba saber era qué distancia viaja la Tierra en un tiempo determinado a lo largo
de su trayectoria, lo cual tiene que ver sólo indirectamente con la ley de velocidad/distancia. Sin
embargo, se dio cuenta de que si la velocidad es inversamente proporcional a la distancia al Sol,
entonces la línea que une el Sol y la Tierra barrerá áreas prácticamente iguales en tiempos
iguales. Matemáticamente, la “ley de las áreas” es mucho más fácil de aplicar; y, por supuesto,
tiene también la forma de una ley causal en la que el Sol determina las variaciones en la posición
de la Tierra.
En el caso de la órbita terrestre, Kepler demostró que las diferencias entre el modelo del ecuante,
la ley inversa de velocidad/distancia, y la ley de las áreas eran despreciables (a lo sumo eran de
medio minuto de arco). Ahora podía eliminarse el carácter no causal del punto ecuante. En
cuanto a elegir entre las dos leyes causales, Kepler adoptó provisionalmente la ley de las áreas
porque ésta simplificaba los cálculos. Llegado el momento, las observaciones de Marte
decidirían este asunto.
Antes de regresar a Marte, merece la pena resaltar dos aspectos del método de Kepler.
Primero, no usó las matemáticas simplemente para ajustarse a los datos de Brahe; las usó
también para generar datos. Los datos originales de Brahe eran sólo de posiciones angulares;
Kepler usó estos ángulos y la trigonometría para generar relaciones entre distancias, y luego
exigió que su modelo se ajustase tanto a las posiciones angulares como a las distancias. Sin
trigonometría, no habría distancias a las que su modelo hubiese podido ajustarse.
Segundo, el procedimiento de Kepler se parece muchísimo a la experimentación. Mientras
trabajaba en la órbita de Marte, seleccionó un subconjunto de datos que eliminaban la variable de
la posición de la Tierra, que lo complicaba todo. Mientras trabajaba en la órbita de la Tierra,
seleccionó un subconjunto de datos en los que la posición de Marte es constante. Su biógrafo,
Max Caspar, escribe: “Siempre son las observaciones las que lo encadenan, él las obliga a
responder a sus preguntas.”11 Él “obligaba” a las observaciones a responder a sus preguntas al
controlar variables específicas, y de esa forma aislar la variable que le interesaba; y esa es la
esencia del método experimental.
Armado con un preciso modelo de la órbita terrestre, Kepler volvió a su misión de forzar a Marte
a responder a sus preguntas. Escogió tres observaciones de Marte en la base de datos de Brahe, y
mediante los triángulos Sol-Tierra-Marte calculó la distancia Sol-Marte en cada uno de los tres
puntos. Necesitaba sólo tres puntos para determinar un círculo, y pudo así calcular la distancia
del Sol al centro del círculo. Este cálculo fue un momento decisivo en la historia de la ciencia.
Dejó a Kepler frente a una contradicción; una contradicción, que por lo visto no podría ser
resuelta sin una revolución en astronomía.
La distancia Sol-centro que calculó Kepler no era la misma que la distancia correspondiente que
él había usado en el modelo que daba posiciones angulares precisas de Marte. Cuando sustituyó
la distancia correcta Sol-centro en su modelo, las posiciones angulares tenían un error de hasta
ocho minutos de arco. Él sabía que los datos de Brahe tenían una precisión de unos dos minutos
de arco. La conclusión era inevitable: el modelo circular para la órbita de Marte era simplemente
incorrecto. Ese modelo no podía ser compatible a la vez con las posiciones angulares observadas
y con las distancias correctas.
A diferencia de sus predecesores, Kepler no podía evadir un problema así meramente
introduciendo un elemento arbitrario en su modelo matemático. Un historiador ha explicado este
punto de la siguiente manera:
Fue el hecho de que Kepler introdujera la causalidad física en la geometría formal de los
cielos lo que le hizo imposible ignorar los ocho minutos de arco. Mientras la cosmología
estuviese guiada por reglas de juego puramente geométricas, independientemente de
causas físicas, cualquier discrepancia entre teoría y hechos podía ser resuelta
introduciendo otra rueda en el engranaje. En un universo movido por fuerzas físicas y
reales, eso ya no era posible.12
Pero ¿qué elemento del modelo era incorrecto? Kepler estaba seguro de que su valor para la
distancia Sol-centro era correcto. Además, basado en su trabajo en la órbita terrestre, estaba
seguro de que las variaciones en la velocidad se aproximaban bastante a su ley de las áreas. Eso
dejaba un único culpable posible: la forma de la órbita. Kepler llegó a la conclusión de que Marte
no se mueve en un círculo. Así es como el distintivo fundamental de una tradición de dos
milenios de antigüedad fue derrocado por una pequeña discrepancia entre las medidas y la teoría
en una única órbita planetaria.
Cuando Kepler examinó cuidadosamente estas discrepancias, vio que los errores en su modelo
circular aparecían siguiendo un patrón definido. Para describir ese patrón, hemos de introducir
algunos conceptos nuevos que Kepler formó como consecuencia de su enfoque causal a la
astronomía.
Como hemos visto, Kepler fue el primer astrónomo en relacionar todas las posiciones planetarias
directamente con el Sol. Al punto de la órbita en el que un planeta está más lejos del Sol lo llamó
“afelio” (en griego “apo-” significa “lejos de”); al punto más cercano al Sol lo llamó perihelio
(“peri-” significa “cerca”). A la línea que pasa por el perihelio, el Sol y el afelio la llamó “línea
de ápsides”. Después dibujó una segunda línea, perpendicular a la línea de ápsides y que pasa por
el punto que está justamente entre el afelio y el perihelio (o sea, el centro). Cuando el planeta
está cerca de esta segunda línea, Kepler dijo que estaba en los “cuadrantes”. A las zonas de la
órbita que estaban a mitad de camino entre los ápsides y los cuadrantes (en ángulos de 45º desde
las líneas perpendiculares) las llamó “octantes”.
Cuando Marte estaba cerca de las dos líneas perpendiculares (los ápsides y los cuadrantes), la
órbita circular de Marte predecía las posiciones angulares correctas. Los errores aparecían en los
octantes; el modelo ponía a Marte unos 8 minutos de arco por delante de su posición real en dos
de los octantes, y unos 8 minutos de arco por detrás en los otros dos (ver Figura 7).
Kepler estudió el patrón y captó qué era lo que implicaba: en el modelo circular, Marte se movía
demasiado deprisa cerca de los ápsides y demasiado despacio en los cuadrantes. La forma de la
órbita tendría que ser modificada para poder corregir esas velocidades; Marte tendría que estar
más lejos del Sol en la línea de los ápsides, y más cerca del Sol en los cuadrantes. En otras
palabras, Marte debe moverse en algún tipo de órbita ovalada, algo más alargada en los ápsides y
algo más achatada en los cuadrantes. Kepler confirmó esta idea calculando varias distancias
Marte-Sol, las cuales mostraron que Marte encajaba en el modelo circular cerca de los
cuadrantes.
Abandonar las órbitas circulares no fue fácil, ni siquiera para un genio innovador como Kepler.
El círculo posee una simetría que no tenía la figura ligeramente aplastada que exigían sus
investigaciones sobre Marte. Para que tuviera sentido ese resultado, volvió a su idea de la fuerza
solar y buscó una causa física para la asimetría. Hasta entonces, la fuerza solar había servido
como la idea guía que había hecho posibles sus descubrimientos. Al llegar a ese punto, sin
embargo, se dejó engañar temporalmente al especular sobre la naturaleza concreta de esa fuerza.
En retrospectiva podemos ver que el esfuerzo de Kepler de desarrollar una física celeste estaba
condenado por partir de una premisa falsa. “Toda sustancia corpórea,” escribió, “…tiende por
naturaleza a permanecer en el sitio en que se encuentra.”13 Kepler no había captado la idea de
que una fuerza causa un cambio en el movimiento, y no el movimiento en sí; en otras palabras, él
no tenía el concepto de “inercia”. Influido por la física de los antiguos griegos, asumió que
cualquier movimiento tenía que ser causado por una fuerza en la dirección del movimiento del
cuerpo. Combinó esta suposición con el descubrimiento de Gilbert de que la Tierra es un imán, y
de ese modo llegó a su hipótesis: el Sol ejerce una fuerza magnética sobre los planetas que los
empuja en sus órbitas.
Kepler construyó esta hipótesis para poder justificar la forma ovalada de la órbita de Marte.
Propuso que la fuerza magnética solar tiene dos componentes. Primero, supuso que el Sol rota
rápidamente, y que este movimiento, de algún modo, crea una fuerza magnética que les empuja a
los planetas a moverse en círculos. Segundo, los propios planetas son imanes, con su polo sur
atraído hacia el Sol y su polo norte repelido. Cuando el polo sur se orienta hacia el Sol, éste atrae
a la órbita, acercándola; cuando el polo norte se orienta hacia el Sol, la órbita del planeta es
empujada en la dirección opuesta. Esta componente atractiva/repulsiva de la fuerza explica el
camino no circular y asimétrico del planeta.
Kepler se convenció de que una fuerza solar como esa daría lugar a órbitas con forma de huevo,
más estrechas en la parte de la órbita cercana al Sol y más anchas en la parte más alejada de él.
Pasó la mayor parte del siguiente año intentando en vano encajar la forma de huevo con las
observaciones de Marte. Más tarde, después de haber reconocido su error, escribió: “Lo que me
pasó confirma el viejo proverbio: una perra con prisa pare cachorros ciegos…. El lector debe ser
tolerante con mi simpleza.”14 [N. del T.: “Vísteme despacio, que tengo prisa”].

Figura 7. Distribución de los errores en el modelo circular de Kepler para la órbita de


Marte.

Sin duda, lo que Kepler merece de nosotros no es “tolerancia”, sino nuestra mayor admiración
por perseguir incansablemente la verdad. En cualquier caso, hay cierta validez en su autocrítica.
Su hipótesis acerca de la naturaleza específica de la fuerza solar estaba respaldada única y
exclusivamente por su intento de conectarla con el magnetismo terrestre. Pero nadie había
observado jamás a un imán actuar como Kepler supuso que el Sol actúa sobre los planetas. A
pesar de su uso del término “magnético”, la fuerza solar de Kepler era en realidad algo “sui
generis”. Al final admitió que así era, cuando escribió: “Estaré satisfecho si este ejemplo de la
fuerza magnética demuestra a grandes rasgos que el mecanismo propuesto es posible. En cuanto
a los detalles, no obstante, tengo mis dudas.”15
Por desgracia, Kepler pasó un año difícil mientras seguía sus especulaciones y el huevo que éstas
habían puesto. A pesar de que estaba seducido por un modelo erróneo, ese trabajo tuvo un efecto
beneficioso: Kepler se sumió por completo en datos observacionales y en cálculos de las
distancias Sol-Marte. Se había descarrilado totalmente con el modelo del huevo, pero nunca
perdió de vista las observaciones; y éstas, de forma inevitable, lo llevaron de nuevo a la verdad.
La luz empezó a iluminarle cuando descubrió una peculiar coincidencia numérica. Esa
coincidencia implicaba que la distancia del Sol a un punto en el cuadrante es igual al radio mayor
de la órbita (es decir, la distancia máxima de Marte al centro de la órbita). Después de unos pasos
en falso sin importancia, Kepler reconoció que esa igualdad es una propiedad de una elipse en la
cual el Sol está en uno de los focos. El hechizo hipnótico de la hipótesis del huevo se rompió al
fin, y el propio Kepler comentó más tarde: “Sentí como si me hubiera despertado de un
sueño….”16 No fue sólo un despertar para Kepler, sino para toda la ciencia de la astronomía: uno
de los problemas más antiguos—la órbita de Marte—había sido resuelto.
Conociendo la forma precisa de la órbita, Kepler pudo resolver otra ambigüedad del pasado.
Pudo mostrar que su “ley de las áreas” ajustaba mejor los movimientos observados de Marte que
lo hacía la relación inversa velocidad/distancia. Además, entendió a fondo la relación entre
ambas leyes: la ley velocidad/distancia es correcta—y equivalente a la ley de las áreas—si uno
emplea no la velocidad total sino la componente de la velocidad que es perpendicular a la línea
que une el Sol y Marte.
Kepler generalizó de inmediato sus resultados; lo que era cierto para Marte era cierto para todos
los planetas. Así llegó a sus dos primeras leyes del movimiento planetario: los planetas se
mueven en órbitas elípticas con el Sol situado en un foco, y la línea entre el Sol y un planeta
barre áreas iguales en tiempos iguales. Excepto con la Tierra, no repitió el mismo proceso
tedioso de determinar los parámetros elípticos de las otras órbitas planetarias. Ese esfuerzo no le
habría aportado mucha más evidencia a favor de sus leyes. Empleando círculos y ecuantes, los
otros planetas podían ser modelados casi hasta los límites de precisión de los datos de Brahe.
(Mercurio parecía ser una excepción, ya que su órbita es significativamente distinta a un círculo;
sin embargo, dada su proximidad al Sol, los datos eran menos completos y precisos.)
Fue perfectamente razonable que Kepler no dudase en generalizar a partir de la órbita de Marte.
Al principio, había citado fuertes evidencias de que los planetas se movían por la misma causa, y
que por tanto debían moverse esencialmente del mismo modo. Más aún, una de las ventajas
clave de la teoría heliocéntrica era que los planetas se movían de la misma forma; la aparente
diferencia entre los movimientos de los planetas “interiores” y “exteriores” había sido eliminada.
En el contexto de la teoría causal de Kepler, el concepto de “planeta” podía funcionar y
funcionaría como una luz verde para la inducción. Su investigación era sobre el movimiento
planetario; se había centrado en Marte sólo porque era el más idóneo para dar respuesta a sus
preguntas.
Kepler descubrió la teoría correcta del sistema solar empleando sólo un pequeño subconjunto de
la enorme base de datos de Brahe. Sus conclusiones se basaron principalmente en observaciones
de Marte y del Sol, y los pasos clave en el camino utilizaron sólo unos pocos datos,
cuidadosamente seleccionados. Sus cálculos estuvieron guiados en cada momento por su
hipótesis, bien fundamentada, sobre el papel causal del Sol.
El contexto más amplio que le guió incluía un amplio rango de datos y muchas generalizaciones
de nivel superior. En astronomía, dependía de todo el conocimiento descubierto por los griegos y
por Copérnico; en matemáticas, dependía del trabajo de Euclides, Apolonio, Arquímedes y
Vieta; en física, hemos visto cómo Kepler hizo uso del concepto ampliado de “fuerza” que había
surgido de los estudios de la electricidad y el magnetismo.
Las dos primeras leyes del movimiento planetario de Kepler fueron las joyas contenidas en su
libro Nueva astronomía basada en la causación, publicada en 1609. Nueve años más tarde,
Kepler descubrió su tercera y última ley del movimiento planetario. A diferencia de las dos
primeras leyes, que especifican la naturaleza de una sola órbita, la tercera establece una relación
matemática entre las órbitas, y por tanto se aplica al sistema solar como un todo.
Aunque Copérnico había descubierto que un planeta más alejado del Sol se mueve más despacio,
la relación matemática exacta no había sido fácil de determinar. Kepler estaba convencido de
que, al tener las órbitas planetarias la misma causa, también de alguna manera deberían ser lo
mismo matemáticamente. Por ello, empezó a buscar alguna función de la distancia media y del
periodo orbital (el cual es inversamente proporcional a la velocidad media) que permaneciera
constante. En 1618, después de mucho ensayo y error, encontró lo que había estado buscando. Su
tercera y última ley afirma que el cubo de la distancia media al Sol dividido entre el cuadrado del
periodo orbital es una constante igual para todos los planetas. El descubrimiento de su ley fue el
resultado de una perseverancia extraordinaria, la cual, a su vez, provenía de una firme convicción
de que tenía que haber una relación de ese tipo entre órbitas que compartían la misma causa
física.
La publicación de las leyes de Kepler fue un hito histórico: fueron las primeras leyes
matemáticas exactas que describían el movimiento de los cuerpos (la cinemática de Galileo no se
publicó hasta la década de 1630). En la era post-newtoniana, es fácil dar por sentadas esas leyes;
sin embargo, a principios del siglo XVII, el contexto era muy diferente. Hablando del estado del
conocimiento cuando Kepler empezó a trabajar, un historiador comenta: “La paciencia
indescriptible y el trabajo duro que hacen falta para descubrir los secretos de la naturaleza
mediante experimentación y observación aún eran desconocidos. El concepto de “leyes de la
naturaleza”, leyes que establecen relaciones causales entre fenómenos y las expresan en
fórmulas, no se tenía por aquel entonces. El hombre aún no había aprendido el método
inductivo….”17
Kepler hizo su parte enseñándole al mundo ese método, al describir con una elocuencia poco
común su forma de llegar a esos descubrimientos, y cómo cometió sus errores.
Lamentablemente, cualquiera que esté familiarizado con la cosmología contemporánea tiene
muchos motivos para dudar si los investigadores actuales han aprendido esa lección. El objetivo
de las próximas secciones es identificar algunos de los aspectos más importantes de este tema.

Matemáticas y causalidad
Antes de que la teoría heliocéntrica ganase fuerza, la ciencia de la astronomía había renunciado a
la causalidad, y con ello había desconectado a sus matemáticas del mundo físico. La astronomía
ptolemaica había sido aceptada durante más de un milenio porque el hombre había adoptado una
actitud muy humilde frente a la naturaleza. En el mundo material, había asumido dócilmente que
estaba fuera de su alcance el captar las conexiones necesarias entre la naturaleza de las cosas y
las acciones de éstas. A consecuencia de eso, los astrónomos sólo podían aspirar a construir
artimañas para “describir las apariencias”.
Por raro que parezca, los escépticos que buscan “describir las apariencias” quieren argumentar a
menudo que Kepler es uno de los suyos. Insisten en que las leyes del movimiento planetario no
son afirmaciones causales, sino sólo regularidades descriptivas. Al fin y al cabo, dicen, Kepler
desconocía la causa aceptada actualmente para las órbitas planetarias: la interacción gravitacional
de las masas. Concluyen, por tanto, que él no descubrió conexiones causales, y que sus así
llamadas “leyes” no son más que descripciones empíricas del movimiento planetario. Según ese
punto de vista, la generalización que hizo Kepler pasando de Marte a otros planetas fue un golpe
de suerte.
Como hemos visto, esa perspectiva escéptica contradice al verdadero proceso de descubrimiento
de Kepler, y a sus conclusiones. Él concibió sus leyes de la siguiente forma: primero, el Sol
ejerce una fuerza sobre cada planeta, la cual hace que éste se mueva en una órbita elíptica (con el
Sol situado en un foco); segundo, la fuerza solar causa que cada planeta se mueva de forma que
la línea que une al Sol con el planeta barre áreas iguales en tiempos iguales; tercero, la fuerza
solar disminuye con la distancia, y eso causa que el cubo de la distancia media al Sol dividido
entre el cuadrado del periodo orbital sea una constante para todos los planetas. Estas son
claramente afirmaciones causales, como deben ser para que se las pueda llamar leyes.
De hecho, Kepler sabía cuál era la causa de las órbitas planetarias: identificó correctamente la
causa como el Sol y alguna propiedad de los planetas que responde al Sol. Ese fue el
conocimiento causal necesario para alcanzar y validar sus generalizaciones. Más tarde, Newton
descubrió que la propiedad relevante es la masa, la cual da lugar a la atracción gravitacional. Este
fue el conocimiento causal más avanzado que hacía falta para validar las generalizaciones mucho
más amplias de Newton, las cuales incluían a las leyes de Kepler como casos concretos. Tal vez
en el futuro los físicos consigan una comprensión aún más profunda de la causa, en términos de
una teoría física completamente consistente del campo gravitatorio. De ser así, ese conocimiento
sin duda jugará un papel clave en la validación de generalizaciones aún más amplias.
Las identificaciones causales anteriores no se contradicen entre sí. El enunciado de Kepler es
correcto hasta donde llega, pero dice menos que el de Newton, e implica muchas menos cosas. Y
el enunciado de Newton es correcto hasta donde llega, aunque Einstein descubrió más sobre la
gravedad, y aún queda mucho por descubrir.
El conocimiento causal necesario para demostrar una generalización queda delimitado por la
escala de la generalización. Por ejemplo, consideremos la ley de Kepler de las órbitas elípticas.
Si es una ley general y no sólo una descripción de casos particulares, debemos poder responder a
ciertas preguntas. ¿Órbitas alrededor de qué? Del Sol, que se sitúa en un foco de la elipse. ¿Por
qué el Sol? Porque ejerce una fuerza sobre cada planeta, haciendo que éste orbite. ¿Cómo
sabemos eso? Aquí, citamos las evidencias que tenía Kepler para la fuerza solar, el enorme
tamaño del Sol, la relación de dependencia que hay entre la velocidad del planeta y su distancia
al Sol, y el hecho de que el Sol es el único cuerpo que está dentro de todos los planos orbitales.
Eso es todo lo que hace falta. En contraste, consideremos la ley de Newton de que todos los
cuerpos se atraen entre sí con una fuerza que es proporcional al producto de sus masas e
inversamente proporcional al cuadrado de la distancia que los separa. Las preguntas que
debemos responder para validar esta generalización son demasiado numerosas para citarlas aquí,
pero tienen que ver con los conceptos de “masa” y “aceleración”, con las leyes del movimiento,
y con la integración de la física terrestre con la astronomía (ver Capítulo 4).
Es importante darse cuenta de que el conocimiento causal necesario para demostrar una
generalización no es el mismo que el conocimiento causal a partir del cual la generalización
puede deducirse. Es un error muy común poner lo segundo en lugar de lo primero, tratando de
reducir todo el razonamiento lógico a deducciones. Según este punto de vista, las leyes de Kepler
son sólo hipótesis hasta ser deducidas a partir de las leyes de Newton, las cuales son sólo
hipótesis hasta ser deducidas a partir de leyes más generales, etc. Según eso, el “conocimiento”
no es más que un esquema piramidal de hipótesis que finalmente van a quedar validadas sólo a
través de una revelación intuitiva de la así llamada causa primera. Ese enfoque lleva a dos
escuelas: a los escépticos, que admiten no poseer esa revelación; y a los racionalistas, que fingen
tenerla.
Los racionalistas apelan tradicionalmente a la simetría, a la elegancia y a la belleza de su teoría
matemática, afirmando que estos agradables rasgos estéticos implican una visión profunda del
mundo de las Formas (Platón) o de la mente del Creador (cualquier religión). Como hacen los
escépticos, ellos introducen una brecha entre la causación física y las matemáticas. Los
escépticos hacen esto porque consideran que las causas son incognoscibles, y que el formalismo
matemático es arbitrario; los racionalistas en física lo hacen porque mantienen que las causas
fundamentales son no-físicas, y que las leyes de la naturaleza pueden ser comprendidas al
margen de cualquier contacto sensorial con el mundo físico.
A menudo se dice que Platón preparó el camino para la revolución científica, al enfatizar el valor
de las matemáticas. Pero esa afirmación ignora la esencia del punto de vista de Platón. La
matemática es correctamente valorada por ser una herramienta para captar las leyes causales del
mundo físico; Platón, en cambio, valoraba las matemáticas como un medio de sacar a la mente
del mundo físico y llevarla al mundo de las Formas. Según su perspectiva, las ideas matemáticas
no provienen del mundo físico, y no se aplican a éste más que de forma aproximada. Esas ideas
son innatas en nosotros, las tenemos desde que nacemos, y sus referentes existen en una
dimensión extrasensorial, no-física. Se supone que las matemáticas son una ciencia perfecta que
consiste en conocimiento puro, inmaculado y sin ninguna dependencia del mundo físico.
Esta visión fue un enorme obstáculo que la revolución científica tuvo que sortear. Avanzar en la
ciencia exigía la perspectiva anti-platónica de que el mundo físico es perfecto, es decir, que es
completamente real y digno del estudio más minucioso, y que la matemática es el lenguaje para
expresar las conexiones causales en el mundo. Esta fue la idea que motivó a Kepler y a Galileo a
dedicar décadas a la búsqueda de las leyes matemáticas exactas que gobiernan la naturaleza,
mientras se negaban a aceptar que hubiera inconsistencias entre sus principios y los datos
sensoriales.
Trágicamente, Kepler tenía ideas conflictivas en cuanto a la naturaleza del conocimiento en
general, y a las matemáticas en particular. Él fue quien le abrió la puerta a la ciencia moderna,
pero sólo puso un pie fuera. Lo que le retuvo fue una lealtad parcial a una versión cristianizada
del platonismo. Atenazado por este punto de vista, buscó causas en la mente de Dios en vez de
buscarlas en la naturaleza de las entidades físicas, aceptó especulaciones ridículas basadas en la
“intuición”, y toleró las brechas que aparecían entre la teoría y la observación. Así, Kepler se
quedó con un pie delante en la Edad de la Razón, y un pie detrás en la Edad Media. Al hacer
esto, es un caso de estudio único. En la sección anterior vimos los resultados de su primer
método; ahora vamos a fijarnos en su segundo método y sus resultados.
El Kepler platónico estaba guiado por la creencia de que el mundo físico había sido creado por
una mente Divina, que las ideas matemáticas de Dios son innatas en nosotros, y que el propósito
de estudiar el universo físico es tal que “el pensamiento del Creador sea reconocido en su
naturaleza, y que Su inagotable conocimiento siga brillando con más intensidad.”18 Por eso, sus
explicaciones se apoyaban en apelaciones a la perfección y a la belleza estética de los planos del
universo diseñados por Dios. Consideraba que las matemáticas son independientes del mundo
físico, y anteriores a él. “Las cosas matemáticas son las causas de lo físico,” escribió Kepler,
“porque Dios, desde el principio de los tiempos, llevó dentro de sí, en abstracción simple y
divina, las cosas matemáticas como prototipos para las cantidades planeadas materialmente.19
Cuando Kepler siguió este enfoque, se saltó la física y fue directamente a su supuesto origen: al
amor que tiene Dios por las regularidades matemáticas.
Un ejemplo de cómo afectó el platonismo a la astronomía de Kepler puede encontrarse en su
primer libro, El misterio cósmico, publicado en 1596. Los matemáticos griegos habían
descubierto que hay cinco figuras geométricas sólidas y simétricas que pueden ser construidas a
partir de superficies planas idénticas y regulares (un ejemplo es el cubo, formado por seis
cuadrados idénticos). Estas figuras, llamadas sólidos regulares, se tenían en alta estima por la
perfección de su simetría. Las órbitas planetarias, pensó Kepler, deben haber sido dispuestas por
Dios de forma que las cinco figuras geométricas perfectas encajen entre ellas, lo cual implica que
debe haber seis planetas, y sólo seis.
Escogiendo cuidadosamente qué figura debía encajar entre cada par de planetas adyacentes,
Kepler llegó a un esquema que aproximaba muy someramente los tamaños relativos de las
órbitas (el error era en promedio de más del 20%). Como platónico que era, Kepler fue más
tolerante con las discrepancias en las observaciones; después de todo, Platón había hecho
hincapié en que el mundo físico es un reino imperfecto. Así que, a pesar de la imprecisión del
modelo, Kepler declaró emocionado que había descubierto la base matemática del plan de Dios.
Más adelante, Kepler llevó este enfoque a otro nivel al relacionar aspectos de las órbitas
planetarias con tonos musicales, intentando entender el sistema solar como una sinfonía celestial
escrita y dirigida por Dios. Los antiguos pitagóricos habían descubierto las regularidades
matemáticas en las armonías musicales; Kepler trató de relacionar esas armonías con la
estructura del sistema solar. Por ejemplo, encontró que la relación entre las velocidades angulares
mínima y máxima de Saturno es aproximadamente 4:5, lo que corresponde al acorde musical
conocido como tercera mayor. De forma parecida, la relación entre las velocidades angulares
mínima y máxima de Júpiter corresponde a un acorde de tercera menor; la de Marte representa
una quinta, y así con los demás. Entonces comparó las velocidades angulares extremas de
diferentes planetas e intentó construir los intervalos de la escala musical completa. Finalmente,
declaró que cuando varios planetas están a la vez en los puntos extremos de sus respectivas
órbitas, este esquema da lugar a un motete donde cada planeta canta la parte que le corresponde.
Kepler concluyó:
Los movimientos celestiales no son más que una canción continua a varias voces
(percibida por el intelecto, no por el oído)…. No debe sorprendernos, por tanto, que el
hombre, imitando a su Creador, haya descubierto por fin el arte de la canción
simbolizada, algo que desconocían los antiguos. El hombre quería…participar de este
deleite haciendo música a imitación de Dios.20
Esta teoría musical del cosmos fue publicada en un libro titulado La armonía del mundo. En una
explicación del concepto de Kepler de “armonía”, un historiador escribe:
El sentimiento de armonía surge cuando ocurre una correspondencia entre el orden
percibido y el arquetipo innato asociado. El propio arquetipo es parte de la mente de
Dios y fue grabado en el alma humana por la Divinidad cuando Él creó al hombre a su
imagen y semejanza. La afinidad con la doctrina de Platón de las formas ideales es
clara.21
Un resultado especialmente llamativo de las premisas filosóficas contradictorias de Kepler puede
encontrarse en sus ideas sobre la causa de las mareas oceánicas. Como científico, partió de la
evidencia observacional y buscó una causa física. La correlación entre las mareas y la órbita de la
Luna le llevó a la idea correcta de que la causa de las mareas es una fuerza atractiva que la Luna
ejerce sobre los océanos de la Tierra. Sin embargo, cuando consideró el mismo problema desde
la perspectiva de su misticismo platónico/cristiano, buscó una causa espiritual. Conjeturó que
Dios dotó a los planetas con alma, y explicó las mareas oceánicas como un resultado de la
respiración del cuerpo animado de la Tierra. Las dos explicaciones son polos opuestos, tan
opuestos como las ideas filosóficas que llevaron a ellos. “Dos Keplers, por así decir, se enfrentan
cara a cara,” escribe su biógrafo, Max Caspar. “Ambos persiguen hasta sus últimas
consecuencias un pensamiento que han atrapado, o que, al contrario, les ha atrapado a ellos. Con
uno de los Kepler estaba el pensamiento de la gravitación, y con el otro el del alma de la Tierra.
Entonces van y chocan. ¿Qué pueden decirse el uno al otro? La contradicción queda sin
resolver.”22 Ahí tenemos el espectáculo de una mente grandiosa pero en conflicto, arrastrada
simultáneamente en direcciones opuestas, donde un camino lleva a descubrimientos clave y el
otro es un callejón sin salida.
El legado de Kepler significa mucho más que sus tres leyes del movimiento planetario.
Siguiendo dos métodos opuestos y mostrándonos los resultados, él, sin saberlo, llevó a cabo un
experimento en filosofía de la ciencia. Específicamente, analizó la naturaleza de las matemáticas:
¿son la clave para captar conexiones causales en este mundo, o son la llave a un mundo
sobrenatural de abstracciones?
Los resultados de este experimento no podrían haber sido más claros.
El poder de las matemáticas

¿Qué conocimiento de astronomía es posible sin las matemáticas?


Podemos echar una mirada atrás hasta los inicios de la historia documentada en busca de una
respuesta. Los antiguos pastores babilonios conocían las constelaciones de estrellas y podían
describir sus movimientos anuales, y podían además describir toscamente las posiciones
cambiantes del Sol, la Luna y los planetas. Por ejemplo, un pastor bien informado podría decir:
Marte está ahora en la constelación X, un poco por encima y al este de la estrella Y; seguirá
moviéndose despacio hacia el oeste durante más o menos dos lunas llenas, y después seguirá su
rumbo habitual hacia el este.
Observemos que incluso ese antiguo pastor no podía escapar de las matemáticas completamente;
la descripción anterior incluye una medida de tiempo en la que el movimiento de Marte se
compara cuantitativamente con las fases de la luna. El pastor usaba el cielo como brújula y como
reloj, e incluso su primitivo conocimiento tenía que ser cuantificado para que pudiera servirle de
algo. Sin embargo, su uso de la matemática era mínimo (lo usaba para hacer cuentas básicas), y
el estado de su conocimiento es una muestra de hasta dónde se puede llegar sin instrumentos de
medida y sin matemáticas superiores.
Está claro que el conocimiento del pastor no puede ser considerado ciencia; más bien consistía
en observaciones inconexas, sin llegar a comprender las causas. Una ciencia es un cuerpo
integrado de conocimiento, y en las ciencias naturales esa integración es posible gracias a las
matemáticas. En astronomía, el proceso empieza cuando los datos observacionales son
expresados en términos de números que denotan latitudes y longitudes de cuerpos celestes (en
tiempos especificados numéricamente). Estos números (por ejemplo, los datos de Brahe) son
integrados después mediante una teoría causal (por ejemplo, la teoría de Kepler del sistema
solar). Un experto ha resumido con elocuencia la esencia de lo que Kepler hizo con las medidas
de Brahe: “Kepler le puso orden a ese caos. Él había buscado asiduamente leyes que unieran a
esos números, para que dejaran de estar juntas y sin relacionar, y en cambio que cada una de
ellas pudiera ser calculada a partir de la otra.”23 El caos se transformó en orden, primero al
expresar las observaciones numéricamente, y luego al usar la geometría y el álgebra para deducir
relaciones numéricas adicionales, y finalmente llegando a ecuaciones que son las leyes del
movimiento planetario. Todo el proceso era ahora matemático de principio a fin.
Sólo a través de las matemáticas pudo Kepler relacionar las posiciones y los movimientos de los
cuerpos celestes. Volvamos a fijarnos en sus leyes y examinémoslas desde esa perspectiva.
La ley de las órbitas elípticas establece una relación que puede escribirse así (ver Figura 8):
r = a + c (cos β)
donde
r = la distancia entre el planeta y el Sol,
a = el semieje mayor,
c = la distancia del Sol al centro de la elipse, y
β = el ángulo formado por la línea de ápsides y la línea que une el centro con el punto del
círculo de mayor radio que está directamente en la vertical del planeta.

Figura 8. Kepler descubrió que la órbita de Marte se describe mediante la ecuación r=


a + c (cos β), que representa una elipse con el Sol en uno de los focos.
La ecuación expresa una relación numérica entre dos variables: la distancia r y el ángulo β (los
demás términos son constantes). En el proceso de razonamiento de las observaciones a la ley,
Kepler descubrió primero esta ecuación y sólo más tarde se dio cuenta de que describe una
elipse, con el Sol en un foco. A principios del siglo XVII, las ecuaciones algebraicas que
describen figuras geométricas aún no se conocían. Para poder entender el sistema solar, Kepler
se dio cuenta de que era necesario liderar la rama de las matemáticas que más adelante sería
conocida como geometría analítica.
Hay que tener en cuenta que no hay ninguna relación entre esas distancias y esos ángulos que
pueda observarse y describirse cualitativamente. Ni la distancia r ni el ángulo β son observables
de forma directa; ambos son accesibles cognitivamente sólo por medio de una larga y compleja
cadena de deducciones matemáticas (partiendo de observaciones, por supuesto).
Consideremos ahora la ley de las áreas de Kepler. Para pequeños cambios en la posición del
planeta, la ley puede expresarse así:
r² (Δθ) = constante (Δt)
donde
Δθ = variación de la dirección de la línea que une Sol y planeta, y
Δt = intervalo de tiempo durante el cual el planeta se ha movido.
Así es como Kepler usó la ley para construir la órbita de Marte. Con un modelo que
proporcionaba valores de r, esta ecuación le permitió calcular el cambio en la posición angular
durante cualquier intervalo de tiempo (lo cual hizo sumando laboriosamente los cambios durante
intervalos pequeños de tiempo). Y, de nuevo, la ley relaciona dos variables (r y θ) de las que no
tenemos constancia excepto por medio de la matemática.
Recordemos la forma en que las dos leyes anteriores se complementaron la una a la otra en el
proceso de descubrimiento. Mientras estaba desarrollando su modelo de la órbita terrestre,
Kepler llegó a la ley de las áreas sin saber si era una verdad exacta o sólo una buena
aproximación. Luego usó esa ley para predecir posiciones angulares de Marte y compararlas con
las posiciones angulares observadas. Esto reveló errores de 8 minutos de arco en el modelo
circular de la órbita de Marte, lo cual le llevó a descubrir que las órbitas planetarias son elipses.
Finalmente, después de descubrir la forma de la órbita de Marte, Kepler demostró que la ley de
las áreas es, de hecho, exacta. De este modo, las leyes se descubrieron juntas, cada una de ellas
formando parte de la validación de la otra.
Y, lo que es más importante, el papel de las matemáticas en este proceso de descubrimiento fue
fundamental. Los astrónomos no empezaron captando la estructura del Sistema Solar de alguna
forma somera y cualitativa, y luego utilizando las matemáticas para rellenar los detalles
cuantitativos. Fue al revés: Los detalles cuantitativos—como aquellos pequeños errores de 8
minutos de arco—fueron los que llevaron a captar los principios esenciales.
Por último, consideremos la tercera ley de Kepler, que puede ser expresada así:
a³ / T² = constante (o sea, el mismo número para todos los planetas)
Recordemos que Copérnico había comparado las órbitas planetarias y había insistido en que
cuanto más alejado del Sol, más despacio se mueve un planeta. Sin embargo, un enunciado
cualitativo de ese tipo tiene poco valor salvo en tanto en cuanto motiva la búsqueda de una ley
matemática. Como veremos en el capítulo siguiente, la afirmación de Copérnico no le habría
servido de nada a Newton; pero, por otro lado, la tercera ley de Kepler sí le permitió a Newton
descubrir la gravitación universal. Una vez más, vemos a la matemática como un medio para
descubrir y expresar conexiones causales y, en última instancia, como el medio de integrar esas
leyes causales en una teoría fundamental.
Las matemáticas les permitieron a los fundadores de la ciencia moderna extraer el significado
completo de sus observaciones, y los resultados fueron a menudo muy sorprendentes. Esos
resultados están implícitos en las observaciones originales, pero sin matemáticas esas
implicaciones habrían permanecido ocultas para siempre.

La demostración de la teoría de Kepler

Aunque Kepler citó evidencias muy sólidas para respaldar sus leyes del movimiento planetario,
no pudo afirmar de forma válida que su teoría del sistema solar había sido demostrada.
El obstáculo para la demostración era el conflicto entre la astronomía y la física de Kepler.
Recordemos que él creía que el movimiento está causado por una fuerza en la dirección del
movimiento; concretamente, pensaba que la Tierra era empujada alrededor de su órbita por la
fuerza solar. Puesto que la Tierra se mueve muy deprisa, esa fuerza debe ser muy potente. Es
difícil imaginar cómo nosotros mismos podríamos estar siendo empujados por esa fuerza y no
sentirla sin observar algún efecto. Además, Kepler conjeturó que la fuerza solar es de naturaleza
magnética. Si eso fuera cierto, entonces todos los cuerpos no magnéticos (incluidos nosotros) se
quedarían atrás a medida que la Tierra magnética fuese empujada en la órbita. Así que Kepler no
pudo responder a las objeciones tradicionales al movimiento de la Tierra, y por tanto no
consiguió la integración de astronomía y física que era necesaria para demostrar su teoría.
La física de Galileo, por desgracia, no se publicó hasta después de la muerte de Kepler. Galileo
comprendió que las fuerzas causan cambios en el movimiento, no el movimiento en sí. Por tanto,
la Tierra, su atmósfera y sus habitantes pueden moverse a la vez a gran velocidad, sin estar
sujetos a una fuerza que los empuje y a sus efectos potencialmente catastróficos. Este fue uno de
los grandes logros de Galileo: proporcionó el fundamento de física que era necesario para que la
teoría heliocéntrica tuviese sentido.
Además, los descubrimientos que hizo Galileo con el recién inventado telescopio aportaron más
evidencias a favor de la teoría. Cuando dirigió su telescopio a Venus, observó un ciclo completo
de fases, lo que implica que Venus orbita alrededor del Sol (en contradicción directa con la teoría
de Ptolomeo). Descubrió que Júpiter era un sistema copernicano en miniatura, con cuatro lunas
más pequeñas orbitando alrededor del gran planeta. Además, su análisis de las manchas solares y
de los eclipses de las lunas de Júpiter aportó fuertes evidencias a favor del movimiento de la
Tierra. Estos descubrimientos se hicieron entre los años 1610 y 1613, inmediatamente después
de la publicación de las dos primeras leyes de Kepler.24
A pesar de las observaciones que Galileo hizo con el telescopio, y de su comprensión del
movimiento, tampoco él halló la demostración completa de la teoría heliocéntrica. Desdeñaba el
misticismo de Kepler, y cometió el trágico error de tirar el grano con la paja. Nunca entendió que
el otro lado de Kepler—el lado científico—había revolucionado la astronomía al descubrir las
leyes causales del movimiento planetario. Así que Galileo, en su esfuerzo por establecer la teoría
heliocéntrica, siguió defendiendo a Copérnico, a pesar de que la teoría copernicana conservaba
rasgos arbitrarios y no causales, como los epiciclos, y por tanto nunca pudo ser demostrada.
Así, hubo un breve periodo (de unas tres décadas) en el que la teoría de Kepler sobre el Sistema
Solar se encontró en un estatus peculiar: las piezas necesarias para llegar a una demostración
completa habían sido descubiertas, y sin embargo nadie había captado todas las piezas y las
había integrado. Esa integración se consiguió por fin en las décadas de 1640 y 1650, a medida
que los científicos fueron aceptando las leyes tanto de Galileo como de Kepler.
Ahora todo estaba listo para que entrase en escena Isaac Newton.
4. La integración de Newton

Galileo y Kepler barrieron y apartaron los viejos escombros conceptuales y sentaron los
cimientos de la ciencia moderna. Las artificiales categorías de movimiento “natural” y
“violento”, el extraño montaje celestial de círculos sobre círculos excéntricos dirigidos por
puntos vacíos, todo esto se recogió y se guardó para dejar sitio a una nueva estructura, construida
mediante el nuevo método experimental y matemático. Hemos visto las primeras piezas de esta
nueva estructura: la cinemática de Galileo y la astronomía de Kepler.
Hemos visto también los primeros pasos hacia la integración de las ciencias de la física y la
astronomía. La Tierra había sido identificada como un planeta, y el telescopio mostró que
algunos cuerpos celestes tienen características similares a las de la Tierra: nuestra luna tiene
montañas y valles, Júpiter tiene lunas, y el Sol gira sobre sí mismo. En cualquier caso, en esta
etapa tan temprana la conexión entre el ámbito terrestre y el celestial era tenue. Aunque Galileo
había utilizado la “relatividad del movimiento” para explicar el movimiento de la Tierra, no
había nada más que conectara sus leyes del movimiento terrestre con las leyes de Kepler del
movimiento planetario.
¿Cómo identifica uno las conexiones fundamentales que existen entre fenómenos que parecen
tan radicalmente distintos, por ejemplo, entre una manzana que cae o el peso de un péndulo
oscilando, y un planeta orbitando en una elipse? La clave era descubrir una teoría matemática
que relacionara los movimientos con las fuerzas que los causan. Esa tarea era
extraordinariamente ambiciosa; además de necesitar nuevos experimentos cruciales y datos
astronómicos más precisos, sería necesario el desarrollo de nuevos conceptos y métodos
matemáticos. Cuando por fin se completó, la moderna ciencia de la física había sido creada, y los
cuerpos celestes, regidos por sus leyes, ocuparon su lugar en la nueva ciencia.

El desarrollo de la dinámica

Newton empezó con un problema lo bastante simple para ser resuelto, pero lo bastante
complicado como para aportar nuevos e importantes avances. Empezó por analizar la forma de
movimiento que los griegos habían considerado perfecta: el movimiento circular uniforme. En
cierto sentido, era perfecto: perfecto para exponer los errores de los predecesores de Newton y
para iluminar los principios de una nueva dinámica.
Como vimos en el Capítulo 2, Galileo nunca se dio cuenta de que los cuerpos se mueven con
velocidad constante y en línea recta, en ausencia de fuerzas externas. Al no tener el concepto de
“gravedad”, sugirió que el movimiento horizontal a velocidad constante era a fin de cuentas un
movimiento en círculo alrededor de la Tierra, un movimiento que Galileo pensaba que podía
producirse en ausencia de fuerzas externas. Y como vimos en el capítulo 3, Kepler nunca llegó a
entender que todo movimiento es el resultado de una fuerza externa que empuja en la dirección
del movimiento. Newton, en su análisis del movimiento circular, identificó y rechazó estos dos
errores.
Antes de Newton, el caso de la Luna rodeando a la Tierra se consideraba como algo totalmente
distinto al caso de un halcón rodeando a su presa. Newton, sin embargo, subió hasta un nivel de
abstracción que trataba estos dos fenómenos como siendo lo mismo; su objetivo fue analizar el
movimiento circular como tal, y aplicar lo que encontrase a cualquiera y a todos los casos de
éste. Su enfoque queda bien expresado en la máxima que después llamaría una “regla de
razonamiento”: “A los mismos efectos naturales debemos, en la medida de lo posible, asignarles
las mismas causas.”1
Gran parte de lo que motivó a Newton a estudiar el movimiento circular fueron las órbitas
planetarias, que son casi circulares. Pero él no empezó su análisis estudiando los planetas;
empezó con casos en los que la causa del movimiento es mucho más fácil de identificar. Estudió
un peso atado al extremo de una cuerda al que se le hace dar vueltas en círculo, y una bola
rodando en círculos dentro de un cuenco. En estos casos, ¿cuál es la causa del movimiento
circular? Para el peso, es la tensión de la cuerda; la persona que sostiene la cuerda tiene que tirar
hacia dentro. En el momento en que la suelta, el peso ya no se moverá en círculo, sino que saldrá
volando horizontalmente en línea recta (al mismo tiempo que la fuerza de la gravedad tira de él
hacia la Tierra). En el caso de la bola en el cuenco, el movimiento circular lo causa la presión
hacia dentro que ejerce la superficie del cuenco. Si la bola se sale del cuenco, saldrá volando,
inicialmente también en línea recta. En ambos casos el movimiento circular uniforme del cuerpo
es mantenido por una fuerza constante en dirección al centro del círculo.
En un cuaderno, Newton escribió una versión inicial de lo que más tarde se convirtió en su
primera ley del movimiento: “Una cantidad siempre continuará moviéndose en la misma línea
recta (sin cambiar la determinación o celeridad de su movimiento) a no ser que alguna causa
externa la desvíe.”2 La causa externa es una fuerza, o sea, algún tipo de empujón o tirón.
Newton se dio cuenta de que era crucial distinguir entre el tipo de movimiento al que da lugar
una fuerza y el que puede ocurrir en ausencia de esa fuerza. Los conceptos del movimiento que
utilizó Galileo no eran los adecuados para este objetivo. Recordemos la definición que dio
Galileo de “aceleración constante”, aplicada sólo al caso del movimiento en una dirección fija.
Para él, aceleración significaba cambio de velocidad. En el caso del movimiento circular
uniforme, la velocidad del cuerpo es constante, y por tanto su “aceleración galileana” es cero. Sin
embargo, hay algo esencialmente igual en los casos de aceleración que estudió Galileo y en el
caso del movimiento circular uniforme: en ambos hay un cambio en el movimiento que resulta
de aplicar una fuerza sobre el cuerpo. Era necesario un concepto expandido de “aceleración” para
integrar estos casos.
Para estudiar y comprender los efectos de las fuerzas, el movimiento tenía que ser caracterizado
en términos tanto de su magnitud como de su dirección. De este modo se formó el concepto de
“velocidad” (vectorial) [N. del T.: en inglés velocity. Se traduce al castellano igual que speed,
utilizado para denotar una velocidad sin dirección; en adelante, por “velocidad” debe entenderse
este nuevo concepto direccional], y el concepto de “aceleración” quedó definido entonces como
el ritmo de variación de la velocidad. Tanto la velocidad como la aceleración son cantidades
vectoriales, es decir, son integraciones de magnitud y dirección. La formación de estos conceptos
fue un paso revolucionario que hizo posible la ciencia de la dinámica.
Armado de estos conceptos, Newton pudo preguntarse: ¿Cuál es la aceleración de un cuerpo que
se mueve con velocidad constante en un círculo? Por simetría, sabía que la aceleración es
constante y que apunta siempre al centro del círculo. Pero ¿cuál es su magnitud? Consideró un
corto intervalo de tiempo en el que el cuerpo recorre un pequeño arco del círculo. Durante ese
tiempo, el cuerpo se ha desviado una pequeña distancia d respecto de un camino recto. Para los
casos de aceleración constante, Galileo había indicado la ley matemática que relaciona la
distancia d con la aceleración y con el intervalo de tiempo. Usando la ley de Galileo y la
geometría clásica, Newton pudo derivar una ecuación que expresaba la aceleración como función
de la cuerda del arco, del intervalo de tiempo, y del radio del círculo.
En su siguiente paso, Newton hizo uso de un nuevo concepto—el concepto de “límite”—que está
en la base del cálculo, la rama de las matemáticas que él había descubierto. A medida que aquel
intervalo de tiempo se hace cada vez más pequeño, la cuerda del arco está más cerca de ser igual
al propio arco. En el “límite”, o sea, a medida que el intervalo de tiempo se aproxima a cero, la
proporción entre la longitud de la cuerda y la longitud del arco se aproxima a uno. Por tanto, en
este límite la cuerda puede remplazarse por el arco. Newton hizo esa sustitución y llegó a su ley
del movimiento circular uniforme: la magnitud de la aceleración en cualquier punto del círculo
es igual al cuadrado de la velocidad del cuerpo dividida entre el radio del círculo.
Newton no asumió nada acerca de la naturaleza específica de la fuerza que causa esta
aceleración. Su análisis se apoyó sólo en el hecho de que una fuerza desvía a un cuerpo de
moverse en línea recta a velocidad constante, y por eso para estudiar las fuerzas hay que definir
la aceleración como se indica arriba. Por tanto, su ley no está sujeta a restricciones sobre la causa
física que opera en un caso concreto; se aplica a cualquier cuerpo que se mueva uniformemente
en círculo.
Fue en esta etapa cuando Newton dirigió su atención hacia los planetas. Si las órbitas son
aproximadamente circulares, y si expresamos la velocidad como función del radio y del periodo,
entonces la ley de Newton implica que la aceleración de un planeta es proporcional a su radio
orbital dividido entre el cuadrado de su periodo. Entonces recordó que, según la tercera ley de
Kepler, el cuadrado del periodo es proporcional al cubo del radio. Combinando estas dos
relaciones derivó un resultado extraordinario: el Sol ejerce una fuerza atractiva sobre cada
planeta, causando aceleraciones que son inversamente proporcionales al cuadrado de la distancia
de cada planeta al Sol.
A continuación se centró en la Luna y en su órbita aproximadamente circular alrededor de la
Tierra. Newton sabía que este movimiento implica que la Tierra ejerce una fuerza atractiva sobre
la Luna. Como siempre estaba intentando conectar hechos dispares pero relacionados, a Newton
se le ocurrió preguntarse: ¿Tiene la fuerza atractiva de la Tierra la misma naturaleza que la
fuerza solar, es decir, causa aceleraciones que también varían con el inverso del cuadrado de la
distancia? Si la Tierra tuviera múltiples lunas a diferentes distancias, la pregunta podría ser
respondida comparando las diferentes aceleraciones. Pero sólo tenemos una luna; así que ¿cómo
pudo Newton determinar cómo varía la aceleración con la distancia?
La respuesta está en el concepto mismo de aceleración. El concepto identifica una similitud
esencial entre el movimiento circular uniforme y la caída libre: un cuerpo en movimiento circular
está cayendo continuamente respecto de un camino recto, y acelerando hacia el centro del
círculo. Así, la Luna cae hacia la Tierra con aceleración constante, de la misma forma en que cae
un cuerpo que se suelta cerca de la superficie de la Tierra. Galileo había estudiado la caída libre
terrestre, y esa aceleración era la que Newton podía comparar con la de la Luna. He aquí un
ejemplo histórico de un concepto funcionando como luz verde para la inducción. La
comparación legendaria de Newton entre la Luna y la manzana cayendo la exigió el concepto
vectorial de aceleración (al que llegó inductivamente).
Eran conocidas las cantidades que hacían falta para hacer la comparación. La distancia de la
manzana al centro de la Tierra es un radio terrestre, y la distancia a la Luna son sesenta radios
terrestres. Si la aceleración varía con la inversa del cuadrado de la distancia, entonces la
aceleración de la manzana será mayor que la aceleración de la Luna en un factor de (60)².
Utilizando datos aproximados de la caída libre y del tamaño de la Tierra, Newton calculó la
relación de aceleraciones y encontró una concordancia aproximada con la ley de la inversa del
cuadrado. La gravedad terrestre parecía ser la misma fuerza que mantiene a la Luna en su órbita,
y la misma que el Sol ejerce sobre los planetas. El sueño de Kepler de llegar a una ciencia
integrada que abarcase a la física y a la astronomía había dejado de ser un sueño; con este
cálculo, se había convertido en una posibilidad real.
Este fue el nacimiento de la idea de la gravitación universal, pero estaba lejos de ser una
demostración de ésta. En esta temprana etapa, Newton tenía muchas más preguntas que
respuestas. Por ejemplo ¿qué pasa con el hecho de que las órbitas reales sean elipses y no
círculos? Y ¿cómo se justifica usar un radio terrestre como distancia entre la manzana y la
Tierra? Gran parte de la Tierra está más cerca de la manzana, y gran parte está más lejos; ¿por
qué iba la Tierra a atraer desde el centro? Y lo que es más, si la gravedad es realmente universal
y cada trozo de materia atrae al resto de materia, las implicaciones y complejidades son
abrumadoras. Por ejemplo, ¿qué efecto tiene la atracción de la Luna sobre la Tierra, o la
atracción del Sol sobre la Luna, o la atracción de un planeta sobre los otros planetas? ¿Y qué
pasa con cuerpos extraños como los cometas, que se mueven de forma tan distinta?
La principal dificultad a la que se enfrentaba Newton no era que esas preguntas no tuvieran
respuesta en ese momento. La dificultad era que aún no podían ser respondidas; no podían serlo
sin una comprensión mucho más profunda de la relación entre fuerza y movimiento. Una cosa es
decir que hace falta tirar o empujar para que varíe la velocidad de un cuerpo, y otra muy distinta
es lograr identificar la ley matemática exacta que relaciona la fuerza externa con la aceleración
del cuerpo, y otra más, distinta a la anterior, es identificar una ley que nos diga qué le pasa al
cuerpo que ejerce la fuerza. Newton estaba sólo empezando a desarrollar las herramientas
cognitivas que iba a necesitar para demostrar la gravitación universal.
Hemos visto cómo Newton entendió que la velocidad de un cuerpo permanece constante en
ausencia de una fuerza externa, lo que constituye su primera ley del movimiento. Ahora sigamos
los principales pasos en el razonamiento que llevaron a sus leyes segunda y tercera del
movimiento.
El concepto de “fuerza” se origina en las sensaciones de presión que experimentamos
directamente cuando sujetamos un peso o cuando empujamos o tiramos de un cuerpo. La fuerza
tiene magnitud y dirección, y los científicos aprendieron a medir la magnitud usando pesos,
balanzas y escalas de muelles. El concepto de “aceleración”, en cambio, es un desarrollo más
avanzado. Galileo fue el primero en explicar cómo se podía calcular la aceleración lineal a partir
de medidas de tiempo y distancia, y ahora hemos visto cómo el concepto se expandió de una
cantidad escalar a una vectorial. En esta etapa, cuando Newton se pregunta por la relación
matemática entre fuerza y aceleración, ambas cantidades están definidas con claridad y son
medibles separadamente.
Además, un factor clave ya había sido descubierto. La fuerza es directamente proporcional a la
aceleración, y eso había sido demostrado a través de experimentos en los que se conocía la
variación en la fuerza y se medían las aceleraciones resultantes. Las investigaciones de Galileo
sobre la bola que rueda por un plano inclinado fueron los primeros experimentos de este tipo.
Galileo describió un proceso para medir directamente la fuerza sobre la bola.3 Primero, dijo, se
ata la bola con una cuerda a un peso conocido y se fija una polea en lo alto del plano inclinado.
Luego se coloca la bola en el plano inclinado con la cuerda pasando por la polea y el peso
colgando verticalmente. Después se ajusta el peso hasta que equilibre exactamente a la bola; ese
peso es la fuerza sobre la bola en la dirección de su movimiento por el plano, que ahora está
impedido. El resultado de esta medida es lo que cabe esperar: la fuerza sobre la bola es
simplemente la componente de su peso en la dirección del plano inclinado, es decir, es el peso de
la bola multiplicado por la relación entre la altura y la longitud del plano.
Por tanto, podemos cuadruplicar la fuerza sobre la bola simplemente cuadruplicando la altura del
plano (manteniendo igual la longitud). Si hacemos eso, vemos que el tiempo de caída es la mitad
que antes, lo que implica que la aceleración se ha cuadruplicado; es decir, ha aumentado en el
mismo factor que la fuerza. Como alternativa, utilizando el método de Galileo para medir la
velocidad final de la bola (ver Capítulo 2), podemos demostrar por experimentación que la altura
inicial es proporcional al cuadrado de la velocidad final. Con un poco de álgebra básica se puede
mostrar que esta relación también implica que la fuerza es directamente proporcional a la
aceleración.
El péndulo proporciona otro experimento que lleva a la misma conclusión. El periodo de un
péndulo cicloidal es independiente de la amplitud, y puede demostrarse matemáticamente que
este hecho implica también una proporcionalidad directa entre la fuerza y la aceleración. Puesto
que los experimentos del plano inclinado y el péndulo eran bien conocidos, Newton dio por
sentada esa proporcionalidad y nunca se molestó en presentar una demostración inductiva
detallada.
Por supuesto, él aún no tenía una ley del movimiento en forma de ecuación. Faltaba todavía un
concepto, y uno puede notar la frustración de Newton en algunas de sus primeras notas. En cierto
momento, escribió: “En lo que el cuerpo A es al cuerpo B debe ser el poder de la eficiencia,
vigor, fortaleza o virtud de la causa que engendra la misma cantidad de velocidad....”4 Mientras
escribía, Newton debió estar preguntándose: ¿Qué es exactamente lo del cuerpo A que es al
cuerpo B? Nadie había formado aún un concepto claro de “masa”.
Los griegos habían sugerido que toda la materia está imbuida de “peso” o de “ligereza”. Se decía
que los elementos tierra y agua son intrínsecamente pesados, mientras que los elementos aire y
fuego son intrínsecamente ligeros. Se consideraba que estas propiedades eran la causa del
movimiento natural, el vertical. El concepto griego inválido de “ligereza” fue una luz roja que
impidió que cualquiera descubriera el hecho de que toda la materia tiene la propiedad “masa”. En
1643, Evangelista Torricelli llevó a cabo un experimento clave que eliminó esta luz roja del
camino de la física moderna.
Torricelli buscaba explicar un hecho que los ingenieros de minas conocían bien: una bomba no
puede elevar agua más de 10.4 m por encima de su nivel natural. La primera pregunta que se
hizo Torricelli fue: ¿Por qué funciona, de hecho, una bomba de agua? En otras palabras: cuando
el extremo de un tubo se introduce en el agua y se saca aire del tubo, ¿por qué se eleva el agua en
su interior? La respuesta comúnmente aceptada era que “la naturaleza odia el vacío”, pero esta
respuesta implica que la ausencia de materia en el tubo es la causa de que el agua se mueva, es
decir “la nada” está literalmente tirando del agua hacia arriba en el tubo. Para Torricelli era obvio
que quien intentaba explicar el efecto haciendo referencia a la nada no estaba, de hecho,
explicando nada.
En vez de eso, Torricelli identificó algo que sí explicaba el efecto: el peso del aire que presiona
la superficie del agua. Cuando se retira el aire del tubo, la atmósfera exterior, que está
presionando la superficie del agua, la empuja hacia arriba por el tubo. Es parecido a la acción de
una palanca: un peso de aire elevará la misma cantidad de agua (por unidad de área de la
superficie). Por ello, el peso de toda la atmósfera sobre una superficie concreta debe ser igual al
peso de 10.4 m de agua sobre esa superficie.
La idea de Torricelli implicaba que la presión del aire levantaría el mismo peso de cualquier
fluido. Por ejemplo, 0.76 m de mercurio pesan lo mismo que 10.4 m de agua; por tanto, cuando
un tubo en el que se ha hecho el vacío se introduce en un recipiente con mercurio, el mercurio
debería elevarse 0.76 m en el tubo. Torricelli hizo el experimento y observó que eso era
exactamente lo que ocurría. Observemos que aquí usó el método de la concordancia: la misma
causa (o sea, el mismo peso de aire) lleva al mismo efecto (es decir, eleva el mismo peso de
fluido). Los experimentos posteriores de Blaise Pascal y Robert Boyle emplearon el método de la
diferencia para llegar a la misma conclusión. Esos experimentos demostraron que disminuir la
cantidad de aire por encima de la superficie del fluido daba lugar a una menor elevación del
fluido en el tubo; o sea, que a medida que eliminamos la causa, el efecto desaparece.
Así, quedó demostrado que incluso el aire tiene peso. En contra de lo que decían los griegos, no
hay tal propiedad como una “ligereza” absoluta. Cuando algo se eleva en el aire, lo hace porque
es menos pesado que el aire que lo desplaza. En otras palabras, esta elevación “natural” la
explica el principio de flotabilidad de Arquímedes, un principio que se aplica tanto al aire como
al agua. Después de los trabajos de Torricelli, los científicos aceptaron el hecho de que toda la
materia tiene un peso.
El siguiente paso era aclarar el significado de “peso”. Los griegos habían considerado el peso
como una propiedad intrínseca de un cuerpo. Sin embargo, pesar un cuerpo es medir la magnitud
de su “empuje hacia abajo”, y eso depende de algo más que del propio cuerpo. Como hemos
visto, Newton se dio cuenta de que el peso es una medida de la atracción gravitacional de la
Tierra, y que esta fuerza varía según la posición del cuerpo con respecto a la Tierra. En la década
de 1670 se descubrieron evidencias adicionales que reforzaban esa conclusión. Dos astrónomos,
Edmund Halley y Jean Richer, descubrieron independientemente que los relojes de péndulo
oscilan más despacio cerca del ecuador que a altas latitudes, e infirieron correctamente que las
lentejas de los péndulos pesan menos cerca del ecuador. Por lo tanto, el “peso” surge de tres
factores: la naturaleza del cuerpo, la naturaleza de la Tierra, y la relación espacial entre ese
cuerpo y la Tierra.
Pero ¿cuál es la propiedad de un cuerpo que contribuye a que sea pesado? Newton la identificó
como la “cantidad de materia” del cuerpo, o su “masa”. Ese razonamiento usó tanto el método de
diferencia como el de concordancia. Primero, Newton consideró dos cuerpos sólidos del mismo
material, pesados en el mismo lugar. Los pesos resultan ser proporcionales a sus volúmenes de
forma precisa, y la constante de proporcionalidad es una característica invariante de cualquier
material puro e incompresible. Por tanto, el peso de un cuerpo es proporcional a su “cantidad de
materia”; al hacer doble el volumen hemos duplicado la cantidad de materia, y el peso es el doble
(método de la diferencia). Segundo, Newton consideró un material que pudiera ser comprimido,
como la nieve. Podemos pesar una cantidad de nieve, comprimirla para que ocupe un volumen
menor, y luego volver a pesarla. La cantidad de materia sigue siendo la misma, y encontramos
que el peso es el mismo (método de la concordancia).
A continuación, Newton se preguntó cómo la masa de un cuerpo afecta a su movimiento cuando
se aplica una fuerza. Es obvio que la masa afecta al movimiento; para causar una determinada
aceleración, hace falta una fuerza mayor para una cantidad mayor de materia (por ejemplo,
empujar un coche requiere más esfuerzo que empujar una bicicleta). Pero ¿cuál es la relación
exacta? Para responder a esta pregunta, necesitaba un experimento en el que la aceleración se
mantuviese constante mientras se variaban la masa de un cuerpo y la fuerza aplicada. Newton no
tuvo que ir muy lejos para encontrar esos experimentos: Galileo ya los había realizado cuando
investigaba la caída libre.
Desde lo alto de una torre, Galileo había soltado dos bolas de plomo que eran muy diferentes en
tamaño y en peso. Supongamos que la bola más grande tuviera un volumen diez veces mayor
que la bola pequeña; por tanto, su cantidad de materia, o masa, sería diez veces mayor. La fuerza
sobre cada bola es simplemente su peso; empleando una báscula o una balanza, podemos
determinar que el peso de la bola más grande es diez veces el peso de la pequeña. Así que,
considerando la bola grande en relación a la bola pequeña, hemos incrementado tanto la fuerza
como la masa en un factor de diez. Pero Galileo demostró que la aceleración en caída libre sigue
siendo la misma. Sabemos que la aceleración es exactamente proporcional a la fuerza, así que
debe ser inversamente proporcional a la masa de forma exacta (de forma que los factores 10 se
cancelen). Este resultado se corresponde con nuestra experiencia cotidiana; implica que para que
un cuerpo de mayor masa adquiera una aceleración específica es necesaria una fuerza
proporcionalmente mayor. Así, Newton llegó a su segunda ley del movimiento: la fuerza
aplicada es igual al producto de la masa del cuerpo por su aceleración, o F=mA.
El alcance de esta generalización es impresionante. Puede parecer increíble que Newton pudiera
llegar a una ley tan fundamental y que abarcara tanto, a partir de las observaciones y
experimentos que hemos descrito. Pero una vez que uno tiene la idea de agrupar bajo el concepto
de “fuerza” a todas las fuerzas que tiran y empujan, y de agrupar bajo el concepto de
“aceleración” a todos los cambios de velocidad, y de atribuir a todos los cuerpos una propiedad
llamada “masa”, y de buscar una relación matemática entre estas cantidades medidas; una vez
hecho eso, entonces unos pocos experimentos pueden ser suficientes para dar lugar a una ley. En
ese momento, sin embargo, la demostración de su ley universal aún no estaba completa. Ésta
depende no sólo de todo lo anterior, sino también de toda la evidencia presentada en esta sección
y en la siguiente; es decir, la ley es parte de una teoría que debe ser evaluada como un todo.
Hemos visto cómo descansa esta ley en el principio de Galileo de que todos los cuerpos caen con
la misma aceleración. Como este principio fue tan importante para su teoría del movimiento,
Newton exigió que fuese verificado mediante experimentos más precisos que los de Galileo.
Newton quiso demostrar, sin que hubiera lugar a dudas, que la masa inercial de un cuerpo—la
propiedad por la cual se resiste a acelerar—es exactamente proporcional a su peso.
Newton se dio cuenta de que el péndulo le ofrecía la forma de hacer esa demostración
experimental. Dedujo, a partir de F=mA, que la masa inercial del peso de un péndulo es
proporcional a su peso multiplicado por el cuadrado del periodo (suponiendo que la longitud del
péndulo se mantenga constante). Así, si el periodo es siempre el mismo para cualquier peso del
péndulo, entonces la masa inercial debe ser exactamente proporcional al peso. Usando un
pequeño recipiente como peso del péndulo, Newton varió tanto la masa como el material de los
pesos; llenó el recipiente con oro, plata, vidrio, arena, sal, madera, agua e incluso trigo. Todos
los pesos oscilaban con el mismo periodo, y llevó a cabo el experimento con mucho cuidado, de
forma que podría haber detectado fácilmente una diferencia de una parte en mil. (El creador de la
física moderna era un apasionado de las medidas precisas.)
Hasta ahora, Newton se había centrado en el movimiento de un cuerpo que está sujeto a una
fuerza aplicada. A partir de este momento, dirigió su atención a la fuerza misma y a su origen: la
fuerza la ejerce otro cuerpo. ¿Qué pasa con ese otro cuerpo?
Para responder a esta pregunta, Newton tenía que estudiar la interacción de dos cuerpos bajo
condiciones en las que las fuerzas eran conocidas, y en las que el movimiento subsecuente de
ambas podía ser medido con precisión. Diseñó el experimento perfecto empleando un péndulo
doble con pesos que chocaban. Usó péndulos con una longitud de 3 m, y midió cuidadosamente
y compensó los pequeños efectos de la resistencia del aire. Varió la masa de los dos pesos y sus
amplitudes iniciales, y después midió sus amplitudes finales después de la colisión.
Galileo había demostrado que la velocidad del peso de un péndulo en la parte más baja del
movimiento es proporcional a la cuerda del arco que ha recorrido. En el momento de la colisión,
por tanto, Newton conocía la velocidad relativa de ambos pesos. Además, a partir de sus medidas
de las amplitudes finales, podía calcular la velocidad relativa de los dos pesos justo después de la
colisión. Los resultados del experimento mostraron que la masa del primer peso multiplicada por
la variación de su velocidad es igual a la masa del segundo peso multiplicado por la variación de
su velocidad. Como la fuerza ejercida sobre cada peso es igual al producto de su masa por el
cambio en su velocidad, Newton había demostrado que los pesos ejercen, el uno sobre el otro,
fuerzas que son iguales en magnitud, y de sentidos opuestos.
Newton hizo este experimento con pesos de péndulo hechos de acero, de hierro, de corcho, e
incluso de lana muy apretada. Al elegir materiales, varió deliberadamente la dureza de los pesos
y de esa forma demostró que su ley se aplica tanto a colisiones elásticas como a inelásticas.
Como todas las colisiones caen en una de esas dos categorías, de ello se seguía la generalización:
cuando dos cuerpos ejercen fuerzas el uno sobre el otro por contacto directo, las fuerzas son
iguales en magnitud, y de sentidos opuestos.
Newton investigó a continuación el caso de las fuerzas sin contacto, o sea, de fuerzas que actúan
a distancia de forma imperceptible. Fijó un imán y algo de hierro a una pieza de madera, y
colocó la madera flotando sobre agua en calma. El imán y el hierro estaban separados una
pequeña distancia y cada uno ejercía una intensa fuerza atractiva sobre el otro. Sin embargo, la
madera no se movió, lo que implica que las dos fuerzas eran iguales en magnitud, y de sentidos
opuestos, dando lugar así a una fuerza neta nula.
¿Se aplica la ley también a cuerpos que se atraen gravitacionalmente entre sí? Newton respondió
que sí, y dio un argumento convincente. Como la Tierra atrae a todos los materiales de su
superficie, era razonable suponer (y eso fue demostrado más tarde) que cada parte de la Tierra
atrae a todas las demás partes. Así que consideremos la atracción mutua, digamos, de Asia y
Sudamérica. Si estas dos fuerzas no fueran iguales y opuestas, habría una fuerza neta sobre la
Tierra en su conjunto, y por lo tanto la Tierra causaría una aceleración sobre sí misma. Esta auto-
aceleración continuaría indefinidamente y llevaría a perturbaciones en la órbita de la Tierra. Pero
no se observan tales perturbaciones; al contrario, la aceleración de la Tierra está determinada por
su posición relativa con otros cuerpos (principalmente el Sol). Por tanto, las fuerzas atractivas
mutuas que ejercen dos partes cualesquiera de la Tierra deben ser iguales y opuestas. (Newton
pudo también haber señalado que las fuerzas que no se equilibran darían lugar a otros efectos no
observados, como por ejemplo asimetrías en la forma de la Tierra, y en las mareas.)
Llegado a este punto, Newton había mostrado que su ley se aplica a las fuerzas gravitacionales, a
las fuerzas magnéticas, a las colisiones elásticas, y a las colisiones inelásticas; es decir, había
acumulado evidencia en todo el rango de fuerzas conocidas, sin encontrar ninguna excepción. De
esa forma llegó a su tercera ley del movimiento: todas las fuerzas son interacciones entre dos
cuerpos, y esos cuerpos siempre ejercen fuerzas uno sobre el otro que son iguales en magnitud, y
opuestas en dirección.
Cuando se considera un solo cuerpo, el concepto de “velocidad” identificaba lo que permanecía
constante en ausencia de una fuerza externa (esta es la primera ley). En el caso de dos cuerpos
que interactúan, Newton identificó una “cantidad de movimiento” total que permanece constante
antes y después de la interacción. Esta cantidad, a la que hoy en día se le llama “momento
lineal”, es el producto de la masa de un cuerpo por su velocidad. La tercera ley de Newton
implica que la cantidad de movimiento total de dos cuerpos que interactúan permanece igual,
suponiendo que no haya fuerzas externas. Más aún, este principio de “conservación del momento
lineal” se aplica incluso a un sistema complejo de muchos cuerpos en interacción; al ser cierto
para cada interacción individual, es cierto también para la suma de ellas.
Después de formar el concepto de “cantidad de movimiento”, Newton pudo dar una formulación
más general de su segunda ley. En su forma final, que se aplica a un cuerpo o a un sistema de
cuerpos, esta ley establece que la fuerza externa neta es igual al ritmo de variación de la cantidad
de movimiento total. Esta forma de la ley puede aplicarse directamente a casos más complicados
(por ejemplo, si imaginamos dos cuerpos que chocan y explotan, convirtiéndose en muchos
cuerpos).
Newton concluyó que estas tres leyes del movimiento están íntimamente relacionadas. Hemos
visto que la tercera ley prohíbe la auto-aceleración de la Tierra, pero observemos que esa auto-
aceleración también queda prohibida por la primera y la segunda ley, que identifican la causa de
la aceleración como una fuerza externa. Dado el hecho de que las fuerzas son interacciones entre
dos cuerpos, para ser consistentes con la segunda ley es necesario que esas interacciones
cumplan la tercera ley. Las leyes nombran aspectos relacionados de una teoría integrada del
movimiento; ciertamente, cuando a la segunda ley se le da su formulación general, tanto la
primera como la tercera ley pueden ser consideradas como corolarios. Así, las leyes se refuerzan
mutuamente, y por tanto la evidencia experimental en favor de la tercera ley también cuenta
como evidencia en favor de la segunda ley.
He indicado los principales pasos a través de los cuales Newton indujo sus leyes del movimiento.
En su enunciado final, las leyes parecen engañosamente simples. Pero ahora podemos apreciar
que están muy lejos de ser auto-evidentes. Para llegar a ellas, Newton necesitó conceptos
complejos de nivel superior que no existían antes del siglo XVII, conceptos como “aceleración”,
“límite”, “gravedad”, “masa” y “cantidad de movimiento”. Necesitó un sinfín de experimentos
que estudiaran la caída libre, el movimiento por un plano inclinado, los péndulos, los proyectiles,
la presión del aire, los péndulos dobles, y los imanes flotantes. Se basó en observaciones que
habían llevado a la teoría heliocéntrica del Sistema Solar, en la experiencia de tirar hacia dentro
para mover un cuerpo en círculos, en las observaciones que determinaron la distancia a la Luna,
en instrumentos inventados para medir la fuerza, e incluso en el conocimiento químico sobre
cómo purificar materiales (ya que esto jugó un papel en la formación del concepto de “masa”).
Sus leyes se aplican a todo lo que observamos que está en movimiento, y las indujo a partir de un
conocimiento que abarcaba una enorme base de datos.
Durante el siglo pasado, sin embargo, algunos filósofos, físicos e historiadores de la ciencia han
afirmado que las leyes del movimiento no son leyes en absoluto; dicen que son, más bien,
definiciones aceptadas por convenio. Este punto de vista proviene de la filosofía empiricista y
fue famosamente defendido por Ernst Mach.5 Los empiricistas consideran que la segunda ley es
una definición conveniente del concepto de “fuerza”, el cual supuestamente carece de significado
excepto como un nombre que le damos al producto de la masa por la aceleración; de forma
parecida, argumentan que la tercera ley equivale a una definición conveniente de “masa”.
Quienes defienden ese punto de vista se han cargado a sí mismos con la inconveniente
responsabilidad de responder a algunas preguntas obvias. ¿Por qué es una definición específica
“conveniente”, mientras que cualquier otra definición habría resultado cognitivamente
desastrosa? ¿Qué pasa con las fuerzas estáticas que existen y pueden medirse en ausencia de la
aceleración? ¿Cómo es posible que el concepto de “fuerza” se haya formado miles de años antes
de los conceptos de “masa” y “aceleración”? No se vislumbra ninguna respuesta por parte de los
discípulos de Mach.
Newton no anticipó el escepticismo que iba a desencadenarse en la era post-kantiana. A él le
parecía obvio el hecho de que las leyes del movimiento son verdades generales alcanzadas por
inducción, y por lo tanto no se complicó la vida haciendo hincapié en este asunto. Ciertamente,
consideraba que las leyes del movimiento no admitían discusión, y por eso su forma de tratarlas
en los Principia es tan concisa.
Newton veía estas leyes como medios para su fin, no como un fin en sí mismo. Las leyes nos
permiten razonar a partir de movimientos observados y llegar a las fuerzas que los causan, y
después razonar a partir de esas fuerzas conocidas y llegar a todos sus diversos efectos. Como
dijo Newton, “El desafío de la filosofía parece consistir en esto: a partir de los fenómenos de los
movimientos, investigar las fuerzas de la naturaleza; y luego, a partir de esas fuerzas, demostrar
los demás fenómenos.”6 Dejó bien claro lo que quería decir, al proporcionar un ejemplo a gran
escala de este programa.

El descubrimiento de la gravitación universal

Los Principia presentan un argumento largo y complejo para demostrar la ley de gravitación
universal. Hoy en día esa ley le resulta conocida a cualquier persona educada. El argumento de
Newton y sus implicaciones epistemológicas, sin embargo, le son mucho menos familiares.
Presentaré los pasos de su razonamiento en esta sección, y analizaré algunas de las implicaciones
en la siguiente.
Lo primero que hizo Newton fue inferir la naturaleza del sistema solar a partir de las leyes de
Kepler del movimiento planetario. Desde luego, ese había sido el objetivo de Kepler, pero sin
una comprensión de la dinámica y sin el método del cálculo diferencial, había sido inalcanzable.
Tres cuartos de siglo después, Newton tenía las herramientas adecuadas para ese trabajo.
Su primer paso fue demostrar un resultado que al principio puede resultar un poco sorprendente:
la ley de las áreas de Kepler ocurre incluso en ausencia de fuerzas. Usando trigonometría,
Newton demostró que una línea que va de un punto fijo a un cuerpo que se mueve con velocidad
constante barrerá áreas iguales en tiempos iguales. Así que estableció de inmediato una conexión
entre su dinámica y la teoría planetaria de Kepler: el movimiento inercial cumple la ley de las
áreas. A partir de ese único resultado, estaba claro que esa ley tiene muchas aplicaciones más allá
del movimiento planetario.
En su siguiente paso, Newton asumió que el cuerpo está sujeto a sucesivas fuerzas de impacto
que siempre se dirigen hacia un punto fijo. Demostró que la ley de las áreas se cumple también
en este caso. Luego hizo que el intervalo de tiempo entre estos impactos tendiera a cero, y con
ello demostró que la ley de Kepler se cumple para cualquier fuerza continua que se mantenga en
la dirección de la línea que une el cuerpo y un punto fijo (estas fuerzas se llaman “fuerzas
centrales”). No influye para nada la forma en que la fuerza varíe con la distancia, o si es atractiva
o repulsiva. Mientras que la fuerza no tenga componente tangencial (lateral), la ley de las áreas
es válida.
Así que la ley de las áreas nos dice la dirección de la fuerza solar, pero no contiene ninguna
información sobre la magnitud de esa fuerza. Fue la ley de Kepler de las órbitas elípticas la que
le permitió a Newton demostrar que la magnitud de la fuerza solar varía con el inverso del
cuadrado de la distancia. Los que estudien los detalles de esta demostración quedarán
impresionados con el genio matemático de Newton. Para nuestro propósito, sin embargo,
podemos obviar esos detalles e identificar sólo los elementos esenciales de la demostración.
Primero, la fuerza solar está relacionada con la aceleración del planeta mediante la segunda ley
del movimiento de Newton. Segundo, para cualquier intervalo corto de tiempo en el que la
aceleración pueda considerarse constante, Galileo había dado la ley que relaciona la aceleración
con el intervalo de tiempo y con la distancia que el cuerpo cae (en este caso la “caída” del
planeta es su movimiento desviado respecto de un camino recto, y hacia el Sol). Tercero, la ley
de las áreas de Kepler le permitió a Newton sustituir los intervalos de tiempo por áreas,
convirtiendo así un problema de dinámica en un problema de geometría. Finalmente, ciertos
teoremas sobre las elipses (descubiertos en la Antigüedad por Apolonio) permitieron que Newton
relacionase la pequeña distancia que un planeta “cae” durante ese intervalo con otras distancias
que definen su localización en la elipse. Por tanto, él tenía todas las piezas que necesitaba:
conocía la relación entre la fuerza y la aceleración, y podía expresar la aceleración en términos
de las propiedades geométricas de la elipse. Al final, esa complejidad matemática llevó a un
resultado sencillo: el Sol ejerce una fuerza sobre los planetas que varía con el inverso del
cuadrado de la distancia.
Igual que con la ley de las áreas, Newton reconoció que la ley de las órbitas elípticas es un caso
especial de una verdad más general. Las propiedades geométricas que Newton había usado no
eran exclusivas de las elipses; son propiedades generales de las secciones cónicas, es decir, se
aplican también a parábolas y a hipérbolas. Por tanto, la fuerza solar no necesariamente causará
que un cuerpo se mueva en una órbita elíptica; el camino puede ser también una parábola o una
hipérbola. En general, una fuerza de tipo inverso-cuadrado hace que un cuerpo se mueva en una
sección cónica; la sección cónica en cada caso la determinan la posición y velocidad iniciales del
cuerpo. Si las condiciones iniciales son tales que el cuerpo queda atrapado por el campo
gravitatorio del Sol, entonces la órbita será una elipse (o un círculo). Sin embargo, si la velocidad
del cuerpo es demasiado alta, entonces ese cuerpo pasará por nuestro Sistema Solar describiendo
una trayectoria parabólica o hiperbólica. Newton presentó los detalles, mostrando cómo calcular
la trayectoria de un cuerpo a partir de cualquier conjunto de condiciones iniciales.
Finalmente, Newton consideró la tercera ley de Kepler. Para una órbita elíptica, demostró que la
relación entre su periodo orbital y el radio mayor se sigue de la naturaleza de la fuerza solar. En
la demostración, hizo uso de todos los hechos que habían aparecido en su demostración de la ley
del inverso-cuadrado, y además usó la propia ley del inverso-cuadrado para la conocida
expresión del área de la elipse. Aquí vemos otro ejemplo de conexión asombrosa a la que se llega
a través de las matemáticas. No hay forma de adivinar que el periodo orbital es proporcional a la
potencia tres medios del semieje mayor, y que no depende para nada del semieje menor. Este
hecho está implícito en las premisas del argumento de Newton, pero hacen falta matemáticas
avanzadas para hacer la deducción.
Ese análisis matemático tuvo otra implicación: mostró que la tercera ley de Kepler no es exacta.
En su demostración, Newton supuso que el Sol no está acelerado. Sin embargo, su tercera ley del
movimiento implica que cada planeta ejerce una fuerza igual y opuesta sobre el Sol, haciendo
que éste se mueva en una órbita muy pequeña alrededor del centro de masas de los dos cuerpos.
Newton demostró que este efecto lleva a una pequeña modificación de la tercera ley de Kepler;
la corrección, según mostró, depende de la relación entre la masa del planeta y la masa del Sol.
En el caso de Júpiter, el planeta más masivo, la magnitud de esta corrección es de
aproximadamente una milésima parte.
Newton indujo la naturaleza del sistema solar a partir de las leyes de Kepler y, en el proceso,
adquirió un entendimiento mucho más profundo de esas leyes. Demostró que la ley de las áreas
se cumple para dos cuerpos cualesquiera que se atraen o se repelen; que la ley de las órbitas
elípticas puede extenderse a una ley de secciones cónicas que describen el movimiento de dos
cuerpos cualesquiera que se atraen según la ley inverso-cuadrado; y que la tercera ley de Kepler
es prácticamente cierta porque la masa del Sol es muchísimo mayor que la masa de los planetas.
En el análisis de Newton podemos ver tres aspectos interrelacionados del poder de las
matemáticas. Primero, las matemáticas nos permiten descubrir nuevos hechos (como la ley de
gravitación), al derivar implicaciones adicionales de lo que ya se sabe. Segundo, conecta hechos
conocidos (como las leyes de Galileo y Kepler) que de otra manera seguirían separadas sin
relación ninguna. Tercero, proporciona comprensión fundamental acerca del dominio en el que
una generalización es válida, dejando claro de qué depende la generalización y de qué no
depende (como vimos en el caso de las leyes de Kepler).
Después de inferir la atracción inverso-cuadrado del Sol a partir de los movimientos planetarios
observados, Newton investigó leyes de fuerzas que pueden inferirse a partir de otros tipos de
movimiento. Por ejemplo, consideró los círculos excéntricos que los astrónomos habían utilizado
desde la Antigüedad. Demostró que la fuerza necesaria para producir ese movimiento sería
físicamente absurda: la fuerza atractiva ejercida por el Sol sobre un planeta tendría que depender
no sólo de dónde está el planeta, sino también de dónde estará en un momento posterior. Así
que, incluso en el caso de que un modelo como ese fuese consistente con los datos disponibles,
quedaría descartado porque viola la ley de causalidad.
Curiosamente, Newton demostró que una fuerza atractiva proporcional a la distancia causaría
una órbita elíptica. En ese caso, sin embargo, el Sol debe estar en el centro, en vez de estar en un
foco de la elipse. Más aún, todos los planetas tendrían que dar vueltas alrededor del Sol con el
mismo periodo, en marcado contraste con las observaciones. Luego Newton consideró el caso de
una fuerza solar atractiva de tipo inverso-cubo y mostró que la órbita resultante sería una espiral
con un ángulo constante entre el radio y el vector velocidad.
El más importante de estos “casos contra-factuales” que Newton analizó fue el de una fuerza
inverso-cuadrado con un pequeño término de inverso-cubo añadido. Aquí, mostró que las órbitas
resultantes obedecen a las leyes de Kepler en una aproximación muy buena. Sin embargo,
Newton consiguió identificar incluso una diferencia entre estas órbitas y las que se observan en
la realidad. Cuando se añade un pequeño término inverso-cubo, el eje mayor de la elipse no
permanece fijo en el espacio, sino que rota lentamente a un ritmo que depende de la magnitud del
término del inverso-cubo.
Newton no estaba simplemente flexionando sus músculos matemáticos con estos cálculos. Él se
dio cuenta de que si la idea de la gravitación universal es correcta, entonces las órbitas
planetarias no son exactamente elípticas; el movimiento de cada planeta estará ligeramente
perturbado por otros cuerpos aparte del Sol. Además, él era plenamente consciente del hecho de
que siempre razonamos a partir de datos de precisión limitada. Aunque ya había demostrado que
una órbita elíptica exacta implica una fuerza solar que es exactamente inverso-cuadrado, eso no
quiere decir necesariamente que una órbita aproximadamente elíptica implique una fuerza solar
de ese tipo. Newton fue muy cauteloso a la hora de hacer esas inferencias, así que decidió
investigar los efectos de una desviación respecto de la ley inverso-cuadrado. Al demostrar que
incluso una pequeña desviación cambiaría las órbitas planetarias de una forma incompatible con
las observaciones, retiró cualquier duda que aún quedase sobre la naturaleza de la fuerza solar.
Llegado a este punto, Newton dirigió su atención a los otros cuerpos aparte del Sol. Galileo había
descubierto cuatro lunas que orbitan a Júpiter, y un tiempo después Christiaan Huygens y Gian
Cassini descubrieron cinco lunas que orbitan a Saturno. Como los astrónomos habían hecho
mejoras importantes en el diseño de telescopios, Newton tenía ahora datos precisos de esas
órbitas lunares. Descubrió que las leyes de Kepler se cumplen para esas lunas, igual que para los
planetas. Más impresionante aún, demostró que, para ambos grupos de lunas, el cuadrado del
periodo orbital era exactamente proporcional al cubo del radio orbital. De ahí se sigue que
Júpiter y Saturno atraen a sus lunas con el mismo tipo de fuerza inverso-cuadrado que el Sol
ejerce sobre los planetas.
Newton citó también evidencias de que los planetas se atraen entre sí. Los astrónomos se habían
fijado en que hay perturbaciones en la órbita de Saturno cuando está en conjunción con Júpiter.
Por supuesto, la idea de la gravitación universal explica tales perturbaciones. Júpiter es el planeta
más masivo de todos, y cerca de su punto de mayor proximidad ejerce una atracción significativa
sobre Saturno. Newton identificó una forma sencilla de mejorar el modelo de la órbita de
Saturno: el foco de la elipse debe colocarse en el centro de masas de Júpiter y el Sol, en vez de
exclusivamente en el Sol. De esta forma, Newton redujo los errores máximos en la posición
angular de Saturno a sólo dos minutos de arco.
Finalmente, la atención de Newton regresó a la Tierra, y al origen de su gran idea. Una vez más
calculó las aceleraciones relativas de la Luna y la manzana. En el cálculo aproximado que había
hecho muchos años antes, había surgido una discrepancia en torno al 10% con la ley del inverso-
cuadrado. Ahora estaba preparado para eliminar las suposiciones, las aproximaciones y las
inexactitudes en los datos, y ver si la atracción de la Tierra varía realmente con el inverso del
cuadrado de la distancia.
En su cálculo original, Newton había usado un radio terrestre como distancia entre la manzana y
la Tierra. Esto equivale a suponer que la Tierra, que es esférica, atrae como si toda su masa
estuviera en el centro. Pero ¿por qué tendría que atraer de ese modo? La gravitación universal
implica que cada trocito de masa está independientemente tirando de la manzana hacia sí, con
una fuerza inversamente proporcional al cuadrado de la distancia a la manzana. Parece casi
milagroso que todas estas fuerzas que tiran desde cada parte de la Tierra sean exactamente
iguales que si toda la masa de la Tierra tirase desde el centro. Sin una demostración matemática,
Newton no estaba dispuesto a creérselo.
Hoy día, con todo el poder del cálculo integral que hay disponible, esta demostración puede ser
realizada por cualquier estudiante competente de física. Newton lo tenía bastante más
complicado, pero consiguió hacerlo construyendo una demostración geométrica muy original
que aprovechaba al máximo la simetría de la esfera. La Tierra atrae desde su centro, mostró, si y
sólo si la fuerza atractiva varía con el inverso del cuadrado de la distancia y la densidad de masa
de la Tierra depende sólo de la distancia al centro.
Anteriormente, usar el radio de la Tierra como la distancia a la manzana había sido una
suposición dudosa; ahora, con su demostración matemática, era algo exigido por la idea de la
gravitación universal. El radio de la Tierra había sido medido con precisión, y el valor que
Newton usó era muy próximo al que es aceptado hoy día. Para la distancia a la Luna, Newton
revisó cuidadosamente las medidas independientes de varios investigadores y tomó el valor de
sesenta radios terrestres como el mejor valor disponible. Así que, si la atracción de la Tierra varía
del mismo modo que la atracción de Júpiter, de Saturno y del Sol, entonces la aceleración de la
Luna multiplicada por (60)² debería ser igual a la aceleración de la manzana.
El periodo de la órbita lunar se conocía con mucha precisión. Como la órbita es prácticamente
circular, Newton pudo usar su ley de la aceleración circular (como había hecho años atrás). Sin
embargo, esta vez añadió una pequeña corrección para la atracción del Sol que reducía
ligeramente (en una parte en 179) su estimación de la aceleración causada por la Tierra. También
estimó el pequeño efecto de la atracción recíproca que ejerce la Luna sobre la Tierra. Cuando por
fin llegó a su respuesta definitiva y multiplicó por (60)², el valor que predijo para la aceleración
de la gravedad en la superficie de la Tierra era de 9.8 m/s². Años atrás, Huygens había utilizado
péndulos para medir esta aceleración de forma muy precisa. El valor medido coincidía con el
valor que había calculado Newton: 9.8 m/s². Newton había demostrado que el “peso” terrestre—
ese fenómeno ubicuo que cualquier niño conoce—es la misma fuerza que mueve a planetas y
lunas.
Observemos que no habría sido válido que Newton simplemente hubiese dicho: “La Luna cae
hacia la Tierra; la manzana cae hacia la Tierra; por tanto, la causa es la misma en ambos casos.”
Causas distintas pueden en ocasiones llevar a efectos cualitativamente similares (por ejemplo, un
imán con carga eléctrica en su superficie atraerá tanto a la paja como a las limaduras de hierro,
pero por motivos diferentes). Sea como fuere, cuando Newton demuestra que la Luna y la
manzana caen según ritmos que concuerdan exactamente con una fuerza que varía con el inverso
del cuadrado de la distancia al centro de la Tierra, entonces no cabe duda de que la misma causa
está operando.
Una vez que Newton demostró que la atracción entre los cuerpos celestes es la conocida fuerza
de la gravedad terrestre, todo lo que se sabía sobre la gravedad en la Tierra podía ser aplicado a
la fuerza celeste. Por tanto, la prueba experimental de que la gravedad terrestre es proporcional a
la masa también sirve como prueba de que la fuerza atractiva de cualquier cuerpo celeste es
proporcional a su masa. Además, por la tercera ley de Newton, la interacción gravitacional debe
depender de la masa de los dos cuerpos que se atraen, de la misma forma. Así, Newton llegó a la
ley completa de la gravitación: la fuerza varía directamente con el producto de las masas e
inversamente con el cuadrado de la distancia que las separa.
Para el propósito de comparar la aceleración de la Luna con la de la manzana, Newton pudo
aproximar la órbita lunar a un círculo sin introducir ningún error significativo. La órbita puede
ser modelizada de forma más precisa, por supuesto, como una elipse. Sin embargo, los datos
observacionales de los astrónomos demostraron que la órbita de la Luna es muy compleja: no
sigue exactamente las leyes de Kepler. La razón de las anomalías en la órbita es la atracción
gravitatoria del Sol; la distancia Luna-Sol es ligeramente diferente de la distancia Tierra-Sol, y
eso causa una pequeña aceleración relativa entre la Luna y la Tierra.
Newton hizo un enorme esfuerzo por explicar las anomalías lunares. Partiendo del hecho de que
la atracción gravitatoria del Sol varía como el inverso del cuadrado de la distancia, demostró que
las aceleraciones perturbativas que causa el Sol varían con el inverso del cubo. Ya hemos visto
que una fuerza como esa hace que el eje mayor de la órbita rote; a partir de la magnitud del
término perturbativo, Newton pudo explicar la rotación de 3º al mes de la órbita de la Luna,
como habían observado los astrónomos. También explicó las variaciones en la excentricidad de
la órbita, el movimiento de los puntos en los que la Luna cruza el plano de la eclíptica, y las
variaciones anuales de estas anomalías. Su análisis proporcionó evidencias muy impresionantes
en favor de la ley de gravitación universal; además de explicar las leyes de Kepler, pudo explicar
las desviaciones de ellas que se podían observar.
Newton siguió explotando la Luna cuando dirigió su atención hacia las mareas. Los primeros
exploradores griegos que se aventuraron en el océano Atlántico se habían fijado en la correlación
entre las mareas y la posición de la Luna. Antes de que se hubiera formado el concepto de
“gravedad”, sin embargo, la idea de que la Luna pudiese influir sobre nuestros mares era algo
que normalmente se descartaba por sonar a magia. Los descubrimientos de Newton provocaron
un cambio radical al identificar la causa física, mostrando así que esa influencia es una
consecuencia necesaria de las leyes naturales.
Las mareas están causadas por el hecho de que la Luna no atrae a todas las partes de la Tierra por
igual. El lado de la Tierra que está más cerca de la Luna es atraído un poco más que el centro de
la Tierra (atrayendo este lado hacia la Luna), mientras que el lado opuesto de la Tierra es atraído
menos que el centro (dejándolo más lejos de la Luna). Esto provoca que los océanos se abulten
por ambos lados, dando lugar a mareas altas. Los abultamientos son fijos respecto a la Luna,
pero la rotación diaria de la Tierra hace que la marea suba y baje en cualquier lugar específico. Si
la Luna fuese estacionaria, el tiempo entre mareas altas sería de doce horas; el movimiento de la
Luna incrementa este intervalo de tiempo a 12.5 horas. Newton señaló que el Sol también
provoca mareas, pero mostró que el efecto del Sol no es más que aproximadamente una tercera
parte del de la Luna.
Newton pudo explicar todas las características principales de las mareas. Son más intensas
cuando coinciden la marea lunar y la solar, y esto ocurre cuando la Luna está en oposición o en
conjunción con el Sol (es decir, cuando hay luna llena o luna nueva). Cuando hay media luna, las
mareas son más bajas porque el Sol neutraliza parcialmente el efecto de la Luna. Explicó las
variaciones observadas en las mareas que son causadas por variaciones de la distancia al Sol, a la
Luna, y a la inclinación de la Luna respecto del ecuador. Más aún, analizó el efecto de marea
recíproco causado por la atracción de la Tierra. Esta atracción da lugar a abultamientos en los
lados más próximo y más alejado de la Luna. Newton señaló que la atracción de la Tierra sobre
esos abultamientos por causa de las mareas explica por qué la Luna siempre tiene el mismo lado
orientado hacia la Tierra.
Las mareas afectan a la forma de la Tierra al elevar nuestros océanos sólo unas decenas de
centímetros. Newton se dio cuenta de que su dinámica implicaba otro efecto sobre la forma de la
Tierra, que es de una magnitud mucho mayor. Si el material de la Tierra es (o alguna vez fue) lo
suficientemente móvil, entonces la rotación diaria de la Tierra hará que se abulte en el ecuador y
se aplaste por los polos. Debe ser así, porque de no serlo, la materia móvil se iría al ecuador, y el
desierto del Sahara estaría en el fondo de un océano muy profundo. Dado el ritmo al que gira la
Tierra, y haciendo ciertos supuestos sobre la distribución de la masa en el interior de la Tierra,
Newton pudo usar sus leyes del movimiento y de la gravitación para calcular el tamaño del
abultamiento ecuatorial.
Por supuesto, no había datos disponibles sobre la variación de la densidad de masa en el interior
de la Tierra. Newton decidió hacer el cálculo utilizando una densidad constante, mientras
señalaba explícitamente que desconocer este factor iba a provocar algo de incertidumbre en el
resultado. Estimó que el radio ecuatorial era 27 km mayor que el radio polar, lo cual está muy
cerca de la diferencia real que hoy conocemos de 21 km. Por tanto, la Tierra es un esferoide
oblongo y no una esfera, y el tamaño del efecto es tal que debería tener consecuencias
observables.
De hecho, los científicos ya habían observado algunas de esas consecuencias. Recordemos, por
ejemplo, que en la década de 1670 se descubrió que los relojes de péndulo oscilan más despacio
cerca del ecuador que en París o Londres. Newton explicó que las lentejas de los péndulos se
mueven más despacio en el ecuador por dos razones: porque la fuerza gravitacional es más débil
(al estar más lejos del centro de la Tierra), y porque su aceleración se reduce más aún por causa
del efecto centrífugo de la rotación terrestre. Demostró que la expresión matemática del peso de
un cuerpo terrestre contiene un pequeño término variable que es proporcional al cuadrado del
seno de la latitud, y su análisis incorporaba los cambios observados en el ritmo de los relojes.
De las observaciones de Júpiter vinieron más evidencias en favor de la teoría de Newton. Los
astrónomos habían descubierto que el radio ecuatorial de Júpiter es mayor que su radio polar en
aproximadamente una treceava parte. Observando las manchas de Júpiter, sabían el ritmo al que
el gran planeta gira. Newton calculó su abultamiento ecuatorial, y el resultado fue muy parecido
al valor medido. Estaba demostrando el poder explicativo de su dinámica a una escala cada vez
mayor.
El cálculo que hizo Newton para hallar la forma de la Tierra le permitió resolver otro misterio
que había tenido perplejos a los astrónomos durante dieciocho siglos. En el siglo II a.C., Hiparco
descubrió que las estrellas se mueven de un modo peculiar. Además de su rotación diaria
aparente, el centro de esta rotación celeste (es decir, la localización de la “estrella polar”)
también se mueve despacio en un círculo. Aceptada la teoría heliocéntrica, esto implica una
precesión del eje de rotación terrestre, es decir: el eje barre un cono, exactamente igual que
podemos ver en el caso de una peonza. Las leyes de Newton del movimiento y de la gravitación
explicaron este efecto. La Luna y el Sol atraen a la masa del abultamiento ecuatorial terrestre,
provocando un torque (una fuerza de torsión) que mueve el eje de rotación de la Tierra
describiendo un cono con un radio angular de 23º (igual al ángulo entre el plano del ecuador y la
eclíptica). El torque es pequeño, y por tanto la precesión es muy lenta. Newton estimó
cuidadosamente la atracción gravitatoria sobre el abultamiento ecuatorial, y calculó el ritmo de
precesión. Llegó a un valor próximo al que habían medido los astrónomos, quienes habían
determinado que el eje de la Tierra da una vuelta completa cada 26.000 años aproximadamente.
Casi con cada vuelta de hoja de los Principia se explicaba otro fenómeno.
Los Principia fueron una demostración magistral del carácter inteligible del universo. El colofón
final de esta demostración fue el análisis que hizo Newton de los cometas, esos misteriosos
objetos hasta entonces impredecibles que se consideraban en muchos lugares como señales del
enfado de Dios. Newton disipó esos miedos, demostrando que los cometas están regidos por la
fuerza de la gravedad y no por un Dios malhumorado.
Los astrónomos habían acopiado datos precisos de los movimientos de un cometa que había
aparecido en 1680 (observado por primera vez por Gottfried Kirch). Newton analizó esos datos
con mucho cuidado y concluyó que el cometa se movía en una elipse extremadamente alargada.
Observó que su velocidad variaba rápidamente, pero siempre perfectamente de acuerdo con la
ley de las áreas de Kepler; su órbita está inclinada 61º con el plano de la órbita terrestre; el
cometa pasa muy cerca del Sol cada 578 años, y su distancia máxima al Sol es 138 veces mayor
que la distancia media Tierra-Sol. Uno apenas puede imaginarse una órbita que difiera más de las
órbitas planetarias, y aun así Newton demostró que el cometa se mueve de acuerdo con las
mismas leyes. Sacó la única conclusión posible: “La teoría que se corresponde con exactitud con
un movimiento tan singular, y a lo largo de una parte tan grande del firmamento, que observa las
mismas leyes con la teoría de los planetas, y que concuerda con precisión con las precisas
observaciones astronómicas, no puede ser sino cierta.”7
Otro cometa fue observado a finales de 1682. Edmund Halley, un amigo de Newton, procesó los
datos y calculó la órbita. Mostró que el cometa penetra en la órbita de Venus cada 75 años, su
distancia máxima al Sol es unas 35 veces mayor que la distancia Tierra-Sol, y su órbita está
inclinada 18º con respecto al plano de la órbita terrestre. Halley predijo que el cometa aparecería
de nuevo en 1758, y de hecho eso ocurrió casi exactamente según lo previsto, con un leve retraso
debido a la influencia de Júpiter.
La ley de la gravitación universal integraba y explicaba observaciones diversas en una escala sin
precedentes. Aun así, hubo científicos que encontraron los Principia insatisfactorios. Presentaron
la misma crítica que habían dirigido anteriormente a la teoría de Newton de los colores. Se
quejaban de que otra vez Newton había dejado de identificar la causa primera. Arguyeron que, en
el fondo, sus explicaciones estaban vacías porque no había explicado el mecanismo físico por el
cual los cuerpos se atraen entre sí.8
Esta crítica proviene de la idea de que debemos deducir el conocimiento a partir de “causas
primeras”, en vez de inducirlas a partir de la experiencia. Los oponentes de Newton no
conseguían entender que el conocimiento se adquiere partiendo de observaciones, y procediendo
paso a paso hasta descubrir causas, y eventualmente llegando a descubrir las causas
fundamentales. Ellos querían empezar por las causas primeras y deducir toda la ciencia de la
física a partir de ellas. Newton sabía que ese método racionalista lleva a caer en la fantasía, no al
conocimiento científico. Respondiendo a sus críticos, repitió la idea que había expresado años
antes:
No he podido descubrir la causa de esas propiedades de la gravedad a partir de los
fenómenos, y yo no formulo hipótesis; pues cualquier cosa que no se infiera a partir de
fenómenos debe llamarse hipótesis, y las hipótesis no tienen cabida en la filosofía
experimental. En esta filosofía las proposiciones particulares se infieren a partir de
fenómenos, y posteriormente se erigen de forma general a través de la inducción. Así fue
como las leyes del movimiento y de la gravitación fueron descubiertas. Y para nosotros
es suficiente que la gravedad exista realmente y que actúe de acuerdo con las leyes que
hemos explicado, lo cual sirve de sobra para explicar todos los movimientos de los
cuerpos celestes y de nuestro mar.9
Los científicos que siguen el método racionalista intentan soslayar el proceso de descubrimiento.
Utilizando nada más que la imaginación y la deducción, fabrican ciencias enteras, sin descubrir
ningún conocimiento, a la vez que tampoco dejan pregunta alguna sin responder. El método
inductivo de Newton lleva al resultado opuesto: un contexto de conocimiento expandido
enormemente, donde cada descubrimiento plantea más preguntas.
Hoy en día, el que Newton se negara a especular sobre el mecanismo subyacente a la atracción
gravitatoria se malinterpreta a veces de una forma que habría sido inconcebible para él. Los
empiricistas modernos, intentando poder contar a Newton como uno de los suyos, afirman que él
defendía un enfoque descriptivo y no causal de la física.10 Pero Newton no era un escéptico. En
conjunción con las leyes del movimiento, la ley de la gravitación universal es el arquetipo de una
ley causal: establece la relación necesaria entre una propiedad de una entidad (la masa) y su
acción. A lo largo de los Principia, Newton se centró en identificar relaciones causales.
El último libro de los Principia lleva el apropiado título de “El sistema del mundo”. Newton
había heredado una gran cantidad de conocimiento de sus predecesores, pero ese era un
conocimiento que consistía en leyes separadas que pertenecían a ciencias separadas. Newton
indujo las relaciones causales fundamentales que integraban este conocimiento en una unidad
sistémica. Con este logro, la ciencia de la física había alcanzado la madurez.
Aquí vemos el resultado del método inductivo en todo su esplendor.

El descubrimiento es la demostración

El “problema de la inducción” normalmente se plantea de un modo que parece descartar que


pueda tener solución. Se describe como el problema de justificar un “salto” inductivo, partiendo
de relativamente pocas observaciones hasta llegar a una verdad universal. La pregunta que hacen
es: ¿Cómo podemos estar seguros de una conclusión que trasciende de esa manera a la
evidencia?
Es extraño cómo esa perspectiva puede estar tan desconectada del verdadero proceso de
descubrimiento que culminó con las leyes de Newton del movimiento y de la gravitación. En los
tres capítulos anteriores hemos seguido el razonamiento que condujo a esas leyes, y sin embargo
no hemos encontrado ningún paso que pueda describirse razonablemente como un “salto” fuera
de la evidencia. Más bien al contrario, cada paso nuevo se siguió de la evidencia, dado el
contexto de conocimiento previo. Así que ahora la pregunta es: ¿Cómo consiguieron los
científicos llegar a leyes universales sin hacer ningún salto ilógico?
Gran parte de la respuesta está en la objetividad de los propios conceptos. Cuando se expandió el
concepto de “fuerza” para incluir las acciones de tirar y empujar ejercidas a distancia por medios
imperceptibles, eso no se hizo arbitrariamente; lo exigían las observaciones de los fenómenos
eléctricos y magnéticos. De forma parecida, no había nada arbitrario en la expansión del
concepto de “aceleración” para que incluyera cambios en la dirección de un cuerpo además de en
su velocidad escalar; esto era necesario para distinguir el movimiento causado por una fuerza del
movimiento que puede ocurrir en ausencia de fuerzas. Los conceptos de “fuerza” y “aceleración”
hicieron posible entonces identificar que tanto el Sol como la Tierra ejercen una fuerza atractiva
que tiene la misma naturaleza, denotada por el concepto de “gravitación”. Este concepto a su vez
hizo posible identificar que el peso es una medida de la fuerza gravitatoria, y se hizo necesario
aislar la propiedad de los cuerpos que causa esta fuerza; luego, los experimentos determinaron
que el peso de un cuerpo y la inercia son proporcionales a su “cantidad de materia”, o “masa”.
Asimismo, no había nada de arbitrario en el razonamiento que identificó las conexiones causales
a las que se pudo acceder gracias a estos conceptos. Las variables fueron sistemáticamente
aisladas y medidas en una serie de experimentos que involucraban caída libre, planos inclinados,
péndulos y péndulos dobles. Para cuando Newton anunció sus leyes matemáticas, él ya había
estudiado las fuerzas mecánicas, gravitacionales e incluso magnéticas; había estudiado masas
que variaban en magnitud desde la de una piedra hasta la del Sol, y que incluían una amplia
variedad de materiales distintos; había estudiado movimientos que variaban en velocidad, desde
una bola oscilando despacio al final de un largo péndulo hasta un cometa atravesando el cielo
nocturno a toda velocidad, y que variaban en su forma, desde líneas rectas hasta elipses, pasando
por círculos y parábolas. Por tanto, las leyes eran verdaderas integraciones de datos, no saltos de
fe.
Gracias a un riguroso proceso de lógica inductiva, Newton pudo ir escalando desde
generalizaciones más concretas hasta llegar a sus leyes fundamentales. Por ejemplo, él no saltó
directamente a la ley de gravitación universal para después buscar casos que la confirmasen. En
vez de eso, como hemos visto, empezó identificando la naturaleza de la fuerza solar ejercida
sobre los planetas. Luego, en los Principia, mostró que Júpiter y Saturno ejercen una fuerza
parecida sobre sus respectivos satélites, y por lo tanto tenía una ley que se aplicaba a planetas y
lunas. Después mostró que la Tierra ejerce una fuerza semejante sobre los cuerpos terrestres y
sobre nuestra luna, y por lo tanto tenía una ley que se aplicaba a todos los cuerpos sobre la
superficie terrestre, así como a los planetas y los satélites. Luego mostró que la fuerza atractiva
no sólo la ejerce la Tierra como un todo, sino que la ejerce independientemente cada trozo de
materia que compone la Tierra (el análisis que hizo de la forma de la Tierra, su precesión y las
mareas, proporcionó evidencias importantes en favor de esta conclusión). Finalmente, mostró
que la ley se aplica incluso a los cometas, a esos cuerpos celestes legendarios por sus misteriosas
apariciones y su comportamiento. Este fue el origen del descubrimiento de Newton de que todos
los cuerpos poseen la propiedad “masa”, y que por eso se atraen de acuerdo con la ley de
gravitación.
Si, al final, a Newton le hubieran preguntado “Ahora que tienes esa teoría, ¿cómo vas a
demostrarla?”, podría haber respondido simplemente señalando al proceso mismo de
descubrimiento. La secuencia lógica paso a paso por la que él llegó a su teoría es la
demostración. Cada paso consistió en captar una conexión causal procesando matemáticamente
los datos observacionales. Al no haber saltos arbitrarios, no surge el problema de tener que
justificarlos.
Expresando esta idea de forma negativa: para plantear la pregunta anterior, uno tiene que ignorar
el contexto relevante. La pregunta no surge si uno tiene presente con claridad la secuencia
completa que llevó de las observaciones a las leyes fundamentales. Si, por el contrario, uno
asume que la teoría la generó la creativa imaginación de Newton, entonces el asunto de la
demostración se convierte en un problema irresoluble. El mero proceso de deducir, a partir de
una teoría, consecuencias que se confirman con las observaciones nunca lleva ni puede llevar a
una demostración. Esta forma de proceder es insuficiente, incluso aunque las predicciones se
hallen en un amplio rango de fenómenos diferentes. El contra-argumento inevitable que ofrecen
todos los que aceptan los conceptos y las generalizaciones como puntos de partida sin plantearse
de dónde proceden, es: quizá otra persona con una imaginación igual de desbordante puede
inventarse una teoría completamente distinta que igualmente explique los mismos hechos. Sin
entender de qué forma el marco conceptual de Newton nació de las observaciones, y por qué las
observaciones exigen a éste necesariamente, no hay respuesta a esa objeción. Una vez que se
tiene la demostración inductiva, sin embargo, uno puede y debe responder simplemente
descartando esa sugerencia como una fantasía arbitraria.
Hoy en día, casi universalmente se piensa que el proceso de la creación de una teoría no es
objetivo. Según el punto de vista más extendido, que se ha institucionalizado en el así llamado
“método hipotético-deductivo”, lo único que le da a la ciencia algo de objetividad es poner a
prueba las teorías (es decir, comparar las predicciones con las observaciones). Los defensores de
este método dicen que, por desgracia, ese “poner a prueba” no puede conducir a una
demostración—y ni siquiera a una refutación—puesto que cualquier teoría puede salvarse de una
observación que no le convenga simplemente añadiendo más hipótesis arbitrarias. Así es como el
método hipotético-deductivo lleva inevitablemente al escepticismo.
A pesar de esa negación implícita del conocimiento científico, esta perspectiva del método les
resulta plausible a muchos científicos. Una causa de ello podemos encontrarla en cómo se enseña
la ciencia; las verdades fundamentales sobre la naturaleza se les reparten a los jóvenes
estudiantes como si fueran caramelos en Halloween, mientras que se les dan sólo trozos al azar
de la evidencia a partir de la cual fueron inducidas las teorías. La educación de un científico hoy
día está enfocada a desarrollar su capacidad para deducir consecuencias a partir de teorías. Así, el
científico sale de su formación lleno de abstracciones flotantes memorizadas y de una gran
destreza para aplicarlas. Cuando oye una descripción del método hipotético-deductivo, lo
reconoce como una descripción exacta de su propio estado mental. Así es como un vergonzoso
fracaso en la educación se convierte en una teoría estandarizada del método científico.
La diferencia entre el científico que induce una teoría y otro que “crea libremente” una teoría es
la diferencia entre un hombre que está de pie sobre el suelo sólido y un personaje de dibujos
animados que está suspendido en el aire sobre un abismo. No es de extrañar que quienes creen
que las teorías son “creaciones libres” sientan un desastre inminente, porque suelen creer que
todas las teorías están condenadas a caer y ser reemplazadas por otros montajes igual de
imaginativos. Por el contrario, el método inductivo lleva a la conclusión opuesta: una teoría
alcanzada y validada por este método nunca es derrocada. Así, por ejemplo, ningún
descubrimiento ha contradicho a las leyes de Newton desde su publicación de los Principia. Más
bien, todos los descubrimientos posteriores en física presuponen su teoría y han sido construidos
sobre ella. Sus leyes han sido el sólido cimiento del trabajo de todo físico durante los últimos tres
siglos, y siguen aplicándose hoy de innumerables formas.
La confusión tan extendida acerca de este punto proviene de tratar las leyes científicas como si
fuesen dogmas fuera de contexto en vez de integraciones de hechos concretos. El propio Newton,
sin embargo, nunca dijo: “Mis leyes se aplican sin modificaciones no sólo a todo lo que se sabe
actualmente de física y astronomía, sino a cualquier fenómeno que se estudie jamás,
independientemente de lo mucho que se aparten de cualquier fenómeno estudiado hasta la fecha.
Doy estas leyes como mandamientos, para que se apliquen independientemente del contexto
cognitivo.” Él nunca dijo nada parecido, porque sabía que el proceso de razonamiento inductivo
que le había llevado a sus leyes establecía el contexto dentro del cual están demostradas. Son
necesarias evidencias adicionales si se quieren extender esas leyes a áreas que no han sido
estudiadas antes.
Los casos en los que se dice que las leyes de Newton fallan son todos iguales: son casos en los
que las leyes han sido sacadas del contexto en el que se descubrieron, y aplicadas a un campo
muy lejano a cualquier cosa que Newton pudo haber considerado. Es el caso de cuerpos que se
mueven cerca de la velocidad de la luz, que es unas 10.000 veces mayor que la velocidad de la
Tierra en su órbita alrededor del Sol; o es el caso del comportamiento de partículas subatómicas,
un campo que los físicos empezaron a estudiar aproximadamente dos siglos después de Newton.
Para aclarar la relación entre las teorías iniciales y los avances posteriores que éstas posibilitan,
examinemos un hecho concreto del cual se dice a menudo que refuta la ley de gravitación
universal. Se observa que el eje mayor de la órbita de Mercurio rota muy despacio. Visto desde
la Tierra, la rotación total parece ser de unos 1.56º cada siglo. Los cálculos muestran que casi el
90% de esa rotación aparente es causada por la precesión del eje de rotación terrestre, que queda
perfectamente explicada con la teoría de Newton. Del efecto restante, más del 90% está causado
por la atracción gravitatoria de otros planetas, lo cual también queda explicado con la teoría de
Newton. Todo eso deja menos de un 1% del efecto total observado sin explicar por la teoría de
Newton, lo que equivale a 43 segundos de arco en cada siglo. Este efecto residual es explicado
por la teoría de Einstein, cuyas predicciones difieren ligeramente de las de Newton en el intenso
campo gravitatorio que hay cerca del Sol.
Einstein no refutó las leyes de Newton, así como Newton no refutó las leyes de Kepler. En
ambos casos, se presupuso la veracidad de la teoría anterior y después una teoría más general fue
desarrollada, una teoría a ser aplicada en un contexto más amplio de conocimiento. Y en ambos
casos el contexto expandido incluía pequeñas discrepancias entre los nuevos datos y la antigua
teoría, datos que serían explicados por la nueva teoría. A menudo es así como la ciencia avanza.
Sólo hay un aspecto de la teoría de Newton que fue rechazado en vez de ser absorbido por la
teoría de Einstein (y, en este caso, sólo cabe desear que Einstein hubiera sido coherente con ese
rechazo). Newton consideró los conceptos de “espacio” y “tiempo” como existentes
independientes de los cuerpos, en vez de como relaciones entre cuerpos. Así, veía el espacio
como un infinito telón de fondo cósmico que existe independientemente de que haya cuerpos
situados en él o no, y afirmó que ese fondo tenía efectos físicos reales sobre los cuerpos que
aceleran respecto a él.
Newton aportó argumentos científicos para apoyar su visión del espacio y el tiempo, pero esos
argumentos eran non-sequiturs.11 El espacio y tiempo “absolutos” estaban conectados
profundamente con las opiniones religiosas de Newton, y por tanto son un elemento arbitrario en
su teoría. De vez en cuando Newton hacía concesiones a la religión, y con ello se desviaba del
método científico que él mismo había enunciado explícitamente. Este es el ejemplo más atroz de
esas desviaciones.
En la teoría de Newton, el marco del espacio absoluto es identificado con un sistema de
coordenadas en el que las estrellas fijas no rotan. Este sistema de referencia se define
objetivamente, en base a la observación. Por tanto, Newton pudo haber reemplazado su discusión
sobre el espacio (y el tiempo) absoluto diciendo lo siguiente: “Las leyes del movimiento y de la
gravitación presentadas en este libro son válidas en el sistema de referencia de estrellas fijas. Si
es o no posible desarrollar una teoría que esté libre de esta restricción, eso lo dejo a
consideración del lector.” Una declaración como esa habría dejado claro el estatus objetivo de su
teoría, y habría eliminado la imposible tarea de tratar de establecer la existencia del espacio
como una pseudo-entidad sobrenatural.
No fueron necesarios descubrimientos posteriores en física para identificar y rechazar el error de
Newton. Muchos de sus contemporáneos señalaron que no había ninguna justificación para
cosificar el espacio y el tiempo.12 La perspectiva relacional, que es la correcta, se remonta a
Aristóteles, que trataba el espacio como una suma de lugares y explicaba que el concepto de
“lugar” hace referencia a una relación entre cuerpos. O sea, la idea de espacio y tiempo absolutos
había sido identificada como siendo arbitraria 2.000 años antes; no eran necesarios los
descubrimientos de Einstein para poder entender este asunto.
Descubrimientos posteriores refuerzan y expanden la totalidad cognitiva, pero nunca la refutan.
Ciertamente, aquí hay una relación simbiótica: un conocimiento anterior hace posible descubrir
un conocimiento posterior, y un conocimiento posterior a menudo nos permite ver nuevas y
profundas implicaciones en el conocimiento anterior.
Consideremos, por ejemplo, la relación entre la dinámica de Newton y la cinemática de Galileo.
Siempre ha dejado perplejos a los historiadores de la ciencia que Newton le diera a Galileo el
crédito de su segunda ley del movimiento (F=mA). Puesto que Galileo no conocía esta ley, ¿por
qué dijo Newton que él la había aprendido de Galileo? La respuesta nos permite entender mejor
cómo Newton aprovechó al máximo los logros de su predecesor. Esta ley estaba fuera del
alcance de Galileo, porque él no tenía los conceptos necesarios. En el contexto de Newton, que
incluía el concepto vectorial de “aceleración” y los conceptos de “gravedad” y “masa”, los
experimentos de Galileo sí que implican que F=mA. En efecto, Newton podía leer su segunda
ley del movimiento entre líneas en el texto de Galileo, aunque el mensaje fuese invisible a los
ojos del propio autor.
Y hay muchos ejemplos parecidos. El descubrimiento de Torricelli de que el aire tiene peso llevó
a los científicos a una formulación más general del principio de flotabilidad que había sido
enunciado por Arquímedes. A la luz de la dinámica de Newton, la ley de las áreas de Kepler para
el movimiento planetario se generalizó en el principio de conservación del momento angular, que
se aplica a todos los cuerpos. La adquisición de conocimiento no es simplemente una escalada
paso a paso en la jerarquía, con los ojos siempre puestos en el siguiente escalón. Esa metáfora
ignora el hecho de que la atención de un pensador cada cierto tiempo debe dirigirse al
conocimiento anterior, para integrarlo con los nuevos descubrimientos. Un aspecto fundamental
de la integración cognitiva es la tarea de volver sobre el conocimiento antiguo y extraer de él las
nuevas implicaciones que sólo pueden verse a la luz de los avances más recientes.
La revolución científica del siglo XVII alcanzó la ambiciosa meta a la cual se quiso llegar por
primera vez en la Antigua Grecia. Los griegos intentaron identificar principios básicos que
pudieran integrar su conocimiento del universo en una totalidad inteligible. Sin embargo, ellos
carecían de los métodos experimentales y matemáticos necesarios. En su impaciencia, se saltaron
el lento y minucioso proceso del descubrimiento; en vez de eso, intentaron dar un salto de
gigante de las observaciones a los principios fundamentales, y se quedaron cortos.
Eventualmente, una pérdida de confianza llevó a la aceptación pragmática de la absurda teoría de
Ptolomeo, con su revoltijo de elementos arbitrarios.
Al principio de la revolución científica, Copérnico señaló la falta de integración en la
astronomía. Hablando de sus predecesores, escribió: “Están exactamente en el mismo apuro que
alguien que toma, de lugares diferentes, manos, pies, cabeza y otros miembros—cada uno con
una constitución muy bella pero sin referencia a un cuerpo y sin correspondencia entre sí—de
modo que esas partes forman un monstruo en vez de un hombre.”13 Vemos que Copérnico dio
los primeros pasos hacia la transformación de ese monstruo en hombre. La tarea la completó
Newton, quien integró en un solo cuerpo de conocimiento la física y la astronomía, un cuerpo en
el que todas las partes encajan entre sí formando un todo perfecto.
Hemos visto la lógica inexorable de la progresión desde Copérnico hasta Galileo, luego hasta
Kepler, y finalmente hasta Newton. Bajo la poderosa influencia de Newton, el método inductivo
ascendió a la fama, y su némesis—lo arbitrario—cayó en descrédito. El método que los
científicos aprendieron de los Principia y la Optica proporcionó una luz verde hacia una nueva
era, en la que muchos secretos que la naturaleza llevaba guardando mucho tiempo quedarían por
fin iluminados, y en la que nuevas ciencias (como la electricidad, la química y la geología)
nacerían. Al ser esta iluminación tan característica del siglo siguiente a Newton, los historiadores
le han dado a esta época un nombre muy apropiado: la Ilustración. [N. del T.: en inglés
“Enlightenment”: iluminación. En los principales idiomas occidentales, este término hace
referencia de un modo u otro a la luz (“light”)]
5. La teoría atómica

Para evaluar teorías, los científicos necesitan normas objetivas. En ningún sitio se ha hecho tan
patente esta necesidad como en la insólita historia de la teoría atómica de la materia. Antes del
siglo XIX había pocas evidencias en favor de esa teoría, y sin embargo muchos filósofos
naturales creían que la materia estaba hecha de átomos, e incluso algunos perdieron el tiempo
construyendo historias muy originales sobre la naturaleza de las partículas fundamentales.
Luego, durante el siglo XIX, tuvo lugar un extraño cambio: al mismo tiempo que se iban
acumulando rápidamente fuertes evidencias en favor de la teoría, muchos científicos rechazaron
la idea de los átomos e incluso emprendieron una cruzada contra ella.
Estos dos errores—una creencia dogmática no basada en evidencias, seguida de un escepticismo
dogmático que ignora la abundante evidencia—estaban basados en teorías del conocimiento
falsas. Los atomistas de la Antigua Grecia eran racionalistas, o sea, creían que el conocimiento
puede ser adquirido sólo mediante la razón, al margen de datos sensoriales. Los escépticos del
siglo XIX eran empiricistas modernos, es decir, creían que el conocimiento consiste meramente
en una descripción de datos sensoriales y que por lo tanto cualquier referencia a entidades no
observables carece de significado. Pero el conocimiento científico no es ni las abstracciones
flotantes de los racionalistas ni las descripciones a nivel perceptual de los empiricistas; es captar
relaciones causales identificadas mediante el método inductivo. En este capítulo veremos cómo
la teoría atómica de la materia fue identificada como la causa fundamental que explica un amplio
abanico de leyes más concretas.
Si seguimos la idea de los átomos desde la Antigua Grecia hasta el siglo XIX, se hace patente un
hecho extraordinario: la teoría atómica fue inútil hasta que fue inducida a partir de datos
científicos. Durante más de dos mil años, los científicos fueron incapaces de hacer predicción o
experimento alguno basados en esta teoría. Era una teoría que no explicaba ni integraba nada.
Como la idea griega de átomos no provenía de hechos observados, permaneció aislada del
conocimiento real y de quienes investigaban la naturaleza. Si uno intenta pensar en las
implicaciones de una idea arbitraria, se quedará con la mente en blanco; esas implicaciones
dependen de conexiones con el resto del conocimiento que uno tiene. En términos de la analogía
de Rand, la palabra “átomo” no era más que la etiqueta de una carpeta vacía.
Todo el mundo, incluidos los científicos, debe partir de la evidencia disponible a través de los
sentidos, y no hay ninguna evidencia perceptual directa de la existencia de átomos. A nivel
perceptual, la materia parece ser continua. En las fases iniciales de la ciencia, las cuestiones
sobre las propiedades últimas e irreducibles de la materia—incluida la cuestión de si es discreta
en alguna escala imperceptible—no surgen de forma válida. Las preguntas que sí surgen a partir
de las observaciones suponen un gran desafío. Por ejemplo: ¿Cómo se mueven los cuerpos?
¿Qué fuerzas pueden ejercer uno sobre otro? ¿Cómo cambian cuando se calientan o se enfrían?
¿Por qué se ven los objetos de colores, y cómo se relaciona la luz de color con la luz blanca
ordinaria? Cuando materiales distintos reaccionan entre sí, ¿qué transformaciones pueden sufrir,
y bajo qué circunstancias?
Hacia 1800, después de siglos investigando esas cuestiones, los científicos por fin habían
conseguido el conocimiento avanzado suficiente para que la cuestión de los átomos tuviese
sentido y fuese posible darle respuesta. Cuando la idea de los átomos surgió a partir de hechos
observados, los científicos ya tenían un contexto desde el cual podían pensar sobre ella, y por lo
tanto podían derivar implicaciones, hacer predicciones y diseñar experimentos. El resultado fue
un repentino vendaval de actividad científica que no tardó en revelar una gran profundidad y una
amplia gama de evidencias en favor de la composición atómica de la materia.

Elementos químicos y átomos

Antes de la Ilustración no existía la ciencia de la química. Existía el conocimiento práctico sobre


cómo extraer metales, sintetizar vidrio y teñir ropa. También hubo intentos prematuros de reducir
a unos pocos elementos básicos la abrumadora variedad de materiales conocidos. Los griegos
habían supuesto que toda la materia terrestre está constituida por cuatro elementos: tierra, agua,
aire y fuego. Más tarde, algunos alquimistas intentaron reducir el elemento “tierra” a sal,
mercurio y azufre; pero esos primeros intentos no consiguieron pasar de ser especulaciones
vacías, no llegaron a ser teorías científicas; esas ideas, al no estar basadas en observaciones, eran
incapaces de explicar ninguna cosa.
La situación cambió drásticamente en la segunda mitad del siglo XVIII, cuando se aplicó a la
química el método que había tenido un éxito tan espectacular en la física. El padre de la química
moderna, Antoine Lavoisier, escribió en una carta a Benjamin Franklin que su objetivo era
“seguir, en la medida de lo posible, la antorcha de la observación y la experimentación.” Añadió:
“Este camino, que todavía no se ha seguido en química, me ha llevado a planear mi libro con una
estructura completamente nueva, y como resultado la química se ha acercado mucho a la física
experimental.”1
El primer paso en la ciencia de la química fue establecer una clara distinción entre sustancias
puras y mezclas. A diferencia de las mezclas, las sustancias puras tienen propiedades fijas y bien
definidas. En las mismas condiciones, toda muestra de una sustancia pura se fundirá (o entrará en
ebullición) exactamente a la misma temperatura. Cualquiera de esas muestras tendrá la misma
dureza y la misma densidad de masa, y una cantidad fija de calor siempre causará el mismo
incremento en su temperatura (por unidad de masa). Más aún, cuando una cierta cantidad de
cualquier sustancia forma parte de una reacción química, las propiedades del resto de esa
sustancia no cambian. Así, el concepto de “sustancia” se apoyaba en la previa conceptualización
de numerosas propiedades físicas y químicas, y en saber cómo medir esas propiedades. El
concepto de “mezcla” pudo ser definido entonces como un material compuesto por dos o más
sustancias.
El siguiente paso crucial fue dividir las sustancias en elementos y compuestos. Eso fue posible
gracias al descubrimiento de que en las reacciones químicas la masa se conserva, o sea, el peso
total de los reactivos es siempre igual al peso total de los productos. Los científicos se dieron
cuenta de que algunas sustancias pueden descomponerse en dos o más sustancias diferentes
mientras mantienen el mismo peso total; por otro lado, otras sustancias diferentes se resisten a
cualquier intento de descomposición química. Las que no pueden descomponerse son elementos;
las que pueden descomponerse son compuestos, es decir, sustancias formadas por dos o más
elementos. Partiendo del principio de conservación de la masa y del método del análisis
cuantitativo, la química se liberó finalmente de conjeturas arbitrarias; la escala de pesos dio un
veredicto objetivo.
Los “elementos” de los griegos no pudieron resistir el nuevo método cuantitativo. En 1774 se
descubrió que el aire es una mezcla de nitrógeno y oxígeno. Más o menos al mismo tiempo,
Lavoisier demostró que la combustión es el resultado de combinar ciertas sustancias con
oxígeno, en vez de ser una liberación de elemento “fuego”. Unos años más tarde se demostró que
el agua es un compuesto formado por dos elementos, hidrógeno y oxígeno. Se demostró también
que el elemento griego restante, la tierra, se compone de muchas sustancias diferentes. En total,
los químicos del siglo XVIII identificaron más de veinte elementos.
Gran parte de la confusión que había invadido las primeras etapas de la química estaba implícita
en la terminología utilizada. A menudo se le daba el mismo nombre a sustancias diferentes (por
ejemplo, todos los gases eran variantes de “aire”). Y al revés: a veces se usaban diferentes
nombres para referirse a la misma sustancia, dependiendo de cómo había sido sintetizada (el
elemento antimonio, por ejemplo, tenía al menos cuatro nombres). En otros casos se le daba a los
compuestos el nombre de su descubridor o el del lugar en el que se habían encontrado; esos
nombres no daban ninguna pista sobre la composición de la sustancia. La situación empeoró aún
más a causa del legado de los alquimistas, que se veían a sí mismos como un culto secreto y por
ello empleaban terminología intencionadamente críptica (por ejemplo: “león verde”, “régulo
estrellado de Marte”).
Lavoisier fue el primero en decidir poner orden en este caos. Se dio cuenta de que las verdaderas
generalizaciones pueden alcanzarse y expresarse sólo a través de un vocabulario objetivo. Fue él
quien originó muchos de los nombres modernos de los elementos, y los nombres que dio a los
compuestos identificaban sus elementos constituyentes. Clasificó las sustancias en amplios
grupos (por ejemplo ácidos, alcaloides, sales) según sus propiedades esenciales. Comprendió que
los conceptos no son convenciones arbitrarias, sino integraciones de particulares semejantes, y
que los agrupamientos deben hacerse en base a los hechos. Una palabra que hace referencia más
o menos a una colección de cosas que no son similares sólo puede llevar a errores y confusiones.
Por otro lado, Lavoisier observó que “un vocabulario bien estructurado… no permite a los
profesores de química desviarse del curso de la naturaleza; o tienen que rechazar la nomenclatura
o deben seguir irresistiblemente el curso que ésta marca. La lógica de las ciencias depende
esencialmente de su lenguaje.”2 Lavoisier presentó su nuevo vocabulario—el vocabulario
químico que seguimos utilizando en la actualidad—en una obra revolucionaria, Elementos de
química, publicada en 1789.
Con un fundamento proporcionado por un método cuantitativo, y con un vocabulario objetivo,
los químicos posteriores a Lavoisier hicieron progresos rápidamente para comprender cómo los
elementos se combinan para formar compuestos. El siguiente descubrimiento crucial lo hizo
Joseph Louis Proust, quien dedicó muchos años al estudio de varios compuestos con metales
(como carbonatos, óxidos y sulfuros). En 1799, anunció la ley de la composición constante, que
afirma que muestras diferentes de un compuesto siempre contienen los mismos elementos en las
mismas proporciones de masa. Por ejemplo, mostró que el carbonato de cobre siempre contiene
cobre, oxígeno y carbono en las mismas proporciones de masa (aproximadamente 5-4-1), sin
importar cómo se había preparado la muestra en el laboratorio o cómo se había extraído de la
naturaleza.
Al principio, las evidencias en favor de la ley de Proust eran fuertes, pero no eran concluyentes.
Otro químico francés, Claude Louis Bertholett, afirmó haber encontrado contraejemplos. Señaló
que el plomo puede reaccionar con una cantidad variable de oxígeno, dando lugar a un material
que varía en color de forma continua. El mercurio proporciona un ejemplo similar cuando se
disuelve en ácido nítrico, de forma que también reacciona con una cantidad variable de oxígeno.
Sin embargo, Proust analizó cuidadosamente esos casos y mostró que los productos eran
mezclas, y no compuestos; el plomo formaba tres óxidos diferentes, y el mercurio reaccionaba
formando dos sales diferentes. Ya por 1805, al reconocer que muchos de los supuestos
contraejemplos eran de hecho mezclas de dos o más compuestos, los químicos aceptaron la ley
de la composición constante. Los químicos de este periodo descubrieron que varios otros
metales, como el plomo, se combinan con el oxígeno formando más de un compuesto. Hay dos
óxidos de estaño, dos de cobre y tres de hierro. Además, este fenómeno no se limita a los óxidos
de metales; los químicos identificaron dos gases diferentes compuestos por carbono y oxígeno, y
otros dos gases compuestos por carbono e hidrógeno. Al medir cuidadosamente los pesos de los
elementos constituyentes en esos casos, apareció un patrón importantísimo.
En 1803, John Dalton analizó tres gases compuestos por nitrógeno y oxígeno. El primero es un
gas incoloro de olor agradable y que provoca una risa histérica cuando se inhala; el segundo es
incoloro, casi inodoro, y tiene una densidad de masa mucho menor; el tercero tiene la densidad
de masa más alta de los tres y, a altas temperaturas, es de color marrón oscuro. El análisis
cuantitativo mostró que los tres gases se distinguen también por los pesos relativos de los dos
elementos que los constituyen. Al considerar muestras de cada gas que contienen 1.75 gramos de
nitrógeno, encontramos que el gas de la risa contiene un gramo de oxígeno, el segundo gas
contiene dos gramos, y el tercer gas contiene cuatro gramos. Dalton encontró un resultado
parecido al analizar dos gases diferentes, ambos compuestos por carbono e hidrógeno; para
muestras con el mismo peso en carbono, el peso del hidrógeno contenido en uno de los gases es
exactamente el doble que en el otro. En base a esos datos, Dalton llegó a una nueva ley: Cuando
dos elementos se combinan dando lugar a más de un compuesto, los pesos de un elemento que se
combinan con pesos iguales del otro están en múltiples proporciones simples.
Como pasó en el caso de la ley de la composición constante, los químicos no aceptaron de
inmediato la ley de las proporciones múltiples cuando Dalton publicó en 1808 su libro Un nuevo
sistema de filosofía química. Había tres problemas. Primero, eran necesarios datos más precisos
para verificar las proporciones enteras de las masas. Segundo, hacían falta más ejemplos de la
ley, que abarcaran desde gases ligeros a compuestos metálicos pesados (Dalton había estudiado
sólo unos pocos gases). Tercero, había que resolver las aparentes violaciones de la ley mostrando
que esos casos siempre involucraban mezclas, y no compuestos. Gracias en gran medida al
sobresaliente trabajo de un químico sueco, Jons Jacob Berzelius, esos tres problemas se
resolvieron en menos de una década. Para el año 1816 Berzelius había demostrado la ley de las
proporciones múltiples más allá de cualquier margen de duda.
Esta ley dio el primer indicio claro de la teoría atómica de la materia. La ley implica que cuando
los elementos se combinan formando compuestos, lo hacen en unidades discretas de masa. Un
componente puede contener una unidad de un elemento, o dos, o tres, pero nunca 2.63 de esas
unidades. Eso es justamente lo que uno esperaría si cada elemento químico estuviera hecho de
átomos de idéntica masa. Por fin la naturaleza de la materia se había revelado a sí misma en las
observaciones.
El concepto de “átomo” que surgió de las observaciones fue diferente al de la vieja idea basada
en deducciones a partir de abstracciones flotantes. En la Antigua Grecia, el “átomo” había sido
definido como la unidad última de materia, inmutable e irreducible. Sin embargo, Lavoisier
señaló que la idea griega no tenía sentido porque no se sabía nada sobre esas partículas últimas.
En contraste, el nuevo concepto científico que tomó forma a principios del siglo XIX era el
concepto de átomo químico. Los científicos comprendieron que era necesario redefinir el átomo
como la partícula más pequeña de un elemento que puede participar en una reacción química.
La cuestión de si es posible fragmentar estos átomos químicos en otros constituyentes más
pequeños por medios no químicos tuvo que ser dejada de lado y quedar pendiente. Con este
conocimiento, el término “átomo” adquirió por primera vez un contenido real.
Casi al mismo tiempo que se publicó el libro de Dalton, el químico francés Joseph Louis Gay-
Lussac descubrió otra ley que ponía de manifiesto la naturaleza discreta de los elementos
químicos. Gay-Lussac descubrió que los volúmenes de los gases involucrados en una reacción
siempre pueden ser expresados en proporciones de números enteros pequeños. A una
temperatura por encima del punto de ebullición del agua, por ejemplo, un litro de oxígeno
siempre se combinará con dos litros de hidrógeno para dar exactamente dos litros de vapor de
agua. Gay-Lussac citó muchos otros casos de la ley. Por ejemplo: un litro de nitrógeno se
combinará con tres litros de hidrógeno produciendo exactamente dos litros de amoníaco gaseoso,
o se podrá combinar con un litro de oxígeno generando exactamente dos litros de óxido nítrico.
Aunque Gay-Lussac dijo que su ley de la combinación de volúmenes de gases era “muy
favorable para la teoría atómica,” no dejó muy claras las implicaciones que tenía.3 La tarea
quedó para un científico italiano llamado Amadeo Avogadro.
Según la teoría atómica, una sustancia está compuesta por moléculas, o sea, por partículas a su
vez constituidas por uno o más átomos. A nivel microscópico, una reacción química ocurre
cuando un pequeño número de moléculas (normalmente dos) se encuentran, los átomos se
reorganizan, y el resultado es un pequeño número de moléculas distintas. Así, si comparamos el
número de moléculas de cada reactivo y de cada producto, deben resultar en proporciones de
números enteros pequeños. Pero eso es justamente lo que Gay-Lussac había descubierto para los
volúmenes de gases que intervienen en una reacción. Avogadro razonó que, por lo tanto, debe
haber una relación directa entre el volumen y el número de moléculas. En 1811 propuso su
hipótesis: Volúmenes iguales de gases (a la misma temperatura y presión) contienen el mismo
número de moléculas. (En este caso el término “hipótesis” no se refiere a una proposición
arbitraria, sino a una proposición inducida a partir de evidencias que no son todavía
concluyentes.)
La hipótesis de Avogadro tiene consecuencias extraordinarias. Establece proporciones entre
volúmenes—una cantidad medible y macroscópica—con el número de moléculas que
intervienen en cada reacción química individual a nivel microscópico. Así, el hecho de que dos
litros de hidrógeno reaccionen con un litro de oxígeno dando lugar a dos litros de vapor de agua
implica, según Avogadro, que dos moléculas de hidrógeno reaccionan con una molécula de
oxígeno dando lugar a dos moléculas de agua. En muchos de los casos, su hipótesis le permitió
determinar el número de átomos que hay en cada molécula. Comparando las diversas reacciones
que se conocían, concluyó que los gases habituales son diatómicos, es decir, que una molécula de
hidrógeno está formada por dos átomos de hidrógeno ligados, y lo mismo pasa con el oxígeno y
el nitrógeno. A partir de su hipótesis y de las proporciones entre volúmenes, Avogadro llegó a la
conclusión de que una molécula de agua se compone de dos átomos de hidrógeno combinados
con un átomo de oxígeno, y que la molécula de amoníaco son tres átomos de hidrógeno
combinados con un átomo de nitrógeno. La medida de variables macroscópicas como la masa y
el volumen estaba revelando el mundo oculto de átomos y moléculas.
Los científicos no tardaron en descubrir otra variable macroscópica que arrojaba luz sobre el
mundo microscópico. El “calor específico” de una sustancia se define como la cantidad de calor
necesaria para aumentar en un grado la temperatura de un gramo de esa sustancia. Se sabía que
los calores específicos de elementos distintos varían en un amplio intervalo. Cuando, por
ejemplo, los científicos compararon pesos iguales de cobre y de plomo descubrieron que, para
causar el mismo aumento de temperatura, el cobre necesita tres veces más calor que el plomo.
En 1819, dos físicos franceses, Pierre Dulong y Alexis Petit, midieron los calores específicos de
muchos metales puros y descubrieron una extraordinaria relación. En vez de comparar pesos
iguales de elementos diferentes, decidieron comparar muestras que tuvieran el mismo número de
átomos. Así que multiplicaron los calores específicos que habían medido, por los pesos atómicos
relativos que habían sido determinados por los químicos. Este cálculo sencillo da el calor
específico para un número concreto de átomos, en vez del calor específico por unidad de masa.
Cuando Dulong y Petit llevaron a cabo sus cuidadosas medidas de calor específico y las
multiplicaron por los pesos atómicos, llegaron prácticamente al mismo número para todos los
elementos metálicos que habían estudiado. En otras palabras, encontraron que números iguales
de átomos absorben cantidades iguales de calor. Así, las grandes variaciones en los calores
específicos de los metales pueden explicarse simplemente por las diferencias en el número de
átomos. Esta es una evidencia impresionante en favor de la composición atómica de la materia.
La ley de Dulong-Petit resultó ser aproximadamente cierta para la gran mayoría de elementos
sólidos. Sin embargo, se descubrió una excepción notable: el carbono tiene un calor específico
mucho más pequeño que el valor que predice la ley. Pero como se sabía que el carbón tiene otras
propiedades poco comunes, era razonable que los científicos aceptasen la relación causal entre
capacidad calorífica y número de átomos, y que consideraran al carbono como un caso especial
en el que había factores causales adicionales desconocidos que jugaban un papel importante.
Una de las propiedades inusuales del carbono la había demostrado unos años antes Humphry
Davy, un químico inglés. La forma pura del carbono es la sustancia negra y calcárea que
llamamos grafito. Sin embargo, el carbono también existe en otra forma sólida. En 1814, Davy
usó una enorme lupa para quemar un diamante en presencia de oxígeno, y el producto fue
dióxido de carbono gaseoso. Había demostrado que el grafito y el diamante—materiales con
propiedades radicalmente distintas—están compuestos del mismo elemento. Este fenómeno es
inusual, pero no es único: los químicos sabían que el estaño también existe tanto como un polvo
gris y en la forma de un metal blanco y maleable. Formas distintas del mismo elemento se llaman
“alotrópicas”.
En la década siguiente, los químicos descubrieron un fenómeno similar en los compuestos. En
1823, el químico alemán Justus von Liebig hizo un análisis cuantitativo del fulminato de plata;
prácticamente al mismo tiempo, su colega Friedrich Wohler analizó el cianato de plata. Estos
compuestos tienen propiedades químicas muy diferentes; por ejemplo, el fulminato reacciona de
forma explosiva, mientras que el cianato no lo hace. Sin embargo, cuando ambos químicos
compararon sus notas, encontraron que esos dos compuestos están formados por plata, oxígeno,
carbono y nitrógeno en proporciones iguales. Poco después, Wohler demostró que el cianato de
amonio y la urea—los cuales también tienen propiedades muy distintas—están compuestos por
idénticas proporciones de hidrógeno, nitrógeno, carbono y oxígeno. Se descubrieron varios casos
más de estos en la década de 1820. A los diferentes compuestos químicos formados por los
mismos elementos en idénticas proporciones se les llamó “isómeros”, término que deriva de
palabras griegas que significan “partes iguales”.
La existencia de isómeros y alótropos claramente presentaba problemas en cualquier teoría
continua de la materia. Parece que una teoría de ese tipo debería implicar que los mismos
elementos mezclados en las mismas proporciones deberían dar lugar al mismo material. Sin
embargo, según la teoría atómica, las propiedades químicas de una molécula vienen
determinadas tanto por los elementos como por su disposición; o sea, que no sólo las
proporciones entre los elementos son relevantes, sino también qué átomos están enlazados a qué
otros y en qué configuración espacial. Por ello, cuando Berzelius escribió sobre los isómeros,
expresó la implicación de forma clara: “Parece como si los átomos simples que componen las
sustancias pudieran unirse entre sí de formas diferentes.”4 Como veremos, los isómeros estaban
destinados a jugar un importante papel en la determinación de muchas estructuras moleculares y
en la demostración de la teoría atómica.
Unos diez años después del descubrimiento de los isómeros, otro campo más aportó evidencias
en favor de la composición atómica de la materia. Desde que Alessandro Volta había anunciado
el invento de la pila eléctrica en 1800, los científicos habían estado investigando la relación entre
las reacciones químicas y la electricidad. Una pila no es más que una reacción química que tiene
lugar entre electrodos, y que genera una corriente eléctrica en cualquier conductor que conecte
los electrodos entre sí. Esa reacción química ocurre espontáneamente y provoca la corriente. Los
científicos descubrieron pronto que podían invertir este proceso: bajo ciertas condiciones, es
posible usar una corriente eléctrica para cargar electrodos y estimular una reacción química en
una disolución que haya entre ambos. Este proceso inverso se llama electrólisis.
Recordemos que Dulong y Petit habían descubierto que la capacidad calorífica es proporcional
no a la masa, sino al número de moléculas contenidas en la muestra. A principios de la década de
1830, Michael Faraday descubrió que existe una relación parecida entre la electricidad y el
número de moléculas. Consideremos, por ejemplo, una disolución electrolítica de ácido
clorhídrico. Faraday descubrió que una cantidad específica de electricidad que pasa a través de la
disolución generará un gramo de hidrógeno gaseoso en el electrodo negativo, y treinta y seis
gramos de cloro gaseoso en el electrodo positivo. Se sabía que el ácido clorhídrico contiene
hidrógeno y cloro en una proporción de masas de uno a treinta y seis. Faraday concluyó que las
moléculas de ácido clorhídrico se rompen en “iones” de hidrógeno cargados positivamente (que
son atraídos hacia el electrodo negativo) y en “iones” de cloro cargados negativamente (que son
atraídos hacia el electrodo positivo), de forma que cada átomo lleva una cantidad igual de carga
eléctrica a través de la disolución.
Faraday llegó a esta conclusión después de llevar a cabo experimentos con muchas disoluciones
electrolíticas diferentes. En cada caso usó los pesos atómicos relativos para mostrar que la
cantidad de electricidad siempre es proporcional al número de moléculas que reaccionan en cada
electrodo. “Hay una inmensidad de hechos”, escribió, “que nos justifican en creer que los átomos
de la materia están imbuidos de alguna manera con poderes eléctricos o se asocian con ellos…”5
Y añadió que los resultados de sus experimentos de electrólisis parecían implicar que “los
átomos de los cuerpos… tienen cantidades iguales de electricidad naturalmente asociada a
ellos.”6
En realidad, algunos de los elementos de los experimentos de Faraday estaban ionizados una vez,
de forma que llevaban una unidad de carga eléctrica, mientras que otros estaban doblemente
ionizados, con lo que llevaban dos unidades de carga. Faraday pasó este hecho por alto porque en
los casos de los elementos doblemente ionizados había usado pesos atómicos que eran la mitad
del valor correcto, y este error hizo que subestimara la carga eléctrica por átomo en un factor dos.
Si hubiera usado los pesos atómicos correctos, sus experimentos le habrían llevado al
importantísimo descubrimiento de que las cargas eléctricas de los iones varían en unidades
discretas.
En esta etapa todavía había mucha controversia y confusión en torno a los pesos relativos de los
átomos. En un argumento inválido basado principalmente en la “simplicidad”, Dalton había
concluido que una molécula de agua contiene un átomo de hidrógeno y un átomo de oxígeno. Si
se le asigna al hidrógeno un peso de una unidad, esta fórmula molecular incorrecta implica que el
peso del oxígeno es ocho en vez de ser dieciséis. Como los pesos de muchos otros elementos
eran medidos en base al oxígeno, este factor equivocado de dos se propagó por toda la tabla de
pesos atómicos como una enfermedad infecciosa.
La cura para esta enfermedad es la hipótesis de Avogadro. Como hemos visto, la idea de
Avogadro le llevó a la fórmula molecular correcta para el agua, y por lo tanto al peso atómico
correcto para el oxígeno. Por desgracia, había dos premisas falsas que impidieron que los
científicos captaran esta verdad fundamental.
La primera premisa falsa fue una generalización prematura en cuanto a la naturaleza del enlace
químico. Como los compuestos pueden descomponerse por electrólisis en iones cargados
positiva y negativamente, muchos científicos llegaron a la conclusión de que el enlace químico
se puede explicar simplemente como una atracción eléctrica. Por ejemplo, se asumió que una
molécula de ácido clorhídrico se mantiene estable por la fuerza atractiva entre el hidrógeno
electropositivo y el cloro electronegativo. Según esta idea, todos los enlaces químicos deben
suceder entre átomos con diferentes “afinidades eléctricas”, para que pueda aparecer una fuerza
atractiva entre los átomos positivos y los negativos.
La hipótesis de Avogadro, sin embargo, implica que las moléculas de muchos elementos
gaseosos son diatómicas. Por ejemplo, Avogadro afirmó que dos átomos de hidrógeno—ambos
electropositivos—se enlazan, y también dos átomos de cloro, ambos electronegativos. Pero como
las cargas del mismo signo se repelen, la existencia de esas moléculas diatómicas parecía
imposible, según la teoría eléctrica del enlace químico. Como consecuencia de esto, muchos
químicos—incluyendo pioneros en el campo como Berzelius y Davy—rechazaron la hipótesis de
Avogadro.
La segunda premisa falsa tenía que ver con la naturaleza física de los gases. Muchos científicos,
Dalton incluido, pensaban que la presión y la elasticidad de los gases implican la existencia de
una fuerza repulsiva entre átomos idénticos del mismo gas. Dalton demostró que, en el caso de
una mezcla de gases, cada gas elemental se comporta de forma independiente, o sea, que la
presión total es simplemente la suma de las presiones individuales. Por lo tanto, concluyó, no hay
fuerza repulsiva entre átomos de gases diferentes. Sin embargo, como pensaba que esa fuerza sí
existía entre átomos idénticos, no pudo aceptar la hipótesis de Avogadro con su implicación de
las moléculas diatómicas. ¿Cómo podían dos átomos que se repelían con tanta fuerza juntarse y
enlazarse?
Sin la hipótesis de Avogadro, no había explicación posible para la ley de combinar volúmenes de
gases, ni forma alguna de llegar a los pesos atómicos sin ambigüedad. Los pesos atómicos
equivocados crearon un montón de problemas, desde fórmulas moleculares incorrectas hasta
choques con la ley de Dulong-Petit de las capacidades caloríficas. Por tanto, el poder explicativo
y la función integradora de la teoría atómica parecían estar seriamente impactados. Se tardó
décadas en resolver este problema, a pesar de que las piezas de la solución habían estado
disponibles todo el tiempo. El motivo es que los químicos no podían validar las piezas ni
juntarlas para poder llegar a una teoría fundamental de la materia. Necesitaron ayuda de quienes
estudian la ciencia fundamental de la materia: necesitaron la ayuda de los físicos.

La teoría cinética de los gases

El estudio del calor y de los gases fue lo que llevó a los físicos a la teoría atómica, y
eventualmente lo que unió a las ciencias de la física y la química en un todo.
En el siglo XVIII se creía comúnmente que el calor era un fluido (al que llamaban “calórico”),
algo que fluye de los cuerpos calientes a los fríos. Sin embargo, a finales de siglo, hubo dos
experimentos que aportaron fuertes evidencias de que el calor no era una sustancia, sino algún
tipo de movimiento interno de la materia que compone los cuerpos.
En 1798 el Conde Rumford (de nombre Benjamin Thompson) estaba supervisando la fabricación
de cañones en el arsenal militar de Munich. Al sorprenderse por la enorme cantidad de calor que
se generaba en la perforación de los cañones, decidió investigar el fenómeno. Colocó un cañón
de bronce en una caja de madera llena de agua fría, y lo taladró con una broca de hierro
despuntada. Al cabo de unas dos horas y media, el agua comenzó a hervir. El aporte de calor
aparentemente inagotable le llevó a Rumford a rechazar la teoría del calórico. Dijo: “Cualquier
cosa que un cuerpo aislado, o un sistema de cuerpos, pueda seguir suministrando sin límite, no
puede ser de ninguna manera una sustancia material.”7 En el experimento, lo que se aportaba al
sistema de cuerpos era movimiento; por tanto Rumford concluyó que el calor debe ser algún tipo
de movimiento interno.
El año siguiente, Humphry Davy llegó a la misma conclusión mediante un experimento en el que
los cuerpos que se calentaban habían sido aislados de forma más cuidadosa. Usando un
recipiente de vidrio vaciado de aire y mantenido a una temperatura por debajo del punto de
congelación del agua, Davy ideó una forma de frotar con fuerza dos bloques de hielo. El hielo se
derritió, a pesar de que no había ninguna fuente posible de “calor fluido”. Davy presentó con
énfasis su conclusión: “Se ha demostrado experimentalmente que el calórico, o sea, la materia
del calor, no existe.” Coincidiendo con Rumford, Davy añadió: “El calor… puede definirse como
un movimiento peculiar, probablemente una vibración, de los corpúsculos de los cuerpos…”8
Aunque estos experimentos mostraron el camino hacia una nueva comprensión del calor, hay dos
razones por las que no influyeron significativamente sobre la física a principios del siglo XIX.
Primero, muchos físicos eran reacios a abandonar el concepto de “calórico” porque parecía
explicar las semejanzas entre la conducción de calor y el flujo de los fluidos. Segundo, la idea
meramente cualitativa de que el calor es algún tipo de forma de movimiento interno sin
especificar tenía poco poder explicativo. Hasta que la relación cuantitativa entre calor y
movimiento fue identificada, la idea permaneció aletargada; no podía ser integrada con la
mecánica, y sus implicaciones no podían ser investigadas y explotadas. Cuando finalmente se le
dio forma matemática a la idea, eso llevó rápidamente a descubrimientos clave.
La relación cuantitativa quedó establecida tras una serie de experimentos brillantes llevados a
cabo por James Joule en torno a 1845. Joule diseñó un aparato en el que se usaban pesos en caída
para hacer girar una rueda de paletas en un recipiente con agua. En este dispositivo, el
movimiento externo de los pesos se convierte en calor, elevando así la temperatura del agua.
Joule demostró que el aumento de temperatura es proporcional al producto del peso por la
distancia que ha caído.
Lo que movía las ruedas eran dos pesos de plomo de 14 kg cada uno que caían repetidamente
desde una altura de unos 90 cm. La temperatura del agua era medida con termómetros que tenían
una precisión de media centésima de grado Celsius, y Joule llevó muchísimo cuidado para evitar
cualquier posible fuente de error en el experimento (por ejemplo, el calor absorbido por el
recipiente, y la pérdida de movimiento cuando los pesos chocaban contra el suelo). Joule llegó a
la conclusión de que un peso de 350 kg, al caer desde una altura de 30 cm puede elevar en medio
grado Celsius la temperatura de 453.5 g de agua (una libra); este resultado es increíblemente
próximo al valor correcto de 353 kg. Además, hizo experimentos parecidos usando aceite de
ballena y mercurio en vez de agua, y mostró que el factor de conversión entre el movimiento
externo y el calor suministrado siempre es el mismo.
El análisis cuantitativo de Joule pudo integrarse con la mecánica de Newton y así aclarar aún
más la función del movimiento concreta que tiene que ver con un incremento de temperatura. En
caída libre, el producto del peso del cuerpo por la altura de caída es igual a la mitad de la masa
del cuerpo multiplicada por el cuadrado de su velocidad. Los físicos llaman a esta función del
movimiento la “energía cinética” del cuerpo. Joule demostró que cuando la temperatura de un
material aumenta debido a la conversión de movimiento en calor, la cantidad de energía cinética
externa invertida es lo que es proporcional al incremento de temperatura. Así, si se puede
interpretar la temperatura como una medida de la energía cinética interna de las moléculas,
entonces este proceso consiste simplemente en convertir energía cinética externa en energía
cinética interna.
J. J. Waterston, otro físico inglés, estaba muy familiarizado con la obra de Joule y dio el
siguiente paso clave. Waterston dirigió su atención a la absorción de calor por parte de los gases,
en vez de por los líquidos o por los sólidos. Se sabía que los volúmenes de los gases eran
enormes en comparación con el volumen de cantidades correspondientes de líquido; por ejemplo,
a la presión atmosférica estándar y a la temperatura de ebullición del agua, el vapor ocupa un
volumen que es aproximadamente 1500 veces mayor que el de la misma masa de agua líquida.
Según la teoría atómica, esto significa que la distancia entre las moléculas de un gas es muy
grande comparada con el tamaño que tienen. Así, contrariamente a Dalton, Waterston argumentó
que, sean cuales sean las fuerzas entre moléculas, deben ser prácticamente despreciables en
estado gaseoso. De ser así, cada molécula se moverá a velocidad constante salvo que choque con
otra molécula del gas o con las paredes del recipiente.
Waterston consiguió también hacer un análisis razonable de la naturaleza de esas colisiones. Se
sabía que cuando se transfiere calor desde un cuerpo caliente a uno frío, la cantidad total de calor
se conserva. También se sabía que la energía cinética se conserva en las colisiones elásticas. Así
que, si el calor es una medida de la energía cinética interna de las moléculas, entonces las
colisiones moleculares deben ser de naturaleza elástica. De esa forma Waterston llegó a su
simple modelo de los gases: las moléculas se mueven libremente excepto cuando impactan,
momento en el que cambia cómo se mueven de tal forma que tanto la cantidad de movimiento
como la energía cinética se conservan.9
Basándose en este modelo, Waterston pudo llegar a una ley que relaciona la presión, el volumen
y la energía de un gas. Mostró que el producto de la presión por el volumen es proporcional al
número de moléculas y a la energía cinética promedio de éstas. Este resultado se integraba
perfectamente con lo que ya se sabía sobre el calor y los gases. Si se iguala la temperatura con la
energía cinética media de las moléculas, entonces la ley de Waterston dice que el producto de la
presión por el volumen es proporcional a la temperatura, y esa es precisamente la ley de los gases
que había demostrado experimentalmente Jacques Charles casi sesenta años antes. Además, la
ley de Waterston implica que, a temperatura constante, la presión de un gas es proporcional a su
densidad de masa, una relación que ya había sido demostrada experimentalmente unas décadas.
Finalmente, la ley implica que volúmenes iguales de gases deben contener el mismo número de
moléculas, siempre y cuando la presión y la temperatura sean las mismas: es decir, que la
hipótesis de Avogadro se sigue necesariamente a partir de este modelo molecular de los gases y
de las leyes de Newton. El poder explicativo del análisis de Waterston fue increíble. Podemos
entender por qué escribió: “Ahora, parece casi imposible escapar a la inferencia de que el calor
es esencialmente energía cinética molecular.”10
Sin embargo, la ley atómica de los gases tenía un corolario que a muchos físicos, al principio, les
pareció problemático. La ley relaciona la velocidad media de las moléculas de un gas con la
presión y la densidad de masa de ese gas, dos cosas que pueden medirse. Por tanto, se podía
calcular la velocidad de las moléculas, y el resultado era sorprendentemente alto. Por ejemplo, a
presión y temperatura estándares, la ley implica que las moléculas de aire se mueven a una
velocidad media de casi 500 m/s. Pero sabían que cuando un gas de olor fuerte se genera en una
esquina del laboratorio, puede pasar un minuto hasta ser detectado en la esquina opuesta de la
habitación. Si las moléculas del gas se mueven tan deprisa, ¿por qué tardan tanto en llegar?
La respuesta la dio por primera vez Rudolf Clausius, un físico alemán, en un artículo publicado
en 1858. Clausius planteó que las moléculas viajan solamente una corta distancia antes de
impactar con otras moléculas. En su recorrido al atravesar una habitación, el avance de una
molécula se ve enormemente ralentizado por miles de millones de colisiones y sus consecuentes
cambios de dirección. Por ello, introdujo la idea del “recorrido libre medio” de una molécula, o
sea, la distancia promedio que recorre una molécula antes de sufrir un choque. Él estimó que esa
distancia, aunque fuese incluso mil veces mayor que el diámetro de una molécula, seguía siendo
muy pequeña en comparación con las distancias macroscópicas. A la idea de “recorrido libre
medio” le sacó partido el físico teórico más importante del siglo XIX, James Clerk Maxwell, y
esta idea jugó un papel clave en el desarrollo que él hizo de la teoría atómica de los gases.
Maxwell fue capaz de llegar a ecuaciones que relacionan el recorrido libre medio con los ritmos
de difusión gaseosa y la conducción de calor. Mostró que el ritmo de difusión es proporcional al
producto de la velocidad promedio de las moléculas por su recorrido libre medio, y que el ritmo
de conducción de calor es proporcional al producto de la velocidad, el recorrido libre medio y la
capacidad calorífica. Estas ecuaciones no tardaron en ser verificadas por experimentos, y
Maxwell afirmó con satisfacción: “Los resultados numéricos… coinciden de forma notable con
la fórmula derivada a partir de la energía cinética.”11
Aunque esta explicación de los ritmos de difusión y conducción de calor fue muy impresionante,
la predicción más extraordinaria de la teoría de Maxwell tuvo que ver con la viscosidad de los
gases. La viscosidad es una medida de la resistencia interna a fluir; por poner un ejemplo
cotidiano comparando líquidos, la miel tiene una viscosidad muy superior a la del agua. Maxwell
demostró que la viscosidad de un gas es proporcional al producto de la densidad de masa, el
recorrido libre medio, y la velocidad media de las moléculas. Si se considera de forma aislada,
esta relación puede no parecer tan sorprendente. Sin embargo, el recorrido libre medio es
inversamente proporcional al número de moléculas por unidad de volumen en el gas, o sea, a la
densidad, y por tanto, combinando estas dos relaciones, la viscosidad gaseosa resulta ser
independiente de la densidad. La teoría atómica predice que la viscosidad seguirá siendo la
misma incluso después de retirar la mayoría de las moléculas del gas.
A primera vista, este resultado parece ir contra el sentido común. En una carta a un colega,
Maxwell comentó: “Esto es ciertamente algo muy inesperado, el que la fricción sea igual de
intensa en un gas enrarecido y en un gas denso.”12 Al principio, él no estaba muy convencido de
que los experimentos pudiesen confirmar la ley. Su predicción puso a prueba la teoría atómica de
forma crítica, pero cuando buscó en la literatura disponible en 1860, encontró que no se había
hecho ningún experimento sobre ello.
Maxwell decidió hacer el experimento él mismo. Diseñó un péndulo de torsión en el que la
rotación de un lado a otro de unos discos de vidrio se veía impedida por la fricción del aire. En
este caso, el ritmo de frenado de los discos que oscilan es proporcional a la viscosidad del aire.
El aparato estaba encerrado en un recipiente de vidrio, y se usaba una bomba para variar la
presión del aire dentro del recipiente (la presión se medía con un barómetro de mercurio). Fue un
triunfo dramático para la teoría atómica cuando Maxwell observó que el ritmo de frenado de las
oscilaciones se mantenía constante al variar la presión del aire desde 12.3 hasta 762 mm de
mercurio.13 Publicó estos resultados en 1866.
Aunque la ley parezca paradójica, Maxwell se dio cuenta de por qué la teoría atómica implica
que la viscosidad de los gases tiene que ser independiente de la densidad. El aire que está muy
cerca del disco de vidrio tiende a moverse con el disco, causando así poca resistencia de fricción;
pero por otro lado el aire que está más lejos comparte ese movimiento en menor medida. Cuando
se retira la mayor parte del aire, el número de colisiones entre las moléculas de aire y el disco
disminuye, pero como las moléculas que colisionan vienen de lejos, el momento que transmiten
por colisión aumenta proporcionalmente. Por tanto, la fuerza resistiva se mantiene constante.
Una generación más tarde, un físico comentó: “En todo el rango de la ciencia no hay ningún
descubrimiento más bello ni más esclarecedor que el de que la viscosidad gaseosa sea la misma a
cualquier densidad.”14
La teoría de los gases tuvo una implicación adicional interesante. Se mostró que el diámetro de
las moléculas puede expresarse en términos de dos cantidades: el recorrido libre medio en estado
gaseoso, y el “coeficiente de condensación”, que es la proporción entre los volúmenes de líquido
y de gas en el punto de ebullición. El recorrido libre medio podía calcularse a partir de los
resultados de experimentos que medían la viscosidad gaseosa, la difusión o la conducción de
calor. También se habían medido los coeficientes de condensación para varios gases. En 1865, el
físico alemán Joseph Loschmidt combinó todos estos datos y llegó a la conclusión de que las
moléculas tienen un diámetro de aproximadamente un nanómetro. Poco después, Maxwell
mejoró el cálculo y llegó a una estimación más precisa de los diámetros moleculares, que
resultaron ser un poco más pequeños.
En 1870, Lord Kelvin (de nombre William Thomson) extendió el análisis, mostrando que los
tamaños de las moléculas podían ser estimados por varios métodos. Al resultado anterior le
añadió estimaciones basadas en la dispersión de la luz, la electricidad por contacto en los
metales, y la acción capilar en láminas delgadas (como son las pompas de jabón).15 Los
resultados de los cuatro métodos independientes coincidían, y Kelvin señaló lo impresionante
que resultaba que unos datos tan diversos pudieran todos apuntar hacia la misma conclusión.
Los físicos habían hecho su parte. Y mientras ellos desarrollaron la teoría atómica de los gases,
los químicos no se quedaron de brazos cruzados. Las décadas centrales del siglo XIX fueron un
periodo de progresos extraordinarios en química, y el progreso dependió del paso a pensar en
términos de átomos.

La unificación de la química

Antes, dejamos a los químicos enfrentándose a un problema. Habían descubierto fuertes


evidencias en favor de la teoría atómica, pero unas ideas falsas sobre la naturaleza de los gases y
del enlace químico les habían llevado a muchos a negar la posibilidad de las moléculas de gas
diatómicas, lo cual les llevó a rechazar la hipótesis de Avogadro, lo cual les dejó sin poder llegar
a los pesos atómicos correctos, lo cual les llevó a una maraña de problemas, incluyendo a
contradicciones con la ley de Dulong-Petit sobre capacidades caloríficas. Antes de que la
química pudiera liberarse de esas contradicciones, había que aceptar el hecho de que las
moléculas de gases elementales a menudo están compuestas por más de un átomo.
Una pista importante para resolver este problema vino del mismo tipo de experimentos que se
habían usado para justificar la teoría iónica del enlace, que era demasiado simplista. Cuando se
usaban pilas potentes en experimentos de electrólisis, algunos químicos advirtieron un “olor a
electricidad” en el electrodo positivo. Era el mismo olor que se había encontrado anteriormente
en experimentos con descargas eléctricas en el aire. Los químicos se dieron cuenta de que allí
había un nuevo gas, al que llamaron “ozono”, un gas que se generaba en esos experimentos.
El primer gran paso para identificar este gas lo hizo en 1845 Jean de Marignac, un profesor de
química de Ginebra. Marignac mostró que se podía producir ozono en una descarga a través de
oxígeno gaseoso ordinario, y concluyó que el ozono debe ser una forma alotrópica del oxígeno.
La existencia de dos gases de oxígeno muy distintos parecía imposible de explicar a menos que
los átomos de oxígeno se pudieran combinar con otros átomos de oxígeno. Este era un resultado
experimental que directamente contradecía el argumento contra las moléculas de gas diatómicas.
El propio Berzelius, uno de los primeros en proponer la teoría iónica del enlace, reconoció la
importancia de este descubrimiento. Ya no era razonable negar que las moléculas de un gas
pudieran ser combinaciones de átomos iguales.
Por tanto, el descubrimiento del ozono, en combinación con la derivación de la ley de los gases
que había hecho Waterston, debería haber llevado a aceptar la hipótesis de Avogadro en la
década de 1940. Sin embargo, por razones que se explicarán en el Capítulo 6, había un fuerte
sesgo contra la teoría atómica, y por eso el artículo de Waterston nunca fue publicado. A
consecuencia de esto, la confusión generalizada sobre los pesos atómicos se mantuvo más tiempo
del necesario. Fue un físico alemán, August Krönig, quien llegó a repetir la derivación de
Waterston y consiguió que la publicasen en 1856.
A diferencia de Waterston, Krönig no señaló explícitamente que la teoría atómica de los gases
proporcionaba una validación fundamental de la hipótesis de Avogadro. Sin embargo, al menos
un químico captó la implicación. En 1858, Stanislao Cannizzaro presentó la solución al problema
de los pesos atómicos en un artículo memorable titulado “Esbozo de un curso en filosofía
química”. El artículo es un modelo de pensamiento claro sobre un asunto que había estado
sumido en la oscuridad y en contradicciones durante décadas.
Cannizzaro mostró cómo integrar todos los datos relevantes para llegar a un conjunto de pesos
atómicos unívocamente determinados. La hipótesis de Avogadro era el núcleo de su argumento.
Muchos de los elementos más comunes—por ejemplo, hidrógeno, carbono, nitrógeno, oxígeno,
azufre y cloro—se combinan de varias formas formando gases. Las densidades del vapor de esos
gases habían sido medidas. Además, en los gases compuestos se sabía el porcentaje de peso de
cada elemento. El producto de la densidad de vapor y el porcentaje en peso da la densidad de
masa de cada elemento del gas. Como el número de moléculas es siempre el mismo para
volúmenes iguales (según la hipótesis de Avogadro), estas densidades de masa son
proporcionales al número de átomos de ese elemento que están contenidos en la molécula del
gas. Con esto puede determinarse la composición de las moléculas de gas, y de ahí pueden
deducirse los pesos atómicos relativos. Cannizzaro mostró que si al hidrógeno (el elemento más
ligero) se le asigna un peso atómico de 1, entonces el peso del carbono es 12, el del nitrógeno es
14, el del oxígeno es 16, y el del azufre es 32.
Una vez conocidos los pesos atómicos de esos elementos, los pesos de la mayoría de los otros
elementos podían ser determinados en relación a ellos. En los casos donde había ambigüedades
persistentes, Cannizzaro las resolvía a menudo usando la ley de Dulong-Petit sobre capacidades
caloríficas. Por regla general, los candidatos a peso atómico diferían en un factor dos, siendo que
uno de los valores se ajustaba a la ley de Dulong-Petit y el otro la contradecía.
En 1860, Cannizzaro aprovechó la oportunidad de presentar su artículo en una gran conferencia
que se dio en Karlsruhe, Alemania. Esta famosa reunión resultó ser un punto de inflexión en la
química del siglo XIX; en unos pocos años la mayoría de los químicos aceptaron los pesos
atómicos correctos. Un profesor de química, Lothar Meyer, expresó su reacción al artículo de
Cannizzaro así: “Fue como si hubiera caído un velo de mis ojos; mis dudas se esfumaron y
fueron sustituidas por una sensación de tranquila certeza.”16
Después de eliminar su mayor obstáculo, los químicos hicieron avances rápidos durante la
década siguiente. Con los pesos atómicos correctos pudieron determinar las fórmulas
moleculares correctas. Apareció un patrón que llevó al concepto nuevo de “valencia”, que tiene
que ver con la capacidad de un átomo para combinarse con otros átomos. Por ejemplo, un átomo
de carbono puede combinarse con hasta otros cuatro átomos, un átomo de nitrógeno con tres, uno
de oxígeno con dos, y uno de hidrógeno con uno. Uno puede imaginarse la valencia como siendo
el número de “ganchos” que tiene un átomo para engancharse con otros átomos.
El concepto de “valencia” lo introdujo por primera vez el químico inglés Edward Frankland, que
había concebido esa idea mientras estudiaba las distintas maneras en que se combina el carbono
con los metales.17 Frankland fue uno de los primeros químicos en hacer uso de los modelos de
bolas y alambres para la estructura molecular; en estos modelos, la valencia de un átomo
corresponde al número de alambres enganchados a la bola. En 1861, escribió: “El
comportamiento de los cuerpos organo-metálicos enseña un principio que afecta a los
compuestos químicos en general, y que puede llamarse el principio de saturación atómica; cada
elemento es capaz de combinarse con un cierto número de átomos; y este número nunca puede
sobrepasarse…”18 Identificó por primera vez esta “ley de la valencia” en la década de 1850,
aunque muchas de las valencias que inicialmente les asignó a los átomos no eran las correctas.
En 1866, después de que los errores hubieran sido corregidos, Frankland expresó su gratitud
hacia Cannizzaro: “No olvido lo mucho que esta ley, en su desarrollo presente, le debe al trabajo
de Cannizzaro. Sin duda, hasta que éste situó los pesos atómicos de los elementos metálicos en la
consistente base que tienen en el presente, el correcto desarrollo de este principio era
imposible.”19
En 1869 una revista científica inglesa publicó una reseña sobre la teoría atómica que consideraba
a la valencia como “la nueva idea que está revolucionando la química”.20 No era una
exageración. Antes, en ese mismo año, el químico ruso Dmitry Mendeleyev había propuesto una
clasificación sistemática de los elementos químicos, basándose en las propiedades del peso
atómico y la valencia, una clasificación que “unificó y racionalizó todo el esfuerzo de la
investigación química”.21
Varios químicos ya habían observado anteriormente que hay grupos naturales de elementos
químicos que tienen propiedades parecidas. Seis de esos grupos (que se conocían en aquella
época) son: (1) litio, sodio y potasio; (2) calcio, estroncio y bario; (3) flúor, cloro, bromo y yodo;
(4) oxígeno, azufre, selenio y teluro; (5) nitrógeno, fósforo, arsénico y antimonio; y (6) carbono,
silicio y estaño. En cada grupo, los elementos tienen la misma valencia y afinidades eléctricas
similares.
Mendeleyev construyó una tabla de todos los elementos conocidos en orden de peso atómico
creciente, y se dio cuenta de que elementos parecidos aparecen a intervalos regulares. De esta
forma, anunció su “ley periódica”: Las propiedades de los elementos son funciones periódicas de
sus pesos atómicos. En la versión moderna de su tabla, que se enseña en cualquier curso básico
de química, los elementos aparecen en orden de peso atómico ascendente en las filas
horizontales, y las columnas verticales contienen elementos de la misma valencia.
Mendeleyev señaló que “aparecen huecos vacantes para elementos que tal vez se descubran con
el tiempo”. Al captar cómo otras propiedades de un elemento se relacionan con su peso atómico
y su valencia, se dio cuenta de que “es posible predecir las propiedades de un elemento que
todavía se desconoce.” Por ejemplo, había un hueco debajo del aluminio que quedó ocupado
cuando se descubrió el galio en 1875, y otro debajo del silicio que quedó ocupado cuando se
descubrió el germanio en 1886. Mendeleyev predijo las propiedades de los dos elementos, y sus
predicciones resultaron ser notablemente precisas. Con la construcción de la tabla periódica, los
elementos químicos dejaron de estar aislados; la teoría atómica había hecho posible conectarlos a
todos en un todo inteligible.22
Los correctos pesos atómicos y valencias también llevaron a enormes avances en la nueva
frontera de la investigación en química: la determinación de la estructura molecular. En 1861, el
químico ruso Alexander Butlerov describió la ambiciosa meta de su nuevo programa de
investigación: “Sólo es posible una fórmula racional para cada compuesto, y cuando se hayan
encontrado las leyes generales que gobiernan la dependencia de las propiedades químicas según
la estructura molecular, esa fórmula representará todas esas propiedades.”23 Butlerov se dio
cuenta de que conocer el número de átomos y sus identidades no era suficiente; para comprender
las propiedades de un compuesto debe determinarse la disposición espacial de los átomos dentro
de la molécula. Entre los primeros triunfos notables de este programa se contó el descubrimiento
de la estructura molecular del benceno.
La existencia del benceno se conocía desde hacía varias décadas. En 1825, la Compañía de
Transporte de Gas de Londres le pidió a Michael Faraday que analizase un líquido desconocido,
un subproducto del proceso que generaba gas natural para iluminación. Mediante destilación,
Faraday obtuvo la primera muestra de benceno puro, un compuesto que estaba destinado a ser
muy útil tanto en la teoría química como en la práctica industrial. Sin embargo, el intento de
Faraday por analizarlo no fue del todo exitoso. Sin la hipótesis de Avogadro y asumiendo que el
peso atómico del carbono es seis en vez de doce, llegó a la fórmula molecular C2H, que no es la
correcta.
Basándose en el trabajo de Cannizzaro, finalmente se identificó correctamente la fórmula
molecular del benceno, que es C6H6, pero su estructura seguía siendo un misterio. Era un
compuesto muy estable que podía convertirse en muchos derivados sin descomponerse. Esto era
sorprendente, teniendo en cuenta que la proporción de hidrógenos a carbonos es tan baja. En
contraste, el compuesto acetileno (C2H2) tiene la misma proporción baja de hidrógenos a
carbonos y es altamente reactivo.
El estudio de los derivados del benceno, o sea, de los compuestos en los que uno o más átomos
de hidrógeno son reemplazados por otro átomo (o grupo de átomos), reveló otra propiedad
interesante. Se descubrió, por ejemplo, que sólo aparece un compuesto de clorobenceno cuando
un átomo de cloro sustituye a cualquiera de los átomos de hidrógeno. Por tanto, los átomos de
hidrógeno deben ocupar posiciones indistinguibles en la estructura, y eso implica que la
molécula de benceno es muy simétrica.
La estructura molecular del benceno que explica tanto su estabilidad como su simetría fue
propuesta por primera vez en 1861 por Loschmidt. Los seis átomos de carbono forman un anillo
hexagonal simétrico, y cada átomo de hidrógeno está unido a un carbono. La naturaleza
tetravalente del carbono implica que el anillo debe mantenerse unido por enlaces simples y
dobles alternados; de este modo, cada átomo de carbono usa tres de sus enlaces con átomos de
carbono adyacentes, y el cuarto con un átomo de hidrógeno.
Por desgracia, sólo unas pocas copias del libro de Loschmidt fueron publicadas por una editorial
desconocida, y por ello pocos químicos las leyeron. La mayoría de químicos conocieron esta
estructura propuesta del benceno por el químico alemán August Kekule, quien la publicó en
1865. Kekule fue mucho más allá que Loschmidt al realizar un extenso estudio de muchos
isómeros de los derivados del benceno. Por ejemplo, mostró que el diclorobenceno, el
triclorobenceno y el tetraclorobenceno existen cada uno en tres formas isoméricas diferentes,
exactamente lo que predice la estructura de anillo hexagonal. Hacia 1872, Kekule declaró que
“ningún ejemplo de isomería entre derivados del benceno ha surgido que no pueda ser explicado
completamente por la diferencia en las posiciones relativas de los átomos que sustituyen al
hidrógeno”.24 Fue un descubrimiento histórico: los químicos tenían a partir de ahora el
conocimiento y las técnicas experimentales necesarios para inferir la distribución espacial de los
átomos en las moléculas. Las propias moléculas no podían verse, pero tampoco podían
esconderse más.
El caso del benceno era más simple debido a que la molécula tiene una estructura plana. En la
mayoría de las moléculas, los átomos están distribuidos en tres dimensiones. El estudio de las
estructuras moleculares tridimensionales se llama estereoquímica, y sus orígenes se remontan al
primer gran descubrimiento de Louis Pasteur.
En 1846, Pasteur empezó a estudiar el tartrato de amonio y sodio, una sustancia cristalina
conocida por ser ópticamente activa (o sea, que rota el plano de polarización de la luz). Al
estudiar los pequeños cristales con una lupa, observó que eran ligeramente asimétricos; había una
pequeña cara en un lado que no aparecía en el lado opuesto. Pasteur pensó que esta asimetría
podría ser la causa de la actividad óptica. Por ello, decidió examinar los cristales de racemato de
amonio y sodio, un isómero inactivo del tartrato. Si los cristales del racemato eran simétricos,
entonces él tendría fuertes indicios de que la asimetría del tartrato es lo que causa el cambio en la
luz.
En vez de eso, Pasteur descubrió que los cristales racémicos eran de dos tipos, ambos asimétricos
e imágenes especulares uno del otro. Con unas pinzas, separó minuciosamente los dos tipos de
cristales. Uno de ellos era idéntico al tartrato, y rotaba el plano de polarización de la luz en la
misma dirección. El cristal imagen especular rotaba el plano en la misma cantidad pero en
dirección contraria. El racemato es ópticamente inactivo porque el efecto de un cristal se cancela
con el efecto de su imagen especular.
¿Por qué es esto importante para la estructura molecular? Porque estos compuestos isómeros
rotan el plano de polarización de la luz incluso cuando están disueltos en una solución. La
asimetría que causa la rotación persiste después de que el cristal se haya disgregado en sus
moléculas. Pasteur llegó a la conclusión de que la asimetría es una propiedad de las propias
moléculas. En 1860, escribió: “¿Están los átomos… agrupados en la espiral de una hélice
dextrógira, o situados en los extremos de un tetraedro regular, o situados en alguna otra
disposición asimétrica? No lo sabemos. Pero de esto no cabe duda: los átomos tienen una
disposición asimétrica, como la de un objeto y su imagen especular.”25
Fue Jacobus van’t Hoff quien en 1874 dio respuesta a la pregunta de Pasteur. Van’t Hoff se dio
cuenta de que las estructuras en espejo y la consecuente actividad óptica podían explicarse si los
cuatro enlaces de un átomo de carbono se colocaban en los vértices de un tetraedro (una pirámide
triangular). En esta disposición, cuando se enganchan cuatro átomos distintos (o grupos de
átomos) al carbono que está en el centro del tetraedro, es posible crear dos isómeros que son
imágenes especulares. La estructura tetraédrica de los enlaces del carbono explicó los resultados
de Pasteur y otros casos de actividad óptica en compuestos orgánicos (por ejemplo en el ácido
láctico o en el gliceraldehído).
Además, la disposición tridimensional simétrica de los enlaces del carbono que propuso Van’t
Hoff daba solución a otro problema. El asumir una estructura plana con los cuatro enlaces del
carbono formando un cuadrado llevó a la predicción de isómeros que no existen. Por ejemplo,
consideremos el compuesto cloruro de metileno, cuya fórmula es CH2Cl2. La estructura plana
predice dos isómeros; los átomos de cloro pueden estar a un lado del cuadrado o pueden estar en
puntos diagonalmente opuestos. En la estructura tetraédrica, sin embargo, todas las colocaciones
son idénticas, y eso era consistente con el análisis de laboratorio que podía aislar sólo un cloruro
de metileno.
Dos décadas antes, el objetivo de comprender las propiedades de los compuestos en términos de
la disposición espacial de los átomos en las moléculas había parecido inalcanzable. Y ahora se
había alcanzado. La teoría atómica había integrado la ciencia de la química y había demostrado
su poder explicativo de forma dramática. Sobre la contribución de Van’t Hoff, un historiador
escribe: “Llegado 1874 la mayoría de los químicos ya habían aceptado la teoría de la estructura,
y aquí estaba la prueba definitiva. A todos los efectos, el gran debate sobre si realmente existen
los átomos y las moléculas, que se remonta a Dalton, y antes de él a los antiguos, había quedado
resuelto.”26
Es cierto; para mediados de la década de 1870, la evidencia en favor de la teoría atómica era
abrumadora. Las dudas razonables habían dejado de ser posibles.

El método de la demostración

Los científicos del siglo XIX descubrieron la naturaleza fundamental de la materia de la misma
forma que los del siglo XVII descubrieron las leyes fundamentales del movimiento. A lo largo de
este capítulo hemos visto el mismo método en funcionamiento, a saber, conceptos objetivos que
funcionan como una luz verde para la inducción, el papel de la experimentación y de las
matemáticas en la identificación de leyes causales, y la integración a gran escala que culmina en
una prueba, en una demostración. Analicemos ahora los pasos que llevaron a este magnífico
logro.
Lavoisier comprendió que el lenguaje es más que un prerrequisito para expresar lo que pensamos
sobre el mundo; nuestros conceptos conllevan el compromiso de generalizar sobre sus referentes,
y por tanto ambos dirigen y hacen posible nuestra búsqueda de leyes. Él lo expresó diciendo que
si los químicos aceptasen el vocabulario que él propuso, “deben seguir inevitablemente el curso
que ese vocabulario marca”.
El vocabulario de Lavoisier guió a los químicos por el camino que terminaría llevando a la teoría
atómica. Su sistema exigía que se le diera respuesta a ciertas cuestiones para conceptualizar
adecuadamente cualquier material: ¿Es una sustancia o una mezcla? Si es una sustancia, ¿puede
ser descompuesta en elementos distintos? En los casos donde sustancias diferentes están
compuestas por los mismos elementos, ¿en qué se diferencian esas sustancias? Estas son las
cuestiones que pusieron a los químicos en el buen camino para descubrir las leyes de la
composición constante y de las proporciones múltiples, y que eventualmente les permitieron
identificar los pesos relativos de los átomos, y las fórmulas moleculares de los compuestos.
Como pasó con la física, el camino hacia la química moderna tuvo que ser despejado primero
eliminando conceptos inválidos. Por ejemplo, Lavoisier lideró la batalla contra el concepto de
“flogisto”, que hacía referencia al supuesto elemento asociado con el fuego. Se creía que una
vela encendida libera flogisto hacia el aire circundante. Si la vela se coloca en un recipiente
cerrado, la llama se extingue cuando el aire se satura y deja de poder absorber flogisto. El gas
sobrante que no podía mantener la combustión—que era nitrógeno puro—se pensaba que estaba
compuesto por aire normal más flogisto. Cuando la parte del aire que sí mantenía la combustión
—o sea, el oxígeno—quedaba aislada, se consideraba que estaba compuesta por aire normal
menos flogisto. Un error parecido surgió cuando se descompuso el agua por primera vez en
hidrógeno y oxígeno. El hidrógeno se consideró agua más flogisto, y el oxígeno se consideró
agua menos flogisto.
Sin embargo, al hacer un análisis cuantitativo se descubrió que una sustancia que experimenta
una combustión gana peso mientras que el aire circundante pierde peso. Quienes siguieron el
curso marcado por el concepto de “flogisto” tuvieron entonces que atribuirle a ese elemento una
masa negativa. Si los científicos químicos hubieran seguido por esos derroteros y hubiesen
aceptado la posibilidad de elementos con masa negativa, habrían abandonado el principio que les
permitió distinguir entre elementos y compuestos, y el progreso en química se habría detenido en
seco. Por suerte, la mayoría de químicos descartaron la idea de “masa negativa” por ser
arbitraria. Siguieron a Lavoisier cuando éste rechazó el flogisto, e identificaron la combustión
como el proceso de combinar una sustancia con oxígeno.
El lenguaje químico de Lavoisier aportó parte de los cimientos, pero hemos visto que la teoría
atómica requirió la formación de muchos otros conceptos. Casi todas las leyes que contribuyeron
a la demostración de la teoría hicieron uso de algún nuevo concepto clave. Tenemos la hipótesis
de Avogadro y el concepto de “molécula”, la ley de Dulong-Petit y los conceptos de “calor
específico” y de “peso atómico”, la ley de Faraday de la electrólisis y el concepto de “ión”, la ley
de los gases de Waterston y el concepto de “energía” (que integra movimiento y calor), las leyes
de Maxwell sobre los procesos de transporte gaseoso y el concepto de “recorrido libre medio”, y
la ley periódica de Mendeleyev y el concepto de “valencia”. En cada caso, los hechos hicieron
necesario un nuevo concepto, y luego ese concepto hizo posible captar relaciones causales que
habían sido previamente inaccesibles sin él.
Dado ese marco conceptual válido, las relaciones causales fueron descubiertas a través de la
experimentación. En algunos casos, fueron inducidas directamente a partir de datos
experimentales (por ejemplo, la ley de Charles de los gases, la ley de composición constante, la
ley de las proporciones múltiples, y la ley de combinación de volúmenes de gases). Estas leyes
fueron alcanzadas y validadas independientemente de la teoría atómica. En otros casos, como
ilustra la teoría cinética de los gases, las leyes fueron deducidas a partir de premisas sobre los
átomos, premisas a su vez basadas en datos experimentales; todas estas leyes fueron
eventualmente confirmadas con experimentos adicionales.
Todos los experimentos que hemos tratado en este capítulo contribuyen a la demostración de la
teoría atómica. Sin embargo, algunos de ellos sobresalen por ser cruciales. El mejor ejemplo es el
experimento de Maxwell que demostró que la viscosidad de un gas no depende de su densidad.
La teoría atómica ofrecía una simple explicación para este sorprendente resultado, una
explicación basada en el hecho que los gases están formados por partículas muy separadas que se
mueven libremente entre colisión y colisión. En contraste, una teoría continua de la materia
parecería implicar que un medio más denso debería ofrecer mayor resistencia al movimiento a
través de él. Así, este experimento aisló un caso en que la teoría atómica hacía una predicción
que la distinguía de cualquier teoría continua.
Un experimento u observación “crucial” confirma una predicción de una teoría a la vez que
contradice teorías alternativas. Un buen ejemplo en astronomía lo proporcionan las
observaciones telescópicas de Venus que hizo Galileo, las cuales mostraban un rango completo
de fases a medida que el planeta se movía alrededor del Sol. Estas observaciones quedaban
predichas por la teoría heliocéntrica y contradecían de pleno a la teoría de Ptolomeo. Podemos
encontrar otro ejemplo en óptica: la recombinación que hizo Newton del espectro de colores
dando lugar a luz blanca había sido predicha por su teoría, y contradecía a las teorías alternativas
propuestas por Descartes y por Hooke.
Muchos filósofos de la ciencia niegan que algún experimento concreto pueda considerarse
“crucial”. Este rechazo de los experimentos cruciales se remonta a Pierre Duhem y Willard
Quine, y se suele llamar la tesis Duhem-Quine. Ellos defendían que ningún experimento por sí
solo puede jugar un papel decisivo en la validación o refutación de una teoría general. En un
sentido trivial, eso es cierto: un experimento—si se considera aislado—no puede hacer eso. Sin
embargo, los resultados de un único experimento—cuando sus implicaciones no son evadidas
por hipótesis arbitrarias, y cuando se le juzga dentro de todo el contexto de conocimiento—
pueden jugar ese papel decisivo, y de hecho a menudo lo hacen. El reconocer nuevos datos como
cruciales es algo que depende del contexto.
La experimentación abre la puerta hacia las matemáticas por medio de la medición numérica. Al
inicio de una investigación pueden realizarse experimentos no cuantitativos para determinar si un
efecto ocurre bajo unas circunstancias concretas. Tales experimentos son típicos de la química, la
electricidad y el calor, cuando eran ciencias en su infancia. A medida que la investigación
avanza, sin embargo, los experimentos tienen que involucrar la realización de medidas
numéricas. Los descubrimientos descritos en este capítulo dependieron por completo de medidas
hechas con balanzas de masa de precisión, termómetros, barómetros, amperímetros, aparatos
para determinar las densidades de vapor, etc. Las leyes causales que la teoría atómica integra son
ecuaciones que expresan relaciones entre datos numéricos.
En cuanto a la química, podemos plantear la misma pregunta que nos hicimos anteriormente con
la astronomía: ¿Qué progreso fue posible sin las matemáticas? Y encontramos una respuesta
parecida. Igual que un pastor podía usar sus observaciones del cielo como un tosco reloj y como
una brújula, uno de los primeros químicos podía usar su conocimiento de las reacciones químicas
con el objetivo práctico de purificar metales o sintetizar tintes. Sin embargo, tanto en astronomía
como en química, esa etapa pre-matemática consistió en una lista muy larga de nociones de
conocimiento separadas, sin tener cómo captar las relaciones causales que las conectan. Esos dos
campos se convirtieron en ciencias sólo cuando se unificaron las medidas numéricas mediante
leyes expresadas en forma matemática.
Esto mismo se ve en el estudio del calor. Los experimentos cuantitativos de Rumford y Davy
aportaron fuertes indicios de que el calor es una forma de movimiento interno, pero la idea no
llevó a ningún sitio en los cuarenta y cinco años siguientes. En contraste, cuando Joule midió la
relación cuantitativa entre calor y movimiento, abrió las compuertas hacia nuevos
descubrimientos. La temperatura fue identificada con la energía cinética promedio de las
moléculas, y en veinte años la teoría cinética de los gases había explicado un enorme conjunto de
datos.
En la ciencia física, las verdades cualitativas son simplemente puntos de partida; pueden sugerir
un curso de investigación, pero esa investigación tiene éxito sólo cuando llega a una relación
causal entre cantidades. Entonces es cuando se desata el poder de las matemáticas; se hace
posible identificar conexiones entre hechos que antes parecían no tener relación alguna (por
ejemplo, entre las colisiones elásticas en mecánica y el flujo de calor entre los cuerpos, o entre el
calor específico de un elemento y la masa de sus átomos, o entre los volúmenes de gases en
reacción y la composición de las moléculas, o entre la conducción de calor en gases y el tamaño
de las moléculas). Las matemáticas son el medio que tiene el científico de integrar su
conocimiento.
Consideremos ahora la recompensa final del método inductivo: la demostración de una teoría
física. Una teoría es un conjunto integrado de principios sobre el que se basa una materia
completa; como tal, incluye y explica hechos específicos y leyes más concretas. Debido al
carácter abstracto de una teoría, a un científico le puede resultar difícil decidir cuándo la
evidencia ha llegado a ser una demostración. Y sin embargo, esta cuestión es de gran
importancia práctica. Si el estándar de demostración de un científico es demasiado bajo, el
científico puede aceptar con facilidad una teoría falsa y seguir una investigación que no conduce
a nada (las teorías basadas en el flogisto y el calórico son buenos ejemplos). Pero negarse a
aceptar una teoría demostrada en nombre de supuestos “estándares más altos” es algo igualmente
desastroso; como el avance en ese campo depende de la teoría, la investigación de ese científico
se estancará, y si sigue por ese camino terminará él mismo activamente enzarzado en una guerra
contra los hechos (como ilustran muchos de los que se opusieron a la teoría atómica).
Hemos visto cómo la evidencia en favor de los átomos se acumuló a lo largo de siete décadas.
Por supuesto, este progreso no se detuvo a mediados de la década de 1870; en cada década
posterior se añadieron más descubrimientos al poder explicativo de la teoría. Pero estos
descubrimientos posteriores no contribuyeron a la demostración, que ya había sido completada.
Revisemos ahora esa evidencia e identifiquemos los criterios de la demostración.
En el primer tercio del siglo XIX se descubrieron cuatro leyes que respaldaban la naturaleza
atómica de los elementos químicos: (1) los elementos se combinan en unidades de masa discretas
formando compuestos; (2) las reacciones entre gases involucran unidades enteras de volumen;
(3) un elemento sólido tiene una capacidad calorífica proporcional al número de unidades de
masa discretas; (4) la cantidad de electricidad generada en una reacción química es proporcional
al número de unidades de masa discretas que reaccionan en los electrodos. Además, el
descubrimiento de los alótropos y los isómeros aportó evidencias adicionales en favor de la
teoría atómica, la cual tenía el potencial de explicarlas como diferentes disposiciones espaciales
de los mismos átomos.
Estas leyes incluyen una gran cantidad de datos, que provienen de campos tan diversos como las
reacciones químicas, el calor y la electricidad. Al atribuirle a los átomos o a las moléculas los
valores apropiados de masa, volumen gaseoso, cantidad de calor y carga eléctrica, la teoría
atómica podía ofrecer explicaciones para esas cuatro leyes. ¿Por qué no es esto suficiente para
demostrar la teoría?
El problema es que los científicos no tenían motivos independientes para atribuirles a los átomos
y a las moléculas las propiedades necesarias para explicar esas leyes. Consideremos la hipótesis
de Avogadro, que fue introducida para explicar la ley de la combinación de volúmenes. Al
principio la hipótesis no podía ser conectada con ningún otro conocimiento sobre gases y, como
hemos visto, chocaba con las ideas ampliamente defendidas (aunque falsas) sobre el enlace
químico y la causa de la presión de los gases. Algo parecido pasa con la explicación atómica que
ofrecieron Dulong y Petit con su ley de las capacidades caloríficas. No pudieron dar ningún
motivo por el que todo átomo debería absorber la misma cantidad de calor, y no pudieron
conectar su hipótesis con otros conocimientos sobre calor y temperatura. Por tanto, en esta fase,
las ideas de Avogadro y de Dulong y Petit eran prometedoras pero dudosas, lo cual significaba
también que los pesos atómicos y las fórmulas moleculares seguían sumidas en la ambigüedad.
Hemos visto cómo se superaron esas dudas con el tiempo gracias a descubrimientos sobre la
naturaleza del calor y de los gases. Los experimentos que estudiaban la conversión de
movimiento en calor proporcionaron fuertes indicios de que la temperatura es una medida de la
energía cinética interna. Esta idea se integraba con la ley de Dulong-Petit; era razonable esperar
que los átomos en equilibrio térmico tuvieran la misma energía cinética. Además, cuando la idea
se combinaba con un modelo molecular sencillo de los gases, podía ser usada para derivar la ley
fundamental que relaciona la presión, el volumen y la temperatura de un gas. La hipótesis de
Avogadro surgió de este análisis como una consecuencia, conectando así la hipótesis con la ley
de Charles de los gases y con las leyes de Newton del movimiento.
Esto fue casi suficiente para convertir la idea de Avogadro de hipótesis a ley. Sin embargo,
todavía podían surgir dudas razonables sobre el modelo simple de las “bolas de billar” para las
moléculas de un gas, modelo que se había asumido en la derivación de la ley de Charles. La
teoría no sería del todo convincente hasta que pudiera explicar otras propiedades de los gases que
fueran conocidas. Por eso el trabajo de Maxwell fue crucial; cuando desarrolló y amplió el
modelo para explicar procesos de transporte gaseoso (como la difusión, la conducción de calor y
la viscosidad), el espectro de datos que integraba la teoría cinética del calor no dejaba lugar
legítimo a que persistiera el escepticismo.
Dada la fuerza de estas evidencias, los químicos se vieron obligados a aceptar la idea de
Avogadro junto con todas sus implicaciones. ¿Estaba entonces demostrada la teoría atómica? No
del todo, por una razón. La química había sido un caos durante décadas, y tuvo que pasar un
cierto tiempo para que los químicos utilizaran su nuevo conocimiento sobre los átomos e integrar
y explicar los hechos de su ciencia. Una vez que identificaron los correctos pesos atómicos y
valencias, el desarrollo de la tabla periódica y el triunfo de la teoría de la estructura molecular
completaron la demostración.
A esta altura, las evidencias a favor de la teoría atómica satisfacían tres criterios que son
esenciales para demostrar cualquier teoría general.
Primero, cada concepto y generalización contenida en la teoría debe provenir de observaciones
hechas usando un método válido. Una teoría demostrada no puede contener conceptos tales como
“flogisto” o “espacio absoluto”, ni tampoco puede contener relaciones causales que no se sigan
de datos observacionales. A menudo se afirma que una buena teoría predice algunas
observaciones y no contradice a ninguna. Este criterio comúnmente expresado es necesario,
desde luego, pero dista mucho de ser suficiente; pueden satisfacerlo teorías que son falsas o
incluso arbitrarias. Hemos visto que la teoría atómica tiene una relación muy diferente con los
datos: cada ley que es parte de la teoría fue inducida rigurosamente a partir de los resultados de
experimentos.
Segundo, una teoría demostrada debe formar un todo integrado. No puede ser un conglomerado
de partes independientes que se ajustan libremente para encajar con los datos (como se hizo en el
caso de la teoría de Ptolomeo). En vez de eso, las distintas partes de la teoría están
interconectadas y se refuerzan mutuamente, de forma que negar cualquiera de las partes lleva a
contradicciones a lo largo de ese todo. Una teoría debe poseer esta característica para seguirse
necesariamente de la evidencia. De lo contrario, uno no puede llegar a una evaluación
concluyente de la relación entre evidencia y teoría; en el mejor de los casos, uno podría evaluar
sólo la relación entre la evidencia y partes de la teoría. Por el contrario, cuando una teoría es un
todo integrado, la evidencia en favor de cualquiera de las partes es evidencia en favor del todo.
Ya por mediados de la década de 1870, la teoría atómica satisfacía este criterio. Las propiedades
de los átomos que habían sido propuestas para explicar un conjunto de hechos experimentales
resultaron ser indispensables en la explicación de otros hechos y leyes. Por ejemplo, la hipótesis
de Avogadro empezó como una explicación de una ley que gobierna las reacciones químicas
entre gases, para luego convertirse en una parte esencial de una teoría que derivaba las
propiedades físicas de los gases a partir de la mecánica newtoniana. Uno no puede negar la
hipótesis de Avogadro sin contradecir la explicación de media docena de leyes y de cortar la
conexión entre los átomos y las leyes del movimiento. De forma similar, la hipótesis atómica de
Dulong y Petit no sólo explica las capacidades caloríficas de los sólidos; se volvió parte de una
teoría que relaciona el calor con el movimiento atómico en todos los materiales. Más adelante,
todas estas ideas llevaron inexorablemente a un conjunto específico de pesos atómicos y
valencias, los cuales fueron clave para explicar las relaciones entre los elementos, los resultados
de los experimentos de electrólisis, y las propiedades de los compuestos químicos.
Para concretar más este punto, consideremos las consecuencias de hacer un pequeño cambio en
la teoría. Por ejemplo, imaginemos que los científicos se hubiesen negado a corregir la fórmula
molecular del benceno propuesta por Faraday, C2H. Las medidas de la densidad de vapor del
benceno gaseoso contradirían la hipótesis de Avogadro, que tendría que ser rechazada junto con
la teoría cinética de los gases, de la cual es parte. Además, como esta fórmula incorrecta implica
una valencia errónea del carbono, los químicos también se verían obligados a rechazar la ley
periódica de Mendeleyev y la teoría de las estructuras moleculares en química orgánica. Los
efectos colaterales de ese único cambio dejarían la teoría atómica en ruinas. Cuando una teoría es
un todo, las partes no pueden ser ajustadas libremente; están constreñidas por las relaciones que
tienen con el resto de la teoría y con los hechos en los que ésta se basa.
El tercer criterio tiene que ver con el rango de datos que integra la teoría. La escala de una teoría
demostrada debe quedar determinada por los datos a partir de la cual se ha inducido; es decir, la
teoría no puede ser ni más amplia ni más estrecha de lo necesario para integrar los datos. Este
criterio no es independiente de los dos primeros; simplemente hace explícita una implicación
clave. Si la teoría es demasiado amplia, entonces no está necesitada por la evidencia, y por lo
tanto viola el primer criterio (en ese caso, la teoría puede ser una hipótesis legítima, pero no
puede considerarse demostrada). Si la teoría es demasiado estrecha, no llegará a la integración
que describe el segundo criterio.
Por ejemplo, cuando Kepler integró las observaciones de Brahe sobre los planetas, llegó a leyes
que estaban limitadas al movimiento planetario. Para llegar a leyes universales, Newton tuvo
que incluir datos de movimientos de cuerpos terrestres, lunas, océanos y cometas. De forma
parecida, a principios del siglo XIX, cuando la teoría atómica sólo se apoyaba en datos
procedentes de la química, podían alcanzarse conclusiones sólo sobre la naturaleza discreta de
las reacciones químicas. En esta etapa era una hipótesis que la teoría pudiera generalizarse y
convertirse en una teoría fundamental de la materia.
Para llegar a esa generalización, los científicos necesitaron un rango de datos que les exigiera
considerar a los átomos como unidades básicas de materia, no sólo como unidades de reacciones
químicas. El avance tuvo lugar cuando los físicos explicaron la naturaleza del calor y de los
gases en términos de átomos de cierto tamaño moviéndose según las leyes de Newton. Las leyes
del movimiento se aplican a la materia por el hecho de ser materia, no a los elementos químicos
por el hecho de ser elementos químicos. Cuando estas propiedades físicas de los materiales
pudieron ser explicadas mediante átomos en movimiento, la teoría atómica se convirtió en una
teoría fundamental de la materia, una teoría que unificó en un todo las leyes que gobiernan las
reacciones químicas, el movimiento, el calor, la corriente eléctrica y las diversas propiedades de
los gases.
Los tres criterios describen la relación entre una teoría demostrada y la evidencia en la que se
basa. Cuando cada aspecto de la teoría es inducido a partir de datos (en vez de inventado a partir
de la imaginación), cuando la teoría forma un todo cognitivo (y no una colección independiente
de leyes), y cuando la escala de la teoría se deriva objetivamente del rango de los datos, entonces
la teoría es verdaderamente una integración (criterio 2) de los datos (criterio 1), ni más, ni menos
(criterio 3).
Un concepto válido debe satisfacer criterios similares; derivarse de observaciones (no ser
producto de la fantasía), ser una integración de casos concretos semejantes (no una simple
compilación), y su definición no debe ser ni demasiado amplia ni demasiado estrecha. Por
supuesto, hay muchas diferencias entre un concepto y una teoría científica. Sin embargo, los
criterios de validación son parecidos, porque estos son principios generales que identifican cómo
una facultad conceptual forma correctamente un todo cognitivo.
Estos criterios no pueden ser cuantificados. Sería ridículo decir, por ejemplo, que hacen falta 514
pruebas de evidencia para demostrar una teoría fundamental. Y, sin embargo, estos criterios
identifican en un margen estrecho cuándo la evidencia culmina en demostración. La teoría
atómica obviamente no había sido demostrada antes del destacado trabajo de Maxwell en su
teoría cinética de los gases, publicada en 1866, mientras que la integración necesaria de los datos
físicos y químicos se había conseguido con claridad cuando la predicción de Mendeleyev del
galio se confirmó en 1875. Puede justificarse un debate racional sobre si la teoría atómica había
sido válidamente demostrada en 1870. Pero no hay mucho que sacar de ese debate.
Afirmar que la teoría atómica fue demostrada en 1875 no quiere decir que no hubiera dejado
ninguna pregunta sin responder. Más bien al revés, la teoría dio lugar a todo un mundo de
preguntas muy importantes que aún no tenían respuesta. Por ejemplo, las medidas de la
capacidad calorífica parecían implicar que las moléculas diatómicas se mueven muy deprisa y
rotan a temperaturas normales, pero no vibran como era de esperar: ¿por qué no? Había muchas
preguntas sobre la naturaleza de los enlaces químicos, como por ejemplo: ¿Por qué algunos
átomos parecen tener una valencia variable, y cómo difieren esos átomos de los que tienen una
valencia constante? Había preguntas sobre la interacción de átomos y luz, por ejemplo: ¿Por qué
cada tipo de átomo emite y absorbe luz de longitudes de onda características? Más aún, había
indicios que apoyaban la idea de que los átomos contienen partículas cargadas eléctricamente: de
ser así, ¿cómo podría ser distribuida esa carga para que fuera consistente con la estabilidad de los
átomos? Esas preguntas, sin embargo, no arrojaban dudas sobre la teoría atómica; al contrario, la
pre-suponían. Esas cuestiones pertenecían a la nueva frontera que la teoría había hecho posible:
la investigación de la estructura atómica. Las respuestas fueron descubiertas en las primeras
décadas del siglo XX.
El mundo sub-microscópico de los átomos es accesible sólo mediante una cadena de
razonamientos muy larga y compleja. Durante más de dos milenios, la idea de los átomos fue
poco más que una esperanza, la esperanza de que algún día, de algún modo, la mente del hombre
fuese capaz de llegar más allá de lo que le dan los sentidos y de captar la naturaleza fundamental
de la materia. Esto no podía hacerse a través de un salto temerario hacia un vacío cognitivo; los
científicos tuvieron que descubrir el método de proceder paso a paso desde las observaciones
hasta el conocimiento de los átomos, siempre con los pies en el suelo. No es posible ni deseable
ningún atajo para este proceso; cada paso del viaje es una recompensa por sí mismo, y aporta una
valiosa parte del conocimiento que queda condensado e integrado por la teoría final.
Ahora está clara la naturaleza del método inductivo.
6. Causas de error

A diferencia de la percepción, pensar es un proceso falible. Este hecho es la causa de que


necesitemos el método de la lógica.
La lógica, si la aplicamos debidamente, nos permite llegar a conclusiones ciertas. Pero no viene
con una garantía de que vayamos a aplicar el método correctamente. Las leyes de la deducción
fueron identificadas por Aristóteles hace más de 2000 años, y a pesar de eso la gente sigue
cometiendo falacias deductivas. Sin embargo, si uno permanece atento a los hechos, el seguir
usando la lógica le llevará a corregir esos errores. Lo mismo pasa con generalizaciones falsas en
inducción. En este capítulo veremos que incluso los más grandes pensadores pueden cometer
errores al aplicar el método inductivo. Pero esos errores se desvanecen y mueren bajo la luz que
arroja la aplicación continuada del método correcto.
A lo largo del siglo XX, sin embargo, muchos filósofos rechazaron la validez de la inducción
argumentando que toda generalización es un error. Por ejemplo, Karl Popper dijo que todas las
leyes de Kepler, Galileo y Newton habían sido “falsificadas”.1 Al exigir que una generalización
verdadera deba ser válida con precisión ilimitada y en un contexto ilimitado, sostenía un punto
de vista místico de lo que es la “verdad”, algo que queda para siempre fuera del alcance del
hombre y sólo es accesible para un dios omnisciente. Al final, Popper acabó con dos tipos de
generalizaciones: las que se ha demostrado que son falsas, y las que se demostrará que son
falsas. Filósofos posteriores lo acusaron de ser demasiado optimista; éstos afirmaban que nada
puede ser demostrado, ni siquiera la falsedad de una generalización.
Esos escépticos cometen—a gran escala—la falacia de ignorar el contexto. El significado de
nuestras generalizaciones viene determinado por el contexto del cual surgen; afirmar que una
generalización es verdadera es afirmar que es válida dentro de un contexto específico. Los datos
que subsuma ese contexto quedan necesariamente limitados tanto en rango como en precisión.
Por ejemplo, Galileo no cometió ningún error cuando identificó la naturaleza parabólica de las
trayectorias. Obviamente, no estaba refiriéndose al trazado de 9000 km que recorre un misil
balístico intercontinental (para el cual esta ley no se aplica). Se refería a los cuerpos terrestres
que podían ser observados y estudiados en su época; todos ellos se mantenían cerca de la
superficie de la Tierra, viajaban quizá unos pocos cientos de metros, y se movían de acuerdo con
su ley. De forma parecida, cuando Newton hablaba de los cuerpos y de sus movimientos, no se
refería al movimiento de un electrón en un átomo ni al de un protón en un acelerador moderno.
Se refería a cuerpos macroscópicos y observables, desde piedras hasta estrellas. El contexto de
conocimiento disponible determina los referentes de los conceptos que están causalmente
relacionados dentro de una generalización.
El contexto también incluye la precisión de los datos integrados por una ley. Para comprender las
variaciones reveladas por nuevos datos de mayor precisión, es a menudo necesario identificar
factores causales adicionales. Las leyes del movimiento planetario de Kepler ilustran este punto.
Las leyes son verdaderas; es decir, identifican correctamente unas relaciones causales que
explican e integran los datos de que disponía Kepler. Sin embargo, en tiempos de Newton, los
errores de medida en los datos astronómicos se habían reducido en más de un factor diez, y hoy
día han sido reducidos de nuevo en un factor diez. Para explicar esos datos más precisos, uno
debe captar no sólo que el Sol ejerce una fuerza sobre los planetas, sino también que los planetas
ejercen una fuerza entre sí y sobre el Sol. Las verdades que descubrió Kepler fueron esenciales
para poder hacer estos descubrimientos posteriores: hicieron posible identificar desviaciones de
los nuevos datos respecto de las leyes originales, desviaciones que terminaron haciendo posible
identificar los factores adicionales y desarrollar así una teoría más general.
En los casos en que los datos son insuficientes para apoyar una conclusión, es importante mirar
detenidamente la naturaleza exacta de la afirmación que hace el científico. Él no comete un error
simplemente al proponer una hipótesis que más adelante resulte ser falsa, siempre y cuando haya
identificado correctamente el estatus hipotético de la idea. Si puede citar alguna evidencia que la
apoye, y no ha pasado por alto ningún dato que la contradiga, y si rechaza la idea cuando se
descubren pruebas en su contra, entonces su pensamiento ha sido infaliblemente lógico. Un
ejemplo lo aporta el trabajo de Albert Ladenburg, un químico alemán del siglo XIX, que propuso
una estructura de prisma triangular para la molécula de benceno.2 La hipótesis de Ladenburg era
consistente con los datos disponibles en 1860, pero fue rechazada unos años más tarde cuando
chocó con el descubrimiento de Van’t Hoff de que los enlaces de carbono tienen una disposición
simétrica en esa molécula. En tales casos, el razonamiento de los científicos se guía por la
evidencia en cada paso, y no merece otra cosa que reverencia por parte del epistemólogo.
Los errores se pueden dividir en dos amplias categorías, dependiendo de la causa que los
provoque. Primero veremos los errores causados por aplicar mal el método inductivo; luego
estudiaremos los errores – mucho más desastrosos, los que resultan de abandonar el método
inductivo.

Aplicar mal el método inductivo

Una generalización verdadera expresa una relación causal que ha sido inducida a partir de datos
observacionales y ha sido integrada en la totalidad del conocimiento que uno tiene (que,
esencialmente, abarca el rango englobado en la generalización). Un científico comete un error
cuando afirma una generalización sin realizar tal integración. En esos casos, la evidencia que la
apoya es insuficiente, y lo que ocurre a menudo es que el científico ha pasado por alto evidencias
en contra.
No pretendo dar aquí una lista exhaustiva de las principales falacias inductivas. En vez de eso, he
escogido cinco casos interesantes en los que los científicos han investigado un fenómeno
complejo y han llegado a generalizaciones falsas por desviarse del método correcto. En cada caso
voy a examinar el contexto de conocimiento del que disponía ese científico y voy a tratar de
identificar los factores que arrojan dudas sobre su conclusión.
El crecimiento de las plantas
A principios del siglo XVII, el químico holandés J.B. van Helmont investigó la causa del
crecimiento de las plantas. Casi todo el mundo en esa época pensaba que las plantas absorben
materiales del suelo y lo convierten en madera y en hojas, pero eso era sólo una conjetura
razonable. Van Helmont intentó llegar a la respuesta definitiva de esta cuestión realizando un
experimento cuantitativo.
Llenó una maceta grande con 90 kg de tierra seca. Luego plantó un retoño de sauce, que pesaba
unos 2 kg, y cubrió la tierra para evitar que se acumulara en ella polvo del aire. Durante cinco
años sólo le añadió a la maceta agua, destilada o de lluvia. Cuando finalmente retiró el sauce, ya
siendo un árbol, se encontró que pesaba 76 kg, aunque la tierra sólo había perdido unos pocos
cientos de gramos. Van Helmont llegó a la siguiente conclusión: “Por tanto, 74 kg de madera,
corteza y raíces provienen exclusivamente del agua.”3 En general, llegó a la conclusión de que el
crecimiento de las plantas es un proceso en el que el agua es transformada en las sustancias que
componen las plantas.
El experimento usaba el método de la diferencia: Van Helmont se centró en el hecho de que
había añadido un factor—agua—y que el resultado había sido el crecimiento del sauce. Sin lugar
a dudas había demostrado que sólo una parte muy pequeña del peso adicional del árbol provenía
de la tierra. Sin embargo, ahora sabemos que aproximadamente sólo la mitad de la madera de un
sauce es agua. El error de Van Helmont fue rechazar la posibilidad de que las plantas absorban
material del aire. Mucho más tarde, en la década de 1770, Joseph Priestley y Jan Ingenhousz
realizaron experimentos que demostraron que las plantas que reciben luz solar absorben dióxido
de carbono y desprenden oxígeno.4 Gran parte de su peso es carbono, el cual obtienen del aire.
Es irónico que Van Helmont fuera quien idease el concepto de “gas” e identificase el gas que
ahora llamamos dióxido de carbono como un producto resultado de la combustión del carbón
vegetal y de la madera. Entonces, ¿por qué descartó la posibilidad de que un gas en el aire
pudiera ser la causa esencial del crecimiento de las plantas?
Algunos de los experimentos de Van Helmont le llevaron a la conclusión de que los gases “no
pueden ni ser contenidos en recipientes ni ser reducidos a una forma visible.”5 Por ejemplo,
cuando mezcló ácido nítrico y sal de amoníaco en un recipiente cerrado de vidrio, encontró que
se producían gases que hacían estallar el recipiente. Cuando comprimió aire en un cañón de aire
y después lo liberó, encontró que el aire se expandía explosivamente con una fuerza suficiente
para propulsar una bala y lograr que atravesara un tablón. A él le pareció que esa naturaleza
“salvaje” e “indomable” de los gases parecía prohibir la posibilidad de que pudieran ser
absorbidos y pasasen a formar parte de una planta.
Desde luego, todo el mundo sabía que los animales terrestres necesitan respirar aire para vivir.
No obstante, la naturaleza de la respiración no se comprendía aún. Van Helmont pensaba que el
aire “se entremezclaba” con la sangre en los pulmones y jugaba un papel esencial en calentarla,
pero no captó que parte del aire (el oxígeno) es absorbido, y otro gas (el dióxido de carbono) es
exhalado. Análogamente, cuando estudió la combustión, no captó que hay aire que se consume
en ese proceso. Observó que una vela que arde en un recipiente vacío provoca una reducción del
volumen de aire, pero pensó que la llama estaba consumiendo algo que existía en los espacios
entre las partículas de aire. Así, sus ideas hipotéticas sobre la respiración y la combustión fueron
consistentes con su afirmación de que los gases no podían convertirse en sustancias líquidas o
sólidas.
Había otros fenómenos que parecían contradecir la idea de Van Helmont de que los gases fueran
“salvajes” e “indomables”. Es obvio que el vapor de agua se condensa y forma agua, y Van
Helmont era consciente de ácidos gaseosos que se disuelven en el agua. En esos casos, sin
embargo, intentó defender su punto de vista haciendo una distinción entre “vapores
condensables” y “gases” verdaderos. Pero la protección que ofrecía esta falsa distinción era
ilusoria. En cuanto al crecimiento de las plantas, sólo replanteaba la pregunta, que pasaba a ser:
¿Cómo sabía él que una planta no absorbe los “vapores condensables” que existen en el aire? El
hecho es que Van Helmont continuó sin ofrecer ningún argumento convincente para descartar el
aire como posible factor causal en el crecimiento de las plantas. Su conclusión sobre la
naturaleza de los gases no era una integración de todos los datos disponibles, sino más bien un
salto a partir de unos pocos hechos para llegar a una vasta generalización.
Había otros problemas más generales que guiaron el pensamiento de Van Helmont. Como a
muchos otros filósofos naturales antes que él, a Van Helmont le llamaba la atención el papel
ubicuo del agua en la naturaleza. El agua existe como vapor, líquido y sólido; llena grandes
océanos, cae del cielo, forma ríos y le da forma a nuestro mundo; reacciona con y/o disuelve
muchas sustancias diferentes; y es esencial para toda forma de vida. Siguiendo una larga
tradición que había empezado con Tales, Van Helmont identificó el agua como el elemento
fundamental que puede transformarse en un sinfín de formas. Él llegó incluso a conectar sus
ideas de la naturaleza del agua y los gases con sus ideas metafísicas sobre la relación entre
materia y espíritu.6 Esas creencias formaban parte del trasfondo que le predispuso a aceptar que
el agua era la única causa del crecimiento de una planta.
Observemos la complejidad del contexto que es relevante para interpretar un experimento que
parece simple. La elasticidad de los gases, la naturaleza de la respiración y la combustión, las
semejanzas y diferencias entre diversos gases y su correcta conceptualización, el destacado papel
que juega el agua en los procesos naturales, la relación entre la materia y la “esencia” de un
cuerpo: todas estas consideraciones influyeron sobre Van Helmont, llevándole a la conclusión a
la que llegó. Tal es la naturaleza del razonamiento inductivo: los resultados de un experimento
concreto son interpretados a través del contexto conceptual completo del que uno dispone. Por
eso la inducción es difícil, y precisamente por eso es válida cuando se hace correctamente. Van
Helmont se fue por el camino errado en la cuestión del crecimiento de las plantas, debido a los
errores en su marco conceptual, que contenía varios elementos que no se derivaban de hechos
observados, o sea, que no habían sido alcanzados aplicando correctamente el método inductivo.

La acidez
Un científico con un marco conceptual válido sigue pudiendo cometer un error. Un buen ejemplo
lo proporciona el análisis que hizo Lavoisier sobre la causa de la acidez.
Los ácidos son compuestos corrosivos, tienen un sabor agrio, vuelven rojo el tornasol azul, y
reaccionan con las bases formando sustancias neutras. Lavoisier planteó la hipótesis de que estas
propiedades provenían de algún elemento que todos los ácidos tienen en común. Por eso intentó
usar el método de la concordancia; estudió los ácidos conocidos buscando identificar el elemento
común a todos ellos.
Descubrió que algunas sustancias se transforman en ácidos cuando se queman en presencia de
vapor de agua. Las combustiones del fósforo, el azufre y el carbono daban lugar a ácido
fosfórico, ácido sulfúrico y ácido carbónico, respectivamente. Así, parecía que el elemento que
se absorbe en la combustión—es decir, el oxígeno—podría ser también la causa de la acidez.
La investigación realizada por Lavoisier sobre el ácido nítrico parecía reforzar más aún su idea.
En 1776 combinó ácido nítrico y mercurio para formar una sal blanca (nitrato de mercurio), que
se descomponía formando un óxido de mercurio rojo y óxido de nitrógeno en estado gaseoso.
Calentándolo aún más, el óxido rojo se descomponía en mercurio metálico y en oxígeno gaseoso.
Recogió los gases en recipientes de campana que ponía encima del agua. Cuando combinó el
óxido de nitrógeno y el oxígeno en presencia de agua, cerró el círculo volviendo a generar el
ácido nítrico original. Pero Lavoisier malinterpretó el resultado: pasó por alto la crucial presencia
del agua y asumió que el ácido era un producto de los dos gases. Posteriormente, en 1783,
descubrió que el agua es un compuesto de hidrógeno y oxígeno. Al pasar por alto el papel del
agua en su síntesis de ácidos, estaba ignorando la presencia de hidrógeno, y eso dejaba al
oxígeno como el único candidato que podía ser el elemento común a todos los ácidos.
Lavoisier siguió acumulando evidencias que parecían apoyar su idea de que el oxígeno es
fundamental para la acidez. Investigó dos ácidos orgánicos (el acético y el oxálico), y demostró
que los dos contenían oxígeno. Además, mostró que el azufre forma dos ácidos, y que el que
tiene mayor contenido de oxígeno es también el ácido más fuerte (actualmente expresamos ese
resultado diciendo que el H2SO4 es un ácido más fuerte que el H2SO3).

La teoría del oxígeno de Lavoisier se enfrentaba a un enorme obstáculo. Había un ácido muy
conocido y muy fuerte, el llamado ácido “muriático”, que no parecía contener oxígeno. El ácido
muriático se descomponía en hidrógeno gaseoso y en otro gas de color verde. Lavoisier llamó al
gas verde ácido “oximuriático”, haciendo así explícita su presuposición de que era la parte del
ácido muriático en la que se terminaría por encontrar oxígeno. Pero pasaron los años y nadie
consiguió extraer oxígeno del gas “oximuriático”. Finalmente, en 1810, después de que se
hubieran intentado en vano los métodos más efectivos de extracción de oxígeno, Humphry Davy
afirmó que el gas verde es un elemento, y sugirió que se le llamase “cloro”. Así, el ácido
clorhídrico constituyó el contraejemplo que refutó la teoría del oxígeno de Lavoisier.
Formalmente, el error de Lavoisier es como el viejo chiste del hombre que prometió dejar de
emborracharse en las fiestas. El hombre recordaba que en una fiesta había estado bebiendo
whisky y gaseosa; en otra, ginebra y gaseosa; en la tercera, coñac y gaseosa. La gaseosa era
obviamente el factor común, y por tanto la causa de su intoxicación. Así que a partir de ese
momento decidió beber whisky puro.
Este tipo de error es relativamente fácil de corregir. Cuando nuestro hombre se emborrache
bebiendo whisky puro en la siguiente fiesta, se dará cuenta de que la gaseosa era irrelevante. Y
entonces buscará un factor que sea común al whisky, la ginebra y el coñac. Análogamente,
cuando se descubrió que todos los ácidos de Lavoisier que contenían oxígeno también contenían
hidrógeno, y que el ácido muriático contiene hidrógeno pero no oxígeno, entonces quedó claro
que el hidrógeno es el único elemento común a todos los ácidos conocidos. Más tarde, la teoría
de los ácidos basada en el hidrógeno quedó demostrada cuando se descubrió que las bases
neutralizan a los ácidos absorbiendo un ion de hidrógeno de éstos (que suele combinarse con un
ion hidroxilo formando agua).
La teoría de la acidez de Lavoisier ilustra el carácter precario de una generalización que proviene
de una regularidad observada en vez de provenir de una conexión causal. Lavoisier no tenía
ninguna evidencia de que las bases actúan sobre el oxígeno cuando neutralizan un ácido. Y al no
tenerlas, no tenía motivos suficientes para afirmar que el oxígeno tuviera que encontrarse
necesariamente en todos los ácidos. Por lo tanto, podemos caracterizar este error como la falacia
de poner una regularidad observada en el lugar de una causa.

La corriente eléctrica
Durante la Ilustración había un enorme interés en la electricidad. Se descubrió que algunos
materiales conducen la electricidad y otros no; que existen dos tipos de carga eléctrica, llamadas
positiva y negativa; que la carga puede almacenarse en “botellas de Leyden”, las cuales pueden
descargarse más tarde por medio de un conductor; que el rayo es una descarga eléctrica en la
atmósfera; y que cargas de distinto signo se atraen y cargas de igual signo se repelen, siempre
con una fuerza que varía con el inverso del cuadrado de la distancia. Pero incluso después de
décadas de intenso estudio, la única manera de generar electricidad era frotando materiales
diferentes uno contra otro, y el único movimiento conocido de la electricidad era la descarga
momentánea que ocurre en un intervalo de tiempo demasiado breve para medirlo. Hacia finales
del siglo XVIII, sin embargo, la ciencia de la electricidad dio un gran paso hacia delante con un
descubrimiento puntero hecho por Luigi Galvani.
Galvani era un profesor de anatomía en la universidad de Bolonia que se interesó por los efectos
que la electricidad tiene sobre los animales. Se había descubierto anteriormente que las descargas
eléctricas a través de animales podían producir contracciones musculares, y Galvani investigó
este fenómeno usando ranas diseccionadas y descargas provenientes de un generador de
electricidad estática. Sin embargo, hizo su descubrimiento cuando no estaba usando ningún
generador. Durante un experimento, se dio cuenta de que cuando se sujeta una rana con un
gancho de bronce por su espina dorsal y se colocan sus patas sobre una caja de plata, la conexión
entre el gancho y la caja provocaba contracciones musculares que hacían que pareciera como si
la rana muerta estuviera saltando y bailando. Galvani se dio cuenta de que la electricidad estaba
circulando a través de los músculos de la rana, pero el origen de esa electricidad era un misterio.
Este descubrimiento tuvo implicaciones cruciales tanto para la física como para la biología.
Desde la perspectiva del físico, Galvani había descubierto una nueva forma de generar un flujo
de electricidad. Desde la perspectiva del biólogo, pareció haber descubierto el mecanismo físico
que controla el movimiento de nuestros cuerpos: la contracción de nuestros músculos está
causada de alguna forma por electricidad que fluye a través de nuestros nervios.
Como Galvani era un biólogo, no debe sorprender que se enfocara más en la rana que en el
gancho y la caja de plata. Él desarrolló una teoría en la que el origen de la electricidad está en el
animal, mientras los metales jugaban un papel pasivo como simples conductores que permitían
que la electricidad fluyese. Su teoría afirmaba que los músculos almacenan electricidad de forma
muy parecida a como lo hacen las botellas de Leyden, y que cuando se cierra un circuito de
conductores, la descarga resultante provoca la contracción.
Galvani se dio cuenta de que las contracciones musculares fuertes sólo ocurrían cuando usaba
dos metales distintos (como el bronce y la plata). Cuando puso la rana sobre una superficie de
hierro y usó un gancho de hierro, el efecto no ocurrió. Pero él no llegó a apreciar la relevancia de
este hecho, y su teoría no ofrece ninguna explicación al respecto. Si los metales actúan sólo en
calidad de conductores, entonces Galvani debería haber observado las contracciones musculares
en el experimento que sólo usaba hierro. Al principio, no pareció darse cuenta de que la
necesidad de usar dos metales diferentes resultaba un serio problema para su teoría.
Fue Alessandro Volta, un profesor de física de la Universidad de Pavía, quien sacó partido al
hecho que la teoría de Galvani pasaba por alto. Volta estaba convencido de que el origen de la
electricidad eran las propiedades diferentes de los dos metales, y que la rana era la que jugaba un
papel pasivo, simplemente proporcionando un fluido conductor entre los metales. Llevando a
cabo una serie de experimentos, demostró que cuanto más lejos entre sí estuvieran los dos
metales en la siguiente serie—zinc, estaño, plomo, hierro, cobre, platino, oro, plata—mayor era
la corriente eléctrica que se generaba.
En un intento por demostrar que la rana no tenía nada que ver con la producción de electricidad,
Volta realizó un experimento en el que se prescindió de la rana (y de cualquier otro fluido
conductor). Conectó un disco de cobre y uno de zinc con pinzas aislantes, y luego puso los
discos uno contra el otro. Cuando los separó, utilizó un electroscopio muy sensible para
demostrar que los dos discos habían adquirido carga eléctrica (el zinc era positivo y el cobre
negativo). Así que la causa de una transferencia de carga eléctrica es simplemente el contacto
entre dos metales diferentes. Esto, dijo Volta, es lo que había ocurrido en los experimentos de
Galvani: el contacto entre los dos metales había causado un flujo de electricidad que a su vez
había causado las contracciones musculares de la rana.
Pero Galvani no estaba convencido, y respondió realizando un experimento en el que prescindió
completamente de los metales. Cuando cogió una rana diseccionada por una pata y la hizo oscilar
con fuerza para que el nervio ciático tocase el músculo de la otra pata, observó contracciones en
el músculo. Este era un caso en el que el contacto entre nervio y músculo provocaba un flujo de
electricidad y contracciones musculares, sin la presencia de ningún metal. Galvani consideró que
este experimento era una refutación concluyente de la teoría de Volta.
Volta y Galvani habían cometido errores parecidos. En su intento por situar la causa sólo en los
metales o sólo en la rana, cambiaron las condiciones experimentales, de tal forma que
introdujeron factores causales que no estaban presentes en el experimento original. En el caso de
la rana que baila en la caja de plata, el contacto directo entre metales distintos no puede ser la
causa, porque ese contacto no es necesario; el efecto aparece cuando el experimentador sujeta el
gancho de bronce con una mano a la vez que toca la caja de plata con la otra (dicho de otra
forma, el propio experimentador puede ser el camino conductor entre los dos metales). De forma
parecida, a Galvani le confundió el experimento en el que eliminaba los metales; al agitar con
fuerza la rana, había causado daños musculares que habían estimulado el nervio y provocado las
contracciones. Pero en el experimento original no había daños en el tejido; eran pequeños saltos,
no fuertes sacudidas.
Aunque la “teoría del contacto” de Volta era insostenible, sus investigaciones sí que refutaron la
idea de Galvani de que la causa del fenómeno era la capacidad especial de los animales de
almacenar y descargar electricidad. Mientras mantenía iguales otras condiciones importantes,
Volta demostró que el animal podía ser sustituido por una disolución salina o ácida entre ambos
metales, y el efecto—un flujo de electricidad—seguía ocurriendo. Este descubrimiento llevó a su
invención de la pila eléctrica. En marzo de 1800, Volta escribió un artículo en el que describía
cómo generar una corriente eléctrica continua con discos de zinc y de plata separados por un
cartón empapado en agua salada.
Cuando Volta anunció su invención, todavía se desconocía la causa de la corriente eléctrica, pero
no tardó mucho en dejar de ser un misterio. Un mes después de recibir el artículo de Volta,
Anthony Carlisle y William Nicholson construyeron una pila y observaron evidencia de que se
estaban produciendo reacciones químicas sobre las superficies metálicas. Usaron su pila para
realizar el primer experimento de electrólisis, descomponiendo el agua en hidrógeno y oxígeno
gaseosos. Este experimento revolucionario inspiró a Humphry Davy para investigar el fenómeno.
Tan sólo siete meses después, Davy escribió:
La pila actúa sólo cuando la sustancia conductora entre las placas es capaz de oxidar el
zinc; y, en la misma proporción en que una mayor cantidad de oxígeno entra en
combinación con el zinc en un tiempo dado, en la misma proporción aumenta también la
potencia de la pila. Por lo tanto, parece razonable concluir, aunque con la cantidad actual
de hechos seamos incapaces de explicar la forma exacta de operar, que la oxidación del
zinc en la pila, y los cambios químicos asociados a ésta, son, de alguna manera, la causa
de los efectos eléctricos que se producen.7
Pasaron varias décadas hasta que se llegó a identificar “la forma exacta de operar”—a saber, la
disociación de moléculas en iones cargados eléctricamente, y la reacción de esos iones en los
electrodos—pero la causa esencial se comprendió en 1800: la corriente eléctrica es generada por
una reacción química que involucra tanto a los metales como al fluido que los conecta.
Así que Galvani había estado en lo cierto al afirmar que la rana de sus experimentos jugaba un
papel indispensable en causar la corriente eléctrica: los fluidos de la rana proporcionaban la
solución salina que es esencial a la reacción. Pero Volta también había estado en lo cierto al
afirmar que los metales juegan un papel clave en la generación de la electricidad, y no sólo en su
transporte. Ambos se equivocaron sólo al negar lo que el otro afirmaba. La causa no podía
encontrarse en uno de los factores, sino solamente en la interacción química entre los dos.
La lección principal que ilustran estos errores es la importancia de tener controles experimentales
correctos. Cada uno de ellos, Galvani y Volta, pensaba que había realizado experimentos
fundamentales que refutaban la afirmación del otro, pero los experimentos tenían fallos. Cuando
Galvani eliminó los metales y siguió observando un efecto, y cuando Volta lo eliminó todo
dejando sólo los metales y siguió observando un efecto, ambos estaban cambiando las
condiciones del experimento original de la “rana bailarina” de forma que dejaba la interpretación
de los resultados en la ambigüedad.
A un nivel más general, podemos ver el peligro potencial de que la especialidad de uno le genere
prejuicios. Como biólogo, Galvani parecía predispuesto a encontrar la causa en el animal; como
físico, Volta parecía predispuesto a encontrar la causa en las propiedades físicas de los metales.
Fue Davy, un químico, quien identificó correctamente la causa como una interacción compleja
que involucraba ambos factores.

La edad de la Tierra
Examinemos ahora otra famosa controversia en la que colisionan varias ciencias diferentes. A lo
largo de las cuatro últimas décadas del siglo XIX, el físico británico Lord Kelvin se enzarzó en
un acalorado debate con los geólogos. Para explicar el corpus de evidencias que crecía
rápidamente, los geólogos iban proponiendo una historia de la Tierra cada vez más larga. Habían
descubierto que los procesos naturales que modelan nuestro planeta suceden muy despacio, y por
eso su ciencia tenía un requisito básico: el tiempo. Pero se vieron en conflicto con uno de los
físicos más eminentes de su era. Kelvin no les iba a dar el tiempo que necesitaban; él estaba
convencido de que las leyes fundamentales de la física implicaban un límite superior muy
restrictivo sobre la edad de la Tierra.
Durante la mayor parte de la historia humana, la gente intentó comprender el mundo a su
alrededor como el resultado de eventos súbitos, globales y cataclísmicos sucedidos en el pasado
(normalmente de origen sobrenatural). A finales del siglo XVIII, sin embargo, James Hutton
identificó el principio que dio origen a la geología moderna: “El presente”, escribió, “es la clave
del pasado… No debe ser usada ninguna fuerza que no sea natural al planeta, no debe ser
admitida ninguna acción salvo aquellas cuyos principios nos sean conocidos, y no deben ser
permitidos eventos extraordinarios para explicar un fenómeno común.”8 Hutton y los geólogos
que le seguían explicaron las características de la Tierra mediante fuerzas naturales que
observamos hoy: el viento, la lluvia, las reacciones químicas, los océanos y el fluir de los ríos, la
expansión y la contracción provocadas por los cambios de temperatura, la elevación de áreas de
tierra provocada por el hundimiento de sedimentos oceánicos, los lentos movimientos de los
glaciares, y los efectos acumulativos de volcanes y terremotos en sus áreas localizadas.
Por supuesto, es necesario que pase mucho tiempo para que la erosión del agua excave un valle,
y para que presiones mecánicas levanten una cordillera. Determinar cuánto es ese tiempo fue un
tema central para la geología del siglo XIX. Estimando ritmos de erosión y depósitos de
sedimentos, los geólogos empezaron a construir la línea temporal de la formación de los diversos
estratos que habían observado en la corteza terrestre. Llevaron a cabo estudios detallados de las
grandes cuencas de los ríos de todo el mundo, midiendo y analizando los contenidos
sedimentarios arrastrados hacia el mar. Al llegar la década de 1870 se habían puesto de acuerdo
en el ritmo medio de erosión continental. También acumularon datos procedentes de todo el
globo terráqueo sobre los ritmos de los procesos que resultan en la renovación de las masas de
tierra firme. Los datos llevaron al consenso entre los geólogos de que la corteza terrestre que
observamos hoy no pudo haber sido formada en menos de cien millones de años.
Hemos de reconocer que Kelvin fue el primero en darse cuenta del potencial conflicto entre las
leyes de la física y la nueva geología. Los geólogos afirmaban que la temperatura y otras
condiciones físicas de la Tierra habían permanecido aproximadamente constantes en los últimos
cien millones de años. El Sol y la Tierra, sin embargo, tienen una cantidad limitada de energía, la
cual pierden a un ritmo extraordinario. Esta disipación de energía debe eventualmente provocar
un descenso de la temperatura que dejará a la Tierra yerta y sin vida. Para Kelvin, la pregunta
era: las leyes de la física ¿permiten o prohíben la línea temporal que proponen los geólogos?
Para responder a esa pregunta, Kelvin empezó por considerar las fuentes posibles de energía
solar y terrestre. Se convenció rápidamente de que la energía que se libera en las reacciones
químicas exotérmicas era extremadamente pequeña como para jugar algún papel importante.
Más aún, como el Sol y la Tierra son eléctricamente neutros, la energía no podía ser de origen
electromagnético. Eso parecía dejar sólo una posibilidad. La fuente principal de energía en el
sistema solar es de naturaleza gravitatoria.
El sistema solar, razonó Kelvin, debe haber empezado siendo una enorme nube gaseosa. A
medida que la materia se fue condensando, la energía potencial gravitatoria se fue convirtiendo
en energía cinética, o sea, en calor. De esa forma, la Tierra fue en su origen una bola fundida
muy caliente, que ha estado enfriándose desde entonces. Escribió Kelvin: “podemos seguir con
la imaginación el proceso completo de encogimiento de la nube gaseosa convirtiéndose en lava
líquida y metales, hasta llegar a la solidificación del líquido desde las regiones centrales hacia
fuera.”9
En la década de 1860, Kelvin llevó a cabo su primer análisis del ritmo al que la Tierra pierde
calor. Reconoció que los parámetros necesarios para el cálculo no se conocían con precisión,
pero argumentó que se conocía lo suficiente para poder hacer una estimación razonable. Para la
temperatura del núcleo de la Tierra usó el punto de fusión de las rocas superficiales; para la
conductividad térmica de la Tierra usó el valor medido para las rocas en superficie; para el
gradiente de temperaturas en la superficie terrestre usó una medida de aproximadamente medio
grado Celsius cada 15 m. Con estos parámetros, llegó a un ritmo de pérdida de calor que
implicaba que la superficie terrestre se había formado hace menos de cien millones de años. En
contra de lo que creían los geólogos, las condiciones que se observan hoy en día sólo pueden
haber existido durante una pequeña fracción de ese tiempo. Kelvin expresó su conclusión sin
dejar lugar a dudas: “Es del todo seguro que se ha cometido un gran error: que la geología
popular inglesa actual está en oposición directa a los principios de filosofía natural.”10
En las décadas siguientes, Kelvin expandió y refinó sus cálculos, en formas que terminaron por
agravar el conflicto. Sus estimaciones de la edad de la Tierra fueron cada vez menores; y, más
importante aún, llegó a un límite superior muy restrictivo para la edad del Sol. Incluso
asumiendo que la energía solar se reponía en parte gracias a los meteoritos que caen sobre él, la
energía perdida por la radiación era de tal magnitud que le llevó a concluir lo siguiente: “Sería,
en mi opinión, extremadamente temerario asumir como probable cualquier cosa que supere los
veinte millones de años para la luz solar en la historia pasada de la Tierra, o pensar que la luz
solar se mantendrá más de cinco o seis millones de años a partir de ahora.”11
Kelvin era un físico matemático brillante, y sus cálculos eran esencialmente correctos. Dejando
al margen objeciones sin importancia, hemos de reconocer que su conclusión se sigue de sus
premisas. Todo su análisis, sin embargo, estaba basado en la generalización de que la energía de
las estrellas y sus planetas satélite proviene de la energía potencial gravitatoria de la nube
gaseosa primordial (completada con los meteoritos que caigan en ella). Si esto fuese verdad, los
sistemas solares se enfriarían y se irían apagando en un tiempo relativamente corto (decenas de
millones de años). Así que, al evaluar el punto de vista de Kelvin, la cuestión fundamental es:
¿cómo de válido era el argumento en favor de su premisa básica?
La forma del argumento fue un proceso de eliminación. En esa época sólo se conocían tres
fuentes posibles para la energía interna del Sol y la Tierra: la química, la electromagnética y la
gravitatoria. Kelvin citó buenas razones para descartar las dos primeras, lo que dejó a la energía
gravitacional como único candidato viable. Este tipo de argumento puede ser válido, pero
conlleva una pesada carga de prueba. Uno debe ser capaz de argumentar que se han identificado
todas las posibilidades; no puede haber ninguna razón para sospechar de la existencia de alguna
otra fuente de energía.
La evidencia que citaban los geólogos, sin embargo, arrojaba dudas sobre el argumento de
Kelvin. Los geólogos no habían ingeniado una teoría arbitraria; sus conclusiones integraban un
rango impresionante de datos, incluyendo cuidadosos estudios de los estratos en la superficie
terrestre, y medidas de los ritmos de erosión y depósito. Aquí, el error de Kelvin fue adoptar una
actitud que podría describirse como “elitista”; él parecía pensar que la evidencia procedente de la
física prima sobre la evidencia procedente de la geología. Pero los hechos son los hechos, y todos
merecen el mismo respeto. La física es la ciencia fundamental, lo que significa que integra el
mayor abanico de hechos. Pero eso no implica que los hechos de la geología deban estar
subordinados a los hechos de la física. En este caso, los hechos de la geología aportaban cierta
evidencia (indirecta) de la existencia de una fuente de energía que aún no había sido descubierta,
y que había sido omitida en el análisis de Kelvin.
Había otra razón para dudar de que la gravitación constituyese la única fuente posible de energía.
Como vimos en el capítulo anterior, la teoría atómica abrió una nueva frontera a la ciencia de la
física. Un amplio abanico de datos—que trataban de temas como los enlaces químicos, las
afinidades eléctricas, la ionización, y la emisión de luz—aportaron evidencias de que los átomos
tienen una estructura compleja. Pero no se sabía mucho sobre esa estructura. ¿Cuál es la
naturaleza de las partes que componen los átomos?, ¿cómo se distribuye esta materia subatómica
dentro del átomo?, y ¿qué fuerzas mantienen unida esa estructura? A finales del siglo XIX,
varios descubrimientos habían planteado estas preguntas fundamentales, pero aún no habían
arrojado luz sobre las respuestas. En este contexto, Kelvin no podía razonablemente ignorar la
posibilidad de que la energía interna de los átomos fuese una fuente importante de calor.
El geólogo americano del siglo XIX Thomas Chamberlin dijo precisamente eso. Escribió:
¿Es nuestro conocimiento actual sobre el comportamiento de la materia bajo condiciones
tan extraordinarias como las que suceden en el interior del Sol lo suficientemente
exhaustivo para justificar la afirmación que no hay ninguna fuente de calor desconocida
que resida allí? Cuál pueda ser la constitución interna de los átomos es todavía una
pregunta sin responder. No es improbable que sean organizaciones complejas y que
alberguen enormes cantidades de energía. Desde luego, ningún químico afirmaría o que
los átomos son verdaderamente elementales o que sea imposible que haya encerradas en
ellos energías que sean de primer orden de magnitud… Y probablemente tampoco
estarían dispuestos a afirmar o negar que las condiciones extraordinarias que residen en
el centro del Sol puedan ser capaces de liberar parte de esa energía.12
A principios del siglo XX, otros físicos demostraron que la posibilidad sugerida por Chamberlin
era una realidad. Marie y Pierre Curie descubrieron que una cantidad extraordinaria de energía se
libera en la desintegración de átomos radiactivos. Esta gran fuente de calor en la Tierra había
sido omitida en el análisis de Kelvin. Además, Ernest Rutherford—el descubridor del núcleo
atómico—escribió en 1913: “A las enormes temperaturas del Sol, parece posible que tenga lugar
algún proceso de transmutación en los elementos ordinarios, análogo al observado en los bien
conocidos elementos radiactivos.” Por lo tanto, concluyó, “el tiempo que el Sol pueda seguir
emitiendo calor al ritmo actual puede ser muy superior al valor computado a partir de datos
dinámicos normales”.13 La fuente concreta de ese aporte de calor solar, en apariencia inagotable,
fue identificada en la década de 1930, cuando los físicos descubrieron la fusión nuclear.
Además de proporcionar la energía que faltaba en los análisis de Kelvin, el campo emergente de
la física nuclear también proporcionó un medio muy preciso de calcular la edad de la Tierra. Los
elementos radiactivos decaen a ritmos fijos formando ciertos productos conocidos. Por lo tanto,
es posible determinar la edad de una roca a partir de la abundancia relativa de su elemento
radiactivo y de los productos de la desintegración de éste. En 1904, Rutherford analizó un trozo
de mena de uranio y calculó que su edad era de setecientos millones de años.14 Al año siguiente,
el físico británico Robert Strutt midió el contenido de helio de una sal de bromuro de radio y
estimó su edad en doscientos millones de años.15 De pronto, a la situación se le había dado la
vuelta: los físicos defendían que la Tierra era mucho más antigua de lo que los geólogos se
habían atrevido a sugerir.
Kelvin asumió que las leyes fundamentales de la física ya eran conocidas a finales del siglo XIX.
Le costó admitir la posibilidad de que las investigaciones en las fronteras de la física—incluidas
las investigaciones sobre la estructura atómica—pudieran llevar al descubrimiento de nuevos
tipos de fuerzas y energías. En 1894, esta actitud la expresó el físico norteamericano Albert
Michelson:
Parece probable que la mayoría de los grandes principios subyacentes hayan sido
firmemente establecidos y que avances futuros deban centrarse sobre todo en la
aplicación rigurosa de esos principios a todos los fenómenos que observemos… Un
eminente físico [Lord Kelvin] ha señalado que las futuras verdades de la ciencia física
deben buscarse en la sexta cifra decimal.16
Por tanto, el error fundamental de Kelvin puede describirse como la falacia de la “fijación
cognitiva”. Es instructivo contrastar su actitud con la de Isaac Newton, el campeón indiscutible
del método inductivo. Newton siempre consideró sus leyes del movimiento y de la gravitación
como unos cimientos sobre los que construir, nunca como el edificio completo de la física. Él era
plenamente consciente del amplio abanico de fenómenos que quedaba sin explicar. Empezó su
carrera con muchas preguntas, y a lo largo de su vida, a pesar de descubrir muchas respuestas, su
lista de preguntas siempre continuó creciendo. Cuando Newton repasó las fronteras de la ciencia
física, vio muchas áreas a ser investigadas—por ejemplo: la electricidad, el magnetismo, la luz,
el calor y la química—de las cuales esperaba que surgieran nuevos principios. Kelvin, por otra
parte, tenía una estructura mental más “deductiva”: según él, el objetivo primordial del físico es
encontrarle nuevas aplicaciones a los principios conocidos. Esa actitud le hizo concluir que la
energía de un sistema solar debe ser de naturaleza gravitacional, y eso le llevó a perder la batalla
con la geología moderna.

La fusión fría
Es posible cometer el error del tipo contrario, que podemos llamar la falacia de la “promiscuidad
cognitiva”. Un científico comete este error cuando decide abrazar una nueva idea a pesar de que
la evidencia sea escasa, y que el contexto haga que esa idea sea improbable. Un claro ejemplo de
esa falacia nos la han proporcionado los partidarios recientes de la fusión nuclear “fría”.
En 1989, Stanley Pons y Martin Fleischmann anunciaron que habían logrado una reacción de
fusión estable de deuterio en un experimento de electrólisis a temperatura ambiente. El
experimento consistía en hacer pasar una corriente eléctrica entre un electrodo de paladio y otro
de platino sumergidos en un baño de agua pesada que contenía algo de litio. Los dos químicos
dijeron en su publicación que el calor generado en esos experimentos era muy superior al que
podría ser explicado por cualquier reacción química. En uno de los casos, dijeron, el electrodo de
paladio se fundió e hizo un agujero en el suelo del laboratorio. Concluyeron que el deuterio del
agua pesada estaba siendo absorbido por la red de átomos de paladio, donde los núcleos de
deuterio estaban presionados unos contra otros con la suficiente presión como para provocar la
fusión.
Sin exageración ninguna, esta era una idea radical. Los físicos habían estado estudiando la fusión
del deuterio desde la década de 1930, y el proceso se entendía bien. La reacción tiene lugar sólo
cuando los núcleos están extremadamente cerca unos de otros, y esto requiere una cantidad
enorme de energía para poder superar la repulsión eléctrica entre los protones. Esas reacciones
ocurren dentro del Sol porque la temperatura del núcleo supera los diez millones de grados, y por
tanto la energía necesaria está disponible. Pero ¿cómo podrían aproximarse tanto los núcleos de
deuterio en un experimento de electrólisis a temperatura ambiente?
Pons y Fleischmann no le dieron respuesta a esta pregunta básica. Como físicos experimentales,
su objetivo era demostrar que el efecto ocurría. Se contentaron con dejar que los teóricos lidiasen
con el problema específico de cómo podría eso ocurrir. Fue un desafío difícil para los teóricos,
puesto que la fusión fría parecía contradecir todo lo que se sabía sobre física nuclear.
Como evidencias experimentales, Pons y Fleischmann se basaron principalmente en la
observación del exceso de calor. Una teoría científica no puede, sin embargo, ponerse patas
arriba cada vez que hay una explosión inesperada en un laboratorio de química. Está claro qué
evidencia es necesaria para apoyar la afirmación de que hubo una fusión de deuterio: hay que
detectar los productos que resultan de la reacción. Estos productos incluyen helio, neutrones, y
rayos gamma de una energía muy específica. El helio debería haber quedado atrapado en el
electrodo de paladio, y cantidades letales de neutrones y rayos gamma deberían haber estado
volando por todo el laboratorio. Todos los intentos de encontrar esos productos fracasaron, y
ningún investigador sufrió ningún efecto nocivo por causa de la radiación.
El episodio de la fusión fría se convirtió rápidamente en un circo mediático en el que políticos y
sueños de premios Nobel se antepusieron a los hechos científicos. Pons y Fleischmann habían
gritado “¡Fuego!” y habían provocado mucho revuelo innecesario. Al principio, muchos
científicos se tomaron en serio esas afirmaciones. Laboratorios de todo el mundo realizaron sus
propios experimentos de fusión fría intentando replicar los resultados. Esos científicos pensaron
que lo mejor era adoptar una actitud de “mente abierta”. Como dijo un investigador: “Pons y
Fleischmann dijeron que esto podría ser algún proceso nuclear hasta ahora desconocido. ¿Quién
sabe? Si es un proceso desconocido, tal vez no produzca neutrones. Uno siempre puede
racionalizar cualquier cosa… De una forma u otra tiene que haber una prueba definitiva, y
queríamos ser nosotros quienes por fin lo demostraran.”17
Pero no es cierto que uno pueda “racionalizar cualquier cosa”; no, si “racionalizar” significa
ofrecer un argumento racional. El término “mente abierta” es un “paquete conceptual” inválido;
se usa para llevar al pensador al nivel del escéptico, sancionando así a este último. Pero un
pensador que integra activamente la información para llegar a nuevas ideas no tiene nada que ver
con un escéptico que se siente libre para afirmar posibilidades sin la evidencia necesaria. Como
ya vimos, una mente que está abierta a cualquier “posibilidad”, independientemente de su
relación con el contexto de conocimiento completo, es una mente desgajada de la realidad y por
lo tanto cerrada al conocimiento.
Pons y Fleischmann propusieron la existencia de un nuevo tipo de energía que los físicos todavía
no habían identificado, exactamente igual que los geólogos hicieron a finales del siglo XIX. Pero
Pons y Fleischmann no estaban justificados en hacerlo, mientras que los geólogos sí lo estaban.
La diferencia entre ambos casos está en el contexto de conocimiento. A finales del siglo XIX, los
físicos acababan de empezar a explorar la estructura del átomo y la energía oculta contenida en
él; no podían descartar la posibilidad de que una energía así pudiera jugar un papel fundamental
en el calentamiento del Sol y la Tierra. Por el contrario, Pons y Fleischmann se metieron en un
área de la física que ya había sido investigada en profundidad. Su inferencia de un nuevo tipo de
fusión de deuterio a partir del “exceso de calor”—un tipo que supuestamente habían pasado por
alto un ejército de físicos nucleares que habían estudiado esta reacción durante cincuenta años—
no estaba justificada por el contexto de conocimiento.
La idea de la fusión fría persistió más tiempo del que debía. Al principio se le dio más crédito del
que merecía, pero los científicos no tardaron en aplicar los estándares correctos de evidencia
experimental. Después de unos cuantos meses, la idea fue desacreditada y descartada.

La inducción es auto-correctiva
En cada uno de los casos descritos arriba hemos visto una forma de apartarse del método
correcto. Van Helmont cometió un error típico de la era pre-newtoniana: sin el estándar de
demostración adecuado, dio un salto desde unos pocos hechos a conclusiones sobre la naturaleza
fundamental del agua y los gases. Lavoisier generalizó sobre los ácidos en base a una regularidad
observada, sin suficiente evidencia de una conexión causal. En sus investigaciones de la
corriente eléctrica, Galvani y Volta eliminaron cada uno una parte esencial de la causa, al partir
en sus razonamientos de experimentos ambiguos que no tenían los controles adecuados. Kelvin
asumió que los principios fundamentales de la física ya eran conocidos, y por ello menospreció
evidencias que apuntaban la posibilidad de una fuente no gravitatoria del calor solar y terrestre.
Finalmente, los defensores de la fusión fría despreciaron un enorme contexto de conocimiento
que hacía que su idea fuese muy poco plausible. Una generalización falsa es siempre resultado de
un error en la identificación y/o en la correcta aplicación de los principios de la lógica inductiva.
Por supuesto, el contexto de conocimiento de un científico puede estar limitado de forma que
haga fácil ignorar un factor relevante. En el Capítulo 2 cité el ejemplo del error de Galileo al no
distinguir entre esferas que se deslizan y esferas que ruedan, al hacer sus experimentos con el
plano inclinado. La importancia de esta distinción se hizo mucho más patente tras el desarrollo
de la mecánica newtoniana. Actualmente cualquier estudiante de física puede darse cuenta de
que la velocidad de una bola que rueda se ve reducida porque parte de la energía potencial
gravitatoria se convierte en movimiento rotacional. Galileo no tenía la ventaja de poder contar
con los conceptos de “energía” y “gravedad”. Incluso desde su contexto menos avanzado, sin
embargo, él pudo haber identificado la diferencia en ambos casos. El rodar está causado por el
rozamiento, y ciertamente Galileo sabía que el rozamiento se opone al movimiento. Más aún,
disponía de medios para medir la velocidad final de la bola y así descubrir que era menor de lo
que su ley predecía (la cual sólo es válida en el caso de un deslizamiento sin rozamiento). Así
que el error era detectable, y resultó de no integrar su ley con la totalidad de su conocimiento.
Cuando el contexto de conocimiento que es relevante está en un estado primitivo, un error puede
permanecer sin ser detectado durante mucho tiempo. Por ejemplo, Van Helmont investigó el
crecimiento de las plantas antes de que la química se hubiera desarrollado hasta convertirse en
ciencia. Por lo tanto, no debe sorprendernos que el factor causal que él ignoró (el dióxido de
carbono en el aire) no fuese identificado hasta 150 años más tarde. Por otro lado, cuando el
contexto de conocimiento está en un estado avanzado, los errores suelen durar poco tiempo
(como vimos en el caso de la fusión fría).
El método inductivo es auto-correctivo. Esta característica del método proviene de exigir que
cada idea debe ser inducida a partir de la evidencia observacional, e integrada sin contradicción
en el total del conocimiento disponible. Una idea falsa no puede perdurar bajo este criterio. Las
investigaciones posteriores traerán a la luz hechos que la socavan en lugar de apoyarla; la idea
llevará a predicciones de eventos que no se producirán, o contradirá eventos que se han
observado o se observarán, o contradirá otras ideas en favor de las cuales hay fuertes evidencias.
Un método correcto le mantiene a uno en contacto cognitivo con la realidad, y por eso cualquier
conflicto entre una idea falsa y la realidad se hace patente tarde o temprano.
Por lo tanto, aplicar mal el método inductivo no presenta una amenaza significativa para el
progreso de la ciencia. Sólo supone contratiempos rutinarios que son superados en el curso
normal de investigaciones posteriores.

Abandonar el método inductivo

La única forma de hacer que el progreso descarrile es rechazar del método inductivo.
Un científico no puede buscar el conocimiento sin una idea clara de qué es el conocimiento y
cómo se adquiere. Necesita una teoría del conocimiento, la cual obtiene de los filósofos (la
categoría “filósofo” incluye a esos raros genios, como Galileo y Newton, que fueron innovadores
tanto en epistemología como en física). Esa teoría del conocimiento afecta luego a todos los
aspectos de cómo el científico aborda su investigación, desde las preguntas que se plantea hasta
las respuestas que encuentra aceptables.
Una epistemología correcta le enseña al científico (o a cualquier persona) cómo ejercer el
máximo poder de su mente, es decir, cómo llegar a las abstracciones más amplias sin perder
nunca de vista a los concretos. Le dice cómo integrar los datos sensoriales en una jerarquía paso
a paso que culmina con la captación de verdades fundamentales relativas a todo el cosmos.
Desde el primer momento, sin embargo, la filosofía moderna ha fracasado totalmente en cuanto a
conseguir este objetivo. En vez de explicar cómo llegar a abstracciones que integren concretos
percibidos, los filósofos han ofrecido solamente una dicotomía entre abstracciones huecas y
concretos desintegrados. Se dividieron en dos campos: los que miraban hacia dentro inventando
esquemas conceptuales muy elaborados que estaban desconectados de los concretos (los
racionalistas), y los que se quedaban mirando al exterior hacia concretos percibidos mientras
rehuían los conceptos de nivel superior (los empiricistas). Los racionalistas se posicionaron
como campeones de la mente, aunque abandonando la realidad física; los empiricistas se
posicionaron como campeones de los hechos físicos, aunque abandonando la mente.18
Un físico que acepte la epistemología racionalista buscará una teoría fundamental y abstracta que
sea validada supuestamente por características como “simplicidad”, “claridad”, “belleza” o
“coherencia interna” (no por su relación con la evidencia observacional). Un físico que acepte la
epistemología empiricista buscará leyes más restringidas que meramente describan regularidades
en los datos observacionales, al tiempo que rechaza la necesidad de una teoría integradora. Aquí
tenemos la falsa alternativa entre el teórico que desdeña los datos, frente al colector de datos que
desdeña la teoría. Ninguna de esas estrategias puede llevar a una teoría demostrada, que es el
objetivo propio de la ciencia.

El racionalismo
La física de René Descartes ilustra perfectamente el método racionalista. Descartes es conocido
principalmente por ser el padre de la filosofía moderna, pero su obra más extensa—Principios de
filosofía—es un tratado que aborda principalmente la ciencia física. Cuando Descartes publicó su
física (1644), la revolución científica ya se había anotado varias victorias: los trabajos de Gilbert,
Kepler, Bacon, Harvey y Galileo eran conocidos en toda Europa. En vez de unirse a esta
revolución, sin embargo, Descartes rechazó el método mismo que había hecho posibles los
descubrimientos de sus predecesores.
Según Descartes, el conocimiento no comienza con la percepción sensorial; empieza más bien
con ideas “claras y distintas” que están “implantadas por naturaleza” en nuestras mentes. La
verdad de esas ideas está asegurada por su claridad intrínseca y por la perfección moral de Dios,
que no nos engañaría implantándonos ideas falsas. A todos los efectos, Descartes asumió que
tenemos un ojo interior para percibir verdades abstractas, y que el resto del conocimiento está
basado, en última instancia, en esa consciencia introspectiva. Escribió:
Llamo “clara” a aquella percepción que está presente y manifiesta en una mente atenta,
exactamente igual que decimos que vemos claramente las cosas que están presentes ante
nuestro ojo enfocado y actúan sobre éste de una forma lo bastante fuerte y manifiesta.
Por otra parte, llamo “distinta” a aquella percepción que, siendo clara, está tan separada
y acotada de todas las demás que no contiene absolutamente nada más que lo que es
claro.19
Esa era la versión cartesiana de la intuición mística en la que todo racionalista debe apoyarse.
Una vez rechazado el único criterio objetivo para evaluar la verdad o la falsedad—la evidencia
observacional—al racionalista sólo le queda el criterio subjetivo del místico: sentir. Pese a
presentarse como un defensor acérrimo de la razón, él acepta ideas que siente que son ciertas, o
sea, las ideas que él quiere creer. Declara que esas ideas tienen las cualidades intrínsecas
especiales que hacen que su verdad sea manifiesta. En la ciencia, Descartes dio con una serie de
ideas “claras y distintas” que le llevaron a construir la primera “teoría del todo”.
Descartes comenzó su física con la intuición de que la extensión es la única propiedad
fundamental e irreducible de la materia. Siguiendo una tradición que se remonta a Platón, intentó
reducir el mundo físico a combinaciones de unas pocas formas geométricas básicas. Los
racionalistas suelen tener una gran admiración por la geometría, a la que consideran una ciencia
ideal porque supuestamente consiste en una serie de verdades que se deducen a partir de axiomas
auto-evidentes. Más aún, suelen sentirse alienados del mundo físico, el cual suele desobedecer
las ideas de los racionalistas. Así que el sueño de reemplazar a los obstinados entes físicos por
formas geométricas ideales le resulta muy atractivo al racionalista.
Toda materia, dijo Descartes, está compuesta por tres tipos de partículas elementales, que se
distinguen sólo por sus tamaños, formas, y formas de moverse. Escribió:
Puede que algunos me pregunten cómo sé yo cómo son estas partículas… Tomé los
principios más simples y mejor entendidos, el conocimiento de los cuales sabemos que
está implantado en nuestras mentes; y a partir de ellos consideré, en términos generales:
primero, cuáles son las diferencias principales que pueden existir entre los tamaños, las
formas y las posiciones de los cuerpos que no pueden ser percibidos por los sentidos por
razón de su pequeño tamaño; y segundo, qué efectos observables resultarían a partir de
sus diversas interacciones.20
En otras palabras, él no hizo observaciones, no hizo experimentos, y no hizo ningún
razonamiento para ir de los efectos a las causas subyacentes. En vez de todo eso, miró hacia
dentro y ofreció un mundo de fantasía “claro y distinto” más imaginativo que cualquier cuento
de hadas.
Descartes no tuvo ningún problema para llegar a las leyes del movimiento que gobernaban sus
formas elementales. Partiendo de la inmutabilidad de Dios, dedujo que la “cantidad de
movimiento” total siempre se conserva. Esto puede parecer una anticipación del principio de
conservación del momento lineal de Newton, pero no lo es. Descartes definió “cantidad de
movimiento” como el producto del volumen por la velocidad, lo cual es muy diferente al
producto de Newton, masa por velocidad. Cuando Descartes empleó su principio para analizar y
predecir los resultados de colisiones elásticas, llegó al resultado correcto sólo en el caso
específico de dos cuerpos de igual volumen, igual densidad de masa, y velocidades iguales y de
sentido opuesto. En todos los demás casos su teoría da respuestas incorrectas. “La experiencia”,
reconoció, “a menudo parece contradecir las reglas que acabo de explicar”.21 Él asumió, a pesar
de todo, que las aparentes contradicciones podrían ser atribuidas a los efectos del medio o a la
naturaleza inelástica de las colisiones. Su método le eximía de tener que preocuparse por las
observaciones. Terminó el estudio de las leyes del movimiento con el siguiente comentario:
“Estos asuntos no necesitan demostración, pues son auto-evidentes. Las demostraciones están tan
claras que, aunque nuestra experiencia parezca mostrarnos lo contrario, deberíamos obligarnos a
tener más fe en nuestra razón que en nuestros sentidos.”22
Mediante este método racionalista, el “conocimiento” llegaba con tal facilidad que Descartes no
pudo parar. Explicó la naturaleza de los planetas, las lunas, los cometas, y la causa de sus
movimientos. Describió la formación del Sistema Solar, la naturaleza de las manchas solares, y
la causa de la aparición de nuevas estrellas (o sea, de las supernovas). La parte del libro que trata
de astronomía concluye con esta afirmación: “Creo que he dado aquí una explicación
satisfactoria a absolutamente todos los fenómenos que observamos en los cielos que hay sobre
nosotros.”23 Tan sólo una generación después de que Kepler hubiese inaugurado la ciencia de la
astronomía, Descartes afirmó haberla completado.
La última parte del libro de Descartes trata de los fenómenos terrestres. Él propuso explicaciones
para las mareas, los terremotos, los volcanes, el relámpago, la formación de montañas, el
magnetismo, la electricidad estática, las interacciones químicas, y la naturaleza del fuego. Al
final de esa sección volvió a dejar a un lado la modestia y escribió: “No hay nada visible o
perceptible en este mundo que yo no haya explicado.”24 Un historiador de la ciencia ha señalado
lo siguiente: “Descartes no dejó nada sin tocar… Los Principios de filosofía fueron un triunfo de
la imaginación fantástica, que por desgracia resultó no dar ni una sola vez con la explicación
correcta.”25 Desde luego, hay un motivo por el que nunca “dio” con la verdad: como hemos
visto, la ciencia no es un juego de adivinanzas. Las generalizaciones que hizo Descartes no se
corresponden con la realidad porque él no las derivó inductivamente a partir de observaciones de
la realidad.
En contraste a la inducción, el método del racionalismo no es auto-correctivo. Si una teoría es
validada por cualidades intrínsecas tales como su claridad o su belleza matemática, entonces esa
teoría no puede ser refutada por la evidencia observacional. La teoría es sólo una integración de
abstracciones flotantes, desconectada de datos perceptuales, y por tanto invulnerable a ellos. En
el momento que quiera, el racionalista es libre de ponerle más adornos a su teoría con elementos
“bellos”—o sea, arbitrarios—para deducir cualesquiera hechos concretos.
La física cartesiana fue abandonada sólo cuando Newton rechazó el racionalismo y demostró el
poder del método inductivo, el cual ganó a partir de ese momento una aceptación unánime
durante la Ilustración. Lamentablemente, el compromiso con este método no duró mucho.

El empiricismo
Dos filósofos muy influentes del siglo XVIII—David Hume e Emmanuel Kant—desarrollaron
teorías del conocimiento que socavaron cada uno de los aspectos esenciales del método
inductivo.26
Como resultado, el siglo XIX se convirtió en un campo de batalla en el que los científicos se
vieron en medio del fuego cruzado entre el método ejemplificado por Newton y Lavoisier, y una
forma radicalmente nueva de abordar la ciencia, que había surgido de la filosofía empiricista
post-kantiana. Esta nueva perspectiva, denominada “positivismo” por el filósofo francés Auguste
Comte, redefinió el objetivo básico de la ciencia. Los científicos ya no debían preocuparse por
descubrir la verdadera naturaleza de las entidades que existen independientemente en un mundo
físico real; cualquier intento de captar la naturaleza de las entidades externas fue menospreciado
por ser una “metafísica especulativa”. No tenemos experiencia directa de esas entidades, dijeron
los positivistas, sino sólo de “apariencias” subjetivas. Por ello, el objetivo adecuado de la ciencia
debe limitarse sólo a describir regularidades en el comportamiento de esas apariencias.
Los seguidores de Newton habían dado por sentado que la tarea del científico es identificar la
causa subyacente a los eventos que observamos, es decir, identificar la naturaleza de una cosa
que hace necesaria las acciones de ésta. Los positivistas, sin embargo, afirmaron que tales causas
son incognoscibles. Deben ponerse límites estrictos, insistieron, a las preguntas que les está
permitido plantearse a los científicos. No tiene sentido investigar los aspectos de apariencias que
no aparecen, por el simple motivo de que esos aspectos no existen. Una cosa real puede tener
muchas propiedades que no pueden verse, pero una apariencia subjetiva no tiene esas
propiedades ocultas: por definición, la apariencia es lo que se aparece a nuestros sentidos. Si la
razón se restringe a un “mundo de apariencias” interior, entonces Kant había llegado a la
conclusión inevitable:
La ciencia nunca nos revelará la constitución interna de las cosas, la cual, no siendo
apariencia, puede aún servir de base última para explicar las apariencias. La ciencia
tampoco necesita de esto para sus explicaciones físicas… Pues estas explicaciones deben
estar basadas solamente en aquello que, como objeto de los sentidos, puede pertenecer a
la experiencia…27
Esta prohibición de investigar la “constitución interna de las cosas” extendió su influencia
durante el mismo periodo en el que los científicos estaban descubriendo abundante evidencia en
favor de la composición atómica de la materia. El resultado fue uno de los episodios más
grotescos de la historia de la ciencia, en el que muchos químicos y físicos rechazaron e incluso
emprendieron cruzadas contra una teoría de un extraordinario éxito.
Al principio, la creciente popularidad del positivismo tuvo el efecto de frenar el progreso en
cuanto a demostrar la teoría atómica. La teoría de Dalton fue de hecho censurada por los autores
de libros de texto de química; ellos explicaron la ley de Dalton de las proporciones múltiples
como siendo sólo una regularidad empírica, ignorando la explicación atómica que había para
ella.28 De forma parecida, había entre los químicos una gran reticencia a aceptar la hipótesis de
Avogadro, que fue considerada por los positivistas “metafísica”, y no ciencia. Y cuando
Waterston aplicó la dinámica de Newton a las moléculas para poder explicar la ley de Charles de
los gases, los editores de las Transacciones filosóficas de la Royal Society se negaron a publicar
su artículo, rechazándolo por ser “nada más que palabrería, inadecuado incluso para ser leído
ante la Royal Society”.29
A medida que se acumulaba la evidencia en favor de los átomos, la oposición positivista a esa
teoría se fue intensificando. En 1867, poco después de que Maxwell publicara su triunfante obra
sobre la teoría atómica de los gases, hubo una reunión de la Chemical Society en Londres. El
evento principal de este encuentro fue un artículo titulado “Química ideal”, por Benjamin Brodie,
quien ofrecía un nuevo enfoque que de plano rechazaba los átomos. Un historiador resume así la
filosofía de Brodie: “El verdadero objeto de la ciencia no es explicar, sino describir. No podemos
preguntarnos qué es el agua, sólo lo que hace, o en qué se convierte. No tenemos ningún medio
de captar la realidad subyacente de las cosas, y por ello debemos contentarnos con una
descripción precisa de lo que las cosas hacen…”30
¿Cómo puede un químico evitar hacer afirmaciones sobre la “realidad subyacente” y limitarse
sólo a describir cambios observables? Esta era la pregunta que Brodie iba a responder en su
presentación. La clave de la respuesta, dijo, era un nuevo sistema de clasificación. Brodie
propuso un sistema en el que trataba como primarios a los cambios químicos en vez de a las
sustancias químicas (intentando así evadir la cuestión de qué está cambiando). Los cambios se
describen mediante ecuaciones químicas que nombran las cantidades de reactivos y las
cantidades de productos. Por ejemplo, dos litros de vapor de agua pueden convertirse en un litro
de hidrógeno y un litro de peróxido de hidrógeno. O, por ejemplo, dos litros de cloruro de
hidrógeno gaseoso pueden cambiar dando lugar a un litro de hidrógeno y un litro de cloro.
En la teoría de Brodie, las sustancias no están clasificadas por su naturaleza esencial, sino por el
número y tipo de operaciones que hacen falta para producirlas. Él implementó esta idea
agrupando sustancias químicas que aparecen en posiciones parecidas de ecuaciones parecidas.
En los dos ejemplos anteriores, tanto el peróxido de hidrógeno como el cloro aparecen como
productos, junto con el hidrógeno, en ecuaciones que tienen los mismos coeficientes. Por lo
tanto, según Brodie, estas dos sustancias deben agruparse y designarse con combinaciones
parecidas de símbolos. De esta forma, el cloro queda representado por símbolos que hacen que
parezca un compuesto en vez de un elemento.
La teoría levantó algunas críticas en la reunión. Con un toque de sarcasmo, Maxwell dijo que le
sorprendía descubrir que el hidrógeno y el mercurio fuesen operaciones en vez de sustancias. Es
más, algunos químicos se quejaron de que el sistema de Brodie estaba basado en puntos de
partida elegidos arbitrariamente, y que elecciones diferentes habrían dado lugar a esquemas de
clasificación diferentes. No obstante, la reacción ante esta teoría fue sorprendentemente positiva.
Un autor señala que “a pesar de algunas críticas, el tono de todos los presentadores fue
respetuoso, y en ocasiones halagador”.31 Después de la reunión, la revista Chemical News dedicó
casi un número entero a la teoría de Brodie, llamándola “la química del futuro”. La teoría
también fue aclamada en el North British Review, que dijo que la idea de los átomos seguía
siendo tan dudosa como lo había sido dos mil años atrás.32
Ya que Brodie estaba rebelándose contra la idea misma de explicación causal, sus ideas están
mejor descritas si las llamamos una “anti-teoría” en vez de una teoría. Brodie fue escuchado con
respeto sólo porque había sentimientos extendidos de desconfianza y hostilidad hacia los átomos.
La fuente de esos sentimientos era el positivismo.
La hostilidad fue evidente en la reunión cuando Brodie ridiculizó el uso de modelos atómicos
para las estructuras moleculares. Leyó ante la audiencia el siguiente anuncio en una revista
científica: “El hecho fundamental de la combinación química se puede simbolizar
ventajosamente con bolas y cables, y aquellos estudiantes prácticos que exijan demostraciones
tangibles de tales hechos encontrarán, para su satisfacción, que ahora por relativamente poco
dinero pueden conseguir un juego de modelos para construir la fórmula de forma visible.”33 Es
un anuncio perfectamente razonable para sets de modelos moleculares, muy útiles para que
químicos y estudiantes entiendan la disposición espacial de los átomos en una molécula. Sin
embargo, cuando Brodie leyó el anuncio, tuvo que esperar a que cesaran las risas de burla antes
de proseguir. Asumió que esos tipos de modelos eran ridículos, y gran parte del público estaba de
acuerdo con él. Luego dijo que el anuncio era una prueba fehaciente de que la química había ido
“por el mal camino”, un camino que estaba “completamente fuera de las normas de la
filosofía.”34
El químico que introdujo esos modelos de esferas y cables, Edward Frankland, estaba en la
reunión. Recordemos que Frankland había sido el primero en usar la idea de valencia atómica,
que corresponde al número de cables que tiene un átomo para conectarse a otros. En su libro de
texto Lecture Notes for Chemistry Students había hecho uso extenso de estos modelos para
explicar la naturaleza de los compuestos en términos de su estructura molecular. Eso fue un
avance crucial, y los modelos ya habían demostrado ser enormemente útiles, especialmente en
química orgánica.
Y sin embargo fue Brodie quien recibió apoyo general mientras atacaba y ridiculizaba, y fue
Frankland quien reculó, sintiéndose avergonzado y aislado. En su respuesta, Frankland intentó
tímidamente defender sus modelos diciendo: “No consigo imaginar que alguna maldad pueda de
alguna forma surgir a partir de estas representaciones simbólicas…”35 Luego enfatizó que él
nunca había pretendido que los modelos fuesen retratos fieles de nada real. Claudicó por
completo en este asunto con la siguiente confesión: “No puedo hacer más que afirmar, de una
vez por todas, que ni creo en los átomos mismos ni creo en la existencia de centros de fuerza.”36
Cuando le preguntaron por qué los químicos deberían usar la teoría atómica, Frankland
respondió que la teoría servía “en cierto modo como una escalera para ayudarle al químico a
avanzar de un sitio a otro en su ciencia”.37 Nunca explicó cómo una falsa teoría podía funcionar
como un medio indispensable para avanzar en una ciencia.
Muchos científicos se vieron obligados a adoptar esta posición contradictoria. Uno de los
químicos que estaba en la reunión, William Odling, había hecho importantes descubrimientos
sobre la estructura molecular de varios ácidos y sales; y sin embargo, se rió de lo que llamó “el
fantástico libro de dibujos de Frankland”.38 En la reunión, Odling señaló: “Hay algunos que,
como yo, no creen en los átomos, y que mantienen la idea de los átomos en un segundo plano en
la medida de lo posible.”39 Él no rechazaba los átomos en la práctica; era consciente de que sin la
teoría atómica no sería capaz de realizar su investigación. Pero mantenía los átomos en “segundo
plano” y se negaba a reconocer su realidad. De esa forma cometió un crimen epistemológico que
sólo puede ser descrito como un “robo de teorías”, o sea, el apropiarse de una teoría a la que uno
no tiene derecho.
En Francia, la controversia sobre los átomos estalló en 1877 en un congreso en la Academia de
Ciencias de París, donde Marcellin Berthelot se enzarzó en un acalorado debate con Adolphe
Wurtz. Los dos eran químicos eminentes; Wurtz era uno de los pocos defensores de la teoría
atómica en Francia, y Berthelot era un apasionado detractor de la teoría. Después de que Wurtz
citase la abundante evidencia en favor de los átomos y presentase sus argumentos, Berthelot
respondió con su famosa pregunta retórica: “¿Quién ha visto alguna vez una molécula gaseosa, o
un átomo?”40 Luego dijo: “Lo único que ha hecho la teoría atómica ha sido entremezclar los
embrollos de sus hipótesis con nuestras leyes demostradas, y lo ha hecho en fuerte detrimento de
la enseñanza de la ciencia positiva.”41
Cien años antes, Francia había sido el líder mundial en química. Durante el siglo XIX, sin
embargo, la mayoría de químicos en las universidades de Francia abandonaron su investigación a
nivel de leyes empíricas y se negaron a avanzar hacia una teoría causal. Berthelot expresó la
actitud positivista en el núcleo de este estancamiento en una conversación con otro químico a
mediados de la década de 1880. Mientras explicaba el por qué de su cruzada contra la teoría
atómica, Berthelot dijo: “No quiero que la química degenere en una religión; no quiero que el
químico crea en la existencia de los átomos como el cristiano cree en la presencia de Cristo en la
hostia consagrada.”42 Su colega le dijo que no se preocupase; después de todo, le dijo a Berthelot
en tono tranquilizador, los átomos son sólo una ayuda mental y poca gente cree que existan de
verdad.
Al llegar la década de 1880, la evidencia en favor de la composición atómica de la materia había
sobrepasado con creces todos los estándares razonables de demostración. Rechazar la existencia
de los átomos era como rechazar la teoría heliocéntrica del Sistema Solar. La teoría atómica
había integrado y explicado los campos de la química, la cristalografía, la electrólisis, la teoría de
los gases, y la termodinámica. Pero sólo había un tipo de evidencia que Berthelot podía aceptar:
los atomistas tenían que llegar con un átomo que él pudiera tener en la mano y mirar. Sin esa
“apariencia”, insistía él, aceptar la existencia de átomos era un mero acto de fe. De este modo,
aceptó la falsa alternativa entre empiricismo y racionalismo, y escogió el acto de quedarse
mirando embobado en vez del acto de guiarse por una fe ciega.
En física, el más famoso e influyente de los positivistas de finales del siglo XIX fue Ernst Mach.
Cuando era adolescente, Mach leyó a Kant y llegó a la conclusión de que la realidad no es más
que un “surtido de sensaciones”. Adoptó una perspectiva según la cual el mundo entero de
entidades físicas se desvanecía, dejando sólo una sucesión caleidoscópica de apariencias sin
relación entre sí. Después de abandonar la idea de causalidad por ser “formalmente oscura”,
espetó que el objetivo de la ciencia era la mera identificación de ecuaciones matemáticas que
describen patrones en los fenómenos observados. Obviamente, la teoría atómica era incompatible
con esa perspectiva. Escribió: “lo que nos representamos a nosotros mismos tras las apariencias
existe sólo en nuestro entendimiento. El único valor de tales representaciones es el de ser ayudas
a nuestra memoria, ayudas cuya forma, por ser arbitraria e irrelevante, cambia fácilmente al
cambiar el punto de vista de nuestra cultura.”43
Según Mach, una teoría científica no es más que una regla mnemotécnica. Cumple la misma
función que una canción para aprender el abecedario, ayudándole al niño a recordar las letras al
conectarlas con una melodía. Huelga decir que los investigadores de éxito no ven las teorías de
esa forma; no las usan para recordar experiencias pasadas, sino para explicar ciertos
acontecimientos del pasado y para predecir fenómenos nunca antes vistos. También las usan para
llevar astronautas a la Luna, diseñar plantas de energía nuclear, revolucionar nuestras vidas con
ordenadores ultra-rápidos, o salvar nuestras vidas con nuevos medicamentos e instrumental de
diagnóstico médico. Tal es el poder de las teorías cuando identifican correctamente relaciones
causales fundamentales.
Las premisas básicas de Mach lo llevaron a afirmar cosas que sólo pueden describirse como
grotescas. En un estudio sobre la composición del agua, por ejemplo, escribió: “Decimos que el
agua se compone de oxígeno e hidrógeno, pero estos oxígeno e hidrógeno no son más que
pensamientos o nombres que, al ver el agua, tenemos listos para describir fenómenos que no
están presentes pero que volverán a aparecer cuando descompongamos el agua.”44 Así que
oxígeno e hidrógeno no hacen referencia a los elementos que componen el agua; más bien, hacen
referencia sólo a las burbujas de gas que vemos durante un experimento de electrólisis. (Los
positivistas posteriores darían un paso más allá y afirmarían que el nombre “Aristóteles” no hace
referencia al filósofo griego, sino sólo a nuestras experiencias perceptuales cuando leemos ese
nombre en un libro.)
Al inicio del siglo XX, científicos influyentes en toda Europa seguían negando la realidad de los
átomos. Además de Mach, estaban Karl Pearson en Inglaterra, Henri Poincaré y Pierre Duhem en
Francia, Wilhelm Ostwald y Georg Helm en Alemania, y sus muchos seguidores. Estos eran algo
así como miembros de una “sociedad de la Tierra plana”, excepto que ocupaban eminentes
cargos en universidades y publicaban artículos en revistas de prestigio.
Al final, los descubrimientos hechos en la primera década del siglo XX convencieron a algunos
positivistas (aunque no a Mach) para concederle valor heurístico a la teoría atómica. Por
ejemplo, Ostwald hizo esa concesión cuando Einstein identificó colisiones entre moléculas como
la causa del movimiento “browniano” observado en partículas muy pequeñas (aunque
perceptibles). La integración exitosa de ciencias enteras no había impresionado a Ostwald; él
reconsideró su oposición a la teoría atómica sólo después de ver dar vueltas a pequeñas
partículas. Esto es típico de la “conversión” que tuvo lugar entre los positivistas. Dado que su
epistemología los restringía a abstracciones cerca del nivel perceptual, sólo este tipo de pruebas
observacionales más directas podía impactarles de alguna manera.
Aunque los átomos fueron aceptados con un pragmático encogerse de hombros, la filosofía que
se había opuesto a ellos sobrevivió; siguió ejerciendo una intensa influencia en la siguiente
frontera de la investigación: en la física subatómica. En la década de 1920, los fundadores de la
teoría cuántica rechazaron la causalidad de forma explícita y se limitaron a desarrollar un
formalismo matemático que describe y predice sucesos observables.45 De ahí el legado del
positivismo que sigue con nosotros hasta el día de hoy. Ha pasado más de un siglo desde los
descubrimientos del electrón y el núcleo atómico, y aun así los físicos no tienen todavía una
teoría causal de los procesos subatómicos, y la prohibición de desarrollar dicha teoría es
raramente cuestionada.
El método empiricista conduce al estancamiento.
Los racionalistas y los empiricistas llevan siglos discutiendo entre ellos, pero coinciden en
rechazar la idea de que una teoría científica es la merecida recompensa a la que se llega por un
proceso de abstracción paso a paso a partir de datos sensoriales. El racionalista alega llegar al
conocimiento de otra manera: él mira pasivamente el contenido de su mente y afirma que los
montajes de su imaginación quedan validados por su “belleza” o su “claridad”. El empiricista,
por su parte, denuncia como no-científico el objetivo mismo de descubrir una teoría causal, y
exige que los investigadores se conformen con describir las “apariencias”.
Ambos niegan que el conocimiento abstracto pueda ser descubierto por medio de una aplicación
rigurosa de la lógica inductiva.
7. El papel de las matemáticas y la filosofía

A lo largo de este libro hemos visto que las ciencias físicas dependen de otras dos ciencias: las
matemáticas y la filosofía.
El papel fundamental de las matemáticas lo reconoce todo el mundo, aunque el por qué de ese
papel fundamental siga siendo un misterio. Las matemáticas son el lenguaje de la física; pero,
¿por qué? Aunque esta pregunta ha sido planteada durante siglos, nadie ha conseguido darle una
respuesta racional.
Históricamente, la respuesta más popular ha sido que Dios es un matemático y que Él decidió
crear el universo en base a ello. Pero la efectividad de las matemáticas no se explica mediante la
afirmación arbitraria de que “lo hizo Dios”; nada se vuelve inteligible haciendo referencia a los
deseos de una entidad sobrenatural e ininteligible actuando con medios ininteligibles. Desde el
siglo XVII, los científicos han rechazado las supersticiones sobre fenómenos como cometas,
plagas y volcanes, y las han sustituido por explicaciones naturales. Es hora de hacer lo mismo
con el papel de las matemáticas.
La filosofía nos da la visión básica de la existencia y del conocimiento, una visión necesaria para
abordar las ciencias especializadas. Hoy en día, sin embargo, los físicos son reacios a admitir que
dependen de la filosofía, un campo que se ha convertido en escepticismo y ha perdido la
capacidad de responder a preguntas interesantes (o incluso de plantearlas). Los físicos hacen bien
en desestimar la corriente principal de la filosofía contemporánea por ser irrelevante para su
trabajo. Pero hacen mal en juzgar una rama del conocimiento por la irracionalidad de los que se
dedican a ella, y son ingenuos al pensar que pueden eludir las cuestiones fundacionales de la
filosofía. Hemos visto que los diversos modos de abordar la física que practicaron Descartes,
Newton y Mach tenían sus raíces en sistemas filosóficos diferentes. Las ideas filosóficas de los
científicos quedan a veces implícitas y tácitas, pero su influencia es siempre real y poderosa.
Reconocer que la física depende de la filosofía conlleva una responsabilidad para el físico: éste
debe llegar a sus conclusiones filosóficas empleando el mismo rigor lógico que exige para llegar
a sus conclusiones científicas. Esto implica una obligación que recae sobre la filosofía, la cual
puede exigir ese respeto sólo si está a la altura de los altos estándares que ella misma le impone a
las ciencias especializadas. Las generalizaciones de la filosofía deben ellas mismas ser inducidas
a partir de datos observacionales de acuerdo con el mismo método que una filosofía racional
define.
Empezaremos por desmitificar la relación entre las matemáticas y la física. Después, en la
siguiente sección, examinaremos si la ciencia fundamental que identifica los principios de un
método inductivo adecuado puede de hecho seguir ese mismo método. Finalmente, estudiaremos
cómo el colapso de la filosofía ha afectado a la física contemporánea.
El carácter inherentemente matemático de la física

Para entender por qué las matemáticas son el lenguaje de la física es indispensable tener una
teoría de los conceptos adecuada.
La pseudo-explicación que ofrece la religión se basa en una perspectiva platónica sobre los
conceptos matemáticos. Según Platón, las matemáticas provienen de un mundo extrasensorial de
ideas que existían antes del mundo material, y que fueron las que lo causaron. Recordemos que
cuando Kepler estaba influenciado por esta idea dejó de buscar causas físicas, y en vez de eso
pasó a confiar en sus intuiciones sobre el diseño divino. Esta perspectiva racionalista separa las
matemáticas del mundo y, en consecuencia, sus defensores se sienten incapaces de usar las
matemáticas para comprender el mundo.
Quienes se han opuesto a la forma mística de ver las matemáticas, lo que han hecho
tradicionalmente es abrazar el punto de vista escepticista. Las leyes matemáticas de la naturaleza
no son creaciones arbitrarias de Dios, insisten los escépticos, sino creaciones arbitrarias nuestras.
Nosotros decidimos describir las “apariencias” en términos matemáticos porque nos parece
conveniente hacerlo; pero esta descripción no quiere decir nada sobre la naturaleza de la realidad,
sólo sobre lo que a los seres humanos les parece conveniente. Como lo expresó el físico inglés
James Jeans:
Nunca podremos entender qué son los eventos, sino que debemos limitarnos a describir
las pautas de los eventos en términos matemáticos; ningún otro objetivo es posible. . . .
Nuestro estudio de la física nunca podrá ponernos en contacto con la realidad, y su
significado y su naturaleza deberán permanecer ocultos de nosotros para siempre.1
Una vez más, la matemática queda separada del mundo, y su origen es colocado totalmente
dentro de la consciencia (esta vez humana en vez de divina).
Ideas como estas sobre la naturaleza de los conceptos matemáticos llevaron a Einstein a plantear
la siguiente pregunta sin respuesta: “¿Cómo es posible que las matemáticas, un producto del
pensamiento humano, y que es independiente de la experiencia, pueda encajar tan
maravillosamente con los objetos de la realidad física?”2 Sólo se puede contestar a esa pregunta
después de haber rechazado la premisa de que las matemáticas son independientes de la
experiencia. Como cualquier otra ciencia, la matemática se aplica a la realidad porque es
derivada a partir de nuestras observaciones de la realidad. Es una conceptualización de hechos,
los cuales en última instancia se reducen a semejanzas y diferencias observadas.
Para indicar la objetividad de las matemáticas, consideremos brevemente los números naturales.
Tomemos, por ejemplo, el concepto “tres”, que hace referencia a lo que hay igual entre tres
pájaros en un árbol, tres monedas de mi bolsillo, y tres bolígrafos en el cajón de mi escritorio.
Cada grupo tiene la misma multiplicidad, o sea, el mismo número de unidades. Para números
enteros pequeños, esa semejanza es captada perceptualmente.
Los conceptos de números más grandes pueden formarse después emparejando: por ejemplo, un
pastor puede comparar el número de ovejas en una ladera con el número de dedos en sus manos.
Esto le permite captar la diferencia entre un grupo de nueve ovejas y un grupo de diez ovejas,
diferencia que no puede apreciar por percepción directa. Enfocándonos en las relaciones entre
números tales como “uno menos” o “uno más”, podemos llegar al concepto de “uno” y después
darnos cuenta de las tremendas ventajas de incluirlo como el primer número de una secuencia.
Entonces podemos contar, extender la secuencia sin límite, y desarrollar los métodos de la
aritmética.3
Por lo tanto, y como todos los demás conceptos, los conceptos numéricos son integraciones de
concretos similares. Al revés de lo que piensan Platón y sus muchos seguidores, los conceptos
son abstracciones que no existen en la realidad al margen de nosotros. Pero eso no quiere decir
que sean ficciones subjetivas. Hacen referencia a hechos, en tanto en cuanto son procesados por
nuestra facultad conceptual; o sea, son objetivos.4
La reducción al nivel perceptual es más complicada para los conceptos matemáticos de nivel
superior. Dada la dificultad de la tarea y lo extendida que está la confusión en epistemología,
incluso los mejores matemáticos han abandonado la premisa de que nuestros conceptos están
basados en la experiencia. Por ejemplo, Morris Kline escribió:
Ese tipo de explicación es demasiado simplista. Puede bastar para explicar por qué
cincuenta vacas y cincuenta vacas hacen cien vacas. . . Pero los seres humanos han
creado conceptos matemáticos y técnicas en el álgebra, en el cálculo, en las ecuaciones
diferenciales, y en otros campos, que no les son sugeridas por la experiencia.5
Si los conceptos de las matemáticas superiores no se derivan de la experiencia, sin embargo,
entonces son lo equivalente al “flogisto” o al “espacio absoluto”; o sea, son inválidos. Si lo
fuesen, sería imposible entender la aplicación exitosa de estas ideas. Los astronautas que
aterrizaron sobre la Luna se sorprenderían mucho al oír decir que llegaron a su destino basándose
en ideas inválidas.
De hecho, los conceptos matemáticos—desde los números naturales que usamos para contar
hasta los “números imaginarios”, “el infinito”, y todo lo demás—son desarrollados
esencialmente de la misma manera que los conceptos en física; es un proceso de abstracción paso
a paso que parte de la observación. No voy a intentar identificar aquí esos pasos, pues eso me
llevaría mucho más allá del objetivo de este libro. En vez de eso, remito al lector interesado al
trabajo de Pat Corvini sobre este tema.6
Asumida ya la objetividad de las matemáticas, nuestra pregunta es: ¿Por qué es solamente a
través de las matemáticas que podemos adquirir conocimiento científico sobre el mundo físico?
Al plantearnos esto, recordemos la profunda frase de Kepler de que, igual que el ojo percibe la
luz y el oído percibe el sonido, el intelecto humano es una facultad para captar cantidades.
Hemos visto abundante evidencia de que estaba en lo cierto; ahora estamos tratando de entender
por qué eso es verdad debido a la naturaleza misma de una consciencia conceptual.
Rand identificó que concretos semejantes unidos por un concepto difieren entre sí sólo
cuantitativamente. Formamos un concepto dándonos cuenta de que dos o más existentes poseen
las mismas características (o característica), pero que esas características varían a lo largo de un
continuo cuantitativo de más o menos. Omitiendo las medidas implícitas y aproximadas de las
características, podemos integrar los existentes y tratarlos como casos intercambiables de un
único concepto.
Los conceptos son el medio a través del cual identificamos la naturaleza de los existentes, y esos
conceptos están basados en que captemos relaciones cuantitativas entre sus referentes. Al hacer
esa integración, nuestras mentes captan que los diversos casos que percibimos son
conmensurables, es decir, reducibles a la misma unidad, y por tanto que esos casos son idénticos
excepto en sus medidas. Por ejemplo, tomemos un caso específico de longitud y relacionemos
todos los demás casos como siendo longitudes mayores o menores. Cuando omitimos las
medidas, el resultado es una categoría conceptual a la que todos esos casos pertenecen:
“longitud”, que es una integración mental de todos los referentes conmensurables que podemos
medir haciendo referencia a un caso perceptible que adoptamos como unidad. El mismo
principio se aplica a la formación de otros tipos de conceptos.7 Así, cuando decimos “Sé lo que
es esto”, lo que queremos decir es “Sé lo que es mediante una operación cuantitativa que mi
mente realiza”, es decir, mediante captar la conexión cuantitativa que hay entre los diferentes
casos y un concreto específico que tomamos como unidad, para luego ignorar las medidas
específicas.
En la formación de conceptos creamos carpetas de archivos que contienen todos los referentes de
un concepto, tanto conocidos como desconocidos. Es entonces cuando estamos preparados para
recoger más datos sobre algunos casos específicos y podemos generalizar, aplicando así nuestras
conclusiones a todos los otros casos que hay en la carpeta. Llenamos esas carpetas usando los
métodos de diferencia y concordancia para descubrir conexiones causales, las cuales constituyen
la base de nuestras generalizaciones inductivas. Pero, en el fondo, ¿de qué manera captamos
nosotros esas conexiones entre existentes físicos?
Cuando buscamos causa y efecto, estamos relacionando objetos, o atributos, que recaen bajo
conceptos diferentes. Estamos intentando descubrir el efecto que un tipo de existente tiene sobre
otro; por ejemplo, estamos intentando identificar el efecto de la temperatura sobre la presión de
un gas, o el efecto de la longitud sobre el periodo de un péndulo, o el efecto de la distancia sobre
la fuerza gravitacional entre dos cuerpos. Nuestro vocabulario conceptual nos permite buscar ese
conocimiento: por ejemplo, podemos tratar de descubrir la relación entre la temperatura y la
presión, descartando lo irrelevante, como el color o la forma, incluso aunque esté inundando
nuestro campo perceptual. De esa forma, podemos hacernos preguntas causales específicas:
¿Cómo afecta A a B, ignorando todo lo demás?
Más aún, nuestra facultad conceptual nos proporciona el sistema numérico, y por tanto la
capacidad de medir, no sólo de forma aproximada e implícita, como en la etapa de formación de
conceptos, sino también de forma explícita y numérica. Ya como adultos conceptualmente
desarrollados, seguimos aplicando el proceso de establecer relaciones cuantitativas como siendo
nuestro medio de conocimiento, pero en esta etapa posterior podemos relacionar objetos de
carpetas de archivos distintas unas con otras por medio del método conceptual de captar
cantidades: la medición numérica.
Para ilustrar este proceso, recordemos la ley de Galileo que relaciona la longitud de un péndulo
con su periodo.
Primero, debemos formar el concepto de “longitud” captando medidas implícitas que luego
omitimos. Usamos ese concepto, en este caso, para describir una categoría más estrecha: la
longitud de un péndulo (sigue siendo una descripción conceptual que engloba un cantidad
ilimitada de longitudes específicas de péndulos diferentes). De forma parecida, formamos el
concepto de “tiempo” observando la acción de los cuerpos (por ejemplo, los conceptos de “día” y
“año” están basados en el movimiento relativo entre el Sol y la Tierra; intervalos de tiempo
menores se estiman según movimientos regulares de menor duración); a continuación omitimos
las medidas implícitas. Subdividimos el amplio concepto de “tiempo” para formar el concepto
más específico de “periodo”, que se refiere al intervalo de tiempo entre casos particulares de un
movimiento repetitivo (y que sigue siendo un concepto que engloba una cantidad ilimitada de
periodos específicos).
Con este aparato conceptual y el sistema numérico, vimos que Galileo ingenió una forma de
variar y medir numéricamente la longitud y el periodo correspondiente de péndulos diferentes.
En base a sus medidas, generalizó su descubrimiento en una ley algebraica: la longitud es
proporcional al cuadrado del periodo. Después de captar esta relación causal, al conocer la
medida de cualquiera de esas variables puede uno calcular el valor numérico de la otra (dado un
sistema específico de unidades).
Por lo tanto, el tomar medidas pre-conceptuales (aproximadas) nos lleva a conceptos, los cuales a
su vez hacen posible la medición conceptual (numérica), que es la actividad básica de los físicos
experimentales. Los científicos comienzan identificando relaciones numéricas para después
generalizarlas en leyes matemáticas, que son la forma que tenemos de captar relaciones causales.
Las matemáticas nos permiten reducir a la escala de nuestra percepción innumerables casos que
escapan a nuestra percepción. Por ejemplo, la ley de la gravitación cubre no sólo una cantidad
ilimitada de casos, sino una escala también ilimitada en magnitud. Estudiamos la caída de la
manzana, que es algo fácilmente perceptible, y entonces podemos lidiar con la fuerza atractiva
que ejerce una galaxia sobre otra. O estudiamos el comportamiento de esferas eléctricamente
cargadas, que es algo fácilmente perceptible, y entonces podemos lidiar con la fuerza que ejercen
las partículas subatómicas unas sobre otras.
El mismo principio se aplica tanto a la formación de conceptos como a la práctica de la física.
Partimos del nivel perceptual de los concretos, y entonces, por un proceso de abstracción,
ascendemos al nivel de conceptos—que Rand, en una elocuente analogía, comparó con partir de
la aritmética—y luego, por un proceso de abstracción, ascender al nivel del álgebra. En física, lo
equivalente al nivel perceptual son las medidas numéricas que toman el experimentador o el
observador; esa es la aritmética de la física. Las leyes inducidas a partir de estas medidas son el
regreso al nivel abstracto y algebraico, y eso es lo que le permite al físico comprender las
relaciones que hay entre las distintas variables, relacionando así el conocimiento que ha
adquirido a partir de un puñado de casos perceptibles, con todos los casos que hay por todo el
universo, independientemente de su número o su escala.
Así que adquirimos conocimiento del mundo físico a través de dos formas de medida: primero la
aproximada y pre-conceptual, y luego la numérica y conceptual. La consciencia humana es,
inherentemente, un mecanismo cuantitativo. Capta la realidad—o sea, los atributos de las
entidades y las relaciones causales entre ellas—sólo al captar datos cuantitativos. En este sentido,
la cantidad tiene primacía epistemológica sobre la cualidad.
Es crucial darse cuenta de que este punto es epistemológico, no metafísico. Pitágoras se equivocó
al afirmar que la cantidad es la sustancia de la realidad; no es cierto que “todas las cosas son
números”. La cantidad es siempre una cantidad de algo, es decir, de alguna entidad o atributo.
Pero la cantidad es la clave a la naturaleza del conocimiento humano. Podemos captar e
identificar las cualidades de las cosas sólo a través de captar su cantidad; y podemos captar
relaciones causales entre entidades y acciones, sólo a través de captar las relaciones cuantitativas
que hay entre ellas.
Si pudiésemos conocer las cualidades por simple percepción, sin ningún procesamiento
cuantitativo, entonces podríamos conocer las relaciones causales mediante una percepción
directa, sin medidas numéricas. En la cognición a los niveles más bajos, podemos acercarnos a
este estado puramente cualitativo, porque podemos retener conceptos de primer nivel, y
generalizaciones de primer nivel, de forma ostensiva y perceptual. Para saber que el fuego
quema, simplemente lo tocamos y gritamos “¡Ay!”, sin que hagan falta medidas numéricas. Pero
en los niveles de cognición más altos, la única forma que tiene una consciencia conceptual de
captar relaciones entre cualidades es a través de la medición.
En la práctica, la física completa el trabajo de la formación de conceptos.
Una vez que hemos desarrollado el vocabulario conceptual necesario, el físico dice: recuperemos
ahora las medidas que deliberadamente dejamos de lado en la etapa de formación de conceptos, y
veamos qué relaciones cuantitativas podemos encontrar. En otras palabras: omitimos las medidas
para formar conceptos; después, el físico coge esas mismas medidas omitidas, pero en términos
numéricos, y descubre la relación que existe entre un conjunto de medidas numéricas y otro, y
eso es a lo que llamamos leyes de la naturaleza. Tanto con leyes particulares como con teorías
fundamentales, este es el método gracias al cual los científicos identifican las relaciones causales
que operan en el universo, y con ello explican nuestras observaciones.
Después de la etapa inicial cualitativa y pre-científica, no hay nada que un científico que estudia
un mundo físico conceptualizado pueda hacer para captar las relaciones entre los cuerpos, salvo
retomar, en términos numéricos, las mismas medidas que tuvo que dejar inicialmente de lado
para conceptualizar el mundo. Y esto es así por la naturaleza de nuestra facultad conceptual.
Es por este motivo que la matemática es el lenguaje de la física. La física matemática es una
necesidad derivada del hecho de que la entidad que aprende es una consciencia conceptual que
conoce los objetos sólo a través de cantidades.

La ciencia de la filosofía

De Platón a Descartes, de Kant a Hegel, los filósofos racionalistas han intentado deducir la
naturaleza del mundo a partir de ideas “a priori”, y su espectacular fracaso ha contribuido mucho
a desacreditar a la filosofía a ojos de los físicos. La filosofía no nos dice cuál es la naturaleza
específica del mundo; pero sí nos dice que hay un mundo, que el mundo tiene una naturaleza y
que debe actuar de acuerdo con ella, y que nosotros descubrimos esa naturaleza siguiendo ciertos
principios metodológicos.
La filosofía es la ciencia que define la relación entre una consciencia volitiva y la realidad. Por
tanto, es la ciencia fundamental de la vida humana, sobre la cual descansan el resto de las
disciplinas, que son más especializadas. Es la voz que nos dice cómo abordar esas disciplinas
mientras seguimos manteniéndonos en contacto cognitivo con la realidad en todo momento, lo
cual es un requisito indispensable para que podamos alcanzar con éxito objetivos racionales en
cualquier ámbito. Todas las demás ciencias presuponen los elementos esenciales de una visión
racional del universo, del conocimiento y de los valores.
La filosofía es y debe ser una materia inductiva en todas sus ramas, excepto en metafísica. (Ver
el primer capítulo del libro del Dr. Peikoff, Objetivismo: la Filosofía de Ayn Rand, para entender
cómo conocemos los axiomas metafísicos, que son la base de todo pensamiento.) Las ideas
normativas de la filosofía no son innatas; deben ser aprendidas partiendo de la observación
perceptual, y luego siguiendo en ascenso por la jerarquía necesaria, igual que en física. Todo
conocimiento de la realidad debe ser adquirido en base a la observación, y esto incluye el
conocimiento de cómo adquirir conocimiento. La inducción es ineludible en cualquier ámbito.
Los datos que son integrados por generalizaciones filosóficas provienen principalmente de dos
fuentes. La primera es la experiencia personal, que incluye ser consciente introspectivamente de
los procesos conscientes de uno mismo y de estudiar a otras personas. La introspección es,
claramente, una fuente indispensable de datos, ya que la filosofía estudia la consciencia, y un
individuo tiene acceso directo sólo a la suya propia. La segunda fuente principal de datos es la
historia, a la que Rand se refirió como “el laboratorio de la filosofía”. Hay muchas
generalizaciones sobre el conocimiento y los valores que obviamente uno puede descubrir
mediante el estudio del Antiguo Egipto versus la Antigua Grecia, de Atenas versus Esparta, de la
Edad Media versus el Renacimiento, de la Revolución Americana versus la Revolución
Francesa, de la Alemania del Este versus la Alemania Occidental antes de la caída del muro de
Berlín, etc.
Para dar una breve indicación del proceso de inducción en filosofía, vamos a volver a la pregunta
planteada al principio de este libro: ¿Cuál es el método adecuado para llegar a generalizaciones
sobre el mundo físico? Ahora podemos preguntarnos: ¿Qué generalizaciones inductivas tuvieron
que ser captadas antes de que fuera posible pensar en hacer esa pregunta?
Está claro que tenemos que captar la necesidad de un método. Aquí, uno de los primeros pasos es
reconocer que somos falibles. Una idea no es verdadera sólo porque se nos ocurra, o porque
queramos que lo sea; a veces nos equivocamos. Los niños se dan cuenta de esto muy pronto en
su desarrollo, y ciertamente las personas sabían eso desde la época de las cavernas. Un hombre
primitivo que confundiera una planta venenosa con una comestible aprendería en seguida que
había cometido un error.
Por supuesto que la falibilidad, por sí misma, no nos lleva muy lejos hacia el descubrimiento de
un método racional. La solución primitiva al problema del error fue confiar en alguna autoridad
supuestamente infalible, como por ejemplo el jefe de la tribu, el hechicero, o las revelaciones
divinas del Faraón. La humanidad tardó mucho tiempo en descubrir que hay un método basado
en los hechos, mediante el cual un individuo puede llegar a sus ideas y demostrarlas.
Este descubrimiento se hizo posible cuando los filósofos de la Antigua Grecia se dieron cuenta
de la distinción fundamental entre conceptos y perceptos. Platón fue el primero en identificar
claramente las diferencias entre esas dos formas de ser consciente. Los conceptos son
universales, es decir, se refieren a todos los existentes de un cierto tipo, mientras que los
perceptos son el darse cuenta directamente de entidades concretas; los conceptos son productos
del pensamiento, mientras que los perceptos son el resultado automático de la interacción de
nuestros sentidos con el mundo físico; los conceptos son estables, mientras que los perceptos
varían con las circunstancias y con los cambios en los objetos percibidos.
Por desgracia, Platón utilizó esas diferencias para argumentar que los conceptos no pueden
originarse a partir de nuestra percepción del mundo físico, sino que deben tener su origen en un
mundo sobrenatural de ideas. Al asignar los conceptos y los perceptos a dos mundos distintos y
poner así una cuña entre ambos, redujo su filosofía al misticismo y abandonó la búsqueda de un
método basado en la realidad.
Fue Aristóteles quien rechazó el error de Platón y reconcilió las ideas con la evidencia de
nuestros sentidos. Él se dio cuenta de que formamos los conceptos mediante un proceso de
abstracción, a partir de ser conscientes de cosas concretas a través de nuestros sentidos. Una
abstracción es un enfoque mental selectivo sobre las similitudes entre existentes; es el proceso de
separar mentalmente las similitudes que existen entre ellos, separarlas de la gran cantidad de
diferencias en la que están sumidas. Así, Aristóteles se dio cuenta de que todo conocimiento
conceptual surge a partir de nuestra percepción del mundo de entidades que hay a nuestro
alrededor.
Más aún, Aristóteles identificó una diferencia fundamental entre conceptos y perceptos, que
Platón había pasado por alto. En contraste con el mundo del pensamiento conceptual, los
perceptos son infalibles. Son simplemente el producto de una respuesta fisiológica automática de
nuestros sentidos frente a la realidad; nuestros sentidos no pueden equivocarse, por el mismo
motivo que una manzana no puede equivocarse en su respuesta frente a un campo gravitatorio.
Sólo los juicios que hacemos en base a nuestros perceptos pueden estar equivocados. Tales
juicios, sin embargo, no son automáticos; están bajo nuestro control; podemos someterlos a
evaluación crítica y revisarlos cuando la evidencia lo justifique.
Al llegar a este punto, Aristóteles pudo captar la posibilidad de validar nuestro conocimiento
mediante un método racional. El ámbito conceptual y falible de la cognición humana puede ser
validado por datos perceptuales infalibles. Podemos exigir que las conclusiones a las que se
llegue a través de cualquier proceso de pensamiento volitivo integren los datos sensoriales sin
contradicción, y podemos rechazar cualquier conclusión que no cumpla con esta exigencia.
Como este método ha sido utilizado de forma tan extensa y con tanto éxito durante tantos siglos,
ahora es fácil darlo por hecho y considerarlo algo obvio. Pero muchas generalizaciones
inductivas abstractas que tienen que ver con la cognición humana tuvieron que ser captadas antes
de que alguien pudiera concebir la idea de un método como ese.
Una vez que Aristóteles hubo captado la necesidad y la posibilidad de un método racional, se
preguntó: ¿Cuáles son las reglas específicas de ese método, las reglas que debemos seguir para
garantizar que nuestras conclusiones se corresponden con los hechos? Empezó estudiando la
deducción, que es, en su forma, más sencilla que la inducción. Los pensadores griegos habían
estado debatiendo durante siglos, y construyendo cadenas de premisas que llevaban a
conclusiones. Aristóteles emprendió la tarea de identificar las reglas que distinguen los
argumentos válidos de los inválidos, y de abstraer el principio básico de validez.
Su enorme descubrimiento, que le establece como el padre de la lógica, fue que la validez
deductiva queda determinada únicamente por la forma del argumento, no por su contenido.
Algunas formas son lógicamente válidas, o sea, la conclusión se sigue de las premisas,
independientemente del contenido; otras formas son inválidas, de nuevo, independientemente del
contenido. Por ejemplo, consideremos el argumento: “Sócrates es un hombre; todos los hombres
son mortales; por lo tanto, Sócrates es mortal.” Podemos simbolizar eso de la siguiente manera:
“S es M; M es P; por lo tanto, S es P”. Cualquier argumento con esta estructura es
deductivamente válido. Por el contrario, consideremos el argumento: “Sócrates es mortal; los
cerdos son mortales; por lo tanto, Sócrates es un cerdo”. Cualquier argumento con esta estructura
es inválido.
Observemos que la primera vez que captamos la distinción entre argumentos válidos e inválidos
estamos basándonos en la observación directa. Por ejemplo, sabemos que el segundo argumento
es inválido porque es perceptualmente auto-evidente que Sócrates no es un cerdo. Más adelante,
podemos simbolizar el argumento, dibujar diagramas, y darnos cuenta de qué está errado en su
forma. Pero la separación inicial entre argumentos válidos e inválidos precede al análisis
abstracto, y es posible porque las formas inválidas pueden llevar a conclusiones que son
obviamente (por observación) falsas.
Por lo tanto, Aristóteles indujo su teoría de la deducción; examinó un enorme abanico de
argumentos concretos y llegó a generalizaciones que identificaron los diversos tipos de
estructuras válidas e inválidas. Luego, subiendo hasta un nivel de abstracción aún más alto, se
preguntó: ¿Cuál es el error común en la raíz de todos los argumentos inválidos? Encontró que
todos esos argumentos implican una contradicción, es decir, implican que algo es A y no-A al
mismo tiempo y en el mismo sentido. Así, captó (inductivamente) que la ley de no-contradicción
es el principio fundamental de todo pensamiento válido.
La teoría de la deducción fue un logro sin precedentes en epistemología, pero era obvio que la
validez deductiva por sí sola no garantiza la verdad. Premisas falsas combinadas dentro en una
estructura válida pueden llevar a conclusiones falsas. El conocimiento exige que uno valide la
cadena entera de razonamiento que va desde la observación hasta la conclusión final. Toda
conclusión de un argumento deductivo depende de generalizaciones a las que sólo se puede
llegar por inducción. De ahí la pregunta con la que empezamos este libro: ¿Cómo podemos saber
si son verdaderas esas generalizaciones?
Para responder a esta pregunta en lo referente a la física, nos hemos apoyado mucho en la
historia de la ciencia. La teoría de la inducción presentada aquí ha sido ella misma inducida
observando el proceso de descubrimiento científico en acción. Hemos tratado la historia de la
ciencia como si fuese nuestro laboratorio, identificando los principios de ese método que han
llevado a la verdad, y las desviaciones de ese método que han llevado a error. Hemos usado los
métodos de concordancia y diferencia para abstraer los principios metodológicos que son
comunes a los casos de descubrimiento exitoso, y para contrastarlos con los casos de fracaso.
Por ejemplo, consideremos el principio de que una teoría científica demostrada debe estar
totalmente basada en relaciones causales, en vez de estar basada en regularidades descriptivas.
La ley de causalidad, por supuesto, es captada implícitamente en una fase muy temprana del
desarrollo cognitivo; no llegamos a ella estudiando teorías científicas, las cuales presuponen
conocer un sinnúmero de relaciones causales. Y sin embargo la historia de la ciencia nos da un
nuevo entendimiento profundo sobre el papel que juega la causalidad en el desarrollo de teorías
abstractas sobre el mundo físico, un entendimiento que no podría ser alcanzado de ninguna otra
manera. Cuando identificamos el enfoque no-causal de Ptolomeo y vemos el consecuente
estancamiento en la astronomía, y luego lo contrastamos con el enfoque explícitamente causal de
Kepler y vemos su descubrimiento clave de la verdadera estructura del Sistema Solar, entonces
es cuando tenemos los datos para captar un principio crucial del método científico.
Ahora, consideremos el principio de que los métodos de diferencia y concordancia proporcionan
el medio de descubrir relaciones causales (la experimentación es la forma principal de estos
métodos, pero—como mostró Kepler—no es la única forma). Una cosa es reconocer que la
concordancia y la diferencia juegan algún papel importante en la ciencia (incluso los
racionalistas normalmente admiten este punto); y otra cosa muy distinta es darse cuenta de la
naturaleza fundamental e indispensable de ese papel. Aquí, una vez más, la historia de la ciencia
aporta abundante evidencia. Por ejemplo, el contraste entre la física de Descartes y la de Newton
ilustra este punto. A pesar del hecho de que Descartes ocasionalmente realizaba experimentos, la
experimentación como tal no jugaba un papel esencial en su física, la cual, a consecuencia de
eso, resultó ser un revoltijo de afirmaciones sin ninguna base en la realidad. Por otra parte, la
experimentación fue fundamental en el método de Newton, y, como resultado, él descubrió
verdades a una escala sin precedentes, convirtiéndose en el padre de la física moderna.
El papel de las matemáticas también se induce a partir de la historia de la ciencia. Antes de
Galileo, incluso los más grandes pensadores no llegaron a captar del todo el poder único de la
matemática como una herramienta para comprender el mundo físico. Incluso después de Galileo,
Descartes hizo relativamente poco uso de las matemáticas en su física (a pesar de ser un
matemático excelente). Sólo después del trabajo de Newton fue cuando las matemáticas llegaron
a ser reconocidas totalmente como el lenguaje de la ciencia física.
De la historia también aprendemos que el hombre puede descubrir la naturaleza fundamental de
la materia, y que ese conocimiento teórico tiene beneficios prácticos. También aquí fue Newton
quien allanó el camino. Él fue el primero en concebir la posibilidad de explicar la enorme
variedad de fenómenos observados a través de unas cuantas leyes fundamentales. Ese
conocimiento fue lo que hizo posible la Revolución Industrial, dando lugar a drásticos aumentos
en la longevidad y en la prosperidad de la vida humana. Y, por si somos lentos en aprender la
lección, la historia es lo bastante amable como para repetirse para nosotros. Por ejemplo,
podemos observar el descubrimiento de la teoría atómica de la materia, la desastrosa oposición a
esa teoría por parte de los positivistas que negaban la posibilidad de tal conocimiento y,
finalmente, la extraordinaria tecnología en favor de la vida que ha surgido a partir de esa teoría.
Finalmente, consideremos el principio de que el método inductivo es auto-correctivo. ¿Podíamos
habernos dado cuenta de este principio sin inducirlo a partir de la historia de la ciencia?
Podríamos haber argumentado de la siguiente forma: (1) La realidad es un todo que está
interconectado causalmente, sin contradicciones; (2) el método inductivo mantiene a uno en
contacto cognitivo con la realidad; (3) ese contacto, por tanto, garantiza que uno terminará
siendo consciente de hechos que contradigan y de esa forma refuten cualquier idea falsa. Pero
por sí mismo, sin embargo, este razonamiento no es más que una serie de abstracciones flotantes
nada convincentes. El argumento se vuelve convincente sólo cuando le damos contenido a las
abstracciones al examinar un amplio rango de errores reales en la historia de la ciencia, y viendo
en cada caso que la aplicación consistente del método inductivo llevó a la corrección del error.
La teoría de la inducción debe ser evaluada siguiendo los mismos criterios que la propia teoría
propone para evaluar teorías en la ciencia física. Veamos ahora si esos criterios se satisfacen.
Primero, consideremos el rango de datos históricos que ha sido ofrecido en defensa de la teoría.
Hemos analizado en detalle el descubrimiento de tres teorías relativamente restringidas (la
cinemática de Galileo, la teoría del Sistema Solar de Kepler, y la teoría de los colores de
Newton) y el descubrimiento de dos teorías fundamentales (la mecánica newtoniana y la teoría
atómica de la materia). Estas teorías difieren en su nivel de abstracción, involucran ciencias
diferentes (astronomía, física, y química), y tratan con fenómenos que varían desde lo muy
grande (el Sistema Solar) hasta lo muy pequeño (átomos). En cada uno de los casos, se ha
demostrado que los mismos principios de método resultaron en una demostración, y que los
pasos en falso cometidos durante el camino hacia el descubrimiento fueron causados por alguna
desviación respecto de ese método. Cualquier lector que quiera evidencias adicionales puede
estudiar la historia del electromagnetismo, que exhibe el mismo método.8
He escogido deliberadamente teorías que están demostradas fuera de toda duda. Un filósofo de la
ciencia que intente identificar principios de método debe hacer esto por la misma razón que un
físico debe eliminar de sus experimentos factores que puedan confundir. Así como un físico no
puede identificar una causa cuando hay un experimento que ostenta ciertas variables relevantes
de las cuales no tiene control, el filósofo tampoco puede identificar los principios del método
correcto examinando el desarrollo de una teoría cuya relación con la realidad se desconoce.
Además de haber sido inducida a partir de la historia de la ciencia, una teoría de la inducción en
física también debe ser una parte integrada de un sistema filosófico general que haya sido
validado. La inducción es un tema avanzado de epistemología, y por ello presupone ciertas
respuestas a muchas preguntas anteriores relativas a los fundamentos y la naturaleza del
conocimiento. Nuestra teoría es parte de un marco filosófico completo que identifica los axiomas
básicos sobre los que descansa todo el conocimiento, e identifica la naturaleza de los conceptos.
De esa forma hemos aceptado la responsabilidad de satisfacer nuestros propios criterios de
demostración: hemos presentado una teoría de la inducción que está basada en todo momento en
la observación, está integrada en un marco conceptual válido, y ha sido inducida a partir de un
rango de datos suficientemente grande.
Empecé esta sección enfatizando que la filosofía es la base de las ciencias especializadas, y
acabo de señalar, sin embargo, que un cierto conocimiento filosófico fundamental es inducido a
partir de la historia de esas ciencias. Ambos puntos son ciertos y consistentes entre sí. Un
individuo debe tener los elementos esenciales de un enfoque racional y que tenga los pies en la
tierra, para poder descubrir conocimiento especializado; después, una vez que ha sido
descubierta una cantidad significativa de ese conocimiento, uno puede reflexionar sobre el
proceso y llegar a un entendimiento más explícito del método que ha empleado. El conocimiento
filosófico que hace falta al principio está más abajo en la jerarquía que los principios de método
que son inducidos a partir del descubrimiento exitoso de las teorías científicas. Por ejemplo,
tenemos que captar que la observación es la base del conocimiento antes de poder captar el papel
de la experimentación en la física; tenemos que captar la ley de no-contradicción y la
interdependencia de nuestras ideas antes de poder captar el principio de que todo el conocimiento
debe formar una totalidad integrada; y tenemos que captar los beneficios prácticos de un
conocimiento de nivel inferior antes de poder captar el extraordinario valor de las teorías
abstractas.
En el capítulo 4 estudiamos la relación que existe entre el conocimiento primitivo en física y
otros descubrimientos posteriores. Vimos que la cinemática de Galileo fue un requisito previo
esencial que le permitió a Newton expandir el concepto de “aceleración” y captar el concepto de
“gravedad”. Desde su contexto de conocimiento, que era más avanzado, Newton pudo volver la
vista atrás y ver implicaciones de los experimentos de Galileo que el propio Galileo no había
podido captar. El uso de descubrimientos posteriores para profundizar y expandir el
conocimiento de puntos anteriores es característico del conocimiento en cualquier ámbito, y esto
es especialmente cierto en filosofía. La ciencia de la filosofía empieza diciéndonos que tenemos
que emplear la razón para captar la realidad si queremos quedarnos dentro de ella; y luego, a
medida que avanza, la filosofía repite el mismo mensaje, pero con un entendimiento cada vez
más profundo de la razón y de los requisitos de la vida humana.
Las ciencias de la filosofía y de la física emplean un método parecido. Ambas parten de
generalizaciones de nivel inferior basadas en la observación, y llegan a principios mediante un
proceso de integración paso a paso. Los conceptos juegan el mismo papel en ambos campos: los
conceptos válidos le llevan a uno por el camino de las generalizaciones verdaderas, y los
conceptos inválidos paralizan el progreso. Y las teorías en ambas ciencias deben satisfacer los
mismos criterios de demostración.
Pero hay dos claras diferencias de método que han cegado a los intelectuales al hecho de que la
filosofía es una ciencia inductiva.
La primera es que la filosofía no usa experimentos. El objeto de estudio de la filosofía es el
hombre, y es obvio que está mal controlar y manipular a los hombres. Más aún, incluso el intento
diabólico de tratar a las personas como objetos inanimados fracasaría; como las personas tienen
libre albedrío, siempre hay un factor causal que está inherentemente fuera del control de
cualquier experimentador hipotético. Pero, como hemos visto, la filosofía tiene su propio
equivalente a la experimentación, el cual es totalmente apto para sus objetivos: usa los métodos
de la diferencia y la concordancia para explotar las ricas fuentes de datos que aportan la
experiencia personal y la historia
La segunda diferencia es que la filosofía no usa matemáticas. La filosofía estudia la relación
entre la consciencia del hombre y la realidad, y la consciencia no es expresable en forma de
números. Es medible de forma aproximada, porque los pensamientos y las emociones sí que
varían en un continuo cuantitativo. Por ejemplo, podemos decir que la idea de Newton de la
gravitación universal tiene un enfoque más amplio que su idea de qué ropa se pondrá en una
ocasión concreta; o podemos decir que el amor de una mujer por su marido es más intenso que su
amor por el chocolate. Pero nunca podremos decir que la idea de la gravitación es 8719 veces
mayor, o que el amor de la mujer es 163 veces más intenso.
Los estados de consciencia son mensurables (de forma aproximada y no-numérica) sólo debido a
su relación con la materia. De una forma u otra, siempre es la materia lo que está siendo medido,
no el estado de consciencia en tanto en cuanto es consciencia. Un pensamiento que tiene un
enfoque más amplio es un pensamiento que engloba más objetos físicos o atributos. Una
emoción de gran intensidad es una emoción que conduce a más actos, y/o a más tiempo de
acción, y/o a la elección de ciertas acciones en vez de otras. Cuando los investigadores hablan
(sin demasiado rigor) de aplicar medidas numéricas a la consciencia, lo que están haciendo en
realidad es medir entidades físicas, atributos, o acciones que están relacionadas con estados de
consciencia.
La consciencia sí que tiene una naturaleza, es decir, el ser consciente se consigue gracias a
medios específicos; pero todo lo que es medible relacionado con la naturaleza de la consciencia
se refiere a sus instrumentos físicos: a un tipo específico de sentidos y a un tipo específico de
cerebro. El fenómeno de la consciencia en sí no puede ser analizado, porque no es más que la
facultad de percibir la existencia. Por sí misma—o sea, considerada al margen de toda relación
con el mundo físico—carece de contenido y carácter, así que no hay ningún misterio en por qué
no puede ser cuantificada. Los números son aplicables sólo a entidades y a sus atributos, pero los
estados de consciencia no son entidades: son ser consciente de entidades.
Un neurólogo puede medir impulsos eléctricos en un cerebro y correlacionarlos con estados de
consciencia, pero los números siempre hacen referencia a los estados del cerebro. Un psicólogo
puede aplicar tests multi-respuesta diseñados para medir la inteligencia o la autoestima, pero esos
tests dan sólo (en el mejor de los casos) estimaciones aproximadas. Las puntuaciones numéricas
quedan determinadas por el lugar que ocupan señales físicas sobre hojas de papel. Puede haber
quedado claro que una persona concreta es más inteligente o más segura de sí misma que otra,
pero no hay ningún significado literal en decir que es un 28% más inteligente, o que su
autoestima es un 17% más alta. No hay nada que pueda servir como unidad numérica de
inteligencia o de autoestima.
Las ideas dentro de una mente son una parte inseparable de un estado cognitivo total, en un
sentido que no ocurre para los cuerpos físicos. Los elementos constituyentes de una mesa o de
una aleación, o incluso de un átomo, pueden ser separados y existir sin conexión con el todo al
que pertenecían antes, y mantener una identidad propia independiente incluso formando parte de
un todo mayor aún. Pero, puesto que una idea carece de significado fuera del contexto cognitivo
del que forma parte, esa idea no puede ser separada de esa manera, y menos aún ser definida
como una unidad y relacionada numéricamente con otras ideas. Cuando una idea se combina con
otra para llegar a una tercera idea, la asignación de números podría llevar a la conclusión de que
uno más uno es igual a uno. La consciencia es una facultad integradora y, como tal, debe eludir
cualquier intento de ser contada.
El hecho de que la filosofía no pueda usar las matemáticas no tiene consecuencias negativas; no
arroja dudas sobre el estatus del conocimiento filosófico. La física debe usar las matemáticas
para descubrir causas y adquirir un conocimiento integrado de un amplio conjunto de cuerpos
físicos y de su increíble variedad de propiedades. La filosofía, por el contrario, es una materia
más abstracta y mucho más delimitada: estudia un aspecto de una especie, y con ello
proporciona el fundamento de todo nuestro conocimiento y de nuestros valores. A diferencia de
la física, la filosofía no necesita que las matemáticas le proporcionen un método especializado de
integración.
Los que consideran a la filosofía como una disciplina “blanda” y no científica, en contraposición
con los campos “duros” y científicos de las matemáticas y la física, han aceptado una Gran
Mentira. Las ideas de los matemáticos y los físicos no pueden ser más objetivas o más
verdaderas que las ideas filosóficas de las cuales dependen. La filosofía es la disciplina que nos
dice cómo ser objetivos y cómo alcanzar la certeza. Sin una teoría del conocimiento, ¿cómo iban
a saber los matemáticos o los físicos la relación que sus conceptos y generalizaciones tienen con
la realidad?
Es la ciencia inductiva de la filosofía la que le enseña al científico “duro” cómo ser científico.

Un final... y un nuevo comienzo

Hace cuatro siglos, Kepler y Galileo rompieron las cadenas que habían retenido al hombre en la
caverna de Platón, y empezaron la revolución científica. Fue una revolución que cobró velocidad
rápidamente y se anotó una victoria tras otra. Pero mientras los científicos expandían su
conocimiento y conquistaban nuevos territorios, no consiguieron darse cuenta de que su centro
de operaciones estaba siendo saboteado. Los filósofos habían lanzado una contrarrevolución que
empezó a adquirir su propia inercia.
El líder de esa contrarrevolución fue Emmanuel Kant.
A pesar de sus errores, muchos filósofos anteriores a Kant habían intentado validar la capacidad
de la mente para conocer la realidad. Algunos reconocieron su propio fracaso y se rindieron
desesperados. Pero los escépticos siempre fueron seguidos de cerca por otros que renovaron el
esfuerzo de mostrar que la consciencia podía de alguna manera captar la existencia. Kant fue el
primer filósofo que renunció, por principio, a todos esos intentos, y el primero en presentar esa
renuncia, no como un fallo, sino como un gran triunfo.
Los sofistas de la Antigua Grecia argumentaron que, como percibimos las cosas de una manera
que depende de la naturaleza de nuestros sentidos, no percibimos realmente las cosas externas,
sino sólo el efecto que ellas tienen sobre nosotros. Sus argumentos asumían que, para poder tener
consciencia de un objeto, el sujeto consciente no debe tener ninguna naturaleza propia. Nuestros
órganos de percepción, y los medios específicos por los que operan, supuestamente nos impiden
percibir un objeto como realmente es.
Los sofistas concluyeron que percibimos sólo apariencias subjetivas, las cuales guardan una
relación incognoscible con los objetos externos. El ataque de Kant a la capacidad de la mente fue
una extensión radical de este antiguo error. Si nuestra facultad de percepción es inválida porque
nuestros sentidos operan por algún medio específico, ¿qué pasa con nuestra capacidad de
concepción? Todo entendimiento proviene de procesar los datos de la cognición, y ese
procesamiento es realizado de formas específicas que dependen de la naturaleza de la entidad
consciente. Si la naturaleza de nuestro aparato sensorial es una barrera infranqueable para
percibir la realidad, entonces, por el mismo razonamiento, la naturaleza de nuestro aparato
conceptual debe ser considerada una barrera infranqueable para pensar sobre la realidad. Kant
llegó a la conclusión de que la consciencia, por el hecho mismo de tener una naturaleza, está
desgajada de la existencia.
La influencia de los escépticos anteriores había quedado mitigada porque ellos lamentaban su
incapacidad para validar el conocimiento humano. Pero Kant fue diferente: él rechazó el criterio
por el cual su filosofía habría sido condenada como un fracaso. El estándar de verdad, afirmó, no
es la correspondencia entre nuestras ideas y la realidad. Él expulsó la realidad del ámbito de la
razón humana y la sustituyó con el “mundo fenoménico”, un mundo de apariencias que han sido
creadas por nuestras mentes. Él llamó a la realidad el “mundo noumenal” de las “cosas en sí
mismas”, e insistió en que este mundo es incognoscible y es además cognitivamente irrelevante.
“Lo que puedan ser las cosas-en-sí-mismas yo no lo sé, ni tampoco necesito saberlo, puesto que
una cosa no puede presentarse ante mí excepto en apariencia”, escribió en la Crítica de la razón
pura (1787).9 Según Kant, nunca percibimos la realidad, y la razón es impotente para conocer
nada acerca de ella. La razón trata sólo con el mundo subjetivo que ella misma crea.
Los filósofos del pasado, afirmó Kant, lo entendieron todo al revés cuando asumieron que las
ideas debían corresponderse con hechos de un mundo que existía de forma independiente. “Hasta
ahora se ha asumido que todo nuestro conocimiento debe amoldarse a objetos”, escribió. “Ahora
veamos si no tendremos más éxito en los objetivos de la metafísica suponiendo que los objetos
deben amoldarse a nuestro conocimiento.”10 Los objetos que percibimos, dice Kant, siempre se
amoldarán a nuestras ideas básicas, porque son sólo apariencias construidas a partir de esas
mismas ideas, que son inherentes a la estructura de la mente humana.
En una grotesca contorsión del lenguaje, Kant llamó a este cambio fundamental de perspectiva
su “giro copernicano”. Fue un descarado intento de usurpar ese prestigioso nombre y asociarlo
con ideas de naturaleza opuesta. El verdadero giro copernicano fue llevado a cabo por hombres
que, seguros de sí mismos, afirmaron que la razón puede captar la realidad, hombres que se
rebelaron contra la tradición escepticista de simplemente limitarse a describir las “apariencias”.
Gracias a que esos científicos reconocieron que el mundo físico es totalmente real e
independiente de nosotros, pudieron descubrir que el universo no está centrado en nosotros ni
diseñado para nosotros. Kant, por el contrario, afirmó que el mundo que observamos lo creamos
nosotros. Su punto de vista sobre el universo fue incomparablemente peor que la astronomía
geocéntrica: lo que él ofreció fue un delirio antropocéntrico.
Igual que hicieron Platón y Descartes, Kant basó su epistemología en ideas innatas. A diferencia
de Platón y Descartes, negó que tales ideas se correspondan con la realidad; enfatizó que eran
simples montajes subjetivos, inaplicables a las “cosas-en-sí-mismas”. De este modo, su teoría
sintetizó los peores errores de sus predecesores: combinó el método arbitrario de los racionalistas
con el contenido escepticista de los empiricistas.
Kant se dio cuenta de que su filosofía exigía que la ciencia de la física fuese replanteada.
Nosotros captamos las cosas a través de nuestros conceptos humanos subjetivos, decía, y por lo
tanto no captamos las cosas reales, sino sólo los objetos internos que nuestras mentes crean. Esta
premisa exigía que se rechazase el método inductivo de Newton. Como somos nosotros quienes
creamos el mundo fenoménico, somos nosotros los autores de sus leyes básicas, no los
descubridores. Kant escribió que “las leyes universales de la naturaleza… no se derivan de la
experiencia, sino que la experiencia se deriva de ellas”.11 Nosotros supuestamente partimos de
las leyes y creamos la experiencia que las obedece.
El subjetivismo—el punto de vista de que el sujeto, mediante sus propios procesos internos, es
quien crea los objetos de conocimiento—aparece de varias formas diferentes. Según Kant, los
conceptos innatos y las formas de intuición que crean el mundo fenoménico son inherentes a la
mente humana, y por lo tanto todos nosotros creamos el mismo mundo. Pero muchos de los
seguidores de Kant han rechazado este aspecto de su sistema; prefieren un enfoque más flexible,
según el cual un grupo de gente puede adoptar cualquier tipo de ideas y de esa forma crear su
propia realidad, una realidad diferente a las realidades creadas por otros grupos.
Desde la década de 1960, este subjetivismo pluralista ha sido el punto de vista dominante en la
filosofía de la ciencia. Dos de sus más influyentes defensores han sido Thomas Kuhn y Paul
Feyerabend.
En su libro más conocido, La estructura de las revoluciones científicas, Kuhn dividió a los
científicos en dos tipos. Por un lado tenemos a los creadores de nuevos “paradigmas” (o sea, de
teorías científicas vistas como montajes subjetivos), y por otro tenemos a los científicos
“normales”, que adoptan esos paradigmas en base a la autoridad. En otras palabras, Kuhn
describe la ciencia de la forma en que uno podría caracterizar con precisión a una secta religiosa.
La fe, afirma él, juega un papel clave: “El científico debe tener fe en que el nuevo paradigma
tendrá éxito con los muchos y serios problemas a los que se va a enfrentar, sabiendo sólo que el
paradigma anterior ha fracasado con unos cuantos de ellos. Una decisión de ese tipo sólo puede
tomarse por fe.”12
Según Kuhn, un científico no puede tomar una decisión racional entre dos teorías basándose en
evidencias observacionales. La observación misma está, supuestamente, “cargada de teoría”, y
por lo tanto las teorías que acepta un científico crean el mundo que él observa. Como resultado,
Kuhn afirma que “los partidarios de paradigmas rivales están ejerciendo sus oficios en mundos
diferentes”.13 Dos científicos que aceptan teorías diferentes no pueden ni siquiera aspirar a
comunicarse el uno con el otro, a no ser que uno de ellos experimente la inexplicable conversión
que Kuhn llama un “cambio de paradigma”.
Consideremos, por ejemplo, el descubrimiento de la composición atómica de la materia, en el
siglo XIX. Bajo la perspectiva kuhniana, los científicos no recogieron concienzudamente
evidencias observacionales, ni evaluaron objetivamente esas evidencias, ni diseñaron
experimentos clave para responder a preguntas clave, ni llegaron en algún momento a una
demostración definitiva de la teoría. Los científicos no tienen acceso cognitivo a un mundo real
hecho de átomos; sólo existe el mundo que ellos construyen a partir de sus ideas. En el siglo
XVIII, la mayoría de los químicos estudiaban un mundo en el que no había átomos; después del
trabajo de Dalton, “pasaron a vivir en un mundo en el que las reacciones se comportaban de un
modo muy diferente a como lo habían hecho antes”.14
Feyerabend llevó este subjetivismo radical un paso más allá y llegó a una posición que sólo
puede ser descrita como nihilismo epistemológico. Según él, el conocimiento objetivo no sólo es
un mito, sino un enemigo que debe ser combatido y destruido. Escribió: “Una verdad que reina
sin frenos ni contrapesos es un tirano que debe ser derrocado, y cualquier falsedad que pueda
ayudarnos a derrocar a ese tirano es bienvenida.”15 Como los científicos tienen fama de ser
ejemplos de objetividad y los descubridores de la verdad, Feyerabend hizo de ellos el objeto de
su hostilidad. “Los científicos”, escribió, “no tendrán ningún papel dominante en la sociedad que
yo imagino. Quedarán más que contrarrestados por magos, sacerdotes y astrólogos.”16 Podemos
mirar atrás en la historia para encontrar la sociedad ideal de Feyerabend: la Edad Media.
Hace más de dos mil años, en una cultura que exaltaba la razón y que sentó los cimientos para la
ciencia, el nombre de “filosofía” se derivaba a partir de las palabras griegas que significan “amor
a la sabiduría”. Pero el estado actual de la filosofía es bien distinto. Los intelectuales han llegado
finalmente al colofón del camino kantiano, para encontrar allí a Paul Feyerabend esperándolos,
riéndose de ellos, y ensuciando el suelo yermo con libros titulados Contra el método y Adiós a la
razón.
¿Qué le pasa a la física cuando es abandonada por la filosofía racional, como ha ocurrido a lo
largo del pasado siglo? Podemos encontrar la respuesta examinando tres teorías fundamentales
de la física contemporánea: la mecánica cuántica, la cosmología del big bang, y la teoría de
cuerdas.
La mecánica cuántica tiene sus orígenes en una serie de descubrimientos hechos a finales del
siglo XIX y principios del siglo XX, y su formulación matemática fue completada en la década
de 1920. Algunos de los primeros descubrimientos clave tenían que ver con la naturaleza de la
luz. La teoría ondulatoria electromagnética de la luz había explicado un enorme abanico de
datos; y aun así, sorprendentemente, fenómenos como la radiación del cuerpo negro y el efecto
fotoeléctrico parecían exigir que los físicos considerasen a la luz como una partícula.
Posteriormente, la misma “dualidad onda-partícula” fue descubierta en relación con la materia
que posee masa; por ejemplo, se descubrió que los electrones exhiben propiedades de onda
además de sus bien conocidas propiedades de partícula.
Las expresiones matemáticas para la energía y la cantidad de movimiento de esas “ondas de
materia” fueron identificadas en 1924 por Louis de Broglie. Usando esas relaciones, Erwin
Schrödinger consiguió derivar la ecuación fundamental que describe la dinámica del mundo
subatómico. Si uno mira más de cerca esta primera parte de la historia, observa que las
matemáticas de la teoría cuántica fueron desarrolladas de un modo admirablemente lógico;
fueron guiadas por experimentos, por el principio de conservación de la energía, y por la
condición de que la teoría se reduzca a la mecánica de Newton en el límite macroscópico.
Como formalismo matemático, la teoría cuántica ha sido enormemente exitosa. Hace
predicciones cuantitativas de una precisión extraordinaria para un amplio rango de fenómenos, y
proporciona la base para la química moderna, la física del estado sólido, la física nuclear, y la
óptica. También ha hecho posibles algunas de las mayores innovaciones tecnológicas del siglo
XX, entre las que están los ordenadores y los láseres.
Aun así, como teoría fundamental de la física, es algo increíblemente vacío: es “un esquelético
esquema de símbolos”, por usar la elocuente expresión de Sir Arthur Eddington.17 Esa teoría da
una receta matemática para predecir el comportamiento estadístico de las partículas, pero fracasa
al no aportar modelos causales para los procesos subatómicos. Los fundadores de la teoría
cuántica rechazaron el objetivo mismo de desarrollar tales modelos; Niels Bohr, el principal
interpretador de la teoría, indicó que no había nada que modelizar. “No hay un mundo cuántico”,
dijo, “sino sólo una descripción cuántica abstracta”.18
Entonces, ¿qué es lo que la teoría describe? La mayoría de los físicos consideran que esa
pregunta es inútil; en general, la realidad que hay detrás del formalismo matemático es, para la
mayoría, ininteligible. La versión estándar de la teoría cuántica (la “interpretación de
Copenhague”) rechaza la ley de identidad de Aristóteles; las entidades básicas que componen la
materia, dice esa interpretación, existen en un estado irreal, sin propiedades específicas. “La
física atómica despoja de todo significado a los atributos bien definidos que la física clásica le
atribuiría al objeto”, escribió Bohr.19 Las partículas elementales no tienen identidad—no son
algo, y tampoco son nada—hasta que las midamos o las observemos, momento en el cual la
propiedad observada de repente aparece en la existencia como algo definido. En palabras del
físico John Archibald Wheeler, “Ningún fenómeno elemental es un fenómeno real hasta que es
un fenómeno observado”.20
Así, la teoría afirma que una medida no nos dice nada sobre el estado pre-existente de una
partícula; más bien, lo que hace es crear ese estado. Antes de la medida, una partícula existe
simultáneamente en varios estados incompatibles, cada uno de ellos con una probabilidad
asignada. Los físicos ponen énfasis en que no es sólo nuestra ignorancia del estado actual de la
entidad lo que requiere el uso de probabilidades. Las probabilidades son consideradas como la
descripción completa del sistema físico. Es la realidad la que se considera incompleta o, en
palabras del físico matemático Hermann Weyl, “aquejada con un cierto tipo de imprecisión”.21
Supuestamente, la causalidad no puede aplicarse a este mundo cuántico irreal e “impreciso”.
“Mediante la mecánica cuántica”, escribió Werner Heisenberg, “la invalidez de la ley de
causación queda definitivamente establecida.”22 La ley de causalidad expresa una relación entre
una entidad y sus acciones; dice que la naturaleza de una entidad determina cómo actuará en
cualquier circunstancia. Si uno niega que los constituyentes fundamentales de la materia tienen
naturalezas específicas, la conclusión es que no hay nada que determine sus acciones. Según
Bohr y Heisenberg, las partículas individuales actúan al azar, sin causa alguna.
La teoría no hace ningún esfuerzo por explicar cómo una medida transforma un “nada en
particular” en un algo que sí tiene propiedades definidas. Algunos físicos han optado por una
interpretación tipo “mente sobre materia” de la teoría cuántica. Según esta perspectiva, el mundo
físico no tiene una existencia independiente de nuestra consciencia; como dijo Kant, es una
creación de la consciencia. “Sólo cuando el resultado de una medida entre en la consciencia de
alguien se convertirá en una realidad concreta la enorme pirámide de estados cuánticos que ahora
están en el ‘limbo’”, escribe el físico Paul Davies.23 Otros han afirmado que la teoría cuántica lo
que de hecho describe es una colectividad de universos, cada uno de los cuales está en un estado
definido. La observación determina entonces en cuál de los muchos universos nos encontramos.
Al enfrentarse con todas esas interpretaciones alternativas, la mayoría de los físicos actuales
prefieren adoptar un enfoque “práctico”: se limitan a hacer los cálculos y tratan de no pensar en
el significado de la teoría.
Los defensores de la interpretación de Copenhague no vieron problema alguno en la dualidad
onda-partícula. Bohr espetó que “debemos aceptar el hecho de que un esclarecimiento completo
de un mismo objeto puede exigir diversos puntos de vista que se resistan a una única
descripción”, es decir: debemos aceptar el uso de modelos contradictorios.24 La teoría cuántica,
dijo Bohr, asegura que nunca podremos observar al mismo tiempo las propiedades
contradictorias atribuidas a los objetos microscópicos, porque una observación “colapsa” (o
reduce) a la entidad a un estado único definido. Concluyó que es perfectamente aceptable que la
teoría contenga esas contradicciones, siempre y cuando el “milagro de la medida” nos ahorre el
tener que percibirlas. Y si esto hace que alguien se sienta incómodo, el problema puede evitarse
con no emplear la arisca palabra “contradicción”. En lugar de eso, Bohr llama
“complementarios” a los modelos de onda y partícula, una palabra que suena reconfortante y
tranquilizadora.
El fracaso a la hora de integrar apropiadamente los modelos de onda y partícula (o sea, la
aceptación de “ondículas”) ha dado lugar a las paradojas de la teoría cuántica. Trágicamente, la
mayoría de los físicos ha reaccionado a ellas encogiéndose de hombros. James Gleick, en su
biografía de Richard Feynman, describió esa extendida resignación: “Los físicos reconocieron
que la relación entre su profesión y la realidad había cambiado. Atrás quedaba el lujo de suponer
que existía una sola realidad, que la mente humana tuviese un claro acceso a ella, y que los
científicos pudiesen explicarla.”25
Pero esas premisas no son lujos: son necesidades, y han sido cedidas sin la lucha que se
merecían. La rendición no fue causada por hechos experimentales; el conocimiento adquirido por
el descubrimiento experimental de hechos nunca podrá llevar a rechazar el conocimiento y los
hechos. La rendición fue causada por la influencia de la filosofía post-kantiana, un enemigo que
operaba desde la retaguardia y que proporcionó el marco corrupto que se utilizó para
malinterpretar los hechos. Al rechazar la causalidad y aceptar la ininteligibilidad del mundo
atómico, los físicos se han reducido a sí mismos a simples máquinas de calcular (en el mejor de
los casos), y por ello son incapaces de plantearse más preguntas y de integrar su conocimiento.
La mecánica cuántica de Copenhague no es una teoría; es un formalismo matemático acoplado
con escepticismo. Equivale a la afirmación de que ninguna teoría física del mundo cuántico es
posible. Es importante señalar que esta afirmación ha sido refutada por David Bohm, un físico
que desarrolló una teoría cuántica en la que las ondas son ondas, las partículas son partículas, y
las contradicciones son rechazadas por ser contradicciones (en lugar de ser aceptadas como
puntos de vista diversos y “complementarios”). La teoría de Bohm puede o no ser correcta, pero
ella sí que constituye una teoría, y como tal merece más atención.
Pasemos ahora del mundo subatómico al universo como un todo. Si uno piensa en las cuestiones
que quedaron sin responder en el siglo pasado, incluyendo preguntas fundamentales sobre la
mecánica cuántica y su problemática relación con la teoría de la relatividad, a uno puede
sorprenderle que los físicos se atrevan a proponer una teoría del universo. Pero, con la teoría del
big bang, lo han hecho, y además con la falsa fanfarronería de un megalomaníaco.
Quizá no debería sorprendernos. El big bang es el último de una larga historia de mitos sobre la
creación, y estándares racionales de evidencia nunca se han aplicado a esos mitos. Como la razón
no puede aceptar la idea de la creación—en este caso, la afirmación de que hace catorce mil
millones de años todo el universo surgió inexplicablemente a partir de un punto de infinita
densidad de masa—tampoco es realista esperar que se le apliquen altos estándares
epistemológicos al resto de la teoría.
El modelo del big bang del universo fue propuesto en 1931 por George Lemaître, un astrofísico
que era también un sacerdote católico. Al principio, sus primeros defensores fueron muy claros
en proponer una teoría de la creación basada en argumentos filosóficos. Pero luego lo intentaron
con argumentos científicos. Lemaître argumentó que el big bang era la única fuente posible de
rayos cósmicos; Eddington argumentó que la ley de entropía implica un universo que se ha
estado degenerando desde un estado inicial de simplicidad en el momento de la creación; George
Gamow argumentó que las altas energías necesarias para la nucleosíntesis de elementos pesados
sólo pudo existir en los instantes inmediatamente posteriores al big bang. Todos esos argumentos
han sido refutados tajantemente.
La teoría misma del big bang, sin embargo, de alguna forma consiguió sobrevivir. Ahora se la
justifica en base a tres tipos de evidencia observacional. Primero, el desplazamiento al rojo de la
luz de las estrellas y galaxias lejanas que se ha observado está causado, supuestamente, por la
“expansión del espacio” que empezó con el big bang. Segundo, se alega que la abundancia
relativa de elementos ligeros (deuterio, helio y litio) queda explicada por la teoría. Tercero, la
radiación de fondo de microondas que fue detectada por primera vez en la década de 1960 es,
supuestamente, una reliquia del big bang.
Para poder dar cuenta de estos fenómenos, sin embargo, los defensores del big bang se han visto
obligados a modificar la teoría con una creciente lista de hipótesis infundadas. En contra de lo
que se esperaba, el desplazamiento al rojo parece implicar un ritmo de expansión acelerado, lo
cual es causado supuestamente por una fuerza repulsiva asociada con la “energía oscura” (una
misteriosa forma de energía que no tiene nada que ver con la materia y que supuestamente
constituye más del 70% de la energía total del universo). La densidad de masa del universo que
ha sido observada es demasiado pequeña para justificar las abundancias relativas de elementos
ligeros, así que la masa que falta se asume que existe en forma de “materia oscura” (una forma
desconocida de materia que constituye más del 80% de la masa total del universo). La
distribución de la radiación de fondo de microondas es demasiado uniforme, pero eso queda
explicado por una sobreexpansión llamada “inflación” que supuestamente ocurrió durante el
primer instante del big bang. La distribución de galaxias es demasiado poco uniforme, pero eso
queda explicado por las fluctuaciones cuánticas en ese primer instante. En resumen, los teóricos
del big bang se apoyan sobre energía, materia y eventos únicos que son inaccesibles a los
astrónomos observacionales. Usando su propia terminología, el big bang es una “teoría oscura”.
Históricamente, las teorías a las que se ha llegado aplicando debidamente el método inductivo—
por ejemplo, la mecánica newtoniana, la teoría atómica, el electromagnetismo—han llevado
rápidamente a predicciones cuantitativas precisas para un extraordinario número de fenómenos
nuevos. Pero la historia de la teoría del big bang es otra: es una historia de astrónomos
observacionales aportando sorpresas indeseadas, mientras los cosmólogos corren de un lado para
otro tratando de adaptar la teoría. Como señala un astrofísico, Eric Lerner:
La teoría del big bang no puede alardear de predicciones cuantitativas que más tarde
hayan sido validadas por la observación. Los éxitos que proclaman los defensores de la
teoría consisten en la capacidad que tienen ellos de adaptar a las observaciones un
conjunto creciente de parámetros ajustables, exactamente de la misma forma que la
antigua cosmología geocentrista de Ptolomeo requería una capa tras otra de epiciclos.26
Aun así, la gran mayoría de los físicos consideran la teoría como demostrada, de la misma
manera que los astrónomos de hace cinco siglos consideraban la teoría de Ptolomeo como
demostrada. La pregunta central que estos físicos se hacen no es ¿cuál es la naturaleza del
universo?, sino más bien ¿cómo debe ser el universo para poder ajustarse a la teoría del big
bang? La pequeña minoría de investigadores que expresan dudas—los que se preocupan por
anómalos desplazamientos al rojo, o consideran explicaciones alternativas a la radiación de
fondo de microondas, o cuestionan que la materia oscura exista en las cantidades que la teoría
requiere—son repudiados como herejes. Como le conviene a todo mito de la creación, la teoría
del big bang es tratada como una doctrina religiosa y los cosmólogos hacen el papel de teólogos
que protegen la fe.
Los intentos prematuros por desarrollar una teoría completa del universo a menudo han
paralizado el progreso en las ciencias físicas. En la Antigua Grecia, Eudoxo propuso una teoría
del universo en términos de esferas celestes interconectadas que rotaban, y su teoría tuvo el
efecto de reforzar ideas falsas sobre la naturaleza del movimiento, de las fuerzas y de la materia.
Hoy día, los físicos saben mucho más que Eudoxo, pero sigue siendo demasiado pronto para que
pueda haber una teoría del universo. Los datos consisten, principalmente, en luz que viene de
fuentes muy distantes, pero los físicos aún no han logrado entender adecuadamente las ondas-
partículas de luz ni los campos que éstas atraviesan en su viaje. La teoría cosmológica está
basada en la relatividad general y en la teoría cuántica de campos, las cuales, en este momento,
son formalismos matemáticos que se contradicen el uno al otro. Antes de que una teoría del
universo sea posible, los físicos necesitan respuestas a las preguntas que se han ido acumulando a
lo largo del siglo pasado.
Algunas de las respuestas las ofrece, supuestamente, la teoría de cuerdas, que ha dominado la
física teórica en la última generación.
A principios del siglo XX, los físicos esperaban que fuera posible explicar toda la materia en
términos de unas pocas partículas elementales. A medida que fueron explorando el mundo
subatómico, sin embargo, fueron quedando cada vez más desmotivados a la vista de su
complejidad. La teoría estándar aceptada hoy contiene una docena de partículas elementales, más
sus antipartículas, más las partículas de “intercambio” que son las mediadoras en las cuatro
fuerzas básicas. Además, a los físicos les ha frustrado el hecho de que la gravitación se ha
resistido a todos los intentos de describirla en términos de una teoría cuántica de campos (la cual
se usa para describir las otras tres fuerzas).
La teoría de cuerdas alega reducir esa complejidad y explicarla por medio de un único tipo de
entidad que se mueve de acuerdo con una sola ley. Todo está hecho de cuerdas que tienen
propiedades simples: quedan descritas por una constante de tensión (la energía por unidad de
longitud) y una constante de acoplamiento (la probabilidad de que una cuerda se rompa en dos
cuerdas). Todas las cuerdas se mueven de tal forma que el área que barren en el espacio-tiempo
es la mínima posible. Todas las partículas y fuerzas tienen que ver con la vibración o la ruptura o
la unión de las cuerdas. La gravitación queda incluida en este esquema como la vibración de
bucles cerrados.
Si piensas que esta teoría suena demasiado bonita para ser verdad, estás en lo cierto. La teoría de
cuerdas es un truco de magia. No hace para nada desaparecer a los problemas; simplemente los
esconde en otro lugar. Es un escondrijo en el que muy poca gente miraría: la geometría de un
espacio-tiempo de once dimensiones. Según los teóricos de cuerdas, la complejidad del mundo
no proviene de la naturaleza de la materia, sino de la complejidad del espacio considerado como
una cosa en sí misma. El mundo tridimensional que percibimos queda complementado por siete
dimensiones espaciales adicionales que están retorcidas en estructuras que son demasiado
pequeñas para ser percibidas. Por lo tanto, la unificación que supuestamente consigue la teoría es
una ilusión. Un físico, Lee Smolin, lo expresa de esta manera:
Las constantes que denotan las masas de las partículas y las intensidades de las fuerzas
están siendo trocadas por constantes que denotan la geometría de las seis (ahora siete)
dimensiones adicionales. . . Nada ha sido limitado o reducido. Y como hay un enorme
número de opciones para la geometría de las dimensiones adicionales, el número de
constantes libres creció en vez de disminuir.27
Los teóricos de cuerdas están perdidos en el mundo de las ideas geométricas que han inventado,
y no pueden encontrar el camino de vuelta al mundo real. La naturaleza arbitraria de su creación
les ha llevado al problema de “no-unicidad”: no hay una teoría de cuerdas, sino una miríada de
ellas, y no hay forma de elegir entre ellas. Ninguna de esas teorías hace predicciones que hayan
sido confirmadas por la observación. Y, a pesar de la extraordinaria libertad con la que esas
teorías son creadas, todas ellas contradicen a los datos observacionales; por ejemplo, predicen
pares inexistentes de partículas de igual masa, y fuerzas de largo alcance que tampoco existen. Al
final, la teoría de cuerdas provoca una reacción agridulce: uno no sabe si reírse por lo absurdo o
llorar por lo trágico de esa teoría.
Según los estándares racionales que muchos científicos aceptaron en el pasado, la teoría de
cuerdas es un monumental fracaso. Es la teoría puntera en física hoy en día sólo porque esos
estándares han sido rechazados. Smolin ha descrito la nueva actitud de los teóricos de cuerdas:
“Ya no hay que confiar en experimentos para verificar nuestras teorías. Eso era cosa de Galileo.
Ahora basta con las matemáticas para explorar las leyes de la naturaleza. Hemos entrado en el
periodo de la física postmoderna.”28
Los físicos “postmodernos” adoptan los criterios estéticos del racionalismo y juzgan sus teorías
sólo por la elegancia, la simetría, y la belleza de las matemáticas. Steven Weinberg, premio
Nobel y teórico destacado, expresó así la idea que ahora domina la física: “La realidad que
observamos en nuestros laboratorios es sólo un reflejo imperfecto de una realidad más profunda
y hermosa, la realidad de las ecuaciones que exhiben todas las simetrías de la teoría.”29 Desde
luego, esta idea no es original; es, en esencia, lo que dijo Platón en el siglo IV a.C.
Platón fue el primero en sustituir el mundo físico por formas geométricas impuestas sobre el
espacio como tal. Como mencioné en el capítulo 3, los matemáticos griegos sabían que hay cinco
figuras geométricas sólidas que pueden construirse a partir de superficies planas idénticas, y esas
figuras eran admiradas por su perfecta simetría. También se creía comúnmente que hay cinco
elementos materiales: tierra, aire, agua, fuego, y el éter del cual están formados los cuerpos
celestes. La coincidencia de los números le llevó a Platón a asociar cada elemento material con
uno de los sólidos regulares. Cuando terminó, no quedaba nada en el universo físico, excepto el
espacio y las relaciones espaciales que constituyen figuras geométricas. ¿Relaciones espaciales
entre qué? ¿Formas de qué? Platón no tenía respuesta, igual que sus seguidores contemporáneos
tampoco la tienen.
En la base de la filosofía de Platón hay un antagonismo fundamental contra la percepción
sensorial y contra el mundo físico. Ese antagonismo queda expresado en su diálogo Fedón, en el
que identifica las premisas que le llevaron a la cosificación del espacio y a reducir la física a la
geometría:
Cuando el alma intenta investigar cualquier cosa con ayuda del cuerpo, es obvio que se
descarría… La persona que con mayor probabilidad tendrá éxito en su intento con la
mayor perfección es aquella que aborda cada objeto, en la medida de lo posible, con el
uso exclusivo de su intelecto, sin tener en cuenta ningún sentido de la vista en su
pensamiento, ni arrastrando a ningún otro sentido hacia la estimación que hace; es el
hombre que persigue la verdad aplicando su pensamiento, puro y sin adulterar, al objeto,
puro y sin adulterar, desconectándose a sí mismo tanto como sea posible de sus ojos y
oídos, y virtualmente del resto de su cuerpo, por ser éste un impedimento que, por su
presencia, le impide al alma alcanzar la verdad y el pensamiento claro… Si queremos
algún día poseer conocimiento puro sobre algo, debemos librarnos del cuerpo y
contemplar las cosas en sí mismas con el alma exclusivamente.30 (La cursiva es mía.)
Como mafiosos en la noche, los teóricos de cuerdas también están intentando “librarse del
cuerpo”. Al aceptar el platonismo, sin embargo, lo que están haciendo es librarse de la ciencia de
la física. Le han dado marcha atrás al reloj: no sólo hacia la era de la pre-física, sino hacia la era
de la pre-lógica.
El “final de la física” se ha convertido en un tema de actualidad en la literatura reciente. Los
platónicos afirman que la física teórica terminará en la omnisciencia, a la cual se llegará tan
pronto como reciban su revelación final sobre la estructura del espacio-tiempo de once
dimensiones. Los escépticos coinciden en que la física está llegando al final, pero por otro
motivo: afirman que el hombre ha agotado su capacidad de decir algo inteligible sobre el mundo.
En cierto sentido, los escépticos están en lo cierto; “agotada” es una forma muy precisa de
caracterizar el estado actual de la física. Incluso Weinberg, pese a su platonismo, hace la
siguiente concesión: “Nunca ha habido una época en la que haya existido tan poco entusiasmo,
en el sentido de experimentos que sugieran ideas realmente nuevas, o teorías que nos permitan
hacer predicciones de tipos nuevos y cualitativamente diferentes, predicciones que después
queden confirmadas por experimentos.”31 En efecto, la física teórica ha llegado a su fin: no
porque se haya descubierto todo, o porque no tengamos capacidad para descubrir nada más, sino
porque los físicos todavía no han identificado el método de descubrimiento.
La física, sin embargo, sólo tiene cuatrocientos años de juventud, y hay muchas cuestiones
básicas que todavía no han sido respondidas. Hay razón para un nuevo entusiasmo. El
extraordinario ritmo del progreso que caracterizó la era de la física clásica puede conseguirse de
nuevo, e incluso sobrepasarlo: siempre que los físicos consigan captar explícitamente el método
que hizo posible ese progreso.
La física ha muerto. ¡Viva la física!
Referencias

Prefacio
1. E. Bright Wilson, An Introduction to Scientific Research (New York: Dover, 1990), pág. 298.
Capítulo 1
1. Paul K. Feyerabend, Against Method, edición revisada (New York: Verso, 1988), pág. 73.
2. E. Bright Wilson, An Introduction to Scientific Research (New York: Dover, 1990), pág. 293.
3. Ayn Rand, Introduction to Objectivist Epistemology (New York: Penguin, 1990), pág. 293, pág.
13.
4. Ibíd., pág. 18.
5. Leonard Peikoff, Objectivism: The Philosophy of Ayn Rand (New York: Penguin, 1990), pág. 90.
6. A medida que nuestro conocimiento se expande, las definiciones también cumplen una función
importante con los conceptos de primer nivel; por ejemplo, la definición de hombre como “animal
racional” representa una enorme condensación de conocimiento.
7. Rand, Introduction to Objectivist Epistemology, pág. 48.
8. Ibíd., págs. 66-67.
9. Peikoff, Objectivism, pág. 133.
10. Ibíd.
11. Ibíd., págs. 172-73.
12. Duane Roller, The Development of the Concept of Electric Charge (Cambridge, Mass.: Harvard
University Press, 1967), pág. 63.

Capítulo 2

1. A. Mark Smith, “Ptolemy’s Search for a Law of Refraction”, Archive for History of Exact Sciences
26 (1982), págs. 221-40.
2. La derivación original de Galileo del teorema de la cuerda es inválida. Más tarde, después del
descubrimiento experimental de la aceleración constante en la caída por planos inclinados, dio una
prueba correcta del teorema. Stillman Drake aborda este punto en Galileo: Pioneer Scientist
(Toronto: University of Toronto Press, 1990), pág. 91.
3. Michael R. Matthews, Time for Science Education (New York: Kluwer Academic/Plenum
Publishers, 2000), pág. 104.
4. Citado en ibíd., págs. 84-85.
5. Ibíd., pág. 82.
6. Stillman Drake, Galileo: Pioneer Scientist (Toronto: University of Toronto Press, 1990), pág. 96.
7. Stillman Drake, Galileo at Work (Chicago: University of Chicago Press, 1978), pág. 128.
8. Matthews, Time for Science Education, pág. 98.
9. Galileo: Dialogue Concerning the Two Chief World Systems, traducido al inglés por Stillman
Drake, 2ª edición (Berkeley: University of California Press, 1967a), págs. 17-21.
10. Drake, Galileo at Work, págs. 387-88.
11. The Philosophic Writings of Descartes, vol. 1, traducido al inglés por John Cottingham, Robert
Stoothoff y Donald Murdoch (New York: Cambridge University Press, 1985), pág. 249.
12. I. Bernard Cohen y Richard S. Westfall, eds., Newton (New York: Norton, 1995), pág. 148.
13. J. E. McGuire y Martin Tamny, Certain Philosophic Questions: Newton’s Trinity Notebook
(Cambridge, England: Cambridge University Press, 1983), pág. 263.
14. Ibíd., pág. 389.
15. Richard S. Westfall, Never at Rest (Cambridge, England: Cambridge University Press, 1980), pág.
164.
16. Newton’s Philosophy of Nature: Selections from His Writings, editado por H. S. Thayer (New
York: Hafner, 1953), pág. 6.
17. Ibíd.
18. Ibíd., págs. 7-8.
19. Newton restringió su método inductivo y su rechazo de las afirmaciones arbitrarias al ámbito
científico. Era un devoto religioso, y por ello no opinaba que el conocimiento debería estar basado
en la observación. En contraste con Descartes, sin embargo, quien invocaba a Dios explícitamente
en su intento por validar las leyes del movimiento, Newton permitió en muy pocas ocasiones a sus
ideas religiosas interferir con su ciencia (la excepción más importante es su punto de vista sobre la
naturaleza del espacio y del tiempo).
20. Cohen y Westfall, eds., Newton, págs. 148-49.
21. Morris Cohen y Ernest Nagel, An Introduction to Logic and Scientific Method (New York:
Harcourt, Brace & World, 1934), pág. 205.
22. Ibíd., pág. 266.
23. Ibíd., pág. 257.
Capítulo 3
1. Pierre Duhem, To Save the Phenomena, traducido al inglés por Edmund Doland y Chaninah
Maschler (Chicago: University of Chicago Press, 1969), pág. 31.
2. Nicolás Copérnico, On the Revolutions of Heavenly Spheres, traducido al inglés por Charles Glenn
Wallis (New York: Prometheus, 1995), pág. 26.
3. Ibíd., pág. 27.
4. I. Bernard Cohen, The Birth of a New Physics (New York:: Norton, 1985), pág. 23.
5. Copérnico, On the Revolutions of Heavenly Spheres, págs. 12-13.
6. Ibíd., pág. 17.
7. Max Caspar, Kepler, traducido al inglés y editado por C. Doris Hellman (New York: Dover, 1993),
pág. 102.
8. Gerald Holton, Thematic Origins of Scientific Thought: Kepler to Einstein (Cambridge, Mass.:
Harvard University Press, 1973), pág. 72.
9. Caspar, Kepler, pág. 62.
10. Holton, Thematic Origins of Scientific Thought, pág. 78.
11. Caspar, Kepler, pág. 134.
12. Arthur Koestler, The Sleepwalkers (Londres: Penguin, 1989), págs. 327-28.
13. Holton, Thematic Origins of Scientific Thought, pág. 74.
14. Koestler, The Sleepwalkers, pág. 334.
15. Selections from Kepler’s Astronomia Nova, traducido al inglés por William H. Donahue (Santa Fe,
N.M.: Green Lion, 2004), pág. 94.
16. Koestler, The Sleepwalkers, pág. 337.
17. Caspar, Kepler, pág. 19.
18. Holton, Thematic Origins of Scientific Thought, pág. 68.
19. Caspar, Kepler, pág. 67.
20. Koestler, The Sleepwalkers, pág. 398.
21. Holton, Thematic Origins of Scientific Thought, pág. 85.
22. Caspar, Kepler, págs. 290-81.
23. Ibíd., pág. 135.
24. Para más información sobre la astronomía de Galileo y su lucha contra la Iglesia, ver mi artículo
de tres partes “Galileo: Inaugurating the Age of Reason”, The Intellectual Activist 14, Nos. 3-5
(marzo-mayo 2000).
Capítulo 4
1. Isaac Newton, Principia, vol. 2, The System of the World (Berkeley: University of California Press,
1934), pág. 398.
2. James Glecik, Isaac Newton (New York: Pantheon, 2003), pág. 58.
3. Galileo Galilei, Two New Sciences, traducido al inglés por Henry Crew y Alfonso de Salvio (New
York: Denver, 1954), págs. 182-83.
4. Gleick, Isaac Newton, pág. 59.
5. Ernst Mach, The Science of Mechanics (Chicago: Open Court, 1960).
6. Isaac Newton, Principia, vol. 1, The Motion of Bodies, prefacio a la primera edición (Berkeley:
Univeristy of California press, 1934), pág. xvii.
7. Newton, Principia, vol. 2, The System of the World, pág. 519.
8. A. Rupert Hall, From Galileo to Newton (New York: Dover, 1981), págs. 310-14.
9. Newton, Principia, vol. 2, The System of the World, pág. 547.
10. Hall, From Galileo to Newton, págs. 315-16.
11. David Harriman, “Cracks in the Foundation”, The Intellectual Activist 16, nº 12 (diciembre 2002),
págs. 19-27.
12. Ver la quinta carta de Leibniz en The Leibniz-Clarke Correspondence, editada por H. G.
Alexander (Manchester, England: Manchester University Press, 1965).
13. Nicolás Copérnico, On the Revolutions of Heavenly Spheres, traducido al inglés por Charles Glenn
Wallis (New York: Prometheus, 1995), pág. 5.
Capítulo 5
1. Thomas L. Hankins, Science and the Enlightenment (New York: Cambridge University Press,
1985), pág. 112.
2. Ibíd., pág. 109.
3. The World of the Atom, vol. 1, editado por Henry Boorse y Lloyd Motz (New York: Basic Books,
1966), pág. 169.
4. J. R. Partington, A Short History of Chemistry (New York: Dover, 1989), pág. 204.
5. The World of the Atom, vol. 1, pág. 321.
6. Ibíd., pág. 327.
7. The Beginnings of Modern Science, editado por Holmes Boynton (Roslyn, N.Y.: Walter J. Black,
1948), pág. 198.
8. Humphry Davy, “An Essay on Heat, Light, and the combination of Light”, en Contributions to
Physical and Medical Knowledge, editado por T. Beddoes (Bristol, England, 1799), reeditado en
Davy’s Collected Works (Londres, 1839), vol. 2, pág. 9.
9. Investigadores posteriores, como Clausius y Maxweel, se dieron cuenta de que el modelo de
Waterston era demasiado simple. El calor absorbido por un gas poliatómico no sólo aumenta la
velocidad de las moléculas; también puede aumentar el ritmo al que rotan y vibran. Por suerte, la
ley fundamental de los gases sólo depende de la proporcionalidad entre temperatura y energía
cinética de traslación media, y por ello el modelo de Waterston era adecuado para su propósito.
Para entender las capacidades caloríficas de los gases es preciso tener en cuenta las otras formas de
movimiento.
10. Stephen G. Brush, The Kind of Motion We Call Heat (Amsterdam: Elsevier Science B.V., 1986),
pág. 146.
11. The Scientific Papers of James Clerk Maxwell, editado por W. A. Niven (New York: Dover,
1965), vol. 2, págs. 344-45.
12. Brush, The Kind of Motion We Call Heat, pág. 190.
13. Este resultado es correcto en una aproximación de primer orden, válida para cuerpos que se
mueven despacio en el seno de gases entre ciertos márgenes de presión. No se aplica cuando la
presión es muy baja o muy elevada; y, como bien pueden atestiguar los lanzadores de béisbol, no
se aplica a lanzamientos en curva en el estadio Coors en Denver.
14. Brush, The Kind of Motion We Call Heat, pág. 191.
15. Ibíd., pág. 76.
16. The World of the Atom, vol. 1, pág. 278.
17. Frankland creó el concepto, pero empleó el término “atomicidad” en vez de “valencia”. La palabra
“valencia” empezó a usarse a finales de la década de 1860.
18. W. G. Palmer, A History of the Concept of Valency to 1930 (Londres: Cambridge University Press,
1965), pág. 34.
19. Ibíd., pág. 14.
20. Ibíd., pág. 27.
21. Ibíd., pág. 76.
22. Cecil J. Schneer, Mind and Matter (New York: Grove, 1969), pág. 178.
23. Alexander Butlerov, “On the Chemical Structure of Substances”, reeditado en Journal of Chemical
Education 48 (1971), págs. 289-91.
24. Palmer, A History of the Concept of Valency to 1930, pág. 62.
25. John Hudson, The History of Chemistry (New York: Chapman & Hall, 1992), pág. 148.
26. John Buckingham, Chasing the Molecule (Stroud, England: Sutton, 2004), pág. 206.
Capítulo 6
1. Karl R. Popper, Objective Knowledge, edición revisada (Oxford: Clarendon Press, 1979), págs. 9,
16, 198-201.
2. W. G. Palmer, A History of the Concept of Valency to 1930 (Londres: Cambridge University Press,
1965), pág. 66.
3. The Beginnings of Modern Science, editado por Holmes Boynton (New York: Walter J. Black,
1948), págs. 393-94.
4. Ibíd., págs. 443-61.
5. J. R. Partington, A Short History of Chemistry (New York: Dover, 1989), pág. 48.
6. Walter Pagel, The Religious and Philosophical Aspects of van Helmont’s Science and Medicine
(Baltimore: Johns Hopkins Press, 1944), págs. 16-22.
7. Edmund Whittaker, A History of the Theories of Aether and Electricity (New York: Thomas
Nelson, 1951), pág. 75.
8. A. E. E. McKenzie, The Major Achievements of Science (Cambridge, England: Cambridge
University Press, 1960), pág. 111.
9. Ruth Moore, The Earth We Live On (New York: Knopf, 1956), pág. 268.
10. Joe D. Burchfield, Lord Kelvin and the Age of the Earth (New York: Science History
Publications, 1975), pág. 81.
11. Ibíd., pág. 42.
12. Ibíd., págs. 143-44.
13. Ibíd., pág. 168.
14. Moore, The Earth We Live On, pág. 385.
15. Burchfield, Lord Kelvin and the Age of the Earth, pág. 176.
16. Steven Weinberg, Dreams of a Final Theory, (New York: Vintage, 1992), pág. 13.
17. Gary Taubes, Bad Science: The Short Life and Weird Times of Cold Fusion (New York: Random
House, 1993), pág. 127.
18. Ayn Rand, For the New Intellectual (New York: New American Library, 1961), pág. 30.
19. René Descartes, Principles of Philosophy (Dordrecht, Holanda: Kluwer Academic Publishers,
1991), pág. 20.
20. The Philosophical Writings of Descartes, traducido al inglés por John Cottingham, Robert
Stoothoff y Dugald Murdoch (Cambridge, England: Cambridge University Press, 1985), pág. 288.
21. Descartes, Principles of Philosophy, pág. 69.
22. The Philosophical Writings of Descartes, pág. 245.
23. Ibíd., pág. 266.
24. Descartes, Principles of Philosophy, pág. 283.
25. A. Rupert Hall, From Galileo to Newton (New York: Dover, 1981), pág. 120.
26. Para un análisis sobre la filosofía de Kant y su visión de la ciencia, ver mi artículo “Enlightenment
Science and Its Fall”, Objective Standard 1, nº. 1 (2006), págs. 83-117.
27. Immanuel Kant, Kant’s Philosophy of Material Nature, traducido al inglés por James W. Ellington
(Indianapolis: Hackett, 1985), pág. 93.
28. W. H. Brock, The Atomic Debates (Leicester, England: Leicester University Press, 1967), pág. 10.
29. Stephen G. Brush, The Kind of Motion We Call Heat, libro 1 (Amsterdam: Elsevier Science B.V.,
1976), pág. 140.
30. Brock, The Atomic Debates, pág. 77.
31. Ibíd., pág. 51.
32. Ibíd., págs. 14, 48.
33. Alan J. Rocke, Chemical Atomism in the Nineteenth Century (Columbus: Ohio State University
Press, 1984), pág. 314.
34. Ibíd.
35. Ibíd., pág. 315.
36. Ibíd.
37. The Question of the Atom, editado por Mary Jo Nye (Los Angeles: Tomash, 1984), pág. 143.
38. Rocke, Chemical Atomism in the Nineteenth Century, pág. 316.
39. Ibíd., pág. 315.
40. Ibíd., pág. 323.
41. The Question of the Atom, pág. 246.
42. Rocke, Chemical Atomism in the Nineteenth Century, pág. 324.
43. Ernst Mach, History and Root of the Principle of Conservation of Energy (Chicago: University of
Chicago Press, 1910), pág. 49.
44. Ibíd., pág. 48.
45. Paul Forman, “Weimar Culture, Causality, and Quantum Theory, 1918-1927: Adaptation by
German Physicists and Mathematicians to a Hostile Intellectual Environment”, Historical Studies
in the Physical Sciences 3 (1971), págs. 1-115.
Capítulo 7
1. James Jeans, Physics and Philosophy (Cambridge, England: Cambridge University Press, 1943),
págs. 15-16.
2. Citado en Morris Kline, Mathematics: TheLoss of Certainty (New York: Oxford University Press,
1980), pág. 340.
3. Pat Corvini explica el desarrollo paso a paso del sistema numérico en su curso de conferencias
“Two, Three, Four and All That”, que está disponible en la tienda virtual Ayn Rand Bookstore.
4. Leonard Peikoff, Objectivism: The Philosophy of Ayn Rand (New York: Penguin, 1990), págs.
111-21.
5. Kline, Mathematics, pág. 339.
6. Ver, por ejemplo, el curso de conferencias de la doctora Corvini titulado “Achilles, the Tortoise,
and the Objectivity of Mathematics” (que está disponible en la Ayn Rand Bookstore).
Actualmente, la doctora Corvini está trabajando en un libro titulado “Conceiving Infinity”.
7. Ayn Rand, Introduction to Objectivist Epistemology, segunda edición, editado por Harry
Binswanger y Leonard Peikoff (New York: Penguin, 1990).
8. Ver, por ejemplo, Duane Roller, The Development of the Concept of Electric Charge (Cambridge,
Mass.: Harvard University Press, 1954) y Sir Edmund Whittaker, A History of the Theories of
Aether and Electricity, vol. 1 (New York: Thomas Nelson, 1951).
9. Immanuel Kant, Critique of Pure Reason, traducido al inglés por Norman Kemp Smith (New
York: St. Martin’s, 1965), pág. 286.
10. Ibíd., pág. 22.
11. Immanuel Kant, Kant’s Philosophy of Material Nature, traducido al inglés por James W. Ellington
(Indianapolis: Hackett, 1985), págs. 55-56.
12. Thomas Kuhn, The Structure of Scientific Revolutions, segunda edición (Chicago: University of
Chicago Press, 1970), pág. 158.
13. Ibíd., pág. 150.
14. Ibíd., pág. 134.
15. Paul K. Feyerabend, “Philosophy of Science 2001”, en Methodology, Metaphysics and the History
of Science, editado por Robert S. Cohen y Marx W. Wartofsky (Boston: D. Reidel, 1984), pág.
138.
16. Ibíd., pág. 147.
17. Quantum Questions: Mystical Writings of the World’s Great Physicists, editado por Ken Wilber
(Boston: New Science Library, 1984), pág. 180.
18. Nick Herbert, Quantum Reality: Beyond the New Physics (New York: Anchor, 1987), pág. 17.
19. Donald Murdoch, Niels Bohr’s Philosophy of Physics (Cambridge, England: Cambridge
University Press, 1987), pág. 139.
20. Herbert, Quantum Reality, pág. 18.
21. Citado en Paul Forman, “Weimar Culture, Causality, and Quantum Theory, 1918-1927:
Adaptation by German Physicists and Mathematicians to a Hostile Intellectual Environment”,
Historical Studies in the Physical Sciences 3 (1971), pág. 78.
22. George Greenstein y Arthur G. Zajong, The Quantum Challenge, (Sudbury, Mass.: Jones &
Bartlett, 1997), pág. 53.
23. The Ghost in the Atom, editado por P. C. W. Davies y J. R. Brown (Cambridge, England:
Cambridge University Press, 1986), pág. 31.
24. Niels Bohr, Atomic Theory and the Description of Nature (Cambridge, England: Cambridge
University Press, 1934), pág. 96.
25. James Gleick, Genius: The Life and Science of Richard Feynman (New York: Vintage, 1993), pág.
243.
26. Eric Lerner, “Bucking the Big Bang”, New Scientist, 22 de mayo de 2004, pág. 20.
27. Lee Smolin, The Trouble with Physics (New York: Houghton Mifflin, 2006), pág. 121.
28. Ibíd., págs. 116-17.
29. Steven Weinberg, Dreams of a Final Theory (New York: Vintage, 1994), pág. 195.
30. Phaedo (65-66), en The Collected Dialogues of Plato, editado por Edith Hamilton y Huntington
Cairns (Princeton, N.J.: Princeton University Press, 1961), págs. 48-49.
31. John Horgan, The End of Science (New York: Broadway, 1997), pág. 73.
Sobre el autor
David Harriman recibió su Máster en física en la Universidad de Maryland, y su Máster en filosofía en la
Claremont Graduate University. Ha trabajado como físico aplicado, analizando errores en modelos
gravitacionales empleados en sistemas de navegación inerciales, y es el editor de Journals of Ayn Rand. Ha
impartido conferencias y ha publicado artículos sobre la revolución científica, sobre el concepto de
“espacio”, y sobre la influencia de la filosofía kantiana en la física moderna. También es cofundador del
Falling Apple Science Institute (junto con Tom VanDamme), una asociación sin ánimo de lucro que
desarrolla un programa de ciencias único, basado en el método inductivo.
Contraportada del libro de bolsillo

Una solución creativa e innovadora al problema de la inducción,


basada en la teoría de conceptos de Ayn Rand

Inspirado por un ciclo de conferencias de Leonard Peikoff, y expandiendo sus ideas, David Harriman
presenta una respuesta fascinante al problema de la inducción, es decir, a la cuestión epistemológica de
cómo podemos determinar la validez de las generalizaciones inductivas.

Ayn Rand presentó su revolucionaria teoría de conceptos en el libro Introducción a la Epistemología


Objetivista. Cuando el Dr. Peikoff profundizó en el razonamiento inductivo, buscó a David Harriman, un
físico que es también profesor de filosofía, por su experto conocimiento sobre el proceso del
descubrimiento científico.

Aquí, Harriman presenta el resultado de una colaboración entre científico y filósofo. Empezando por una
discusión detallada sobre el papel que juegan las matemáticas y la experimentación en la validación de las
generalizaciones en física, y analizando los razonamientos de científicos como Galileo, Kepler, Newton,
Lavoisier y Maxwell, Harriman identifica con maestría el método por el cual descubrimos las leyes de la
naturaleza. Refutando el escepticismo epidémico en la actual filosofía de la ciencia, Harriman aporta
evidencias demostrables del poder de la razón, y acaba argumentando que la filosofía es, de por sí, una
ciencia inductiva: la ciencia que le enseña al científico cómo ser científico.

Foto de portada: Newton´s Cradle by pulsar75/Shutterstock


Diseño de portada: Mary E. O´Boyle

Libro de bolsillo originalmente publicado por New American Library

You might also like