Física 12 Grado. Perfeccionamiento

Ficha

Título
Física 12 Grado. Perfeccionamiento
extracted text




FÍSICA

duodécimo grado

FÍSICA

duodécimo grado
Lic. Carlos Enrique Sifredo Barrios
Lic. Alberto A. Santana Mora
Lic. Carlos M. Barroso González
M. Sc. Francisco González Veitía

Este material forma parte del conjunto de trabajos dirigidos al Tercer Perfeccionamiento
Continuo del Sistema Nacional de la Educación General. En su elaboración participaron
maestros, metodólogos y especialistas a partir de concepciones teóricas y metodológicas precedentes, adecuadas y enriquecidas en correspondencia con el fin y los objetivos
propios de cada nivel educativo, de las exigencias de la sociedad cubana actual y sus
perspectivas.
Ha sido revisado por la subcomisión responsable de la asignatura perteneciente a la Comisión Nacional Permanente para la revisión de planes, programas y textos de estudio del
Instituto Central de Ciencias Pedagógicas del Ministerio de Educación.
Queda rigurosamente prohibida, sin la autorización previa y por escrito de los titulares del
copyright y bajo las sanciones establecidas en las leyes, la reproducción total o parcial de
esta obra por cualquier medio o procedimiento, así como su incorporación a un sistema
informático.
Material de distribución gratuita. Prohibida su venta

Edición y corrección:
■ Lic. Amada Díaz Zuazo
Diseño, cubierta, ilustración:
■ Instituto Superior de Diseño
Emplane:
■ Elier Guzmán Lajud
Instituto Superior de Diseño:
Anelís Simón Sosa ■ María Paula Lista Jorge ■ Sara Sofía Delgado Méndez ■ Isell Rodríguez Guerra ■ Daniela Domínguez Ramírez ■ Amanda Serrano Hernández ■ Rocío de la
C. Ruiz Rodríguez ■ Evelio de la Sota Ravelo ■ Ana Laura Seco Abreu ■ Arianna Ruenes
Torres ■ Reynier Polanco Somohano ■ Celia Carolina Céspedes Pupo ■ Elizabeth Diana
Fajardo Céspedes ■ Laura Rosa Almero Fong ■ Elizabeth Blanco Galbán ■ Laura Reynaldo Jiménez ■ Daniela Arteaga Martínez ■ Daniela Alpízar Céspedes ■ Roberto Pérez
Curbelo ■ Ariel Abreu Ulloa ■ M. Sc. Maité Fundora Iglesias ■ Dr. C. Ernesto Fernández
Sánchez ■ D.I. Eric Cuesta Machado ■ D.I. Julio Montesino Carmona

© Ministerio de Educación, Cuba, 2025
© Editorial Pueblo y Educación, 2025

ISBN 978-959-13-4939-2 (Versión impresa)
ISBN 978-959-13-5012-1 (Versión digital)

EDITORIAL PUEBLO Y EDUCACIÓN
Av. 3.a A No. 4601 entre 46 y 60,
Playa, La Habana, Cuba. CP 11300.
epueblo@epe.gemined.cu

ÍNDICE
Prefacio ................................................................... IX
A los Estudiantes ..................................................... XII

1

Óptica ondulatoria ............................................. 1

1.1 Nociones acerca de la naturaleza de la luz ............................. 2
1.2 Velocidad de la luz ....................................................... 6
1.3 Reflexión y refracción de la luz. Índice de refracción ................. 10
1.4 Dispersión de la luz ...................................................... 21
1.5 Interferencia de la luz. Experimento de Young ....................... 26
1.6 Interferencia de la luz en láminas delgadas ........................... 33
1.7 Difracción de la luz ...................................................... 42
Hora del laboratorio .................................................... 50
1.8 Polarización de la luz. Ley de Malus ................................... 51
Hora del laboratorio .................................................... 57
1.9 Absorción y difusión de la luz .......................................... 58
Problemas generales del capítulo .......................................... 62

2

Introducción a la Teoría Especial y General
de la Relatividad ............................................... 67

2.1 Velocidad de la luz y sistemas de referencia ........................... 69
2.2 Postulados de la teoría especial de la relatividad de Einstein ....... 72
2.3 Relatividad de los intervalos temporales .............................. 73
2.4 Relatividad de los intervalos espaciales ................................ 78
2.5 Relatividad de la simultaneidad ........................................ 80
2.6 Ecuación de composición de velocidades en la relatividad
de Einstein ................................................................... 82
2.7 La energía y la cantidad de movimiento lineal en la Teoría Especial
de la Relatividad ............................................................. 84
2.8 Un experimento con los mesones m ..................................... 88
2.9 Relatividad general ...................................................... 90
Problemas generales del capítulo .......................................... 98

3

Introducción a la Teoría Cuántica de la luz ......... 101

3.1 Radiación térmica. Modelo del cuerpo negro. Leyes de la radiación
del cuerpo negro. Hipótesis de Planck .................................... 102
3.2 Efecto fotoeléctrico. Leyes empíricas y explicación teórica .......... 110
3.3 Rayos X .................................................................. 123
3.4 Efecto Compton ........................................................ 128
3.5 Carácter dual de las radiaciones electromagnéticas ................. 131
Problemas generales del capítulo ......................................... 133

4

Física del átomo ............................................... 137

4.1 Primeras concepciones sobre la estructura del átomo.
Modelo atómico de Thomson .............................................. 138
4.2 Modelo atómico de Rutherford ....................................... 140
4.3 Modelo atómico de Bohr. Aplicación al átomo de hidrógeno ....... 144
4.4 Experimento de Franck y Hertz ........................................ 153
4.5 Espectros atómicos ..................................................... 156
4.6 Limitaciones del modelo de Bohr ..................................... 161
4.7 Dualismo onda-corpúsculo ............................................ 162
4.8 El láser .................................................................. 166
Problemas generales del capítulo ......................................... 168

5

Elementos de Física Nuclear y de las Partículas
Elementales .................................................... 175

5.1 Métodos de observación y registro .................................... 176
5.2 Estructura y propiedades físicas del núcleo atómico ................ 181
5.3 Energía de enlace del núcleo y defecto de masa.
Energía de enlace por nucleón ............................................ 186
5.4 Transformaciones de los núcleos ...................................... 189
5.5 Reacciones nucleares. Radiactividad artificial ........................ 205
5.6 Fisión nuclear. Reacción de fisión controlada. Fusión nuclear ....... 209
5.7 Partículas elementales ................................................. 218
Problemas generales del capítulo ......................................... 226

6

Elementos de Cosmología ................................. 229

6.1 Las raíces de la cosmología ............................................ 229
6.2 Observaciones fundamentales ........................................ 234
6.3 Teorías básicas .......................................................... 259
6.4 La evolución futura del universo ...................................... 290
6.5 La estructura del universo observable ................................ 293
6.6 Cosmografía de nuestro vecindario cósmico ......................... 303
6.7 La composición del universo observable .............................. 307
Problemas generales del capítulo ......................................... 320

Glosario ................................................................. 323
Anexos .................................................................. 369
Bibliografía ............................................................ 377

Prefacio

A

l ser este texto un volumen independiente, de la serie de libros
de Física para la educación preuniversitaria, resulta necesario
reiterar algunos aspectos ya señalados en los prefacios de los volúmenes precedentes para los grados décimo y onceno. La idea es que esto
contribuya a facilitar el trabajo de los estudiantes y profesores con el libro.
Primero que todo, debemos recordar que estamos ante un panorama
en el que el estudio de la Física, como parte esencial de una educación
en ciencia y tecnología, en el nivel de educación preuniversitario, tiene
una importancia creciente para la formación de una cultura general de los
jóvenes, incluida, por supuesto, la preparación específica para la continuidad de estudios o para la vida laboral; formación, vale reiterar, que resulta
cada vez más necesaria, no solo para la continuidad de estudios superiores, sino para la vida en general.
Consideramos obligado hacer un paréntesis, dada la confusión imperante, de que la cultura no solo comprende el importante campo de las
artes y de las humanidades, sino que con igual “peso” abarca también
todo lo relacionado con las ciencias exactas y naturales y la tecnología, en
fin, con toda la actividad humana.
El libro Física duodécimo grado, editado en 1990, fue objeto de una
segunda edición en correspondencia con los cambios de programa introducidos en este grado, en el año 2007. Esta segunda edición constó de
dos partes, y la segunda parte es la que se ha utilizado, desde el curso
escolar 2009-2010, como texto básico para el duodécimo grado del nivel
preuniversitario.
Independientemente de los valores de esta obra, la evolución de los
programas de estudio para este nivel, en función de los logros alcanzados,
las dificultades y los nuevos retos, así como lo avances en la ciencia y su
proceso de enseñanza-aprendizaje, apuntaban en la dirección de la necesidad de, más allá de una reedición, elaborar un nuevo libro de Física.

Así nace este nuevo libro Física duodécimo grado, cuya puesta en práctica está proyectada para el curso escolar 2025-2026.
Los autores de este libro se consideran deudores del equipo de profesores que tuvo a su cargo la preparación de una primera versión, sometida
a prueba en un grupo de centros educativos durante el curso escolar 20192020, y del papel del ya citado texto precedente, en la elaboración de esta
obra, en tanto fue utilizado como fuente de mucho valor y del cual, incluso, se retomaron algunas partes.
Llegue también el mayor agradecimiento a los profesores Alexis Gómez
Zoque, Jorge Luis Contreras Vidal, Saúl Larramendi Valdés y Virginia Rodríguez León, por sus valiosos señalamientos y aportaciones. Igualmente,
agradecemos las contribuciones de los profesores Maikel Ortiz Carmona,
Juan José Lloverá, René Fundora, Antonio Berazaín Iturralde, Zulema Pérez Roque, Rosa María Gómez y María Dolores Zubero, que como parte
de la Subcomisión Nacional de Física participaron en los análisis de la obra
durante el proceso de su elaboración.
Antes de continuar con otros aspectos, queremos hacer patente que
agradeceríamos mucho todos los comentarios y sugerencias que, en opinión de los profesores, estudiantes y otros usuarios del libro puedan contribuir a mejorar las futuras ediciones de este texto.
Algunas características específicas del libro
Entre otras características del libro se destacan las siguientes:
El libro está orientado a cubrir las temáticas del nuevo programa oficial
de Física para el duodécimo grado, elaborado en el contexto del Tercer
Perfeccionamiento del Sistema Nacional de Educación, y da continuidad a
los estudios precedentes de esta asignatura en los grados octavo, noveno,
décimo y undécimo.
El enfoque metodológico del libro sigue la pauta de considerar que
la Física ha de ser enseñada y aprendida, no centrada en la atención a
saberes y habilidades específicos, sino con toda la riqueza de métodos y
formas de trabajo que le son inherentes a su sistema conceptual, y que
pueden contribuir decisivamente a una sólida asimilación de sus contenidos. Esto presupone que los estudiantes puedan apreciar la extraordinaria
riqueza de la actividad investigativa y tengan una visión profunda de la
ciencia, en correspondencia con su edad, nivel cultural de partida y así lo
requiera el contexto histórico-social en que han de vivir, de manera que

se alcance el objetivo de ser personas verdaderamente cultas, capaces de
orientarse independientemente en la solución de los problemas planteados por la sociedad.
El texto está organizado en capítulos y epígrafes, que pueden incluir varias subtemáticas. Los capítulos están representados por números naturales
consecutivos; los epígrafes tendrán dos números (el primero corresponde
al capítulo y el segundo al orden del epígrafe). Las ecuaciones fundamentales estarán numeradas con dos números, por ejemplo: 1.1, que significa:
capítulo 1, ecuación 1. Las figuras están numeradas de manera similar a las
ecuaciones y se incluye una breve información de lo que representan.
Cada capítulo parte del planteamiento de la problemática de interés
que será tratada, y se incluyen ejemplos en los que se explica el procedimiento de solución de problemas, como modelo de referencia. Cada
epígrafe incluye un sistema de actividades orientado a comprobar la asimilación correcta de las principales ideas abordadas, y cada capítulo termina
con un sistema de tareas generales con el objetivo de consolidar los conocimientos y desarrollar las habilidades necesarias para operar con estos,
hasta el nivel de aplicación, es decir, poder resolver tareas para las que no
se dispone de un modelo previo.
Además de la presentación de demostraciones y tareas experimentales,
en el texto se incluyen prácticas de laboratorio, las que se identifican siguiendo el mismo criterio utilizado para los ejercicios resueltos.
Los cálculos, tanto en las tareas teóricas como en las experimentales,
son reportados según las cifras significativas utilizadas y el método de
redondeo.
A lo largo del texto se usa el Sistema Internacional de Unidades (SI).
Al final del texto (anexos) se proporcionan varias tablas de datos físicos, factores de conversión, tablas de constantes fundamentales, símbolos
matemáticos, los símbolos griegos más utilizados y las respuestas a los problemas generales de cada capítulo.
Se incluyen también las secciones o detalles siguientes:
¿Sabías que…? y Saber más: hacen referencia a los contenidos tendientes a provocar curiosidad, investigación, motivación, así como ampliar en
algunos aspectos de especial importancia.
¡Cuidado!: llamada sobre posibles errores derivados de ideas alternativas sobre algunos conceptos.

De la historia: destaca los aportes de hombres de ciencia al desarrollo
del conocimiento científico y algunos hechos históricos importantes.
Desafío: ejercicios teóricos o experimentales que para su solución requieren de un mayor esfuerzo, por su nivel de integración interdisciplinaria, aparecen en las tareas generales de cada capítulo.
Conéctate: sugiere realizar la búsqueda de información en materiales
complementarios o sitios de internet con el objetivo de ampliar y profundizar en el estudio de temáticas de interés.
Los autores

A los estudiantes
No queremos dejar pasar la oportunidad de reiterar algunas ideas a
quienes está dirigida fundamentalmente esta obra: los estudiantes.
Es muy común, y lógico, escuchar entre los estudiantes preguntas como
las siguientes: ¿Para qué hace falta estudiar Física? ¿Qué importancia tiene
aprender las ecuaciones?
Responder de forma convincente a estas interrogantes no es cosa sencilla, pero podemos al menos hacer algunos comentarios: en la actualidad la mayoría de los equipos utilizados −en las fábricas, las industrias,
los hospitales, el transporte, la agricultura, las comunicaciones, los centros
artísticos, la práctica deportiva, nuestros hogares y otros ámbitos− se han
diseñado por los científicos e ingenieros sobre la base de las leyes de la
física.
Sin embargo, la importancia del estudio de la Física no solo está dada
por sus aportes al desarrollo tecnológico de nuestra civilización, sino por
lo que este aporta intelectualmente a las personas: potenciar sus capacidades de razonamiento y la creatividad. De hecho, el conocimiento físico del
mundo constituye un componente esencial de la cultura.
Debe señalarse también que, inmersos en una sociedad cada vez más
influenciada por la ciencia y la tecnología, sin el conocimiento físico, que
está en la base de una formación que permite evaluar el impacto de este
desarrollo sobre nuestra civilización, es poco probable que las personas
puedan avanzar más allá de sus propios e inmediatos intereses, e incluso,
ser presa fácil de muchos mitos, falsedades y manipulaciones. No exageramos si decimos que el conocimiento físico del mundo nos hace más libres,
en tanto nos hace menos manipulables, de ello sobran ejemplos concretos
que seguro discutirán durante el curso.
Solo si nos apropiamos, también, de estos conocimientos y procedimientos es posible alcanzar una cultura integral que nos permita disfrutar
la vida en toda su riqueza, y orientarnos de manera correcta en la solución de los problemas planteados por la sociedad. Por supuesto esto se

comprenderá a plenitud a medida que se avance en el estudio de esta
ciencia y hasta las ecuaciones, que en un principio pueden parecer un jeroglífico inexplicable, terminen mostrándonos toda la belleza y esplendor
del conocimiento sobre los fenómenos naturales, como reflejo sintético de
la obra desarrollada durante milenios por la humanidad.
Esperamos que este libro pueda incentivar el interés de ustedes por la
física y contribuir de manera significativa a su aprendizaje.
Los autores

CAPÍTULO 1
Óptica ondulatoria

E

l hermoso espectáculo del reflejo de los objetos en las aguas tranquilas de una playa, el verdor de los árboles, el azul del cielo, el blanco
de las superficies cubiertas por la nieve, los colores del arcoíris (figura 1.1) y muchos otros fenómenos naturales han sido disfrutados por las
personas de todas las latitudes desde las épocas más remotas.

a

b

c

d

Fig. 1.1 Algunos fenómenos naturales: a) arcoíris en el parque nacional
Alejandro de Humboldt (Holguín-Guantánamo); b) azul del cielo y la arena
casi blanca (Varadero); c) campo cubierto de nieve (Burgenland); d) reflejo del
paisaje en aguas tranquilas (Cayo Santa María)

1

FÍSICA
Al estudiar la óptica, rama de la Física que se ocupa de la investigación
de los fenómenos luminosos, se obtiene un conocimiento que nos permite explicarlos de manera científica, diseñar y utilizar, desde simples espejos (que ya se construían desde hace aproximadamente 3 000 años) hasta
cámaras fotográficas y de video, microscopios, telescopios, láseres, fibras
ópticas, sistemas holográficos y muchos otros dispositivos ópticos, que han
resultado y resultan esenciales para el desarrollo de nuestra civilización.
El hecho de que muchos fenómenos luminosos puedan ser explicados
sobre la base del modelo de que la luz es una onda electromagnética, es
algo que conoces de lo estudiado en grados anteriores. Ahora, con un
conocimiento más acabado sobre el comportamiento de las ondas electromagnéticas, podemos ampliar y profundizar en lo relacionado con la
naturaleza de la luz y los fenómenos luminosos. Sobre esta base, más adelante, examinaremos también el hecho de que este modelo no nos da una
descripción completa de la naturaleza de la luz y nos introduciremos en el
llamado modelo cuántico de la luz.
En particular, en este capítulo abordaremos lo relacionado con la naturaleza de la luz, su propagación y rapidez, los fenómenos de la reflexión
y de la refracción; la dispersión, la difusión, la interferencia, la difracción y
la polarización.

1.1 Nociones acerca de la naturaleza de la luz
La evolución del conocimiento sobre los fenómenos luminosos, la naturaleza de la luz y, en concreto, la respuesta a la pregunta ¿qué es la luz?,
forman parte de una apasionante aventura que comenzó hace aproximadamente unos 3 000 años.
Existen muchas evidencias de que la tecnología óptica se remonta a la
antigüedad; por ejemplo, algunos espejos del antiguo Egipto, construidos
de metal desde hace aproximadamente 1 200 años, han sido encontrados
por los arqueólogos en perfectas condiciones.
Por otra parte, filósofos griegos como Pitágoras, Demócrito, Empédocles, Platón, Aristóteles y otros, desarrollaron algunas teorías sobre la naturaleza de la luz. En la antigua Grecia y en Roma también se conocían
y estudiaron los fenómenos de la propagación rectilínea, la reflexión y
la refracción. Además, en Roma, por ejemplo, hay evidencias de la utilización de lupas por los artesanos. Posteriormente, la óptica también se
estudió en el mundo árabe, donde destacan las investigaciones de Alhacén

2

CAPÍTULO 1
(965-1040), al que por sus trabajos en este campo se le conoce como el
padre de la óptica moderna.
En los inicios de la época del Renacimiento, los trabajos de Alhacén fueron traducidos al latín y ejercieron una fuerte influencia en el estudio de
los fenómenos ópticos en Europa. Por citar solo un ejemplo, vale recordar
que el polímata florentino del Renacimiento italiano Leonardo da Vinci
(1452-1519) inventó la cámara oscura.
En el mundo solo existen 54 cámaras oscuras del tipo de la de La Habana (figura 1.2), que está situada en la azotea de un edificio de la Habana
Vieja (en la llamada Plaza Vieja). En su espejo de 1,80 m de diámetro se
puede reflejar la maravillosa vista de lo que ocurre en su entorno exterior
mediante el reflejo de la luz captada por un periscopio situado a 36,8 m de
altura, que puede barrer un ángulo de 360 grados.

Fig. 1.2 Cámara oscura en La Habana

Sin embargo, es en el siglo xvii comienza un intenso y acelerado proceso
de desarrollo de la óptica, al que contribuyeron de manera significativa,
entre otros, Galileo Galilei, Zacharias Jansen, Johannes Kepler, Willebrord
Sanell, Rene Descartes, Pierre Fermat, Robert Hooke, Isaac Newton, Ole
Christensen Römer, Tomas Young, Cristian Huygens y Agustín Fresnel.
A fines del siglo xvii se destacaban dos teorías acerca de la naturaleza
de la luz: la teoría ondulatoria, elaborada por el físico y astrónomo Christian Huygens y la teoría corpuscular, propuesta por el físico inglés Isaac
Newton, aunque este último se mantuvo ambivalente, por mucho tiempo,

3

FÍSICA
entre ambas concepciones. Puede que la inclinación de Newton por el modelo corpuscular estuviera motivada por la dificultad que se presentaba
con el modelo ondulatorio (como se conocía en esa época) para explicar la
propagación rectilínea de la luz.

 De la historia
Christian Huygens (1629-1695), es un físico y astrónomo holandés (figura 1.3), conocido por sus
aportaciones a los campos de la óptica y de la
dinámica. Para Huygens, la luz consistía en un
tipo de movimiento vibratorio que se dispersa y
produce la sensación de luz cuando incide en los
ojos. Basándose en esta teoría, dedujo las leyes
de la reflexión y de la refracción, y explicó el fenómeno de la doble refracción.

Fig. 1.3

Para la teoría o modelo corpuscular, la luz es un flujo de partículas que
salen con gran velocidad de las fuentes de luz. En los orígenes de la teoría
o modelo ondulatorio de la luz, se consideraba a esta como una onda longitudinal que parte de la fuente de luz y se propaga con gran velocidad
en un medio inmóvil, elástico, llamado “éter espacial” o “éter luminífero”,
que cubría continuamente todo el universo. Ambos modelos coincidían en
el hecho de que, si bien no se conocía el valor de la velocidad de propagación de la luz, era muy grande, lo que pudo ser comprobado experimentalmente, como veremos en el próximo apartado.
Durante el siglo xviii, el peso del prestigio de Newton opacó al modelo
ondulatorio, aunque el modelo corpuscular no permitía explicar de manera satisfactoria algunos fenómenos ya conocidos.
Mediante la teoría corpuscular se podían explicar satisfactoriamente,
por ejemplo: la propagación rectilínea, el regreso inverso y la reflexión
de la luz. Sin embargo, al intentar explicar la refracción de la luz los resultados no concordaban con los datos experimentales. Tampoco resultaba
posible explicar los ya conocidos fenómenos de la interferencia, difracción
y polarización de la luz.

4

CAPÍTULO 1
En este estado de cosas, a principios del siglo xix, la teoría ondulatoria renace a partir de los trabajos del médico inglés Tomas Young (17731829), que, entre otras cosas, añadió a la teoría ondulatoria un elemento
esencial: el llamado principio de interferencia. Por otra parte, en Francia,
ajeno a los trabajos de Young, Agustín Jean Fresnel, también sintetizó la
teoría ondulatoria elaborada por Huygens con el principio de interferencia. Cuando Young, que era fuertemente criticado en Inglaterra por sus
ideas, conoció del reconocimiento que se daba a la teoría de Fresnel, le
escribió una carta congratulándole por el resultado y forjaron una estrecha colaboración.
Con este refinamiento de la teoría mecánico-ondulatoria, resultaba
posible explicar casi todos los fenómenos luminosos conocidos, desde el
problema de la propagación rectilínea de la luz en los medios isótropos y
homogéneos hasta la reflexión y la refracción de la luz, la interferencia y
la difracción.
La principal dificultad de esta teoría consistió en postular la existencia
del hipotético medio por el que se propagaban las ondas luminosas, “el
éter espacial”, el cual debía tener propiedades muy extrañas, por ejemplo,
debía ser tan tenue que permitiera, casi sin amortiguamiento, el movimiento de los cuerpos celestes y al mismo tiempo soportar oscilaciones de
muy alta frecuencia (del orden de 1015 Hz) propagándose con una rapidez
aproximada de 3,0 · 108 m/s, lo que, como sabemos, implica fuerzas restauradoras de valor muy elevado.
En paralelo a estos avances en el campo de la óptica, otros se desarrollaban en relación con los fenómenos eléctricos y magnéticos.
Recordemos que Faraday (1791-1867) estableció una correlación
entre el electromagnetismo y la luz, cuando encontró que la dirección de polarización de la luz puede alterarse bajo un fuerte campo
magnético y que posteriormente, Maxwell (1831-1879) desarrolló de
manera brillante una teoría que resumía todo el conocimiento empírico sobre los fenómenos electromagnéticos, y predijo teóricamente
la existencia de las ondas electromagnéticas, las que se podían propagar en el “éter luminífero” con una velocidad c  0 0 , que coincidía
con el valor experimental de la velocidad de la luz. Como también
conocemos que la existencia de estas ondas fue confirmada por los
experimentos de Hertz, publicados en 1888, después de la muerte de
Maxwell.

5

FÍSICA
Como veremos más adelante, toda una serie de investigaciones, en particular las realizadas por Michelson-Morley, en 1887, condujeron a la idea
del carácter superfluo del éter espacial. Puede que el primero en percatarse de la inexistencia del éter luminífero fuera el físico francés Henry
Poincaré (1854-1912) el que, en 1900, expreso: “¿Nuestro éter, realmente
existe? Yo no creo que observaciones más precisas nos puedan revelar algo
más que desplazamientos relativos”.
Posteriormente, en su teoría especial de la relatividad, de manera independiente, Einstein rechaza la existencia del éter. En el marco de esta teoría los experimentos de Fizeau, Airy y Michelson-Morley, relacionados con
la existencia del éter se explicaban de forma natural. Con esto quedó claro
que, las ondas electromagnéticas libres son una entidad independiente
que pueden propagarse en el espacio sin necesidad de ningún medio.
El estudio de la emisión de la luz por parte de los cuerpos, la distribución de la energía en el espectro de radiación calórica del cuerpo negro
y el fenómeno del efecto fotoeléctrico, condujeron a suponer que la radiación, propagación y absorción de las ondas electromagnéticas tiene un
carácter discreto, es decir, que la luz se emite propaga y absorbe, no en
forma continua como se deducía de la teoría ondulatoria, sino de manera
discreta (cuantos). Fue en 1900 que, el físico alemán Max Karl Ernst Ludwig Planck (1858-1947), sentó las bases de la teoría cuántica de los procesos electromagnéticos. Posteriormente, en 1905, Albert Einstein elaboró
la teoría cuántica de la luz, según la cual está constituida por un flujo de
partículas luminosas, nombradas más tarde como fotones. Por su importancia, para tener una idea más acabada sobre la naturaleza de la luz, este
modelo lo estudiaremos en el capítulo 3.

Comprueba tus conocimientos
1.

Redacta un resumen sobre la evolución de las ideas acerca de la naturaleza de la luz.

1.2 Velocidad de la luz
Durante mucho tiempo, los filósofos de la antigüedad discrepaban sobre el hecho de que si la luz se propagaba de manera instantánea o no.
Por ejemplo, Empédocles consideraba que la luz se propagaba con cierta
velocidad, Aristóteles que lo hacía de manera instantánea y, en el mundo
árabe, Alhacén creía que la luz tenía una velocidad finita.

6

CAPÍTULO 1
Aún a principios del siglo xvii, grandes pensadores, como René Descartes, defendían la idea de la propagación instantánea de la luz y otros,
como Kepler, que su velocidad era finita.
Galileo estuvo entre los primeros en tratar de medir experimentalmente la velocidad de la luz. A estos efectos, en 1629, propuso un experimento
intentando medir el posible intervalo de tiempo al tapar y destapar un
farol colocado a una distancia lo más alejada posible. Aunque este experimento no tuvo éxito, la inferencia de este fue de que el valor de la velocidad era tan grande, que no podía ser detectado en el intervalo de tiempo
trascurrido al tapar y destapar los faroles.
No fue hasta 1676 en que el astrónomo danés Ole Christensen Römer (1644-1710) pudo determinar de manera experimental, mediante
mediciones astronómicas, el carácter finito del valor de la velocidad de
propagación de la luz. En esencia, su conclusión se basó en la discrepancia entre los tiempos observados y predichos para los eclipses de Ío, una
de las lunas de Júpiter (la más cercana). La idea central de Römer fue
la de que esta discrepancia se debía a que cuando la Tierra se alejaba
de Júpiter, la luz procedente de Ío demoraba más tiempo en llegar a la
Tierra al salir del cono de sombra de Júpiter, que cuando la Tierra estaba
en su punto más próximo (figura 1.4). Huygens y Newton, entre otros,
que estaban muy convencidos de la validez del trabajo de Römer, estimando de manera independiente el diámetro de la órbita de la Tierra,
calcularon el valor de la velocidad de la luz en 2,3 · 108 m/s y 2,4 · 108 m/s,
respectivamente.

150 000 000 km

Sol

Tierra

Júpiter
e
Io

Fig. 1.4 Eclipse de Sol provocado por el satélite de Júpiter Ío

7

FÍSICA
En 1849, poco más de un siglo después del descubrimiento de
Römer, el físico francés Armand Hippolyte Louis Fizeau (1819-1896) inventó un dispositivo que le permitió hacer la primera medición, en un
laboratorio terrestre, del valor de la velocidad de la luz. Su dispositivo
consistió en una rueda dentada que podía girar y un espejo colocado
a 8,633 m (figura 1.5). Este aparato se instaló en los suburbios de París
y funcionaba de la manera siguiente: un pulso de luz salía, pasaba en
dirección al espejo por una abertura de la rueda, se reflejaba y regresaba. Ajustando la velocidad de rotación de la rueda se podía lograr
que el pulso volviera a pasar por las aberturas o fuera obstruido por
los dientes.
Nota que, si la rueda gira de modo que al regreso la luz sea bloqueada
por el diente, que sigue a la abertura por la que pasó, el tiempo que le
2L

será igual al tiempo
toma a la luz en ir y volver de la rueda al espejo
c

que le toma a la rueda girar con velocidad ω, el ángulo ϕ entre el centro
de un diente y el centro de una abertura, por lo tanto:
2L 


c
De donde se obtiene que:
c

2L


Con este método Fizeau encontró un valor de la velocidad de 3,133 · 108 m/s.
Rueda dentada giratoria
Espejo
Espejo
parcialmente
plateado

L

Fuente
Fig. 1.5 Esquema del aparato de Fizeau

8

CAPÍTULO 1
Posteriormente, su colega Jean Bernard Léon Foucault (1819-1868),
que también estaba empeñado en medir el valor de la velocidad de la luz,
mediante un experimento similar, pero con espejos giratorios encontró el
valor de 3,153 · 108 m/s.
Usando técnicas similares y procedimientos de interferometría, hasta
principios del siglo xx, se logró determinar el valor de la velocidad de la
luz con mucha menos incertidumbre. En este camino se destaca el trabajo
realizado por el físico estadounidense Albert A. Michelson, que le valió
la obtención del premio Nobel de Física, en 1907. Posteriormente, en un
experimento aún más preciso, Michelson, en unión del también físico estadounidense Edward Morley, obtuvo el valor de 299 796 km/s, con una
incertidumbre de 4 km/s
Ya en la segunda mitad del siglo xx, usando radiación láser se logró
medir, de manera directa y con una extraordinaria precisión, la frecuencia y la longitud de onda de la luz, y por esa vía obtener el valor de su
velocidad de propagación (recuerda que para la velocidad de propagación de las ondas se cumple que c = λν) con una incertidumbre menor
que 1 m/s.
Dada la determinación tan precisa de la velocidad de propagación de
la luz y el hecho de que su valor, como estudiaremos más adelante, es independiente del sistema de referencia, a partir de 1983 se ha asumido que
esta constante universal tiene el valor:
c = 299 792,458 m/s
A partir del 2018, este valor de la velocidad de la luz en el vacío se considera sin incertidumbre.
El metro se define, entonces, en función de esta magnitud como la distancia que recorre la luz en el vacío en 1/299 792,458 s.
Debemos señalar que nos hemos estado refiriendo al valor de la velocidad de la luz en el vacío (semejante a la que tiene en el aire y que se
acostumbra a tomar de manera aproximada como 3,0 · 108 m/s).

Comprueba tus conocimientos
2.

Explica el método de Römer y el método de Fizeau para determinar
la velocidad de la luz.

3.

¿Cuál es el valor de la velocidad de la luz en el vacío?

9

FÍSICA

1.3 Reflexión y refracción de la luz.
Índice de refracción
De los estudios realizados en grados anteriores ya conoces los fenómenos de la propagación rectilínea de la luz en los medios homogéneos
e isótropos, de la reflexión y de la refracción, esencialmente de manera
cualitativa. También conoces las leyes relacionadas con la reflexión y la
refracción de las ondas, y su deducción teórica a partir del principio de
Huygens-Fresnel (Física décimo grado, capítulo 8).
Recordemos algunos aspectos fundamentales sobre estos fenómenos
para el caso específico de las ondas luminosas y profundicemos en algunas
de sus características.
Primero recordemos que para representar las ondas se utiliza el concepto de frente de onda, que es el lugar geométrico de todos los puntos
que oscilan en fase. Para hacer la representación de una onda, con el modelo de los frentes de onda, lo que se hace es trazar algunos de los frentes
de ondas separados por una longitud de onda (figura 1.6).

z

r2

r3
Y

x

Fig. 1.6 Representación de una onda esférica mediante frentes de onda

Por otra parte, en algunos casos puede ser más conveniente representar la propagación de las ondas con el modelo de rayos, que son líneas en
la dirección en que se propaga la onda. Los rayos son siempre perpendiculares al frente de onda (figura 1.7).

10

CAPÍTULO 1
Z

X
Y
a

b

c

Fig. 1.7 Representación de las ondas mediante frentes y rayos: a) onda plana;
b) onda circunferencial; c) onda esférica. Los rayos se representan mediante las
flechas cuya dirección es perpendicular a los frentes de onda

En la figura 1.8 se representa, mediante el modelo de rayo, lo que sucede cuando una onda luminosa incide en la superficie lisa de separación
de dos medios transparentes diferentes, por ejemplo, el aire y el agua o el
aire y el vidrio, en el caso en que el fenómeno de la absorción de energía
de las ondas pueda no ser tomado en consideración.

Fig. 1.8 Representación de la reflexión y refracción de la luz al incidir sobre la
superficie lisa que separa dos medios transparentes

En este caso, parte de la onda incidente se refleja y parte se refracta
(trasmite), con ángulos bien definidos para la reflexión y para la refracción
respecto a la dirección perpendicular a la superficie de separación, que
como sabemos se acostumbra a llamar dirección normal.
Si la superficie de separación no es lisa entonces los rayos reflejados y
refractados no forman un ángulo único respecto a la normal y se reflejan
o refractan en diferentes direcciones (figura 1.9). En esta esta situación, se
dice que la reflexión es difusa y cuando la superficie es lisa se dice que la

11

FÍSICA
reflexión es regular. Por supuesto, esto último también es válido para el
caso de la refracción.

Fig. 1.9 Representación de la reflexión y refracción de la luz al incidir sobre la
superficie irregular que separa dos medios transparentes

El cambio en el valor de la velocidad de propagación de las ondas luminosas cuando se trasmiten de un medio a otro (refracción) se caracteriza
por la relación entre los índices de refracción de cada medio. El índice de
refracción absoluto (n) de un medio es la relación que existe entre la velocidad de propagación de la luz en el vacío (c) y en el medio dado (v).
n=

c
v

(1.1)

Como la velocidad de la luz en cualquier otro medio es menor que en
el vacío, el índice de refracción es siempre mayor que 1.
El índice de refracción depende de las características del medio, como
sabemos, en el caso de la luz, de sus propiedades eléctricas y magnéticas,
pero también depende de la longitud de onda de la luz.
Conocidos los índices de refracción absolutos de dos medios cualesquiera n1 y n2 resulta sencillo determinar el índice de refracción relativo de esas
sustancias:
n1 =

c
c
y n2 =
v1
v2

n=
12

n2 v1
=
n1 v 2

Como la velocidad de la luz en el aire se suele considerar igual a la de la
luz en el vacío, el índice de refracción relativo del aire se puede considerar
aproximadamente igual a la unidad.

12

CAPÍTULO 1
En la tabla 1.1 se muestran los valores de los índices de refracción de algunas sustancias transparentes cuando se utiliza luz monocromática amarilla de longitud de onda λ = 589,0 nm.
Tabla 1.1

Sustancia

Índice de refracción

Agua 20°C

1,333

Alcohol etílico

1,362

Vidrio Crown

1,515

Vidrio Flint

1,572

Diamante

2,420

Nota que los valores de los índices de refracción para algunas sustancias, dados en la tabla 1.1, se han referido a determinada longitud de
onda. Lo que sucede es que la rapidez de la luz en el vacío es la misma para
todas las longitudes de onda, pero la rapidez de propagación de la luz en
cualquier sustancia es diferente para diferentes longitudes de onda y, en
consecuencia, el índice de refracción del material depende de la longitud
de onda de la luz.

Problema resuelto 1
Considera que la longitud de onda de la luz roja emitida por un láser es
de 633 nm en el aire y que la velocidad de propagación de esta radiación
en el humor acuoso del ojo es de 2,24 · 108 m/s Calcula el índice de refracción del humor acuoso y la longitud de onda de la luz en ese medio.
Solución:
En este caso, el índice de refracción del humor acuoso se puede calcular
c
directamente a partir de la relación n =
v
Si denotamos al aire como medio 1 y al humor acuoso como medio 2,
para el humor acuoso tendremos que:
n2 =

c
v2

n2 

3, 0  108 m/s
2, 24  108 m/s

n2 = 1,34

13

FÍSICA
Como la frecuencia es la misma para los dos medios, la longitud de
onda en el humor acuoso se puede calcular a partir de la relación:
n2 1

n1  2
Bajo la consideración de que n1 = 1, despejando λ2 se obtiene que:
2 

1
n2

2 

633 nm
1, 34

 2  472 nm
Recordemos ahora que las leyes de la reflexión y la refracción de la luz, aunque se pueden deducir teóricamente a partir del principio de Huygens-Fresnel,
fueron formuladas inicialmente de manera empírica, es decir a partir de resultados experimentales que permitieron establecer lo siguiente:
1. Los rayos incidente, reflejado y refractado, así como la normal a la superficie de separación entre dos medios, por ejemplo: A y B, están todos en un mismo plano, que es perpendicular al plano de la superficie
de separación entre los dos medios.
2. El ángulo de reflexión es igual al ángulo de incidencia, para todas las
longitudes de onda y para cualquier par de materiales.
θA = θ’A (1.2)
Estos dos hechos los conocemos como leyes de la reflexión (figura 1.10).
3. Para luz monocromática la razón de los senos de los ángulos que forman
los rayos incidente y refractado con la normal es igual a la razón inversa
de los índices de refracción de cada material: Si denotamos por A al medio por el que se propaga la onda incidente y por B la onda refractada,
podemos escribir esta ley de manera simbólica de la forma siguiente:
senA nB

(1.3)
senB nA
Este hecho y el de que los rayos incidente y refractado, y la normal estén en un mismo plano es lo que conocemos como leyes de la refracción
(figura 1.10).
La ecuación 1.3 nos indica que, si el índice de refracción del medio al
cual se trasmite la luz es mayor que el de donde la luz proviene, la luz se

14

CAPÍTULO 1
refracta desviándose de manera tal que su dirección de propagación se
acerca a la normal. En el caso contrario, se aleja de la normal.
En el caso particular de que el rayo incidente sea perpendicular a la superficie de separación, el rayo refractado no se desvía, lo que se corresponde
con la ecuación 1.3, aunque, por supuesto si cambia el valor de su velocidad.
Rayo incidente

Normal

Rayo reflejado

Medio A

A

A

B

Medio B
Rayo refractado
Fig. 1.10 Los ángulos de incidencia y de reflexión son iguales, y el de refracción
es diferente al de incidencia. También los tres rayos están en el mismo plano

Las leyes de la refracción y de la reflexión de la luz nos permiten explicar el funcionamiento de muchos dispositivos ópticos y de fenómenos
que nos son familiares, por ejemplo, seguro recuerdas (de noveno grado)
que una regla o varilla sumergida parcialmente en el agua parece estar
doblada (figura 1.11).

Fig. 1.11 ¿Está realmente doblada la vara para limpiar la piscina?

15

FÍSICA
En este caso lo que sucede es que la luz que proviene de la parte sumergida se desvía, alejándose de la normal, al pasar del agua al aire y entonces parece que la parte sumergida de la varilla está a menos profundidad
(figura 1.12).
Observador
nb (aire) = 1,00

na (agua) = 1,33

Posición aparente del
extremo de la varilla

Varilla

Posición real del
extremo de la varilla
Fig. 1.12 Esquema que permite apreciar cómo se produce el efecto de que la
parte sumergida de la varilla está aparentemente a menos profundidad

Este mismo efecto permite explicar, por ejemplo, por qué sí podemos
ver una tijera sumergida en el agua desde cierta distancia, y si se extrae
el agua del recipiente ya no resulta visible, aunque estemos observando
desde la misma posición (figura 1.13).
a)

b)

Fig. 1.13 Fotos a y b tomadas desde la misma posición, la única
diferencia es que en la foto b, al añadir agua a la cubeta, la tijera
se hace visible

16

CAPÍTULO 1
Sugerencia: puede que este sea un buen momento para que revises lo
que estudiaste en noveno grado sobre los fenómenos ópticos, por ejemplo, la formación de imágenes en espejos y lentes, el funcionamiento de
un microscopio y de un telescopio y el mecanismo de la visión.
Examinaremos ahora con más detalle el importante fenómeno de la
reflexión total interna.
Sabemos que cuando la luz se propaga de un medio de mayor índice de
refracción a otro de menor índice de refracción, el rayo refractado se desvía alejándose de la normal (figura 1.14 a), pero a partir de cierto valor del
ángulo de incidencia, llamado ángulo crítico, el rayo se desvía de manera
rasante a la superficie de separación y para valores mayores ocurre la reflexión total interna, es decir, el rayo incidente solo se refleja (figura 1.14).
b
b

b = 90°

nb
na
crit

1

> crit

4

a

En el ángulo crítico
de incidencia, crit, el
3
4 ángulo de refracción b = 90°.
a
Cualquier rayo con a > crit
experimenta reflexión interna total.

2

Fig. 1.14 Ejemplos de propagación de la luz: a) representación de valores del
ángulo de incidencia mayores que el ángulo crítico; b) foto del fenómeno de la
reflexión total interna cuando la luz pasa del vidrio al aire

17

FÍSICA

Esta situación se describe bien por la ecuación 1.3:

senA nB

senB nA
Si despejamos el seno del ángulo de refracción obtenemos que:
senB 

nA
senA
nB

Como nA / nB es mayor que la unidad, debe existir algún valor de θA menor de 90° que haga senθB = 1 y en consecuencia θB = 90°.
Como para θB = 90°, se tiene que senθB = 1, entonces el ángulo crítico
estará dado por:
senθcrítico =

nB
(1.4)
nA

Si el ángulo de incidencia es mayor que el ángulo crítico, el seno
del ángulo de refracción, de acuerdo con la ley de Snell, sería mayor que la unidad, cosa que no es posible. En esta situación no
hay rayo refractado. Un análisis más profundo sobre la base de las
leyes de los mecanismos relacionados con la absorción y emisión
de la luz por la sustancia está en concordancia con estos hechos
experimentales.

Aplicaciones
Algunas aplicaciones de la reflexión total
- Una aplicación interesante de reflexión interna total es el uso de
varillas de vidrio o plástico transparente para “transportar” luz de
un lugar a otro. Como se indica en la figura 1.15, la luz es confinada a moverse dentro de una varilla, como resultado de reflexiones
internas totales sucesivas, el tubo flexible de luz se denomina fibra
óptica.
Los dispositivos de fibras ópticas son particularmente útiles para ver
objetos en lugares inaccesibles. Por ejemplo, los médicos a veces usan
estos dispositivos para examinar órganos internos del cuerpo o para
realizar cirugía sin necesidad de grandes incisiones (figura 1.16). En
la actualidad los cables de fibra óptica sustituyen a los alambres de
cobre.

18

CAPÍTULO 1

Fig. 1.15

Fig. 1.16

- Prisma de Porro: un prisma de Porro (figura 1.17) es un prisma reflectivo
usado en ciertos dispositivos ópticos para modificar la posición de la imagen. Se suelen usar en pares, formando un prisma Porro doble. Su nombre
se debe a su inventor, el ingeniero y óptico italiano Ignacio Porro. El prisma Porro básico es una pieza de vidrio de base triangular isósceles con un
ángulo de 90º.
- Binoculares prismáticos: los binoculares prismáticos (figura 1.18) funcionan mediante la utilización de lentes y prismas para ampliar la imagen de
un objeto distante. Los prismas (de Porro) corrigen la imagen invertida y
reducen la longitud del cuerpo del binocular, mientras las lentes objetivas
y oculares amplían la imagen del objeto.
Lentes oculares
Regulación dióptrica

F

Prismas

F

Rueda de
enfoque
Lente objetivo
Entrada de luz
Fig. 1.17

Fig. 1.18

19

FÍSICA

Problema resuelto 2
Un rayo de luz que se propaga en el aire (supón n = 1) incide sobre
3
una superficie plana de vidrio con índice de refracción n = formando un
2
ángulo de 60º con la normal. Determina:
a) El ángulo de refracción de este rayo.
b) La velocidad de la luz en el vidrio.
Solución:
En este caso, la luz pasa de un medio menos refringente (el aire) a uno
más refringente (vidrio), en consecuencia, cambia el valor de su velocidad y el
haz se desvía de su dirección inicial de propagación, acercándose a la normal.
a) El valor del ángulo de refracción se puede calcular, dados los datos del
problema, a partir de la ecuación de la ley de refracción:
sen A nB

senB nA
Si el medio A es el aire, para senθB se tendrá que:
senB 

senA
nB

 sen A 
B  sen1 

 nB 


0


sen
60
B  sen1 

3




2
3
B  sen1 2
3
2
θB = 35,2°
b) La velocidad de la luz en el vidrio se puede determinar a partir de la
relación:
c
n=
v

20

CAPÍTULO 1
De donde se obtiene que:
c
v=
n
3, 0  108 m/s
v
3
2
ν = 2,0 · 108 m/s

Comprueba tus conocimientos
4.

¿Cuál es el significado físico del índice de refracción de la luz?

5.

Enuncia las leyes de las reflexión y refracción de la luz.

6.

Deduce las leyes de la reflexión y refracción de la luz a partir del
principio de Huygens-Fresnel. A estos efectos, consulta el capítulo 6
del texto Física décimo grado.

7.

Analiza en la tabla 1.1
a) ¿En cuál de los medios la luz se propaga más lentamente y en cual
con mayor rapidez?
b) ¿En cuál de los medios la luz se desvía más?

8.

Si un haz de luz pasa del aire al agua, ¿Qué le sucede a la dirección
del rayo de luz refractado? Construye un esquema que represente
aproximadamente el fenómeno. Considera que el ángulo de incidencia es de 30º.

9.

Si un cazador submarino desde la orilla descubre un pez cuya imagen ve en el agua, ¿qué debe hacer para disparar y acertar en el
blanco, apuntar encima o debajo de la imagen del pez? Para explicar
auxíliate de un esquema.

1.4 Dispersión de la luz
Un fenómeno similar al arcoíris se observa también en las cascadas y saltos de agua (figura 1.19), también en las proximidades de
los aspersores de los regadíos utilizados en zonas agrícolas o en los
jardines. Esto ocurre principalmente donde el agua se encuentra casi

21

FÍSICA
pulverizada en forma de gotas muy pequeñas. ¿Cuál es la causa de
estos fenómenos?

Fig. 1.19 Arcoíris en una cascada

Los fenómenos de la reflexión y de la refracción no nos permiten por
sí solos dar una explicación directa a este tipo de fenómeno, se requiere
además tener en cuenta un descubrimiento, realizado por Newton, que
establece la relación existente entre el índice de refracción y el color de la
luz: la dispersión de la luz.
En sus trabajos para perfeccionar el telescopio, Newton observó que los
contornos de las imágenes de los objetos visualizados eran muy coloreados. Investigó las diferencias entre los rayos luminosos de distintos colores
y su relación con la luz blanca, fenómeno que hasta ese momento no se
conocía.
El experimento realizado por Newton fue genialmente sencillo: hizo
incidir sobre un prisma, un haz de luz solar de pequeña sección transversal,
en una habitación en penumbra, procedente de un orificio en una ventana, la luz se refractó y se proyectó sobre la pared formando una imagen
constituida por una gama de colores diferentes (figura 1.20).

Fig. 1.20 Recreación del experimento de Newton sobre la dispersión de la luz
por un prisma

22

CAPÍTULO 1
Newton detectó siete colores en el haz de luz dispersada, los cuales se
distribuyen según el orden siguiente: violeta, azul, azul claro, verde, amarillo, naranja y rojo. A esta gama de colores Newton la denominó espectro.
La distribución de los colores del espectro de la luz blanca se corresponde
con la del arcoíris.
Al bloquear el orificio con un vidrio rojo, Newton observó en la pared solamente una mancha roja. Al colocar uno azul observó una mancha
azul, los resultados con otros vidrios coloreados, también mostraron que
la luz al emerger del prisma tiene el mismo color que la que incidió en él.
Concluyó que el prisma no coloreaba la luz blanca como se suponía en ese
momento, sino que el prisma descompone la luz blanca en los diferentes
colores.
Si la luz dispersada por un prisma se hace pasar a través de un segundo
prisma que esta rotado 180º con respecto al primero, los haces del espectro
se reúnen y se obtiene de nuevo luz blanca (figura 1.21).

Fig. 1.21

Separando cualquier color componente del espectro, por ejemplo, el
verde, y obligándolo a pasar a través de otro prisma, no se obtendrá una
nueva descomposición de ese color.
Otra conclusión importante a la cual llego Newton fue formulada por
él en su tratado de óptica de la forma siguiente: las sustancias transparentes tienen diferentes índices de refracción para diferentes colores, en
particular, los rayos luminosos que más se desvían al refractarse en una sustancia son los de color violeta y los que menos se desvían los de color rojo.
La luz blanca ordinaria es una superposición de ondas con frecuencias
que se extienden a través de todo el espectro visible. La rapidez de la luz
en el vacío es la misma para todas las longitudes de onda, pero la rapidez en

23

FÍSICA
una sustancia es diferente para distintas longitudes de onda. En consecuencia, el índice de refracción de un material depende de la longitud de onda.
La dependencia de la rapidez de onda y del índice de refracción
de los medios transparentes con respecto a la longitud de onda
se denomina dispersión.
El arcoíris (o arco iris) es un fenómeno óptico y meteorológico que causa
la aparición en la atmósfera terrestre de un arco multicolor, por la descomposición de la luz solar. Se produce por refracción, cuando la luz atraviesa las
gotas de agua. Está formado por arcos concéntricos de colores, sin solución
de continuidad entre ellos, con el rojo hacia la parte exterior y el violeta
hacia el interior. A una altitud suficiente, por ejemplo, cuando se viaja en un
avión, se puede observar que la forma del arcoíris se aproxima a la de una
circunferencia, y por ello se le llama arcoíris circular (figura 1.22).1

Fig. 1.22 Arcoíris circular

 Saber más
La dispersión de luz en un espectro se comprueba en la naturaleza con la
formación de un arcoíris, el cual es visto frecuentemente por un observador
que está situado entre el Sol y una zona con lluvia. Para comprender cómo
se forma, considera la figura 1.23. Un rayo de luz del sol (luz blanca) incide

1

Para más información sobre este hermoso fenómeno puedes consultar EcuRed
(https//: www.ecured.cu/Arco%C3%aDris)

24

CAPÍTULO 1
por arriba en una gota de agua en la atmósfera y es refractado y reflejado
de la siguiente manera: primero es refractado en la superficie frontal de la
gota, ahí la luz violeta tiene la mayor desviación y la luz roja la menor. En
la superficie posterior de la gota la luz se refleja y regresa a la superficie
frontal, en la que otra vez se somete a refracción cuando pasa del agua al
aire. Los rayos dejan la gota tal que el ángulo entre la luz blanca incidente
y el más intenso rayo violeta de retorno es de 40° y el ángulo entre la luz
blanca incidente y el rayo rojo más intenso de retorno es de 42º. Esta pequeña diferencia angular entre los rayos de retorno hace posible que se vea un
arco de colores.
Luz solar

40°

42°

R
V

V
R
Fig. 1.23 Trayectoria de luz solar a través de una gota esférica de lluvia.
La luz que sigue esta trayectoria contribuye al arcoíris visible

Comprueba tus conocimientos
10. ¿Qué relación existe entre el índice de refracción y el color de la luz?
11. El índice de refracción absoluto del vidrio para cierto color rojo
es nr = 1,525 y para cierto tono de verde es nv = 1,534. ¿Cuál de
los dos colores se desvía más de la línea de propagación inicial al
refractarse?

12. Representa en tu libreta la trayectoria aproximada de un haz de luz
rojo y otro azul, al pasar del aire al agua cuando inciden en la superficie de separación con un cierto ángulo α.

25

FÍSICA

13. Observa la figura 1.20, y di cuál es el color del rayo de mayor velocidad dentro del prisma y para cuál el prisma posee mayor índice de
refracción.

14. Si interponemos un filtro amarillo (vidrio de color amarillo) en la
zona por donde llega la luz blanca al prisma, ¿qué le sucede al
espectro?

15. En una libreta se ha escrito con un lápiz rojo la palabra “excelente”.
Se tienen dos vidrios, uno de color verde y otro rojo. ¿A través de
qué vidrio se debe mirar para ver la palabra “excelente”?

16. Explica cómo se produce el arcoíris.

1.5 Interferencia de la luz. Experimento de Young
Recordemos que cuando dos o más ondas coinciden en un punto, el
desplazamiento resultante es igual a la suma de los desplazamientos instantáneos de cada una de las ondas, y que estas continúan propagándose
sin sufrir ninguna alteración (en esto consiste el principio de superposición
de las ondas.
En décimo grado estudiamos que el fenómeno de la interferencia ocurre cuando dos o más ondas mecánicas se superponen dando lugar a un
patrón estable. En onceno grado profundizamos en el hecho de que este
fenómeno también ocurre con las ondas electromagnéticas.
Recordemos también que cuando la amplitud resultante es mayor que
la de las ondas individuales se dice que la interferencia es constructiva
o por refuerzo, y cuando es menor que es destructiva o por atenuación.
Que la interferencia sea por refuerzo o atenuación depende de la relación entre las fases de las ondas al superponerse, si las ondas llegan al
punto de encuentro en fase ocurrirá el refuerzo y si llegan en oposición
de fase ocurrirá su atenuación o incluso anulación cuando las amplitudes
son iguales.
Otro hecho importante es que para que ocurra la interferencia las
ondas deben ser coherentes, es decir que la relación entre sus fases permanezca constante en el tiempo. Es por esta razón, por ejemplo, que al
superponerse la luz procedente de dos o más lámparas incandescentes lo
que se observa es un aumento de la intensidad de la luz y no un efecto de
interferencia.

26

CAPÍTULO 1
Tomas Young realizó por primera vez, en 1801, un experimento de interferencia de la luz que proporcionó una prueba concluyente de la naturaleza ondulatoria de la luz. En esencia, Young logró una fuente de luz
coherente al hacer pasar la luz del Sol por un orificio angosto, que se
comportaba como un foco emisor de ondas, que después se dividía en dos
focos de luz coherentes al pasar por otras dos aberturas. La luz procedente
de estos dos focos incidía sobre una pantalla dando lugar a un patrón de
interferencia (figura 1.24).
máx.
máx.
máx.
máx.

luz
incidente

máx.
S2

máx.
máx.

S0

máx.
máx.
S1

máx.
máx.
máx.
máx.

A

máx.

B

máx.
C
Fig. 1.24 Esquema del patrón de interferencia por doble abertura

En el experimento de Young el patrón que se obtiene es multicolor, más
complejo que el representado en la figura, pues los máximos de interferencia correspondientes a cada longitud de onda se localizan en diferentes
posiciones, como veremos más adelante.

27

FÍSICA

 De la historia
Thomas Young (figura 1.25) nace el 13 de
junio de 1773, en Milverton, y muere el 10
de mayo de 1829, en Londres; científico y
lingüista inglés, célebre por su experimento
de la doble ranura, que mostraba la naturaleza ondulatoria de la luz, por descubrir el
astigmatismo ocular y por haber ayudado a
descifrar los jeroglíficos egipcios a partir de
la piedra Rosetta.

Fig. 1.25

Hoy día hay muchas variantes del experimento de Young (incluso utilizando láseres) y es frecuente utilizar rendijas estrechas en lugar de orificios pequeños para así permitir el paso de una mayor cantidad de luz, pero
en esencia la idea de este hermoso experimento, dada su importancia y
trascendencia, permanece inalterable.
Analicemos ahora las características del resultado de un experimento
de Young utilizando rendijas estrechas que se iluminan con un haz de luz
monocromático y plano (figura 1.26).

máx.
mín.
máx.
mín.
máx.
mín.
máx.
mín.
máx.

S2
S1

a

b

Fig. 1.26 Esquema del resultado del experimento de Young: a) vista
tridimensional; b) vista en el plano

En este experimento la distancia L desde los focos S1 y S2 hasta la pantalla es mucho mayor que la distancia d que separa a las ranuras y en
consecuencia el ángulo que forman los segmentos S1P y S2 P, donde P
es un punto cualquiera sobre la pantalla, es aproximadamente igual al
ángulo θ (figura 1.27).

28

CAPÍTULO 1
P
r1
y

S1
d

r2

0
S2

0

A

L
Fig. 1.27

En estas condiciones la diferencia de marcha (camino) que recorren las
ondas hasta el punto P de la pantalla será: D = r1 – r2 = S2A, donde el
punto A es el pie de la perpendicular a S2 P que pasa por S1.
La diferencia de marcha (D), se corresponde con el cateto opuesto del
ángulo θ en el triángulo S1 AS2, por tanto:
D = d senθ, (1.5)
donde d, que es la hipotenusa del triángulo y coincide con la distancia
entre los orificios.
Para que ocurra un máximo de interferencia las ondas deberán llegar
en fase, por lo que la diferencia de marcha debe ser igual a un número
entero de longitudes de onda. Por lo tanto, para los máximos de interferencia deberá cumplirse que:
D = ± kλ (1.6)
donde k = 0,1,2,3…
Sustituyendo 1.5 en 1.6 se obtiene que:
d sen θ = ± kλ (1.7)
Por lo tanto:
k
(1.8)
d
k
(1.9)
  sen1
d
sen   

Esta expresión nos permite calcular la posición angular de los máximos
en la pantalla. Para el centro de la pantalla O, corresponde el máximo central k = 0, los valores positivos a la parte superior y los negativos a la parte

29

FÍSICA
inferior (en correspondencia con que los ángulos medidos en sentido antihorario se consideran positivos y en sentido horario negativos).
Además, para aquellos casos en los cuales la desviación angular es pequeña (hasta tres grados aproximadamente), se puede considerar que el
sen θ = tan θ (también aproximadamente igual a θ si se mide en radianes),
y en consecuencia:
y
(1.10)
L
Sustituyendo el valor de sen θ dado por 1.8 en 1.7 y despejando se tendrá que la posición lineal de los máximos de interferencia sobre el eje de
coordenadas estará dada por:
sen   tan  

k L
(1.11)
d
La posición de los mínimos de interferencia (zonas oscuras) quedará determinada por los puntos donde las ondas se superpongan en oposición de fase,
lo que ocurre cuando la diferencia de marcha entre ellas sea de un número
impar de medias longitudes de onda. De manera que la posición angular de
los mínimos de interferencia estará dada por la condición (demuéstralo):
y

d sen   

 2k  1 

(1.12)
2
Donde k es 0, 1, 2,3 …
De acuerdo con la ecuación 1.11 debe esperarse que si la distancia entre las aberturas d disminuye aumentará la distancia entre las bandas brillantes, es decir, el patrón se expande; si se disminuye la distancia a la
pantalla, el patrón se contrae y si la longitud de onda aumenta el patrón
se expande (figura 1.28).

Fig. 1.28 De arriba hacia abajo, la distancia d entre las aberturas para cada
patrón es de 0,005 mm; 0,004 mm; 0,006 mm y 0,005 mm. En todos los casos la
distancia a la pantalla es de 1,0 m

30

CAPÍTULO 1
El corrimiento del patrón para diferentes longitudes de onda explica el
hecho de que si se emplea luz blanca lo que se observa es un patrón con
bandas de diferentes colores (figura 1.29).

Fig. 1.29 Patrón del experimento de Young con luz blanca

¡Cuidado!
La ecuación 1.11 solo es válida para ángulos pequeños. Puede usarse si la
distancia entre las ranuras y la pantalla es mucho mayor que la separación
entre las ranuras y si es mucho más grande que la distancia desde el centro
del patrón de interferencia a la enésima franja brillante.

Aunque hemos descrito el experimento realizado por Young con luz
visible, sabemos que los resultados obtenidos son válidos para cualquier
tipo de onda, siempre y cuando la onda resultante de las dos fuentes coherentes se detecte en un punto que esté muy alejado en comparación con
la separación entre las aberturas.

Problema resuelto 3
En un experimento de interferencia con dos ranuras, estas se encuentran separadas por una distancia de 0,200 mm, y la pantalla está a una
distancia de 1,00 m. Se observa que la tercera franja brillante (sin contar
la franja brillante central frente a las ranuras) está desplazada 9,49 mm
de la franja central (figura 1.30). Calcula la longitud de onda de la luz
utilizada.

31

FÍSICA
y
k=3
k=2

Ranuras

9,49 mm

k=1
x

d = 0,200 mm
k = –1
k = –2
k = –3
R = 1,00 m
Pantalla
Fig. 1.30

Solución:
La longitud de onda se puede calcular directamente, a partir de
los datos del problema, despejando la longitud de onda en la ecuación 1.11:
k L
d
Despejando λ se obtiene que:
y

yd
kL
Sustituyendo por lo valores numéricos se tendrá que λ = 633 nm


Comprueba tus conocimientos
17. ¿En qué consiste el fenómeno de interferencia de la luz?
18. ¿Por qué la luz proveniente de dos lámparas domésticas no da lugar
a un patrón de interferencia?

19. ¿Cuál es la condición para que se produzca un máximo por interferencia? ¿Y para que se produzca un mínimo?

20. Explica en qué consiste el experimento de Young.
21. ¿Cuál es la ecuación que nos permite calcular la posición de los máximos en el experimento de Young?

32

CAPÍTULO 1

1.6 Interferencia de la luz en láminas delgadas
Las bandas brillantes de colores que se observan en las pompas de jabón
(figura 1.31 a), o en una capa delgada de aceite sobre el agua (figura 1.31 b)
o las losas del piso, no son el resultado de un fenómeno de dispersión (como
el caso del arcoíris), sino de un fenómeno de interferencia de la luz.
a)

b)

Fig. 1.31

Sucede que las ondas luminosas que se reflejan en las superficies anterior y posterior de una fina película transparente son coherentes y se
produce interferencia constructiva o destructiva entre estas dos ondas reflejadas (según se superpongan en fase o en oposición de fase) en diferentes lugares para distintas longitudes de onda. La figura 1.32 ilustra esta
situación: la luz que ilumina la superficie superior de una película delgada
con espesor d refleja parcialmente en esa superficie (trayectoria abc) y
la luz transmitida a través de la superficie superior se refleja parcialmente en la superficie inferior (trayectoria abdef). Las dos ondas reflejadas

33

FÍSICA
llegan juntas al punto P en la retina del ojo. En función de la relación de
fase, interferirán en forma constructiva o destructiva. Diferentes colores
tienen distintas longitudes de onda, por lo que la interferencia puede ser
constructiva para unos colores y destructiva para otros. Por esa razón se
observan zonas de variados colores como los mostrados en la figura 1.31.
Las formas complejas de estos patrones es el resultado de las variaciones
en el espesor de la película delgada.
P
c
a

f
Aire

b

e

Película

Índice n

d

d
Fig. 1.32

Un caso particularmente sencillo de este tipo de interferencia ocurre
cuando la lámina tiene forma de cuña y la luz incide casi normalmente
sobre las superficies, por ejemplo, este es el caso de la cuña de aire que se
forma entre dos placas de vidrio casi paralelas (figura 1.33).

d

h

Fig. 1.33 El valor de h es del orden de las décimas de milímetro; en general, las
proporciones de la figura están muy exageradas

34

CAPÍTULO 1
La situación es la misma que la de la figura 1.32, excepto que el espesor de la película (cuña) no es uniforme. La diferencia de trayectoria
entre las dos ondas es prácticamente el doble del espesor d de la cuña
de aire en cada punto. En los puntos en que 2d es un número entero
de longitudes de onda, esperamos que haya interferencia constructiva
y una zona brillante; ahí donde hay un valor equivalente a la mitad de
un número entero de longitudes de onda, es de esperar que la interferencia sea destructiva y que haya un área oscura. A lo largo de la línea
en la que las placas están en contacto, prácticamente no hay diferencia
en las trayectorias, por lo que se espera una región brillante, pero cuando se hace un experimento de este tipo lo que se observa es una franja
oscura, esto se debe a que cuando se produce la reflexión en la parte
inferior, donde el índice de refracción del segundo medio es mayor que
en el primero, ocurre un cambio de fase en la onda reflejada de π (la
explicación está fuera del alcance de este libro, pero es similar a lo que
sucede cuando una onda en una cuerda se refleja en un extremo fijo)
En este caso, la sucesión de los máximos y los mínimos forma una figura como la que se muestra en la figura 1.34 a, en la que aparece la fotografía de una película jabonosa iluminada con luz roja. La película, al ir
escurriéndose, resulta más gruesa en la parte inferior que en la superior.
Si la película jabonosa se ilumina con luz blanca, se obtiene un patrón
como el mostrado en la figura 1.34 b.

a

b
Fig. 1.34

35

FÍSICA
En este caso es relativamente sencillo encontrar la relación que
nos permita calcular la posición de los máximos y mínimos de interferencia. Para esto bastaría con determinar cuántas longitudes de
onda caben en la distancia 2d y tener en cuenta el cambio de fase de
la onda reflejada en la parte inferior para así saber si están en fase o
en oposición de fase al superponerse, pero hay que tener en cuenta
que el valor de la longitud de onda en una sustancia no es igual a
su valor en el vacío pues, como sabemos, el valor de la velocidad de
la luz cambia al cambiar el índice de refracción de acuerdo con la
relación:
n 


n

Por lo tanto, el número de longitudes de onda que caben en la distancia 2d de la sustancia será:
2d 2dn



n
De manera que para que exista un máximo debe cumplirse que:
2dn – 
 k
2
Donde se ha restado λ / 2 a 2 dn, teniendo en cuenta que la diferencia
de fase en π equivale a una diferencia de marcha en λ / 2.
Por lo tanto, para la posición de los máximos deberá cumplirse que:
 
2dn  k  1   (1.13)
 2
De manera análoga, se puede deducir que para los mínimos debe cumplirse la condición:
2 dn = kλ (1.14)
Un caso interesante de interferencia en láminas delgadas es el del
patrón de interferencia que se origina debido a una capa intermedia
de aire entre una lente plana convexa de gran radio de curvatura sobre
una lámina de vidrio. Este patrón de interferencia adopta la forma de
anillos concéntricos coloreados que se denominan anillos de Newton
(figura 1.35).

36

CAPÍTULO 1

Fig. 1.35 Anillos de Newton

En esta situación, la película de aire entre las superficies de vidrio varía en grosor desde cero en el punto O de contacto hasta un valor h en
el punto P. Si el radio de curvatura R de la lente es mucho menor que la
distancia r, y el sistema se observa desde arriba se puede visualizar una
configuración de anillos brillantes y oscuros al ser iluminado el sistema con
luz monocromática (figura 1.36 a).
El efecto de interferencia se debe a la combinación del rayo 1, reflejado
desde la placa plana, con el 2, reflejado desde la superficie curva de la lente. El rayo 1 experimentó un cambio de fase de 180º al reflejarse, mientras
que el rayo 2 no pasa por cambio de fase (figura 1.36 b).
a)

b)

2

R

1

r

P

O

Fig. 1.36 Anillos de Newton: a) con luz monocromática; b) esquema del proceso
de formación de los anillos

Las condiciones para que se produzcan las interferencias por reforzamiento y atenuación se conocen por las ecuaciones 1.13 y 1.14, con n = 1 porque la

37

FÍSICA
película es de aire. El punto de contacto en O es oscuro porque no hay diferencia de trayectoria y el cambio total de fase es de 180º por reflexión
Si en estas condiciones se conoce el radio de curvatura R de la lente, entonces se puede calcular a que distancia r del punto de contacto de la lente
con la lámina de vidrio se produce una diferencia de marcha tal que las ondas de determinadas longitudes se anulen entre sí. Estas distancias son los
radios de los anillos oscuros de Newton. Cada zona de espesor constante
de la capa intermedia de aire constituye una circunferencia. Determinemos la relación que existe entre el radio de orden k del anillo oscuro rk y
el espesor de la capa intermedia de aire hk. Según el teorema de Pitágoras:
R2 = r2k + (R − hk)2
R2 = r2k + R2− 2Rhk + h2k
2Rhk = r2k + h2k
Como hk es un número muy pequeño por ser muy delgada la cuña y
estar elevado al cuadrado se puede no tomar en consideración en comparación con r2k. Con esta aproximación se tendrá que:
hk =

rk2
2R

La onda 1 recorre una distancia 2 hk mayor que la onda 2 por causa de
la inversión de fase al reflejarse, igual a π rad, la diferencia de marcha se
incrementó en media longitud de onda. La condición para que se produzca un mínimo será:
   2k  1


2

D =2 hk


  2k  1
2
2
2 hk = kλ
2hk 

Por otra parte:
rk2
2R
Por lo tanto:
hk =

rk2
 k
2R
r2k = kRλ
2

rk  kR  (1.15)

38

CAPÍTULO 1
De la ecuación 1.15 se infiere que, midiendo el radio de uno de los anillos, conocido su número de orden y el radio de curvatura de la lente, se
puede determinar la longitud de onda de la luz incidente.
Para la luz roja las mediciones reportan λR = 800 nm y para la luz
violeta λv = 400 nm. Las longitudes de onda que corresponden a los restantes colores del espectro visible están comprendidas dentro de este
intervalo.
En la tabla 1.2 de los Anexos se muestran los rangos aproximados de longitudes de onda para las distintas tonalidades de los colores del espectro.

Aplicaciones
La interferencia de película delgada (lámina delgada) tiene diversas aplicaciones en ciencia y tecnología, incluyendo:
-

-

-

-

Recubrimientos antirreflectantes: se utilizan películas delgadas para reducir reflejos en superficies como lentes de gafas, lentes de cámaras o
paneles solares. Controlando cuidadosamente el grosor y el índice de
refracción del recubrimiento, se puede lograr interferencia destructiva,
minimizando la cantidad de luz reflejada y mejorando la transmisión de
luz a través de la superficie.
Recubrimientos reflectantes: las películas delgadas también se pueden
usar para crear recubrimientos altamente reflectantes para espejos u
otras superficies maximizando la interferencia constructiva. Estos recubrimientos se utilizan en dispositivos ópticos, como telescopios y
láseres.
Filtros de color: la interferencia de película delgada se puede usar para
crear filtros de color que transmiten o reflejan selectivamente ciertas
longitudes de onda de luz. Estos filtros se utilizan en diversas aplicaciones, como pantallas, sensores y recubrimientos decorativos.
Fibra óptica: la interferencia de película delgada también se usa en dispositivos de fibra óptica, como multiplexores y multiplexores de división
de longitud de onda, que dependen de las propiedades de interferencia
de las películas delgadas para transmitir o reflejar selectivamente longitudes de onda específicas de luz.

Problema resuelto 4
El diámetro del décimo anillo oscuro de Newton es de 0,5 cm cuando se
observa con luz reflejada de una longitud de onda de 589 nm.
a) Calcula el radio de curvatura de la lente plana convergente que está
apoyada sobre la lámina de vidrio.

39

FÍSICA
b) Si el sistema se sumerge en agua, ¿cuál será el radio del décimo anillo
oscuro de Newton?
Solución:
a) Al incidir la luz normalmente (perpendicularmente) sobre el sistema
lente-lámina de vidrio, se produce el fenómeno de la interferencia;
esto se debe a que parte de la luz incidente se refleja en la superficie
límite vidrio-aire y parte se refracta en esta a través de esta misma superficie. Este haz atraviesa la cuña de aire que existe entre la lente y
la superficie plana y después se refleja en esta superficie, atraviesa la
lente y se superpone al haz reflejado en la superficie lente-aire. La superposición de ambos haces, que son coherentes por provenir del haz
incidente, provocará una interferencia que puede ser por atenuación
o por reforzamiento. Puesto que en este caso el problema se refiere a
los anillos oscuros, entonces la posición de ellos se obtiene mediante la
expresión:
rk  Rk
De donde:
r2k = Rλk
R

rk2
k

 2,5  10 m
R
3

2

5, 89  107 m  10

R = 1,06 m
b) Si el dispositivo se sumerge en agua, los anillos cambian el valor de sus
radios, ya que cambia la longitud de onda de la luz según la proporción
λ
, donde n es el índice de refracción del agua respecto al aire.
n
rk  Rk

rk  R k
n
rk  1, 06 m 

5, 89  107 m
10
1, 33

rk = 2,17 · 10-3 m

40

CAPÍTULO 1

 Saber más
Interferómetro de Michelson
M1
Un interferómetro (figura 1.37) es un instrumento que se utiliza para medir longiL1
tudes o cambios de longitudes, con gran
exactitud, por medio del análisis de las
franjas de interferencia que en él se proM0 L2
ducen. El principio de funcionamiento del
Fuente
equipo diseñado por Michelson, en 1881, de luz
M2
es el siguiente: una fuente de luz, emite
un haz de luz monocromático, el cual al
llegar al espejo semiplateado M0, situado
formando un ángulo de 45º con la dirección del haz, se divide en dos haces. Uno
Telescopio
por refracción atraviesa el espejo fijo M0 y
marcha al espejo fijo M1: el otro obtenido
por reflexión, marcha hacia el espejo móvil M2.
Ambos haces se reflejan en los espejos M1
y M2, y después de recorrer las distancias
Fig. 1.37
de ida y vuelta, L1 y L2, llegan finalmente
al telescopio. Las ondas luminosas que integran ambos haces son coherentes
ya que provienen de un mismo foco, al superponerse provocan una banda de
interferencia.
Si los recorridos ópticos de L1 y L2 son iguales la diferencia de marcha
L1 − L2 es nula; las ondas llegan en fase y se produce una zona iluminada
por reforzamiento.
Si, por medio de un mecanismo especial, se desplaza el espejo M0 una distancia equivalente a 1/4 de la longitud de onda de la luz utilizada, entonces
la diferencia de marcha |L1 − L2|, se incrementa en1/2 l y la interferencia es
por atenuación, produciéndose una zona oscura.
Al situar un indicador en la zona de interferencia se pueden medir con mucha
exactitud los cambios en la longitud de la distancia L2, al contar el número de
franjas oscuras que pasan por el indicador al mover el espejo M2 una distancia D.
D = |L1 − L2| = kl
D = 2D
2D = kl
Michelson empleó su interferómetro en la medición de la longitud de onda
de la luz roja procedente del vapor de cadmio. La longitud de onda calculada fue: l = 632,8 nm

41

FÍSICA

Comprueba tus conocimientos
22. Explica por qué pueden aparecer bandas coloreadas al reflejarse la
luz sobre sobre una pompa de jabón o sobre una película delgada
de aceite en el agua.

23. ¿Cuáles son las fórmulas para calcular las posiciones de los máximos
y mínimos de interferencia en una lámina delgada en forma de cuña
cuando sobre ella incide normalmente un haz de luz monocromática?

24. ¿Por qué al observar por reflexión los anillos de Newton estos presentan un mínimo en su centro?

25. Cuáles son las fórmulas para calcular los radios de los anillos claros y
oscuros en el experimento de los anillos de Newton.

26. ¿Se puede observar la interferencia de la luz en una lámina gruesa?
Explica.

1.7 Difracción de la luz
Cuando se observa a través de una ranura larga y estrecha una fuente
de luz blanca lejana, se percibe una zona central ancha, brillante y de color
blanco, y a ambos lados zonas coloreadas (figura 1.38 a). Si después se coloca
un filtro rojo delante de la ranura, a esta solo llega luz de ese color, y se ve
una zona central brillante roja y regiones oscuras, alternadas por bandas de
color rojo, menos intensas (figura 1.38 b). Si observamos las dimensiones del
patrón, veremos que es mucho más ancho que la ranura, es decir, que la luz se
comporta como si se desviara de la trayectoria rectilínea al pasar por la ranura. En la figura 1.38 c se puede observar el mismo patrón para la luz azul. Ese
mismo es el comportamiento de las ondas mecánicas al pasar por un orificio
pequeño, fenómeno que estudiaste en décimo grado y que recibe el nombre
de difracción de las ondas. Este comportamiento de la luz refuerza aún más
la idea del carácter ondulatorio de la luz, pues, como conocemos, la difracción
es un fenómeno característico de los procesos ondulatorios.

a

b

c

Fig. 1.38 Patrones de difracción por una abertura: a) con luz blanca;
b) con luz roja; c) con luz azul

La difracción de la luz es el fenómeno en el cual su dirección
de propagación se curva al pasar por la vecindad de objetos.

42

CAPÍTULO 1
La distribución de iluminación que se obtiene como resultado de la difracción de la luz se denomina patrón de difracción.
La difracción de la luz no es tan fácil de observar como la de las ondas mecánicas, pues la longitud de las ondas luminosas es muy pequeña.
Resulta apreciable, con luz visible, cuando un haz pasa a través de una
abertura o incide sobre un obstáculo cuyas dimensiones son inferiores a
las décimas de milímetro. También, se puede observar en los bordes de un
objeto delgado, por ejemplo, de una cuchilla de afeitar.
También se pueden observar patrones de difracción cuando se observa la
luz solar al pasar a través de una tela fina (por ejemplo, un pañuelo de seda)
o cuando se mira a una fuente intensa de luz con los ojos entrecerrados.
El fenómeno de la difracción limita la aplicación de las leyes de la óptica
geométrica. Por ejemplo, cuando estudiamos, en noveno grado, el concepto
de rayo luminoso dijimos que se podía obtener experimentalmente la dirección
de un rayo luminoso, limitando el paso de la luz con un obstáculo que posea
una ranura pequeña. Esto es así hasta cierto límite, ya que para aberturas muy
pequeñas la luz dejará de propagarse en forma rectilínea y se curvará al pasar
por la ranura. Como el ancho de las ranuras que se utiliza en los experimentos
de óptica geométrica, son, por lo general, mayores que las décimas de milímetros no se observa de manera apreciable el fenómeno de la difracción de la luz.

 Saber más
El fenómeno de la difracción se puede explicar
sobre la base del principio de Huygens-Fresnel
(Física décimo grado). Puede ser conveniente
recordar que, de manera cualitativa se puede
tener una idea de la explicación del fenómeno
mediante el ejemplo siguiente:
Cuando un frente de onda llega a una abertura, cuyo tamaño es unas cuantas veces mayor
que su longitud de onda (inferior a las décimas
de milímetro), los diferentes puntos del frente de
onda se comportan como focos secundarios
de ondas esféricas coherentes, que se propagan
más allá del orificio, contorneando sus bordes (figura 1.39) debido a que las ondas secundarias interfieren provocando un cuadro de interferencia,
que en este caso recibe el nombre de patrón de
difracción. Es por esta razón que las ondas, al atravesar el orificio, se ensanchan como un abanico.

Fig. 1.39

43

FÍSICA
Redes de difracción
Vamos a estudiar ahora un instrumento que tiene gran aplicación práctica: la red de difracción.
En general, una red de difracción está constituida por un gran número
de finas ranuras separadas por intervalos opacos (red de transmisión) o
por una superficie especular rayada formando surcos microscópicos (de
reflexión). Las mejores redes o rejillas se construyen con máquinas especiales que trazan rayas paralelas en láminas de vidrio. El número de rayas
puede alcanzar hasta algunos miles por milímetro; el número total de líneas puede superar las 10 000 por milímetro. Puede resultar interesante
observar como la superficie de un CD o DVD se comporta como una red de
difracción por reflexión (figura 1.40).

Fig. 1.40 Patrón obtenido al reflejarse luz blanca sobre la superficie de un CD

En los laboratorios docentes se emplean redes más sencillas, denominadas réplicas, que se confeccionan con una sustancia gelatinosa en la que
se imprimen las rayas, para protegerlas se colocan entre dos láminas de
vidrio.
Para interpretar el patrón de una red de difracción, podemos utilizar lo
que hemos visto en este mismo capítulo relativo al experimento de Young
y la difracción en una ranura.
Se llama período de la red (d) a la distancia entre los centros de dos ranuras consecutivas (figura 1.41). Por lo tanto: d = b + c, donde a es el ancho
de las ranuras y b el ancho de la zona que las separa.

44

CAPÍTULO 1
Red de difracción

a
d

b

Fig. 1.41

d=

unidad de longitud
número de trazos

Si el ancho de las ranuras es del orden de las décimas de milímetro o
menor, en cada ranura se produce la difracción. Por lo tanto, al iluminar la
red interferirán los haces provenientes de todas las ranuras (figura 1.42).
Como sabemos del experimento de Young, dos ranuras contiguas dan
un máximo de interferencia cuando se cumple la condición:
d sen θ = kλ, donde k = 0,1,2,3, …
Lente convergente

P

d

B

A

Fig. 1.42 Esquema de la trayectoria para los rayos de luz que llegan a un punto
arbitrario P de la pantalla

45

FÍSICA
Si para un cierto ángulo q la primera y la segunda ranura dan un máximo, lo darán también la segunda y la tercera, la cuarta y la quinta, etc. Esto
quiere decir que la condición de máximo de interferencia de una red es la
misma que la del experimento de Young, solo que aquí se le denominan
máximos principales. En realidad, aparecen además otros secundarios que
no tendremos en cuenta por su poca intensidad. Al iluminar la red con luz
de un solo color el patrón toma el aspecto de un conjunto de líneas definidas con el color de la luz utilizada sobre un fondo oscuro (figura 1.43 a).
Si la luz que se usa es blanca, entonces se verá una zona central blanca y, a
cada lado de ella, un espectro en el que los rayos violetas se desvían menos
y los rojos más. Después aparecerán una serie de espectros superpuestos
parcialmente, que forman una banda continúa coloreada (figura 1.43 b).

Fig. 1.43

Con ayuda de las redes de difracción se pueden hacer determinaciones
de λ mucho más exactas que con el experimento de Young, pues los máximos obtenidos son muy estrechos y se puede determinar con más precisión
su posición en la pantalla.
Hay algunos modelos burdos de redes de difracción que encontramos
frecuentemente en nuestra vida diaria. Nuestras pestañas constituyen uno
de ellos: cuando se mira una fuente de luz blanca intensa con los ojos
entrecerrados, se observa un patrón de difracción de la luz; de esta forma
también se comporta un disco de música, en el que la luz reflejada aparece coloreada. Un pañuelo de seda es un modelo tosco de una red plana;
por eso, cuando se mira una fuente intensa de luz blanca a través de él, se
observa también un patrón de difracción de la luz

Problema resuelto 5
Sobre una red de difracción de 100 rayas por milímetro se hace incidir un haz estrecho de luz blanca. Considerando que las longitudes

46

CAPÍTULO 1
de onda para el violeta y para el rojo son respectivamente 400 nm y
700 nm:
a) Determina las desviaciones angulares (ancho angular) de los espectros
de orden k = 1, k = 2 y k = 3.
b) ¿A partir de qué orden los espectros se solapan?
c) Representa en un esquema la distribución de los espectros.
Solución:
a) Sabemos que la luz blanca está entre los valores de λ que nos dan
como datos. En el resto del enunciado se nos dice que hay 100 rayas
en un milímetro, esto nos conduce al valor de la constante de la red
que será:
d=

unidad de longitud
número de trazos

d

1, 0  103 m
1, 0  102

d = 1,0 · 10–5 m

Debemos introducir ahora una notación adecuada. Supongamos que el
espectro de primer orden (que corresponde a k = 1) está comprendido
entre los ángulos θ1 , y θ1 correspondientes a los máximos de los colov
r
res rojo y violeta respectivamente. Su abertura angular la denotaremos
por D θ1, y será entonces:
Dθ1 = θ1 − θ1
r

v

Del mismo modo, para los espectros de segundo y tercer orden
tendremos:
Dθ2 = θ2 − θ2
r
v
Dθ3 = θ3 − θ3
r

v

Para calcular los valores de los extremos de los espectros podemos utilizar la ecuación:
d sen θ = kλ
Hemos utilizado solo el signo positivo ya que nos referiremos a una
parte del espectro. Así, para el rojo tendríamos:
r  sen1

k r
d

y del mismo modo para el violeta:
v  sen1

k v
d

47

FÍSICA
Con los tres valores de k que nos dan y los datos podemos hacer los
cálculos correspondientes y construir una tabla.
Tabla 1.3

k

θv

θr



1

2,3

4,0

1,2

2

4,6

8,0

3,4

3

6,9

12,1

5,2

Donde θr , θv y Dθ están dados en grados.
b) El análisis de la tabla 1.3 nos muestra que el espectro de primer
orden aparece solo, mientras que el de tercer orden se superpone con el de segundo (observa que el extremo violeta del tercero,
cuya abertura angular es 6,9º, está comprendido en el intervalo del
segundo).
c) El esquema pedido se representa en la figura 1.44:
k = –3

k=3
k = –2

k = –1

k=0

k=1

k=2

Fig. 1.44

¿Se podría determinar qué parte del segundo espectro se solapa con
el tercero?

Problema resuelto 6
Si el patrón de difracción producido por la red del problema anterior
se recoge en una pantalla que se encuentra a 1,0 m de distancia de la red,
calcula:
a) ¿A qué distancia (desviación lineal), con respecto al máximo de orden
cero, queda ubicado el límite del color rojo (λ = 700 mm) del espectro
de orden k = 1?
b) Si el período de la red es de 0,01 m, ¿cuál será la separación del límite
del color rojo en este caso, si mantenemos las mismas condiciones del
inciso a?

48

CAPÍTULO 1
Solución:
a) El ángulo con que aparece el máximo de color rojo sabemos que es
4,0° (ver la tabla 1.3). Debemos ver la separación a que esto conduce
cuando la pantalla se encuentra a una distancia de 1,0 m. Para ello nos
auxiliaremos de un esquema (figura 1.45):
red
k=1


y
k=0

L = 1,0 m
Fig. 1.45

Si denotamos por y la distancia que queremos calcular, y por L la distancia de la pantalla a la red, se tendrá que:
y
L
y entonces:
tan 4 , 0o =

y = L tan 4,0º
Pero tan q = sen q cuando q es pequeño y está medido en radianes, por
lo tanto:

y ≈ 0,07 m
y ≈ 70 mm
180
b) Al cambiar la red por otra de periodo 0,01 m, tenemos que comenzar
por determinar el ángulo con que aparece el máximo. Para k = 1:

r  sen1
d
donde:
y  1, 0 m  4 , 0 

l = 700 nm = 7,0 · 10–7 m
y:
d = 0,01 m = 1,0 · 10–2 m
Por lo tanto:
7, 0  107 m
 7, 05 rad
r  sen1
1, 0  102 m
Entonces:
y1 = Lq = 1,0 · 7,0 · 10–5 = 7,0 · 10–5 m = 0,07 mm

49

FÍSICA
Del análisis de los resultados se confirma que los efectos de interferencia
se hacen más visibles cuando la separación entre las rendijas es más pequeña.

Hora del laboratorio
Práctica de laboratorio 1.1
Determinación de la longitud de onda de la luz mediante
una red de difracción
Objetivo
Determinar experimentalmente la longitud de onda de un haz de luz
monocromático mediante una red de difracción.
Actividades
Diseña un procedimiento para determinar experimentalmente la longitud de onda de la luz de una fuente láser, mediante una red de difracción,
y estima la incertidumbre del cálculo realizado.
Sugerencias
Si se conoce el número de orden de un máximo y su posición respecto
al centro del patrón, la constante o período de la red y la distancia a la
que está situada la pantalla, la longitud de onda se puede calcular mey
diante la ecuación d  k  .
L
Se puede usar el láser y la red del laboratorio escolar o un puntero
láser y utilizar como red un pedazo de CD.

Comprueba tus conocimientos
27. ¿A qué se llama difracción de la luz?
28. ¿Por qué la difracción de las ondas sonoras es más fácil de observar
que la de las ondas luminosas?

29. ¿Qué dificultades aparecen al intentar hacer un modelo práctico del
rayo de luz?

30. Describe el patrón de difracción que se obtiene al pasar luz de un
solo color a través de una ranura estrecha.

31. ¿Qué es una red de difracción?
32. ¿Por qué la luz violeta se desvía menos en una red de difracción que
la luz de color rojo?

50

CAPÍTULO 1

33. ¿Cómo explicas que una red de difracción descomponga la luz blanca en los diferentes colores del espectro?

34. ¿Cómo se puede determinar experimentalmente la longitud de
onda de la luz mediante una red de difracción?

1.8 Polarización de la luz. Ley de Malus
En el libro de Física onceno se analizó el fenómeno de la polarización
de las ondas electromagnéticas y cómo este fenómeno pone de manifiesto
el carácter transversal de este tipo de ondas.
Ahora bien, en el caso particular de las ondas electromagnéticas cuya
frecuencia está comprendida en el espectro visible, es decir, el de la luz,
hay determinadas particularidades en las que resulta importante detenerse, tanto por su valor conceptual como por sus aplicaciones prácticas.
Recordemos que cuando los “puntos” del medio por los que se propaga una onda solo oscilan en una dirección se dice que la onda está linealmente polarizada en esa dirección, por ejemplo, si las oscilaciones tienen
lugar en la dirección y se dice que está polarizada en y.
También debemos recordar que en el caso de las ondas electromagnéticas lo que se propaga son las oscilaciones de los vectores intensidad de campo eléctrico y campo magnético (figura 1.46). Como en el caso de las ondas
luminosas, son las oscilaciones del vector intensidad de campo eléctrico las
que se relacionan con el fenómeno de la visión, la luz natural se representa
mediante el vector intensidad de campo “oscilando” en cualquier dirección,
en un plano perpendicular a la dirección de propagación (figura 1.47 a) y
la polarizada mediante el vector oscilando en una dirección (figura 1.47 b).
y

λ
Ey

Ey
x

z

Bz

Bz

Fig. 1.46 Representación de los campos eléctrico y magnético de una onda
electromagnética sinusoidal, que se propaga en la dirección del eje x

51

FÍSICA
E

a)

E

b)
Fig. 1.47 Representación de: a) la luz natural;
b) la luz linealmente polarizada

A diferencia del generador de microondas del laboratorio escolar,
que como sabemos emite ondas electromagnéticas linealmente polarizadas, las fuentes ordinarias de luz (por ejemplo, las bombillas eléctricas incandescentes, las lámparas fluorescentes o la luz solar) emiten
ondas luminosas que no están polarizadas. A esta luz se le denomina
luz no polarizada o luz natural. Esto está dado por el hecho de que si
bien la luz emitida por cualquier átomo puede estar linealmente polarizada, los cuerpos emisores de luz estan constituidos por un número enorme de átomos o moléculas con orientaciones al azar, y la luz
emitida es una mezcla de ondas linealmente polarizadas en todas las
direcciones posibles.
Se puede obtener luz polarizada a partir de luz natural o no polarizada
de diversas formas. Una de estas formas es mediante el empleo de filtros
llamados polaroides, que se construyen con materiales que presentan una
absorción selectiva de las ondas con diferente dirección de propagación
(figura 1.48). Esta propiedad se denomina dicroismo.
Un filtro polarizador ideal deja pasar el 100 % de la intensidad de
las ondas luminosas polarizadas en una dirección paralela a cierto eje
del material, que se denomina eje de transmisión del polaroide, y bloquea completamente la luz polarizada de forma perpendicular al eje de
transmisión. En la práctica, los filtros polarizadores dejan pasar alrededor del 80 % de la intensidad de la luz polarizada de forma paralela al
eje de transmisión.
En este tipo de filtros hay moléculas de cadena larga que están orientadas con su eje perpendicular al eje de polarización; estas moléculas absorben preferentemente la luz polarizada a lo largo de ellas, en forma
muy parecida a los alambres conductores de un filtro polarizador para
microondas.

52

CAPÍTULO 1
Luz natural

Luz transmitida
linealmente
polarizada
Fig. 1.48 Filtro polarizador o polaroide. La luz con polarización horizontal se
absorbe casi en su totalidad. La luz con polarización vertical se absorbe solo
parcialmente

 Saber más
El material más utilizado para hacer los filtros polarizadores es el polímero de
acetato de celulosa. Este material se trata con productos químicos para obtener una solución que se deposita en forma de capa fina y uniforme sobre un
sustrato transparente, por ejemplo, de vidrio y se somete a un proceso de estirado. Mediante todo este proceso se logra el alineamiento de las moléculas.

Si se hace pasar luz natural por un polaroide ideal (figura 1.49) se tendría que, para cualquier dirección del eje de transmisión, a la salida del
polaroide se obtendría luz linealmente polarizada y su intensidad sería la
mitad de la de la luz natural incidente.
Polarizador
Luz incidente
no polarizada

Fotocelda
Eje del
polarizador
Fig. 1.49 Mediante la fotocelda se mide la intensidad de la luz a la salida del
polaroide

53

FÍSICA
¿Qué pasa cuando la luz linealmente polarizada que sale de un polarizador pasa a través de un segundo polarizador, como se ilustra en la figura 1.50?
En el caso general, en el cual el eje de polarización del segundo polarizador, o analizador, forma un ángulo j con el eje de polarización del
primer polarizador, podemos considerar la luz linealmente polarizada que
es transmitida por el primer polarizador tiene dos componentes, una paralela y la otra perpendicular al eje del analizador. Solo la componente paralela, con amplitud Ecosj, es transmitida por el analizador. La intensidad
transmitida es máxima cuando j = 0, y es igual a cero cuando el polarizador y el analizador están cruzados de manera que j = 90°. Para determinar
la dirección de polarización de la luz transmitida por el primer polarizador,
se hace girar el analizador hasta que la fotocelda (figura 1.46) mida una
intensidad igual a cero; el eje de polarización del primer polarizador es,
entonces, perpendicular al del analizador.
Analizador
Polarizador
Luz natural
no polarizada

E2 = Ecosφ

E1 = Ecosφ

φ

φ E
Fotocelda

E

Fig. 1.50

En general, la amplitud del vector intensidad de campo eléctrico a la
salida del segundo polarizador será:
Et = Ecosj
Elevando al cuadrado ambos miembros de esta ecuación y multiplicando por una constante k, se tendrá que:
kEt2 = E2cos2j

54

CAPÍTULO 1
Como conocemos que la intensidad de la luz es directamente proporcional al cuadrado de la amplitud de las oscilaciones luminosas, podemos
escribir que:
I = I0cos2j (1.16)
Esta relación (1.16), que descubrió experimentalmente Étienne Louis
Malus en 1809, se llama ley de Malus.

¡Cuidado!
La ley de Malus solo se aplica si la luz incidente que pasa a través del polarizador está linealmente polarizada.

Problema resuelto 7
Sobre un sistema formado por dos polaroides cuyos ejes de transmisión
forman un ángulo a, incide luz natural. A la salida emerge un cuarto de
la intensidad de la luz incidente. Calcula el ángulo a entre los dos ejes de
transmisión.
Solución:
Para comprender mejor el problema, es conveniente hacer un esquema
e introducir una notación adecuada (figura 1.51).

α
I0

I1

Luz natural

I
Luz linealmente
polarizada

Fig. 1.51

Al primer polaroide le llega luz natural de intensidad I0. La intensidad
I1 después de atravesarlo será:
1
I0
2
El paso de la luz a través del segundo polaroide esta descrito por la Ley
de Malus, por lo tanto:
I1 =

I = I0cos2a

55

FÍSICA
Además, nos dicen que:
1
I0 o sea I0 = 4I
4
Sustituyendo esta información y despejando en la ecuación de Malus,
se obtiene que:
I=

1
donde a = 45°
2
La solución matemática admite también los valores de 135º, 225º, 315º,
sin embargo, solo tomamos 45º, ¿Podrías explicar por qué?
cos2  

 Saber más
Otras formas de polarización
Algunos materiales, como los cristales de turmalina o calcita, o plásticos
sometidos a tensión, tienen la propiedad de birrefringencia o doble
refracción. En estos medios los dos rayos refractados están linealmente
polarizados y sus direcciones de polarización son perpendiculares entre sí.
De hecho, el estudio de este tipo de materiales contribuyó al descubrimiento del fenómeno de la polarización de las ondas luminosas.
También se observa que, la luz reflejada está parcialmente polarizada y que
cuando el ángulo de incidencia es tal que entre los rayos reflejado y refractado el ángulo formado es de 90°, el rayo reflejado está totalmente polarizado con la dirección de polarización perpendicular al plano que contiene a
los rayos reflejado y refractado (figura 1.52). En este caso, el rayo refractado
está parcialmente polarizado.
Normal
Plano de
incidencia

θP

na

θP

Superficie reflectante
θb

nb

Fig. 1.52
A partir de la ley de la refracción, se puede demostrar que el ángulo de
incidencia qp, para el que la luz reflejada está totalmente polarizada, está
dado por: tan

56

p

nb
na

.

CAPÍTULO 1

Aplicaciones
El fenómeno de la polarización de la luz tiene múltiples aplicaciones en el
estudio de fenómenos astronómicos; en el diseño de materiales antirreflectantes, como los usados en las gafas de sol, etcétera.
Como la sacarosa tiene la propiedad de hacer rotar el plano de polarización de la luz que pasa a través de ella en función de su concentración en una disolución, se puede entonces determinar con facilidad
y rapidez la concentración de azúcar en el jugo de la caña y controlar
así determinada fase del proceso de elaboración del azúcar de caña,
mediante un instrumento llamado polarímetro (también llamado sacarímetro). Esta es una aplicación muy conocida en la industria azucarera cubana y en este capítulo hay un trabajo de laboratorio sobre esta
aplicación.
Los sacarímetros también se utilizan, por ejemplo, en enología para determinar la concentración de azúcar en el vino

Hora del laboratorio
Práctica de laboratorio 1.2
Medición del giro del plano de polarización
Objetivo
Determinar experimentalmente el ángulo de giro del plano de polarización de una solución concentrada de agua y azúcar.
Mediante un montaje como el mostrado en la figura 1.53, estudia cómo
varia el ángulo de polarización con la concentración de azúcar en el agua.
Cubeta

Fuente de luz

Polarizador

Pantalla

Analizador

Fig. 1.53 La cubeta contiene una disolución de azúcar en agua

Comprueba tus conocimientos
35. ¿En qué se diferencia la luz natural de la luz linealmente polarizada?
36. ¿Cuáles experimentos pueden convencernos de que la luz es una
onda transversal?

57

FÍSICA

37. Expresa un argumento a favor de que la luz tiene una naturaleza
electromagnética.

38. ¿Qué fracción de la intensidad de la luz natural incidente en un polarizador logra atravesarlo?

39. Escribe e interpreta la ecuación que expresa la Ley de Malus.

1.9 Absorción y difusión de la luz
Absorción de la luz
¿Por qué existen cuerpos con diferentes colores, si en condiciones ordinarias, sobre ellos incide luz blanca?
Las vivencias experimentadas durante la propagación de la luz por medios transparentes resultan en ocasiones muy impactantes.
– Cuando miramos al fondo del mar en un lugar de poca profundidad,
si el agua está tranquila vemos lo que se encuentra sobre el fondo y
el propio fondo; pero si estamos sobre un bote en un lugar de mayor
profundidad no podemos observarlo.
– Si colocamos un objeto de metal al Sol notaremos que se calienta más
que otro igual de madera.
– Ciertas lentes, por ejemplo, las utilizadas en las gafas llamadas photogrey, son fotocromáticas, es decir, se oscurecen de manera automática,
cambian su transparencia con la intensidad de la luz.
¿Cómo pueden explicarse estos fenómenos?
Estos fenómenos se deben a la absorción de la luz por el medio,
o sea, al debilitamiento de la intensidad de la luz durante el paso de
esta a través de una sustancia, como consecuencia de la transformación de la energía luminosa en energía interna del medio por el que
se propaga.
La intensidad de la luz que un medio absorbe depende fundamentalmente de los factores siguientes: las características del medio, la frecuencia de la luz que lo atraviesa, el espesor del medio que la luz atraviesa y en
ocasiones de la intensidad de la luz que atraviesa el medio.
La Ley Bouguer formulada en el siglo xviii permite conocer la intensidad
de la luz absorbida por un medio, en dependencia de sus propiedades y
su espesor.

58

CAPÍTULO 1
La expresión matemática de esta ley para medios en los que la absorción no depende de la intensidad de la luz que atraviesa el medio es la
siguiente:
I = I0e–Kl



(1.17)

En esta expresión l es el espesor del medio que atraviesa la luz, K es el
coeficiente de absorción del medio, I0 la intensidad de la luz que penetra
en el medio e I la que sale.
La luz es más absorbida a medida que atraviesa un espesor mayor,
esto es debido a que se encuentra más tiempo interactuando con el
medio (un medio acuático puede ser opaco si su espesor es muy grande, por ello la luz no llega a las grandes profundidades oceánicas) y
también es más absorbida para los medios con mayor coeficiente de
absorción.
El coeficiente de absorción del medio es una magnitud de unidades
inversas de longitud. En el aire, a la presión atmosférica, K es aproximadamente del orden de 10–5 cm–1 y para el vidrio es del orden de 10–2 cm–1. Para
los metales es del orden de 10–4 cm–1.
El coeficiente de absorción además de depender del tipo de sustancia
puede depender de la longitud de onda de la luz incidente, de la temperatura y en las disoluciones de su concentración.
Cuando la luz blanca incide sobre un determinado objeto su coeficiente de absorción es mayor para unos colores que para otros, depende de la
longitud de onda de la luz que atraviesa el medio, y cada color de luz tiene
un rango de longitud de onda determinado. De esta forma hay colores
que se absorben casi totalmente y, por tanto, tienen poca intensidad en la
luz reflejada y otros tienen más. Esta es una de las causas de que veamos
los objetos coloreados. Si el cuerpo es una hoja de papel, esta refleja por
igual todas las longitudes de onda, se observa de color blanco.
¿Qué ocurre cuando pintamos la hoja, por ejemplo, de color rojo?
En este caso la mayor parte de la luz reflejada es la que corresponde
al color rojo, los restantes colores son fuertemente absorbidos por la hoja
pintada. Un vidrio lo visualizamos de color azul, cuando solo transmite
este color los restantes del espectro son absorbidos. Esto permite explicar
los hermosos efectos que se aprecian en los vitrales decorativos .
La explicación microscópica de la absorción de la luz viene dada por las
excitaciones y diferentes movimientos que sufren los átomos y moléculas

59

FÍSICA
de las sustancias al interaccionar la luz con ellas, que son las que absorben
la energía luminosa en última instancia.

Difusión de la luz
Hasta ahora hemos estudiado el paso de la luz en un medio homogéneo y observamos que se mueve en línea recta. ¿Qué le sucederá a la luz al
atravesar un medio no homogéneo?
Cuando la luz atraviesa un medio no homogéneo en general sufre una
curvatura de su trayectoria al no ser que la incidencia en el medio sea perpendicular. Esto es debido a que en este medio el índice de refracción va
variando y, por la Ley de la refracción, cuando la incidencia no es normal
va sufriendo una desviación. Esta curvatura de la trayectoria de la luz hace,
por ejemplo, que la posición en que se ven las estrellas sea aparente, también es la causa de los espejismos y de que el Sol se vea achatado.
Otro fenómeno que ocurre cuando la luz atraviesa una sustancia no
homogénea o heterogénea es la llamada difusión de la luz. La difusión
de la luz es el fenómeno de desviación de un haz luminoso en diferentes
direcciones laterales al propagarse por un medio heterogéneo. Existen dos
tipos de heterogeneidad óptica.
a) Pequeñas partículas extrañas en una sustancia homogénea. En estos
medios llamados turbios se produce el llamado Efecto Tyndall. Este es
el caso cuando observamos mirando lateralmente un rayo de luz que
entra por la ventana de una habitación debido a las heterogeneidades
que producen las partículas de polvo en la habitación.
b) Heterogeneidad óptica debido a la desviación estadística de las moléculas lo que produce fluctuaciones en los valores de la densidad. Este
tipo de difusión se denomina molecular. Esta es la difusión que ocurre
en la atmósfera, aunque esté limpia de polvo.
El físico británico John William Strutt Rayleigh (1842-1919), estableció
que durante la dispersión en un medio turbio con heterogeneidades menores que 0,2 l aproximadamente, así como durante la difusión molecular
la intensidad de la luz difundida es proporcional al inverso de la cuarta
potencia de la longitud de onda. Esto es conocido como la Ley de Rayleigh,
la cual se expresa de la siguiente forma:
I

60

1
(1.18)
4

CAPÍTULO 1
El color azul del cielo se debe a este fenómeno al igual que el color rojo
del Sol poniente. Analicemos como ocurren estos fenómenos.
Cuando la luz blanca proveniente del Sol viaja a través de la atmósfera, va experimentando una desviación lateral debido a la difusión de
la luz. Esta desviación es mayor para los colores violetas y azules, pues
son los que tienen menor longitud de onda y de acuerdo con la Ley de
Rayleigh se desvían más. La combinación de estos colores forma el azul
celeste.
Las bellas tonalidades rojizas de los atardeceres son explicadas debido a que cuando el Sol se está poniendo, el espesor de la atmósfera que tiene que atravesar los rayos de luz es mayor que el que
tienen que atravesar cuando el Sol se encuentra en el cenit o en cualquier otra posición. Por lo tanto, el fenómeno de la difusión de la luz
ocurre a lo largo de una mayor distancia y como consecuencia es mayor la pérdida de las componentes azules y violetas de la luz que llega
directamente a los ojos del observador, que la percibe entonces de un
color rojizo.
La menor difusión que sufre la luz roja en la atmósfera unido a que la
mayor parte de la naturaleza es verde y azul, hace que la luz roja sea la
utilizada en los semáforos y señales de peligro.
Si las partículas en suspensión son grandes comparadas con la longitud
de onda de la luz o esta corresponde a la luz infrarroja con longitudes de
ondas mayores, entonces casi la difusión de la luz no existe. En el primer
caso porque no se cumple la Ley de Rayleigh y la intensidad difundida será
proporcional a l–2 y en el segundo caso porque al aumentar la longitud de
onda, la luz casi no se difunde.
Esto explica por qué el cielo de las ciudades polvorientas o con mucho humo de los carros es blanquecino. Lo mismo sucede cuando hay
niebla que debido al tamaño de las gotas de agua en suspensión se ve
blanco.

Comprueba tus conocimientos
40. ¿Qué es la absorción de la luz?
41. ¿Por qué no llega luz a las grandes profundidades oceánicas?
42. Explica cuál es la causa de la coloración de los objetos por
reflexión.

61

FÍSICA

43. ¿Qué es la difusión de la luz?
44. ¿Por qué el cielo se ve azul?
45. ¿Por qué los atardeceres tienen tonalidades rojizas?

Problemas generales del capítulo
1. Analiza el fenómeno representado en la figura 1.54 y responde:
a) ¿Cuál de los colores posee mayor velocidad dentro del prisma y para
cuál color el prisma posee menor índice de refracción?
b) Si interponemos un filtro amarillo en la zona por donde llega la luz
blanca al prisma de la figura, ¿qué le sucederá al espectro? Explica
tu respuesta.

rojo
naranja
amarillo
verde
azul claro
azul
violeta

PRISMA

Fig. 1.54

2. Se dispone de tres medios de diferente índice de refracción: 1,5;
2,42 y 1,33. Además se dispone de una fuente monocromática de luz
verde.
a) ¿En cuál medio el haz de luz se refractará más? Argumenta tu
respuesta.
b) ¿Disminuirá o aumentará la velocidad de este haz al refractarse en
ese medio? ¿en cuántas veces?
c) ¿Disminuirá o aumentará la longitud de onda de este haz al refractarse en ese medio? ¿en cuántas veces?
d) ¿Se produce alguna variación de la frecuencia de la radiación luminosa, al interactuar con este medio?
Dato: la longitud de onda del color verde es 570 nm.
3. A continuación te mostramos una tabla que ofrece el valor del índice
de refracción del vidrio para diferentes colores:

62

CAPÍTULO 1
Tabla 1.4

Color

n

violeta

1,532

Azul

1,528

Verde

1,519

Amarillo

1,517

Naranja

1,514

Rojo

1,513

a) Si cada uno de estos haces se dirigen formando igual ángulo
de incidencia (como se representa en la figura 1.55), al refractarse en el vidrio, ¿lo harán con igual ángulo? Argumenta tu
respuesta.
Prisma de vidrio
Vacío



i
n

Fig. 1.55

b) Supón que el ángulo de incidencia sea 30º, calcula entonces el
ángulo de refracción que tendrán los haces violeta, verde y rojo. Representa en tu libreta las trayectorias aproximadas en el esquema.
c) ¿Qué velocidad tendrán en el vacío y en el vidrio estos haces
monocromáticos?
d) ¿Cambiará el color de cada uno de estos haces al refractarse en el
vidrio? Argumenta tu respuesta.
4. Explica qué les ocurre a las posiciones de los máximos obtenidos con
una red de difracción si:
a) Aumenta la longitud de onda (λ) de la radiación incidente.
b) Cambiamos la red por otra de mayor período de difracción.

63

FÍSICA
c) Incrementamos la densidad lineal de trazos por unidad de longitud, de la red.
d) Aumenta la distancia de la red a la pantalla.
5. Describe el comportamiento del patrón de interferencia obtenido en
una pantalla a partir del experimento de Young.
a) Si al iluminar con luz monocromática aumenta la separación entre
las rendijas.
b) Se realiza primero con luz azul y luego con luz roja, ¿en qué caso la
separación entre las franjas de interferencia es mayor?
c) Si el espacio entre la pantalla y la doble rendija se rellena con
agua, ¿aumenta o disminuye la separación entre las franjas de
interferencia?
6. Dos rayos luminosos idénticos, cuya longitud de onda es de 500 nm,
se propagan en una misma dirección y se encuentran en un punto en
el cual la diferencia de marcha es de 2,0 · 10–3 mm. ¿Qué se observará
en dicho punto del medio, un máximo o un mínimo? Argumenta tu
respuesta.
7. ¿Qué longitud de onda posee una radiación luminosa que incide sobre una red de difracción si en el patrón se observa que el ángulo
de desviación para el primer máximo es de 30º? El período de la red
es de 1,2 · 10–6 mm.
8. Sobre una red de difracción incide luz monocromática de longitud de
onda λ. ¿Bajo qué ángulo se observará el tercer máximo en el patrón
de difracción si el período de la red es de 6λ?
9. Una onda monocromática de longitud de onda 4,0 · 10–5 mm incide
normalmente sobre una red de difracción de modo que el máximo
de tercer orden está separado un ángulo de 3º respecto al máximo
central.
a) ¿Cuál es el período de la red de difracción?
b) Determina el número de ranuras por centímetro de la red.
10. Sobre una red de difracción incide normalmente un haz de luz monocromática cuyo máximo de tercer orden se observa bajo un ángulo de
20º respecto a la normal. Halla la constante de la red en función de la
longitud de onda de la radiación incidente.
11. Sobre una red de difracción con período 1,2 · 10–3 cm incide normalmente una onda monocromática, ¿cuál será el valor de su longitud de

64

CAPÍTULO 1
onda, si el ángulo entre los espectros de segundo orden y tercer orden
es 2,5º?
12. Determina la distancia entre el máximo de tercer orden y el máximo
central de un patrón de difracción originado en una pantalla por una
radiación de longitud de onda 0,8 mm, si la red posee un período de
0,1 mm y la distancia entre esta y la pantalla es 50 cm.
13. Durante una práctica de laboratorio se hizo pasar luz verde a través de una red de difracción obteniéndose el patrón en una pantalla situada a 20 cm de la red, la distancia medida entre el máximo
de primer orden y el máximo central fue de 1,0 cm. Determina la
longitud de onda de la radiación utilizada. El período de la red es
9,8 · 10 –6 m.
14. Sobre una red de constante 10–4 m incide luz con una longitud de onda
6,0 · 10–7 m. El patrón se observa en una pantalla que dista 1,0 m de la
red. Calcula:
a) Separación lineal entre el segundo y quinto máximo.
b) Separación lineal entre el primer y segundo máximo.
c) Densidad lineal de trazos por milímetro de la red.
15. Cierta red de difracción se ilumina con luz blanca. En el espectro de
primer orden la raya verde (l = 5 100 Å) se observa bajo un ángulo
de 20º. ¿Para qué ángulo se formará en esta red el máximo de segundo orden para el color naranja (l = 6 100 Å)?
16. Sobre cierta red de difracción incide un haz de luz blanca. En el primer
máximo el color azul (l = 4 500 Å) está separado 0,6 cm del máximo
central. ¿Qué longitud de onda tendrá un color que está situado en
este mismo máximo, pero separado 1,0 cm del máximo central?
17. En el experimento de Young los orificios se iluminan con luz monocromática de longitud de onda l = 6,0 · 10–5 cm, la distancia entre ellos
era de 1,0 mm y su distancia hasta la pantalla 3,0 m. Hallar la posición
que tenían las tres primeras franjas brillantes.
18. Incide luz violeta con longitud de onda 6,0 · 10–7 m en una doble ranura y luego llega a una pantalla blanca a 2,0 m de distancia, formando
franjas de interferencia con 1,5 mm de separación. Calcular la separación entre las dos ranuras.
19. Determinar la longitud de onda de la luz que incide sobre una red de
difracción, en cada milímetro de la cual vienen trazadas 400 líneas,
si la red dista 25 cm de la pantalla, resultó que la distancia entre las

65

FÍSICA
terceras líneas a la izquierda y a la derecha respecto al máximo central
es de 27,4 cm.
20. Analiza el siguiente esquema (figura 1.56) al pasar la luz por un sistema de polaroides.
Pantalla

Eje óptico
Eje óptico

90°

Fuente de
luz natural
Polarizador

Cuerpo
traslúcido

Analizador

Fig. 1.56

a) ¿Qué ocurrirá si la sustancia que forma el cuerpo traslúcido fuera
ópticamente activa? Argumenta.
b) ¿Qué ocurrirá si eliminamos dicho cuerpo? Argumenta.

66

CAPÍTULO 2
Introducción a la Teoría Especial y General
de la Relatividad

E

n el libro La evolución de la física (1938), Albert Einstein y Leopold
Infeld señalan que:

La teoría de la relatividad fue una necesidad, consecuencia de serias y profundas contradicciones de la teoría clásica que no parecían tener
solución. El valor de la nueva teoría radica en la consistencia y sencillez con
que resuelve todas estas dificultades utilizando solo algunas hipótesis muy
convincentes… La mecánica clásica es válida cuando las velocidades son
pequeñas y constituyen el caso límite de la nueva mecánica.

 De la Historia
Einstein, uno de los físicos más grandes de todos
los tiempos, nació en Ulm, Alemania. En 1905, a los
26 años de edad, publicó cuatro ensayos científicos
que revolucionaron la física. Dos de estos ensayos se
referían a lo que ahora se considera su aportación
más importante: la teoría especial de la relatividad.
En 1916, Einstein publicó su obra sobre la teoría general de la relatividad. El pronóstico más impresionante de esta teoría es el grado en el cual la luz es
desviada por un campo gravitacional. En 1919, diversos astrónomos realizaron mediciones sobre estrellas
brillantes cerca del Sol eclipsado que confirmaron la
predicción de Einstein, y como resultado el científico
alemán se convirtió en celebridad mundial.
Fig. 2.1 Escultura de A. Einstein en la Facultad de
Física de la Universidad de La Habana

67

FÍSICA
Einstein estaba profundamente preocupado por el perfeccionamiento de la
mecánica cuántica en la década de los veinte, a pesar de su propio papel
como científico revolucionario, en particular, nunca aceptó la probabilista sucesión de eventos en la naturaleza, característica esencial de la teoría cuántica. Dedicó las últimas décadas de su vida a una infructuosa búsqueda de una
teoría unificada que pudiera combinar la gravitación y el electromagnetismo.
Einstein también se destacó por sus manifestaciones sociales de carácter progresista y su enérgico rechazo al uso de la energía atómica con fines militares.

El desarrollo de la denominada teoría especial de la relatividad y, posteriormente, de la teoría general de la relatividad es considerado como uno
de los grandes avances en el conocimiento del mundo físico y despertó,
como nunca antes, un gran interés popular, posiblemente debido a sus
sorprendentes consecuencias, que resultaban contradictorias con nuestra
intuición y sentido común.
Esta teoría fue el primer paso de la gran revolución que experimentó
la Física en el siglo xx e introdujo profundas modificaciones en nuestras
concepciones sobre el espacio, el tiempo, la masa, la energía, y abrió las
puertas del desarrollo energético nuclear y de nuevos campos en la ciencia y la tecnología. Por otra parte, tanto la relatividad especial como la
relatividad general han sido exhaustivamente verificadas y se utilizan con
éxito en los nuevos desarrollos de la ciencia, la tecnología y la ingeniería.

¿Sabías que…?

Fig. 2.2 Placa colocada en la Academia de Ciencias Médicas, Físicas y Naturales
de La Habana, en recordación de la visita de Albert Einstein a la ciudad

68

CAPÍTULO 2

2.1 Velocidad de la luz y sistemas de referencia
Conocemos que la velocidad de la luz en el vacío tiene, muy aproximadamente, el valor c = 3,0 · 108 m/s.
Pero, ¿respecto a qué sistema de referencia se da este valor de la velocidad de la luz? Poder especificar esto tiene una gran importancia pues,
en correspondencia con la mecánica newtoniana, hablar de velocidad
sin indicar el sistema de referencia carece de sentido, vale decir, el valor
antes citado debe estar referido a un determinado sistema de referencia
inercial.
Recordemos que para poder explicar la propagación de las ondas luminosas fue necesario introducir la hipótesis del éter luminífero; de hecho,
este medio sería el marco de referencia absoluto en el cual la luz se propaga con velocidad c y en cualquier otro sistema de referencia inercial que
se mueva respecto al definido por el éter luminífero, la velocidad de la luz
estaría dada por la ley galileana de composición de velocidades.
Puede resultar útil considerar, aunque sea de manera simplificada, qué
implicación tiene la consideración de la hipótesis de la existencia del éter
luminífero en su carácter de sistema de referencia absoluto.
Si la idea de que la luz se propaga con velocidad c respecto al éter luminífero fuera válida y suponiendo que se dispone de un dispositivo para
medir, con suficiente precisión, la velocidad de la luz, entonces, en el caso
de que este dispositivo y la fuente de luz estén en reposo respecto al éter
(sistema de referencia inercial K) como se ilustra en la figura 2.3, el dispositivo registrará una velocidad de la luz igual a c.
y
K
Dispositivo
Pulso de luz
Fuente

v=c
x

Fig. 2.3 Fuente luminosa y dispositivo se encuentran en reposo respecto al
sistema de referencia K que está ligado al éter luminífero

Si el dispositivo se ubica ahora en otro sistema de referencia inercial
que se mueve en relación con el sistema K, ligado a la fuente, como se
indica en las figuras 2.4 a, 2.4 b y 2.4 c, debemos esperar para el valor de

69

FÍSICA
la velocidad de la luz, en correspondencia con la ecuación de composición
de velocidades, los resultados siguientes:
En K’ c’ = c + V en K” c” = c – V en K’” c   c 2  V 2
y




Dispositivo

c

v

Pulso de luz

Fuente

x



a
y



K´´

Dispositivo

c

v

Pulso de luz

Fuente

x



b
y



K´´´

Dispositivo

c
Fuente

Pulso de luz
x

v


c
Fig. 2.4 El dispositivo ubicado en otro sistema de referencia inercial se mueve en
relación con el sistema K: a) K’ se mueve en dirección contraria a la del pulso de
luz; b) K” en la misma dirección; c) K’” en dirección perpendicular

Sin embargo, los resultados de las observaciones y experimentos reales,
equivalentes a esta situación hipotética, indican que:
c = c’ = c” = c”’
O sea, que la velocidad de la luz en el vacío es la misma en todos los
sistemas de referencia inerciales.

70

CAPÍTULO 2
De manera general, por toda una serie de investigaciones y en particular las
realizadas por Michelson-Morley, en 1887, se conoce que la hipótesis del éter
luminífero no es correcta. Puede que el primero en percatarse de la inexistencia
del éter luminífero fuera el físico francés Henry Poincaré (1854-1912) el que, en
1900, expreso: “¿Nuestro éter, realmente existe? Yo no creo que observaciones
más precisas nos puedan revelar algo más que desplazamientos relativos”.
En la comunicación sobre su primer trabajo, para determinar la velocidad de la luz respecto al éter, vale decir, respecto al espacio absoluto como
sistema de referencia privilegiado, Michelson expresó lo siguiente: “El resultado de la hipótesis de la existencia de un éter estacionario demuestra,
por tanto, que es incorrecto”.
La solución de este y otros problemas, por ejemplo, la explicación
del fenómeno de la aberración de la luz de las estrellas, constituyeron,
desde el punto de vista histórico, una de las partes más emocionantes
del desarrollo de la Física, muy estrechamente ligada con otras problemáticas del propio desarrollo de esta ciencia.
Algunos físicos asumieron sin éxito que la dificultad estaba en la ecuación de composición de velocidades, o sea, que esta solo era aplicable a los
fenómenos mecánicos; lo que equivale a decir que, mediante fenómenos
de otra naturaleza, electromagnéticos, por ejemplo, es posible determinar
el estado de un sistema inercial de referencia. Esto conduce a la idea, como
ya fue mencionado, de la existencia de un sistema de referencia absoluto,
cuestión que refutan los experimentos realizados en este sentido.
Otros científicos consideraron, también sin éxito, que la dificultad estribaba en la descripción de los fenómenos no mecánicos que conducían a la
contradicción con la ecuación de composición de velocidades, y que, por lo
tanto, las leyes relacionadas con estos debían ser revisadas.
No fue hasta 1905 que el científico alemán Albert Einstein (1879-1955)
resolvió satisfactoriamente esta contradicción. En el siguiente epígrafe
examinaremos las sorprendentemente sencillas y profundas ideas de Einstein en este sentido.

 De la historia
El experimento más famoso diseñado para detectar pequeños cambios en
la rapidez de la luz fue realizado primero en 1881 por Albert A. Michelson y
después repetido en diversas condiciones por Michelson y Edward W. Morley
(1838-1923). El experimento fue diseñado para determinar la velocidad de la
Tierra respecto a la del hipotético éter. La herramienta experimental empleada

71

FÍSICA
fue el interferómetro de Michelson (figuM1
ra 2.5). El brazo 2 está alineado a lo largo
de la dirección del movimiento de la Tierra
Viento de éter
Brazo 1
en el espacio. La Tierra, que se mueve por el
v
éter a una rapidez v, es equivalente al éter
que circula junto a ella en dirección opuesta
con rapidez v. Este viento de éter que sopla
M0 Brazo 2
en la dirección opuesta a la del movimiento Fuente
M2
de luz
de la Tierra debe hacer que la rapidez de
la luz, medida en el marco de la Tierra, sea
c – v cuando la luz se aproxima al espejo M2
y c + v después de reflejarse, donde c es la
rapidez de la luz en el marco de éter.
Telescopio
Los dos haces luminosos se reflejan en M1
y M2 y se recombinan y se forma un patrón
de interferencia, que se observa mientras
el interferómetro se hace girar un ángulo
de 90°. Esta rotación intercambia la rapidez del viento de éter entre los brazos
Fig. 2.5
del interferómetro. La rotación debe hacer que el patrón de franjas se desplace en forma ligera pero mensurable.
Sin embargo, ¡las mediciones no mostraron ningún cambio en el patrón de
interferencia! El experimento de Michelson-Morley se repitió en tiempos
diferentes del año cuando se esperaba que el viento de éter cambiara de
dirección y magnitud, pero los resultados siempre fueron los mismos: jamás
se observó desplazamiento alguno de franja de la magnitud requerida.

Comprueba tus conocimientos
1.

¿Está la ley de composición de velocidades en correspondencia con
los resultados que se obtienen al medir la velocidad de propagación
de la luz en el vacío desde distintos sistemas de referencia inerciales?
Explica tu respuesta.

2.2 Postulados de la teoría especial
de la relatividad de Einstein
El análisis profundo de todo el material experimental y teórico existente a principios del siglo xx llevó a Einstein a revisar los conceptos fundamentales de la física clásica, en particular los conceptos tiempo y espacio
existentes en esa época.

72

CAPÍTULO 2
Del estudio teórico realizado, Einstein elevó a la categoría de postulados, para desarrollar su teoría, los hechos que todo el material experimental confirmaba. Esos postulados fueron los siguientes:
• Todos los sistemas de referencia inerciales son físicamente equivalentes
con respecto a todas las leyes de la física.
• La velocidad de la luz en el vacío posee siempre el valor constante c.
El primero de los postulados es la generalización a todos los fenómenos
físicos, sobre la base del material experimental acumulado, del hecho de
que todos los sistemas de referencia inerciales son equivalentes desde el
punto de vista mecánico. Esto quiere decir que no es posible determinar si
un sistema de referencia está en reposo o en movimientos rectilíneos uniformes mediante la realización de experimentos mecánicos electromagnéticos, térmicos u otros.
El otro postulado es la adopción de un hecho comprobado experimentalmente: la velocidad de la luz en el vacío es independiente del estado de
movimiento de la fuente. Este postulado solo en apariencia contradice al
primero, pues no contradice el principio mecánico de la relatividad, sino
que, como veremos a continuación, conduce a una variación sustancial de
los conceptos espacio y tiempo establecidos en la mecánica newtoniana.

Comprueba tus conocimientos
2.

Plantea los postulados de la teoría de la relatividad de Einstein.

2.3 Relatividad de los intervalos temporales
Analicemos la modificación del concepto tiempo mediante un experimento mental muy simple. Para ello utilizaremos un dispositivo con dos espejos separados una distancia d, entre los cuales marcha un pulso de luz o
destello luminoso de muy corta duración (figura 2.6). Si Dt es el intervalo de
tiempo que la luz demora en ir de un espejo al otro tendremos que: d = cDt
Espejo superior
d = cΔt

Espejo inferior
Fig. 2.6

73

FÍSICA
Consideremos ahora que el sistema de espejos se encuentra en reposo
en un sistema de referencia inercial K’ que se mueve con velocidad de valor V respecto a otro K como se representa en la figura 2.7.
yK

y´K´

y´K´

y´K´

D

D

V

d

V

V
3

3


x = VΔt

1

2

x

Fig. 2.7

Respecto al sistema de referencia inercial K la distancia 2D que debe
recorrer el pulso de luz para ir del espejo inferior al superior y regresar al
inferior será mayor que la distancia 2d que debe recorrer el pulso de luz
respecto al sistema de referencia K’, pues en el sistema K’, durante el tiempo Dt que emplea el pulso de luz en su recorrido, el dispositivo se desplaza
una cierta distancia x = VDt.
Si tomamos ahora en consideración que la velocidad de la luz debe
ser siempre la misma (c), el intervalo de tiempo Dt, en que el pulso de luz
realiza el recorrido, medido respecto al sistema de referencia K (utilizando
relojes debidamente sincronizados), será mayor que el intervalo de tiempo
Dt en que el pulso realiza el recorrido respecto al K’ (medido utilizando el
reloj 3).
La relación entre los tiempos Dt y Dt se puede obtener fácilmente desde
el punto de vista geométrico, pues en la figura 2.7 es posible establecer,
según el teorema de Pitágoras, la relación:
(cDt)2 = (VDt)2 + (cDt’)2
de la cual, agrupando los términos convenientemente, se obtiene que:
Dt2 (c2 − V 2) = c 2Dt’

74

2

CAPÍTULO 2
Dividiendo toda la expresión por c2 nos queda que:
 V2 
t 2  1 2   t ’2
c 

De donde, despejando Dt se obtiene que:
t 

t ’
V2
1 2
c

(2.1)

Esta ecuación expresa matemáticamente que el intervalo de tiempo
entre dos sucesos o lo que es lo mismo, la duración de un fenómeno cualquiera, depende del sistema de referencia inercial respecto al cual se mide,
resultado este que está en plena correspondencia con los resultados de
experimentos reales.
El intervalo de tiempo entre dos acontecimientos que ocurren
en un punto de un sistema de referencia inercial, registrado
por un reloj que permanece en reposo respecto a dicho sistema (que en lo adelante denominaremos tiempo propio), es
mayor si se mide con los relojes de otro sistema de referencia inercial que se mueve con velocidad de valor V respecto al
primero.
Resulta importante destacar que:
• Para un reloj en reposo respecto al sistema de referencia K de la figura 2.7 la situación es completamente análoga. En relación con el sistema de referencia K’, este reloj en el dispositivo se mueve con velocidad
de valor V en el sentido negativo del eje de las x, y medido desde él,
el pulso de luz empleará un tiempo Dt’ en realizar el recorrido, mayor
que el Dt medido desde el sistema de referencia K. En esta situación, se
tendrá que:
t ’ 

t
V2
1 2
c

(2.2)

• Entre la ecuación 2.2 y la 2.1 no hay ninguna contradicción; ellas
simplemente expresan lo ya planteado: el tiempo propio, es decir,
el medido desde el sistema respecto al cual el reloj está en reposo,

75

FÍSICA
es menor que el medido desde un sistema respecto al cual el reloj se
mueve.
• El carácter relativo de los intervalos temporales no viene dado por la
naturaleza del reloj, sino por el hecho de que la velocidad de la luz en
el vacío es independiente del movimiento de la fuente. O sea, la relatividad de los intervalos temporales es una consecuencia de un hecho experimentalmente verificado y tiene, por tanto, un carácter plenamente
real.
• La relación 2.1 indica, además, que la diferencia entre Dt y Dt’ no es
apreciable si V << c. Por ello, en el dominio de los fenómenos analizados por la mecánica de Newton, no se pone de manifiesto la relatividad
de los intervalos temporales.
Esto último se puede comprobar fácilmente mediante un ejemplo:
para una velocidad v = 8 km/s (primera velocidad cósmica) tendremos que:
V2
 7, 0  1010
2
c
y:
 V2 
 1  2   0, 99999993  1
c 

Por lo que, en este caso, Dt ≈ Dt’.
• Un elemento implícito en nuestro análisis de la relatividad de los intervalos temporales y al que, antes de la teoría de la relatividad de Einstein, no se le prestaba atención, es el de la sincronización de los relojes.
Analicemos brevemente este aspecto.
Si se dispone de un reloj en un lugar donde ocurran, por ejemplo, dos
sucesos es fácil determinar con buena aproximación si son simultáneos o
no. Pero si los sucesos ocurren en diferentes lugares, es preciso disponer de
dos relojes exactos debidamente sincronizados.
Einstein formuló las reglas para sincronizar los relojes mediante
señales luminosas. Uno de los procedimientos más simples para sincronizar relojes es el siguiente: si los relojes están colocados en las
coordenadas x1; x2; …xn (figura 2.8), basta, que el primer reloj (el de
coordenada x 1) se ponga en marcha, un dispositivo emita un pulso de
luz que al alcanzar a los demás relojes (los cuales deben estar indicando los tiempos:

76

CAPÍTULO 2
t0 = 0

t2 =

x1

x2

x2

c

x1

t3 =

x3
c

x3

x1

tn =

xn

c

x1

xn

Fig. 2.8

(t2 

x  x1
x2  x1
x  x1
; t3  3
) , los ponga en funcionamiento.
;…; tn  n
c
c
c

Como del carácter absoluto de los intervalos temporales se deriva el
carácter absoluto de los intervalos espaciales, es lógico pensar que, si los
intervalos temporales no son absolutos tampoco lo serán los espaciales. En
el próximo epígrafe examinaremos este aspecto.

 Saber más
La paradoja de los gemelos
La relatividad de los intervalos temporales, expresada mediante las ecuaciones 2.1 y 2.2, conduce a una aparente paradoja, que ha sido muy divulgada:
la paradoja de los gemelos.
Examinemos brevemente en qué consiste esta paradoja. Considera dos gemelos idénticos e imagina que uno permanece en la Tierra y el otro emprende un viaje a una galaxia lejana, con una rapidez cercana a la de la luz. El
que quedó en Tierra “observa” que todos los procesos vitales de su hermano transcurren más lentamente, en general y en consecuencia, al regreso
será más joven que su hermano “terrestre”.
Sin embargo, el gemelo en la nave “observa” lo mismo para su hermano en Tierra y será su hermano el que ha envejecido menos. En esto consiste la paradoja.
El problema radica en que hay que tener en cuenta que el gemelo que quedó
en la Tierra permanece en un sistema de referencia aproximadamente inercial todo el tiempo, mientras que el salió de viaje debe acelerar para partir,
dar la vuelta y regresar, de manera que existe una diferencia física real y no es
válido considerar que ambos puedan hacer la misma descripción del proceso.
Un análisis detallado indica que, en efecto, el gemelo que salió de viaje regresaría más joven que su hermano que quedó en la Tierra.
Debemos añadir que en un analisis completo de este proceso es necesario tomar
en consideración la aceleración, propiamente dicha, también influye en la “marcha” del tiempo, como veremos en el acápite dedicado a la relativdad general.
Este efecto, ha sido comprobado experimentalmente mediante relojes atómicos colocados en aviones.

77

FÍSICA

Comprueba tus conocimientos
3.

Plantea e interpreta las relaciones que expresan matemáticamente
el hecho de que los intervalos temporales dependen del sistema de
referencia inercial desde el cual se miden.

4.

¿Por qué en el dominio de la mecánica newtoniana no se pone de
manifiesto la relatividad de los Intervalos temporales?

5.

Analiza críticamente el siguiente planteamiento: “la relatividad de
los intervalos temporales viene dada por la naturaleza del reloj utilizado para medirlos”.

2.4 Relatividad de los intervalos espaciales
Consideremos los sistemas de referencia inerciales K y K’, tales que
K’ se mueve respecto a K con velocidad de valor V en el sentido positivo
del eje de las x. En K’ medimos un intervalo de longitud Dx’ = x’2 − x’1
(figura 2.9).
y
K



V


x´1

x´2


x

A
Fig. 2.9

Supongamos que en el eje de las x del sistema K hacemos una marca A,
y junto a ella colocamos un reloj. Según este reloj calculamos el tiempo Dt
en el cual el intervalo Dx’ pasa por la marca A. Entonces desde el sistema
de referencia K la longitud del intervalo se puede calcular a partir de la
ecuación:
Dx = VDt (2.3)
Analicemos ahora la situación desde el sistema K’. Aquí, es el reloj A el
que se mueve con velocidad V en el sentido negativo del eje de las x’, y el
tiempo transcurrido para que el reloj pase del extremo de coordenada x’2
al de coordenada x’1 será Dt’.

78

CAPÍTULO 2
Si tenemos en cuenta que desde este sistema la longitud del intervalo
Dx’ se puede calcular mediante la ecuación:
Dx’ = VDt’ (2.4)
y que entre el tiempo propio del reloj (Dt) y Dt’ existe la relación dada
por la ecuación 2.2, podemos entonces, sustituyendo 2.4 en 2.2, expresar
Dx’ en función del tiempo propio Dt mediante la ecuación:
x ’ 

V t
1

V2
c2

Como Dt = Dx/V, podemos escribir que:
x ’ 

x

V2
c2
De donde nos queda que:
1

x  x ’ 1 

V2
(2.5)
c2

La relación 2.5 expresa matemáticamente que también la longitud de
los intervalos espaciales depende del sistema de referencia inercial desde
el cual se mide.
La distancia entre dos puntos, medida en un sistema de referencia en
el cual dichos puntos estén en reposo (que llamaremos longitud propia),
es mayor que la medida desde otro sistema inercial que se mueva con una
velocidad V respecto al anterior.
También en este caso es importante destacar que:
• La situación sería totalmente análoga si en el sistema de referencia K’
medimos un intervalo de longitud D = x2 − x1. Es decir, desde el sistema
K’ la longitud de este intervalo sería 1 − V 2 / c 2 veces la medida desde
el sistema de referencia K.
Se puede plantear, pues, que la longitud propia de un intervalo es siempre mayor que su longitud medida desde un sistema de referencia inercial en movimiento.
• El carácter relativo de los intervalos espaciales es una consecuencia de la
relatividad de los intervalos temporales y, por tanto, del hecho de que
la velocidad de la luz es independiente del movimiento de la fuente.

79

FÍSICA
• La relación entre Dx y Dx’ permite apreciar con facilidad por qué en la
mecánica newtoniana se considera que los intervalos espaciales no dependen del sistema de referencia, pues para V << c se tiene que Dx ≈ Dx’
(figura 2.10).
La relatividad de los intervalos temporales y espaciales se ha comprobado en múltiples experimentos en forma directa. Uno de estos experimentos se describe en el epígrafe 2.8.

Δ x´
Δx

1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

V2
0

0,2

0,4

0,6

0,8

1

C2

Fig. 2.10

Comprueba tus conocimientos
6.

Plantea e interpreta las relaciones que expresan matemáticamente
el hecho de que los intervalos espaciales dependen del sistema de
referencia inercial desde el cual se midan.

7.

¿Por qué en el dominio de la mecánica newtoniana no se pone de
manifiesto la relatividad de los intervalos espaciales?

2.5 Relatividad de la simultaneidad
Otra consecuencia importante derivada de los postulados de la teoría
de la relatividad de Einstein es la del carácter relativo de la simultaneidad
de dos sucesos. Es decir, dos sucesos, que ocurren en puntos diferentes,
pueden ocurrir en el mismo instante respecto a un determinado sistema
de referencia, y en instantes distintos para otros sistemas de referencia.

80

CAPÍTULO 2
Aunque la relatividad de la simultaneidad puede inferirse directamente del carácter relativo de los intervalos temporales, y viceversa, resulta
conveniente analizar este asunto más detenidamente.
Examinemos el siguiente experimento mental: tenemos un sistema de
referencia K relacionado con la Tierra y otro K’, relacionado con un tablón
que se mueve con velocidad de valor V en el sentido positivo del eje x
(figura 2.11). Supongamos que dos observadores situados en los puntos
M y M’, ven que en cada uno de sus sistemas ocurren dos sucesos (por
ejemplo, dos explosiones que provocan destellos luminosos) que dejan
marcas permanentes en los puntos A, A’, B y B’. Posteriormente, mediante mediciones, cada observador determina que se encontraba localizado
exactamente en el punto medio de las marcas dejadas por los sucesos en
su sistema de referencia.
Si los destellos provocados por las explosiones llegan en el mismo instante de tiempo, es decir, simultáneamente al punto M, los sucesos ocurridos en A y B son simultáneos en su sistema de referencia K.
yK

y´K´

V








A

M

B

x

Fig. 2.11

Sin embargo, al punto M’ llegará primero el destello emitido desde B’
pues recorre menos distancia para llegar que el emitido en el punto A’, y
las velocidades de propagación son Iguales (c). Por tanto, estos sucesos no
serán simultáneos para un observador en el punto M’ del sistema K’ para
el cual primero ocurre el suceso en B’ y después el suceso en A’.
Si K’ se mueve con velocidad de valor V en el sentido negativo del eje
de las x, desde este sistema de referencia, primero ocurrirá el suceso en A’
y después en B’.

81

FÍSICA
Tenemos, pues, que la simultaneidad tiene un carácter relativo: acontecimientos simultáneos en un sistema pueden no serlo en otro sistema.
El carácter relativo de la simultaneidad no se pone de manifiesto en la
mecánica newtoniana, pues en este caso las velocidades son muy pequeñas en comparación con la de la luz (V << c), y es posible considerar que la
luz se propaga prácticamente en forma instantánea. En tal caso, por ejemplo, un observador en el punto M y otro en el punto M’ no apreciarían
diferencia en la llegada de los destellos luminosos.
Resulta conveniente aclarar que la relatividad de la simultaneidad, que
se deriva directamente de los postulados de la relatividad de Einstein, no
significa que se puedan violar las relaciones de causa y efecto entre determinados fenómenos.
Si dos sucesos A y B son simultáneos en un sistema, ellos no pueden
guardar relación causal y, por tanto, es posible que en otro sistema primero ocurra el suceso A y después el B, o viceversa. Cuando dos sucesos
guardan relación causal, por ejemplo, el disparo de un fusil y la posterior
marca en la diana, estos sucesos no pueden ser simultáneos en ningún
sistema de referencia. En este caso, el intervalo de tiempo entre los dos
sucesos depende del sistema de referencia, pero en todos ellos siempre se
registrará primero el “suceso-causa”, y después el “suceso-efecto”.

Comprueba tus conocimientos
8.

¿La simultaneidad de dos sucesos depende del sistema de referencia? Explica tu respuesta.

2.6 Ecuación de composición de velocidades
en la relatividad de Einstein
La ecuación de composición de velocidades que está en correspondencia con los postulados de la teoría de la relatividad de Einstein (cuya deducción está fuera del alcance de este libro), es la siguiente:
v ´x  V
(2.6)
Vx´ · V
1 2
c
Debemos notar que en el caso particular en que V << c y v’x << c, la
ecuación 2.6 adopta la forma:
vx 

vx = v’x + V

82

CAPÍTULO 2
que es la ecuación de composición de velocidades obtenidas en la mecánica newtoniana.
En el caso en que v’x = c, tendremos que:

c V
c  V c c  V 
c


c ·V
V
c V
1 2
1
c
c
Lo que corresponde con el hecho experimental de que la velocidad de
la luz en el vacío es siempre c.
En el caso en que además de v’x = c, se tenga que V = c. el resultado será
el mismo:
c c
2c
vx 

c
c · c 1 1
1 2
c
La ecuación de composición de velocidad 2.6 se comprueba directamente en forma experimental. En particular los resultados que obtuvo Fizeau en 1851 (y que después fueron confirmados por Michelson,
Morley y Zeeman) sobre el cálculo de la velocidad de la luz cuando esta
se propaga a través de una columna de agua en movimiento rápido
respecto a un observador en la Tierra, coinciden perfectamente con los
de esta ecuación.
Un esquema del dispositivo que permite determinar la velocidad de la
luz en el agua en movimiento se representa en la figura 2.12. El espejo
semiplateado A divide en dos el haz de luz Incidente que proviene del
foco S (línea continua y línea de puntos), de manera que cada uno de ellos
atraviesa el dispositivo en sentido contrario y se reúnen a la entrada del
equipo E, que permite determinar cuál ha sido la velocidad de la luz a través del líquido en movimiento.
vx 

Entrada del agua

S
A

E

Salida del agua
Fig. 2.12

83

FÍSICA

Comprueba tus conocimientos
9.

Plantea la ecuación de composición de velocidades que se obtiene a
partir de la teoría especial de la relatividad y argumenta si está de
acuerdo con los resultados experimentales.

2.7 La energía y la cantidad de movimiento lineal
en la Teoría Especial de la Relatividad
No debemos finalizar nuestro estudio elemental de la teoría especial
de la relatividad de Einstein sin referirnos a los conceptos energía y cantidad de movimiento lineal, básicos en la mecánica, pues están ligados
a las consecuencias de mayor interés teórico y práctico de la relatividad
especial.

Energía
Como es conocido, en la mecánica newtoniana, la energía cinética de
una partícula se relaciona con su velocidad según la ecuación:
Ec =

1
mv 2
2

de donde se puede concluir que:
2
EC
m
Esta ecuación representa el hecho de que el cuadrado de la velocidad
de una partícula debe aumentar linealmente con el incremento de la energía cinética.
¿Qué muestran los experimentos en este sentido?
En la gráfica representada en la figura 2.13 se indica, mediante una
línea discontinua, el resultado que debe esperarse en correspondencia
con la mecánica newtoniana, y con una curva continua el resultado de
los experimentos. Esta gráfica indica que las predicciones de la mecánica newtoniana son completamente válidas en el dominio de las “pequeñas velocidades”, pero no a velocidades cercanas a la de la luz en
el vacío. Los experimentos dan por resultado de que por mucho que se
incremente la energía cinética de una partícula, su velocidad al cuadrado no puede ser mayor que 9,0 · 1016 m2 / s2 o lo que es lo mismo, que
su velocidad no puede alcanzar el valor de la velocidad de la luz en el
vacío (c = 3,0 · 108 m/s).
v2 =

84

CAPÍTULO 2
v2 (1016 m2/s2)
9,0

0,0

Ec(MeV)
0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0
Fig. 2.13

¿Cuál es entonces la relación correcta entre Ec y V 2?
La gráfica de la figura 2.13 se puede dibujar también de la siguiente forma: en el eje vertical se representa Ec y en el horizontal, por comodidad, la
relación V/c. Entonces se obtienen las gráficas de la figura 2.14. Que también
evidencian que la velocidad límite permisible es la que corresponde a la luz.
Ec(MeV)

Comportamiento
relativista

1,50
1,25
1,00
0,75
0,50

Comportamiento
no relativista

0,25
0,00

V/c
0,2

0,4

0,6

0,8

1,0

Fig. 2.14

La ecuación que representa correctamente la relación experimental entre la energía cinética y la velocidad de una partícula, que ofrecemos sin
demostración, es la siguiente:




1
2
Ec  mc
 1 (2.7)


V2

 1 2
C



85

FÍSICA
La ecuación 2.7 conduce, para velocidades “pequeñas”, al resultado
previsto por la mecánica newtoniana:
1
mv 2
2
La ecuación 2.7 tiene además un significado físico más profundo; para
analizar esto, rescribámosla de la siguiente forma:
Ec =





1

Ec  mc 2  

V2 
 1 2 
C 

El término mc2, que no depende de la velocidad, recibe el nombre de
energía en reposo, E0 y la suma Ec + mc2, energía total, E. De acuerdo con
esto:
E  E0  Ec 

mc 2
V2
1 2
c

(2.8)

En el caso de un cuerpo en reposo respecto a cierto sistema de referencia, tendremos que:
E = E0 = mc2 (2.9)
La energía de un cuerpo en reposo es igual al valor de su masa
multiplicado por el cuadrado de la velocidad de la luz.
Por otra parte, si el cuerpo se mueve con velocidad de valor V respecto
al sistema de referencia considerado, su energía cinética se interpreta en
la teoría especial de la relatividad como la diferencia entre la energía total
y la energía en reposo:
Ec = E − E0 (2.10)
Resulta importante señalar que la ecuación 2.9 no significa que la masa
y la energía sean conceptos equivalentes. Ella solo revela la estrecha relación existente entre las magnitudes masa y energía.
La ecuación 2.9, establecida por la teoría especial de la relatividad,
ha desempeñado un importantísimo papel en la ciencia, en particular, en el ámbito de la física del núcleo atómico, como veremos más
adelante.

86

CAPÍTULO 2
Cantidad de movimiento lineal
Recordemos que, en la mecánica newtoniana, la cantidad de movimiento lineal de una panícula se define mediante la ecuación:


p = mV (2.11)
 
De acuerdo con la segunda ley de Newton, p  F t, donde Dt es el

tiempo durante el cual actúa la fuerza F sobre la partícula. Por lo tanto,
aplicando esta fuerza durante un tiempo suficientemente grande, la partícula puede adquirir una cantidad de movimiento tan grande como se
desee y, consecuentemente, su velocidad puede alcanzar cualquier valor,
incluso mayor que c.
Como ya conocemos que esto no es posible, la ecuación 2.11 tiene
también que ser modificada. Experimentalmente se ha comprobado que
la relación entre el valor de la cantidad de movimiento lineal y de la velocidad de una partícula tiene la forma que se muestra en la gráfica de
la figura 2.15.
p (MeV/c)
1,50
1,25
1,00
0,75
0,50
0,25
0,00

V/c
0,2

0,4

0,6

0,8

1,0

Fig. 2.15

La ecuación que corresponde a esta gráfica, la cual daremos sin demostración, es:
p

mV
V2
1 2
C

(2.12)

87

FÍSICA
Como puede apreciarse fácilmente en esta ecuación, si V << c entonces
p = mV, como se establece en la mecánica newtoniana.
Las ecuaciones 2.9 y 2.12 sugieren que la energía y la cantidad de movimiento lineal están íntimamente relacionadas. En efecto, si en ambas
ecuaciones despejamos el término del denominador e igualamos ambos
resultados, se obtiene que:
mc 2 mV
=
E
P
De donde:
E V
(2.13)
c2
La utilidad de esta ecuación se pondrá de manifiesto cuando estudiemos la teoría cuántica de la luz y de la sustancia, en los próximos capítulos.
p

Comprueba tus conocimientos
10. ¿Cuál es el significado físico de la ecuación E = mc2?
11. Plantea e interpreta la ecuación relativista que define la cantidad de
movimiento lineal de una partícula.

2.8 Un experimento con los mesones m
Las predicciones de la teoría especial de la relatividad se han comprobado en un gran número de hechos experimentales, y en la actualidad no
existen dudas en cuanto a su validez.
Uno de estos experimentos es el relacionado con la observación del
carácter relativo de los intervalos temporales y espaciales, mediante la
observación de los mesones m originados en las altas capas de la atmósfera. Analicemos, de manera muy simplificada, en que consiste dicho
experimento.
Los mesones m son partículas fundamentales cargadas que, como estudiarás en el capítulo 5, se desintegran en otras partículas fundamentales
en un tiempo muy corto, aproximadamente 2,0 · 10–6 s (tiempo propio).
Los mesones m originados bajo la Influencia de los rayos cósmicos en las
altas capas de la atmósfera (aproximadamente a 9 km de altura), atraviesan radialmente la atmósfera terrestre con una velocidad de aproximadamente 0,998 c y pueden ser detectados al nivel del mar.

88

CAPÍTULO 2
Calculemos la distancia que pueden recorrer esos mesones bajo el supuesto de que se desintegran en 2,0 · 10–6 s:
d = vDt = (0,998)(3,0 · 108 m/s) (2,0 · 10–6 s)
d = 598 m
¿Cómo explicar entonces que estos mesones se detecten al nivel del
mar después de haber recorrido aproximadamente 9 000 m?
Para los observadores respecto a los cuales los mesones tienen una velocidad de 0,998 c, el tiempo en que estos tardan en desintegrarse se puede calcular a partir de la ecuación:
t 

t ’

V2
c2
donde Dt’ es el tiempo en que tardan en desintegrarse en el sistema
respecto al cual se consideran en reposo:
1

Dt’ = 2,0 · 10–6 s
Por lo tanto:
t 

2, 0  106 s

 0, 998 c 

2

1

 3,17  105 s

c2
En ese intervalo de tiempo, los mesones pueden recorrer una distancia:
m

d  v · t   0, 998   3, 0 · 108  · 3,17 · 105 s
s

d = 9 9941 m
lo cual permite explicar satisfactoriamente la pregunta anterior.
Se podrá objetar que el análisis realizado es válido para los observadores respecto a los cuales se mueve el mesón, pero ¿qué sucede en un sistema de referencia ligado al mesón? En este sistema el mesón se encuentra
en reposo y, por tanto, el tiempo en que se desintegra sería aproximadamente de 2,0 · 10–6 s. De manera que para este observador no podría recorrer la distancia que lo separa de la superficie terrestre al nivel del mar lo
que también resulta contradictorio. Realmente, no hay tal contradicción
a la luz de la teoría especial de la relatividad. Para un observador en el
sistema de referencia ligado al mesón, la superficie de la Tierra se acerca
con una velocidad de 0,998 c. De modo que, para dicho observador, la

89

FÍSICA
distancia y entre la superficie de la Tierra y las capas altas de la atmósfera
está dada por:
v2
c2
Considerando que y’ = 9 000 m, se tiene que:
y  y  1

 0, 998 c 

2

y  9000 m 1 

c2

y = 587 m
Que es una distancia inferior a los 598 m que puede recorrer el mesón
antes de desintegrarse.

 Saber más
El primer experimento para observar la relatividad del tiempo y de la longitud mediante mesones de rayos cósmicos fue realizado, en 1941, por B.
Rossi y D.B. Hall. Ellos contaron la llegada de un promedio de 563 muones
en una hora, a una altura próxima a los 2 000 m (en la cima del monte Washington), y en el recuento a nivel del mar la cifra promedio, en una hora,
fue de 412 y no de 27 como era de esperar.
Una detallada descripción de este experimento se da en la película que fue
posteriormente filmada. Se puede acceder a ella en la dirección:
https://www.soloentendidos.com/dilatacion-tiempo-experimento-meson-mu-1950.

Comprueba tus conocimientos
12. ¿Cómo se explica que un observador en la Tierra pueda detectar los
mesones, que se forman a 9,0 km de altura y se desintegran al cabo
de 2,0 · 10–6 s, puedan llegar hasta el nivel del mar?

2.9 Relatividad general
La diferencia fundamental entre la relatividad general o teoría general de la relatividad y la teoría de la relatividad especial, radica en que la
relatividad especial, formulada por Albert Einstein, en 1905, se centra en
describir el comportamiento de objetos con velocidades cercanas a la de
la luz desde sistemas de referencia inerciales y la relatividad general, presentada por Einstein en una serie de artículos desde 1915, abarca los sistemas acelerados y describe la gravedad no como una fuerza sino como una
curvatura del espacio-tiempo, una entidad de cuatro dimensiones (tres

90

CAPÍTULO 2
espaciales y una temporal) que se deforma por la presencia de los cuerpos
(su masa/energía).
Si bien el estudio de la relatividad general requiere de formulaciones matemáticas que normalmente se tratan en cursos universitarios
especializados, conocer sus fundamentos de manera cualitativa resulta
importante para la cultura de todas las personas, en particular, para
entender el universo y el desarrollo de muchas nuevas tecnologías. En
la actualidad, la relatividad general ha sido una de las teorías más divulgadas en los medios de comunicación como consecuencia de los descubrimientos relacionados con agujeros negros, ondas gravitacionales
y otros.
Conocer los fundamentos de la relatividad general, algunos de sus conceptos esenciales, efectos y aplicaciones prácticas, de forma cualitativa, es
el objetivo esencial de este apartado.
Fundamentos de la relatividad general
Podemos decir, de manera simplificada, que la Teoría General de la Relatividad se basa en los principios siguientes:
El principio de equivalencia: establece que la aceleración gravitatoria
es indistinguible de la aceleración experimentada en un sistema de referencia no inercial.
La curvatura del espacio-tiempo: consiste en la propuesta de que la
gravedad no es una fuerza en el sentido que establece la mecánica
newtoniana, sino que es una consecuencia de que la geometría de lo
que se llama el continuo espacio-tiempo tiene una curvatura que depende de la presencia de los cuerpos (su masa/energía).
El principio de covarianza: establece que las leyes de la física deben
tener la misma forma matemática en todos los sistemas de referencia,
lo que constituye una generalización de lo que se considera en la relatividad especial, en la que solo se consideran los sistemas de referencia
inerciales.
Podemos tener una primera idea del significado del principio de equivalencia mediante el análisis de la situación siguiente:
Consideremos un observador que se encuentra dentro de un elevador
en reposo, respecto a la superficie de la Tierra, que deja caer su portafolio.
En estas condiciones, como sabemos, la aceleración de caída del portafolio
tendrá el valor g (figura 2.16 a).

91

FÍSICA
En el caso de que el elevador, con el observador, este situado en una
región donde la aceleración gravitatoria se pueda considera nula y se esté


moviendo con aceleración a = g como se representa en la figura 2.16 b, al
dejar caer el portafolio, el observador registrará que la aceleración de caída del portafolio también tendrá el valor g, es decir que detecta lo mismo
que se describió en caso representado por la figura 2.16 a. Esto indica que
el observador no puede distinguir si el sistema este reposo en presencia de
del campo gravitatorio de la Tierra, o está en movimiento acelerado con

aceleración g .

a

g

Fig. 2.16

Por otra parte, esta equivalencia hubiera sido importante pero no
revolucionaria, si fuera solo válida para fenómenos mecánicos. Pero
en el planteamiento de Einstein la equivalencia es válida para todo
tipo de fenómenos. Analicemos entonces, como en el caso de un fenómeno no mecánico se llega a la misma conclusión. En otras palabras, tratemos de ilustrar el significado del principio de covarianza
generalizado.
Consideremos ahora que el observador que está en el elevador, en el
caso que se acelera hacia arriba en una región donde la gravedad es nula,
proyecta un rayo de luz en dirección horizontal sobre la pared del elevador. En esta situación, el observador detecta que el rayo de luz se curva
hacia abajo (figura 2.17 a).

92

CAPÍTULO 2
La propuesta de Einstein es de que si el elevador se encuentra en reposo respecto a Tierra (figura 2.17 b), el campo gravitatorio doblará el haz de
luz de manera que la trayectoria descrita tendrá la misma forma que en el
caso representado en la figura 2.17 a.

a

g

Fig. 2.17

La masa de la Tierra no es lo suficientemente grande para doblar un
haz de luz de manera apreciable, pero, por ejemplo, en el caso de que la
luz procedente de las estrellas, Einstein predijo que al pasar cerca del Sol
se desviarían un ángulo de 1,75 segundos (figura 2.18). Esta desviación se
comprobó experimentalmente por primera vez durante el eclipse total en
1919 y desde esa fecha se ha vuelto normal repetir esta medición durante
los eclipses totales de Sol.
Dirección aparente
a la estrella

Trayectoria desviada de
la luz de una estrella

1,75´´
Sol

Tierra

Luz de una estrella
(dirección real)

Fig. 2.18

93

FÍSICA

 De la historia
El eclipse solar de 1919 y la teoría especial de la relatividad
Durante un eclipse solar total, la Luna bloquea la luz del Sol hacia la Tierra,
permitiendo que las estrellas que están en una dirección cercanas a la del
Sol sean visibles en pleno día. Esta situación permite observar cómo la gravedad afecta la luz al pasar cerca de un objeto masivo, como el Sol.
En el año 1919, durante un eclipse solar, se llevó a cabo un experimento
revolucionario que confirmó la Teoría General de la Relatividad propuesta
por Albert Einstein en 1915. Este experimento, liderado por Sir Arthur Eddington, capturó la atención del mundo científico al poner a prueba una de
las teorías más innovadoras de la física moderna.
La idea fue que como durante un eclipse solar total, la Luna bloquea la luz
del Sol, las estrellas cercanas al Sol resultan visibles en pleno día y ello permitiría verificar la predicción de la Teoría de la Relatividad de Einstein sobre
la curvatura del espacio-tiempo alrededor de objetos masivos, midiendo la
desviación de la luz al pasar cerca del Sol.
Las fotografías tomadas durante el eclipse mostraron que las estrellas cercanas al Sol estaban ligeramente desplazadas de su posición esperada, lo
que indicaba que la luz se había curvado al pasar cerca del Sol, tal como lo
predijo la Teoría de la Relatividad.
Este experimento marcó un hito en la historia de la ciencia al confirmar una
de las predicciones de la teoría más revolucionaria de la física moderna y no
solo validó el trabajo de Einstein, sino que también abrió nuevas puertas a
nuestra comprensión del universo y de la naturaleza del espacio y del tiempo e inspiró a las generaciones futuras de científicos a explorar los límites
de nuestro conocimiento y a desafiar las ideas establecidas en busca de una
comprensión más profunda del cosmos.

Para acercarnos de manera simplificada al significado de la propuesta
ulterior de Einstein de que la gravedad no es una fuerza en el sentido
que establece la mecánica newtoniana, sino que es una consecuencia de
la curvatura de la geometría del continuo espacio-tiempo, que depende
de la presencia de los cuerpos (su masa/energía), podemos considerar la
analogía siguiente:
Consideremos que un cuerpo descansa sobre el centro de una manta elástica (figura 2.19), por supuesto, mientras mayor sea la masa del
cuerpo, más deformada estará la superficie de la manta. De manera similar, la masa de los objetos en el universo curva el espacio-tiempo a su
alrededor y condiciona la trayectoria del movimiento de los cuerpos en
el universo, por ejemplo, la Tierra gira alrededor del Sol no porque esté

94

CAPÍTULO 2
siendo atraída por la fuerza de gravedad, sino porque la masa del Sol
curva el espacio-tiempo a su alrededor, creando una especie de pozo
gravitacional en el que la Tierra se desplaza siguiendo una trayectoria
curva alrededor del Sol.
Tierra

G
Sol

Fig. 2.19 Esquema de la curvatura espacio-tiempo

Algunos estudiantes han considerado de ayuda, para tener una representación de cómo la curvatura del espacio-tiempo explica el cambio en el
estado de movimiento de los cuerpos en lugar de recurrir a su interacción
gravitatoria, la analogía siguiente:
Imagina dos investigadores que se encuentran sobre la superficie
de la Tierra separados unos pocos metros, en el círculo ecuatorial y comienzan a moverse con rumbo norte. Mientras estén cerca del ecuador
dirán que sus trayectorias son paralelas, pero cuando se aproximan al
polo norte, observaran que se están moviendo cada vez más cerca uno
del otro y de hecho se encontrarán en el polo norte. Por lo tanto, dirán
que se movieron a lo largo de trayectorias paralelas, pero uno hacia
el otro, como si hubiera una fuerza de atracción entre ellos. Llegarán
a esta conclusión de acuerdo con su experiencia diaria de moverse en
superficies planas, pero a partir de una representación mental verán

95

FÍSICA
que están caminando en una superficie curva, y que es la geometría de
la superficie curva la que los hace converger, en lugar de una fuerza
de atracción. De manera análoga, la relatividad general sustituye la
noción de fuerzas con el movimiento de cuerpos en el espacio–tiempo
curvado.
Curvatura del espacio-tiempo y relatividad del tiempo
La teoría general de la relatividad, debido a la deformación del espacio-tiempo, conduce al hecho de que el tiempo transcurre de manera
diferente en la Tierra que en las proximidades del Sol. En el lenguaje newtoniano, esto significa que el tiempo depende de la intensidad del campo
gravitatorio.
Este hecho se ha podido comprobar en el experimento de Hafele-Keating, en el año 1971. En este experimento se comparó la lectura
de un reloj atómico colocado en un avión comercial con otro reloj igual
situado en Tierra, para estudiar la dependencia del tiempo con la gravedad y la velocidad. Los resultados de este experimento permitieron
comprobar la validez de lo pronosticado por la teoría general de la
relatividad.
Otras evidencias experimentales de la teoría general de la relatividad
Desde su publicación y hasta la fecha, la teoría general de la relatividad
ha superado con éxito las comprobaciones experimentales a que ha sido
sometida. Además de la de la mencionada observación de la desviación
de la trayectoria de la luz de las estrellas por el Sol y de la dependencia
del tiempo con la intensidad del campo gravitatorio, está el hecho de la
precesión del perihelio del planeta Mercurio.
Según la Relatividad General (TGR), la órbita de un planeta no es realmente una elipse cerrada; el eje de la elipse gira un tanto en cada órbita,
figura 2.20.
Para Mercurio, que está más cerca del Sol y por lo tanto mostraría el
efecto más grande, el efecto predicho es de 42,98 segundos de arco por
siglo. El valor medido es actualmente de 43,11 ± 0,21 segundos de arco
por siglo, está en excelente concordancia con las predicciones de la TGR.
Este fenómeno fue advertido por primera vez en 1859 y constituyó un problema serio para la teoría gravitatoria newtoniana (antes de que Einstein
proporcionara la explicación correcta).

96

CAPÍTULO 2

P1

Sol

Δ

P2

Fig. 2.20

El denominado corrimiento hacia el rojo constituye también una evidencia de la validez de la teoría general de la relatividad. Este fenómeno
se explica de manera satisfactoria al considerar, de acuerdo con la predicción de la relatividad general, de que la frecuencia de la radiación emitida
por los átomos es menor, o sea están corridas hacia la parte roja del espectro, en presencia de un campo gravitatorio intenso, en comparación con el
caso de que el campo gravitatorio sea un campo débil.
Este corrimiento hacia el rojo gravitacional ha sido detectado en los
espectros de emisión de los átomos en estrellas de gran masa y también
se ha verificado en la Tierra al comparar las frecuencias de rayos gamma
emitidos desde núcleos separados verticalmente unos 20 m.
Otra evidencia es la de la detección directa de las ondas gravitacionales, en el año 2015, por el Observatorio de Interferometría Láser de Ondas Gravitatorias (LIGO), lo que confirmó la predicción de Einstein sobre
la existencia de estas ondas, que son perturbaciones en la curvatura del
espacio-tiempo.
Teoría de la relatividad general y teoría de la gravitación universal
Como sabemos, a velocidades pequeñas en comparación con la velocidad de la luz en el vacío, los resultados de la teoría especial de la relatividad concuerdan con los de la mecánica newtoniana. De la misma manera,
cuando los campos gravitacionales son débiles, la teoría de la gravitación
universal formulada por Newton, es completamente válida. De hecho, el
cálculo de las trayectorias que deben seguir los satélites artificiales que

97

FÍSICA
orbitan alrededor de la Tierra, los telescopios espaciales, las naves que han
volado a la Luna, Marte y otros planetas y la predicción de los eclipses, por
solo citar algunos ejemplos, se realizan sobre la base de la ley de gravitación universal y las leyes de la mecánica formuladas por Newton.
Es muy probable que en el futuro las personas tengan una representación
del universo distinta a la nuestra, de la misma forma que hoy tenemos una
representación muy diferente de la que tenían, por ejemplo, las civilizaciones
griega, egipcia, china o hindú, pero de lo que no hay dudas es de que el modelo del universo dado por la teoría general de la relatividad nos ha permitido ampliar, como nunca antes, en el conocimiento del universo y ha abierto
nuevas puertas para seguir progresando en esta fascinante aventura.

Comprueba tus conocimientos
13. ¿Cuáles son los principios básicos de la teoría general de la relatividad?
14. Imagina que un astronauta despierta en su nave cerrada, que está
sobre la superficie lunar, ¿puede decir si su peso se debe a la gravitación o que la nave esta con movimiento acelerado? Explica tu
respuesta.

15. En que consiste el corrimiento hacia el rojo de la luz.
16. Cita algunos de los hechos que pongan en evidencia la validez de la
teoría general de la relatividad.

Problemas generales del capítulo
1. Una nave cohete parte de la Tierra y alcanza una velocidad próxima a
la de la luz, si en el cosmódromo queda una nave gemela:
a) ¿Qué dirán los observadores terrestres de la longitud de la nave en
comparación con la que queda en el cosmódromo?
b) ¿Qué dirán los tripulantes de la nave de la longitud de la gemela
que quedó en tierra en comparación con la de ellos?
2. Una nave cohete se mueve respecto a la Tierra a una velocidad próxima
a la de la luz, y sus tripulantes encuentran que para hervir cierta cantidad de agua emplean 10 min. Para los observadores en Tierra, ¿el tiempo en que hierve el agua en la nave será el mismo? Explica tu respuesta.
3. Dos acontecimientos son simultáneos si se observan desde el sistema de
referencia “Isla de Cuba”. Uno ocurre en La Habana y el otro en Matanzas. ¿Pueden ocurrir simultáneamente en otro sistema de referencia

98

CAPÍTULO 2
inercial? ¿Existe algún sistema de referencia en el cual ocurra primero
el suceso de La Habana y después el de Matanzas? ¿Existe algún sistema
de referencia en el que ocurra primero el suceso de Matanzas y después el de La Habana? ¿Pueden estos sucesos guardar relación causal?
Explica.
4. En la probeta de un laboratorio se observa el nacimiento y la muerte
de un microorganismo. ¿Puede existir algún sistema de referencia en
el que primero se observe la muerte y después el nacimiento del microorganismo? Explica tu respuesta.
5. Un suceso ocurre en un instante determinado de tiempo en la provincia de Pinar del Río, y un segundo después acontece otro suceso en
Guantánamo. Si la distancia entre los dos lugares es de 1 200 km. ¿Puede existir otro sistema de referencia inercial en el cual los dos sucesos
ocurran en el mismo lugar? Justifica tu respuesta.
6. Representa cualitativamente la gráfica de la relación v = f(Dt) para
un cuerpo sobre el que actúa una fuerza constante durante mucho
tiempo:
a) de acuerdo con la mecánica newtoniana;
b) de acuerdo con la teoría de la relatividad.
7. ¿A qué velocidad será la energía cinética de una partícula igual a su
energía en reposo? ¿Depende la respuesta de la masa de la partícula?
8. Cita dos hechos experimentales conocidos por ti que confirmen la veracidad de la teoría especial de la relatividad. Explica brevemente en
qué consisten estos experimentos.
9. Plantea algunas de las principales contribuciones de la teoría especial
de la relatividad de Einstein a la comprensión del comportamiento de
la naturaleza.
10. Analiza críticamente el siguiente planteamiento: “la teoría especial
de la relatividad de Einstein nos indica que las leyes de la mecánica
newtoniana son falsas”.
11. Haz una exposición de algunos elementos que justifiquen la afirmación de que la teoría especial de la relatividad ha tenido y tiene una extraordinaria importancia para el desarrollo de la técnica
contemporánea.
12. ¿Qué velocidad relativa respecto a un sistema de referencia inmóvil
debe tener un cuerpo para que la disminución relativista de su longitud sea de un 25 %?

99

FÍSICA
13. Dos cohetes se mueven al encuentro a velocidades V1 = 0,8 c y V2 = 0,7 c
respectivamente. Determina la velocidad relativa del primer cohete respecto al segundo.
a) De acuerdo con las ecuaciones de Física clásica.
b) De acuerdo con las ecuaciones de la Teoría Especial de la Relatividad.
14. Una varilla de longitud propia de 1 m se mueve horizontalmente respecto a la Tierra a v = 0,8 c y está dispuesta de forma tal que forma
un ángulo de 45º con el horizonte (medido desde la varilla). Para los
observadores terrestres ¿qué longitud tiene la varilla y qué ángulo de
inclinación tiene con el horizonte?
15. Una nave cohete abandona la Tierra a v = 0,8 c. ¿Cuánto tiempo necesita el minutero de un reloj en la nave para efectuar una revolución
completa si la medición la realiza un observador en la Tierra?
16. Después de 1,0 s, una bala disparada horizontalmente cae 4,9 m en
dirección vertical, respecto a su trayectoria rectilínea, en un campo
gravitacional de 1,0 g. ¿Qué distancia bajará un rayo de luz en este
mismo campo gravitacional al cabo de 1,0 s? ¿Y al cabo de 2,0 s?
17. La luz cambia su energía al “caer” en un campo gravitacional. Sin embargo, el cambio de energía no se traduce en un cambio de rapidez.
¿Cuál es la prueba de ese cambio de energía?
18. ¿Notaríamos un retraso o un adelanto en un reloj, si lo pusiéramos en
el fondo de un pozo muy hondo?
19. Si presenciamos eventos que suceden en la Luna, donde la gravedad
es menor que en la Tierra, ¿esperaríamos observar un corrimiento gravitacional hacia el rojo o hacia el azul? Explica tu respuesta.
20. Una astronauta despierta en su cápsula cerrada que está descansando
en la Luna. ¿Puede ella decir si su peso se debe a la gravitación o a un
movimiento acelerado? Explica tu respuesta.
21. Una persona dice que la luz que pasa cerca del Sol se desvía, ya sea que
ocurra o no un eclipse de Sol. ¿Estás de acuerdo con ella? Explica.
22. ¿Por qué decimos que la luz se propaga en línea recta? Estrictamente,
¿es correcto decir que un rayo láser sigue una línea perfectamente
recta para usarla en topografía? Explica.

100

CAPÍTULO 3
Introducción a la Teoría Cuántica de la luz

E

l origen de lo que hoy conocemos como física cuántica se encuentra en los trabajos que condujeron al establecimiento de
la teoría cuántica de la luz, entre los que destacan los realizados por Planck, en 1900, para explicar la radiación del cuerpo negro,
y la explicación dada por Einstein al efecto fotoeléctrico externo,
en 1905. También la explicación de otros fenómenos como el efecto
Compton y los rayos X contribuyeron a establecer el carácter cuántico de la luz.
Tal fue la importancia de la explicación dada por Einstein al fenómeno del efecto fotoeléctrico, que por ella recibió el Premio Nobel de
Física, en 1921. Anteriormente, en 1918, Planck había recibido también
el Premio Nobel de Física por su contribución al surgimiento de la física
cuántica.
En este capítulo abordaremos los aspectos básicos de esta importante y revolucionaria teoría que, además de ser esenciales para
profundizar en el conocimiento sobre la naturaleza de la luz y su
interacción con los cuerpos, también ha tenido una enorme repercusión por sus aplicaciones prácticas, entre ellas, por ejemplo: los
paneles solares, los sensores usados en las cámaras fotográficas
digitales, los reguladores de tóner en la máquinas impresoras, la
espectrografía de rayos gamma, los diagnósticos médicos e industriales (figura 3.1).

101

FÍSICA

a

b

c

d

Fig. 3.1 Aplicaciones: a) parque fotovoltaico en Cuba; b) sensor de luz para
cámaras digitales; c) imagen mediante Rayos X; d) espectrógrafo de rayos gamma

3.1 Radiación térmica. Modelo del cuerpo negro.
Leyes de la radiación del cuerpo negro.
Hipótesis de Planck
Radiación térmica
Sabemos que si tenemos dos cuerpos con diferentes temperaturas y
los ponemos en contacto, ambos adquieren, al cabo de cierto tiempo, la
misma temperatura, es decir, los cuerpos alcanzan el estado de equilibrio
térmico. En este caso la energía pasa del cuerpo más caliente al más frío
mediante el proceso que conocemos como conducción del calor.
Pero, ¿qué ocurre si los cuerpos están separados y en el vacío?
Como también sabemos, la experiencia demuestra que igual se establece el equilibrio térmico, solo que en este caso la transferencia de energía
ocurre mediante el proceso que conocemos como radiación térmica.
La radiación térmica es la radiación electromagnética emitida por
un cuerpo a expensas de su energía interna de carácter térmico.

102

CAPÍTULO 3
Esta radiación es generada por el movimiento de las partículas cargadas que componen el cuerpo y las ondas electromagnéticas emitidas comprenden las zonas infrarroja, visible y ultravioleta del espectro
La distribución de energía de la radiación depende de la temperatura
del cuerpo radiador: a temperaturas bajas la radiación térmica emitida por
el cuerpo está fundamentalmente en la región infrarroja y a temperaturas
elevadas la radiación “alcanza” las zonas visible y ultravioleta.
Si la radiación térmica es inherente a todos los cuerpos a cualquier
temperatura y se produce a expensas de la energía interna del cuerpo, entonces, ¿por qué los cuerpos que nos rodean no disminuyen su
temperatura a pesar de que están emitiendo energía? Esto se explica
porque todo cuerpo, a la vez que radia, absorbe parte de la energía
radiada por los otros cuerpos circundantes y se mantiene el equilibrio
térmico.
Para el estudio cuantitativo de los procesos de radiación y absorción se
utiliza el modelo del cuerpo negro.
Modelo del cuerpo negro
Un cuerpo que absorbe a cualquier temperatura toda la energía radiante que incide sobre él, recibe el nombre de cuerpo
negro.
En realidad, el cuerpo negro es una idealización, un modelo, no existe
un cuerpo que absorba el 100 % de las radiaciones que inciden sobre él.
En la práctica, la superficie de un cuerpo recubierta con negro de humo,
que es uno de los mejores absorbentes, solo absorbe aproximadamente el
99 % de la radiación incidente.
El físico alemán G.R. Kirchhoff (1824-1887) ideó un modelo del cuerpo
negro. Este modelo consiste en un cuerpo hueco cuyas paredes interiores
absorben en gran medida las radiaciones (pueden estar cubiertas con
una capa de negro de humo), y que posee un orificio pequeño. Este cuerpo absorbe prácticamente todas las radiaciones que inciden en él, pues
al penetrar por el orificio sufren en el interior una serie de reflexiones
y ceden una parte considerable de su energía a la superficie en cada
reflexión. La probabilidad de que la radiación que entró salga de nuevo
por el orificio es muy pequeña. Ello hace que el orificio se comporte como
un absorbente ideal, es decir, como un cuerpo negro. En la figura 3.2
se representa esta situación. Las líneas rectas con las saetas representan

103

FÍSICA
las radiaciones incidentes y reflejadas. El grosor de las líneas representa
como disminuye la intensidad de la radiación incidente durante las múltiples reflexiones.

Fig. 3.2 Modelo de cuerpo negro

Leyes de la radiación del cuerpo negro. Hipótesis de Planck
A finales del siglo xix se estudió experimentalmente la distribución de
energía en el espectro de radiación térmica de un cuerpo negro en equilibrio térmico. Los resultados de esta distribución se representan en la figura 3.3 (curva continua).
E



Fig. 3.3 La curva discontinua representa la distribución esperada
en correspondencia con la teoría electromagnética. Nota la fuerte discrepancia
con los valores experimentales, representados por la línea continua, para las
longitudes de onda pequeñas

104

CAPÍTULO 3
En el eje de las abscisas se anotan los valores de la longitud de onda (λ)
y en el de las ordenadas la energía emitida por unidad de superficie del
cuerpo negro en la unidad de tiempo, por cada unidad de intervalo de
longitud de onda. Estos resultados, obtenidos experimentalmente, contradicen las predicciones de la teoría electromagnética de Maxwell sobre
la naturaleza de la luz.
De acuerdo con la teoría de Maxwell, la energía radiada en la unidad de tiempo por unidad de área es proporcional a la frecuencia de
la onda al cuadrado, o sea, DE ∝ v2. Esto implica que la energía radiada en la
unidad de tiempo por unidad de área, y por unidad de intervalo de frecuencia, aumenta al aumentar la frecuencia, o lo que es lo mismo, al disminuir la longitud de onda. La gráfica que muestra la distribución teórica
de energía en el espectro de la radiación térmica de un cuerpo negro en
equilibrio térmico, a una temperatura dada, está representada en la figura 3.3 con una línea discontinua. Podemos observar que, para longitudes
de onda largas, ambas curvas (la experimental y la teórica) tienen el mismo comportamiento: disminuye cuando aumenta la longitud de onda l.
Pero para longitudes de onda cortas, en la curva experimental disminuye
después de alcanzar un máximo, mientras que en la curva teórica aumenta
continuamente.
La teoría electromagnética de Maxwell explica la radiación térmica de
un cuerpo negro en equilibrio térmico para longitudes de onda largas,
pero está en contradicción con el experimento para longitudes de onda
cortas (zona ultravioleta).
Esta divergencia entre la teoría y los resultados experimentales en el
estudio de la radiación térmica de un cuerpo negro en equilibrio térmico,
para longitudes de onda cortas, se llamó catástrofe ultravioleta.
Todos los intentos para tratar de eliminar estas contradicciones de
la teoría electromagnética de Maxwell con la práctica resultaron infructuosos; y no fue hasta principios del siglo xx que tuvo lugar en la física
una gran revolución, cuando el 14 de diciembre de 1900 el físico alemán
Max Planck (1858-1947) presentó un trabajo sobre la radiación del cuerpo negro, en una reunión de la Sociedad Alemana de Física, en Berlín.
Planck propuso que los átomos no irradian la energía electromagnética
en forma continua, sino que lo hacen en forma de porciones aisladas
con valores perfectamente definidos, a los que denominó cuantos. La

105

FÍSICA
energía E de cada cuanto es directamente proporcional a la frecuencia
de la radiación, o sea:
E = hν (3.1)

 De la historia
Max Planck (1858-1947) (figura 3.4), alemán, físico
y matemático. Es considerado como el fundador de
la teoría cuántica y fue galardonado con el Premio
Nobel de Física, en 1918.

Fig. 3.4

El coeficiente de proporcionalidad h se denomina constante de Planck.
A partir de los estudios experimentales sobre la radiación del cuerpo negro se determinó su valor, que resultó ser muy pequeño:
h = 6,62 ⋅ 10–34 Js
La curva obtenida según la teoría de Planck para la distribución de
la energía en el espectro de la radiación térmica del cuerpo negro, coincide (curva de trazo continuo en la figura 3.3) con la curva obtenida
experimentalmente.

 Saber más
La ley de Stefan-Boltzmann
La ley de Stefan-Boltzmann establece que un
cuerpo negro emite radiación térmica con
una potencia emisiva total (energía emitida
en todas las longitudes de onda por unidad
de tiempo y de área) que es proporcional a
la cuarta potencia de su temperatura (figura 3.7).
Fig. 3.5

106

CAPÍTULO 3
Esta ley fue obtenida en 1879 por el físico austriaco Josef Stefan (1835-1893) (figura 3.5), sobre
la base de las mediciones experimentales realizadas por el físico irlandés John Tyndall. En 1884,
el también físico austriaco Ludwig Boltzmann
(1844-1906) (figura 3.6), la derivó a partir de consideraciones teóricas.
Con esta ley, Stefan determinó la temperatura de la superficie del Sol y calculó un valor de
5 430 K.

Fig. 3.6

Ley de Wien
La ley del desplazamiento de Wien establece que hay una relación inversa
entre la longitud de onda en que se produce el pico de emisión de un cuerpo negro y su temperatura absoluta (figura 3.8).
J
w ·m-2
densidad de la energía espectral / kJ/m3 nm

5,0 ·108
4,0 ·108
3,0 ·108
2,0 ·108
1,0 ·108
0

2000

4000

6000

8000

5500 K

8E+11

6E+11

5000 K

4E+11
4500 K

2E+11

1·104
T/K

Fig. 3.7

4000 K
3500 K

0

500

1000

1500

2000

Longitud de onda

Fig. 3.8

¿Sabías que…?
Efecto invernadero y calentamiento global
Una parte de la radiación solar que llega a la superficie de la Tierra regresa
al espacio reflejada por la atmósfera, otra parte llega a la superficie de la
Tierra y calienta el suelo, que entonces emite radiación en la región infrarroja
(calor), que en parte es retenido por los gases de la atmósfera, llamados de
efecto invernadero, y en parte escapa al espacio. Esta parte de la radiación
retenida es la que causa el llamado efecto invernadero, por analogías con los
invernaderos artificiales empleados en la jardinería o la agricultura.

107

FÍSICA
El efecto invernadero es un proceso natural que contribuye a mantener el
equilibrio térmico en la superficie de la Tierra; de no existir la temperatura de equilibrio de la Tierra esta sería de alrededor de −18 ºC y la vida no
podría existir, al menos en la forma que la conocemos. Gracias al efecto
invernadero, la temperatura promedio en la superficie de la Tierra es de
alrededor de 14 ºC.
¿Qué pasaría si la atmósfera de la Tierra irradia hacia abajo mayor energía
que la que absorbe? ¿Cómo influye este desequilibrio en la temperatura de
la Tierra?
Si la concentración de estos gases de efecto invernadero en la atmósfera
aumenta, la radiación de energía hacia la Tierra aumenta y esto hace que la
temperatura del planeta aumente.
El aumento de los gases de efecto invernadero, como consecuencia de
la actividad humana, es una de las causas del proceso de calentamiento global (figura 3.9) que, como se ha estudiado, puede traer consecuencias desastrosas para la naturaleza y en consecuencia para toda la
humanidad.

Fig. 3.9
Para conocer más sobre estos importantes fenómenos se sugiere visitar:
https://www.ecured.cu/Efecto_invernadero
https://www.ecured.cu/Calentamiento.Global

108

CAPÍTULO 3

Aplicaciones
1. Existe un tipo de termómetro que se utiliza en las industrias de fundición
de metales llamado Pirómetro óptico, que funciona con la radiación del
cuerpo incandescente. Cuando el color de la luz emitida por el cuerpo
coincide con el color de la luz del filamento del termómetro, se conoce
la temperatura del cuerpo radiante (figura 3.10).

Fig. 3.10
2. En la terapia médica suele emplearse la radiación infrarroja, utilizando
su acción térmica. El efecto curativo se obtiene de la radiación infrarroja
de longitudes de onda próximas a la región visible del espectro electromagnético, para lo cual se emplean lámparas especiales.
3. La fotografía infrarroja permite conocer el perfil de temperatura durante diferentes procesos. La figura 3.11 muestra fotografía infrarroja de
un neumático durante ensayos de calidad.

Fig. 3.11

109

FÍSICA

Comprueba tus conocimientos
1.

¿En qué consiste el fenómeno de la radiación térmica?

2.

¿Por qué los cuerpos a pesar de radiar energía pueden encontrarse
en equilibrio térmico?

3.

¿Qué es un cuerpo negro?

4.

¿En qué consiste la catástrofe ultravioleta?

5.

¿Qué suposición tuvo que hacer Planck para resolver el problema de
la catástrofe ultravioleta de la radiación del cuerpo negro?

6.

Calcula la energía de un cuanto de frecuencia 4,0 · 1014 Hz. Expresa el resultado en Joule y en electronvoltio. Ten en cuenta
que 1,0 eV = 1,6 · 10 19 J.

7.

Compara la energía de un cuanto infrarrojo con la energía de un
cuanto ultravioleta. Justifica tu respuesta.

8.

Describe brevemente los procesos de absorción y emisión de la energía en la Tierra.

9.

¿Por qué en la actualidad el calentamiento de la Tierra es un factor
que interviene en su cambio climático?

10. ¿Por qué el efecto invernadero es esencial para la vida en nuestro
planeta?

11. Relaciona varias causas del incremento de los gases de efecto
invernadero.

3.2 Efecto fotoeléctrico. Leyes empíricas
y explicación teórica
La teoría de Planck de la radiación, cuyos fundamentos ya se analizaron someramente en el epígrafe anterior, se apartaba tanto de las
ideas clásicas a las que los físicos estaban acostumbrados, que encontró una gran oposición. Sin embargo, esta teoría no solo sirvió como
punto de partida para explicar el fenómeno de la radiación térmica,

110

CAPÍTULO 3
sino que también contribuyó a darle solución a varios problemas en
los cuales la física clásica falla. Uno de esos problemas fue el efecto
fotoeléctrico.
Curiosamente, el primer paso que condujo al descubrimiento del efecto
fotoeléctrico y, por lo tanto, a la revisión de la teoría electromagnética de
la luz, fue una observación incidental del científico alemán Heinrich Hertz
(1857-1894) durante sus trabajos de investigación, en el año 1887, que
proporcionaron la confirmación experimental de la teoría electromagnética de Maxwell.
Hertz observó que entre dos esferas sometidas a una diferencia de potencial saltaba con más facilidad una chispa eléctrica si eran iluminadas
con rayos ultravioletas.
Las experiencias realizadas por el físico alemán W. Hallwach
(1859-1922) y, en particular, las llevadas a cabo por el científico ruso
y profesor de la Universidad de Moscú A. G. Stolietov (1839-1896), en
los años 1888-1889, esclarecieron la esencia de este fenómeno. Bajo
la acción de los rayos ultravioletas se desprenden partículas con carga
negativa de la superficie del metal, lo cual facilita la producción de
una chispa eléctrica.
Con posterioridad se realizaron experimentos en los que se comprobó
que las partículas con carga negativa, emitidas por la superficie del metal,
eran electrones, y se les llamó fotoelectrones.
Al fenómeno de extracción de los electrones al incidir luz sobre una superficie metálica se le denomina efecto fotoeléctrico
externo.
Analicemos ahora cuáles son las principales regularidades experimentales de este fenómeno, conocidas como leyes empíricas del efecto
fotoeléctrico.
Si hacemos incidir luz monocromática sobre el cátodo de un dispositivo
como el que se muestra en la figura 3.12 y medimos con un voltímetro la
tensión entre los electrodos y con un galvanómetro la corriente (que recibe el nombre de corriente fotoeléctrica o fotocorriente), y construimos
la característica voltampérica para diferentes iluminancias (la unidad de
iluminancia en el SI es el lux), se obtienen las gráficas representadas en la
figura 3.13.

111

FÍSICA

Haz de luz monocromática
F
Tubo de vidrio
A

B
G

V
+

Fig. 3.12
I

(A)

E3
E2
E1

Uc

U (V)

1

Fig. 3.13

De la característica voltampérica se observa que, al aumentar la tensión
para una misma iluminancia, aumenta la intensidad de la fotocorriente
hasta alcanzar la saturación, es decir, por mucho que aumente la tensión
la intensidad de la corriente se mantiene constante. También vemos que,
para una misma tensión, la intensidad de la fotocorriente y, por lo tanto,
el número de electrones desprendidos en la unidad de tiempo, aumenta
cuando la iluminancia sobre la superficie es mayor. En esto consiste la primera ley empírica del efecto fotoeléctrico:

112

CAPÍTULO 3
Al aumentar la iluminancia, aumenta el número de fotoelectrones emitidos por el metal en la unidad de tiempo.
De la figura 3.13 también se puede concluir que cualquiera que sea
la iluminancia de la luz monocromática utilizada, la fotocorriente se
anula para la misma tensión, llamada tensión de corte. Esto nos hace
concluir que, para la misma luz monocromática es necesario realizar el
mismo trabajo para detener los fotoelectrones, independientemente del
valor de la iluminancia. Este hecho constituye la segunda ley empírica
del efecto fotoeléctrico:
La energía cinética máxima de los fotoelectrones no depende de
la iluminancia.
De acuerdo con lo antes expuesto, la relación entre la tensión de corte y
la energía cinética máxima de los fotoelectrones estará dada por la ecuación:
eUc =

1
2
mv má
x = Ec
máx
2

(3.2)

Donde Uc es la tensión de corte, e la carga del electrón, m la masa del
electrón y v la velocidad máxima de los electrones.
Si mantenemos constante la iluminancia que incide sobre el cátodo del
circuito representado en la figura 3.12, pero variamos la frecuencia de la
radiación incidente, obtendremos una gráfica como la representada en
la figura 3.14.
I
ν2 > ν1

2

1
Uc

2

Uc

U
1

Fig. 3.14

113

FÍSICA
El análisis de esta gráfica nos revela que, al aumentar la frecuencia
de la radiación, aumenta la energía cinética máxima de los fotoelectrones. Para establecer la forma de esta dependencia, se puede construir
una gráfica de la variación de la tensión de corte con la frecuencia (figura 3.15).
Uc

(V)

ν0

ν (Hz)

Fig. 3.15

A partir de la gráfica representada en la figura 3.15 se puede establecer
que la dependencia es lineal, lo cual constituye la tercera ley empírica del
efecto fotoeléctrico:
La energía cinética máxima de los fotoelectrones depende de
forma lineal de la frecuencia de la radiación incidente.
Del análisis de la gráfica de la figura 3.15 también podemos concluir
que existe una frecuencia no para la cual la energía cinética máxima de
los fotoelectrones se hace cero. Esta frecuencia recibe el nombre de frecuencia umbral, frecuencia de corte o límite rojo del efecto fotoeléctrico.
Para una frecuencia menor que no no se produce el efecto fotoeléctrico;
cualquiera que sea la iluminancia de la radiación incidente.
Otro resultado experimental se obtuvo al cambiar el metal del cátodo
del dispositivo de la figura 3.12 y determinar cómo varía, para cada metal,
la tensión de corte al variar la frecuencia. Se obtuvo una familia de curvas
como la que se muestra en la figura 3.16 para tres metales diferentes.

114

CAPÍTULO 3
Uc

1

Metal 1

Metal 2

2

3

Metal 3



Fig. 3.16 La frecuencia de corte o frecuencia umbral depende del metal

De estos resultados se puede establecer la cuarta ley empírica del efecto fotoeléctrico:
La frecuencia umbral es característica de cada metal.
En la mayoría de los metales la frecuencia umbral se encuentra en la
zona ultravioleta, aunque hay algunos para los cuales está en la región
visible del espectro.
Experimentalmente se ha comprobado que cuando la luz incidente tiene
una frecuencia igual o mayor que la umbral, por muy pequeña que sea la iluminancia energética, los electrones son arrancados sin retraso sensible (al menos
es menor que 3,0 ∙ 10–9 s). Esto nos permite establecer la quinta ley empírica:
El efecto fotoeléctrico se produce casi instantáneamente después
de ser iluminada la superficie del cuerpo.
Los físicos de la época trataron de explicar el efecto fotoeléctrico con la
herramienta que poseían: la física clásica.
De acuerdo con la teoría electromagnética de la luz debía ocurrir lo
siguiente:
1. Al aumentar la iluminancia sobre la superficie, aumenta la energía que
llega a esta en la unidad del tiempo y, por lo tanto, se incrementa el
número de electrones que son arrancados del metal; es decir, debe aumentar la fotocorriente.
2. Al incidir la luz sobre el metal, los electrones absorben energía luminosa y aumenta su energía cinética. Así, los electrones que estén situados
de forma tal que empleen la menor cantidad de energía para vencer

115

FÍSICA
las fuerzas que los mantienen ligados al metal serán los que saldrán con
una energía cinética máxima. Al aumentar la iluminancia energética
de la superficie los electrones absorben más energía y, por lo tanto, la
energía cinética máxima de salida de los electrones aumenta.
3. La energía de la onda electromagnética no depende de la frecuencia
de esta. Por lo tanto, cualquiera que sea la frecuencia (n) de la luz, esta
debe arrancar electrones de cualquier superficie metálica.
4. En una onda electromagnética la energía está distribuida uniforme y
continuamente en el frente de onda. Los cálculos indican que con una
baja iluminancia se requeriría algún tiempo antes de que se hubiese
acumulado energía suficiente para arrancar un electrón de la superficie.
Se puede concluir, comparando las “predicciones” de la teoría electromagnética con los resultados experimentales sobre el efecto fotoeléctrico,
que solamente el aumento de la fotocorriente con el incremento de la
iluminancia concuerda con la teoría. El resto está en franca contradicción.
¿Cómo explicar que la velocidad con que son separados del metal los
fotoelectrones dependen de la frecuencia de la radiación incidente y no
de la iluminancia?
¿Qué explicación tiene la existencia de la frecuencia umbral, y la extracción sin retraso de los fotoelectrones, aunque la iluminancia sea muy baja?
La solución de estos problemas se obtuvo, en 1905, cuando el físico alemán Albert Einstein retomó las ideas de Planck, y consideró que la energía
luminosa no solo se emitía en forma discreta, sino que también se transmitía en forma de cuantos de energía
E = hn (3.3)
(donde h es la constante de Planck). Es decir, planteó que la energía luminosa se transmitía concentrada o localizada en pequeñas regiones (como
en bolsas o paquetes de energía), distribuidas en todo el frente de onda. A
estos “paquetes” de energía o cuantos luminosos se les llamó fotones.
Analicemos cómo la teoría de Einstein explica el efecto fotoeléctrico.
De acuerdo con la teoría cuántica de la luz, al incidir un fotón en una sustancia solo interactúa con un electrón entregándole toda su energía. Una
parte de ella es utilizada por el electrón en la realización del trabajo necesario para salir del metal, y la otra parte le comunica cierta energía cinética.
La menor energía necesaria para sacar a los electrones del metal recibe
el nombre de trabajo de extracción Wo. Aplicando la ley de conservación

116

CAPÍTULO 3
de la energía podemos calcular la energía cinética máxima de los fotoelectrones mediante la ecuación:
1
2
mv máx
= hν − Wo
2

(3.4)

donde m es la masa de los electrones, v su velocidad máxima, n la frecuencia de la radiación incidente y h es la constante de Planck.
La expresión 3.4 permite explicar por qué la energía cinética máxima
depende de la frecuencia y no de la iluminación.
La dependencia lineal entre la energía cinética máxima y la frecuencia,
también se explica a partir de la expresión 3.4, pues Wo y h son constantes.
Además, la teoría de Einstein también permite explicar la existencia de
la frecuencia umbral, pues si la frecuencia del fotón de luz incidente es tal
que su energía hn es menor que el trabajo de salida Wo , no se produce el
fotoefecto, ya que los electrones no reciben la energía suficiente para salir
del metal. Es decir, si hn < Wo no se produce el efecto fotoeléctrico.
Si hn = Wo se extrae el electrón, pero sin energía cinética. Si hn > Wo ,
se extrae el electrón con cierta energía cinética. Por lo tanto, el efecto fotoeléctrico se produce para hn ≥ Wo , lo que es equivalente, n ≥ no , donde
w
 o  o es la frecuencia umbral.
h
La dependencia de la frecuencia umbral con el material se debe a que
el trabajo de extracción depende de la estructura interna de la sustancia
(figura 3.17).
EC

0

máx

ν0

ν

-W0

Fig. 3.17 Gráfico y valores del trabajo de extracción para algunos metales

117

FÍSICA
Metal

Trabajo
de extracción (eV)

Calcio (Ca)

1,9

Potasio (K)

2,0

Sodio (Na)

2,3

Litio (Li)

2,4

Plata (Ag)

4,74

El que los electrones sean arrancados sin retraso sensible está dado porque la energía del fotón es transmitida al electrón en forma directa, como
en un choque. “inmediatamente” después de la interacción, el electrón
adquiere la energía necesaria para “escapar” del cuerpo.
Por último, queda por explicar con la teoría cuántica el primer resultado experimental analizado: la dependencia de la fotocorriente de la iluminancia energética. Este es el único hecho experimental que pudo explicar
la teoría clásica.
De acuerdo con la teoría cuántica, la iluminancia está dada por:
E = nhn (3.5)
donde n es el número de fotones que inciden normalmente por unidad
de área y por unidad de tiempo.
Por lo tanto, si la frecuencia permanece constante, un aumento de la
iluminancia implica que aumentó el número de fotones por unidad de
área y por unidad de tiempo, como consecuencia aumenta el número de
electrones emitidos por cada unidad de área y de tiempo, es decir, aumenta la fotocorriente.

Efecto fotoeléctrico interno
Además del efecto fotoeléctrico que hemos estudiado, existe el llamado efecto fotoeléctrico interno, que se produce en los semiconductores y
dieléctricos sólidos y líquidos.
Analicemos brevemente este fenómeno en el caso de los semiconductores.
Como sabemos, de onceno grado, la conductividad en los semiconductores
está determinada por la concentración de electrones en la banda de conducción y de huecos en la banda de valencia, así como de la movilidad de ambos.
La absorción de un fotón, siempre que su energía sea mayor que el ancho de
la banda de energía de la zona prohibida, trae como consecuencia la aparición

118

CAPÍTULO 3
de un par electrón-hueco y, por lo tanto, un aumento de la conductividad. En
algunos semiconductores el efecto se produce a muy baja frecuencia, llegando a manifestarse incluso con radiaciones infrarrojas. Esto y otras propiedades como, por ejemplo, las pequeñas dimensiones de los fotoelementos que
utilizan este efecto, su largo plazo de servicio y la simplicidad relativa de su
fabricación, hacen muy ventajosa la utilización de este tipo de dispositivos,
entre los que se encuentran los fotorresistores y las celdas fotovoltaicas.
Los fotorresistores aprovechan de manera directa la propiedad de los
semiconductores de variar su resistencia mediante la acción de la luz al
incrementarse la concentración de los portadores de carga, como consecuencia del efecto fotoeléctrico interno.
Las celdas fotovoltaicas o fotoceldas, que son base de la producción de
energía solar fotovoltaica y de muchas otras aplicaciones, por ejemplo, los
sensores utilizados en las cámaras digitales, son dispositivos (uniones PN),
que permiten obtener energía eléctrica a partir de la energía de la luz incidente. Este efecto se denomina efecto fotovoltaico.
Si la energía de la radiación es suficiente para la formación de los pares
electrón-hueco en la unión PN, estos son separados por la acción del campo eléctrico interno que se estable en las uniones. La separación de estos
portadores ocurre de manera que los electrones se mueven hacia la región
N y los huecos hacia la región P, apareciendo de esta forma una diferencia
de potencial entre los extremos de las dos regiones, o una corriente a través del circuito externo (figura 3.18).

Luz solar

N

Ucc

Luz solar

N

P

Lgc

P

Fig. 3.18

119

FÍSICA

¿Sabías que…?
Robert A. Millikan (1868-1953) físico norteamericano, descubridor de la
carga del electrón, llevó a cabo experimentos relacionados con el efecto
fotoeléctrico durante diez años y comprobó la ecuación de Einstein para el
fotoefecto, determinando experimentalmente el valor de la constante de
Planck.

Problema resuelto 1
La gráfica (figura 3.19) representa la dependencia de la energía cinética máxima de los electrones arrancados de un fotocátodo con la frecuencia de la radiación. Con los datos que aparecen, determina:
a) La energía cinética máxima de los electrones cuando incide una radiación de longitud de onda igual a 3,0 · 10–7 m.
b) La tensión de corte que se requiere para anular la fotocorriente.
c) Si se utilizara otra radiación luminosa de menor longitud de onda para
iluminar el fotocátodo ¿cómo se debe variar la tensión de frenado?
Explica.
d) ¿Dependerá el nuevo valor de la tensión de frenado, del valor de la
iluminancia de la nueva radiación utilizada? Explica.
Ec (10-19 J)

ν (1014 Hz)
0

4,3
Fig. 3.19

120

CAPÍTULO 3
Solución:
a) Analizando la gráfica, podemos conocer el valor de la frecuencia umbral o mínima de la luz para extraer los electrones del fotocátodo y
calcular el valor de la energía cinética máxima de los electrones emitidos mediante la ecuación:
Ec

máx

= E – Wo

Que se puede escribir como:
Ec máx = h

c
− hν o
λ

c

Ec máx = h  − ν o 
λ

Ec máx = 6, 62 ⋅ 10

−34



8 m
 3, 0 ⋅ 10 s

14
Js 
− 4 , 3 · 10 Hz 
−7
 3, 0 ⋅ 10 m




Ec

= 6,62 ∙ 10–34 Js (5,7 ∙ 1014 s–1)

Ec

= 3,8 ∙ 10–19 J

máx

máx

b) La tensión de corte o frenado se puede determinar directamente a partir de la ecuación:
Ec

máx

UC =

= eUC
Ec máx
e

UC =

3, 8 ⋅ 10−19 J
1, 6 ⋅ 10−19 C

UC = 2, 4 V

c) La tensión de corte que se debe utilizar para frenar a los electrones
debe ser mayor porque la energía cinética aumentó debido a que la
radiación luminosa utilizada tiene mayor frecuencia que la anterior.
La energía cinética máxima de los electrones varia de forma lineal con la
frecuencia de la radiación.
d) No depende la tensión de frenado del flujo de la radiación luminosa,
sino de la frecuencia de la luz. Por lo tanto, el nuevo valor de la tensión
de corte, no varía con el aumento de la iluminancia.

121

FÍSICA

Aplicaciones
-

Fotorresistencia: es un componente electrónico cuya resistencia disminuye con el aumento de la intensidad de la luz incidente (figura 3.20).
Celda fotoeléctrica: es un dispositivo a través del cual la energía luminosa es transformada en energía eléctrica (figura 3.21).

Fig. 3.20

Fig. 3.21

Comprueba tus conocimientos
12. ¿En qué consiste el fenómeno del efecto fotoeléctrico?
13. ¿Por qué aumenta la conductividad eléctrica en un semiconductor
cuando sobre él incide una radiación luminosa?

14. Una fotocelda es iluminada primero con luz azul y después con
luz ultravioleta. ¿En qué caso la tensión de frenado será mayor?
Explica.

15. ¿Cuáles son las contradicciones entre la teoría electromagnética de
la luz y las leyes empíricas del efecto fotoeléctrico?

16. ¿En qué consiste la explicación de Einstein del efecto fotoeléctrico
y, sobre esta base, di como se explican los resultados experimentales
del efecto fotoeléctrico?

17. En la gráfica de I = f(U) de la figura 3.22, se representan tres curvas
experimentales obtenidas al iluminar una celda fotoeléctrica con radiaciones de diferente frecuencia así como iluminancia.

122

CAPÍTULO 3
a) ¿Cuál de las curvas fue obtenida con una mayor: iluminancia, frecuencia, longitud de onda?
b) Explica cada caso.
I (mA)
3
2
1

-UC

-UC

3

2

-UC1

0

U(V)

Fig. 3.22

18. En la gráfica de Ecmáx = f(v) de la figura 3.23, di la magnitud que cam-

bia para cada metal y cuál es la magnitud que permanece constante
para cada uno. ¿En cuál de los metales se requiere de menor energía
luminosa para que ocurra el fotoefecto?
Ecmáx

A

B

C

ν

0
Fig. 3.23

3.3 Rayos X
En los epígrafes anteriores, relacionados con la radiación del cuerpo
negro y el efecto fotoeléctrico, se ha puesto de manifiesto el carácter
cuántico de la luz en una gama de frecuencias que van desde la zona infrarroja hasta la ultravioleta.

123

FÍSICA
En el onceno grado nos familiarizamos con el comportamiento de las radiaciones electromagnéticas de menor frecuencia, recordemos los experimentos
realizados con los generadores de microondas para el estudio de su propagación, reflexión, refracción, absorción, interferencia, difracción y polarización.
Analicemos ahora las características de las radiaciones de mayor frecuencia, en particular, ¿se pondrá de manifiesto el carácter cuántico de
estas radiaciones al igual que en el caso de la luz?
Iniciemos con un poco de historia. En 1895, el físico alemán Wilhelm
Conrad Röntgen, al realizar experimentos con el tubo de rayos catódicos,
observó que cuando los electrones chocaban contra las paredes del tubo
de vidrio, y con el ánodo se obtenía una radiación, que no se debía a los
rayos catódicos. Esta radiación la pudo detectar por la fosforescencia de
una pantalla tratada a estos efectos. Como estas radiaciones eran de naturaleza desconocida, recibieron el nombre de rayos X.

 De la historia
Wilhelm Conrad Röntgen (1845-1923) (figura 3.24) físico alemán que el 8 de noviembre de 1895 produjo
radiación electromagnética en las longitudes de onda
correspondiente a los actualmente llamados rayos X.
Por su descubrimiento, en 1901, fue galardonado con
el Premio Nobel de Física. La unidad de medida a la
exposición de la radiación lleva su apellido.

Fig. 3.24

Después de investigar las propiedades de los rayos X, su descubridor
llegó a las siguientes conclusiones:
1. Los rayos X se producen cuando los electrones chocan contra un metal
pesado.
2. No se desvían al atravesar un campo eléctrico o campo magnético, demostrando que no poseen carga eléctrica.
3. Poseen la capacidad de penetrar cuerpos sólidos.
4. Los fenómenos de la reflexión y refracción de los rayos X no ocurren
apreciablemente al incidir en la sustancia.

124

CAPÍTULO 3
En los comienzos del siglo xx había evidencias de que los rayos X tenían
una naturaleza ondulatoria como la de la luz y que su longitud de onda
era muy pequeña, del orden de 0,1 nm. Pero no fue hasta 1912 que el
físico alemán Max Von Laue (1879-1960) logró difractar los rayos X y demostrar con ello su naturaleza ondulatoria.
Suponiendo que los rayos X no se podían difractar mediante las redes empleadas ordinariamente para la luz visible, debido a su pequeña
longitud de onda, Laue propuso utilizar en calidad de red de difracción
para los rayos X la estructura de un cristal, pues en ellos los átomos se
encuentran dispuestos regularmente y separados a distancias del orden
de los 0,1 nm
En la práctica, Laue logró la difracción de los rayos X haciendo pasar
un haz estrecho a través de un cristal de ZnS (sulfuro de zinc). Colocando
detrás de este cristal una placa fotográfica (figura 3.25), obtuvo una distribución de puntos oscuros como la que se muestra en la figura 3.26. Los
puntos corresponden a los lugares donde incidieron los rayos X, después
de atravesar el cristal. Esta figura es un patrón de difracción.
El fenómeno de la difracción de los rayos X, junto con el de su polarización, descubierta por el físico inglés Charles G. Barkla (1877-1944), permitió establecer que los rayos X eran ondas electromagnéticas de longitudes
de onda muy pequeñas. Este carácter ondulatorio y electromagnético estaba de acuerdo con la teoría clásica, pues según la electrodinámica clásica
una partícula cargada acelerada produce radiación electromagnética. En
este caso, los cuerpos cargados eléctricamente acelerados son los electrones, que disminuyen su velocidad al chocar con el ánodo del tubo de rayos
catódicos. Por eso a estos rayos X se les llama de radiación de frenado.
P1

P2

Cristal
de ZnS

Figura
de Laue
Haz de rayos
Röntgen
Tubo de rayos Pantallas de plomo
Röntgen
Fig. 3.25

Fig. 3.26

125

FÍSICA
El descubrimiento de la difracción de los rayos X, realizado por
Laue, permitió el inicio de la cristalografía de rayos X, que es una
técnica experimental para el estudio y análisis de materiales, basada
en el fenómeno de difracción de los rayos X por sólidos en estado
cristalino.
Al estudiar la intensidad de los rayos X, en función de la longitud de
onda, se descubrió que existía un valor mínimo de longitud de onda a
partir del cual la intensidad se anula, es decir, que no hay rayos X con longitudes de onda menores que ese mínimo. A esa lmín se le llama límite de
onda corta de los rayos X.
También se comprobó experimentalmente que lmín depende de la energía cinética de los electrones incidentes. En la figura 3.27 se representa el
comportamiento descrito, donde Ec , Ec , Ec es la energía de los electrones
1
2
3
incidentes en cada caso y l1, l2 y l3, el límite de onda corta de los rayos X
producidos.
Este hecho experimental entra en contradicción con la electrodinámica
clásica pues, según ella, al frenarse los electrones deben emitirse ondas
electromagnéticas de todas las longitudes de onda. Sin embargo, el límite
de onda corta se explica perfectamente teniendo en cuenta el carácter
cuántico de la radiación electromagnética.
Si los rayos X se producen a expensas de la energía del electrón que
choca con el ánodo, el fotón de rayos X no se puede llevar más energía
que la del electrón, por lo tanto:
mv 2
2
Entonces la frecuencia máxima debe ser tal que:
h 

mv 2
2
De manera que:
hν máx ≤

mv 2
ν máx = 2
h
De donde, tomando en cuenta que v = lc, se obtiene que:
hc
λmín =
2 (3.6)
mv
2

126

CAPÍTULO 3
La expresión 3.6 concuerda con los resultados experimentales representados en la figura 3.27.
I1

Ec > Ec > Ec
1

2

3

Ec

1

Ec
2
Ec
3

1 2 3



Fig. 3.27

Problema resuelto 2
En el ánodo de un tubo de rayos X inciden los electrones con una energía de 35 keV. Determina el valor de la menor longitud de onda de los
rayos X emitidos.
Solución:
La longitud de onda mínima se puede calcular directamente a partir de
la ecuación:
λ ín =

hc
Ec

Antes de sustituir los datos en la ecuación, debemos tener en cuenta la
conversión de las unidades de energía de kiloelectronvoltio a joule.
35 keV = 35 ∙ 103 (1,6 · 10–19 J) = 5,6 ∙ 10–15 J
Sustituyendo los datos en la ecuación 3.6
3, 0 ⋅ 108 m ⋅ 6, 62 ⋅ 10−34 Js
s
5, 6 ⋅ 10−15 J
lmín = 3,5 ∙ 10–11 m = 0,035 nm
λ ín =

Aplicaciones
-

Industria: en los ensayos no destructivos la radiografía industrial se emplea para inspeccionar, entre otros usos, hormigón y soldaduras, para detectar defectos no visibles. Nota el defecto en la pieza de la figura 3.28.

127

FÍSICA
-

-

Medicina: para detectar fracturas, cáncer de mama (mamografía),
neumonía, objetos extraños, problemas dentales y otros usos. En la
figura 3.29 se muestra una radiografía de mano.
Ciencia: cristalografía de rayos X. En la figura 3.30 se muestra el patrón
de difracción de una estructura icosaédrica.
Control: para controlar de manera rápida y efectiva bultos y
equipajes en puertos y aeropuertos, y en general del tráfico de
mercancías.

Fig. 3.28

Fig. 3.29

Fig. 3.30

Comprueba tus conocimientos
19. Explica de qué forma pueden obtenerse los rayos X.
20. ¿Por qué se puede afirmar que los rayos X no poseen carga
eléctrica?

21. ¿Por qué los rayos X se difractan fácilmente en los cristales y no en
las redes de difracción para la luz visible?

22. ¿A qué se denomina límite de onda corta de los rayos X?
23. ¿Cuál es la explicación cuántica de la existencia del límite de onda
corta de los rayos X?

3.4 Efecto Compton
El descubrimiento del fenómeno denominado efecto Compton contribuyó de forma decisiva a la consolidación de la idea sobre la naturaleza cuántica de la luz y al establecimiento de la física cuántica en sentido
general.

128

CAPÍTULO 3

 De la historia
Arthur H. Compton (1892-1962) (figura 3.31), físico estadounidense. Fue galardonado con el Premio
Nobel de Física, en 1927, por el descubrimiento del
fenómeno de la dispersión de los rayos X y sus investigaciones sobre la reflexión, polarización y espectro de los rayos X y de los rayos cósmicos.

Fig. 3.31

El efecto Compton consiste en que al interactuar con los electrones la
luz dispersada tiene una longitud de onda mayor que la esperada según la
teoría electromagnética.
Para explicar este fenómeno, Compton supuso que los rayos X incidentes eran fotones de frecuencia n con una energía E = hn y cantidad de
h
antes de chocar con el electrón de la sustancia dispermovimiento p 
c
sora. Consideró que antes del choque, el electrón se encontraba en reposo
y después del choque el electrón se movía con una parte de la energía del
fotón incidente, teniendo el fotón dispersado menor energía, menor frecuencia y mayor longitud de onda (figura 3.32).
Efecto Compton
Fotón incidente

electrón

i
Fotón dispersado

f

Fig. 3.32

Esta explicación coincidía con la medición de la longitud de onda del
fotón dispersado (λ‘) y no podía considerarse a los rayos X como una onda.

129

FÍSICA
Si los rayos X tuviesen comportamiento ondulatorio cuando se origina el
choque con el electrón, este último debiera oscilar con la misma frecuencia
de la onda incidente y comenzar a emitir radiación de igual frecuencia, y
entonces no varía la longitud de onda de la radiación X dispersada.
Utilizando las ecuaciones relativistas de la energía y de la cantidad de
movimiento, así como las leyes de conservación de la cantidad de movimiento y de la energía en la interacción fotón-electrón, se puede obtener
la ecuación que permite calcular el valor de la longitud de onda de los
fotones dispersados:
l’ = l + lC (1 – cosj) (3.7)
Donde lC = 0,0024 nm es la llamada longitud de onda de Compton y j:
ángulo de dispersión.

Aplicaciones
El efecto Compton es lo que permite conocer información detallada sobre
la composición y densidad de los tejidos, creando imágenes tridimensionales de alta resolución (figura 3.33) que son claves para la medicina.

Fig. 3.33

Problema resuelto 3
Un fotón de rayos X de frecuencia 8,6 · 1018 Hz choca elásticamente con
un electrón que se encuentra en reposo y es dispersado con un ángulo
de 45º con respecto a la dirección del fotón incidente. Calcula el valor de
la longitud de onda del fotón dispersado.

130

CAPÍTULO 3
Solución:
El valor de la longitud de onda del fotón X dispersado se puede calcular
a partir de la ecuación 3.7:
l’ = l + lC (1 – cosj)
c
Como   , esta ecuación se puede escribir en la forma:

c
 ’    C 1  cos  

Sustituyendo por los datos se obtiene que:
’ 
 


3, 0  108 m

s  0, 0024  109 m 1  cos 450


8, 6  1018 Hz
3, 0 · 108 m s
18

8, 6 · 10

Hz

 0, 0024 · 109 m 1  cos 450 

l’ = 0,0357 ∙ 10–9 m = 0,0357 nm

Comprueba tus conocimientos
24. Di en qué consiste el efecto Compton.
25. ¿Cuáles son las leyes de conservación que se manifiestan en la dispersión de los rayos X?

26. Explica el aumento de la longitud de onda del fotón dispersado al
chocar con el electrón.

27. En el efecto Compton con una radiación X de un valor de longitud
de onda definida, ¿para qué ángulo de dispersión los fotones dispersados poseen la mayor longitud de onda?

3.5 Carácter dual de las radiaciones
electromagnéticas
La explicación, entre otros, del fenómeno de la radiación térmica, del efecto fotoeléctrico y del efecto Compton condujo a considerar
a las radiaciones electromagnéticas, como un flujo de partículas, finalmente se denominarían fotones. Esto significó una reconsideración de
la teoría corpuscular, pero no un retorno a la concepción newtoniana, pues
los fotones tienen características muy peculiares. Por ejemplo, además de
poseer cantidad de movimiento p, tienen frecuencia n y energía E = hn.

131

FÍSICA
Surge de inmediato una pregunta; ¿cuál es la cantidad de movimiento
de los fotones?
Al inicio del capítulo planteamos que las radiaciones electromagnéticas
tenían un doble comportamiento. En experimentos como la interferencia,
difracción, polarización y otros de la luz visible y los rayos X, las radiaciones electromagnéticas se comportan como ondas que se propagan con
una velocidad de 3,0 ∙ 108 m/s en el vacío.
Pero se ha demostrado, en este capítulo, que las radiaciones electromagnéticas también tienen un comportamiento corpuscular para poder
explicar fenómenos como la radiación térmica de los cuerpos, el efecto
fotoeléctrico y el efecto Compton. La teoría corpuscular de Newton sobre
la luz planteaba que esta era un flujo de partículas que poseen una masa
determinada y no explicaba la propagación rectilínea de los rayos luminosos cuando se interceptan en un punto. La teoría corpuscular de Einstein
consideró a las radiaciones electromagnéticas como partículas llamadas
fotones que no tenían masa en reposo, sino energía, frecuencia y cantidad
de movimiento.
¿Cuál es la relación entre la frecuencia y la cantidad de movimiento de
un fotón?
De acuerdo con la teoría de la relatividad:
Ec
EV
p =
p
2
c
c2
Por lo tanto, para los fotones se tendrá que;
h c
p 2
c
De donde se obtiene que:
h
p  (3.8)

Las propiedades ondulatorias y corpusculares de la luz no deben interpretarse como contradictorias. La luz es un ente físico que no es ni onda ni
partícula, sino que posee propiedades ondulatorio-corpusculares. Es decir,
la luz posee tanto propiedades ondulatorias como corpusculares. En esto
consiste el carácter dual de las radiaciones electromagnéticas.

Comprueba tus conocimientos
28. Di en qué consiste el carácter ondulatorio-corpuscular de la radiación electromagnética.

132

CAPÍTULO 3

29. Determina el valor de la energía y de la cantidad de movimiento de
un fotón de color rojo de longitud de onda igual a 750 nm.

Problemas generales del capítulo
1. Determina el valor del cuanto energético de una radiación luminosa de
longitud de onda igual a 5,0 ∙ 10–7 m.
2. Calcula el número de fotones absorbidos de una radiación luminosa
de frecuencia 7,5 ∙ 1014 Hz, por la superficie de un metal si la radiación
utilizada tiene una energía igual a 4 965 J.
3. Calcula el valor de la energía cinética de un electrón, si se requiere una tensión de corte igual a 3,0 V. Expresa el resultado en joule y
electronvolt.
4. Calcula el trabajo de extracción de una sustancia si se conoce que la
frecuencia umbral es de 6,0 · 1014 Hz.
5. Determina la frecuencia umbral para el primer metal que aparece en la
tabla de la figura 3.17.
6. Calcula la frecuencia de la radiación luminosa con la cual se ilumina
una superficie, si la energía cinética máxima de los fotoelectrones es
9,9 ∙ 10–20 J, siendo el trabajo de extracción de 4,75 eV.
7. La gráfica de la figura 3.34 representa la dependencia de la energía
cinética máxima de los fotoelectrones con la frecuencia de la radiación
luminosa para dos metales diferentes A y B.
a) ¿En cuál de los metales los electrones requieren de mayor energía
para salir del metal? Justifica.
b) Calcula la energía cinética máxima de los fotoelectrones del metal B
al ser iluminada con una radiación de frecuencia 3,0 ∙ 1015 Hz.
EC

máx

(10-19J)
A

B

ν (1015Hz)
0

0,5

0,9

3

Fig. 3.34

133

FÍSICA
8. La siguiente gráfica (figura 3.35) muestra la dependencia de la energía
cinética de los fotoelectrones con la frecuencia de la luz que incide
sobre el metal.
a) ¿Cuál es el valor del trabajo de salida?
b) ¿Cuál es la frecuencia límite del fotoefecto para ese metal?
EC (10-19J)

4,8

 (1014Hz)
0

13,2
Fig. 3.35

9. Una luz de longitud de onda 430 nm extrae de cierto metal electrones cuyas energías cinéticas tienen valores comprendidos entre cero
y 1,2 ∙ 10–19 J. Determina el trabajo de extracción de este metal.
10. La mínima energía requerida para extraer un electrón del sodio es de
2,3 eV. ¿Muestra el sodio efecto fotoeléctrico para la luz anaranjada
de longitud de onda 680 nm? Fundamenta tu respuesta realizando el
cálculo correspondiente.
11. La frecuencia umbral de cierto metal es la que corresponde con una
radiación de longitud de onda 8,0 ∙ 10–7 m. Si esa sustancia se ilumina
con una radiación de longitud de onda de 2,0 ∙ 10–7 m, calcula:
a) La energía cinética de los fotoelectrones emitidos.
b) La tensión de corte.
12. Al producirse el efecto fotoeléctrico en una superficie de platino
(W0 = 5,3 eV), la tensión de corte resultó ser 0,8 V. Halla:
a) La longitud de onda de la radiación que se utilizó.
b) La longitud de onda máxima con la cual aún se consigue el
fotoefecto.
13. El trabajo de salida de un electrón de la superficie de un metal es
2,64 ∙ 10–19 J:

134

CAPÍTULO 3
a) Determina los valores límites del fotoefecto para la longitud de
onda y la frecuencia.
b) Si sobre el metal incide una radiación de frecuencia igual a 8,0 ∙ 1014 Hz,
¿se producirá el fotoefecto? Argumenta tu respuesta.
c) Si se hace más intenso el haz luminoso anterior manteniendo constante la frecuencia, ¿Qué le sucederá a la fotocorriente de saturación? Argumenta tu respuesta.
d) Bajo las mismas condiciones haz un análisis para la tensión de corte.
14. Sobre una superficie de aluminio incide luz de longitud de onda 200 nm.
En el aluminio se requieren 3,7 eV para extraer electrones.
a) ¿Cuál es la energía cinética del fotoelectrón más rápido?
b) ¿Cuál es el valor del potencial de corte?
c) ¿Cuál es la longitud de onda umbral del aluminio?
15. El efecto fotoeléctrico para cierto metal comienza cuando la frecuencia de la luz incidente es igual a 1015 Hz. Calcula el valor de la tensión
de corte cuando el metal se ilumina con una radiación de 10–7 m de
longitud de onda.
16. La mínima energía requerida para extraer un electrón del sodio es de
2,3 eV. ¿Ocurrirá el efecto fotoeléctrico en el sodio cuando se ilumina
con luz de 680 nm? Argumentar realizando el cálculo correspondiente.
17. En la gráfica de la figura 3.36 se representa la intensidad de los rayos
X en función de la longitud de onda, producidos al bombardear un
ánodo de wolframio con tres haces electrónicos de diferente energía
cinética. Determina el valor que le corresponde al límite de onda corta
l1, l2 y l3 de cada uno de los rayos X.
I

50 keV
30 keV
1 2 3

40 keV


Fig. 3.36

135

FÍSICA
18. La velocidad máxima de los electrones (m = 9,1 ∙ 10–31 kg) que inciden
en el ánodo de un tubo de rayos X es de 1,0 ∙ 107 m/s. Calcula la frecuencia máxima de los rayos X producidos.
19. Las radiaciones que emite un tubo de rayos X tienen un límite de onda
corta de 10 nm. Calcula el valor del potencial acelerador utilizado.
20. Calcula la velocidad máxima de los electrones acelerados para obtener
rayos X que posee un límite de onda corta igual a 12,4 nm.
21. Un haz de rayos X de longitud de onda 0,0558 nm es dispersado con
un ángulo de 45º al chocar elásticamente con un electrón. Determina
el valor de la longitud de onda del haz dispersado.
22. Fotones de rayos X de longitud de onda igual a 10–11 m colisionan con
electrones libres de un metal y son dispersados con un ángulo de 90°.
Determina la frecuencia de los fotones dispersados.
23. Un haz de rayos X es dispersado por electrones libres. Los rayos dispersados de longitud de onda 220 nm, se encuentran en una dirección
que forma un ángulo de 30º con respecto a la dirección del haz incidente. Determina la frecuencia de los rayos X del haz incidente.

136

CAPÍTULO 4
Física del átomo

L

a Física Atómica es un fascinante campo de estudio que nos sumerge en el mundo microscópico de los átomos, las unidades
fundamentales de las que están formados todos los cuerpos. En
esta rama de la física exploramos la estructura, las propiedades y el
comportamiento de los átomos, revelando un universo de partículas
subatómicas, fuerzas fundamentales y fenómenos cuánticos que desafían nuestra intuición cotidiana. Desde los experimentos pioneros
de Thomson y Rutherford hasta los avances contemporáneos en la
manipulación de átomos individuales, la Física Atómica nos invita a
un viaje de descubrimiento en el que la imaginación se combina con
la precisión científica, para revelar los misterios de la materia a escalas
infinitesimales.
En particular, en este capítulo tendremos la oportunidad de explorar cuestiones como la estructura del átomo, el desarrollo de las
ideas sobre la naturaleza del átomo, los trabajos pioneros relacionados con la investigación mediante colisiones nucleares para conocer
la estructura del átomo y que en la actualidad son una herramienta
básica en la investigación científica, la naturaleza ondulatoria de
las partículas subatómicas, la dualidad onda-partícula, la mecánica
cuántica y las aplicaciones de esta disciplina en el campo de la medicina, la ingeniería, las artes y la ciencia y la tecnología en sentido
general (figura 4.1).

137

FÍSICA

Fig. 4.1 Imagen de los huesos de una mano obtenida mediante tomografía axial
computarizada

¡Puede que lo más importante sea que nos acercaremos a un mundo de
partículas, energías y leyes fundamentales que desafiarán y enriquecerán
nuestra comprensión del universo que nos rodea! ¡Bienvenidos al apasionante mundo de la Física Atómica!

4.1 Primeras concepciones sobre la estructura
del átomo. Modelo atómico de Thomson
Desde la antigüedad, los hombres de ciencia (llamados en aquella
época filósofos) se interesaron por la estructura interna de los cuerpos.
Ya en la antigua Grecia surge el llamado atomismo, una teoría que planteaba que el átomo era la menor porción posible de sustancia y lo consideraban indivisible (de ahí el nombre de átomo, que en griego significa
indivisible). El representante principal del atomismo griego fue Demócrito
(460 a.n.e.-360 a.n.e.).
Aún en la época de Newton se consideraba a los átomos como esferas
diminutas, duras e indestructibles. Si bien este modelo proporciono una
buena base para la teoría cinética de los gases, fue necesario diseñar nuevos modelos cuando los experimentos revelaron la naturaleza eléctrica de
los átomos.
Con los avances de la química en el siglo xvii, el científico inglés John
Dalton (1776-1884) recuperó la idea de los átomos como constituyentes
básicos de los cuerpos y enunció un conjunto de propiedades que estos
debían tener. Aunque no aportó más información sobre la estructura de
los átomos, contribuyó a allanar el camino para los futuros estudios sobre
la estructura del átomo.

138

CAPÍTULO 4
Un paso significativo en el esclarecimiento de la estructura interna de los cuerpos tuvo lugar a finales del siglo xix , cuando el físico
inglés J.J. Thomson (1856-1940) estableció el primer modelo de la
estructura compleja del átomo. Thomson se basó en los siguientes
hechos:
• Podían obtenerse partículas cargadas negativamente (que él llamó
electrones) de las distintas sustancias; esto sugería la idea de que los
electrones formaban parte de los átomos.
• Los cuerpos son, normalmente, eléctricamente neutros: es posible suponer entonces que cada átomo debe poseer la misma cantidad de
cargas eléctricas positivas y negativas.
• Los electrones son miles de veces más ligeros que los átomos, lo que
indica que los constituyentes cargados positivamente deben ser los que
poseen casi toda la masa de los átomos.
Sobre la base de estos hechos, Thomson propuso el siguiente modelo:
Los átomos son esferas uniformemente cargadas con carga positiva, en las que se encuentran “empotrados” los electrones. La
carga total de los electrones es de igual valor a la de la distribución de carga positiva en la que están “empotrados”.
En la figura 4.2 se representa esquemáticamente este modelo
atómico.
Carga
positiva
distribuida
por todo
el átomo

Electrón

Fig. 4.2

139

FÍSICA

¡Cuidado!
En muchas ocasiones se hace referencia a este modelo como el “modelo
del pudin con pasas”, es decir, se supone que los electrones están como las
pasas en un pudín. Puede que esta no sea una mala imagen, pero tiene el
inconveniente de hacer pensar que los electrones están distribuidos al azar
(como las pasas en el pudin y esto no es así, de acuerdo con la cantidad de
electrones, en este modelo, la distribución de los electrones está condicionada por el propio modelo.

Con este modelo se pueden explicar los hechos relacionados anteriormente y, además, según Thomson, la emisión de luz por los átomos y las
propiedades químicas de los elementos de la tabla periódica.

 De la historia
Joseph John Thomson (figura 4.3). Premio Nobel de Física, en 1906, Thomson es considerado
el descubridor del electrón. Su estudio de la reflexión de los rayos catódicos (electrones) en un
campo eléctrico inició el campo de la física de
las partículas subatómicas.

Fig. 4.3

Comprueba tus conocimientos
1.

¿Qué hechos indujeron a Thomson a formular su modelo del átomo?

2.

¿Cómo era el átomo según J. J. Thomson?

3.

Explica, a partir del modelo atómico de Thomson, los hechos que le
sirvieron de base para su establecimiento.

4.2 Modelo atómico de Rutherford
Pasaron 13 años antes que se realizara una prueba experimental definitiva para comprobar si el modelo de Thomson era válido o no. Para
ello, los físicos alemanes H. Geiger (1882-1945) y Marsden bajo la dirección
del físico inglés-neozelandés Ernest Rutherford (1871-1937) estudiaron,

140

CAPÍTULO 4
en 1911, el comportamiento de un haz de partículas a (átomos de helio
doblemente ionizados) al incidir en una lámina muy fina de oro colocada
en un recipiente en el que se ha hecho el vacío. En la figura 4.4 se representa un esquema de esta instalación.
Fuente de partículas
Haz de partículas α

Deflexión de
las partículas

Pantalla circular
fluorescente
Lámina
de oro
Fig. 4.4

Como consecuencia del modelo de Thomson se esperaba que la mayoría de las partículas a atravesaran la lámina, mientras las otras sufrirían
una ligera desviación; pues como la carga positiva se encuentra, según
este modelo, distribuida uniformemente en el átomo, este ejercería fuerzas eléctricas débiles sobre las partículas a que penetraran en la lámina, y
como estas poseen una cantidad de movimiento grande, solo debían sufrir
una ligera desviación.
Geiger y Marsden encontraron en su experimento que la mayoría de
las partículas a incidentes atravesaban la lámina sin desviarse, un grupo se
desviaba (dispersaba ligeramente) y un pequeño grupo era dispersado con
un ángulo mayor de 90°, o sea, “rebotaban” en la lámina. En la figura 4.5
se muestra esquemáticamente esta situación.
Átomos de la lámina de oro
Núcleo

Partículas alfa

Fig. 4.5

141

FÍSICA
Este último resultado sorprendió a Rutherford y a sus ayudantes. Según
el propio Rutherford, era equivalente a que una bala de cañón de 38 cm
de diámetro, disparada contra una hoja de papel, rebotara en ella y regresara hacia el tirador.
Rutherford llegó a la conclusión de que el retroceso de las partículas a era debido a un solo choque y no a varios choques sucesivos,
y que esto solo era posible si la mayor parte de la masa del átomo y
su carga positiva estaban concentradas en una zona muy pequeña del
volumen que ocupa el átomo. A esta zona Rutherford le llamó núcleo
atómico.
Partiendo de estas consideraciones, Rutherford elaboró un nuevo modelo atómico que establece que:
El átomo está constituido por el núcleo atómico cargado positivamente, alrededor del cual se mueven los electrones de forma semejante a como lo hacen los planetas alrededor del Sol. La
fuerza de Coulomb entre el núcleo y los electrones es la responsable de que las cargas negativas giren alrededor del núcleo. La
carga positiva del núcleo es numéricamente igual a la de todos
los electrones que giran a su alrededor, pues el átomo es eléctricamente neutro.

 De la historia
Ernest Rutherford (figura 4.6), célebre físico inglés, nace el 30 de agosto de 1871. Recibió el
Premio Nobel de Química en el año 1908, por
su explicación del fenómeno de la radiactividad.
Elaboró, por medio de la experimentación, un
modelo del átomo que permitió explicar un amplio conjunto de fenómenos atómicos.

Fig. 4.6

En la figura 4.7 se representa el átomo de hidrógeno según el modelo
de Rutherford.

142

CAPÍTULO 4

Fig. 4.7 Modelo planetario del átomo de hidrógeno según Rutherford

Este modelo atómico explica todos los hechos experimentales que explicaba el modelo sugerido por Thomson y, además, la dispersión de las
partículas a; pero no es capaz de explicar la estabilidad del átomo. Analicemos brevemente esta dificultad del modelo.
Según el modelo de Rutherford, los electrones están girando alrededor
del núcleo. Como este movimiento es acelerado y los electrones son partículas
cargadas, de acuerdo con la teoría electromagnética deben irradiar energía
constantemente en forma de ondas electromagnéticas. Por lo tanto, debe disminuir su energía mecánica de forma continua y precipitarse contra el núcleo
(figura 4.8). El átomo se destruiría entonces en un tiempo del orden de 10–8 s.

-e

Fig. 4.8

Sin embargo, los átomos son estables y pueden existir mucho tiempo
sin emitir radiaciones. Esta y otras contradicciones, entre la práctica y el

143

FÍSICA
modelo de Rutherford, determinaron que los científicos lo consideraran
insuficiente y se dedicaran a modificarlo o buscar otro modelo que explicara los hechos experimentales.

 De la historia
Antes de los trabajos de Rutherford y sus colaboradores se propusieron
otros modelos atómicos.
En 1901, el químico y físico francés Jean Baptiste Perrin, partiendo del modelo de Thomson, propuso que los electrones debían estar fuera del núcleo,
como los planetas alrededor del Sol.
En 1902, el químico estadounidense Gilbert Newton Lewis propuso un modelo en el que la estructura del átomo tiene forma de cubo con el núcleo
en su centro y los electrones en cada uno de los vértices. Este modelo no
tuvo mucha aceptación y su aporte radicó en la introducción del concepto
de valencia.
En 1903, el físico japonés Huntaro Nagoka, rechazo el modelo de Thompson argumentando que los electrones no podían estar empotrados en la
carga positiva del átomo y propuso un modelo similar a Saturno y sus
anillos. En este modelo, Saturno representaba al núcleo y los anillos los
electrones. Este modelo se desestimó pues no consideraba la repulsión
entre los electrones.

Comprueba tus conocimientos
4.

Menciona un hecho experimental que contradijo al modelo atómico
de Thomson. Explica esa contradicción.

5.

¿Cuál es el modelo del átomo según Rutherford?

6.

¿Cómo se explica, de acuerdo con el modelo atómico de Rutherford,
la dispersión de las partículas a?

7.

Explica la contradicción del modelo atómico de Rutherford con la
práctica.

4.3 Modelo atómico de Bohr. Aplicación al átomo
de hidrógeno
En 1913, el físico danés Niels Bohr (1885-1962), basándose en hechos
experimentales aislados y con el objetivo de resolver las insuficiencias del
modelo de Rutherford, estableció su modelo atómico.

144

CAPÍTULO 4

 De la historia
Niels Bohr (figura 4.9) fue un activo participante
en el temprano desarrollo de la mecánica cuántica y aportó gran parte de su estructura filosófica. Durante los años 20 y 30 del siglo xx dirigió
el instituto para Estudios avanzados en Copenhague. El Instituto fue un imán para los mejores
físicos del mundo y proporcionó un foro para
el intercambio de ideas. Cuando Bohr visitó Estados Unidos, en 1939, para asistir a una conferencia científica, trajo noticias sobre la fisión del
uranio, que habían sido observadas por Hahn y
Strassman en Berlín. Los resultados fueron los
Fig. 4.9
cimientos del arma nuclear desarrollada en Estados Unidos durante la Segunda Guerra Mundial. A Bohr se le otorgó el
Premio Nobel de Física, en 1922, por su investigación sobre la estructura de
los átomos y la radiación emanada por estos.

Bohr acepta el movimiento orbital del electrón alrededor del núcleo,
pero estableciendo los postulados siguientes:
Un sistema atómico solo puede encontrarse en determinados estados en los que no emite energía. A estos estados se les llama
estados estacionarios y a cada uno de ellos le corresponde una
energía E bien determinada.
Se puede observar que este postulado entra en contradicción con la
mecánica clásica según la cual la energía de los sistemas en movimiento
puede tener cualquier valor. También contradice la electrodinámica clásica, pues admite la posibilidad del movimiento acelerado de los electrones
sin emisión de ondas electromagnéticas.
Cuando el electrón en el átomo de hidrógeno pasa de un estado
estacionarlo a otro, emite o absorbe un “cuanto” de energía de
valor:
hn = Ei – Ef

(4.1)

Donde h es la constante de Planck, n es la frecuencia del fotón
emitido o absorbido y Ei y Ef las energías de los estados inicial y
final del átomo, respectivamente.

145

FÍSICA
Cuando Ei > Ef o sea, cuando el electrón pasa de un estado de mayor
contenido de energía a otro de menor energía el sistema atómico emite
un fotón cuya energía se calcula por la ecuación 4.1 (figura 4.10 a).
Si Ei < Ef , eI electrón pasa a un estado más energético. En este caso el
sistema atómico absorbe un fotón cuya energía se calcula también por la
ecuación 4.1 (figura 4.10 b).
a

b
E

E

Ei

Ef

Ef

Ei
Fig. 4.10

Solo son permitidas aquellas órbitas en que el producto del módulo de la cantidad de movimiento del electrón por el radio de la
órbita sea un múltiplo entero de veces la constante de Planck h:
mvr  n

h
(4.2)
2

Donde m y v son la masa y la velocidad del electrón, r es el radio
de la órbita (figura 4.11) permitida, y n es un número entero positivo que puede tomar cualquier valor: n = 1; 2; 3; 4:…

-e
me
F
v

+e
r

Fig. 4.11

146

CAPÍTULO 4
h
por  (hache cruzada), por lo que la

expresión 4.2, que recibe el nombre de condición de cuantización de Bohr,
se escribe como:
Se acostumbra representar a

mv r = n  (4.3)
El primer postulado permite justificar la estabilidad del átomo. Con el
segundo se establece el mecanismo de emisión y absorción de energía por
el sistema atómico. El último postulado da la posibilidad de determinar las
dimensiones del átomo para un estado energético dado.
Del modelo nuclear del átomo y de los postulados de Bohr surge un
nuevo modelo atómico conocido como modelo de Bohr.
Como se puede apreciar ese modelo no es más que la imposición de
ciertas limitaciones cuánticas al modelo de Rutherford, que se basa en las
leyes de la física clásica. Es decir, el modelo atómico de Bohr no rechaza
completamente esas leyes.
Apliquemos el modelo atómico de Bohr al átomo más sencillo de la naturaleza, el de hidrógeno, con el objetivo de calcular su tamaño (el radio de la órbita del electrón) y la energía del sistema en los distintos estados estacionarios.
El núcleo del átomo de hidrógeno está constituido por un protón que
tiene carga eléctrica e+, donde e es el módulo de la carga del electrón.
De acuerdo con el modelo nuclear del átomo, el electrón se encuentra
girando en una órbita circular de radio r alrededor del núcleo. La energía
potencial (Ep) de interacción del sistema electrón-núcleo se determina por
la ecuación:
Ep =

k · qe · qp
r

1
, qe  qp  e
4 0
tividad del vacío.
Por lo tanto:
Donde k 

Ep  

y

0  8, 85  1012 C2 / N  m2 , es la permi-

e2
(4.4)
40 r

Según la mecánica clásica, la energía total E del sistema atómico es la suma
de la energía potencial del sistema (Ep), más la cinética (Ec). Por lo tanto:
E

mv 2
e2

(4.5)
2
40 r

147

FÍSICA
Por otra parte, como la fuerza que le proporciona al electrón la acelera v2 
ción centrípeta   es Ia fuerza de Coulomb entre el electrón y el núcleo
 r 
(protón):
Fc = FE
Por lo tanto:
v2
e2

4 0 r 2
r
Simplificando esta expresión queda entonces que:
m

mv 2 

e2
4 0 r

Que dividida entre 2 queda como:
mv 2
e2

(4.6)
2
80 r
Sustituyendo 4.6 en 4.5 y restando:
E

e2
(4.7)
80 r

Analizando la ecuación 4.7 se puede concluir que la energía del átomo
está relacionada con el radio de la órbita del electrón: a mayor energía,
mayor será el radio de la órbita.
De acuerdo con la mecánica clásica, la energía del átomo puede tener
cualquier valor, pues el radio también puede tener un valor cualquiera.
Pero, según el tercer postulado de Bohr la órbita del electrón debe ser tal
que cumpla con la ecuación 4.2, es decir, el radio de la órbita no puede tomar cualquier valor (está cuantizada) y, por lo tanto, la energía del átomo
también está cuantizada.
Calculemos los valores permitidos del radio de la órbita del electrón y
de la energía del átomo.
Según la ecuación 4.2, para la velocidad del electrón en al orbita se
tendrá que:
n (4.8)
mr
e2
Sustituyendo este valor de v en la ecuación mv 2 
y despejando
4 0 r
r, nos queda:
v=

rn 

148

4 0 2 n2
(4.9)
me2

CAPÍTULO 4
De esta ecuación se concluye que el radio de la órbita del electrón depende del valor de n. En la figura 4.12 se representa una relación aproximada entre r1, r2 y r3.
El menor radio posible (n = 1) es;
4 0 2
me2
Como la masa del electrón es:
r1 

m = 9,11 ∙ 10–31 kg
el radio de la menor órbita posible es:
r1 = 5,28 ∙ 10–11 m
Este resultado concuerda con las determinaciones experimentales del
radio del átomo de hidrógeno.

r3

n=3

r2

n=2

-e
r1

+e n = 1

Fig. 4.12

Para determinar la energía de los distintos estados estacionarios, es
decir, de los niveles energéticos del átomo de hidrógeno, sustituimos el
valor de rn (del orbital seleccionado) en la ecuación 4.9. Entonces nos
queda:
En  

1

 40 

·
2

m · e4
(4.10)
2  2 n2

Notemos que en la obtención de las ecuaciones 4.9 y 4.10, que determinan el radio y los valores de los niveles energéticos del átomo, se utilizó el
tercer postulado de Bohr.

149

FÍSICA
El menor nivel energético (n = 1) tiene el siguiente valor:
E1  

1

 40 

·
2

m · e4
(4.11)
2 2

E1 = –2,18 ∙ 10–18 J = –13,6 eV
La menor energía que puede poseer el átomo de hidrógeno corresponde al estado más estable. Este nivel energético recibe el nombre de
estado básico del átomo de hidrógeno. El resto de los estados energéticos (n = 2;3;4;…) corresponden al átomo excitado. El tiempo promedio
que el átomo está en uno de esos estados es del orden de 10–8 s. Durante
ese tiempo el electrón debe dar aproximadamente un millón de vueltas
alrededor del núcleo.
Teniendo en cuenta las ecuaciones 4.7 y 4.11 podemos determinar la
energía de los distintos estados estacionarios por la siguiente ecuación:
E1
n2
En la expresion E1, es la energía del estado básico o fundamental, aquel
en que el lectrón se encuentra más próximo al núcleo del atomo de hidrógeno, n es el número cuántico del orbital que se analiza. Sustituyendo el
valor de E1, tendremos:
En =

En =

13, 6
eV (4.12)
n2

Problema resuelto 1
1. A partir del modelo atómico de Bohr:
a) Calcula la energía requerida para ionizar un átomo de hidrógeno cuando se encuentra excitado en el estado estacionario
caracterizado por n = 3, y cuando se encuentra en el estado
básico.
b) Calcula la energía del fotón emitido cuando el átomo pasa del estado de n = 3 al básico.
c) Representa en tu libreta un esquema de niveles energéticos con
las energías de ionización para el estado de n = 3 y para el básico.
Además, señala en el esquema la transición correspondiente a la
emisión de un fotón al pasar el el electrón, en el átomo, del nivel
n = 3 al básico.

150

CAPÍTULO 4
Solución:
a) La energía requerida para ionizar un átomo es la cantidad mínima de
energía que hay que suministrarle para que pase del nivel en que se encuentra al nivel energético correspondiente a la energía cero (electrón
no ligado, n = ¥). Por lo tanto, si el átomo se encuentra en el nivel n la
energía requerida para ionizarlo ( Eionn ) será:
Eionn   E
Por lo que, de acuerdo con la ecuación 4.10, nos queda:

m · e4 
1
Eionn    
·

2
  4   2n2 
0


Eionn 

1

 40 

·
2

m · e4
2 n 2

El dato que nos brinda directamente el problema es: n = 3 en el primer
caso; en el segundo caso, como nos dice que el átomo está en el estado
básico, n = 1. Los demás elementos de la ecuación son magnitudes que
se pueden buscar en una tabla de constantes físicas. Estos datos son:
me = 9,11 ∙ 10–31 kg
e = 1,60 ∙ 10–19 C
 1, 05 · 1034 J · s
E0 = 8,85 ∙ 10–12 C2/Nm2
p = 3,14
Sustituyendo estos valores en la ecuación solución, tenemos que
para n = 3
3
Eion
 2, 42  1019 J  1,51 eV
n

Para n = 1 tendremos:
Eion1  2,18  10 19 J 13, 6 eV

Este es el valor de lo que se conoce como energía de ionización del átomo de hidrógeno.
b) Para determinar la energía del fotón emitido cuando el átomo experimenta una transición energética entre el estado de n = 3 y el básico,
aplicamos la ecuación 4.1:
hn = Ei – Ef

151

FÍSICA
Donde, de acuerdo con la ecuación 4.10, tenemos:

1
m · e4 
Ef  E1   
·
  Eion1 y
  4  2
2 
0


1
m · e4 
Ei  E3   
·
  Eion3
  4  2 232 
0


Por lo tanto, la energía del fotón será;
hn = 13,58 eV – 1,51 eV = 12,1 eV
A los resultados de los incisos a y b se puede llegar directamente, utilizando la ecuación 4.12 en lugar de la 4.10.
c) El esquema que nos piden en este inciso está representado en la figura 4.13.
Eion

E(eV)

3

1,51

n=3

Eion

1

n=2

13,6

n=1

Fig. 4.13

Problema resuelto 2
Determina la mayor longitud de onda de la serie de Lyman.
Solución:
Para calcular la mayor longitud de onda de una serie espectral hay que
determinar la longitud de onda del fotón emitido de menor frecuencia.
Esto (de acuerdo con la ecuación 4.1) corresponde a la transición menos
energética.
En la serle de Lyman la transición menos energética corresponde al paso
del átomo del estado estacionarlo caracterizado por n = 2, al estado de n = 1.

152

CAPÍTULO 4
La ecuación que describe la serie de Lyman es:
1
1

 R  1  2  donde nf = 1

 n 


1
1

R 1 2 
n



Sabemos que para que l sea máxima n tiene que ser igual a 2. Además,
conocemos que R = 1,097 ∙ 107 m–1. Así:
lmáx 1,215 ∙ 10–7 m = 121,5 nm
Este fotón corresponde a la zona ultravioleta.

Comprueba tus conocimientos
8. Enuncia los postulados de Bohr.
9. ¿Por qué se dice que los postulados de Bohr están en contradicción
con la física clásica?

10. ¿Qué explica cada postulado?
11. ¿En qué consiste el modelo atómico de Bohr?
12. ¿Qué postulados se utilizan para determinar rn y En?
13. ¿Cuándo en una transición atómica se emite energía y cuándo se
absorbe?

4.4 Experimento de Franck y Hertz
Al aplicar el modelo atómico de Bohr al hidrógeno no hicimos más que
utilizar las leyes de la física clásica, condicionándolas con los postulados
de Bohr, los cuales, a su vez se contraponían a las teorías clásicas; sobre
todo el hecho de que una partícula cargada se mueva aceleradamente y
no emita energía. La existencia de los estados estacionarios fue un aspecto
muy controvertido de los postulados, hasta que en el mismo año 1913 los
físicos alemanes James Franck (1882-1964) y Gustav Ludwig Hertz (18871975) realizaron un experimento con el cual confirmaron la existencia de
los estados estacionarios.
Franck y Hertz pensaron que, de ser cierto que el átomo solo podía tener ciertos valores de energía, entonces, si por cualquier mecanismo se le
entrega una energía menor que la diferencia entre la energía del estado

153

FÍSICA
más estable y el inmediato siguiente, esta no sería absorbida. El átomo
solo absorbe energía cuando se le entrega una cantidad igual o mayor
que la diferencia entre el estado en que se encuentra y cualquier otro más
energético.
Para llevar a cabo esta idea, utilizaron como fuente de energía electrones acelerados por una diferencia de potencial.
En la figura 4.14 se esquematiza un dispositivo similar al utilizado por
Franck y Hertz para realizar su experimento: B es un bulbo de vidrio dentro del cual se encuentran tres electrodos (cátodo C, rejilla R y ánodo A) y
un gas atómico de mercurio enrarecido (a una presión aproximadamente
de 13 Pa).
La batería variable e1 suministra una diferencia de potencial entre el cátodo y la rejilla la cual acelera a los electrones que son emitidos mediante
el calentamiento del cátodo. La batería e2 establece una pequeña tensión
retardadora (aproximadamente de 0,5 V) entre el ánodo y la rejilla, con
el objetivo de que los electrones poco energéticos no lleguen al ánodo. El
voltímetro y el miliamperímetro miden la tensión aceleradora y la corriente anódica, respectivamente.
Vapor
de mercurio
C

R

B
A

mA

V

ε1

ε2

Fig. 4.14

Al aumentar la tensión cátodo-rejilla se comprobó que crecía la corriente anódica. Pero al pasar la tensión el valor de 4,9 V, la corriente decrecía

154

CAPÍTULO 4
bruscamente. Luego volvía a crecer hasta el valor de 9,8 V, partir del cual
decrecía nuevamente. La gráfica de los resultados experimentales se muestra en la figura 4.15.
I(mA)

0

U

4,9

9,8

U(V)

Fig. 4.15

Este comportamiento solo se explica a partir de la existencia de los estados estacionarlos.
Cuando la tensión entre el cátodo y la rejilla es menor de 4,9 V los
electrones chocan elásticamente con los átomos de mercurio (no hay
perdida de energía mecánica) y, por lo tanto, la energía cinética de los
electrones prácticamente no varía; es como si chocaran contra una pared
fija, pues la masa de los electrones es mucho menor que la de los átomos
de mercurio.
A partir de cierto valor de la tensión aceleradora, la energía cinética
que poseen los electrones les permite “vencer” el campo eléctrico producido por la tensión retardadora (ánodo-rejilla) y llegar al ánodo. Al aumentar la tensión entre el cátodo y la rejilla, aumenta el número de electrones
que llega al ánodo y, como es lógico, aumenta la corriente anódica.
Cuando la tensión aceleradora llega a 4,9 V, entonces los átomos de
mercurio absorben la energía que traen los electrones y pasan al estado
energético siguiente, por lo que disminuye la energía de los electrones y
no pueden “vencer” el potencial retardador. Entonces disminuye la corriente anódica.
La corriente anódica no llega a hacerse cero porque al ánodo llegan los
electrones que no chocan con los átomos.
Este resultado experimental nos permite concluir que la diferencia
energética entre el estado estable y el primer nivel energético excitado de
mercurio es de 4,9 eV. Cuando el átomo adquiere esa energía, y solo esa

155

FÍSICA
pasa al primer estado excitado. Esto confirma la existencia de los estados
estacionarios en los átomos.
Experimentalmente se ha comprobado que entre las radiaciones que
emiten los átomos de mercurio excitados se encuentran radiaciones de
frecuencia n tal que hn = 4,9 eV. Esto confirma aún más las conclusiones a
las que arribaron Franck y Hertz.
El segundo máximo, que se produce para una diferencia de potencial
de 9,8 V se debe a que los electrones chocan dos veces inelásticamente con
los átomos de mercurio, cediendo 4,9 eV de energía en cada caso.

Comprueba tus conocimientos
14. Describe el experimento de Franck y Hertz.
15. ¿Qué confirma el experimento de Franck y Hertz? ¿Por qué?

4.5 Espectros atómicos
Sabemos que al hacer pasar por un prisma luz blanca esta se descompone en una gama de diferentes colores que llamamos espectro.
Cada sustancia, en dependencia de su estado y su temperatura, emite
radiaciones electromagnéticas con un espectro característico (figura 4.16),
es decir tienen espectros de emisión que las caracterizan, como si fuera su
huella digital.

Fig. 4.16 Representación de los espectros de emisión de algunos elementos,
de arriba hacia abajo, hidrógeno, helio, mercurio y uranio

156

CAPÍTULO 4
Por otra parte, si se hace pasar luz blanca, por ejemplo, a través de los
vapores de cierta sustancia, esta absorbe las radiaciones de la misma frecuencia que puede emitir y se obtiene el llamado espectro de absorción
de la sustancia. La absorción de las radiaciones se puede considerar como
el proceso inverso al de la emisión, en este caso, los átomos al absorber la
radiación pasan de un estado energético inferior a uno superior.
En la figura 4.17 se representan de manera comparativa los espectros
de emisión y absorción del hidrógeno.

Fig. 4.17 Nota que las rayas oscuras en el espectro de absorción se corresponden
con las del espectro de emisión

Por su estructura, los espectros se pueden agrupar en tres tipos: continuos, de rayas y de bandas.
Espectros continuos
Un espectro continuo es aquel en que están presentes todas las longitudes de onda dentro de una región del espectro electromagnético. La luz
solar, la emitida por una lámpara de arco o por un cuerpo solido calentado, son ejemplos de espectros continuos. En la figura 4.18 se muestra el
espectro continuo de la luz solar en la zona visible.

Fig. 4.18

Este tipo de espectro es característico de los cuerpos sólidos y líquidos en estado incandescente. También el plasma puede emitir un espectro

157

FÍSICA
continuo. El carácter continuo del espectro se debe no solo a las propiedades de los átomos, sino, además, a la interacción entre estos; por eso los
gases monoatómicos enrarecidos no lo producen, pues en ellos los átomos
prácticamente no Interactúan.
Espectros de rayas o líneas
Si se observa a través de un aparato espectral la luz proveniente de los
vapores producidos al calentar una sustancia en la “llama” de un mechero,
se observa un conjunto de rayas sobre un fondo negro. Esto constituye un
espectro de rayas. Estos espectros también se producen cuando la luz se
emite por un gas por el que circula una corriente eléctrica.
Experimentos realizados con vapores de distintas sustancias permiten
concluir que cada sustancia presenta un espectro de rayas característico.
Así, cada vez que, por ejemplo, obtengamos el espectro de los vapores de
hidrógeno, el espectro estará formado por cuatro rayas sobre fondo oscuro, como se representa en la figura 4.17.
Los espectros de rayas solo se producen cuando la luz es producida
por sustancias en estado gaseoso atómico, no molecular. Son los átomos
aislados, que no interaccionan entre sí, los responsables del “carácter discreto” del espectro. De esto y del carácter individual de los espectros de
rayas (cada sustancia produce su espectro característico) se infiere que los
átomos aislados de una sustancia emiten radiaciones electromagnéticas de
longitudes de onda bien determinadas que, además, son características de
cada sustancia. Esta conclusión se infiere también del modelo atómico de
Bohr, como veremos más adelante.
Entre los espectros atómicos más estudiados está el producido por la luz
emitida por vapores de hidrógeno. En 1885, el profesor sueco J. J. Balmer
(1825-1898) realizó un importante aporte en su estudio del espectro del
hidrógeno pues, en su artículo Notas relativas a las líneas espectrales del
hidrógeno, presentó una fórmula empírica que describía perfectamente
el espectro de rayas del hidrógeno en la zona visible (las rayas roja, verde,
azul y violeta). Esta fórmula es:
1
1
 1
 R  2  2  (4.13)

2 n 
Donde R = 1,097 ∙ 107 m–1, se denomina constante de Rydberg.
El modelo atómico de Bohr aplicado al átomo de hidrógeno proporciona una fundamentación teórica a la fórmula empírica de Balmer. Teniendo

158

CAPÍTULO 4
en cuenta el segundo postulado de Bohr la frecuencia del fotón emitido
por el átomo es:
Ei  Ef
h
Sustituyendo en esta ecuación las expresiones de Ei y Ef , dadas por la
h
, tendremos que:
ecuación 4.10, y que  
2




1
me4  1
 2
3 2  2
8h o  nf ni 

Pero v 

C
, por lo tanto:


c
me4  1
1
 3 2 2  2
 8h o  nf ni 
De donde, dividiendo toda la expresión por c:
1
1
me4  1
 3 2  2  2
 8h oc  nf ni 
Donde:
me4
 1, 097  107 m1
3 2
8h oc
O sea, el mismo valor de la constante de Rydberg.
Si hacemos nf = 2 tenemos la expresión de Balmer obtenida a partir del
modelo atómico de Bohr.
1
1
 1
 R 2  2 

n 
2
Las cuatro rayas espectrales de la serle de Balmer corresponden a las
transiciones desde los niveles energéticos de n = 3; 4; 5 y 6 hasta el nivel
n = 2; es decir, desde los estados con energía E3 , E4 , E5 y E6 hasta el estado
de energía E2.
La teoría de Bohr conduce a la cuantización de la frecuencia, en concordancia con los resultados experimentales, correspondientes al estudio del
espectro de emisión del átomo de hidrógeno. Las radiaciones de distintas
frecuencias emitidas por el átomo de hidrógeno forman una serie, cada
una de las cuales se corresponde con un determinado valor del número
cuántico asociado al estado estacionario nf y diferentes valores del número ni > nf.

159

FÍSICA
Si la transición se establece entre los niveles energéticos (nf = 1) y
(nf = 3), se obtienen las fórmulas espectrales para las llamadas series
de Lyman (en la zona ultravioleta) y de Paschen (en la zona infrarroja),
descubiertas a principios del siglo xx . En la figura 4.19 se representan las transiciones correspondientes a las series de Balmer, Lyman y
Paschen.
-0,38 eV
-0,54 eV
-0,85 eV

E6
E5
E4

-1,51 eV

E3

Serie de
Paschen

n=6
n=5
n=4
n=3

Serie de
Balmer
-3,40 eV

E2

-13,6 eV

E1

Serie de
Lyman
n=2

n=1
Núcleo

Fig. 4.19 Series espectrales del hidrógeno

Esta explicación cuantitativa de los espectros del átomo de hidrógeno constituyó un gran éxito del modelo atómico de Bohr. Las hipótesis de Bohr fueron una verdadera revolución del pensamiento
científico, pues contribuyeron notablemente en la búsqueda de una
teoría cuántica que describiera la estructura y el comportamiento de
los átomos.
Espectros de bandas
Estos espectros, también llamados espectros moleculares están formados por un conjunto de bandas, más o menos anchas, formadas por rayas
espectrales muy próximas entre sí. El nombre de espectros moleculares
está asociado al hecho de que estos espectros se producen al variar la energía de las moléculas y su análisis detallado, que no abordaremos en este
curso, resulta algo más complejo.

160

CAPÍTULO 4

¿Sabías que…?
Por la individualidad de los espectros, los científicos determinan la composición química de un cuerpo sin necesidad de tocarlo. Con ayuda del análisis
espectral se puede detectar la presencia de un elemento cualquiera (de los
conocidos) en la composición compleja de una sustancia, aunque su masa
no supere los 10–10 g
El análisis cuantitativo de la composición de una sustancia según su espectro
presenta dificultades, pues la brillantez de las líneas espectrales depende no
solo de la masa de la sustancia, sino también del método de excitar la luminiscencia. Así a temperaturas no muy altas muchas de las rayas espectrales
no se manifiestan.
En la actualidad se conocen los espectros de todos los átomos y se han confeccionado tablas de ellos. Con ayuda del análisis espectral fueron descubiertos muchos nuevos elementos, como por ejemplo el rubidio y el cesio.
En el estudio de la composición química del Sol y de las estrellas el análisis
espectral es determinante, pues no es posible utilizar otros métodos. A partir de estas investigaciones se ha llegado a la conclusión de que las estrellas
están compuestas por los mismos elementos químicos que existen en la Tierra.
En el análisis espectral de la radiación solar se descubrió un elemento
desconocido en la Tierra, a este elemento se le denominó helio (solar). Con
posterioridad fue descubierto en la atmósfera terrestre.
Las sustancias orgánicas, que son complejas, se analizan por medio de sus
espectros moleculares.

Comprueba tus conocimientos
16. ¿Cuáles son las características de los espectros:
a) continuos,
b) de rayas,
c) de bandas?

17. ¿Cómo se originan los espectros de rayas?
18. ¿Qué postulados se emplearon para obtener la fórmula espectral de
Balmer, a partir del modelo atómico de Bohr?

4.6 Limitaciones del modelo de Bohr
Los espectros atómicos, que tanto éxito le dieron a la teoría de
Bohr, constituyeron también su limitación al serle imposible describir el

161

FÍSICA
comportamiento espectral del átomo de helio (el que sigue en complejidad al de hidrógeno) y de otros más complejos; así como el hecho experimental de que cada línea espectral está constituida por un conjunto de
líneas más finas (esto se conoce como estructura fina del espectro).
Estas, junto con la propia contradicción que internamente presenta el
modelo al tratar de conjugar las leyes de la mecánica y la electrodinámica
clásica con los principios de cuantificación, son las limitaciones fundamentales del modelo atómico de Bohr.
Con el objetivo de resolver las limitaciones del modelo de Bohr y poder
explicar la estructura fina de las rayas espectrales, en 1916, el físico alemán
A. Sommerfeld (1868-1951) generalizó el tercer postulado, permitiendo
la existencia de órbitas elípticas y la existencia de subniveles en un mismo
nivel energético. Pero no fue hasta después de 1925 que se comenzaron
a desentrañar los misterios de la estructura atómica, con el surgimiento
de la mecánica cuántica. El primer paso en esta dirección lo dio el físico
Austriaco Erwin Schrödinger que elaboró un modelo atómico basado en el
comportamiento onda-partícula, propuesto por Louis de Broglie. En este
modelo los electrones no se encuentran describiendo una órbita específica, sino que tienen determinada probabilidad de moverse en una región a
la que se nombró orbitales.
Otro paso importante fue dado, en 1932, cuando el físico inglés James
Chadwick descubrió la existencia del neutrón y propuso que el núcleo central del átomo está formado por protones y neutrones, moviéndose los
electrones, que tienen una masa mucho menor, en orbitales alrededor del
núcleo.
En la actualidad la mecánica cuántica constituye la teoría que proporciona el modelo más acabado para explicar la estructura del átomo y sus
propiedades.

Comprueba tus conocimientos
19. Di cuáles son las limitaciones del modelo atómico de Bohr.

4.7 Dualismo onda-corpúsculo
El modelo cuántico es el que permite explicar los problemas conocidos
actualmente sobre la estructura atómica, pero la complejidad matemática
de esta teoría sale del alcance de nuestro estudio. Nos limitaremos aquí a
exponer someramente algunas ideas de esta concepción.

162

CAPÍTULO 4
Según Bohr el electrón se mueve en órbitas bien determinadas alrededor del núcleo. En el modelo cuántico el movimiento del electrón no es así.
La mecánica cuántica solo nos da la probabilidad de encontrar al electrón
en un punto del espacio. En esta descripción el radio de la órbita de Bohr
coincide con la distancia más probable al núcleo.
Otra diferencia entre los dos modelos consiste en que en el de Bohr se
considera al electrón como una partícula clásica, mientras que para la mecánica cuántica presenta propiedades muy diferentes.
Es un hecho experimental que los electrones (al igual que el protón, el
neutrón y otras partículas) poseen propiedades ondulatorias. Este comportamiento se consideró al principio como algo sorprendente, como ocurrió
a principios de siglo xx con el carácter corpuscular de la luz. Fue el físico
francés Luis Víctor de Broglie, quien, en 1924, con gran coraje intelectual,
presentó la teoría de que el dualismo no es un comportamiento solo de
la luz, sino que tiene un significado universal, y planteó que las partículas
también poseen propiedades ondulatorias.
De Broglie asoció al electrón una longitud de onda. Para llegar a la ecuación que permite calcularla, siguió un razonamiento análogo al siguiente:
La longitud de onda de los fotones está relacionada con su cantidad de
h
movimiento por   , donde h es la constante de Planck y p es el valor
p
de la cantidad de movimiento lineal de los fotones. Por analogía, la longitud de onda de los electrones estará dada también por la ecuación:


h
(4.14)
p

Donde p es el valor de la cantidad de movimiento del electrón.
La hipótesis de De Broglie motivó dudas en los físicos de la época, pues
si los electrones poseen propiedades ondulatorias, debían experimentar fenómenos propios de las ondas: debían interferir y difractarse. Los
fenómenos de interferencia y difracción de los electrones no se habían
observado.
Los científicos se dieron cuenta de que de acuerdo con el valor tan pequeño que se predecía para la longitud de onda de los electrones (del orden
de 0,1 nm), no se podía producir su difracción en una red de difracción normal (pues el periodo de las redes es muy grande con respecto a la longitud
de onda predicha). En 1927. C. J. Davisson (1881-1958) y L.M. Germer utilizaron como red de difracción una red cristalina (como se hizo en la difracción

163

FÍSICA
de los rayos X), y obtuvieron la difracción de los electrones. En experimentos
posteriores, se hizo pasar un haz de electrones a través de una lámina delgada de estructura policristalina y se registró la radiación dispersada en una
película fotográfica; se obtuvo un patrón de difracción. En la figura 4.20 se
representa esquemáticamente este experimento.
En 1949 se demostró experimentalmente que este comportamiento no
era debido a que en el experimento intervenían un gran número de electrones, sino que era característico del propio electrón. Es decir, el electrón
se difracta.

Fig. 4.20

Podemos concluir que los electrones poseen propiedades ondulatorias.
En realidad, los electrones tienen propiedades corpusculares y ondulatorias; pero, como en el caso de los fotones, estas no son excluyentes ni contradictorias. Los electrones constituyen un ente que no es ni una partícula
ni una onda, pero posee propiedades de ambas. Esto se ha demostrado
experimentalmente para otras micropartículas como los neutrones, los
átomos de helio y las moléculas de hidrógeno.

Problema resuelto 3
Calcula la longitud de onda de un protón cuya velocidad es:
a) 300 km/s;
b) 2,85 ∙ 108 m/s.

164

CAPÍTULO 4
Solución:
a) Para calcular la longitud de onda del protón, aplicamos la relación de
De Broglie (ecuación 4.14):



h
p

Donde p = mv es la cantidad de movimiento del protón, m es la masa
del protón y v su velocidad. Los datos del problema son:
mp = 1,67 ∙ 10–27 kg
h = 6,62 ∙ 10–34 J ∙ s
=
v 300
=
km/s 3, 0 · 105 m/s
Sustituyendo los datos en la relación de De Broglie, tenemos:
l = 1,32 · 10–12 m = 0,00132 nm
b) El razonamiento en este inciso es análogo al anterior, con la diferencia
de que como la velocidad del protón es del orden de la velocidad la luz,
la cantidad de movimiento en la ecuación 4.13 no es mv, sino la cantidad de movimiento relativista del protón.
Como sabemos del capítulo 2, la cantidad de movimiento relativista se
calcula por la ecuación:
mv
p
v2
1 2
c
Por lo tanto:
h
v2
1 2
mv
c
Teniendo en cuenta que:



c = 3,0 ∙ 108 m/s
v = 2,85 ∙ 108 m/s
Entonces:
l = 4,34 ∙ 10–16 m = 4,34 ∙ 10–7 nm
Si comparamos el resultado de ambos incisos, podemos concluir que
mientras mayor es la velocidad del protón, menor es su longitud de onda
y, por lo tanto, son más difíciles de detectar sus propiedades ondulatorias. Es decir, a grandes velocidades el protón se “comporta” como una
partícula.

165

FÍSICA

Comprueba tus conocimientos
20. ¿En qué consiste el dualismo onda-corpúsculo de las partículas?

4.8 El láser
Por su repercusión práctica en el campo de la medicina, la industria, la
investigación y muchos otros más, abordaremos ahora de manera breve y
simplificada lo relacionado con el principio de funcionamiento de los láseres y sus propiedades más generales.
En 1917, Einstein predijo la posibilidad de provocar la denominada radiación inducida (estimulada) de luz por los átomos.
Se entiende por radiación inducida la emisión de luz por los átomos
excitados por la acción de la luz. Una particularidad notable de esta radiación consiste en que, durante la emisión inducida, las ondas luminosas
radiadas no se diferencian de las ondas incidentes sobre el átomo ni por la
frecuencia, ni por la fase, ni en el plano de polarización.
En el lenguaje de la teoría cuántica, las radiaciones estimuladas son el
paso no espontáneo de un átomo de un estado energético superior a uno
inferior bajo la influencia de acciones externas.
En el año 1940, el físico ruso V. A. Fabricant señaló la posibilidad de utilizar
el fenómeno de la emisión estimulada para reforzar las ondas electromagnéticas. En el año 1954, los científicos rusos N. G. Basov y A. M. Projorov, e
independientemente de ellos el físico norteamericano C. H. Towns, utilizaron
el fenómeno de la emisión inducida para crear un generador de microondas
de radio con longitudes de onda de 1,27 cm, denominado máser.
En 1959, por la elaboración del nuevo principio de generación y reforzamiento de las ondas de radio, Basov y Projorov obtuvieron el premio
Lenin. En el año 1960, estos científicos soviéticos y el norteamericano recibieron el premio Nobel.
En 1960, en EE.UU., fue creado el primer láser: un generador cuántico
de ondas electromagnéticas en el diapasón visible del espectro.
EI término láser surgió de la sigla de Ligh Amplification by Stimulated
Emission of Radiation (reforzamiento de la luz con ayuda de la radiación
inducida).
Propiedades de la emisión del láser
Las fuentes de luz láser poseen una serle de características que las diferencian de las otras.

166

CAPÍTULO 4
1. Los láseres son capaces de producir un flujo luminoso muy fino, con un
ángulo de dispersión de aproximadamente 10–5 rad. Un flujo luminoso
con estas características emitido desde la Tierra, cubre en la Luna un
área con un radio de 3 km.
2. La luz del Láser posee una monocromaticidad formidable. A diferencia de las fuentes comunes de luz, en las cuales los átomos emiten
independientemente unos de otros, en los láseres los átomos emiten
luz coherente. Por eso, la fase de las ondas del láser se mantiene constante durante un tiempo mucho mayor que en las fuentes comunes
de luz.
3. Los láseres son fuentes potentes de luz. En un intervalo pequeño de tiempo (10–11 s) se alcanza una potencia de emisión entre 1012 W y 1011 W por
cada centímetro cuadrado. En el mismo tiempo, la potencia de emisión del
Sol por centímetro cuadrado, correspondiente a la suma de la energía de
todo el espectro, es solo de 7,0 · 103 W. En un estrecho intervalo de longitud de onda Dl = 10–6 cm (ancho de una línea espectral del láser), del Sol
llega solamente 0,2 W/cm2 La intensidad del campo eléctrico en una onda
electromagnética emitida por un láser llega a valores entre 1010 V/cm y
1012 V/cm, que supera la intensidad del campo en las proximidades de los
núcleos de los átomos.
Los láseres tienen muchas perspectivas para la comunicación, particularmente en el espacio cósmico, donde no existen nubes que absorben
la luz.
La enorme potencia del rayo láser se utiliza para llevar hasta la ebullición a los materiales en el vacío. Con ayuda del rayo láser se pueden realizar operaciones quirúrgicas (por ejemplo, “soldar” los desprendimientos
de la retina del ojo).
En la holografía, ya mencionada en el primer capítulo, se utiliza la coherencia de los rayos láser.
Los láseres permitieron fabricar los “localizadores luminosos” con ayuda de los cuales se puede medir con gran exactitud la distancia hasta los
objetos en movimiento.

Comprueba tus conocimientos
21

¿En qué consiste la radiación inducida?

22. Menciona tres propiedades del láser.
23. Menciona tres aplicaciones prácticas del láser.

167

FÍSICA

Problemas generales del capítulo
1. Enumera las características más importantes de los modelos atómicos y
señala las semejanzas y diferencias entre ellos.
2. La figura 4.21 representa tres niveles energéticos del átomo de hidrógeno. En la transición representada, ¿el átomo absorbe o emite energía?
a) Si el electrón permanece durante un pequeño intervalo de tiempo
en el nivel n = 2. y luego pasa espontáneamente a otro, ¿cuál es este
nivel? ¿Por qué?

n=1

n=3

n=2
Fig. 4.21

3. Sobre la base de la figura 4.22 en la que se representan tres posibles
niveles energéticos del átomo de hidrógeno, según Bohr.
a) ¿Se encuentra excitado el átomo? Explica tu respuesta.
b) ¿Hacia qué nivel pasará el electrón si se le suministra la energía necesaria para realizar un salto?

e-1
Núcleo

n=1
n=2
n=3
Fig. 4.22

168

CAPÍTULO 4
4. Un átomo de hidrógeno se encuentra excitado en el estado energético
caracterizado por n = 7. Calcula:
a) La energía del sistema atómico en ese estado estacionario.
b) La energía del fotón emitido por el átomo al pasar al estado
básico.
5. En la figura 4.23 se representan algunos de los niveles energéticos del
átomo de hidrógeno.
a) Señala una transición en la que el átomo absorba energía. Explica
tu respuesta.
b) Determina la cantidad de energía absorbida.
c) ¿A qué serie espectral corresponde la transición? Explica tu respuesta.
E(eV)
n =∞

0

–0,85

n=4

–1,50

n=3

–3,40

n=2

–13,60

n=1
Fig. 4.23

6. Calcula la longitud de la onda de la radiación emitida por el átomo de
hidrógeno al pasar de un estado energético caracterizado por el número n = 4 al de n = 2.
7. Determina la frecuencia mínima de las series de Balmer y Paschen.
8. Calcula la longitud de onda límite de las cinco series del hidrógeno
(la cuarta serle del hidrógeno es la de Brackett, para la cual nf = 4, y la
quinta es la de Pfund, para la cual nf = 5).

169

FÍSICA
9. Tomando como unidad la energía del nivel n = 1, dibuja en tu libreta
un gráfico en el que se representen a escala los niveles de energía del
átomo de hidrógeno, desde n = 1 hasta n = 7.
10. Determina.
a) El radio de la órbita del electrón en el átomo de hidrógeno
para el estado estacionario n = 5, así como la energía de este
estado.
b) ¿Hacia qué nivel de energía transitará el átomo espontáneamente?
Justifica tu respuesta.
11. El electrón en el átomo de hidrógeno transita del estado estacionario
n = 4 al de n = 2:
a) ¿Emite o absorbe un fotón, el átomo en la transición? Justifica tu
respuesta.
b) ¿A qué zona del espectro pertenece el fotón emitido o absorbido
por el átomo?
c) ¿A qué serie espectral corresponde la radiación asociada con la
transición? ¿Qué valor tiene la longitud de onda del fotón asociado
a la transición?
12. En la figura 4.24 se muestran algunos de los estados estacionarios para
el átomo de hidrógeno, según el modelo de Bohr.
a) Identifica las transiciones A, B y C, según la serie espectral a la que
pertenecen.
b) Determina la frecuencia de la línea espectral emitida en la región
visible, según Balmer.
c) De las transiciones energéticas representadas, ¿cuál tiene asociada
una radiación de mayor frecuencia y cuál de mayor longitud de
onda?
13. El diagrama (figura 4.25) corresponde al modelo de los niveles energéticos para el átomo de hidrógeno:
a) ¿Se absorbe o se emite energía en la transición representada? Justifica tu respuesta.
b) Calcula la energía y la frecuencia de la radiación asociada a este
salto.
c) ¿En cuál de los estados estacionarios, que intervienen en esta transición, el átomo es más estable? Justifica tu respuesta.

170

CAPÍTULO 4
E(eV)
0

n=∞

-0,85

n=4
B

C

-1,50

n=3

-3,40

n=2

A

-13,6

n=1
Fig. 4.24

E(eV)
0

n =∞

-1,5

n=3

-3,4

n=2

-13,6

n=1
Fig. 4.25

14. El físico J. J. Balmer se destacó en el estudio del análisis espectral (específicamente en los espectros de rayas).
a) Describe el espectro de emisión del átomo de hidrógeno para la
serie espectral que lleva su nombre.
b) ¿Hasta qué nivel final llegan las transiciones del electrón en esta serie?

171

FÍSICA
15. En la figura 4.26 se representan los niveles energéticos del átomo de
hidrógeno y dos posibles transiciones del electrón.
a) En estas transiciones, ¿el átomo emite o absorbe energía? Justifica
tu respuesta.
b) Explica cómo determinar la frecuencia de la radiación asociada a
cada salto.
E(eV)

n=3

-1,5
1

n=2

-3,4

2

-13,6

n=1
Fig. 4.26

16. En la figura 4.27 se muestran cuatro de los posibles niveles energéticos
del átomo de hidrógeno. Si el electrón se encuentra en el estado n = 4.
a) Determina la energía que tiene el sistema en ese estado.
b) Representa dos de las posibles transiciones, una en la que absorbe
energía y otra en la que emita. Justifica tu respuesta en cada caso.
17. A partir del siguiente esquema (figura 4.28) y de tus conocimientos
acerca de los postulados de Bohr para el átomo de hidrogeno:
a) ¿A qué denominó Bohr estados estacionarios? ¿Cuál es el valor de
la energía del estado básico o fundamental?
b) Explica los pasos necesarios para que el electrón pase del estado de
menor energía al cuarto estado estacionario.
c) Calcula el valor de la frecuencia del fotón que experimenta la
transición.

172

CAPÍTULO 4

n=4
n=3
n=2

n=1
Fig. 4.27
E(eV)

-1,5

n=3

-3,4

n=2

-13,6

n=1
Fig. 4.28

18. La figura 4.29 representa tres de los estados estacionarios en el átomo
de hidrógeno.
a) En la transición representada, ¿el átomo emite o absorbe energía?
Justifica tu respuesta.
b) ¿A cuál de los estados corresponde el menor contenido de energía? Explica cómo determinar la energía asociada a la transición
representada.

173

FÍSICA
E (10-19 J)

n=4
n=3
n=2

n=1
Fig. 4.29

19. La gráfica 4.30 muestra algunas de las transiciones energéticas correspondientes al átomo de hidrógeno.
a) Explica para cada transición si el átomo absorbe o emite energía.
b) Plantea la ecuación que permite determinar la frecuencia del fotón
asociado a la transición B. ¿A qué serie espectral pertenece?

n=2

n=1

n=3

Fig. 4.30

174

CAPÍTULO 5
Elementos de Física Nuclear
y de las Partículas Elementales

L

a Física Nuclear y la Física de Partículas Elementales son dos campos
fascinantes de la Física que nos sumergen en el mundo microscópico
de las partículas subatómicas y las interacciones fundamentales que
existen en el universo. En este viaje, te iniciarás en el mundo de los núcleos
atómicos, de las partículas elementales y de los constituyentes básicos de
la materia.
La Física Nuclear se ocupa del estudio de los núcleos atómicos y sus
propiedades, así como de las reacciones nucleares que pueden ocurrir
en ellos. En este campo conocerás conceptos y leyes relacionados con
la radiactividad, la fisión y la fusión nuclear, así como las múltiples aplicaciones prácticas de esta rama de la física, entre las que se destacan:
las ingenieras, los isótopos industriales, la agricultura, la producción de
electricidad, los estudios arqueológicos, el análisis de obras de arte y la
medicina (figura 5.1).
La Física de Partículas Elementales se centra en el estudio de las partículas subatómicas, su estructura e interacciones. Al abordar este tema
tendrás un primer acercamiento al llamado modelo estándar de la física
de partículas y por supuesto, a la importancia de las investigaciones que
actualmente se desarrollan en este campo.
Por otra parte, también es importante considerar los problemas que
para la humanidad ha significado el mal uso de los conocimientos sobre la
física del núcleo atómico, sobre todo en lo relacionado con la creación y
producción de las armas de destrucción masiva.

175

FÍSICA

a

c

b

d

Fig. 5.1 Aplicaciones prácticas de la Física Nuclear: a) equipo para resonancia
magnética; b) esquema de una central nuclear; c) planta para radiación de
alimentos; d) acelerador lineal en un hospital

Se puede decir que esta rama de la física se separó de la física del átomo y comenzó a desarrollarse de manera independiente en el año 1896,
cuando el físico francés Antoine Henri Becquerel (1852-1908) descubrió la
radiactividad en los compuestos del uranio.
Comenzaremos el estudio de este tema con una descripción de los métodos que se utilizan para el registro y estudio de las partículas elementales y las radiaciones nucleares.

5.1 Métodos de observación y registro
Algunos de los instrumentos utilizados para la detección y el estudio
de las radiaciones y partículas emitidas por los núcleos atómicos son el
contador Geiger-Muller, la cámara de niebla o de Wilson, la cámara de
burbujas, las emulsiones fotográficas de capas gruesas y los detectores de
estado sólido a base de semiconductores. A continuación, analizaremos de
manera simplificada el funcionamiento de estos instrumentos.
Contador Geiger-Müller
El dispositivo llamado contador Geiger-Müller fue desarrollado, en el
año 1928, por los físicos alemanes Hans Geiger y Walter Müller.

176

CAPÍTULO 5
El contador está formado por un tubo de vidrio, recubierto por dentro
de una capa metálica que sería el cátodo, y de un delgado filamento que
pasa a lo largo del eje del tubo que sería el ánodo. Dentro del tubo hay
gas, generalmente argón (figura 5.2).
Cátodo

Ánodo

R

Tubo de vidrio

Instalación registradora
a

b

Fig. 5.2 Contador Geiger-Müller: a) apariencia externa; b) esquema del contador

El funcionamiento del contador se basa en la ionización por choque: una partícula cargada al pasar por el gas arranca electrones
de los átomos del gas y se crean iones positivos y electrones libres.
El campo eléctrico entre el ánodo y el cátodo acelera los electrones
hasta energías elevadas con las cuales comienza la ionización por
choque, que da lugar a una avalancha de iones y un aumento de la
corriente. Como consecuencia de esto, en la resistencia de carga se
genera una diferencia de potencial que se detecta y se amplifica en
el contador.
Para detectar partículas que no tienen carga (como los neutrones) o
fotones la pared interior del tubo se recubre con una sustancia en la que
al incidir estas partículas se emiten electrones.
También hay tubos que se construyen de metal con una ventana de
material transparente a las radiaciones.
Cámara de niebla
Fue inventada por el físico escocés Charles Thomson Rees Wilson, en
1912, (figura 5.3). En la cámara la partícula cargada deja una trayectoria
visible que se puede fotografiar o ver directamente.
La cámara consiste en un recipiente cerrado, lleno de vapor de agua o
de alcohol próximo a la saturación. El vapor saturado se condensa por los
iones que se crean en el recorrido de la partícula, observándose goticas
que constituyen la trayectoria visible o traza de la partícula.

177

FÍSICA
La información que proporcionan las trazas (huellas) en la niebla es
mucho más completa que la que pueden dar los contadores. Por la longitud de la huella se puede determinar la energía de la partícula; mediante
el número de gotas por unidad de longitud de la trayectoria se puede
apreciar su velocidad; y de acuerdo con el grosor de las trazas se puede
juzgar comparativamente el valor de su carga.
Cámara
fotográfica

Iluminador

Trayectoria
de las
partículas

Entrada de
la cámara

Émbolo
Fig. 5.3 Esquema de la cámara de niebla

Cámara de burbujas
Otro dispositivo que emplea un método similar a la cámara de niebla
es la cámara de burbujas. Su inventor fue Donald Arthur Glaser, en 1952.
La cámara de burbujas es un detector de partículas cargadas eléctricamente y la compone una cuba que contiene un fluido transparente, generalmente hidrógeno líquido, que está a una temperatura algo más baja que
su temperatura de ebullición. Una partícula cargada suministra la energía
necesaria para que el líquido comience a hervir a lo largo de su trayectoria,
formando una línea de burbujas que constituye la traza o huella.
Esta traza puede fotografiarse (figura 5.4), pues la cámara tiene en su
parte superior una cámara fotográfica. La cámara se somete a un campo
magnético constante, lo cual hace que las partículas cargadas viajen en
trayectorias helicoidales cuyo radio queda determinado por el cociente
entre la carga y la masa de la partícula. De esta manera se pueden obtener
la masa y la carga de las partículas que entran en la cámara.

178

CAPÍTULO 5

Fig. 5.4 Huellas de un electrón y un positrón en la cámara de burbujas.
Bajo el campo magnético aplicado, los electrones se desvían hacia abajo
y los positrones hacia arriba

Método de las emulsiones fotográficas
Con este método fue que, en 1896, el físico francés Antoine Henri Becquerel descubrió el fenómeno de la radiactividad con sales de uranio. Este
fenómeno se produjo durante su investigación sobre la fluorescencia. Al
colocar sales de uranio sobre una placa fotográfica en una zona oscura,
comprobó que la placa se ennegrecía.
En este caso, lo que sucede es que las partículas emitidas, debido a su
acción ionizante, dejan una huella a su paso a través de la capa que se
puede observar cuando se realiza el revelado de la película (figura 5.5).
Con este método, también se puede determinar la masa, la energía y la
carga de la partícula.

Fig. 5.5 Grosor de huella que permite estimar la energía y la masa de la partícula

Detectores de estado sólido
Se acostumbra a llamar detectores de estado sólido a los dispositivos
que utilizan materiales semiconductores para detectar y medir las radiaciones nucleares.

179

FÍSICA
La detección de radiación con detectores de estado sólido se basa en
la interacción de la radiación con los átomos del material semiconductor.
Cuando una partícula incidente interactúa con el material semiconductor,
se crean pares electrones-huecos, que se mueven bajo la influencia de un
campo eléctrico aplicado, generando una corriente proporcional a la energía de la partícula incidente.
Como los detectores de estado sólido tienen una respuesta rápida y
lineal, una gran versatilidad geométrica, una elevada sensibilidad y fiabilidad, además de ser compactos y robustos, tienen amplia gama de aplicaciones prácticas en la investigación, la práctica médica, la industria y la
seguridad radiológica, por solo citar algunas.
Otras formas de detección de las radiaciones nucleares
En la actualidad, el alto nivel en las investigaciones relacionadas con el
núcleo atómico y las partículas elementales, ha propiciado el desarrollo de
complejos y sofisticados sistemas para la detección y estudio de las radiaciones y partículas elementales como, por ejemplo, en el moderno acelerador de partículas de la Organización Europea para la Investigación Nuclear
(CERN): el LHC (Gran Colisionador de Hadrones) que tiene siete detectores
de partículas de gran complejidad para poder desarrollar los diferentes experimentos programados. Solo el experimento ALICE (Gran Experimento
Colisionador de Iones, uno de los siete) utiliza 18 detectores, cada uno con
una finalidad muy específica (figura 5.6).

Fig. 5.6 El detector Alice, uno de los siete grandes detectores del gran
colisionador de hadrones del CERN

180

CAPÍTULO 5

Comprueba tus conocimientos
1.

Describe brevemente cómo funciona uno de los dispositivos utilizados
en Física nuclear para el estudio de las propiedades de las partículas.

2.

¿Cómo se puede registrar con el contador de Geiger partículas sin
carga eléctrica?

3.

¿Qué ventajas ofrece la cámara de Wilson sobre el contador de
Geiger?

5.2 Estructura y propiedades físicas del núcleo
atómico
Sabemos que el núcleo del átomo tiene carga positiva y que está formado por protones (partículas de carga positiva) y neutrones (partículas
sin carga), pero para poder explicar los fenómenos relacionados con el
núcleo atómico es necesario ampliar nuestros conocimientos sobre la estructura del núcleo y sus propiedades.
A partir del descubrimiento por el físico inglés J. Chadwick del neutrón, en el año 1932, fue que surgió el modelo de que el núcleo atómico
estaba formado por protones (partículas con carga eléctrica positiva) y por
neutrones (partículas sin carga eléctrica). A los protones y neutrones se le
denomina nucleones.
Como el átomo es un sistema eléctricamente neutro y la carga del protón es igual en valor modular de la carga del electrón e, entonces el número de protones, en un elemento químico dado, será igual al número de
electrones (Z) y la carga total del núcleo qn estará dada por:
qn = +Ze (5.1)
Como la masa del núcleo (mnúcleo) será igual a la suma de las masas de
los protones (mp) y de los neutrones (mn), si Z es el número de protones y
N el número de neutrones, entonces:
mnúcleo = Zmp + Nmn (5.2)
La masa del protón es 1,6726 ∙ 10–26 kg y la del neutrón es 1,6749 ∙ 10–26 kg.
En química, bioquímica y física para medir la masa de los átomos y
sus componentes también se utiliza la unidad Dalton. El Dalton se define
como la doceava parte de la masa de un átomo de carbono-12 en estado
fundamental y su símbolo es Da.

181

FÍSICA
Esta unidad permite expresar con precisión las masas relativas de las
partículas subatómicas, por ejemplo, expresadas en Dalton, las masas del
protón y del neutrón son aproximadamente de 1,007 Da y 1,009 Da, respectivamente. Es decir, la masa del neutrón es ligeramente mayor que la
masa del protón, siendo ambas masas muy cercanas en valor. Esta diferencia
se debe a que los protones y neutrones, si bien son partículas subatómicas
que componen el núcleo de los átomos, tienen una composición interna y
propiedades ligeramente distintas.
A la suma de los protones y neutrones de un núcleo atómico se le llama
número másico y se simboliza por la letra A:
A = Z + N (5.3)
El número másico es el número entero aproximado a la masa, expresada en dalton, del núcleo del elemento químico en cuestión. Por
ejemplo:
Elemento

Masa atómica (Da)

A

Helio

4,0026

4

Carbono

12,0111

12

Por supuesto, como la masa del electrón es muy pequeña en comparación con la de los nucleones (la masa del protón es aproximadamente 1 836 veces mayor que la masa del electrón), el número másico
es aproximadamente igual a la masa del átomo, medida en dalton.
Aproximadamente el 99 % de la masa del átomo está concentrada en
el núcleo.
En general la masa del núcleo estará dada por:
Mn = Zmp + Nmn (5.4)
Donde Z es el número de protones y N el número de neutrones en el
núcleo.
Para representar a los núcleos atómicos se utiliza la simbología siguiente:
A
Z

X

Donde A es el número másico, Z es el número atómico y X es el símbolo
del elemento.
El experimento de dispersión de Rutherford y otros experimentos han
demostrado que la mayor parte de los núcleos son aproximadamente

182

CAPÍTULO 5
esféricos y tienen un radio promedio que se puede determinar con la siguiente ecuación:
r = ro · 3 A (5.5)
Siendo ro = 1,2 · 10–15 m, donde A es el número másico.
De la ecuación 5.4 se infiere que el volumen del núcleo es proporcional
a la raíz cúbica del número másico. Como los núcleos “pesados” tienen
un número mayor de nucleones, estos tendrían un radio mayor, pero la
densidad de todos los núcleos sean ligeros o pesados es la misma y aproximadamente igual a 2,3 · 1017 kg/m3.
Cómo el radio de un átomo es del orden de 10–10 m, el núcleo solo ocupa una parte muy pequeña del volumen del átomo.
Isótopos e isobaros
A los núcleos que poseen igual número atómico (Z) y diferente número
másico (A) se les llama isótopos, ejemplo: el deuterio 21H y el tritio 31H son
isótopos del hidrógeno.
A los núcleos que poseen igual número másico (A) se les denomina
isobaros, por ejemplo: el tritio 31H y el helio 3 23He , o el carbono 14 146 C y
el nitrógeno 14, son isobaros.
En la tabla 5.1 aparecen las características de algunas partículas.
Tabla 5.1

Nombre

Símbolo

A

Z

N

Masa atómica
(Da)

Representación

Electrón

e–

0

–1

0

0,0005

0
−1

Protón

p

1

1

0

1,0073

1
1

Neutrón

n

1

0

1

1,0087

1
1

Hidrógeno H

1

1

0

1,0081

1
1

Helio

He

4

2

2

4,0026

4
2

Litio

Li

7

3

4

7,0160

7
3

Carbono

C

12

6

6

12,0111

12
6

C

Nitrógeno

N

14

7

7

14,0067

14
7

N

e

p
n

H

He
Li

183

FÍSICA
Nombre

Símbolo

A

Z

N

Masa atómica
(Da)

Oxigeno

O

16

8

8

15,9994

16
8

Sodio

Na

23

11

12

22,9998

23
11

Aluminio

Al

27

13

14

26,9815

27
14

Al

Silicio

Si

28

14

14

28,0860

28
14

Si

Fósforo

P

31

15

16

30,9738

31
15

Polonio

Po

210

84

126

209,9824

210
84

Po

Radón

Rn

222

86

136

222,000

222
86

Rn

Torio

Th

232

90

142

232,0381

232
90

Uranio

U

238

92

146

238,0289

238
92

Representación

O

Na

P

Th
U

¿Sabías que…?
La densidad de los núcleos atómicos es mayor que la densidad de la Tierra
en 4,6 ∙ 1013 veces. La densidad de la Tierra considerándola esférica es
5,0 ∙ 103 kg/m3. Si la densidad de la Tierra fuera la nuclear, su radio tuviese un valor de solo 180 m.

Fuerzas nucleares
Como en el núcleo atómico los protones están muy próximos, las fuerzas de repulsión de origen electrostático deben ser muy grandes. Para tener una idea al respecto, la fuerza de repulsión entre dos protones en el
núcleo debe ser de unos 230 N, entonces:
¿Cómo es que los nucleones se mantienen unidos?
Por supuesto, esto solo se puede explicar si entre los nucleones actúa
una fuerza de atracción los suficientemente grande como para compensar
las fuerzas de repulsión electrostáticas.
La fuerza de atracción entre los nucleones es la más grande que existe
en la naturaleza y se le conoce como fuerza fuerte. La comprensión de la
naturaleza de este tipo de interacción (interacción fuerte) se ha logrado
poco a poco y sigue siendo un complejo tema de investigación.

184

CAPÍTULO 5
Aunque la explicación de la naturaleza de la interacción fuerte rebasa
el nivel de este libro, sí precisaremos algunas de sus características:
• Son fuerzas de atracción. de muy corto alcance, o sea, solo se ejercen
en el interior del núcleo.
• Cada nucleón interactúa con los nucleones más cercanos y con un número determinado.
• Son independientes de la carga, ya que la fuerza, específicamente nuclear, protón-protón, neutrón-neutrón y protón-neutrón tiene el mismo valor.
• Son las más intensas de la naturaleza, 137 veces más que las fuerzas
electromagnéticas y aproximadamente 1 038 más que las gravitacionales.
• No están dirigidas en la dirección de la recta que une las partículas.
• Se produce por el intercambio de una partícula elemental llamada
pion.
Modelos del núcleo atómico
Además del modelo de núcleo atómico esférico, que describe el núcleo
como un objeto extremadamente denso de forma esférica constituido por
protones y neutrones acomodados muy juntamente, se han desarrollado
el modelo de la gota líquida (o modelo colectivo) y el modelo de capas de
nucleones.
El modelo de la gota líquida trata al núcleo atómico como si fuera una
gota de líquido incompresible. Algunas de las principales características de
este modelo son:
• El núcleo tiene forma esférica y su radio es proporcional al número de
nucleones (protones y neutrones) que lo componen.
• La fuerza nuclear que mantiene unidos a los nucleones es la misma
para todos, sin importar si son protones o neutrones.
• Los nucleones solo interactúan con sus vecinos más próximos.
Este modelo ayuda a explicar algunas propiedades generales del núcleo, la variación de la energía de enlace con el número de nucleones y no
toma en consideración los efectos cuánticos.
El modelo de capas describe al núcleo atómico como un sistema
de nucleones que se mueven de manera independiente en niveles
de energía discretos, similar a como los electrones se organizan en

185

FÍSICA
capas en el átomo. Algunas de las características principales de este
modelo son:
• Los nucleones se mueven en un potencial nuclear con simetría esférica,
ocupando niveles de energía discretos.
• Los nucleones van llenando los niveles de energía de manera ordenada,
formando “capas” llenas y semillenas (se sigue el principio de exclusión
de Pauli)
• Ciertos números de protones o neutrones (2; 8; 20; 28; 50; 82; 126)
forman configuraciones particularmente estables, llamados “números
mágicos.
Este modelo ayuda a explicar propiedades como la discontinuidad en la
energía de enlace de los núcleos y la estabilidad de ciertos isótopos.

Comprueba tus conocimientos
4.

¿Por qué podemos afirmar que la carga del núcleo es positiva y que
su masa coincide con la masa atómica del elemento?

5.

¿Qué es un nucleón? ¿Cuáles son las partículas consideradas como
nucleones?

6.

Describe el modelo de la gota líquida para el núcleo.

7.

¿Por qué la densidad nuclear es igual para todos los elementos
químicos?

8.

¿Cómo se clasifica la interacción entre las partículas del núcleo?
Menciona algunas de sus características.

5.3 Energía de enlace del núcleo y defecto
de masa. Energía de enlace por nucleón
¿Qué es la energía de enlace?
Se llama energía de enlace del núcleo a la energía necesaria para
la desintegración total del núcleo en nucleones separados o, lo
que es equivalente a la energía que se libera al formarse un núcleo a partir de los nucleones por separado.
La energía de enlace de los núcleos atómicos es muy grande, ¿cómo se
puede hallar su valor?

186

CAPÍTULO 5
Conocemos que la relación entre la masa y la energía está dada por la
ecuación (ecuación 2.9):
E = mc2
Las medidas de las masas de los núcleos han demostrado que la masa
en reposo del núcleo Mn , es menor que la suma de las masas en reposo de
los protones Zmp y neutrones Nmn que lo constituyen:
Mn < Znp + Nmn
A esta diferencia entre la masa del núcleo y la suma de las masas de sus
partículas constituyentes se llama defecto de masa.
Si representamos el defecto de masa por dM tendremos que:
dM = Znp + Nmn – Mn (5.6)
Esta diferencia es siempre positiva. En particular, en el helio la masa del
núcleo es 0,75 % menor que la suma de las masas de los dos protones y
los dos neutrones respectivamente. Para un mole de He, dM es de 0,03 g.
La disminución de la masa al formarse el núcleo con los nucleones significa que, al mismo tiempo, disminuye la energía de este sistema de nucleones en la magnitud de la energía de enlace Eenl , de manera que:
Eenl = dMc2 (5.7)
Pero, ¿qué sucede en este caso con la energía Eenl y la masa dM?
Al formarse los núcleos con las partículas, estas, a expensas de la acción
de las fuerzas nucleares a distancias pequeñas, se lanzan unas hacia otras
con una gran aceleración. Los cuantos emitidos g en estas condiciones tieE
nen precisamente la energía Eenl y la masa M  enl
c2
Sobre lo enorme que es la energía de enlace puede dar idea el ejemplo
siguiente: la formación de 4 g de helio va acompañada del desprendimiento de una energía igual a la que produce la combustión de 1,5 o 2 vagones
de carbón de piedra.
Energía de enlace por nucleón
La energía de enlace correspondiente a un nucleón, que denotaremos
por Eenl , es igual a:

Eenl
=

Eenl
(5.8)
A

Y su valor promedio es de 8 MeV.

187

FÍSICA
En la figura 5.7 se muestra la gráfica de la variación de la energía de enlace por nucleón en función del número de nucleones. El mayor valor de la
energía de enlace de un nucleón es el del níquel (A = 62, con 8,8 MeV). Los
núcleos de los elementos que se encuentran en la parte media del sistema
periódico (28 < A < 138) es decir, desde el silicio hasta el bario, son los más
estables. En estos núcleos el valor de Eenl se aproxima a 8,7 MeV/nucleón.
A medida que aumenta el número de nucleones del núcleo, la energía de
enlace por nucleón disminuye. Los núcleos de los átomos de los elementos
químicos que se encuentran al final del sistema periódico tienen una energía de enlace de aproximadamente 7,6 MeV/nucleón.
E
n
e
r
g
í
a
d
e
e
n
l
a
c
e

EB/A
9
Ni

62
28

8
C

12
6

7

U

23
92

He

6

4
2

5

La curva llega a un máximo aproximado
de 8,8 MeV/nucleón cuando A = 62,
correspondiente al níquel.

4
3
2
1

H

2
1

A
0

50

100
150
Número másico

200

250

Fig. 5.7

Problema resuelto 1
Determina la energía de enlace del núcleo de deuterio 21H y la energía
de enlace por nucleón. Considera que la masa del protón es de 1,0073 Da,
la del neutrón de 1,0087 Da y la del 21H, de 2,0141 Da.
Solución:
La energía de enlace se puede calcular mediante la ecuación 5.7:
Eenl = dMc2
Y la diferencia de masa mediante la ecuación 5.6;
dM = Zmp + Nmn – Mn

188

CAPÍTULO 5
Como en este caso Z = 1 y N = 1
dM = 1,0073 Da + 1,0087 Da – 2,0141 Da
dM = 0,0019 Da
Para calcular la energía de enlace se debe expresar este resultado en
kilogramos (kg) y después usar la ecuación 5.7. Al tomar c en metros por
segundo (m/s), quedará Eenl expresada en joule (J). Después debemos expresar la energía de enlace en megaelectronvolt (MeV), que es la forma en
que más frecuentemente se usa en física nuclear. Realizar estas conversiones es equivalente a utilizar la ecuación:
MeV
Eenl MeV   931
M Da
Da
Nota: demuéstralo
Eenl = 9,31 ∙ 0,0019 MeV
Eenl ≈ 1,77 MeV
La energía de enlace por nucleón se puede calcular mediante la ecuación 5.8:
´
Eenl
=

Eenl
A

1, 77 MeV
2
Eenl ≈ 0,88 MeV
´
Eenl
=

Comprueba tus conocimientos
9. ¿Qué se entiende por defecto de masa?
10. ¿Cómo se define la energía de enlace de un núcleo? Plantea la ecuación para determinarla.

11. ¿Cuáles son los elementos de la tabla periódica, que poseen núcleos
estables? Justifica tu selección.

5.4 Transformaciones de los núcleos
Radiactividad natural
El fenómeno de la radiactividad natural, descubierto por Becquerel, en
1896, durante sus experimentos con sales de uranio, consiste en la emanación espontánea de radiaciones por la sustancia.

189

FÍSICA
Investigaciones posteriores desarrolladas, entre otros, por la científica polaca María Slodowska-Curie (1867-1934), el francés Pierre Curie
(1859-1906) y Rutherford, permitieron establecer que todos los elementos
cuyo número atómico es mayor que 83 son radiactivos. Estos científicos
también fueron los iniciadores de las investigaciones sobre la naturaleza
física de estas radiaciones y sus propiedades.

 De la historia
Antoine Henri Becquerel (1852-1908) físico francés (figura 5.8): descubridor de la radiactividad
y galardonado con el Premio Nobel de Física del
año 1903.Con sus valiosas investigaciones y descubrimientos hizo aportes al modelo atómico. En
1900 halló que la radiación Beta está integrada
por electrones y, en 1901, que el radio se podía utilizar para destruir tumores, origen de la
radioterapia.
Fig. 5.8
Marie Curie (1867-1934) científica polaca, nacionalizada francesa (figura 5.9): pionera en el campo de la
radiactividad, fue la primera persona en recibir dos
premios Nobel en Física y Química y la primera mujer
en ocupar el puesto de profesora en París. Descubrió
el radio y el polonio. Bajo su dirección se llevaron
a cabo los primeros estudios en el tratamiento de
neoplasias con isótopos radiactivos. Murió por una
anemia aplásica, causada por la exposición a la radiación, por guardar tubos de ensayo con radio en
los bolsillos durante la investigación.
Pierre Curie (1859-1906) físico francés (figura 5.10):
pionero en el estudio de la radiactividad y fue
galardonado con el Premio Nobel de Física en el
año 1903. Descubridor de la piezoelectricidad, en
1880. Enunció en 1894 el principio universal de simetría. Durante su doctorado y los años siguientes
se dedicó a investigar alrededor del magnetismo.
Desarrolló una balanza de torsión muy sensible para estudiar fenómenos magnéticos y estudió el ferromagnetismo, el paramagnetismo y el
diamagnetismo.

190

Fig. 5.9

Fig. 5.10

CAPÍTULO 5
Analizando la desviación de las radiaciones emitidas por un preparado
radiactivo cuando atraviesan un campo eléctrico o magnético (figura 5.11)
es posible comprobar experimentalmente la existencia de cuatro tipos de
radiaciones diferentes. Estas radiaciones se han denominado alfa (a) beta
negativa (β–), beta positiva (β+) y gamma (g)).
ß+

B

α

Plomo

γ

Fuente
radiactiva

ß-

Fig. 5.11

Estas radiaciones se diferencian por su naturaleza, origen y propiedades, algunas de sus principales características se muestran en la tabla 5.2.
Tabla 5.2

Radiación Naturaleza

Carga

Masa

Poder de
ionización

Símbolo

Alfa

Núcleos de
+2e
helio

4mp

30 000

4
2

Beta −

electrones

–e

me

10-100

 o 01e

Beta +

positrones

+e

me

10-100

 o 01e

Gamma

electromag0
nética


c2

Menor que
las β

0
0

α o 42He

g

Estos cuatro tipos de radiaciones, además de diferenciarse por su composición, se diferencian también por su capacidad de ser absorbidas por

191

FÍSICA
las sustancias (figura 5.12). Las de menor capacidad de penetración son las
radiaciones alfa a (no son capaces de atravesar una hoja de papel de un
espesor aproximado de 0,1 mm) y las de mayor capacidad de penetración
son las g, que pueden atravesar una lámina de plomo de 1,0 cm de espesor.

Radiación
alfa

Radiación
beta

Radiación
gamma/x

Radiación
neutrónica

Hoja de
papel

Lámina de
aluminio

Placa de
plomo

Bloque
de agua
u hormigón

Fig. 5.12

A principios del siglo xx se obtuvo una serie de resultados experimentales, relacionados con la radiactividad natural, además de sus efectos físicos, biológicos y químicos. A grandes rasgos, los podemos resumir de la
forma siguiente:
1. La radiación emitida por los elementos radiactivos uranio, torio y radio
no depende de la temperatura y la presión a que está sometida la sustancia, ni de las reacciones químicas en que participan.
2. La intensidad de la radiación emitida por estos elementos radiactivos
prácticamente no varía con el tiempo, durante un intervalo de años.
3. Durante la emisión radiactiva se produce una liberación de energía.
4. Como resultado de la transformación radiactiva se origina una nueva
sustancia, que se diferencia totalmente de la sustancia inicial por sus
propiedades físicas y químicas.

192

CAPÍTULO 5
Todas estas regularidades pueden ser explicadas suponiendo que la
emisión radiactiva se produce por transformaciones que ocurren espontáneamente en los núcleos atómicos, acompañadas de emisión de energía
en cantidades enormes en comparación con la energía que se libera de las
transformaciones moleculares habituales.
Isótopos
Conocemos que a los núcleos que poseen igual Z y diferente A se les
llama isótopos. La existencia de los isótopos demuestra que la carga del
núcleo atómico no determina todas las propiedades de los átomos, sino
únicamente sus propiedades químicas y aquellas físicas que dependen de
la capa electrónica, por ejemplo, las dimensiones. La masa del átomo y sus
propiedades radiactivas no vienen determinadas por el número de orden
en la tabla de Mendeléiev, es decir, por el número de protones, sino también por la cantidad de neutrones. En la tabla 5.3 se muestran los números de neutrones y protones de algunos isótopos que no son radiactivos y
otros que lo son.
Cuando las masas atómicas relativas de los isótopos se midieron con
precisión, se puso de manifiesto que se aproximan a números enteros. A
veces se encuentra una gran desviación de las masas atómicas relativas
de los elementos químicos respecto de los números enteros. Así, la masa
atómica relativa del cloro es igual a 35,5. Esto significa que, en su estado
natural, la sustancia químicamente pura es una mezcla de isótopos en distintas proporciones.
Tabla 5.3

Notación

A

Z

N

Masa
(Da)

Radiactividad

2
1

H

2

1

1

2,0141

no

3
1

H

3

2

2

3,0160

b–

Helio

3
2

He

3

2

1

3,0160

no

Litio

6
3

Li

6

3

3

6,0151

no

13
6

C

13

6

7

13,0033

no

14
6

C

14

6

8

14,0030

b–

Isótopos

Hidrógeno

Carbono

193

FÍSICA
Isótopos

Notación

A

Z

N

Masa
(Da)

Radiactividad

Silicio

30
14

Si

30

14

16

29,9737

no

Fósforo

30
15

P

30

15

15

29,9783

b+

Rubidio

94
37

Rb

94

37

57

94,0051

b–

Cesio

140
55

Ce

140

55

85

139,9101

b–

Polonio

210
84

Po

210

84

126

209,9828

a

Radio

223
88

Ra

223

88

135

223,0185

a

232

90

142

232,0380

a

234
90

Th

234

90

144

234,0435

a

235
92

U

235

92

143

235,0439

a

238
92

U

238

92

146

238,0507

a

232
90

Th

Torio

Uranio

Ley de los desplazamientos
Solo después que fueron descubiertos los isótopos se logró entender
la composición de la cadena sucesiva de las transformaciones radiactivas
de los elementos. Estas transformaciones se subordinan a la denominada
regla de los desplazamientos.
Durante la desintegración a, o sea, durante el proceso en el cual el núcleo emite una partícula a, dicho núcleo pierde una carga positiva +2e, y
su masa disminuye aproximadamente en 4,0 Da. Como resultado de ello,
el elemento se desplaza dos casillas hacia el inicio del sistema periódico.
Este proceso puede ser escrito simbólicamente como sigue:
A
Z

X  AZ42Y  42 He

donde X es el núcleo inicial (núcleo madre) y Y es el núcleo producto de
la desintegración (núcleo hijo).
Por ejemplo, en el caso de la desintegración alfa (a) del Radio 88 (figura 5.13), el proceso se representaría de manera simbólica de la forma
siguiente:
226
88

194

4
Ra  222
86 Rn  2 He

CAPÍTULO 5
Además de la conservación de la carga y la masa, en estas transformaciones se cumplen, entre otras, las leyes de conservación de la cantidad de
movimiento lineal y de la energía. Después de la trasformación el núcleo
hijo y la partícula a se mueven en sentidos contrarios, pero cada uno con
igual cantidad de movimiento, siendo la velocidad de la partícula mayor
que la velocidad del núcleo hijo. Por otra parte, la suma de la masa del
núcleo hijo y la de la partícula es menor que la masa en reposo del núcleo
madre, diferencia de masa que se corresponde con la energía liberada en
la transformación.
PRa = 0
226
86

Ra

Ec = 0
Ra

ANTES

222
86

Rn

PRa

α


DESPUÉS
Fig. 5.13 Representación de la desintegración a– del radio

Durante la desintegración b– del núcleo, se libera un electrón. Como resultado, la carga del núcleo aumenta en una unidad, mientras que su masa
se mantiene casi invariable, y el elemento se desplaza una casilla hacia el
final de la tabla periódica. Este proceso puede ser escrito simbólicamente
de la forma:
A
Z

X  Z A1Y  01e

Pero hay que prestar atención a un detalle, ¿cómo se explica que el núcleo al transformarse emita un electrón que no entra en su composición?
Esto se explica si se considera que al aumentar la carga eléctrica del
núcleo en un protón es porque un neutrón se transformó en un protón y
en el proceso se emite un electrón. Por otra parte, para que en un proceso de este tipo se cumplan las leyes de conservación de la energía y de la
cantidad de movimiento fue necesario postular la emisión de una tercera

195

FÍSICA
partícula sin carga (antineutrino). Esta idea la propuso, en 1930, Pauli, y
Fermi llamó neutrino a esta partícula. En 1953, en un experimento realizado por Frederick Reines y Clyde Cowan se comprobó la existencia de esta
partícula.
La representación simbólica de la transformación del protón es:
n  11p  01e  

1
1

Y de la desintegración beta menos (b–) ya completada:
A
Z

X  Z A1Y  01e  

Por ejemplo, en el caso de la desintegración beta menos (b–) del carbono 14 (figura 5.14), el proceso se representaría de manera simbólica de la
forma siguiente:
14
6

C  147N  01e  
Ec = 0
c

Pc = 0
14

C

6

ANTES

PePN

electrón
14
7

N

antineutrino
DESPUÉS

P
Fig. 5.14 Representación de la desintegración b– del carbono

En el caso de la desintegración beta más (b+) el núcleo madre se transforma emitiendo una partícula llamada positrón que es la antipartícula
del electrón. El positrón tiene la misma masa y el valor de la carga del
electrón, pero positiva +e. Esta partícula fue predicha por Paul Dirac, en el
año de 1928, para luego ser descubierta en el año 1932 por el físico norteamericano Anderson, al fotografiar las huellas de los rayos cósmicos en
una cámara de niebla.

196

CAPÍTULO 5
Como resultado de la transformación, la carga del núcleo hijo disminuye en una unidad, mientras que su masa se mantiene invariable y el elemento nuevo se desplaza una casilla hacia el inicio de la tabla periódica.
La representación simbólica de este proceso es:
A
Z

X  Z A1Y  01e

De manera análoga al caso de la desintegración beta menos, para explicar la emisión del positrón, ahora se considera que en el proceso un
protón se transforma en un neutrón y un neutrino, lo que se representa
de forma simbólica de la forma siguiente:
1
1

p  11n  01e  

Entonces la representación simbólica de la desintegración beta más (b+)
será:
A
Z

X  Z A1Y  01e  

Por ejemplo, en el caso de la desintegración natural del nitrógeno-12 (figura 5.15), que es b+ radiactivo, la representación del proceso
sería:
12
7

N  126 C  01e  
Ec = 0
N
PN = 0
12
7

N

ANTES

Pe+
Pc

positrón
12
6

C

neutrino
DESPUÉS


Fig. 5.15 Representación de la desintegración b+ del nitrógeno

197

FÍSICA
La desintegración b+ se manifiesta en aquellos elementos químicos que
N
tengan muy pequeña la relación Z , para buscar la estabilidad los núcleos
emiten un positrón y la desintegración b– en aquellos núcleos que la relaN
ción Z sea muy grande.
Las radiaciones γ no determinan variación en la carga del núcleo, y la
masa varía de manera insignificante. La emisión de los cuantos 00 g por la sustancia radiactiva, se origina porque el núcleo se encuentra en un estado excitado. Similar al proceso que ocurre en el átomo, el núcleo pasa a un nivel
de menor energía y emite el fotón gamma, sin variar el número de protones y el número másico. Las gammas son radiaciones electromagnéticas de
elevada frecuencia, sin carga eléctrica y con un gran poder de penetración.
La regla de los desplazamientos es una consecuencia de las leyes
de conservación de la carga y de la masa, y plantea que cuando
ocurre la desintegración a el elemento se desplaza dos casillas
hacia el inicio de la tabla periódica, cuando ocurre la b– una casilla hacia el final y, cuando ocurre la b+, una casilla hacia el inicio.
Los nuevos núcleos que surgen durante la desintegración radiactiva
generalmente son, a su vez, radiactivos.

¿Sabías que…?
Los sismos se deben en parte a la desintegración radiactiva del 238
en el in92 U
terior de la Tierra. Las desintegraciones liberan energía que contribuye a producir corrientes convectivas que provocan movimientos en la corteza terrestre
(figura 5.16). También en las naves espaciales que salen del sistema solar llevan
un suministro de energía radiactiva en las puntas de dos antenas porque los
paneles solares no funcionan en regiones alejadas del Sol (figura 5.17).

Fig. 5.16

198

Fig. 5.17

CAPÍTULO 5
Ley de la desintegración radiactiva. Período de semidesintegración
En los procesos de desintegración de los núcleos descritos anteriormente, no todos los átomos de una muestra de una sustancia radioactiva se
transforman simultáneamente. En cada instante una pequeña parte de
los átomos de la muestra se hacen inestables y se transforman en otro elemento químico. Por esta razón el número de átomos de la muestra aún sin
transformarse decrece con el tiempo.
Se ha comprobado experimentalmente que el número de átomos que
se desintegran en un tiempo determinado no es igual para todas las sustancias radiactivas, es decir, que podemos diferenciar una sustancia radiactiva de otra teniendo en cuenta esta propiedad. Una forma de cuantificar
dicha propiedad es midiendo el tiempo que se demora en desintegrarse
la mitad de la cantidad inicial de átomos radiactivos. Este tiempo recibe el
nombre de período de semidesintegración.
Período de semidesintegración (T): es el tiempo en el transcurso
del cual se desintegra la mitad del número de átomos radiactivos
que existía inicialmente.
Supongamos que el número de átomos radiactivos en el instante inicial
de tiempo t = 0 es igual a N0 Entonces, transcurrido un período de semidesintegración, este número será igual a:
No
2
Después de otro intervalo de tiempo igual, este número es:
1 No No No
= =
2 2
4
22
Al transcurrir el tiempo t = nT, es decir, después de n períodos de semidesintegración, los átomos radiactivos que quedan sin desintegrar serán:
N = No

1
2n

N = No

1
2t /T

N = No2–t/T



(5.9)

La ecuación 5.9 representa la expresión cuantitativa de la ley de
desintegración radiactiva y de ella podemos inferir que el número de

199

FÍSICA
átomos sin desintegrarse decrece exponencialmente como se muestra
en la figura 5.18.
N
N0

N = N0 2 - t/T

N0
2
N0

4
N0
t

8
0

T

2T

3T

4T

Fig. 5.18

Todas las desintegraciones no ocurren con la misma velocidad. Existe
una magnitud llamada actividad radiactiva (A) que se define como el
número de átomos desintegrados en la unidad de tiempo N’, de manera que:
A

N  N0  N
(5.10)

t
t

La unidad de medida para la actividad en el sistema internacional de
unidades es el becquerel (Bq) y 1 Bq = 1 desintegración/s. También la actividad se puede expresar con otra unidad de medida conocida como el
curie (Ci) siendo:
1Ci = 3,7 ∙ 1010 desintegraciones/s
En la tabla 5.4 se muestran los periodos de semidesintegración para
algunos elementos.

200

CAPÍTULO 5
Tabla 5.4

Elementos

Isótopos Período de semidesintegración (T) Emisión

Hidrógeno

3
1

H

12,32 años

b–

Carbono

14
6

C

5 370 años

b–

Cobalto

60
27

Co

5,271 años

 y 00 

Radio

223
88

Ra

11,43 días

a

235
92

U

7,038 ∙ 1038 años

a

U

68,9 años

a

138,376 días

a

Uranio

232
92

Polonio

210
84

Po

Aplicaciones
La utilidad que brindan los isótopos radiactivos depende de sus propiedades, en particular del tipo de radiación que emiten, la energía de esta y su
vida media, algunos ejemplos son los siguientes:
1. Análisis de elementos que se encuentran en concentraciones muy bajas.
2. Trazadores en estudios de procesos físicos, químicos, biológicos y médicos. En la medicina se utiliza una solución de cloruro con sodio o yoduro
de sodio radiactivo que se inyecta en una vena de la pierna, con el objetivo de detectar obstrucciones en el sistema circulatorio (figura 5.19).

Fig. 5.19

201

FÍSICA
3. Esterilización de productos químicos y biológicos.
Los alimentos pueden ser expuestos a radiaciones, para destruir las bacterias y las esporas de moho. De esta forma se pueden poner en recipientes sellados y almacenarse por un largo tiempo (figura 5.20).

Fig. 5.20
4. Hay dos tipos de detectores de humo: los fotoeléctricos y los iónicos.
estos últimos funcionan mediante una pequeña fuente de material radioactivo que emite partículas a, que ioniza el oxígeno del aire y origina una corriente eléctrica. Con la presencia del humo, la corriente
varía, haciendo sonar la alarma (figura 5.21).

Fig. 5.21

202

CAPÍTULO 5
5. Fuentes intensas de radiación en radiografías industriales y de la medicina nuclear.
En la medicina se utiliza la radiación como terapia útil para el tratamiento del cáncer, porque las células malignas se destruyen cuando se utiliza
la radiación de rayos X o de una fuente de cobalto 60 (figura 5.22).

Fig. 5.22
6. Fechado radiactivo de muestras arqueológicas y geológicas midiendo la
concentración de isótopos radiactivos del carbono 14.
7. Control del espesor de hojas y láminas en las industrias del papel, del
hule, etcétera.
8. En pinturas luminiscentes.

Problema resuelto 3
El tritio es un isótopo radioactivo del hidrógeno que experimenta una
desintegración radioactiva b– hasta convertirse en un isótopo de un elemento conocido:
a) Escribe la ecuación simbólica de la desintegración del tritio.
b) ¿Cuál es el elemento químico que resulta de la desintegración?
Solución:
a) De acuerdo con la ley de desplazamiento:
H  32Y  01e

3
1

b) Para conocer el elemento nuevo, vamos a la tabla periódica y buscamos
el elemento que tiene como número atómico 2 y este coincide con el
helio. En este caso es un isótopo de helio 23He .

203

FÍSICA

Problema resuelto 4
El período de semidesintegración del radón es igual 3,82 días. ¿Qué
fracción de la cantidad inicial de radón se desintegrará en 5,0 días?
Solución:
Como:
N = N0 · 2–t/T,
la fracción que permanece sin desintegrar será:
N
t
2 T
N0
Aplicando el logaritmo a los miembros de la igualdad queda:

 

log

N
t
 log 2 T
N0

log

N
t
= log 2
N0 T

Como log2 = 0,301
log

N
5, 0 días

 0, 301  0, 394
N0 3, 82 días

Aplicando antilogaritmo
N0
1
=
= 2, 5
N 0, 394
Por lo tanto:
N
1
= = 0, 4
N0 2,5
El 40 % de los átomos de la muestra inicial de radón quedan sin desintegrarse y el 60 % se transformó en otro elemento químico.

Comprueba tus conocimientos
12. Describe el fenómeno de la radiactividad natural.
13. Explica cómo es posible determinar mediante un experimento la naturaleza física de las radiaciones nucleares.

204

CAPÍTULO 5

14. ¿Por qué en la desintegración b– el núcleo emite un electrón y en la
desintegración b+ emite un positrón?

15. Di las características de las radiaciones a, b–, b+ y g
16. ¿Qué ocurre con la sustancia durante la desintegración radiactiva?
17. ¿Por qué en las desintegraciones naturales hay una liberación de energía, que se utiliza en las aplicaciones? ¿Cómo se determina su valor?

18. ¿Qué leyes de conservación conocidas por ti se ponen de manifiesto
durante las transformaciones radiactivas de los núcleos?

19. ¿Qué significa que el período de semidesintegración del radio sea
de 1 580 años?

20. ¿Qué son los isótopos? ¿Serán todos radiactivos? Pon un ejemplo.

5.5 Reacciones nucleares. Radiactividad artificial
Las transformaciones de los núcleos no ocurren solo de manera espontánea; pueden producirse también artificialmente.
Rutherford supuso que para destruir o transformar el núcleo era necesario utilizar una cantidad de energía grande. La mayor fuente de energía
disponible en ese tiempo eran las partículas a emitidas por los núcleos
radiactivos.
En 1920, Rutherford realizó un experimento en el que bombardeó con
partículas α emitidas por el radio (Ra) una muestra de nitrógeno y detectó
la presencia de protones (el núcleo del átomo de hidrógeno). ¿Cómo explicar este resultado?
Aproximadamente una partícula a de cada 50 000 de las lanzadas por
el preparado radiactivo hacia la muestra es capturada por el núcleo de
nitrógeno, el cual emite después un protón. Cuando esto ocurre, el núcleo
de nitrógeno se transforma en un isótopo del oxígeno. Este proceso se
puede representar simbólicamente de la siguiente forma:
14
7

N  42He  178 O  11H

En la figura 5.23 se representa una de las fotografías de este proceso.
En la parte superior y hacia el centro se observa como una letra Y invertida, que corresponde a esta reacción nuclear.

205

FÍSICA

Fig. 5.23 En la parte señalada, la huella gruesa corresponde al protón
y la fina al electrón

La huella gruesa es la que deja el núcleo de oxígeno, y la fina, el protón. Las partículas restantes no experimentan choques con los núcleos y las
huellas de sus trayectorias son rectilíneas.
Mediante otras investigaciones fueron descubiertas las transformaciones
de otros núcleos bajo la acción de partículas. Esto ocurrió con los núcleos del
flúor, el calcio, el aluminio, etc. Los núcleos de los elementos pesados que se
encuentran al final del sistema periódico no experimentan estas transformaciones, pues su gran carga eléctrica no permite el acercamiento de partículas.
Desde 1930 hasta la actualidad se utilizan aceleradores de partículas
para iniciar las reacciones nucleares, en las que se alcanzan energías de por
lo menos 1 000 GeV. Desde ese momento se han observado miles de reacciones nucleares en las que se crean nuevas partículas, cuyas propiedades
ayudan a resolver los misterios del núcleo (figura 5.24)

Fig. 5.24 El gran colisionador de hadrones del CERN es hasta ahora el acelerador
de partículas más grande y de mayor energía que existe

206

CAPÍTULO 5
Radiactividad artificial
Durante las reacciones nucleares se pueden obtener artificialmente isótopos inestables de aquellos elementos químicos que en condiciones naturales
son estables. Este fenómeno fue descubierto por los esposos Iréne y Federico Joliot-Curie, en el año 1934, denominado por ellos radiactividad artificial.
Uno de los experimentos de los esposos Joliot-Curie, consistió en bombardear aluminio con partículas a y con el contador Geiger comenzaron
a detectar radiaciones de la placa de aluminio una vez que cesaba el
bombardeo. Estas partículas eran positrones y eran emitidas por isótopos de fósforo 30. Los núcleos de aluminio se transformaron en isótopos
radiactivos de fósforo 30, emitiendo un neutrón como se representa en
la figura 5.25. La representación simbólica de esta reacción nuclear es:
27
13

1
Al  42 He  30
15 P  0 n

Fig. 5.25

Y la de la transformación del isótopo radiactivo artificial del fósforo:
30
15

30
P  14
Si  01e

Este es uno de los ejemplos de formación de un núcleo por radiactividad artificial. Como consecuencia de este fenómeno se han obtenido cerca
de mil isótopos radiactivos artificiales, mientras que los isótopos radiactivos naturales no pasan de 40.

207

FÍSICA
Para el proceso de transformación artificial del núcleo, además de utilizar la partícula alfa, se utilizan protones por tener menor carga eléctrica y
la repulsión eléctrica entonces sería menor.
En 1932, Ernest Walton (físico irlandés, 1903-1995) y John Douglas
Cockcroft (físico británico, 1897-1967), discípulos doctorales de
Rutherford, lograron construir uno de los primeros aceleradores
de partículas y dividir, por primera vez, un núcleo atómico: el de litio
en dos núcleos de helio. Estos físicos recibieron el Premio Nobel de
Física, en 1951.

Problema resuelto 5
Completa la representación simbólica de la desintegración del litio realizada por primera vez en 1932:
7
3

Li  ____  42He  42He

Determina la energía asociada a la reacción, ¿es liberada o absorbida?
Justifica.
Solución:
Para completar la ecuación utilizaremos la ley de conservación del número de nucleones y de la carga eléctrica.
7
3

Li  11H  42 He  42 He

La partícula utilizada para transformar al litio fue un protón.
Para calcular la energía asociada a la reacción de manera directa, podemos utilizar la ecuación:
MeV
Eenl MeV   931
M Da
Da
MeV
E  931
 mr  mp 
Da
Utilizando la tabla 5.1 y sustituyendo en la ecuación
MeV
E  931
 7, 0160 Da  1, 0072 Da  2  4, 0026 Da
Da
MeV
E  931
 0, 018 Da
u
E = 16,758 MeV

208

CAPÍTULO 5
La energía fue liberada porque la energía en reposo de los reaccionantes es mayor que la energía en reposo de los productos.

Comprueba tus conocimientos
21. ¿Cómo se define una reacción nuclear? ¿Cuál es su resultado?
22. ¿En qué consiste el fenómeno de la radiactividad artificial?
23. ¿Cuál es la diferencia fundamental entre la radiactividad natural y la
artificial?

24. ¿Cuáles son las partículas que en la actualidad se utilizan para provocar y estudiar las reacciones nucleares? Explica por qué son más
efectivas que las partículas α emitidas por los elementos radiactivos
naturales.

25. ¿Cuál es la condición para que una reacción nuclear sea exotérmica
y para que sea endotérmica?

5.6 Fisión nuclear. Reacción de fisión controlada.
Fusión nuclear
Fisión nuclear
El descubrimiento del neutrón, en 1932, fue un punto de giro en las
investigaciones de las reacciones nucleares, pues carece de carga eléctrica
y entonces penetra fácilmente en los núcleos atómicos, provocando las
transformaciones.
El famoso físico italiano Enrico Fermi (1901-1954) fue el primero en
comenzar los estudios de las reacciones nucleares provocadas por neutrones rápidos y lentos que se mueven con velocidades térmicas. Con sus
colaboradores, bombardeó con neutrones 60 elementos pesados, logrando obtener isótopos de 40 y la transformación del átomo del elemento
92, uranio, en el átomo del elemento 93, neptunio, no existente en la
naturaleza.

 De la historia
Enrico Fermi (1901-1954), físico italiano (figura 5.26): desarrolló el primer reactor nuclear. Realizó contribuciones al desarrollo de la teoría
cuántica, la física nuclear y de partículas, y la mecánica estadística. En
1938, Fermi recibió el Premio Nobel de Física por sus trabajos sobre

209

FÍSICA
radiactividad inducida, y es considerado uno
de los científicos más destacados del siglo xx.
Es reconocido por sus capacidades tanto en el
plano teórico como experimental. El elemento
fermio, que fue producido en forma sintética
en 1952, fue nombrado en su honor. Los fermiones, el Fermi National Accelerator Laboratory (Fermilab), el elemento químico fermio y
la Estadística de Fermi-Dirac reciben nombre en
su honor.
Fig. 5.26

En 1938, los científicos alemanes O. Hahn (1879-1968) y F. Strassmann
(1902-1980), descubrieron la fisión nuclear del uranio utilizando el neutrón y obteniendo dos elementos que ocupan la parte media de la tabla
periódica: el bario y el kriptón.
La fisión nuclear es una reacción en la que un núcleo pesado se
divide en dos núcleos de menor masa acompañada de la emisión
de neutrones, fotones (rayos γ), partículas α y β. La energía “liberada” en este proceso se conoce como energía nuclear de fisión.
La representación de la ecuación simbólica de la fisión del isótopo radiactivo uranio 235 (figura 5.27) es la siguiente:
235
92

92
1
1
1
U  01n  141
56 Ba  36 Kr  0 n  0 n  0 n

neutrón
235

U

ANTES
92

141

Kr

Ba
DESPUÉS

Fig. 5.27 Representación del proceso de fisión del 235
92 U , mediante un neutrón

210

CAPÍTULO 5
En la fisión nuclear parte de la energía en reposo del núcleo se convierte en energía cinética de los fragmentos de la fisión. En la fisión de un
núcleo de uranio 235 se libera una energía igual a 200 MeV.
¿Cómo se produce la fisión del núcleo?
El modelo de la gota líquida permite explicar este proceso. Cuando el
núcleo absorbe el neutrón, se excita y comienza a deformarse, adquiriendo una forma alargada. El núcleo se estira sin romperse hasta que la fuerza
de repulsión sea mayor que la fuerza de atracción y el núcleo se divide en
dos fragmentos. Los fragmentos se repelen, alejándose con una velocidad
del orden igual a la tercera parte de la velocidad de la luz (figura 5.28).
Se alarga y se
El núcleo
El núcleo
Los lóbulos se
absorbe
está excitado divide en dos separan, formando
lóbulos fragmentos de fisión
un neutrón
neutrón

fragmento
de fisión

neutrón
fragmento
de fisión

núcleo
Fig. 5.28

Reacción en cadena
La liberación de neutrones durante la fisión permite que se produzca,
bajo determinadas condiciones, la denominada reacción en cadena de la
fisión del uranio. Cualquiera de los neutrones que se liberan de la fisión
del primer núcleo puede provocar la fisión de otro núcleo vecino, que emite también nuevos neutrones que poseen la capacidad de provocar nuevas
fisiones. Como resultado, el número de núcleos de uranio fisionados aumenta rápidamente, así como la energía liberada, ocurriendo la reacción
en cadena (figura 5.29).
neutrón

neutrón
neutrón
Núcleo
objetivo

neutrón

Fig. 5.29

211

FÍSICA
La reacción en cadena va acompañada de una liberación de energía muy grande. Un núcleo radiactivo fisionado libera 200 MeV. Un
gramo de uranio, tiene 2,56 ∙ 10 21 átomos y libera una energía de
5,12 ∙ 10 23 MeV = 8,2 ∙ 10 10 J, equivalente a la energía que se obtiene
al quemar 3 t de carbón o 2,5 t de petróleo.
Pero para obtener la reacción en cadena no se pueden utilizar núcleos
cualesquiera. El isótopo de uranio de número másico 235 constituye uno
de los núcleos más ventajosos de los que se encuentran en la naturaleza
para este propósito, pero el uranio natural está constituido fundamental238
mente por dos isótopos: el 235
92 U y el 92 U . El primero constituye 1/140 parte
del segundo, que es el más abundante en la naturaleza.
El núcleo se divide bajo la acción de neutrones rápidos o lentos (con
velocidades térmicas). Los núcleos del 238
92 U pueden fisionarse solo bajo la
acción de neutrones rápidos de una energía superior a 1,0 MeV. Esta energía la posee aproximadamente el 60 % de los neutrones que se liberan durante la fisión. Sin embargo, solamente un neutrón de cada 5 es capaz de
fisionar al 238
92 U . Los restantes neutrones son absorbidos por este isótopo
y no producen su fisión. Por esta razón, no se puede lograr la reacción en
cadena si se utiliza solo el isótopo 238
92 U.
Por lo tanto, para logar la reacción en cadena es necesario disponer de mineral de uranio con una alta concentración del isotopo 235
92 U (uranio enriquecido)
y moderar la velocidad de los neutrones mediante algún material apropiado.
La reacción en cadena de forma controlada, es decir, para que no se
produzca una liberación de energía de forma explosiva, se logra en los
reactores nucleares de fisión.
Reactor de fisión nuclear
Una de las aplicaciones más importantes de la física nuclear la constituye el reactor nuclear, pues es una instalación con la cual se puede controlar
la reacción de la fisión del núcleo de uranio.
El núcleo de uranio que más se utiliza en los reactores es del isótopo
235
92 U pues en él se absorbe con más efectividad a los neutrones lentos.

 De la historia
El primer reactor nuclear se construyó en una cancha abandonada de tenis,
de la Universidad de Chicago. Allí se inició, se mantuvo y se detuvo, en diciembre de 1942, bajo la dirección del físico italiano Enrico Fermi, la primera
reacción nuclear en cadena.

212

CAPÍTULO 5
La posibilidad de asimilar los neutrones lentos es cientos de veces mayor que la de asimilar neutrones rápidos. Por ello en los reactores nucleares que trabajan con uranio natural se utilizan neutrones
retardados.
En la figura 5.30 se representan de forma esquemática los procesos que
tienen lugar en un reactor nuclear.
Neutrón lento

235
92

U

Neutrones acelerados
Fragmentos de fisión

235
95

Fragmentos de fisión

Moderador

92

U

235

U

238

U

92

Captura

ß de neutrones
239
93

U

ß
239
94

U

Fragmentos
de fisión

Fragmentos
de fisión

Moderador

Fig. 5.30

Los elementos fundamentales de un reactor nuclear son el combustible
238
299
nuclear ( 235
92 U , 92 U , 94 R y otros), el retardador de neutrones (agua pesada
o común, grafito y otros), el conductor del calor para dar salida al calor
que se produce durante el trabajo del reactor (agua, calcio líquido y otros)
y la instalación para regular la velocidad de reacción (que introduce en el
espacio del trabajo del reactor unas varillas que contienen cadmio o bario,
sustancias que absorben muy bien los neutrones). Alrededor del reactor

213

FÍSICA
hay una capa protectora contra las radiaciones g y los neutrones, constituida por concreto y planchas de acero.
Un retardador muy bueno lo constituye el agua pesada. El agua común
retiene los neutrones y se convierte en agua pesada. Otro buen retardador
es el grafito, cuyo núcleo no absorbe neutrones.
En la figura 5.31 se muestra el esquema de un reactor para alimentar
un generador de electricidad.
Circuito secundario

Turbina de vapor y
generador eléctrico

Barra
de control
Elemento de
combustible de
uranio
Núcleo de
reactor
Agua líquida
bajo presión
(lleva energía
a un generador
de vapor)

Vapor

Intercambiador
de calor

Condensador
(vapor de turbina
condensado por
agua fría)

Bomba
Circuito
primario

Agua fría

Agua caliente

Fig. 5.31

 Saber más
Reactores de neutrones rápidos
Se han construido reactores que trabajan sin retardador de neutrones rápidos. Puesto que la posibilidad de fisión que provocan los neutrones rápidos
es muy pequeña, estos reactores no pueden trabajar con uranio natural. La
reacción se puede lograr solo con una mezcla enriquecida que contenga no
menos del 15 % del isótopo 235
92 U. La ventaja de los reactores de neutrones
rápidos consiste en que, durante su trabajo, se forma una cantidad considerable de plutonio, el cual puede ser utilizado como combustible nuclear.
Estos reactores se denominan reactores multiplicadores, pues reproducen el
material fisionable. Se construyen reactores con coeficiente de multiplicación de hasta 1,5. Esto significa que de 1,0 kg del isótopo 235
92 U se obtienen
hasta 1,5 kg de plutonio. En los reactores comunes también se forma plutonio, pero en menor cantidad (el coeficiente de multiplicación es de hasta
0,6-0,7)

214

CAPÍTULO 5

 De la historia
Cuando la reacción en cadena de la fisión
del uranio no se controla, puede ocurrir una
explosión nuclear (figura 5.32). Este es el
principio de la bomba atómica. El Proyecto
Manhattan, fue el nombre clave de un proyecto de investigación científico llevado a
cabo durante la Segunda Guerra Mundial
por los Estados Unidos con ayuda parcial del
Fig. 5.32
Reino Unido y Canadá. El objetivo final del
proyecto era el desarrollo de la primera bomba atómica antes que la Alemania fascista. En el grupo de científicos se encontraba, entre otros, Enrico
Fermi, creador de la primera pila atómica en la Universidad de Chicago y
Albert Einstein, que escribió una carta al presidente Roosevelt conminado
por Oppenheimer, antes del inicio del proyecto, para convencer al presidente de la necesidad de establecer un programa semejante al que tenía
la Alemania fascista, por el peligro que representaba la energía liberada
por la fisión nuclear. En respuesta a la advertencia, Roosevelt incrementó
las investigaciones acerca de las implicaciones en la seguridad nacional de
la fisión nuclear. Después de la detonación sobre Hiroshima, Einstein comentaría: “debería quemarme los dedos con los que escribí aquella primera
carta a Roosevelt”. Albert Einstein después de enviar la carta al presidente
no participó en la construcción de la bomba atómica. Aparte de esta carta,
él nunca trabajó en el desarrollo de bombas nucleares.

Fusión nuclear
Otra forma de reacción nuclear es la fusión, que consiste en la unión
de dos núcleos ligeros con A < 20, con energía de enlace por nucleón menor, para formar un núcleo más pesado. En este proceso se desprenderá
energía.
Este proceso proporciona cantidades de energía muy superiores al de
la fisión nuclear. Por ejemplo, durante la fusión del deuterio con el tritio,
ambos isótopos del hidrógeno (figura 5.33), se liberan 3,5 MeV/nucleón,
mientras que en la fisión del uranio se libera 1,0 MeV/nucleón.
La representación simbólica de la fusión del deuterio con el tritio es la
siguiente:
H  31H  42He  01n  14 , 0 MeV

2
1

El principal obstáculo para obtener energía útil de la fusión es la gran
fuerza repulsiva de Coulomb entre los núcleos. Los núcleos antes de la

215

FÍSICA
fusión tienen que tener una gran energía cinética para vencer la fuerza
electrostática de Coulomb. La temperatura requerida para producir fusión
está en el orden de 108 K, y a esta temperatura toda la materia se presenta
como plasma. Por este motivo las reacciones de fusión se les conocen como
reacciones termonucleares. Ellas ocurren en las estrellas y una de ellas es
el Sol, planteando entonces que la energía que irradian tiene un origen
termonuclear.
Tritio

Deuterio

H

3
1

H

2
1

Partícula
alfa

Neutrón

n

He

4
2

Fig. 5.33

Un ejemplo de reacciones de fusión en las estrellas con liberación de
energía es:
H  11H  21H  01e  

1
1

H  21H  23He  00 

1
1

Algunas de las reacciones de fusión en el Sol, que tienen: 70 % de hidrógeno, 28 % de helio y 2 % de carbono, nitrógeno, oxígeno y otros, son:
H  23He  42 He  01e  

1
1

3
2

He  23He  42 He  11H  11H

La enorme cantidad de energía liberada en las reacciones de fusión sugiere la posibilidad de emplear esta energía para diferentes fines que sean
útiles. En la actualidad, ya se han construido reactores termonucleares de
carácter experimental y se trabaja de manera intensa para construir un
reactor termonuclear de fusión, que pueda ser utilizado de forma generalizada para la producción de energía de manera confiable y sostenible.

216

CAPÍTULO 5

¿Sabías que…?
Se cree que la fusión controlada es la máxima fuente de energía por la disponibilidad de su fuente de combustible: el agua. Por ejemplo, si se usara
deuterio como combustible, podría extraerse 0,12 g de un galón de agua a
un costo muy bajo; y podría liberar unos 1010 J si todos los núcleos experimentaran fusión. En comparación, un galón de gasolina libera unos 108 J al
consumirse y cuesta mucho más caro.

Problema resuelto 6
En un reactor nuclear ocurre la fisión de un núcleo de uranio 235 por
un neutrón lento. Se obtiene un isótopo de bario (m = 141,895 Da), un
elemento desconocido de masa 90,9133 Da y tres neutrones.
a) Escribe la representación simbólica de la reacción de fisión del uranio.
b) ¿Cuántos protones tiene el núcleo desconocido y cuál es el nombre del
elemento? ¿En qué ley de conservación te basaste para conocer los protones en el núcleo desconocido?
c) Calcula la energía liberada por la fisión del núcleo.
d) ¿Cuánta energía libera 1,0 g de uranio?
Solución:
a) Para escribir la representación simbólica de la reacción de fisión, tenemos que saber los elementos que reaccionan y los productos de la
reacción, así como balancear la masa y la carga del sistema:
235
92

91
1
1
1
U  01n  142
56 Ba  36Y  0 n  0 n  0 n

b) Tiene Z = 36 y el nombre es el kriptón. Para conocer el número de protones, se utilizó la ley de conservación de la carga nuclear.
c) Para calcular la energía liberada, se puede usar la ecuación:
MeV
E  931
 mr  mp 
Da
mr – mp = 235,0439 Da + 1,0086 Da – 141,895 Da + 90,9133 Da + 3,0258 Da
= 0,2184 Da
E

MeV
931
=
· 0, 2184 Da 203, 33 MeV
Da

d) Para determinar la energía liberada por un gramo de uranio, primero
debemos conocer el número de átomos que existen en un gramo y

217

FÍSICA
después multiplicar este valor por la energía que libera el núcleo de un
átomo. La masa molar del uranio es 235 g ∙ mol–1
N

m
1, 0 g
· 6, 02 · 1023 mol1  2, 6 · 1021 átomos
· NA 
M
235 g · mol1

E = 203,33 MeV ∙ N = 203,33 MeV ∙ 2,6 ∙ 1021 = 5,27 · 1029 eV = 8,4 ∙ 1010 J

Comprueba tus conocimientos
26. ¿En qué consiste la reacción de fisión nuclear?
27. Describe el mecanismo de fisión nuclear, utilizando el modelo de la
gota líquida.

28. ¿Por qué ocurre la emisión de neutrones y radiaciones a, b–, b+ y g en
la fisión del núcleo de uranio?

29. Describe el mecanismo de la reacción nuclear en cadena y di cuál es
la condición que debe cumplirse para que ocurra.

30. ¿Cuándo una reacción nuclear en cadena es controlada?
31. ¿En qué consisten las reacciones termonucleares y cuáles son las condiciones necesarias para que estas se produzcan?

32. ¿Por qué podemos afirmar que el combustible nuclear del Sol disminuye? Describe las reacciones de fusión que ocurren en el Sol.

5.7 Partículas elementales
Actualmente el nombre de partícula elemental se usa para las partículas
que, hasta donde se conoce, no están constituidas por partículas más pequeñas.
La idea de que los protones, neutrones y electrones, las partículas constituyentes de los átomos, eran partículas elementales, comenzó a cambiar
radicalmente a partir del año 1940, en que los experimentos mediante colisiones nucleares a altas energías pusieron de manifiesto la existencia de
otros tipos de partículas, con la característica de ser muy inestables y tener
un pequeño periodo de semidesintegración.
El relativamente rápido descubrimiento de decenas de nuevas partículas (en la actualidad son centenares las partículas descubiertas y se
hipotetiza sobre muchas más) puso de relieve la pregunta de que si esta
gran cantidad y variedad de partículas no se podría explicar a partir de
un número reducido de partículas, de manera semejante a como la tabla

218

CAPÍTULO 5
periódica permite explicar la existencia de más de 100 elementos a partir
de tres partículas diferentes (protones, neutrones y electrones).

¿Sabías que…?
Durante las investigaciones realizadas con los aceleradores de partículas
fueron apareciendo otras partículas que se clasificaron como:
Partículas extrañas: sus tiempos de vida (10–10 s) eran mucho mayor que los
tiempos característicos de los procesos en los que surgían (10–23 s) y aparecían en pares.
Partículas resonancias: el tiempo de vida de estas partículas es de 10–23 s y
para su detección se empleaba métodos no ordinarios.
Partículas encantadas: partículas con una masa tres veces mayor que la
masa del protón y con un tiempo de vida de 10–20 s.
Partículas bonitas: se descubrieron en 1977 y su masa es 11 veces la masa del
protón, siendo las más pesadas con un tiempo de vida igual a 10–20 s.

En el presente, se conoce que los protones, los neutrones y muchas
otras partículas, como los mesones que ya se han mencionado en capítulos
anteriores, están formadas por seis tipos diferentes de partículas llamadas
quarks y que toda la materia en el universo está formada por dos familias
de partículas: los quarks y los leptones.
Si bien el fascinante estudio de las partículas elementales trasciende
el nivel de este libro, el conocimiento de sus fundamentos de manera
cualitativa resulta de mucha importancia para la cultura contemporánea.
De hecho, nos encontramos inmersos en un mundo en el que se destinan
grandes recursos a las investigaciones en este campo, con un impacto creciente en nuestra vida, no solo por sus aplicaciones prácticas más inmediatas, sino por lo que representan para la comprensión del universo.
La propuesta inicial de que todas las partículas, excepto las que se denominan leptones, están constituidas por otras, a las que se les llamó quarks, fue
formulada, en 1963, por los científicos estadounidenses Gell-Mann y G. Zweig.
Originalmente se introdujo la hipótesis de que existen tres quarks (y
tres antiquarks) y que, entre otras propiedades, tienen carga eléctrica fraccionaria. En la actualidad se postula la existencia de seis quarks (y seis antiquarks), denominados con las letras (u, d, s, c, b y t).
Los quarks se han encontrado formando parte de otras partículas, pero
no se han descubierto quarks libres.
En la actualidad, la física de partículas elementales se basa en el llamado modelo estándar.

219

FÍSICA
De acuerdo al modelo estándar existen seis tipos de quarks, seis tipos
de leptones y cuatro tipos de bosones (tabla 5.6). Estas partículas están divididas en dos grandes categorías por el principio de exclusión de Pauli: las
que no están sujetas a este principio, que son los bosones (tienen espín entero) y los que sí lo están (tienen espín semientero) se las llama fermiones.
Tabla 5.6
Partículas elementales del modelo estándar

Los fermiones son constituyentes básicos de las partículas subatómicas que interactúan mediante los bosones de Gauge. Algunos fermiones,
como el electrón, son partículas elementales y otros, como el protón y el
neutrón, son partículas compuestas (figura 5.34).
Neutrón

Protón

u

u

d

u

d

d

Fig. 5.34 El protón está compuesto por dos quarks u y un quark d y el neutrón
por dos quarks d y uno u

220

CAPÍTULO 5
Las generaciones de fermiones dependen de su masa, los de segunda
generación tienen una mayor masa que los de la primera y los de la tercera
una mayor masa que los de la segunda.
Los quarks se caracterizan por la interacción fuerte entre ellos. Aunque
a la interacción entre los nucleones se le sigue llamando interacción fuerte, la interacción fuerte es la que se manifiesta entre los quarks y la que
existe entre los nucleones es una interacción fuerte residual.
Entre los quarks también se manifiesta la fuerza débil, pero solo en determinadas condiciones puede provocar transformaciones entre distintas
generaciones de quarks (figura 5.35)
u

c

t

d

s

b

Quarks

Fig. 5.35 Las líneas de puntos representan transformaciones muy poco probables

Los leptones se caracterizan porque entre ellos solo se manifiesta la
interacción débil, pero esta interacción solo puede transformar un leptón
en otro de la misma generación (figura 5.36)
1.a gen.

2.a gen.

3.a gen.

e-

μ-

Ƭ-

νe

νμ

ν

Leptones

Ƭ

Fig. 5.36

Los bosones de gauge son los bosones portadores de las interacciones fundamentales en la naturaleza y son diferentes de otros tipos de
bosones, por ejemplo, de los mesones, que son bosones compuestos por
quarks.

221

FÍSICA
Los fotones (los portadores de la fuerza electromagnética), los bosones W y Z (los portadores de la fuerza débil) y los gluones (los portadores de la fuerza nuclear fuerte) son bosones de gauge. Todos los
bosones de gauge conocidos tienen espín igual a 1 y por ello se les
llama bosones vectoriales. El bosón de Higgs (relacionado con el origen de la masa de las partículas elementales) tiene espín cero y al hipotético gravitón le corresponde espín 2, estos son llamados bosones
escalares.
Recordemos que las interacciones fundamentales en la naturaleza son
la fuerte, la débil, la electromagnética y la gravitatoria. En la tabla 5.7 se
resumen algunas características de estas interacciones y de sus partículas
mediadoras.
Para ayudar a esclarecer la idea de la interacción, entre las partículas
elementales, mediada por bosones, se puede recurrir a la analogía mecánica siguiente:
Imaginemos una pelota de ping-pong que representa una partícula elemental, como un electrón. Esta pelota se mueve por un campo
de fuerza, como el campo electromagnético. Para que esta pelota interactúe con otra partícula, digamos un protón, necesita intercambiar
algo con ella. En el caso de la interacción electromagnética, la pelota
de ping-pong intercambia fotones con el protón. Los fotones actúan
como los “mensajeros” que transmiten la fuerza entre las dos partículas. Cuantos más fotones se intercambien, más fuerte será la interacción
electromagnética. De manera similar, en la interacción débil, la pelota
de ping-pong intercambia bosones W y Z con otra partícula. Estos bosones masivos son los “mensajeros” que transmiten la fuerza débil entre
las partículas. La gran masa de estos bosones hace que la interacción
débil sea mucho más débil que la electromagnética. En la interacción
fuerte, la pelota de ping-pong intercambia gluones con otras partículas, como los quarks dentro de un protón. Los gluones son los “mensajeros” de la fuerza fuerte.
Así, la idea clave es que las interacciones fundamentales entre partículas elementales se producen mediante el intercambio de partículas
mediadoras específicas de cada tipo de interacción. Estas partículas mediadoras actúan como “mensajeros” que transmiten la fuerza entre las
partículas

222

CAPÍTULO 5
Tabla 5.7

Interacción
Fuerte

Intensidad
relativa

Alcance
Corto
~10–15 m

1

Débil

10

Corto
~10–18 m

Electromagnética

1
137

Gravitacional

10–38

–9

Partícula mediadora
nombre

masa

Gluón

0

Bosón

 80,  91, 2 

  0 
 W ,Z 





carga
0

GeV
c2

±e, 0

Largo 1 2
r

0

0

2

0

0

  Fotón
Largo  1  Gravitón
r

La familia de los mesones, formados por un número par de quarks (normalmente un quark y un antiquark), y de los bariones, formados por un
número impar de quarks (normalmente tres quarks), son llamados hadrones (figura 5.37). Los protones y neutrones son ejemplos de bariones y los
piones son ejemplos de mesones.
Se considera que casi todos los hadrones y antihadrones libres (es decir,
aislados no ligados a un núcleo atómico) son inestables. La única excepción
conocida hasta ahora son los protones, que son estables o tardan mucho
tiempo en desintegrase (del orden de 1034 años). A manera de comparación, los neutrones libres, que son las partículas inestables más longevas,
tienen una vida media de 879 s.
HADRONES
FERMIONES

BOSONES
Fotón, W+, W–,
Z0, Gluon,
Higgs

Mesones
(piones,
kaones,...)

Bariones
(protón,
neutrón,...)

Leptones
(electrón,
neutrino,...)

Formado por quarks
Fig. 5.37

223

FÍSICA
Hideki Yukawa (1907-1981), físico japonés (figura 5.38): galardonado con el Premio Nobel de Física, en 1949, por formular la hipótesis de los mesones, basada en trabajos teóricos sobre fuerzas
nucleares.
Aunque hoy se conoce que los mesones no son
los portadores de las fuerzas nucleares, los trabajos de Yukawa contribuyeron de manera significativa a las investigaciones sobre las partículas
elementales.
En 1955, junto con otros diez científicos e intelectuales, firmó el Manifiesto Russell-Einstein para un
desarme nuclear.

Fig. 5.38

Paul Adrien Maurice Dirac (1902-1984), físico
británico (figura 5.39): su trabajo fue vital para el
discernimiento de la antimateria y la unificación de
la mecánica cuántica y la relatividad.
Realizó varias contribuciones para el desarrollo de
la física cuántica y de la cosmología. Fue ganador
del Premio Nobel de Física en 1933.

Fig. 5.39

Limitaciones del modelo estándar
A pesar de ser, hasta la fecha, la teoría de partículas con más éxito, el modelo estándar presenta un gran número de limitaciones intrínsecas, cuya superación es un activo campo de trabajo de la física
contemporánea.
A manera de ejemplo, algunas de sus limitaciones son las siguientes:
El Modelo Estándar no proporciona una explicación para la gravedad.
El planteamiento de añadir simplemente un gravitón al Modelo Estándar
no resuelve el problema y, además, es incompatible con la teoría de la
gravedad que ha sido la más exitosa hasta la fecha, la relatividad general.
De acuerdo con el Modelo Estándar los neutrinos son partículas sin
masa. Sin embargo, los experimentos de las oscilaciones de neutrinos han
demostrado que los neutrinos sí tienen masa.

224

CAPÍTULO 5
El Modelo Estándar predice que las cantidades de materia y la antimateria deben ser casi iguales, lo que no coincide con las observaciones
actuales. El modelo tampoco explica otros problemas cosmológicos, por
ejemplo, los relacionados con la llamada materia y energía oscura.
No hay correspondencia entre los resultados experimentales del valor
de algunas magnitudes y los predichos por la teoría, por ejemplo, la masa
del bosón W que excede a la predicha por el modelo.

 Saber más
Antipartículas
En 1928, Dirac resolvió la ecuación cuántico relativista del electrón y encontró dos resultados importantes. Primero aparecía el espín (número cuántico
relacionado con la cantidad de movimiento angular) del electrón y el segundo se relacionaba con la posible existencia de una partícula similar al
electrón, pero el signo de la carga sería positivo o sea la antipartícula del
electrón llamada positrón (10e). En 1932 el físico estadounidense Carl D.
Anderson descubrió el electrón positivo, o positrón, cuando investigaba las
partículas que bombardean la Tierra desde el espacio.
En 1933 y 1934, se hallaron experimentalmente las reacciones de formación
y aniquilación de pares de partículas, en las que interviene el positrón:
0
1

0
1

e

2

0
0

0
1

0
1

e

e

e

La existencia de antipartículas se estableció con un carácter universal. El
protón tiene su antipartícula llamada antiprotón (p) y el neutrón tiene a su
antipartícula llamada antineutrón (n). Fueron encontrados, en 1955 y 1956,
con los aceleradores de partículas.

Comprueba tus conocimientos
33. ¿Cuáles son las partículas del modelo estándar?
34. ¿Cuáles son las características de los fermiones?
35. ¿Cuáles son las características de los bosones gauge?
36. ¿Qué son los quarks?
37. ¿Cuáles son los quarks que forman un protón, un antiprotón, un
neutrón y un antineutrón?

38. ¿Cuáles son las cuatro interacciones fundamentales en la naturaleza?

225

FÍSICA

39. ¿Cuáles son las partículas que participan en cada una de las
interacciones?

40. ¿Qué es la antipartícula? ¿Cuál fue la primera antipartícula descubierta experimentalmente?

41. Di si la afirmación siguiente es verdadera o falsa: “El fotón gamma,
utilizado para obtener el par electrón-protón, está formado por tres
quarks: dos u y un d”. Argumenta.

Problemas generales del capítulo
1. La energía de enlace del núcleo de 42 He es 28,296 MeV. Calcula la energía, expresada en megaelectronvolt (MeV) y en joule (J), cuando se forman 0,5 g de helio a partir de sus nucleones libres.
Datos: NA = 6,02 ∙ 1023 moléculas ∙ mol –1 y M = 4 g ∙ mol–1
2. Las energía de enlace de los núcleos de 105 B, 115B y 125 B son respectivamente 64,751 MeV; 76,205 MeV y 79,575 MeV.
a) Calcula la energía de enlace por nucleón para cada uno de los
núcleos.
b) ¿Qué núcleo es más estable?
3. Para el elemento oxígeno y con los datos que aparecen en la tabla 5.1,
calcula:
a) El defecto de masa.
b) La energía de enlace expresada en megaelectronvolt (MeV) y en
Joule (J).
c) La energía de enlace por nucleón.
4. Con los datos que aparecen en la tabla 5.3, para el isótopo uranio 238:
a) Plantea la ecuación simbólica de la desintegración radiactiva alfa y
diga el nombre del elemento obtenido.
b) Calcula la energía que se libera en la desintegración del núcleo de
uranio.
5. Con los datos que aparecen en la tabla 5.3, para el isótopo carbono-14:
a) Plantea la ecuación simbólica de la desintegración radiactiva beta
menos y diga el nombre del elemento obtenido.
b) Calcula la energía que se libera en la desintegración del núcleo de
carbono.

226

CAPÍTULO 5
6. Con los datos que aparecen en la tabla 5.3, para el isótopo fósforo 30:
a) Plantea la ecuación simbólica de la desintegración radiactiva beta
más y diga el nombre del elemento obtenido.
b) Calcula la energía que se libera en la desintegración del núcleo de
fosforo.
7. Determina el número de átomos que quedan sin desintegrase, de
una muestra radiactiva del cobalto (tabla 5.4) para un tiempo igual a
10,542 años.
8. El período de semidesintegración del polonio es de 140 días. Durante
la emisión de partículas α, el polonio se transforma en plomo estable.
Calcula el número de átomos de plomo que se obtuvieron en 240 días
como resultado de la desintegración.
9. Una muestra radiactiva que inicialmente poseía 8,0 · 1020 átomos,
comienza a desintegrarse de modo que al transcurrir 10 días solo
formaban parte de la misma la cantidad de 2,0 · 1020 átomos. ¿Cuál
es el periodo de semidesintegración del elemento que conforma la
muestra?
10. Se tiene un mole de un isótopo radiactivo, cuyo periodo de semidesintegración es de 100 días. ¿Al cabo de cuánto tiempo quedará solo el
10 % de la muestra inicial?
11. Completa las siguientes reacciones nucleares:
a) 73Li  11H  47Be  ____
b) 199 F  11H  ___  42He
c)

6
3

Li  ___  73Li  11H

12. En la reacción del 63Li que aparece en la tabla 5.3, con un neutrón se obtiene un núcleo Y y una partícula alfa (masa de isótopo:
4
2 He = 4 , 00260 Da ).
a) Escribe la ecuación simbólica de la reacción y determina el número
de protones y neutrones del núcleo hijo.
b) Calcula la energía de la reacción. Clasifícala en exotérmica o
endotérmica.
13. La siguiente ecuación corresponde a una reacción nuclear:
235
92

94
1
1
U  ____  140
55 Cs  37 Rb  0 n  0 n

a) ¿Es una reacción de fisión nuclear o de fusión nuclear? Justifica.
b) Completa la reacción y di el nombre de la partícula.

227

FÍSICA
c) Calcula la energía asociada a la reacción.
d) Cada uno de los fragmentos de la fisión experimenta tres desintegraciones beta menos. ¿Qué elemento estable genera cada uno?
14. En el Sol ocurren reacciones de fusión, donde el hidrógeno se convierte en helio. Una de ellas es la siguiente:
1
4
0
1H  ____  2 He  1e  
a) Completa la reacción y di el nombre del isótopo que se fusiona con
el hidrógeno.
b) Calcula la energía que se libera en la reacción.
c) Compara la energía de enlace por nucleón del producto ( 42 He ) con
la energía de enlace por nucleón de los elementos que se unen.
15. Completa las siguientes ecuaciones simbólicas que corresponden a reacciones de fusión que ocurren en una estrella.
a) 21H  _____  23He  01n
b) 21H  21H  ____  11H
c)

228

H  31H  42He  ___

2
1

CAPÍTULO 6
Elementos de Cosmología

¿Por qué es oscuro el cielo nocturno?
¿Cómo sabemos que el universo está en expansión?
¿Dónde está el centro del universo?

6.1 Las raíces de la cosmología
La Cosmología es la ciencia de nuestro universo, es la parte de la Astrofísica que estudia su origen, naturaleza física, estructura, evolución y composición como un sistema físico. Los cosmólogos pretenden explicar cómo
el universo llegó a ser lo que es en la actualidad y lo que será en un futuro.
Esa rama de la ciencia ha experimentado una transformación en los últimos 50 años que la ha convertido en una disciplina de precisión, y cuenta
con un conjunto impresionante de conocimientos, una extraordinaria riqueza de datos observacionales y una enorme vinculación con los últimos
adelantos de otras ramas del saber, fundamentalmente con la física nuclear y de las partículas.
Todo lo referente al origen y evolución del universo ha ocupado un
lugar de primera atención en la mente del hombre desde los albores de la
humanidad, formando parte de la historia y cultura de los pueblos.
La génesis de todo lo existente ha inquietado siempre a científicos, filósofos y teólogos desde tiempos inmemoriales, incluso cuando ciencia,
filosofía y teología se confundían en una sola profesión.
Una ciencia que considera galaxias enteras como pequeños objetos
podría parecer, a primera vista, muy remota de las preocupaciones de la
humanidad. No obstante, la cosmología se ocupa de preguntas que son
fundamentales para la condición humana:

229

FÍSICA
¿Cómo empezó todo? ¿De dónde venimos? ¿Qué somos? ¿A dónde vamos? La cosmología se enfrenta con estas preguntas describiendo el pasado, explicando el presente, y haciendo predicciones sobre el futuro del
universo.
Los cosmólogos hacen preguntas tan complejas como: ¿De qué está
hecho el universo? ¿Es este finito o infinito en extensión espacial? ¿Tuvo
un comienzo algún tiempo finito en el pasado? ¿Llegará a un fin algún
tiempo finito en el futuro?
En estos epígrafes daremos una ojeada a los hechos e ideas más relevantes que, en diferentes épocas, han tenido los seres humanos acerca del
origen y evolución del cosmos.
Para lograr sus objetivos la cosmología usa toda la física conocida aplicada al universo, a su vez, contribuye en el descubrimiento de la nueva
física, es una región del conocimiento en la frontera de la ciencia. La ciencia del universo se ocupa de distancias que son muy grandes, de objetos
que son enormes, y trabaja con escalas de tiempo que son amplísimas. Los
cosmólogos frecuentemente se dan cuenta que las unidades de las magnitudes físicas estándar del Sistema Internacional de unidades definidas por
los físicos no son convenientes para sus propósitos: el metro (m) es torpemente pequeño, el kilogramo (kg) es muy diminuto, y el segundo (s) no
es nada apropiado en escalas de tiempo cosmológicas. Afortunadamente,
podemos adoptar otras unidades de medida que han sido desarrolladas
por los astrónomos para ocuparse de distancias muy grandes, masas superlativas, y tiempos muy largos.
Una unidad de distancia usada por astrónomos es la unidad astronómica (ua) una unidad convencional de longitud cuyo valor es
cercano a la distancia promedio entre la Tierra y el Sol; en unidades
métricas, 1 ua = 149,6 · 106 km = 1,49 · 1011 m. Aunque la unidad astronómica sea una escala útil de longitud dentro del sistema solar, es
pequeña comparada con las distancias entre estrellas.
Para medir distancias interestelares, es útil utilizar al parsec (pc),
una longitud igual a la distancia para la cual 1 ua subtiende un ángulo de 1 segundo de arco (1 pc = ~206 265 ua); en unidades métricas,
1 pc = 3,09 · 10 16 m (figura 6.1). Por ejemplo, estamos en una distancia
de 1,30 pc de Próxima Centauri (una estrella pequeña, relativamente
más fría que el Sol en nuestra vecindad estelar); estamos a una distancia de 8 500 pc del centro de nuestra Galaxia, la Vía Láctea.

230

CAPÍTULO 6

Movimiento aparente de la estrella por
el cambio del punto de observación
P

Ángulo de paralaje igual a 1 segundo
de arco

Estrella cercana

1 pc

Movimiento de la Tierra
alrededor del Sol
1 ua

Fig. 6.1

Aunque el parsec es una unidad de longitud útil dentro de nuestra galaxia, es pequeño comparado con las distancias entre galaxias. Para medir
distancias intergalácticas, utilizamos el Megaparsec (Mpc), equivalente

231

FÍSICA
a 106 pc, o 3,09 · 1022 m. Por ejemplo, estamos en una distancia de
≈ 0,76 Mpc de Messier1 31 (M31) (conocida como la galaxia de la Andrómeda) y ≈15 Mpc del centro del cúmulo de Virgo (un próximo grupo
grande de galaxias).
Los astrofísicos también utilizan el año luz como una unidad de
medición de distancias igual a la longitud recorrida por la luz en un
año: 1 al = 9,46 · 1012 km = 0,307 pc.
La unidad de masa estándar usada por astrónomos es la masa solar (M⊙);
en unidades métricas, la masa del Sol tiene el valor: 1 M⊙ = 1,99 · 1030 kg.
La masa total de nuestra la galaxia no es conocida tan exactamente como
la del Sol; en números redondos, sin embargo, es Mgal∼1012 M⊙, incidentalmente, también el Sol proporciona la unidad estándar de potencia usada en
la astronomía. La luminosidad del Sol (es decir, la tasa con la que el astro rey
radia energía en forma de luz) 1 L⊙ = 3,83 · 1026 W. Tampoco la luminosidad
total de nuestra galaxia es conocida tan exactamente como la luminosidad
del Sol; pero una buena estimación, sin embargo, es: L gal ≈ 3 · 1010 L⊙.
Para medir tiempos mucho mayores que un segundo, conviene utilizar el año sidéreo como unidad de tiempo, es el tiempo que trascurre
entre dos pasos consecutivos de la Tierra por un mismo punto de su
órbita. Un año sidéreo es igual a 365,242 190 402 días solares medios,
365 días 6 h 9 min 9,76 s,2 ≈ 3,16 · 107 s. En un contexto cosmológico,
un año sidéreo es frecuentemente un breve período de tiempo, por lo
que resulta inconveniente, así es que los cosmólogos acostumbran usar
a menudo el Mega año (Maño), con 1 Maño = 106 años ≈ 3,16 · 1013 s.
Incluso las escalas de tiempo cosmológicas exigen el uso de gigaaño
(Gaño), 1 Gaño = 109 años ≈ 3,16 · 1016 s.
Por ejemplo, la edad de la Tierra es más convenientemente escrita como
4,57 Gaños ≈ 1,44 · 1017 s.
Además de ocuparse de cosas muy grandes, la cosmología moderna
también trata con cosas muy pequeñas. Temprano en su historia, como veremos, el universo fue muy pequeño caliente y denso, y algunos fenómenos

1

Número del objeto celeste en el catálogo de Nebulosas y Cúmulos Estelares, que se
publicó originalmente en 1771, por el astrónomo francés Charles Messier.

2

Un segundo es definido en el Sistema Internacional de Unidades como la duración
de 9 192 631 770 oscilaciones de la radiación emitida en la transición entre los dos niveles hiperfinos del estado fundamental del isótopo 133 del átomo de cesio (Cs 133),
a una temperatura de 0 K.

232

CAPÍTULO 6
interesantes de la física de partículas, ya estudiada por ustedes, fueron
ocurriendo. Consecuentemente, los físicos de partículas se han introducido
en la cosmología, estableciendo algunas terminologías y unidades propias.
Por ejemplo, los físicos de partículas tienden a medir la energía en unidades llamadas electronvoltios (eV) en lugar de Joule (J). El factor de conversión entre electronvoltios y Joule es 1 eV = 1,60 · 10-19 J. por ejemplo, la
energía de reposo para un electrón, es mec2 = 511 000 eV = 0,511 MeV, y la
energía de un protón es mpc2 = 938,27 MeV = 1 836,1 mec2.
Cuando nos detenemos a pensar en todo esto, nace la idea de usar un
sistema de unidades más coherente y más universal, que existe y se llama
sistema de unidades de Planck, está basado en la relación que se establece entre varias constantes físicas universales, la constante de gravitación
universal G, la velocidad de la luz en el vacío c, y la constante de Planck h.
Combinando la constante newtoniana de gravitación G = 6,67 · 10-11 m3kg-1s-2,
la velocidad de la luz, c ≈ 3,00 · 108 ms-1, y la constante de Planck Reducida
o constante de Dirac, π = h/(2π) = 1,05 · 10-34 Js = 6,58 eV · 10-16 s, se produce
una unidad única de longitud, conocida como longitud de Planck:
1

 Gh  2
lp   3   1, 62  1035 m (6.1)
c 
Para los físicos su significado es: la escala espacial a la cual la estructura
del espacio-tiempo (o la materia) está dominada absolutamente por los
efectos cuánticos. Por lo que la pregunta ¿Existe algo más pequeño que
esto? deja de tener sentido.
Las mismas constantes pueden estar combinadas para definir la masa
de Planck,
1

 hc  2
Mp     2,18  108 kg (6.2)
G 
Y el tiempo de Planck:
1

 G  2
t p   5   5, 39  1044 s (6.3)
c 
Usando la relación de Einstein de equivalencia entre la masa y la energía, también podemos definir la energía de Planck,
Ep = Mpc2 = 1,96 ∙ 109 J = 1,22 ∙ 108 eV (6.4)

233

FÍSICA
Considerando la constante de Boltzmann, k = 8,62 · 10-5 eVK-1, en el
acto, también se puede definir la temperatura de Planck:
Tp = Ep/k = 1,42 ∙ 1032 K (6.5)
Estas unidades adquieren suma importancia al analizar los procesos en
el universo temprano.
En este capítulo nos ocuparemos de distancias que se extienden desde
la longitud Planck hasta los miles de megaparsec (Mpc), poco más o menos.
Ocuparse de escalas de longitud tan amplias requiere, seguramente, una
gran imaginación. Sin embargo, los cosmólogos no permiten a su mente
correr completamente sin restricción. La Cosmología se basa, a la postre,
en la observación del universo alrededor de nosotros. Incluso en la antigüedad, la cosmología fue basada en observaciones. Desafortunadamente, esas observaciones fueron frecuentemente imperfectas e incompletas.
En el principio existió una etapa puramente contemplativa, previa a la
especulación filosófica y al cientificismo, dominada por los llamados mitos
cosmogónicos.
A la pregunta ¿De dónde salió todo lo que existe? se respondía contando un mito. El término proviene de la palabra griega Mythos que significa historia contada, una narración. La palabra cosmogónico procede de
la conjugación de otras dos palabras griegas, Kosmos que los pitagóricos
usaban para designar al mundo en su perfecta armonía y orden y Gen que
indica nacimiento. Un mito cosmogónico es pues la narración del modo en
que el mundo ha llegado a ser.

Comprueba tus conocimientos
1.

¿Qué estudia la Cosmología?

2.

¿Cuáles son las unidades de longitud, tiempo, masa y energía que
utilizan los astrofísicos en la cosmología?

3.

¿Qué importancia tienen para la astrofísica las unidades de Planck?

6.2 Observaciones fundamentales
Una parte de las observaciones sobre las cuales se basa la cosmología
moderna requiere equipos altamente complejos, y la elaboración de un
sofisticado análisis de datos. Sin embargo, existen otros hechos observacionales que permiten sacar conclusiones cosmológicas importantes y son
sorprendentemente simples. Empecemos con una indagación que es poco
apreciada en su sencillez extrema.

234

CAPÍTULO 6

El cielo de la noche es oscuro
Salgamos al exterior en una noche despejada, sin Luna, lejos de la iluminación de la ciudad, y miremos hacia arriba, entonces veremos un cielo
oscuro, con aproximadamente unas 2 500 estrellas esparcidas en él.
Pero si consideramos un universo infinito, con infinito número de estrellas,
entonces el hecho de que el cielo de la noche esté oscuro es una paradoja.
El habitual panorama de que el cielo de noche es oscuro en las longitudes de onda visibles, en lugar de estar uniformemente brillante por la luz de
las estrellas, es conocido como la paradoja de Olbers, después que el médico
y astrónomo aficionado alemán Heinrich W. Olbers (1758-1840) popularizó
el tema, en 1823, con su artículo Sobre la transparencia del universo.
¿Por qué debería ser paradójico que el cielo de la noche esté oscuro?
En un bosque bastante grande, cada línea de visión termina en un árbol. En un universo bastante grande, cada línea de visión debería terminar
en una estrella (figura 6.2). ¡El cielo de la noche no debería ser oscuro!

Fig. 6.2 Representación de la paradoja de Olbert. En un universo estático
infinitamente grande, cada línea de visión debería terminar en una estrella

Como ocurre casi siempre, Olbers no fue la primera persona en pensar
sobre este delicado asunto. En tiempos tan antiguos como en 1576, Thomas
Digges mencionó también el extraño hecho de que el cielo de noche esté oscuro, con solo algunos puntos de luz para marcar el lugar de las estrellas. En
1720, el conocido astrónomo inglés Edmund Halley (1656-1742) razonó de
la siguiente manera: el brillo de una estrella disminuye proporcionalmente
al cuadrado de la distancia (porque la energía se distribuye sobre el área de

235

FÍSICA
una esfera). Si imaginamos las estrellas distribuidas en capas esféricas, como
una cebolla, el número de estrellas en cada capa aumentaría con el cuadrado de la distancia. El aumento en el número de estrellas compensaría la
disminución del brillo, y si el universo es infinito, entonces el resultado final
debería ser que el brillo del cielo fuera infinito, con o sin el Sol.
En 1744, el astrónomo suizo Jean-Phillipe de Cheseaux (1718-1751) sugirió la existencia de algo que atenuaba el brillo de las estrellas, para que
la noche no sea infinitamente brillante, ni siquiera tan clara como el día.
La mayor parte de nosotros simplemente da por sentado el hecho de
que el día es claro y la noche oscura. La oscuridad del cielo de noche ciertamente no planteó problemas para los antiguos egipcios o griegos, para los
que las estrellas eran luminarias empotradas a un domo o esfera cristalina.
Sin embargo, el modelo cosmológico propuesto por Nicolás Copérnico
requería que la distancia a las estrellas fuera mucho mayor que una unidad astronómica; de otra manera, como la Tierra se mueve en su órbita,
el paralaje de las estrellas, sería bastante grande y podría ser detectado a
simple vista. Además, el sistema copernicano ya no pide que las estrellas
estén pegadas a una esfera celeste rotativa, las estrellas podían estar a distancias diferentes del Sol. Estas realizaciones libertadoras proporcionaron
la delantera a Thomas Digges, y otros astrónomos copernicanos, al aceptar un modelo en el cual las estrellas serían esferas grandes y encendidas
como el Sol, desparramadas a todo lo largo del espacio infinito.
La paradoja de Olbers fue el resultado de la visión del siglo xix sobre un
universo, eterno e infinito antes del descubrimiento de las galaxias.
Por tanto, algunas de las suposiciones, o todas, que fueron hechas en la
estimación del brillo del firmamento deben ser incorrectas.
Analicemos estas premisas.
Primero, se consideró que el espacio es completamente transparente. Esto podría no ser cierto. Heinrich Olbers intentó resolver la paradoja
proponiendo que las estrellas distantes se hacen invisibles escondidas por
la materia interestelar que absorbe la luz de las estrellas. Pero esta justificación no surte efecto a largo plazo, porque la materia interestelar se
puede calentar con la luz de las estrellas hasta tener la misma temperatura
que estas, en ese momento, la materia interestelar emitiría tanta luz como
absorbe, y resplandecería brillantemente.
Una segunda premisa, se consideró que el universo es infinitamente
grande.

236

CAPÍTULO 6
Un tercer postulado, ligeramente más sutil que los previos, es que el universo es infinitamente viejo. Pero un universo infinitamente grande, eternamente viejo, y estático no se mantiene firme al escrutinio de la paradoja.
La solución definitiva para la paradoja de Olbers proviene del hecho que
el universo tiene una edad finita, si el universo lleva existiendo una cantidad
finita de tiempo, entonces solo la luz de una cantidad finita de estrellas ha
tenido tiempo de llegar a nosotros, por lo que la paradoja desaparece.
De modo alternativo, si el universo se está expandiendo, y las estrellas
más distantes se alejan de nosotros, entonces su luz sufre un corrimiento
hacia el rojo cosmológico, que de nuevo resuelve la paradoja, ya que dicho
corrimiento implica un aumento de la longitud de onda de los fotones,
lo que determina una reducción de la energía con la que viaja la luz y, por
tanto, una atenuación de la intensidad por debajo de la esperada según
la ley del inverso del cuadrado de la distancia en un universo estático. Esta
reducción de la contribución de las galaxias distantes también ayuda a
explicar la oscuridad del cielo nocturno.
El universo es homogéneo e isótropo
¿Qué quiere decir que el universo sea homogéneo e isótropo?
Decir que el universo es isótropo significa que no hay direcciones preferidas en el universo; este se ve igual, sin importar en qué dirección apuntemos nuestros telescopios. Un universo homogéneo significa que no hay
ningún lugar preferido en este; se ve lo mismo desde cualquier punto donde se establezca nuestro telescopio (figura 6.3).

Fig. 6.3 Homogéneo significa lo mismo, en promedio, en cualquier punto del espacio.
La pared extendida es homogénea, pero no es la misma en cualquier dirección.
Isótropo significa lo mismo en promedio, en cualquier dirección. Este patrón de rectas
radiales es isótropo visto desde el centro, pero no es homogéneo

237

FÍSICA
El universo es homogéneo e isótropo en escalas muy grandes. En este
contexto, la homogeneidad e isotropía del universo ha sido modelada a
escalas mayores de 307 Mpc, unos 1 000 millones años luz, esto implica que
en esta inmensa escala el universo aparezca igual para cualquier observador, y desde cualquier lugar de observación, el universo se vería igual sin
importar en qué dirección miremos.
El hecho de que, el universo sea homogéneo (idéntico en su conjunto)
e isótropo (mismas propiedades en todas las direcciones) en la gran escala
es llamado Principio Cosmológico. Que se puede enunciar: No existe un
centro o lugar privilegiado en el universo.
Asumir que nuestro universo observable es isótropo, implica que la distancia hasta su borde es la misma en todas direcciones (es finito), por esta razón, es un volumen esférico (una esfera) con centro en el observador, y cada
posición de observación en el universo tiene su propio universo observable.
La isotropía del universo observable no es inmediatamente obvia. De hecho,
en escalas pequeñas, el universo es manifiestamente no homogéneo y anisótropo. En la Tierra, nuestro entorno no es ni homogéneo ni isótropo. Si nos movemos a la escala del Sistema Solar, los planetas, por ejemplo, están confinados
a un plano delgado que contiene al Sol. Incluso en la escala de la Galaxia o del
Grupo Local de galaxias, el universo no es homogéneo ni isótropo.
También los cosmólogos actuales aceptan el llamado principio copernicano o principio de mediocridad esto implica comprender que no vivimos en
un lugar especial de nuestro universo; vivimos en un planeta promedio, alrededor de: una estrella promedio en una galaxia promedio de un universo
muy grande que posiblemente este contenido en un multiverso aún mucho
mayor, por tanto, el universo no tiene centro ni somos el centro y no hay
ningún punto en algún lugar especial desde el cual el universo se originó.
Corrimientos al rojo proporcionales a la distancia
Cuando observamos una galaxia en las longitudes de onda visibles, detectamos primordialmente la luz de las estrellas que la galaxia contiene.
Así, cuando tomamos el espectro de una galaxia en las longitudes de
onda visibles, típicamente este contiene líneas de absorción que son producidas en capas relativamente más frías de las atmósferas estelares en las
estrellas que contiene la galaxia; las galaxias con núcleos activos también
muestran líneas de emisión del gas caliente.

238

CAPÍTULO 6
Consideremos una línea particular producida por un átomo cuya longitud de onda, λem fue medida en un laboratorio aquí en la Tierra. Sin
embargo, la longitud de onda que medimos para la misma línea en el espectro observado de una galaxia distante, λob , no será la misma. Entonces
se dice que las líneas del espectro en la galaxia tienen un corrimiento z
dado por la fórmula:
z

 ob   em
(6.6)
 em

Que puede ser un corrimiento al rojo (redshift), o al azul (blueshift).
Cuando z < 0, la cantidad z se llama corrimiento al azul (blueshift), en vez
de un corrimiento al rojo (redshift). Sin embargo, la inmensa mayoría de
las galaxias tienen z > 0 (figura 6.4).

Fig. 6.4 Desplazamiento hacia el rojo de las líneas espectrales,
en galaxias lejanas, con respecto a las observadas
en los laboratorios terrestres

El hecho de que la longitud de onda de las líneas espectrales en la luz
de las galaxias esté generalmente corrida hacia el rojo, en vez de hacia el
azul, no fue conocido hasta el siglo veinte. En 1912, Vesto Merlin Slipher,
en el Lowell Observatory, midió el desplazamiento en la longitud de onda
de la luz de la galaxia M31, la galaxia de Andrómeda. Él se dio cuenta del
valor de z = − 0,001, queriendo decir que M31 es una de las pocas galaxias
que exhibe un blueshift en vez de un redshift.

239

FÍSICA
Slipher interpretó que el desplazamiento en la longitud de onda era debido al efecto Doppler.3 Desde esa vez |z| ≪ 1 para M31, el usó el clásico y
conocido, desplazamiento Doppler no relativista, z = v / c, para calcular que
M31 se movía hacia la Tierra con una velocidad v = − 0,001 c = − 300 kms -1.
En el año 1927, el cosmólogo y sacerdote católico belga Georges Lemaître (1894-1966) (figura 6.5) compiló una lista de 42 galaxias cuyo desplazamiento de la longitud de onda en sus líneas
espectrales había sido medido, en su mayor parte
por Vesto Slipher. De estas galaxias, 37 presentaban en sus espectros corrimientos al rojo, y solo
5 corrimientos al azul. Este es un exceso notable
de redshifts; el promedio de velocidad radial de
las 42 galaxias en la muestra fue v = + 600 km s-1.
Para Lemaître esta alta velocidad radial de las galaxias (mucho más alta que la velocidad media
Fig. 6.5
de las estrellas dentro de nuestra galaxia) podía
estar relacionada con una expansión del universo. Usando una distancia estimada de r = 0,95 Mpc para las galaxias en su
muestra, él llegó a la conclusión de que la expansión estaba descrita por el
parámetro K = v/r = 625 kms-1Mpc-1. Aunque Lemaître hizo una estimación
de la distancia a las galaxias en su muestra, encontrar una distancia precisa, en la época, para una galaxia individual le fue realmente muy difícil.
El corrimiento al rojo de la luz de galaxias lejanas, z = (λob - λem)/λem), se
relaciona con el factor de escala del universo a de la siguiente forma:
a(t) = 1/(1 + z(t)) (6.7)
Donde: t es el tiempo en el instante en que fue emitida la radiación
y se define que, al tiempo de observación actual, t0, a(t0) = 1. Entonces,
cuando se dice que la luz de una galaxia está corrida a z = 1, significa que
3

Es el cambio de la longitud de onda producido por el movimiento relativo de la fuente respecto a su observador. En el caso del espectro visible de la radiación electromagnética, si el objeto se aleja, su luz se desplaza a longitudes de onda más largas,
desplazándose hacia el rojo. Si el objeto se acerca, su luz presenta una longitud de
onda más corta, desplazándose hacia el azul. Esta desviación hacia el rojo o el azul
es muy leve incluso para velocidades elevadas, como las velocidades relativas entre
estrellas o entre galaxias, y el ojo humano no puede captarlo, solamente medirlo indirectamente utilizando instrumentos de precisión como espectrómetros. Si el objeto
emisor se moviera a fracciones significativas de la velocidad de la luz, sí sería apreciable de forma directa la variación de longitud de onda.

240

CAPÍTULO 6
las escalas eran un factor 2 menores en la época en que se emitió esa radiación. Para saber a qué tiempo cósmico corresponde eso, hay que definir
el modelo cosmológico: z → a → t.
En 1912, la astrónoma estadounidense Henrietta
Swan Leavitt (Lancaster, Massachusetts, 1868-1921)
(figura 6.6 a) que trabajó en el Observatorio del
Harvard College estudió las variables Cefeidas,
estrellas cuyo brillo varía con un período muy regular, descubrió y catalogó varias de ellas en las
Nubes de Magallanes, galaxias satélites de la Vía
Láctea, asimismo que las cefeidas de mayor luminosidad intrínseca tenían largos períodos, y que
a)
existía una relación de proporcionalidad directa
entre ambas magnitudes (figura 6.6 b), lo que permitió utilizar las cefeidas
como candelas estándar para medir distancias en el universo.
Relación Período-Luminosidad
Tipo I (Clásica)
Cefeidas

Luminosidad (cd)

104
103

Tipo II (W Virginis)
Cefeidas

102
RR Lyrae
1
0,5

1

3

10

30 50

100

Período (días)
5,37 días
m

b)
Fig. 6.6

241

FÍSICA
En el año 1923, el astrónomo norteamericano Edwin Powell
Hubble pudo observar estrellas variables cefeidas en algunas nebulosas percibidas en el firmamento, por aquella fecha, y usó la relación descubierta por Leavitt para determinar, por primera vez, la
distancia a estos objetos, en particular a la hoy conocida galaxia de
Andrómeda, M31.
En los años siguientes se publicaron las distancias, demostrando que
estas “nebulosas” eran, en realidad, otras galaxias exteriores a la Vía
Láctea.
Hubble al medir las distancias hasta estos conglomerados de estrellas,
polvo y gas encontró una correlación directa entre el grado de desplazamiento al rojo (z) y su distancia a nosotros D, resultado que se conoce hoy
día como ley de Hubble.
c ∙ z = H0D (6.8)
Donde: c es la velocidad de la luz en el vacío y H0 es un parámetro llamado en su época “constante de Hubble”, expresado habitualmente en
km s–1 Mpc–1
Interpretando en aquel momento el corrimiento al rojo observado
como efecto Doppler, Hubble encontró una relación lineal entre las velocidades radiales de las galaxias y las distancias hasta ellas, es decir a medida
que estas se encontraban más lejos de nosotros se alejaban también a
mayor velocidad.
V = H0D (6.9)
V es la velocidad de recesión de la galaxia, D es la distancia y H0 la constante de Hubble (figura 6.7).
Se han obtenido mediciones más recientes de este parámetro utilizando la tecnología actual, gracias al telescopio espacial Hubble (HST) y las
sondas WMAP y Planck.
Una versión más actual de gráfico de Hubble, mostrando el valor de
cz contra la distancia se pudo lograr, observando con HST (figura 6.8) las
distancias a las galaxias fueron determinadas usando estrellas variables
cefeidas como candelas estándar.

242

CAPÍTULO 6
Diagrama original de Hubble

Velocidad
(km/s)
1000

500

0
0

106

2 106

Distancia
(pc)

Fig. 6.7 Relación entre la distancia de las galaxias y la velocidad de recesión
descubierta por Hubble, en 1929. “la velocidad” fue sobrentendida como “la
velocidad aparente”. Los puntos negros representan 24 galaxias individuales (los
redshifts para todas menos cuatro galaxias que estaban resueltos por Slipher). La
constante de Hubble obtenida de esta gráfica fue demasiado grande, ya que Hubble
subestimó las distancias a las galaxias obteniendo para H0 ≈ 500 kms−1 Mpc−1
Diagrama actual de Hubble
2000

83

67

1500
Velocidad (km/s)

75

1000
500
0
-500

0

20
10
Distancia (Mpc)

30

Fig. 6.8 Versión más actual de gráfico de Hubble, mostrando cz contra la
distancia que se pudo lograr, observando con el Telescopìo Espacial Hubble

243

FÍSICA
Noten que las galaxias con velocidad radiales v = cz ≈ 1 000 km s−1, que
Hubble utilizó considerando que se encontraban a la distancia r de ≈ 2 Mpc,
ahora están más exactamente acomodadas a la distancia r ≈ 15 Mpc.
Combinando los resultados de varias técnicas de investigación se ha
obtenido:
H0 = 68 ± 2 kms–1 Mpc–1
El valor actual de H0 más aceptado por los astrofísicos es: 67,36 ± 0,54 kms-1
Mpc-1 (Sonda Planck 2018).
El tiempo calculado como tH = 1/H0 se llama tiempo de Hubble. Para
H0 = 67,36 ± 0,54 kms-1 Mpc-1, el tiempo de Hubble es 13,797 ± 0,023 Gaños. Si las
velocidades relativas de las galaxias fueron constantes en el pasado, entonces
un tiempo de Hubble atrás, todas las galaxias del universo debieron encontrarse juntas en un volumen limitado. Así pues, la observación de los redshifts
galácticos llevó de forma natural a la idea de un comienzo para el universo.
El tiempo de Hubble < 13,797 Gaños es comparable con las edades calculadas para las estrellas más viejas conocidas en el universo. Este hecho
es reconfortante.
La radiación del Fondo Cósmico de Microondas (CMB)
Ya, a finales de los años 30 del siglo pasado, los astrónomos se encontraban en disposición de entender que el universo se encontraba en
expansión. En la segunda mitad de los 40, el físico ruso-norteamericano
George Gamow y sus colaboradores Ralph Alpher y Robert Herman, habían elaborado un modelo cosmológico en el que se resumían los trabajos de Friedman y Hubble; en este modelo llamado modelo de universo
evolutivo, ellos proponen la teoría del universo caliente, según la cual el
universo habría comenzado en lo que el sacerdote católico y astrónomo
belga George Lemaître llamó “átomo primitivo”, un verdadero fermento
de energía a enorme densidad y temperatura que estalló, y en el instante
comenzó consecuentemente a expandirse.
En esta teoría se examinaban las reacciones nucleares que transcurrían
en la sustancia muy densa en el mismo inicio de la expansión del universo,
suponiéndose que la temperatura de Ia sustancia era muy elevada (de aquí
el nombre de la teoría) y esta se reducía durante la expansión.
Con este modelo de origen caliente Gamow buscaba dar explicación a
las cantidades observables de los diferentes elementos químicos, en el universo los trabajos permitieron además predecir que todo el cosmos estaría

244

CAPÍTULO 6
inundado de una radiación remanente, que se correspondería con la curva
de emisión de un cuerpo negro a la temperatura de 5 K, algo así como el
eco del momento en que surgió el universo, el último vestigio del fermento del cual nació. La predicción no causó gran impacto en su época, pues
para la comunidad científica esta parecía imposible de verificar.
No obstante, este hecho terminó por conocerse como el Big Bang, la
“gran explosión” que dio origen al Universo y su expansión.
El nombre Big Bang fue utilizado por primera vez por el astrofísico
inglés Fred Hoyle (1915-2001), de forma peyorativa, en una entrevista de
radio para la BBC, ya que Hoyle y sus colaboradores Hernan Bondi y Thomas Gold defendían un modelo alternativo de universo llamado modelo
del Estado Estacionario. En este escenario, el universo no tuvo un comienzo, para estos astrofísicos el universo era eterno, siempre había existido y
siempre existiría, es decir, no tendría principio ni fin, aunque se explicaba
la expansión con la producción continua de materia.
Esta teoría no fue confirmada por las observaciones, en particular, por
la observación del fondo cósmico de microondas.
Curiosamente todavía existen varios defensores del estado estacionario
guiados por uno de sus partidarios; Jayant Vishnu Narlikar, quien trata de
explicar los datos cosmológicos modernos usando su teoría en el siglo xxi.
La pregunta ¿El Big Bang ocurrió? fue finalmente contestada después
del descubrimiento de la radiación del fondo cósmico de microondas (CMB)
por Arno Alan Penzias y Robert Woodrow Wilson, en 1965 (figura 6.9).

Fig. 6.9 Arno A. Penzias y Robert W. Wilson, junto a la antena de cono invertido
de 20 pies de los Laboratorios Bell, en Holmdel, New Jersey

245

FÍSICA
El CMB es la radiación emitida unos 380 000 años después del Big Bang
y es la más vieja entidad observable en el universo actual. Además, este
descubrimiento también contestó otra pregunta:
¿Qué apariencia tenía el universo inmediatamente después del Big
Bang?
La hipótesis más popular afirmaba que el universo fue extremadamente caliente en su nacimiento y se enfrió con la expansión.
El mero hecho de la existencia del CMB probó que el Universo nació
caliente o aumentó su temperatura durante una fracción de segundo.
Si al principio de su existencia el universo estaba muy caliente la temperatura descendió durante la expansión. Los protones y las partículas alfa,
que son núcleos de hidrógeno y helio, se produjeron más bien rápidamente (ver epígrafe 6.3).
El origen de la radiación del fondo cósmico de microondas es relativamente sencillo. Como el universo tiene una edad finita (recuérdese: ≈ 13,8 millones de años) y, a medida que observamos objetos
cada vez más distantes, más atrás en el tiempo se remonta nuestra
mirada (ya que, desde esos objetos, la luz tarda más en llegar hasta
nosotros), podríamos imaginar que, si observáramos lo bastante lejos,
contemplaríamos el mismísimo origen del cosmos.
Pero en principio, entre nosotros y aquel tiempo primero se levanta un
muro. No es un muro material, como las paredes de la habitación en la que
dormimos, pero en gran medida provoca la misma consecuencia.
No podemos ver lo que hay al otro lado de las paredes de nuestro cuarto porque son opacas. No dejan pasar la luz. Pues bien, cuando al contemplar el cielo retrocedemos cada vez más en el tiempo, estamos mirando un
universo cada vez más joven y también más caliente, puesto que empezó
a enfriarse a partir del Big Bang.
Si echamos la vista lo suficientemente atrás, hasta un momento en que
el universo tenía cerca de 380 000 años, su temperatura rondaba los 3 000 K
sobre el cero absoluto. A esta temperatura, la radiación ambiental estaba
cargada de tanta energía que podía separar los átomos dominantes del
universo −los de hidrógeno− en sus distintos constituyentes: protones y
electrones. Antes de ese momento, la materia neutra no existía. La materia normal en el universo, formada por núcleos atómicos y electrones,

246

CAPÍTULO 6
estaba compuesta de un “plasma” denso de partículas cargadas que
interactuaban con la radiación.
Sin embargo, un plasma puede ser opaco a la radiación. Las partículas
cargadas en el interior del plasma absorben fotones y los liberan de modo
que la radiación no puede atravesar fácilmente un material de este tipo
sin interrupción. En consecuencia, si intentamos mirar atrás en el tiempo,
no podremos ver más allá de la época en que la materia del universo estuvo, por última vez, compuesta, sobre todo, de aquella clase de plasma.
Vuelve a ser como con las paredes de nuestra habitación. Podemos verla solo porque reflejan luz y el aire que hay entre las paredes es transparente, de modo que se puede ver todo lo comprendido hasta la superficie
de la pared que emitió la luz.
Lo mismo sucede con el universo. Cuando se mira hacia fuera, se puede
reseguir todo el camino de vuelta hasta esa «superficie de la última dispersión», que es el punto en el que el universo se volvió neutro, en el que
se combinaron protones con electrones para formar átomos de hidrógeno
neutro. Tras este punto, el universo se hizo en buena medida transparente
a la radiación, y ahora podemos ver la radiación que los electrones absorbieron y emitieron de nuevo cuando la materia del universo se volvió
neutra.
Por lo tanto, la concepción del universo que parte del Big Bang predice
que deberíamos recibir radiación que puede provenir de todas direcciones, desde aquella «superficie de la última dispersión».
Como desde entonces el universo se ha expandido, la radiación se ha
enfriado en el camino y ahora está aproximadamente a 2,7 K sobre el cero
absoluto. Y esta es, precisamente, la señal que los dos científicos descubrieron en Nueva Jersey, en 1965, y cuyo hallazgo les valió, años después,
el premio Nobel.
El descubrimiento del fondo cósmico de microondas fue inmediatamente saludado como la más contundente demostración de que el Universo
surgió de un gran estallido inicial. El modelo de Hoyle y sus colaboradores
sufría un golpe mortal en su credibilidad; Gamow, definitivamente, parecía ganar la partida.
Como curiosidad añadiremos que quizá todos hemos visto la radiación
de fondo de microondas sin darnos cuenta, con algo tan común como un

247

FÍSICA
televisor analógico, es decir, los antiguos receptores de televisión. Cuando se sintonizaba un canal en el que no había emisión de ninguna señal;
parte (un 1,0 %) de la “nieve” que podía verse en la pantalla era dicha
radiación del fondo cósmico de microondas captada por la antena del
aparato.
El estudio del CMB en cosmología es importante porque, siendo esta una
señal proveniente del universo en sus épocas más antiguas, trae información sobre los procesos y la física del universo temprano. Cualquier tipo de
interacción que sufren los fotones del CMB desde su emisión hasta el momento de ser detectados, debe dejar una huella en la distribución espectral
y (o) espacial de la temperatura.
Así, por ejemplo, si en su camino al observador el CMB pasa por una
inmensa nube de electrones calientes, debido al efecto Compton inverso,4 el espectro de CMB debe sufrir desviaciones de su forma Planckiana.
La información en el CMB tiene una incidencia directa en los problemas
más importantes de la cosmología: el problema de la materia oscura del
universo, la naturaleza y el espectro de las fluctuaciones primordiales, así
como, la posible existencia de la constante cosmológica, la existencia de
ondas gravitacionales, y la identificación de anisotropías intrínsecas en la
métrica del universo.
El 18 de noviembre de 1989 la NASA lanzó el Explorador del Fondo
Cósmico de Microondas COBE (por su sigla en inglés: Cosmic Background
Explorer), fue el primer satélite construido especialmente para estudios
de cosmología. Su objetivo fue investigar, en detalle, la radiación del
fondo cósmico de microondas (CMB) y obtener medidas de esta, que ayudaran a ampliar nuestra comprensión del cosmos. Los resultados fueron
sorprendentes puesto que demostraron un ajuste perfecto entre el CMB
y la curva teórica de un cuerpo negro a una temperatura de 2,72 K (figura 6.10).
4

El efecto Compton consiste en el aumento de la longitud de onda de un fotón cuando
choca con un electrón libre y pierde parte de su energía. La frecuencia o la longitud
de onda de la radiación dispersada depende únicamente del ángulo de dispersión.
También puede ocurrir un Efecto Compton inverso; es decir, que los fotones disminuyan su longitud de onda al chocar con electrones. Pero para que esto suceda es
necesario que los electrones viajen a velocidades cercanas a la velocidad de la luz, y
que los fotones tengan altas energías.
La principal diferencia entre los dos fenómenos es que durante el Efecto Compton
“convencional” los fotones entregan energía a los electrones, y durante el inverso
sucede lo contrario.

248

CAPÍTULO 6
Frecuencia (GHz)
400

300

150

100

75

60

Intensidad (mJv/sr)

Ajuste cuerpo negro a 2,728 K
Medidas de COBE
300

200

100

1

2
4
3
Longitud de onda (mm)

5

Fig. 6.10 Datos del COBE mostraron una coincidencia perfecta entre la curva
de cuerpo negro predicha por la Teoría del Big Bang y la observada en el fondo
cósmico de microondas

Anisotropías intrínsecas del CMB
El Radiómetro Diferencial de Microondas (DMR) de COBE fue un instrumento que mapeó variaciones (o anisotropías) en la radiación del fondo
de microondas. Esta operación pudo crear mapas completos del CMB substrayendo emisiones galácticas (figura 6.11).

Fig. 6.11 El famoso mapa de las anisotropías del CMB formado con los datos
tomados por el satélite COBE

249

FÍSICA
Las fluctuaciones del fondo cósmico de microondas son extremadamente débiles, representan solo una parte entre 100 000 comparada con
la temperatura media de 2,7 K del campo de radiación. Las fluctuaciones
en la radiación de fondo de microondas como residuo del Big Bang resultaron ser la impronta del contraste de la densidad en el universo primigenio. Desde entonces las ondas de densidad han producido la formación
de estructuras tal como se observan en el universo hoy día: cúmulos de
galaxias y vastas regiones desprovistas de galaxias.
En junio de 2001, la NASA lanzó una segunda misión espacial para el
estudio del CMB, el Wilkinson Microwave Anisotropy Probe (WMAP), para
realizar medidas mucho más precisas de las anisotropías a gran escala en
todo el cielo. Los primeros resultados de esta misión, revelados en 2003, fueron medidas detalladas del CMB acotando varios parámetros cosmológicos.
Los resultados fueron ampliamente consistentes con los esperados.
Aunque el WMAP proporcionó medidas muy exactas de las fluctuaciones
a grandes escalas angulares en el CMB (estructuras que son tan grandes
en el cielo como la Luna) una tercera misión espacial, la sonda Planck, fue
lanzada en 2009. Sus detectores han producido las medidas más precisas
a pequeñas escalas angulares hasta la fecha del CMB confirmando y precisando los datos de WMAP (figura 6.12).

Fig. 6.12 Anisotropías del CMB formado con los datos tomados por los satélites:
a) COBE; b) WMAP; c) Planck

Si representamos las fluctuaciones de temperatura del CMB en función
de su tamaño angular —el área que ocupan en el cielo— obtenemos una
curva sinuosa llamada espectro de potencias del CMB.

250

CAPÍTULO 6
Las anisotropías que se observan en la distribución celeste de la radiación de microondas contienen una enorme cantidad de información sobre
la física del universo de los primeros tiempos. Muestran cómo, en el período comprendido entre las fases más calientes del principio y el momento
en que, tras un suficiente enfriamiento de la materia, se liberó la radiación
electromagnética, y la atracción gravitatoria produjo una formación de
grumos con pequeñas fluctuaciones de densidad.
Analizando las diferentes altura y disposición de los picos y valles
de este espectro podemos averiguar la edad del universo, su ritmo de
expansión y la cantidad de materia oscura, materia normal o bariónica
y energía oscura que lo forman (figura 6.13). Estos picos fueron producidos por las oscilaciones gravito-acústicas del plasma primordial de
bariones-radiación causalmente conectado (las que midió inicialmente
el COBE).

Fluctuaciones de temperatura (μK2)

Momento múltiplo, L
6000

2

10

50

500

1000

1500

2000

2500

ESA & Planck Colab.
Λ CDM
Datos de Planck

5000
4000
3000
2000
1000
0

90°

18°



0,2°

0,1°

0,07°

Escala angular
Fig. 6.13 El espectro de potencias del CMB según Planck 2018

La escala del primer pico está asociada al tamaño físico del horizonte del universo observable, mientras el tamaño angular que subtiende
este al día de hoy depende principalmente de la geometría del espacio.
El valor medido implica que la geometría del universo es plana con alta
probabilidad. La diferencia en amplitud entre el primer y segundo picos
depende principalmente de la densidad de los bariones. En general,
toda la forma del espectro de potencias angular depende, además, de

251

FÍSICA
la amplitud, de la geometría y de la mayoría de los parámetros cosmológicos (figura 6.14).

Fig. 6.14 El valor de los parámetros cosmológicos cambia la forma del espectro
de potencias del CMB

En conclusión, la CMB contiene gran parte del “código genético” del
Universo y sus estructuras.
Algunos parámetros cosmológicos según la sonda Planck 2018
Parámetro de Hubble (H0)

67,36 ± 0,54 kms-1 Mpc-1

Parámetro de densidad de la materia (Ωm)

0,3153 ± 0,0073

Parámetro de densidad de la energía oscura (ΩΛ)

0,6847 ± 0,0073

Edad del universo (Gaño)

13,797± 0,023

Parámetro de curvatura (Ωk)

-0,0096 ± 0,0061

252

CAPÍTULO 6
El auténtico tamaño físico de los puntos calientes y fríos, registrados
en la imagen del CMB, está determinado por una física simple relacionada
con la superficie de la última dispersión, mientras que el tamaño medido
de los puntos calientes y puntos fríos en la imagen se conoce que deriva de
la geometría real del universo.
Una sencilla analogía quizá ayude a explicar mejor este resultado. Una
geometría cerrada se parece a la superficie de una esfera, mientras que una
geometría abierta se parece a la superficie de una silla de montar (ver epígrafe 6.3). Si dibujamos un triángulo sobre estas superficies, observaremos el
efecto que se describe: las líneas rectas convergen en la esfera, divergen en
la silla y, por supuesto, se mantienen rectas y paralelas en un universo plano.
Por lo tanto, ahora la pregunta clave sería: ¿De qué tamaño son los
puntos calientes y los puntos fríos que se observan en la imagen del CMB
real? Para dar respuesta, se prepararon en ordenadores varias simulaciones de imágenes de los puntos calientes y de los puntos fríos según se
verían en universos cerrados, planos y abiertos, y se las comparó con otra
imagen del verdadero cielo de microondas.
Si examinamos la imagen inferior izquierda (figura 6.15 a), la que simula
un universo cerrado, veremos que, en promedio, los puntos calientes son mayores en dimensión angular que en el universo real. A la derecha (figura 6.15
c), el tamaño medio de los puntos es menor en dimensión angular que en el
universo real. Pero, la imagen central (figura 6.15 b), que corresponde al universo plano, es lo que observamos en nuestro universo real y es «perfecta».
a

b

c

Fig. 6.15 Correspondencia entre el tamaño angular de las anisotropías del CMB
y la geometría del universo

Es el universo matemáticamente bello que los teóricos esperaban hallar, y que pudo confirmarse con esta observación. El tamaño de las manchas resultó ser cercano a un grado.

253

FÍSICA
De hecho, la concordancia entre las predicciones de un universo plano y la imagen obtenida del CMB casi resulta violenta. Tras examinar los
puntos y buscar los de mayor tamaño que tuvieron tiempo suficiente para
haberse colapsado significativamente hacia el interior en la época reflejada en la superficie de la última dispersión, la línea continua del espectro
de potencias ofrece la predicción de un universo plano, en el que la mayor
protuberancia ¡ocurre cerca de 1,0 grado! lo que significa que vivimos en
un universo con geometría euclidiana.
La materia oscura y la energía oscura
La materia oscura
En las diversas observaciones realizadas durante las décadas de los 70 y 80,
del pasado siglo sobre todo las de las curvas de rotación de las galaxias (figura 6.16 y 6.17) se mostró que no había suficiente materia visible en el universo
para explicar la intensidad aparente de las fuerzas gravitacionales que se dan
en y entre las galaxias. Esto condujo a la idea de que poco más del 25 % de la
materia en el universo no era materia común o bariónica5 sino materia oscura
que solo se percibe por sus efectos gravitacionales. La materia común solo
abarcaría cerca del 5 % del universo. Además, la asunción de que el universo
estuviera compuesto en su mayor parte por materia común llevó a predicciones que eran fuertemente inconsistentes con las observaciones.
La velocidad
de estas
estrellas es
muy grande

R

V = 300 km/s

V = 300 km/s

V2 = GM/R

Para ser producida por
la masa encerrada en la
órbita indicada

Fig. 6.16 Órbita de las estrellas en la periferia de las galaxias

En particular, el universo es mucho menos “inhomogéneo” y contiene
mucho menos deuterio de lo que se puede considerar sin la presencia de
materia oscura.
5

La materia bariónica o materia normal sería aquella formada por las partículas del
modelo estándar de la física de partículas (ver capítulo 5).

254

CAPÍTULO 6
Mientras que la existencia de la materia oscura fue inicialmente polémica, ahora es una parte aceptada de la cosmología estándar, debido a las
observaciones de las anisotropías en el CMB (radiación cósmica de fondo),
la dispersión de velocidades de los cúmulos de galaxias y; en las estructuras
a gran escala, estudios de las lentes gravitacionales y medidas, por medio
de rayos X, de los cúmulos de galaxias.

v (km/s)

150

100

50

0

0

20

10

30

R (kpc)
Fig. 6.17 Las estrellas en la periferia de las galaxias no cumplen las leyes de
Kepler, que se explica por la interacción con la materia oscura

La materia oscura se ha detectado únicamente por medio de su huella
gravitacional; no se ha observado en el laboratorio ninguna partícula que
se le pueda corresponder, sin embargo, hay muchos candidatos a materia
oscura en la física de partículas -como, por ejemplo, las partículas pesadas
y neutras de interacción débil (WIMP)- y se están llevando a cabo diversos
proyectos para detectarlas.
La energía oscura
En la década de 1990, medidas detalladas de toda la densidad de materia-energía del universo revelaron que esta sumaba en torno al 30 % de
la densidad crítica. Puesto que el universo es plano, como indican las medidas del fondo cósmico de microondas, quedaba un 70 % de densidad de

255

FÍSICA
materia-energía sin contar. Este misterio aparece ahora conectado con otro:
las mediciones independientes de distancia utilizando las supernovas de tipo
Ia revelaron que la expansión del universo experimenta una sutil aceleración
de tipo no lineal, en vez de seguir estrictamente la Ley de Hubble (figura 6.18).
700 000

1995

600 000
500 000

cz (km/sec)

Velocidad (km/sec)

30000

20000

10000

400 000
300 000
200 000

2011

100 000
0

Modelo vacío
Modelo plano de energía oscura
Modelo cerrado de energía oscura
Lorem ipsum
Lorem ipsum
Lorem ipsum
Lorem ipsum
Lorem ipsum
Lorem ipsum

0
0

100

200
300
400
Distancia ( μ pc)

500

0 1 2 3 4 5 6 7 8 9 10 11
Distancia (Gpc)

Fig. 6.18 La relación entre la velocidad de recesión de las galaxias y la distancia
no es lineal

Para explicar esta aceleración la relatividad general necesita que gran
parte del universo consista en un componente energético con gran presión
negativa. Se cree que esta energía oscura constituye ese casi 70 % restante.
Su naturaleza sigue siendo uno de los grandes misterios del Big Bang.
Los candidatos posibles incluyen una constante cosmológica escalar
como la propuesta por Albert Einstein una energía de densidad constante
que llena el espacio en forma homogénea, se piensa que la constante cosmológica se origina en la energía del vacío.
Se ha propuesto también la quintaesencia y la energía fantasma, campos
dinámicos cuya densidad de energía puede variar en el tiempo y el espacio.
Actualmente se están realizando observaciones que podrían ayudar a aclarar este punto y cuál de ellos se corresponde con la realidad que observamos.6
Hoy es un hecho observacional que la materia que conocemos y que
resulta visible en el universo es solo un pequeño por ciento del total. El
contenido de materia-energía en el universo se distribuye según las últimas investigaciones de los astrofísicos (sonda Planck 2018) en:
6

En el año 2024 los primeros resultados del proyecto DESI (Dark Energy Spectroscopic
Instrument), considerado el proyecto cosmológico más importante en el ámbito internacional, abre una hipótesis la cual considera que la energía oscura evoluciona con el
tiempo, pero se necesita más tiempo de observación para confirmarlo.

256

CAPÍTULO 6
Un 4,9 % de materia bariónica o materia normal (compuesta por las
partículas del modelo estándar de la física de partículas) y un 26,8 % de
materia oscura de naturaleza desconocida, solo detectada hasta ahora por
sus efectos gravitacionales. Las mejores medidas disponibles (provenientes
de los satélites WMAP y Planck) muestran que la forma más común de materia en el universo es la materia oscura fría.
Basándose en medidas de distancia a galaxias lejanas utilizando las supernovas tipo Ia como candelas estándar, es decir como bujías patrón para
estudiar la expansión del universo se ha podido determinar que la expansión actual del universo es acelerada.
El universo observable parece estar dominado por una forma desconocida de energía, denominada por los astrofísicos energía oscura.
Aproximadamente el 68,3 % de la densidad de materia-energía del universo actual se encuentra en esa forma de esa energía desconocida (figura
6.19). Una de las propiedades características de este componente del universo es el hecho de que provoca que este se expanda cada vez más rápido.
Materia normal
4.9%
26.8%
Materia
oscura
68.3%
Energía
oscura

Fig. 6.19 El pastel del universo según Planck

La energía oscura podría tomar la forma de una constante cosmológica
como la colocada en las ecuaciones del campo de la relatividad general
de Einstein (ver epígrafe 6.3), pero los detalles de la ecuación estado y su
relación con el modelo estándar de la física de partículas continúa siendo
investigada tanto en el ámbito de la física teórica como por medio de las
observaciones.

257

FÍSICA

Comprueba tus conocimientos
4. ¿Por qué es oscuro el cielo nocturno?
5. ¿Qué significa que nuestro universo sea homogéneo e isótropo?
6. ¿Existe un centro del Universo? ¿Por qué?
7. ¿Qué pruebas apoyan la homogeneidad e isotropía del Universo?
8. ¿Qué es el desplazamiento al rojo?
9. ¿Qué plantea la ley de Hubble?
10. ¿Cuáles son las evidencias de que vivimos en un universo en
expansión?

11. ¿Se alejan las galaxias o es el espacio el que se expande?
12. Si el Universo está en expansión, ¿Cambian los átomos de tamaño?
¿Por qué no se expande el Sistema Solar?

13. ¿Cuál es la edad actual del Universo?
14. ¿En qué consiste el modelo cosmológico del estado estacionario?
15. ¿En qué consistió el descubrimiento de los físicos Arno Pensias y Robert Wilson?

16. ¿En qué época tuvo lugar la emisión de la radiación de fondo en
microondas, cuál fue su temperatura en ese instante y porqué actualmente es más fría?

17. ¿Qué parámetro observable es directamente proporcional a la edad
del Universo?

18. ¿Qué gobierna la geometría del Universo?
19. ¿Qué entendemos por un Universo plano?
20. ¿Qué evidencias tenemos de que el Universo es plano?
21. ¿Se puede establecer el pasado, el futuro y la geometría del universo
midiendo la densidad de la materia luminosa?

22. ¿Qué es la materia oscura?
23. ¿Qué es la energía oscura?
24. ¿Qué es la constante cosmológica?

258

CAPÍTULO 6

6.3 Teorías básicas
Relatividad general
En 1915 llega el suceso más trascendental del siglo xx en el campo de
la física y las matemáticas: Albert Einstein publica su Teoría General de la
Relatividad (TGR) en realidad una nueva teoría de la gravitación, el gran
físico utilizó una geometría no clásica para describir el universo asociando
la fuerza de gravedad con la curvatura del espacio-tiempo, es decir tomando a la geometría como causa de la gravitación.
En relatividad general la fuerza de gravedad es debida a la curvatura del espacio-tiempo, de acuerdo con el físico J. A. Wheeler “el espacio-tiempo le dice a la materia como moverse, pero la materia le dice al
espacio-tiempo como curvarse”.
En las ecuaciones de Einstein la curvatura del espacio tiempo está descrita por el Tensor de curvatura, además, la energía y el momentum del
universo quedan descritas por el Tensor de energía-impulso.
Sin embargo, Einstein (figura 6.20) era seguidor de algunas ideas cosmológicas que prevalecían todavía en aquella época como la de un universo
estático, y se tropezó con el hecho de que sus cálculos no arrojaban una
solución que lo permitiese. Por esa causa, en 1917, Einstein forzó sus ecuaciones introduciendo como hipótesis adicional una misteriosa fuerza de repulsión cósmica que sería necesaria en un universo estático como el que él
mismo concebía, a fin de contrarrestar la atracción debida a la gravitación.
Rμγ-

1
π G Tμγ
R gμγ + Λ gμγ = 8
2
C4

A

B

Fig. 6.20 Ecuaciones de Einstein para el campo gravitatorio

259

FÍSICA
La acción de esta fuerza sería tan universal, como la de la fuerza de
gravitación universal, no dependía de la masa de los cuerpos, sino de la
distancia que los separa, y quedaría representada en las ecuaciones de la
relatividad general por la constante cosmológica Ʌ. Es lógico denominar
a esta fuerza acción gravitacional del vacío, aunque, generalmente, por
gravitación se entiende la atracción y no la repulsión, de acuerdo con la
idea de Einstein su valor sería extraordinariamente pequeño: Ʌ = 10-56 cm-2,
por lo que estas fuerzas de repulsión cósmicas solo podrían ser descubiertas en experimentos de mucha sensibilidad. El insignificante valor de Ʌ
hacía que la tarea de su descubrimiento experimental en la época fuera
absolutamente irreal, de modo que este efecto solo podría ser detectado
en el futuro investigando el movimiento de las galaxias más alejadas que
fuera posible observar.
Al demostrarse que el universo estaba en expansión Einstein afirmó
que esa constante había sido su mayor error, y renegó de ella pero los últimos descubrimientos cosmológicos demuestran que este “error” en realidad fue su mayor certeza.
Dos años más tarde, Willem de Sitter (1872-1934) publica una serie de artículos en los que se discuten las posibles consecuencias observacionales de la teoría de Einstein como, por ejemplo, el cálculo
preciso de la desviación gravitacional de la luz debido a un cuerpo
celeste. No pasó mucho tiempo para que la TGR se aplicara en el
estudio de la evolución del Universo como un todo, nace así la cosmología moderna.
Modelos de Friedman
En 1922, el matemático ruso Alexander Friedman (1888-1925) da solución a las ecuaciones de Einstein y demuestra que el tamaño del universo
puede cambiar con el tiempo. Con la muerte de Friedman, sus resultados
fueron poco publicitados hasta que, de forma independiente, el sacerdote
católico y astrónomo belga George Lemaître descubre, en 1927, la misma
solución que Friedman, es decir, la de un universo dinámico que comenzó
su expansión en un tiempo finito. En esos años Lemaître desarrolló lo que
él denominó Teoría del átomo primigenio, en la que afirmaba que el universo había tenido un comienzo en un estado en el que toda la materia
estaba altamente concentrada, en lo que él mismo llamó el átomo primitivo, expandiéndose luego (figura 6.21).

260

CAPÍTULO 6

Fig. 6.21

Es Lemaître el primero en concebir la tremendamente atrevida idea
de un comienzo para el Universo. Pero Friedman a partir de sus cálculos
propone tres alternativas de su evolución en dependencia del valor de la
densidad total de materia-energía del cosmos:
1. Si la densidad total de materia-energía existente en el universo es menor que un cierto valor denominado densidad crítica, la expansión continuará eternamente.
2. Si la densidad total de materia-energía existente en el universo es igual
a la densidad crítica, también la expansión continuará por siempre,
aunque a un ritmo diferente (este parece ser el caso de nuestro universo real).
3. Si la densidad total de materia-energía existente en el universo supera
el valor crítico de densidad, la gravedad será lo suficientemente fuerte
como para curvar el espacio-tiempo hasta el punto en que la expansión
se detenga y el universo comience a contraerse, regresando hasta su
estado inicial.
Es decir, la densidad total de materia con su energía asociada en el
universo determina su geometría que puede ser abierta, plana, o cerrada.
Si la densidad total de materia-energía en el universo es exactamente
igual a la densidad crítica, entonces este tendría una geometría completamente plana con curvatura nula (euclidiana). Si esta densidad de materia-energía fuera más pequeña que la densidad crítica, entonces el universo
tendría una geometría abierta con una curvatura negativa, semejante a la
de una silla de montar. Sin embargo, si la densidad de materia y energía

261

FÍSICA
fuese mayor que la densidad crítica, el universo tendría una geometría con
curvatura positiva, cerrada, similar a la de una esfera (figura 6.22).

Universo bidimensional
con curvatura negativa.
Universo abierto
si pt < pc

Universo bidimensional
sin curvatura.
Universo plano
si pt = pc

Universo bidimensional
con curvatura positiva.
Universo cerrado
si pt > pc

Fig. 6.22 Ejemplo de tres geometrías posibles para un universo, según Friedman;
en el caso plano la suma de los ángulos interiores de un triángulo será siempre
180°, en el caso abierto esa suma sería siempre menor de 180°, y en el caso
cerrado sería siempre mayor de 180°

Una expresión para la densidad crítica de materia-energía del universo
se puede encontrar asumiendo que Λ es cero (como es para todos los Universos de Friedmann básicos) y estableciendo la curvatura K igual a cero:
2

ρc = 3H0 / 8πG (6.10)
Repare en que el valor de ρc depende del valor del parámetro de
Hubble.
El parámetro omega
La densidad que hoy estimamos tiene nuestro universo es de aproximadamente un átomo de hidrógeno por cada metro cúbico.7 Este valor nos
puede parecer ínfimo, sobre todo, por ejemplo, comparado con aquellas
regiones de densidades inmensas en el núcleo de los astros. Este valor es
un promedio sobre todo el universo observable.
Y de la misma manera que sabemos que abundan las regiones de densidades extremas, también existen inmensas zonas vacías de toda forma de
materia, como en efecto nos lo indican los actuales censos de galaxias. Esta
densidad de energía, que llamamos “crítica”, hace las veces de línea divisoria
entre universos de muy diferentes características y evoluciones. Es por ello
que, los cosmólogos han decidido definir un nuevo e importante parámetro
7

El valor determinado para ρc en el momento actual es igual a: 1,88 · 10 −26 kg/m3.

262

CAPÍTULO 6
cosmológico, al que han bautizado con la última letra del alfabeto griego:
omega, escrita en mayúsculas (Ω)8, y que no es otra cosa que el cociente
entre la densidad de materia-energía real del universo y la densidad crítica.
ΩT = ρt/ρc (6.11)

Escala del tamaño para la evolución del universo
(el valor 1 se corresponde con la edad actual)

Es por ello que un valor de omega mayor (menor) que 1 indica que la
densidad de materia-energía real del universo es mayor (menor) que la
crítica y, en consecuencia, que la geometría del espacio físico tridimensional será esférica (hiperbólica) y de curvatura positiva (negativa); el valor
crítico omega = 1 indicará en cambio un universo Euclídeo (“plano” o de
curvatura nula) de densidad idénticamente igual a la crítica (figura 6.23).
5
abierto
ΩM

4
plano

Ω M = 1,0

Ω Λ = 0,7

Ω M = 0,3

3

plano

ΩΛ

Ω Λ = 0,7

2

cerrado

Ω M = 2,0
Ω Λ = 0,0

1

0
0

20
40
60
Edad del universo en billones de años

80

Fig. 6.23 Evolución del universo para diferentes modelos cosmológicos actuales.
Para cada modelo, se indica la geometría del universo y los componentes
dominantes: ΩM es el parámetro de densidad de la materia bariónica y oscura, y
ΩΛ es el parámetro de densidad de la energía oscura
8

Se puede escribir: ΩT = ΩM + ΩR + ΩΛ
Donde, ΩM tiene en cuenta todos los componentes sustanciales del Universo: la materia bariónica y la materia oscura. ΩR es el parámetro de densidad de la radiación, que
contribuye solo en un 0,005 % a la densidad de la materia-energía cósmica. ΩΛ es el
parámetro de densidad de la energía oscura; por ejemplo, el parámetro de densidad
de la materia ΩM, actualmente se estima en aproximadamente 0,3 y el parámetro de
densidad de la energía oscura ΩΛ en aproximadamente 0,7. Estos son valores favorecidos por observaciones recientes.

263

FÍSICA
La teoría del Big Bang
La teoría del Big Bang (en español, gran explosión) es la teoría cosmológica mayoritariamente aceptada por la comunidad científica actual,
para explicar los períodos conocidos más antiguos del universo y su posterior evolución a gran escala. Afirma que en sus inicios el universo se encontraba en un estado de muy altas densidad y temperatura, desde donde
comenzó a expandirse, y que, con el transcurso del tiempo continuó expandiéndose y enfriándose hasta el día de hoy.
Después de la rápida expansión inicial, poco a poco la temperatura del
universo descendió lo suficiente para permitir debido a diversos procesos
físicos la formación de partículas fundamentales, partículas subatómicas y,
más tarde, simples átomos, los núcleos atómicos ligeros. Posteriormente,
al formarse nubes de los elementos primordiales, estas se concentraron
por medio de la gravedad para formar estrellas en las que se sintetizaron
posteriormente los elementos más pesados. En las galaxias se reunieron
miles de millones de estrellas que favorecieron la formación de sistemas
planetarios, con planetas de muy diversos tipos incluida nuestra Tierra,
único lugar que conocemos, hasta el momento, en el universo en el que se
desplegó la vida.
Bajo la influencia de la gravedad producida por la materia oscura -un
componente del universo que solo se percibe por sus efectos de atracción
gravitacional- los cúmulos de galaxias se agruparon en supercúmulos tejiendo una inmensa red cósmica que abarca todo el universo observable.
Mediciones modernas (Sonda Planck 2018) datan que el nacimiento de
nuestro universo ocurrió hace 13,797 ± 0,023 Gaños atrás, intervalo que
sería por tanto igual a su edad.
En realidad en el principio del universo no hubo una “explosión” pues
no tuvo lugar su localización en ninguna extensión espacial preexistente,
por lo que no se propagó fuera de sí mismo ni tampoco el evento fue
“grande”, pues en rigor al surgir de una “singularidad en el inicio del
tiempo”, hablamos del reino de lo extraordinariamente pequeño, en cuyo
principio se producían fluctuaciones cuánticas del vacío que los físicos admiten hoy como el origen de todo lo que vino después, incluida la expansión del propio espacio-tiempo. El nombre de la Teoría (Big Bang) es una
denominación errónea.
La Teoría de la Relatividad General puede combinarse con las observaciones de isotropía y homogeneidad, a gran escala, de la distribución de

264

CAPÍTULO 6
las galaxias y de los cambios de posición entre ellas, permitiendo extrapolar las condiciones del universo antes o después en el tiempo.
Una consecuencia de todos los modelos en la teoría del Big Bang
es que, en el pasado, el universo tenía una temperatura mucho más
alta y mucha mayor densidad que hoy y, por tanto, las condiciones físicas actuales son muy diferentes de las condiciones físicas en el lejano
pasado.
Con el transcurso de los años, todas las evidencias observacionales han
apoyado la idea de que el universo evolucionó a partir de un estado superdenso y caliente.
Desde el descubrimiento de la radiación del fondo cósmico de microondas, en 1965, esta ha sido considerada la mejor teoría para explicar la evolución del cosmos, no es especulativa, se basa en una enorme cantidad de
observaciones precisas y de hechos probados:
La “gran explosión” es un concepto muy diferente a la explosión de
una granada, de la que sale metralla en todas direcciones desde un centro
(la propia granada). Sería más apropiado llamar al Big Bang la Gran Expansión, puesto que la expansión del universo se refiere a todo lo que existe,
incluido el espacio y el tiempo. Antes del Big Bang no había espacio, por
lo tanto, no pudo haber un centro del universo.
En general, se consideran tres las evidencias observacionales más importantes que apoyan la teoría cosmológica del Big Bang. Estas son:
• La expansión del universo que se puede apreciar en el corrimiento hacia el rojo de las líneas de los espectros generados por las galaxias.
• Las medidas detalladas de la radiación del fondo cósmico de microondas.
• La abundancia de los elementos ligeros en el universo.
De la observación de galaxias y cuásares lejanos se desprende la idea
de que las líneas espectrales de estos objetos experimentan un corrimiento
hacia el rojo, lo que quiere decir que la luz que emiten se ha desplazado
proporcionalmente hacia longitudes de onda más largas. Esto se explica
actualmente por un cambio en el factor de escala del universo en expansión que produce a su vez un aumento de la longitud de onda de la radiación (corrimiento al rojo cosmológico).
Una de las mejores predicciones de la teoría del Big Bang es la existencia de la radiación cósmica de fondo, la radiación del fondo cósmico de
microondas.

265

FÍSICA
El universo temprano, debido a su alta temperatura, se habría llenado
de radiación electromagnética emitida por sus otros componentes.
Mientras el universo se enfriaba debido a la expansión, su temperatura
habría caído por debajo de ≈ 3 000 K. Por encima de esta temperatura, los
electrones y protones están separados, haciendo el universo opaco a la
radiación electromagnética.
Por debajo de los 3 000 K se forman los átomos, permitiendo el paso de
esta radiación a través del plasma del universo. Esto es lo que se conoce
como disociación de fotones.
La radiación en este momento habría tenido el espectro de un cuerpo
negro y habría viajado libremente durante el resto de la vida del universo,
sufriendo un corrimiento hacia el rojo como consecuencia de la expansión
de Hubble, esta hizo variar el espectro de cuerpo negro de unos 3 345 K a
un espectro con una temperatura mucho menor (2,725 K) como lo observamos hoy. La radiación, vista desde cualquier punto del universo, parecerá provenir de todas las direcciones en el espacio.
Las observaciones detalladas de la morfología y estructura de las galaxias y cuásares proporcionan una fuerte evidencia a favor del Big Bang.
La combinación de las observaciones con la teoría sugiere que los primeros cuásares y galaxias se formaron hace alrededor de 500 millones de
años después del Big Bang, y desde ese momento se han estado formando
estructuras más grandes, como los cúmulos de galaxias y los supercúmulos. Las poblaciones de estrellas han ido envejeciendo y evolucionando,
de modo que las galaxias lejanas (que se observan tal y como eran en el
principio del universo) son muy diferentes a las galaxias cercanas (que se
observan en un estado más reciente). Estas observaciones son argumentos
sólidos en contra de la teoría del estado estacionario (teoría antagónica
al Big Bang). Las observaciones de la formación estelar, la distribución de
cuásares y galaxias, y las estructuras más grandes concuerdan con las simulaciones obtenidas en supercomputadoras sobre la formación de las
estructuras en el universo a partir de la teoría del Big Bang, y están ayudando a completar detalles de cómo ocurrió este proceso.
Después de cierta controversia, la edad del universo estimada por la
expansión de Hubble y la radiación cósmica de fondo concuerdan en gran
medida (es decir, es ligeramente más grande) con las edades de las estrellas
más viejas, ambos intervalos medidos aplicando la teoría de la evolución

266

CAPÍTULO 6
estelar de los cúmulos globulares y mediante la fecha radiométrica individual en las estrellas de la población II.
A finales de los años 1990 y principios del siglo xxi, se lograron grandes
avances en la cosmología del Big Bang, como resultado de importantes
adelantos en el instrumental astronómico de observación, y en el uso de
nuevos telescopios que exploraron todo el cielo en múltiples longitudes de
onda, y del cual forman parte el telescopio espacial Hubble y los satélites
WMAP y Planck, los astrofísicos calcularon muchos de los parámetros cosmológicos hasta un nuevo nivel de precisión.
A pesar de sus muchos aciertos, históricamente, desde la década de
1970 habían surgido varios problemas dentro de la teoría del Big Bang,
fundamentalmente, por el razonamiento de que, para parecerse el universo a como es en la actualidad, este tendría que haber empezado con
unas condiciones iniciales “especiales” o muy puestas a punto cerca del
Big Bang. Específicamente, había tres aspectos que no se aclaraban y que
fueron nombrados como:
• El problema del horizonte.
• El problema de la planidad.
• El problema de los monopolos magnéticos.
El problema del horizonte, también llamado problema de la causalidad, es resultado de que la información no puede viajar más rápido que la
luz, de manera que dos regiones en el espacio separadas por una distancia
mayor que la velocidad de la luz multiplicada por la edad del universo no
pueden estar causalmente conectadas.
En este sentido, la isotropía observada de la radiación de fondo cósmico de microondas (CMB) resulta problemática, debido a que el tamaño del
horizonte de partículas en ese tiempo corresponde a un tamaño de cerca
de dos grados en el cielo.
Si el universo hubiera tenido la misma historia de expansión desde la
época de Planck, no habría mecanismo que pudiera hacer que estas regiones tan alejadas entre si tuvieran la misma temperatura.
Medir una uniformidad en la radiación cósmica de fondo implica que
hay zonas del universo muy distantes entre sí que tienen igual temperatura (equilibrio térmico). ¿Cómo han podido interactuar para lograr este
equilibrio?

267

FÍSICA
El problema de la planidad es un problema observacional, la densidad de materia-energía del universo en el presente es muy cercana a
la densidad crítica, (medida muy precisa de la geometría del universo
por las sondas WMAP y Planck) o lo que es lo mismo, el universo hoy
es espacialmente plano, dentro de una muy buena aproximación. Sin
embargo, las diferencias con respecto a la densidad crítica crecen con el
tiempo, luego, en el pasado la densidad tuvo que ser aún más cercana
a esta. Se ha calculado que en los primeros momentos del universo la
densidad era diferente a la crítica tan solo en una parte en 1015 (una
milbillonésima parte). Cualquier desviación mayor hubiese conducido
a una muerte térmica o un Big Crunch y el universo no sería como es
ahora.
¿Por qué el universo surgió precisamente con ese valor de densidad?
Por último, la objeción de los monopolos magnéticos fue propuesta
a finales de la década de 1970. Las Teorías de la Gran Unificación (TGU)
predicen defectos topológicos en el espacio, que se manifestarían como
monopolos magnéticos que supuestamente deberían existir, encontrándose el espacio con una densidad mucho mayor a la observada. De hecho, hasta ahora, no se ha dado con ningún monopolo, sin embargo,
según las (TGU) desde la época de la gran unificación deben existir tantos monopolos magnéticos como bariones, además su masa es tal (1016
GeV) que influirían seriamente en la geometría del universo. Pero nada
de esto se observa, a pesar de los esfuerzos experimentales realizados
para detectarlos.
La mayoría de los astrónomos y los físicos aceptan que la concordancia
entre la teoría del Big Bang y la evidencia observacional es tan cercana que
permite establecer con cierta seguridad casi todos los aspectos básicos de
la teoría, pero estos señalamientos necesitaban explicación.
Historia Térmica del Universo
La Época de Planck. Tiempo: desde 0 a 10–43 s desde el Big Bang
El momento del Big Bang aún no puede ser descrito por las leyes de la
física que conocemos, en ese instante, el universo era, según la Teoría de
la Relatividad General, una “singularidad” y numerosos misterios aparecen cuando se investiga cerca del principio del tiempo (figura 6.24), allí las
energías eran muchísimo más altas de las que ahora se pueden estudiar
mediante experimentos en los aceleradores actuales.

268

CAPÍTULO 6

Fig. 6.24 La historia del universo según la teoría del Big Bang

En esta época las densidades son tales que los efectos gravitacionales
y de mecánica cuántica se hacen igual de importantes. Todo indica que
nuestro conocimiento está todavía incompleto y que, para describir la física cuando la temperatura supera los 1032 K y la energía los 1018 GeV,9
hace falta una teoría cuántica de la gravedad inexistente en la actualidad.
Partamos entonces de un hecho: estamos todavía lejos de poder explicar
el tiempo cero, el supuesto origen del universo (si tuvo origen). Asimismo,
querer decir algo sobre la verdadera estructura del espacio-tiempo, es decir, si el espacio-tiempo es en realidad continuo ad infinitum, o si en alguna escala microscópica llegaremos a detectar sus “pixels” característicos,
requiere contar con una buena teoría cuántica de la gravedad.
¿Cómo poner a prueba estas ideas?
9

GeV es una unidad de energía llamada Giga electronvolt, y corresponde a 109 eV. La
equivalencia entre materia y energía de la relatividad especial, E = m · c2, nos permite
expresar los GeV en unidades de masa, en este caso tenemos, 1 GeV = 1,8 · 10-24 g. De
manera análoga, podemos también establecer la equivalencia: 1 GeV = 1,2 · 1013 K,
donde K es Kelvin, la unidad de la escala absoluta de temperaturas, en la cual el cero
absoluto, o cero kelvin, corresponde a 273,15 grados por debajo del punto de congelación del agua.

269

FÍSICA
En estas escalas de energía cualquier acelerador de partículas que pueda diseñar el hombre en el futuro imaginable parece ser insuficiente. Por
ello, quizás es mejor mirar hacia el cielo: el universo nos ofrece procesos
astrofísicos increíblemente energéticos, que un buen observador debería
ser capaz de aprovechar. Como le gustaba afirmar a un conocido cosmólogo ruso, “el universo es el acelerador de los pobres” y cuando se quiere
llegar a la escala de Planck, todos lo somos.
La comprensión de la física en la época de Planck figura entre los mayores problemas no resueltos de la física actual.
Dentro de una nueva teoría física aún más completa y general, podría
ser posible que el Big Bang no sea una singularidad, sino una transición
entre dos estados diferentes del universo que todavía no comprendemos.
Debemos tener claridad entonces que, la teoría del Big Bang no explica
propiamente el origen del universo, pues no nos dice nada sobre su inicio,
ni tampoco sobre la posible causa de su aparición, no expone nada en absoluto sobre el propio instante cero. Realmente la teoría solo trata de explicar la evolución del cosmos a partir del momento en que son aplicables
las leyes conocidas de la física.
De acuerdo con estos postulados, el tiempo y el espacio no existían
antes del universo ambos tuvieron su origen en el Big Bang, al igual que
toda la materia, incluida la energía de cualquier tipo. Preguntar qué había
antes es como preguntar que hay más al Norte del polo Norte.
Por lo tanto, solo podemos comenzar a describir la historia cósmica después del intervalo temporal llamado tiempo de Planck (t P),
igual a 5,39 · 10 -44 s después del Big Bang. Esta es una unidad de
tiempo, considerada hoy por la física como el intervalo temporal
más pequeño que en principio podría ser medido y representa el
instante más pequeño en el que las leyes de la física que conocemos
pueden ser utilizadas para estudiar la naturaleza y la evolución del
universo, es un lapso muy corto, muchos órdenes de magnitud más
pequeños que el instante más pequeño que se puede medir hoy en
un laboratorio.
En cosmología, se llama época de Planck al más temprano período de tiempo en la historia del universo, y se toma entre t = 0 y 10−43 s
(t ∼ t P ∼ 10−43 s), durante el cual las cuatro fuerzas fundamentales (interacción nuclear fuerte, interacción nuclear débil, interacción electromagnética e interacción gravitatoria) estaban unificadas y no existían todavía

270

CAPÍTULO 6
partículas fundamentales. De modo que, aún no hay ningún modelo físico
convincente para estudiar el primer 10-43 s en la existencia del universo.
Todavía sabemos muy poco de la época de Planck, es posible que el
universo en esta etapa tuviera más dimensiones espaciales que las tres que
conocemos, al concluir esa fase (en la que el tiempo de vida del universo
coincide con el llamado “tiempo de Planck”) la primera interacción que se
separa del resto del campo unificado es la interacción gravitatoria, el “gravitón” (la partícula cuántica asociada) se aparta de las demás formas de
materia, también en este instante, el espacio-tiempo adquiere las cuatro
dimensiones que conocemos hoy y en las que se basa la relatividad (clásica)
de Einstein (tres dimensiones espaciales y una temporal).
Con la separación de la gravitación de las demás interacciones fundamentales conocidas, la materia se ve sujeta a una nueva interacción de
gran unificación, que podríamos llamar interacción unificada: fuerte y
electro débil.
La época de la Gran Unificación (TGU). Tiempo: 10-43 s - 10-35 s desde
el Big Bang
Luego de la era de Planck, comienza un período de la historia del universo dominado por la “radiación”. Vale aclarar aquí que esta “radiación”
no está relacionada con la radiación electromagnética (por ejemplo, con
la luz) como la conocemos hoy. En cosmología, denominamos “radiación”
a todos aquellos componentes del universo −sean partículas que posean o
no masa− con masas asociadas menores a la energía térmica reinante del
universo en ese momento.
En los primerísimos instantes de la vida del cosmos, las temperaturas
predichas son inmensas y por ello, aun partículas estables de masa no nula,
pueden caer bajo la denominación de “radiación”. En el universo actual,
cuando la temperatura del espacio profundo se halla a unos pocos grados (2,7 K) por encima del cero absoluto (o cero kelvin), solo los fotones
(corpúsculos de luz, de masa nula) y los neutrinos no masivos (y quizás
también alguna partícula nueva aún no detectada por los físicos) reciben
dicha denominación.
Esta época “dominada por la radiación”, como se la conoce técnicamente, se extenderá por varias decenas de miles de años, hasta que el
universo, en continua expansión y permanente enfriamiento, vea disminuir su temperatura a tal punto que puedan darse las condiciones

271

FÍSICA
propicias para la formación de los primeros átomos de la materia neutra
conocida.
El universo se expandió y se enfrió desde la época de Planck, la física
de esta etapa inicial apenas se puede esbozar con la llamada Teoría de la
Gran Unificación (TGU) en el que los grupos del modelo estándar se integran en uno mayor, que se rompe para producir las fuerzas de la naturaleza observadas. Eventualmente, la gran unificación se rompe cuando
la interacción nuclear fuerte se separa de la fuerza electrodébil, en esta
era la teoría arroja que el universo debió producir muchos monopolos
magnéticos.10
Inflación. Tiempo: 10-35 s desde el Big Bang
Prácticamente todos los trabajos teóricos actuales en cosmología tratan de ampliar o concretar aspectos de la teoría del Big Bang. Gran parte
del trabajo actual trata de entender cómo se formaron las galaxias y los
cúmulos y supercúmulos de galaxias en este contexto, comprender lo que
allí ocurrió y cotejar las nuevas observaciones con la teoría fundamental.
La clave para explicar los problemas teóricos del Big Bang estándar
se encontraron en la “Teoría inflacionaria”. La inflación cósmica es un
conjunto de propuestas en el marco de la física teórica para explicar la
expansión ultrarrápida del universo en los instantes iniciales. Se postula que cuando el universo tenía unos 10-35 s de edad, ocurrió un período de expansión exponencial en el universo muy preprimigenio. La
expansión es exponencial porque la distancia entre dos observadores
fijos se incrementa exponencialmente, debido a la métrica de expansión del universo (un espacio-tiempo con esta propiedad es llamado
un espacio-tiempo de Sitter). La idea de la existencia de este período
fue propuesta por el físico estadounidense Alan Guth, en la década de
1980 e independientemente por Andrei Linde; y tiempo después por
Andreas Albrecht junto con Paul Steinhardt, para resolver los problemas teóricos mencionados de la teoría del Big Bang. El mecanismo que
hace surgir la inflación todavía no está claro, pero probablemente esté
asociado con las propiedades físicas del universo temprano en el que

10

Un monopolo magnético es una partícula elemental hipotética constituida por un
solo polo magnético. De existir en la naturaleza, sería el equivalente a una “carga
magnética” en el campo magnético, tal y como ocurre con la carga eléctrica en el
caso del campo eléctrico.

272

CAPÍTULO 6
todas las fuerzas de la naturaleza estaban unificadas excepto la gravedad (figura 6.25).

Fig. 6.25 Representación de momentos espacio-temporales en la era de Planck.
Los conceptos de dirección e incluso causa y efecto pierden significado en este
caos espacio-temporal

El universo niño sufrió una transición de fase y liberó grandes cantidades de energía. Posiblemente, la inflación ocurrió durante esta transición
(figura 6.26).
Radio del Universo abservable (m)
Época inflacionaria
1040
1030
1020
1010

Modelo estandar

Radio del
universo
observable

10-10
10-20
10-30
10-40
10-50
10-45

Modelo
inflacionario
10-35

10-25

10-15

10-5

105

1015

Tiempo (s)

Fig. 6.26 Representación del período inflacionario del universo

273

FÍSICA
¿Cómo resuelve la inflación el problema del horizonte?
La expansión temprana del universo llevó a dos puntos distantes
uno del otro a moverse más rápido que la velocidad de la luz, la
relatividad general no establece un límite de velocidad para la expansión, como consecuencia de esto el universo físico es mucho más
grande que el universo observable, estamos sujetos a un horizonte
cosmológico. Al sufrir el universo una expansión exponencial, regiones que se afectan mutuamente se expanden más allá de sus respectivos horizontes.
Este comportamiento tuvo una consecuencia importante para el tejido
del espacio-tiempo: dejó al espacio-tiempo homogéneo como es hoy.
Es como si tomamos una tela muy arrugada, y la estiramos muy rápidamente en todas direcciones, dejándola completamente lisa.
Antes de la inflación, el universo tendría un tamaño del orden de
10–27m, de modo tal que sería menor que el posible horizonte cosmológico
de ese instante. Así fue posible el contacto térmico y se justifica la uniformidad de la radiación cósmica de fondo, la uniformidad observada en
todas las direcciones. No importa dónde miremos, implica que el universo
debe haberse expandido mucho, mucho más de lo predicho en la teoría
original del Big Bang estándar.
El principio de incertidumbre de Heisenberg predice además que, durante la fase inflacionaria habrían existido fluctuaciones primordiales, que
se amplificarían hasta la escala cósmica. Estas fluctuaciones, de acuerdo
con los teóricos, servirían de semillas para toda la estructura actual del
universo.
Al pasar la inflación, el universo se siguió expandiendo siguiendo la
ley de Hubble, y las regiones que estaban demasiado lejos para afectarse mutuamente vuelven al horizonte. Esto explica la isotropía observada de la radiación cósmica de fondo. La inflación predice que las
fluctuaciones primordiales son casi invariantes según la escala y que
tienen una distribución normal o gaussiana, lo cual ha sido confirmado
con precisión por medidas muy precisas del fondo cósmico de microondas desde el espacio.
¿Cómo resuelve la inflación el problema de la planidad?
Durante el período inflacionario el espacio-tiempo se expandió tan rápido que provocó una especie de estiramiento del universo acabando con

274

CAPÍTULO 6
cualquier curvatura residual que pudiese haber (figura 6.27). Así la inflación pudo hacer al universo plano.

Fig. 6.27 Representación del aumento exponencial del tamaño del universo
durante la fase de inflación. Durante esta fase de expansión el universo tiene
una geometría cada vez más plana

Se puede probar teóricamente que con la inflación el parámetro de
densidad total del universo Ω tiende rápidamente a 1, independientemente de su valor anterior. La expansión acelerada hace que el espacio se alise
como la superficie de un globo se aplana en la medida que este se infla.
La curvatura del universo se puede medir, por ejemplo, analizando las
fluctuaciones de temperatura de la radiación cósmica de fondo; hoy sabemos que la geometría del universo es prácticamente plana. Sin inflación,
la teoría del Big Bang no puede explicar satisfactoriamente este aplanamiento del cosmos.
¿Cómo resuelve la inflación el problema de los monopolos magnéticos?
La inflación elimina todos los puntos defectuosos del universo observable de la misma forma que conduce la geometría hacia su forma plana.
Al final de la expansión inflacionaria, el universo tiene un tamaño que ya
superaba el horizonte observable, es posible que los monopolos accesibles en la parte del universo observable sean tan escasos como muestran
las observaciones. La inflación diluye los monopolos magnéticos predichos

275

FÍSICA
por muchas extensiones del modelo estándar de física de partículas. Si el
universo estuviese lo suficientemente caliente como para formar tales partículas anteriores al período de inflación, estas no serían observadas en la
naturaleza, ya que habrían de ser tan raras que es bastante probable que
no haya casi ninguna en el universo observable. Es posible que aun así
pueda haber algún monopolo pero se ha calculado que apenas existiría
una cantidad ínfima.
Después de la fase de inflación, el universo continuó expandiéndose y
enfriándose, pero ahora a un ritmo más lento.
La era electrodébil. Tiempo: 10–12 s desde el Big Bang
Todas las partículas estándar al principio eran relativistas y estaban en
equilibrio térmico con la radiación. Una partícula se vuelve no relativista (n.r.) cuando su energía cinética decrece por debajo de la energía de
reposo por lo que ese tiempo depende de su masa. El que las partículas
abandonen el equilibrio térmico depende de dos escalas de tiempo: su
tasa de reacción y la tasa de expansión del universo. Si la tasa de reacción es menor que la tasa de expansión, entonces la distancia entre
las partículas aumenta más rápido de lo que ellas pueden interactuar, y
esas partículas se desacoplan. La fascinante historia térmica del universo depende entonces de la dinámica global y de las propiedades de las
partículas y campos (masas y secciones de choque). Con la expansión partículas cada vez menos masivas dejan de ser relativistas y un poco antes
o después, dependiendo del tipo de interacción, se desacoplan del resto
de las partículas y la radiación, permitiendo la formación de sistemas más
complejos.
La historia térmica tiene una descripción formal a partir de (t ≈ 10–10 s),
cuando T ≈ 10 15 K o E ≈ 10 2 GeV. En esta época se rompe la simetría
electrodébil y las partículas estándar adquieren su masa por medio
del mecanismo de Higgs (ver (capitulo anterior), a partir de entonces existen las familias de partículas/antipartículas de quarks y leptones más las partículas portadoras de las interacciones (partículas
fundamentales).
Al final de la era electrodébil, prima en el universo un denso plasma de
quark-gluones, así como de partículas masivas que se crean a esas energías, por ejemplo, los bosones W+ W– y Z0, además de los bosones de Higgs
(todos ya descubiertos experimentalmente en los aceleradores).

276

CAPÍTULO 6
En esta época, partículas relativamente livianas (comparadas con los
futuros bariones) como los electrones y los neutrinos, globalmente llamadas “leptones”, adquieren sus masas características. Por su parte, con el
electromagnetismo surge también el fotón, la partícula (a veces llamado el
“quantum”) del campo electromagnético que nos es tan familiar. Como lo
señalamos más arriba, el fotón es el corpúsculo mediador de la interacción
y “aquella” partícula que “informa” a un electrón, por ejemplo, que hay
un protón presente en la cercanía y que ambos, por poseer cargas eléctricas diferentes, se deben atraer.
Pero antes de la ruptura de la simetría electrodébil (t ≤ 10-10 s), se
conjeturan también una serie de procesos que esperan su comprobación experimental cuando se alcancen las energías involucradas en los
aceleradores. Entre ellos está la ruptura de la supersimetría11 propuesta
en los modelos más allá del modelo estándar de física de partículas;
estos procesos hipotéticamente ocurrirían a temperaturas superiores a
102 GeV, a partir de entonces las masas de las partículas estándar y las
de sus pares supersimétricos se harían muy diferentes; además estas
últimas no interactúan electromagnéticamente, pero sí débilmente, es
decir, antes de la ruptura de la simetría electrodébil podían estar en
equilibrio térmico con el resto de las partículas, quedando fijada su
densidad de reliquia ΩX antes de esta ruptura. Esa densidad es cercana
a la que se infiere para la materia oscura, razón por la que las partículas
supersimétricas, en especial las más ligeras, como son los neutralinos,
se encuentran junto a otros candidatos muy probables para ser componentes de la materia oscura.
• Aniquilación de antimateria. Entre los procesos relevantes después de
la ruptura de la simetría electrodébil están los que sirvieron para la aniquilación de la antimateria.

11

En física de partículas, la supersimetría es una simetría hipotética que podría
relacionar las propiedades de los bosones y los fermiones. La supersimetría
también es conocida por el acrónimo inglés SUSY. Aunque todavía no se ha verificado experimentalmente que la supersimetría sea una simetría de la naturaleza, reviste interés teórico porque puede resolver diversos problemas como
el de la jerarquía, además de ofrecer candidatos adicionales para explicar la
materia oscura. La supersimetría es parte fundamental de muchos modelos
teóricos, entre ellos la teoría de supercuerdas, que generaliza a la teoría de
cuerdas.

277

FÍSICA
Cuando la era cósmica alcanzó la milmillonésima de segundo, tuvo
lugar un acontecimiento importante. Hasta entonces, el universo era lo
suficientemente caliente y denso como para mantener en equilibrio la materia y la antimateria. Pero cuando se enfrió, este equilibrio se perdió y la
materia y la antimateria comenzaron a aniquilarse entre sí, convirtiendo
toda la masa de las partículas y antipartículas aniquiladas en radiación
(figura 6.28).
Partícula

fóton

anti-partícula

Fig. 6.28 Representación de la reacción de materia y antimateria produciendo
radiación (fotones). Cuando la energía era muy alta, en un universo muy caliente y
denso, los fotones podían producir un par de partículas de materia y antimateria

    q  q

    e  e

e  e    

Por cada mil millones de partículas de antimateria habría en promedio
mil millones y una partícula de materia. El resultado de esta asimetría es
que la antimateria es virtualmente erradicada del universo, dejando solo
la materia de la que estamos hechos nosotros y las estrellas. El cuándo y
cómo se produjo la asimetría entre materia antimateria es aún un problema abierto, pero más allá de eso, gracias a esta minúscula asimetría
estamos aquí.
Se sigue produciendo antimateria en el universo en diversos eventos
(fusión nuclear en el interior de las estrellas, explosiones de supernovas,
interacción de los rayos cósmicos en la atmósfera terrestre, etc.), pero la
cantidad de antimateria hoy es insignificante.
La época hadrónica. Tiempo: 10–6 - 10–2 s desde el Big Bang
• Bariogénesis. Cuando el universo alcanzó los 0,00001 s de existencia su
temperatura descendió a 1012 K. El universo estaba compuesto entonces por una sopa de quarks. Los quarks son partículas fundamentales de
la naturaleza y forman todos los hadrones (partículas que participan en
la interacción fuerte). A temperaturas por debajo de 1012 K, los quarks
definitivamente se mantienen unidos. En grupos de dos los quarks forman mesones, partículas inestables.

278

CAPÍTULO 6
Grupos de tres quarks forman bariones; los dos bariones más conocidos
son los protones y los neutrones. Por eso, esta época cósmica se llama bariogénesis (formación de bariones).
No todas las partículas son “compuestas”. Entre las más conocidas,
los electrones y los neutrinos son consideradas hoy día como partículas
realmente “fundamentales” e indivisibles, esto es, no formadas por otras
partículas más pequeñas o menos masivas. Estos últimos, los neutrinos,
permanecen en continua interacción con el resto del plasma primordial
(esa “sopa” que mencionamos antes) por medio de la interacción nuclear débil, por ejemplo, colisionando (fusionándose) con neutrones para
“desaparecer” dando origen a protones y electrones (entre otras posibles interacciones que afectan a los neutrinos). Pero, llega un momento en el que también los neutrinos se “desacoplarán” de esta sopa de
partículas (dejarán de interactuar con los constituyentes de la “sopa”), y
eso ocurre cuando el universo cuenta con 1 segundo de vida aproximadamente. A partir de ese momento (conocido como el “desacoplamiento
débil” los neutrinos evolucionan en forma independiente del resto de
las partículas.
Nucleosíntesis primordial. Tiempo: 1 s - 3 min desde el Big Bang
• Nucleosíntesis significa producción de núcleos atómicos a partir de la
fusión termonuclear de núcleos más ligeros.
Cuando el universo alcanzó la edad de un segundo, ya estaba formado por plasma con una densidad aproximadamente igual a la del agua,
y una temperatura de 109 K. Los protones y neutrones que se habían
formado durante la bariogénesis estaban involucrados en reacciones de
fusión nuclear, formando, principalmente, deuterio (un isótopo de hidrógeno con un protón y un neutrón en el núcleo). El deuterio es un elemento relativamente frágil, y hasta que el universo tuvo un segundo de
edad, los fotones tenían la energía suficiente para destruir estos núcleos.
Después del primer segundo, la temperatura y la densidad disminuyeron
hasta el punto en que el deuterio sobrevivió lo suficiente como para
continuar la cadena de reacciones nucleares. Así, fue posible formar el
elemento helio, principalmente He-4 (con dos protones y dos neutrones
en el núcleo). En fin, la predicción hecha por la Teoría del Big Bang afirma que se formaron primordialmente con resultados en masas aproximadamente un 75 % de H-1, un 25 % de He-4, un 0,01 % de deuterio, muy

279

FÍSICA
poco (en el orden de 10-10) de litio y berilio, y nada de otros elementos
(figura 6.29).
H

1

H

2

H

3

He

3

He

4

Li

6

Be

6

Li

7

Be

7

Li

8

Be

8

v + 1H
H + e1
2 + ++
H +1H
H e vc
2
H + 2H 3H + p+ + 4,03 MeV
3
He + n 3H + p+
2 +2
H H 3He + n + 3,27 MeV
3
H 3He+ e- + vc + 18,6 keV
2
H + 3He 4He+p+ +18,30 MeV
2
H + 3H 4He + n +
3
He+ 3H 6Li
4
He + 2H 6Li
3
He +3He 6Be 4He + p+ + p+
4
He+ 3H 7Li
7
Be + e- 7Li
4
He + 3He 7Be
7
Li + n 8Li
7
Li + 2H 8Li + p+
4
He + 4He 8Be -91,8 keV
n+e+
n+vc

1

Fig. 6.29 Isótopos creados en la nucleosíntesis primordial durante los primeros
minutos de existencia del universo y las reacciones nucleares que ocurrieron; los
elementos más pesados solo se formarán posteriormente en el interior de las
estrellas

Para un tiempo mayor a tres minutos, la temperatura y la densidad
cósmica ya eran demasiado bajas para desencadenar reacciones nucleares
y la nucleosíntesis primordial terminó.
Los elementos más pesados de la tabla periódica no se formaron debido a la gran inestabilidad de los núcleos que tenían cinco u ocho partículas (por ejemplo, dos protones y tres neutrones, cuatro protones y cuatro
neutrones, etc.). La física nuclear es relativamente conocida y podemos
predecir la abundancia relativa de elementos formados en función de la
cantidad de protones y neutrones en el universo.
La cantidad de deuterio, helio y litio se puede determinar a partir de
observaciones, y coinciden muy bien con la predicha por la Teoría del Big
Bang (figura 6.30).

280

CAPÍTULO 6
Abundancia
1,0
relativa

10-2

10-4
Helio 3
10-6

10-8

Litio

10-10
0,001

0,01

0,1

1,0

Deuterio

Densidad de protones y neutrones
Fig. 6.30 Abundancia de elementos formados en los primeros minutos por la
densidad de protones y neutrones. La banda gris vertical indica el rango de
abundancia observado para estos elementos

Todas las mediciones apuntan a la misma cantidad de bariones
en el universo. El valor más aceptado es casi un 4,0 % del universo compuesto de bariones. Casi 25 % de la masa de los bariones
está en forma de helio. Recordando que el helio es un producto
de la nucleosíntesis estelar, el proceso que genera energía en las
estrellas, uno podría imaginar que todo el helio se produjo en las
estrellas. Este fue uno de los argumentos utilizados por los astrónomos contrarios a la teoría del Big Bang. Pero, sumando todo el helio
producido en las estrellas, llegamos a una conclusión interesante:
se necesitarían decenas de miles de millones de años para obtener
todo el helio observado. La única forma de producir tanto helio es
mediante la nucleosíntesis primordial, durante los primeros minutos
de un universo denso y caliente.

281

FÍSICA
Fin de la era de la radiación, dominio de la materia: 60 000 años desde el
Big Bang
A medida que el universo se expande, la densidad de la materia
disminuye proporcionalmente al aumento de volumen. Al duplicar el
volumen del universo, la densidad se reduce a la mitad, y así sucesivamente. Si asociamos una escala al universo (imagina una regla que se
expande junto con el universo) podemos escribir que la densidad de la
materia es inversamente proporcional a esta escala al cubo: densidad
de la materia = 1/(escala del universo)3.
La radiación tiene un comportamiento diferente. Además de que la
disminución de la densidad de energía de la radiación es inversamente
proporcional al volumen (como en el caso de la materia), también está el
efecto de la propia expansión sobre la radiación, como había predicho, en
1917, William de Sitter.
Considera la radiación como una onda conectada en dos puntos. Si separamos estos puntos (debido a la expansión), la longitud de onda aumenta,
la frecuencia de la onda disminuye y también su energía (figura 6.31). De
esta forma, la densidad de energía de la radiación disminuye proporcionalmente a la inversa de la cuarta potencia de la escala cósmica: densidad de
materia = 1/(escala del universo)4. Esto significa que la densidad de energía
de la radiación disminuye más rápidamente que la densidad de la materia.
Aumenta la longitud de onda de los fotones, disminuye su energía

Escala del Universo

Escala del Universo después de la expansión

Fig. 6.31 La longitud de onda de la radiación electromagnética aumenta
proporcionalmente a la expansión del universo. Este fenómeno da lugar al
corrimiento al rojo cosmológico

Al principio, la temperatura era tan alta y el volumen tan pequeño que la
densidad de energía de la radiación era mayor que la densidad de la materia.
Pero con el paso del tiempo, llegó un momento en que estas dos densidades, la de la materia y la de la radiación, se igualaron. Llamamos a este
momento “equipartición entre materia y energía”, que marca el final de la

282

CAPÍTULO 6
era de la radiación y el comienzo de la era de la materia. Esto ocurrió cuando el universo tenía 60 000 años de edad y una temperatura de 9 200 K.
Este es un momento importante, porque mientras la radiación dominó
no hubo formación de estructuras; las galaxias y las estrellas no podían
condensarse. Cuando la materia comenzó a dominar la densidad, comenzaron a aparecer estructuras.
Recombinación y radiación cósmica de fondo. Tiempo: 380 000 años
desde el Big Bang
Después de que terminó la nucleosíntesis, el universo continuó expandiéndose y enfriándose. Excluyendo los componentes más exóticos como la
materia y la energía oscura, el cosmos todavía tenía la composición química primordial. Todos estos átomos estaban completamente ionizados y los
electrones sueltos. Esto ocurrió debido a la gran afinidad entre la radiación
y los electrones. Los fotones que deambulaban todavía eran muy energéticos y cuando chocaron con un electrón transfirieron parte de su energía. Los
electrones se volvieron tan energéticos que los núcleos atómicos no pudieron retenerlos. Otra consecuencia de esto es que, el universo era opaco a la
radiación; en promedio, los fotones recorren un camino corto antes de interactuar con un electrón y cambiar de energía y dirección. Cuando la edad
cósmica alcanzó los 380 000 años y su temperatura alcanzó aproximadamente 3 000 K, ya no había fotones con la energía suficiente para mantener
la materia ionizada. Los núcleos comenzaron a capturar y retener electrones
(figura 6.32). Los átomos se volvieron neutrales y el universo se volvió transparente a la radiación. Llamamos a este momento: recombinación.
Electrón

Hidrógeno

Fotón
Fotón

Helio

Protón

Fig. 6.32 Antes de la recombinación, los fotones no podían moverse libremente
por el universo, por lo que cambiaban de dirección con cada encuentro con un
electrón. Después de la recombinación, los electrones fueron capturados y los
fotones se movieron libremente por el espacio

283

FÍSICA
En esa situación, la mayoría de los fotones podrían moverse durante
miles de millones de años sin interactuar con la materia. Los fotones que
interactuaron por última vez con los electrones durante la recombinación
se observan en la Tierra en todas las direcciones. Como estos fotones hoy
día tienen una longitud de onda correspondiente a la radiación de microondas, los llamamos radiación del fondo cósmico de microondas (CMB).
La Radiación del Fondo Cósmico de microondas es extremadamente rica
en información sobre el universo joven. Es una huella dactilar del universo
que muestra que, hace 380 000 años, su densidad era uniforme, pero no
perfecta. Las observaciones muestran pequeñas fluctuaciones en el CMB,
interpretadas como una indicación de que hubo fluctuaciones de densidad, es decir, regiones más o menos densas que el promedio (figura 6.33).
Estas fluctuaciones de densidad, sin embargo, eran muy pequeñas, algo así
como una parte en cien mil. Imagina una bola perfectamente lisa, de un metro de diámetro. Si tiene imperfecciones de la misma escala que el CMB, su
superficie tendrá pequeñas protuberancias o depresiones de alrededor de
0,01 mm. La Radiación Cósmica de Fondo es una de las mejores evidencias
a favor de la teoría del Big Bang, difícilmente explicada por ningún otro
modelo cosmológico.

Fig. 6.33 Mapa de todo el cielo representando la variación de temperatura en la
Radiación Cósmica de Fondo (Colaboración Planck 2018)

Era oscura
Después de la era de la recombinación, el universo entró en una fase
en la que no había fuentes de luz, la llamada Edad Oscura. Durante este
período, que duró unos 450 millones de años, la materia comenzó a

284

CAPÍTULO 6
organizarse y las regiones con mayor densidad de materia comenzaron a
colapsar (figura 6.34).

Fig. 6.34 Evolución de la distribución de la materia, durante la Edad Oscura. Los
filamentos de la red cósmica comenzaron a definirse. Los cúmulos de galaxias
surgieron en la intersección de los filamentos de la red cósmica. Las regiones de
mayor densidad que se han desarrollado en los filamentos se denominan halos

Fue en este momento cuando se formó la red cósmica trazada por la
materia oscura. Las regiones de mayor densidad atrajeron materia, aumentando así la densidad local, lo que implicaba la atracción de más materia.
Por otro lado, las regiones de baja densidad se fueron vaciando gradualmente. Este proceso no tiene simetría esférica, la materia que cae no viene
de todas las direcciones. La distribución de la materia en el joven universo
siempre fue algo plana, más o menos parecida a la forma de un cigarro
aplastado. La materia cae en estas “semillas” de estructura siguiendo una
dirección privilegiada, y así forma una estructura de filamentos. Los halos
de materia, regiones aproximadamente esféricas en equilibrio, que se formaron durante este período, son las semillas de futuras galaxias y grupos
de galaxias que se formarán después de la Edad Oscura.
La Edad Oscura termina cuando se forman las primeras estrellas y (o) los
primeros núcleos galácticos. Todavía no conocemos los detalles del final de
este período, pero los telescopios, terrestres y espaciales, deberán revelar
los detalles de esta historia.
Formación de las primeras estrellas y cuásares Tiempo: 100-200 millones
de años desde el Big Bang
La formación de estructuras en el universo depende principalmente de
la materia oscura. La materia “convencional” bariónica (que compone los
elementos que se encuentran en la Tierra, en las estrellas y en el medio
interestelar) acompaña a la materia oscura en este proceso de formación.

285

FÍSICA
Inicialmente, la materia bariónica solo colapsaba gravitacionalmente en
halos de materia oscura, pero a medida que aumentaba la densidad la
materia bariónica experimentó fenómenos no gravitatorios. Estos fenómenos implican ganancia y pérdida de energía por absorción o emisión
de radiación. La materia bariónica emite espontáneamente, por ejemplo,
radiación (por lo tanto, pierde energía) cuando se calienta por encima de
los 10 000 grados. No sabemos exactamente qué se formó primero, pero
los primeros objetos que colapsaron fueron muy energéticos. Cuando el
universo llegó a tener entre 100 y 200 millones de años, aparecieron las
primeras fuentes de radiación, que parecían potentes faros.
Uno de los primeros objetos en formarse fueron las estrellas. Pero a diferencia de las estrellas actuales (figura 6.35), estas pioneras no tenían metales, su composición química era primordial. La formación de estas estrellas
es un poco diferente a la formación de las estrellas actuales. Sin metales,
el enfriamiento del gas es más lento y las estrellas que se forman en ese
momento son generalmente mucho más masivas que las estrellas que observamos hoy. Debido a que eran masivas, las primeras estrellas, llamadas
estrellas de Población III, eran muy luminosas, particularmente en el rango
ultravioleta. Pero, las estrellas masivas viven comparativamente muy poco,
apenas unos pocos millones de años, y mueren en una poderosa explosión
en forma de supernova. Las estrellas de Población III de baja masa probablemente no se formaron, por lo que no hemos encontrado ninguna hasta
ahora; es posible que ya ni siquiera existan en nuestra galaxia.
C + 4He

16

O + He
Ne + 4He

20

12
16

4

20
24

Mg + He
Si + 4He

32
36

S + 4He

Ne + 4,73 MeV

24

4

22

O + 7,16 MeV

32

Si + 9,98 MeV
S + 6,95 MeV

36

Ar + 6,64 MeV
Ca + 7,04 MeV
Ti + 5,13 MeV

Ar + He

40

Ca + He
Ti + 4He

44

40

4

4

44

48

48

Cr + 7,70 MeV
Fe + 7,94 MeV

Cr + He

32

Fe + 4He

36

32

4

Mg + 9,32 MeV

22

Ni + 8,00 MeV

Fig. 6.35 Reacciones nucleares para la formación de elementos pesados en la
síntesis estelar

286

CAPÍTULO 6
Casi al mismo tiempo, comenzaron a aparecer agujeros negros supermasivos, con millones de veces la masa del Sol, alimentados por gas
concentrado en las regiones que luego serán el núcleo de las galaxias.
Este es el proceso que genera energía en los cuásares; además de ser
muy eficiente, también es muy energético. Se piensa que los primeros
cuásares y galaxias se formaron a unos 500 millones de años después
del Big Bang,
La emisión de radiación ultravioleta de estos nuevos cuásares, junto
con la radiación de las primeras estrellas, comenzaba a ionizar de nuevo
el universo. Los átomos de Hidrógeno y Helio en la vecindad de estas
fuentes fueron los primeros en perder sus electrones. El universo, que
había sido neutral desde el momento de la recombinación, volvió gradualmente a convertirse en un plasma ionizado (figura 6.36). Este proceso se completó cuando el universo tenía poco más de mil millones de
años desde el Big Bang.
8 · 108 años
HII

0,40 · 108 años

0,18 · 109 años

0,26 · 109 años

0,47 · 109 años

z- 15

z- 10

0,92 · 109 años

HI

z- 1800

z- 1100
Recombinación

z- 20

Primeros objetos, Expansión de las Regiones HI se
H2
superponen
esferas HII
Objetos mayores
colapsan

z- 6
El universo está
reionizado

Fig. 6.36 Historia del universo entre la época de recombinación y el final de la
reionización

El fin de la reionización del universo se detectó a principios del siglo xxi mediante la observación de los espectros de cuásares muy distantes. El inicio de la reionización se dedujo de las
observaciones de la radiación de fondo cósmica por el satélite WMAP. Entre septiembre de 2003 y enero de 2004, en el Telescopio Espacial Hubble se observó una pequeña fracción del
cielo, totalizando un tiempo de exposición equivalente a 271,2 h
(11,3 días). Esta observación, la más profunda hasta el momento,
permitió la identificación de objetos tan débiles como los de magnitud 30, a distancias entre 20 y 25 mil millones años luz. Teniendo en
cuenta el tiempo que tarda la luz en llegar a la Tierra, esto significa
que el telescopio espacial registró el universo con una antigüedad
de entre 1 000 y 2 000 millones de años. El sucesor del telescopio

287

FÍSICA
Hubble, el telescopio espacial James Webb, retrocederá aún más en
el pasado, quizás haciendo posible la observación de las primeras
galaxias.
La era de la energía oscura (era actual). Tiempo: 10 000 millones de
años después del Big Bang hasta hoy
Como hemos visto, la densidad de la materia decae con el factor
de escala inverso del universo al cubo (es decir, decrece proporcionalmente al aumento de volumen), mientras que la densidad de energía
de la radiación decrece proporcionalmente con el factor de escala inverso del universo a la cuarta potencia. Al entrar en la era de la materia, la densidad de la radiación cósmica se volvió insignificante en
comparación con la densidad de materia existente en ese momento.
Cuando el universo alcanzó la edad de diez mil millones de años, otro
componente pasó a dominar el equilibrio energético del universo: la
energía oscura.
Todavía no sabemos qué es la energía oscura, pero tenemos evidencia de su presencia debido a un conjunto de observaciones. Asumiendo
el modelo de energía oscura más simple, preferido para interpretar las
observaciones realizadas, la densidad de energía oscura es constante, e
independiente de la expansión cósmica.
La energía oscura tiene una propiedad muy peculiar, su presión es
negativa, proporcional a su densidad en el caso más simple. Esta presión negativa actúa para acelerar la expansión del universo cada vez
más rápido.
Antes de que el universo tuviera diez mil millones de años, la densidad
de la energía oscura era menor que la densidad de la materia y de la radiación, lo que hacía que la presión negativa no fuera significativa. Esto es
muy importante para la formación de galaxias y grupos de galaxias, ya que
la presión negativa de la energía oscura dificulta la formación de estructuras. Si la densidad de energía oscura fuera mayor en nuestro universo,
nuestra galaxia podría no haberse formado, lo que impediría la formación
del Sol y el Sistema Solar. En los últimos cuatro mil millones de años, el universo ha estado en una fase de expansión acelerada debido a la energía
oscura. Actualmente, el universo se está expandiendo cada vez más rápido
(figura 6.37).

288

CAPÍTULO 6

Fig. 6.37 Detalles del campo ultraprofundo, tomado por el Telescopio Espacial
Hubble. Las galaxias más grandes y brillantes están relativamente cerca, a 6 mil
millones años luz. Las más débiles y pequeñas están a más de 20 mil millones
años luz de distancia (imagen producida por S. Beckwith de STScI)

En unos pocos miles de millones de años más, la expansión será
exponencialmente rápida y la formación de estructuras cósmicas cesará por completo. Los objetos más grandes que podrían colapsar en
el universo serán los supercúmulos con hasta aproximadamente 1017
masas solares.

Comprueba tus conocimientos
25. ¿En qué consistió el descubrimiento de los físicos Arno Penzias y Robert Wilson?

26. ¿Cuáles son las ideas básicas de la Relatividad General?
27. ¿Qué entendemos por un universo plano?
28. ¿Qué evidencias tenemos de que el universo es plano?
29. ¿Qué plantea la teoría del Big Bang? ¿Explica el origen del Universo?

289

FÍSICA

30. ¿Cuál es la principal dificultad para estudiar físicamente el origen
del Universo?

31. ¿Cuáles son las confirmaciones actuales de la teoría del Bing Bang?
32. ¿Existían estrellas y galaxias en el Universo dominado por la
radiación?

33. ¿En qué época del Universo aparecen los primeros átomos neutros?
34. ¿Cuál es el elemento químico más abundante en el Universo después
del hidrógeno?

35. ¿Qué es la inflación del Universo?
36. ¿Cuáles son los tres problemas de la teoría del Big Bang que explica
la teoría inflacionaria?

37. ¿Cuáles fueron los componentes materiales del universo al terminar
la inflación cósmica?

6.4 La evolución futura del universo
Modelo ΛCDM (materia oscura fría y constante cosmológica)
El modelo Lambda-CDM o ΛCDM materia oscura fría y constante cosmológica (en inglés: Lambda-Cold Dark Matter) representa el
modelo cosmológico de concenso que utiliza la Teoría del Big Bang
y la teoría inflacionaria, para explicar las observaciones de la radiación del fondo cósmico de microondas, así como la estructura a gran
escala del universo, las observaciones realizadas de supernovas, y la
influencia de la materia y la energía oscura en la evolución del cosmos, arrojando luz sobre la explicación de la expansión acelerada del
universo.
Es el modelo conocido más simple que está de acuerdo con todas las
observaciones.
Sin embargo, ΛCDM es tan solo un modelo (figura 6.38). Los cosmólogos anticipan que todas estas presunciones no serán conocidas
exactamente, hasta que no se conozca más sobre la física fundamental, particularmente, sobre la inflación cósmica no obstante la coincidencia de los resultados obtenidos del modelo con las observaciones es
extraordinaria.

290

CAPÍTULO 6

Fluctuaciones de temperatura (μ K2)

Momento multiplo,L
2

10

50

500

1 000

6 000

1 500

2 000

2 500

ESA & Planck Colab.

Λ CDM

5 000

Datos de Planck

4 000
3 000
2 000
1 000
0

90°

18°



0,2°

0,1°

0,07°

Escala angular
Fig. 6.38 Espectro de potencias del fondo cósmico de microondas. Valores
medidos por Planck y correspondencia con el modelo ΛCDM

El futuro del universo de acuerdo con la teoría del Big Bang
Antes de las observaciones de la energía oscura, los cosmólogos consideraron dos posibles escenarios para el futuro del universo. Si la densidad de materia-energía del universo es mayor que la densidad crítica,
entonces este alcanzaría un tamaño máximo y luego comenzaría a colapsarse, se haría más denso y más caliente nuevamente, terminando en
un estado similar al estado en el cual empezó en un instante llamado
Big Crunch.
Por otro lado, si la densidad de materia-energía en el universo es menor o igual a la densidad crítica, la expansión nunca se detendría. La formación de estrellas cesaría mientras el universo en crecimiento se haría
menos denso cada vez. El promedio de la temperatura del universo podría
acercarse asintóticamente al cero absoluto (0 K o -273,15 °C). Los agujeros
negros se evaporarían por efecto de la radiación de Hawking. La entropía
del universo se incrementaría hasta el punto en que ninguna forma de
energía podría ser extraída de él, un escenario conocido como muerte térmica. Más aún, si existe la descomposición del protón (TGU), proceso por
el cual un protón decaería a partículas menos masivas emitiendo radiación
en el proceso, entonces todo el hidrógeno, la forma predominante de la

291

FÍSICA
materia bariónica en el universo actual, desaparecería a muy largo plazo,
dejando solo radiación.
Las observaciones modernas de la expansión acelerada implican que
cada vez una mayor parte del universo visible en la actualidad quedará
más allá de nuestro horizonte cosmológico y fuera de contacto. Se desconoce cuál sería el resultado de este evento. El modelo ΛCMD del universo
contiene energía oscura en la forma de una constante cosmológica (de
alguna manera similar a la que había incluido Einstein en su primera versión de las ecuaciones de campo). Esta teoría sugiere que solo los sistemas
mantenidos gravitacionalmente, como las galaxias, se mantendrían juntos, y ellos también estarían sujetos a la muerte térmica a medida que el
universo se enfriase y expandiese (figura 6.39).

Fig. 6.39 Presente y futuro del universo según el modelo ΛCMD

Otras explicaciones de la energía oscura sugieren que los cúmulos de
galaxias y, finalmente, las galaxias mismas se desgarrarán por la eterna
expansión del universo, en el llamado Big Rip (Gran desgarramiento).
A pesar de que el modelo del Big Bang se encuentra bien establecido
en la cosmología, es probable que se redefina en el futuro. Se tiene muy
poco conocimiento sobre el universo más temprano, durante el cual se
postula que ocurrió la inflación. También es posible que en esta teoría
existan porciones del universo mucho más allá de lo que es observable
en principio. En la teoría de la inflación, esto es un requisito. La expansión exponencial ha empujado grandes regiones del espacio más allá

292

CAPÍTULO 6
de nuestro horizonte observable. Puede ser posible deducir qué ocurrió
cuando tengamos un mejor entendimiento de la física a altas energías.
Las especulaciones hechas al respecto, por lo general involucran teorías
de gravedad cuántica.

Comprueba tus conocimientos
38. ¿Estará el Universo en expansión para siempre?
39. ¿Qué es el modelo ΛCDM?
40. ¿Cuál es la confirmación de la expansión acelerada del universo?
41. ¿Cuál es el futuro del universo de acuerdo con el modelo ΛCDM?

6.5 La estructura del universo observable
La palabra Universo proviene del vocablo latino Universus compuesta
de Unus que significa “uno” y “versus” que quiere decir “girado o convertido”; es decir: “Uno y todo lo que lo rodea”.
Universo en nuestros días significa la totalidad del espacio y del tiempo, y de todas las formas de existencia de la materia, junto a todas las leyes
y constantes físicas que las gobiernan. Sin embargo, el término también se
utiliza en sentidos contextuales ligeramente diferentes, y habitualmente
es usado como sinónimo de cosmos, mundo o naturaleza.
Se ha considerado que el proceso de Singularidad-Explosión-Inflación
y formación de un universo puede haber ocurrido muchas veces, pues la
teoría arroja la posibilidad de que existan numerosas Burbujas-Universos y
que el nuestro sea solo una de ellas. Al conjunto de burbujas universos se
le denomina Multiverso.
Es útil en lo sucesivo delimitar el sentido de varios términos que se usan
frecuentemente en la ciencia del universo como son: mundo, universo,
universo visible y universo observable.
Los astrofísicos distinguen entre el universo visible, el cual incluye solo
la recepción de señales emitidas desde la época de recombinación12 y el
universo observable, que incluye la recepción de señales desde el comienzo de la expansión cosmológica (el Big Bang en la cosmología tradicional,
y el fin de la época inflacionaria en la cosmología más moderna). La dife12

La época de recombinación ocurre 380 000 años después del Big Bang. Es el momento en que el universo se hace transparente a la radiación electromagnética.

293

FÍSICA
rencia entre estos dos límites cosmológicos es una distancia que se acerca
a 900 millones años luz, y que es igual a la diferencia entre el radio del
“universo observable” y el radio del “universo visible”.
Se suele hablar de “observable” como sinónimo de “detectable”, y
de “visible” como sinónimo de “luz detectable (ondas electromagnéticas
detectables)”.
El universo observable constituye la parte detectable (teóricamente)
del “universo total”. Este límite está definido por el carácter finito que
tiene la velocidad de propagación de las interacciones, igual a la velocidad
de la luz en el vacío un hecho establecido por la relatividad especial.
El universo observable está conformado por todos los objetos materiales y las señales que emanan de ellos, de modo que, en principio, puedan ser observadas en la actualidad desde la Tierra, porque esas señales
han tenido tiempo de alcanzarnos desde el comienzo de la expansión
cosmológica.
La palabra observable usada en este sentido no depende en sí, de que
tecnología moderna usemos para la detección de la señal de un objeto (o
de si existe una señal para detectar). Simplemente señala si sería posible
en principio que las señales procedentes de un objeto cósmico alcancen a
un observador en la Tierra hoy.
Asumir que es isótropo, implica que la distancia hasta su borde es la
misma en todas direcciones, por esta razón, es un volumen esférico (una
esfera) con centro en el observador, y cada posición de observación en el
Universo tiene su propio universo observable. No existe un centro o lugar
privilegiado en el Universo.
En la práctica, podemos observar luz solo desde el momento del tiempo en el que los fotones se desacoplaron de la sustancia, en la época de
la recombinación. Es el momento en que las primeras partículas pudieron
emitir fotones que no fueron rápidamente reabsorbidos por otras partículas. Antes de ese momento, el universo estaba lleno de un plasma que
resultaba opaco para los fotones. La detección de ondas gravitacionales
es ahora una posibilidad, para recibir señales desde una época anterior a
la época de la recombinación.
Se llama superficie de la última dispersión a aquella que está formada
por la colección de puntos, en el espacio, situados a la distancia exacta
para que los fotones que se desacoplaron justamente en la época de la
recombinación nos alcancen hoy.

294

CAPÍTULO 6
Esta superficie es el límite del universo visible y la distancia hasta ella
constituye el radio del universo visible de allí provienen los fotones que
detectamos en la actualidad como radiación de fondo cósmico de microondas (CMB). Sin embargo, con tecnología futura podría lograrse observar los neutrinos relictos que son más antiguos que la radiación del
fondo cósmico de microondas, o acontecimientos todavía más distantes en
el tiempo a través de las ondas gravitacionales.
Debido a la expansión del espacio los humanos observamos objetos que estaban originalmente mucho más cercanos, y que ahora se
encuentran considerablemente mucho más lejos que a una distancia
estática de 13 800 millones años luz (si definimos la estimación en términos de la correcta distancia cosmológica, la cual debe ser igual la distancia comovil13 en este momento). Es por ello que el diámetro estimado del
universo observable se acerca a los 93 000 millones años luz14 (8,8 · 1026 m),
es decir, existe un radio 46 500 millones años luz desde nuestro lugar de
observación hasta el borde del universo observable.15
Algunas partes del universo se encuentran tan lejos que las señales
emitidas desde el Big Bang no han tenido tiempo suficiente de llegar a
nosotros, por lo que estas regiones del universo se encuentran fuera del
universo observable. En el futuro, la luz de estas galaxias distantes que
han tenido más tiempo para viajar, desde estas regiones podrían hacerse
observables. Sin embargo, debido a que la velocidad de alejamiento es
directamente proporcional a la distancia hasta las galaxias, para regiones
suficientemente distantes de nosotros la expansión del espacio podría ser
más rápida que la velocidad de la luz (hecho no prohibido por la relatividad especial) además, la tasa de expansión parece estar acelerándose
debido a la energía oscura.
Suponiendo que la energía oscura (una constante cosmológica que no
cambia) se mantenga constante, de manera que la velocidad de expansión
del Universo continúe acelerándose, implicaría que hay un “futuro límite de la visibilidad” más allá del cual los objetos no entrarán en nuestro
universo observable en cualquier momento del futuro infinito, porque las

13

Las coordenadas comóviles son aquellas que se expanden con el universo.

14

Un año luz es una medida de distancia, igual a la distancia recorrida por la luz en un
año, que es igual a 9,64 · 1012 km.

15

El universo observable es por tanto finito.

295

FÍSICA
señales emitidas por los objetos externos a ese límite nunca llegarían a
nosotros.
Comparemos un modelo de expansión desacelerada del universo (figura 6.40, arriba) y uno en expansión acelerada (figura 6.40, abajo). Considerando que la esfera de referencia es proporcional al factor de escala. En el
caso de un universo cuya expansión se desacelera, el universo observable
aumenta proporcionalmente con el tiempo.

Fig. 6.40 Horizonte del universo observable

Es decir, en un Universo desacelerado el universo observable aumenta
más rápidamente que el factor de escala, con lo que cada vez podemos
detectar una mayor parte del Universo.
En cambio, en un universo en expansión acelerada, la escala aumenta
de manera exponencial mientras el universo observable aumenta de la
misma manera que en el caso anterior. La cantidad de objetos que podemos detectar disminuye con el tiempo y el observador termina por quedar
aislado del resto del Universo (al parecer este será el caso de nuestro universo real).
Consideraremos el universo observable y el universo visible como parte
del universo total, y al universo total como parte del mundo. Un convenio
útil cuando nos referimos al universo total sería usar la palabra Universo
con mayúscula en cambio al referirnos a la parte observable y a la parte

296

CAPÍTULO 6
visible podemos usar el término universo con minúscula. Por Universo total
comprendemos la región del mundo que incluye el universo observable, el
visible y que posee la misma estructura que estos.
Por ejemplo, el universo observable es homogéneo e isótropo a gran
escala en todo su espacio. Consideramos así también el Universo total
como homogéneo e isótropo, pues admitimos que el Universo ocupa una
región en la que se conservan estas y otras propiedades vigentes en el
universo observable.
Es evidente que no disponemos de los datos de las observaciones directas de todo el Universo o Universo total. En particular las observaciones no
pueden indicarnos cuán lejos este se extiende.
En lo que se refiere al Mundo, se debe convenir en que este, hablando
en general, es un término superior al Universo, pues no existe fundamento
para afirmar que todo el mundo está construido de forma semejante al
universo observable, al universo visible o al Universo total, siendo esto así,
el Universo y el mundo simplemente coincidirían, lo cual ocurriría solo en
un caso particular.
La posibilidad general imaginable consiste en que, en el mundo puedan existir también otras regiones, cuya estructura podría diferenciarse de
la estructura del Universo. De modo que sin limitarnos a un caso particular,
debemos suponer que en el mundo pueda encontrarse tal diversidad que
el término mundo se corresponda no solo con un Universo, sino con varios,
muchos o incluso un número infinito de Universos diferentes (Multiverso).
El hecho de que no podamos observar por ahora estos otros Universos no
debe restringir el pensamiento científico pues, aunque no sea de manera
directa sino mediante métodos teóricos, es posible convertir otros Universos en objeto de estudio.
Las estructuras en la gran escala del universo observable. La red
cósmica
El término estructura en la gran escala se refiere a la caracterización
de las distribuciones observables de materia y luz en las mayores escalas
(típicamente del orden de miles de millones años luz).
Estudios del cielo en distintas longitudes de onda de la radiación electromagnética (en particular, en la longitud de onda de 21 cm) han permitido obtener mucha información sobre el contenido y el carácter de la
estructura del universo observable.

297

FÍSICA
La organización de las estructuras parece seguir un modelo jerárquico con organización demostrada hasta la escala de los supercúmulos de
galaxias.
Aunque muchos astrofísicos intuyen que existe un nivel superior de jerarquía formado por los complejos de supercúmulos (hipercúmulos) que
tejen las paredes, los nudos y los filamentos de la red cósmica. En escalas
mayores de unos 307 Mpc, no parece haber estructuras continuas y diferenciadas, un fenómeno que se ha denominado el Fin de la Grandeza.16
• El medio intergaláctico: el medio intergaláctico es el que existe entre
las galaxias y entre los cuásares, está conformado por el gas difuso que
conecta las galaxias a través del universo, una red de filamentos pequeños y grandes entrecruzándose a través de la inmensidad del espacio y,
cuya estructura, hasta ahora, había sido únicamente fruto de la especulación. Con el Cosmic Web Imager desplegado en el telescopio Hale
de 200 pulgadas, del Observatorio del Monte Palomar (EE. UU.) se han
empezado a obtener las primeras imágenes tridimensionales del medio
intergaláctico. La “materia tenue”, como han calificado al gas difuso
que conforma el medio intergaláctico, es bastante difícil de ver. Los
primeros filamentos cósmicos observados están en la vecindad de dos
objetos muy brillantes y estos filamentos afectan a su dinámica.
Desde finales de los años 80 y principios de los 90, los teóricos habían
venido pronosticando que el gas primigenio del Big Bang no está distribuido uniformemente a través del espacio, sino que se encuentra en canales
o filamentos que abarcan galaxias y que fluyen entre ellas. Esta “telaraña cósmica” (figura 6.41) es una red de filamentos de diversos tamaños

16

Sin embargo, a pesar de esto, algunas estructuras que superan esta escala se han
encontrado en años recientes, como el LQG de Clowes-Campusano, descubierto en
1991, tiene 630 Mpc de largo, y es marginalmente mayor que la escala. La Gran Muralla Sloan, descubierta en 2003, ocupa una longitud de 423 Mpc, e igualmente es
marginalmente mayor que la escala. U1.11, otro gran grupo de cuásares, descubierto
en 2011, tiene 780 Mpc de largo y es dos veces mayor que la escala. El Huge-LQG
(Huge Large Quasar Group, o Enorme Gran Grupo de Cuásares), descubierto en 2012,
tiene una longitud de 1,24 Gpc, y es tres veces mayor que el límite superior de la
escala de homogeneidad. La Gran Muralla de Hércules-Corona Boreal, es más de
ocho veces mayor que la escala, y supera por mucho la escala de homogeneidad. De
acuerdo con esto, la estructura de estas regiones sería aún heterogénea comparada
con otras partes del universo, aun a la escala del «Fin de la Grandeza», poniendo,
entonces, al principio cosmológico en duda.

298

CAPÍTULO 6
entrecruzándose unos con otros a través de la vastedad del espacio. La
arquitectura de esta red se remonta muy hacia atrás en el tiempo, en la llamada “Edad Oscura” cuando las primeras galaxias se estaban formando. Al
parecer su tejido está determinado por la distribución de la materia oscura
en el universo, el cual actuó como un esqueleto alrededor del cual se agrupó
luego la materia visible.

Fig. 6.41 La red cósmica

Los dos objetos observados fueron: un quásar etiquetado QSO 1549 19
y la llamada burbuja Lyman alfa en un cúmulo de galaxias conocido como
emergente SSA22.

299

FÍSICA
Sendos objetos fueron elegidos por Christopher Martin, creador del
Cosmic Web Imager, para las observaciones iniciales y corresponden con
una edad de 2 000 millones de años después del Big Bang.
Otra forma de estudiar el medio intergaláctico es a través del llamado
bosque Lyman-alfa un conjunto de líneas de absorción que aparecen entre
la transición Lyman-alfa del hidrógeno neutro y la localización desplazada
al rojo de esta transición, en el espectro de un cuásar o una galaxia lejana.
Estas líneas de absorción se producen por las nubes de hidrógeno neutro que se encuentran entre nosotros y el objeto distante.
Se conoce que producto de la expansión del universo la mayoría de
las galaxias y cuásares presentan un desplazamiento al rojo de sus líneas
espectrales proporcional a la distancia a la que se encuentran de nosotros.
Al encontrarse la luz emitida por el cuásar con una nube de hidrógeno se
produce una absorción Lyman-alfa al desplazamiento al rojo que le corresponde a la nube (figura 6.42). De esta manera vemos distintas líneas de
absorción, correspondientes a nubes a distintas distancias. El conjunto de
estas líneas (bosque) se encuentra entre la línea Lyman-alfa del cuásar y
la zona en la que se encontraría la línea a una distancia nula (sin desplazamiento al rojo; 121,6 nm) Este bosque de líneas nos permite comprobar
las propiedades del medio intergaláctico al poder observar regiones que
de otro modo serían imposibles de detectar. Estas regiones se encuentran
a distintas distancias y muestrean distintas edades del universo, de esta
manera se pueden usar para realizar estudios cosmológicos.

Fig. 6.42 Nubes de hidrógeno en el medio intergaláctico

300

CAPÍTULO 6
La densidad de líneas en el bosque de Lyman-alfa aumenta con el desplazamiento al rojo (z), hasta que a z ~ 6 hay tanto hidrógeno neutro en
el medio intergaláctico que las líneas de absorción se funden en un solo
canal. La aparición de este efecto señala el fin de la época de reionización
del universo.
La organización de las estructuras en el universo podría decirse que
comienza en el nivel estelar, aunque la mayoría de los cosmólogos rara vez
abordan la astrofísica en esa escala.
Las estrellas se organizan en galaxias, los grupos de galaxias forman
los cúmulos de galaxias, estos en una jerarquía superior conforman los
supercúmulos, y se sospecha la existencia de un estadio estructural todavía
mayor: los complejos de supercúmulos llamados hipercúmulos, que definitivamente se encargarían de articular los nudos, paredes y filamentos,
de una colosal red cósmica que se encuentran separados por inmensos
espacios vacíos, de esta forma en la gran escala se crea un vasto panorama
similar a su estructura de un medio espumoso (red cósmica).
Anterior a 1989, se asumía comúnmente que los supercúmulos de galaxias eran las estructuras más grandes que existían en el universo observable, y que estos estaban distribuidos más o menos uniformemente en
todas las direcciones. Sin embargo, desde principios de la década de 1980,
se han descubierto más y más estructuras superlativas.
En 1983, Adrian Webster identificó la llamada Webster LQG, un gran
grupo que consta de cinco cuásares17, su descubrimiento, fue la primera
identificación de una estructura manifiesta en la gran escala, este hallazgo
amplió la información sobre la agrupación de la materia conocida en el
universo observable.
En 1987, el astrofísico Robert Brent Tully identificó el complejo de supercúmulos de Piscis-Cetus, que conforma el filamento de la red cósmica
en el que reside el supercúmulo Hidra-Centauro, el supercúmulo de Virgo,
nuestro grupo local y la Vía Láctea (la galaxia donde se encuentra el Sol
y el sistema Solar), con extensión aproximada de 1 millón años luz de un
lado a otro. Ese mismo año, se descubre una región inusualmente grande
sin galaxias, un vacío gigante, que mide 1,3 mil millones años luz de lado
a lado.

17

Cuásar es el acrónimo de la frase inglesa fuente de radio cuasi estelar.

301

FÍSICA
Con base en datos de encuestas de corrimiento al rojo, en 1989, Margaret Geller y John Huchra descubrieron la Gran Pared, una enorme muralla
de galaxias con más de 500 millones años luz de largo, ancho que llega a
200 millones años luz, pero de solo 15 millones años luz de grueso. La existencia de esta estructura pasó inadvertida durante mucho tiempo, ya que
requiere la localización de la posición en tres dimensiones, lo que implica
la combinación de información sobre la ubicación de las galaxias con la
información las distancias obtenidas mediante los desplazamientos al rojo.
Dos años después, los astrónomos Roger G. Clowes y Luis E. Campusano
descubrieron el Clowes-Campusano LQG, un gran grupo de cuásares de
dos mil millones años luz en su punto más ancho, y que fue la estructura
más grande conocida en el universo en el momento de su anuncio.
En abril de 2003, otra inmensa estructura en la gran escala fue descubierta, la Gran Muralla Sloan con 1 370 millones años luz de longitud. Uno
de los mayores vacíos del espacio parecía ser el vacío de Capricornio, con
un diámetro estimado de 230 millones años luz. Sin embargo, en agosto
2007, se detectó un posible supervacío en la constelación Eridanus, que
coincide con la gran mancha fría del fondo cósmico de microondas, una
región más fría en el cielo de microondas cuya aparición es altamente improbable en el marco del modelo cosmológico actualmente favorecido.
Otra estructura en la gran escala es el Newfound Blob, una colección de
galaxias y enormes burbujas de gas de 200 millones años luz de diámetro.
En 2011, se descubrió un gran grupo de cuásares, que mide alrededor de
2,5 millones años luz de diámetro.
El 11 enero de 2013, otro gran grupo cuásares, el Huge-LQG, fue descubierto, sus dimensiones resultaron ser de cuatro mil millones años luz de
diámetro, la mayor estructura conocida hasta ese momento.
En noviembre de 2013, los astrónomos descubrieron la Gran Muralla
Corona Borealis-Hércules, una estructura aún más grande (el doble de
grande que la primera) que se logró definir mediante mapeo de explosiones de rayos gamma.
El 15 de marzo de 2016, un equipo científico, liderado por el Instituto de Astrofísica de Canarias, ha descubierto uno de los hipercúmulos de
galaxias más lejano y masivo que se conoce: el BOSS Great Wall (BGW).
Según ha señalado la autora principal de la investigación, Heidi Lietzen,
probablemente no haya otro sistema parecido tan claramente aislado y
con un tamaño similar.

302

CAPÍTULO 6
Los resultados del estudio revelan la presencia del sistema BGW, con un
diámetro aproximado de 900 millones años luz, formado por dos supercúmulos y dos muros galácticos posiblemente más grandes en volumen y en
diámetro que cualquier otro hipercúmulo conocido.

Comprueba tus conocimientos
42. Define mundo, Universo, universo visible y universo observable.
43. Describe la estructura del universo observable.
44. ¿Qué significa en cosmología el término estructuras en la gran
escala?

45. ¿Qué es la red cósmica y cuál es su importancia para el estudio de la
evolución del universo?

46. ¿Qué es el bosque Lyman-alfa?
47. ¿Qué es la Gran Pared?

6.6 Cosmografía de nuestro vecindario cósmico
Con el nombre de Laniakea ha sido bautizada la región del universo
observable en la que se agrupan los supercúmulos vecinos al de Virgo (figura 6.40). Ha sido definido en septiembre de 2014, cuando astrónomos
de la Universidad de Hawái liderados por Brent Tully, publicaron una nueva forma de definir el término de supercúmulo conforme a las velocidades
relativas de las galaxias.
El nombre Laniakea significa en hawaiano “Cielos inconmensurables”
fue propuesto por David Nawa’a Napoleón, profesor de lengua hawaiana
en la Universidad de Hawái, en honor de los navegantes polinesios y su
conexión con el firmamento. Es una región que agrupa cuatro grandes
supercúmulos de galaxias relativamente próximos entre sí:
• Supercúmulo de Virgo: el Grupo Local y la propia galaxia de la Vía Láctea que forma parte de este.
• Supercúmulo Hidra-Centauro, que distingue entre El Gran Atractor (lugar cercano a la constelación de Norma que es el centro gravitacional
del sistema) y La Gran Muralla de Antlia o Cúmulo de Hidra.
• Supercúmulo del Centauro.
• Supercúmulo meridional, que incluye el cúmulo del Horno o Fornax
S373, Cúmulo del Dorado y Cúmulo de Eridano.

303

FÍSICA
Al igual que otras regiones similares formadas por agregados
de varios supercúmulos, ni es compacta gravitacionalmente ni está
perfectamente definida, es probable que la materia oscura la haga
evolucionar hacia una disgregación y fractura de las partes que la
componen.
Dimensiones
Laniakea posee un tamaño aproximado de 160 Mpc o 520 millones de
años luz, lo que hace que sea casi un 4 % del total del universo observable.
Vecindad
Laniakea se dirige en dirección al Gran Supercúmulo de Shapley y se
especula que ambos supercúmulos puedan formar parte de un complejo
mayor. Otras grandes regiones próximas, además de la Región de Shapley
son los grandes supercúmulos: Hércules, Coma y el supercúmulo de Perseo-Piscis. El Grupo Local, así como la galaxia de la Vía Láctea y el Sistema
Solar, están en una zona muy periférica de Laniakea (figura 6.43) y por lo
tanto, alejados del Gran Atractor.

Fig. 6.43 La región de Laniakea

304

CAPÍTULO 6
El Supercúmulo de Virgo, o Supercúmulo Local, es el supercúmulo de
galaxias que contiene al Grupo Local y con él, a nuestra galaxia, la Vía Láctea. Tiene la forma de un disco plano, con un diámetro de unos 200 millones años luz. El supercúmulo contiene alrededor de 100 grupos y cúmulos
de galaxias, y está dominado por el cúmulo de Virgo, localizado cerca de
su centro. El Grupo Local está localizado cerca del borde del cúmulo de
Virgo, al cual es atraído.
La longitud del supercúmulo de Virgo es de aproximadamente 33 Mpc
(107 millones años luz), en comparación el Grupo Local tiene 1 Mpc de longitud máxima. Este supercúmulo es uno de muchos que existen a lo largo
del universo observable.
Por el efecto gravitatorio que ejerce en el movimiento de las galaxias,
se estima que la masa total del Supercúmulo de Virgo es de 1015 masas
solares, 2,0 · 1046 kg. Debido a que su luminosidad es demasiado pequeña
para esa cantidad de estrellas, se piensa que una cantidad considerable de
su masa está compuesta de materia oscura.
Una anomalía gravitacional conocida como el Gran Atractor existe en
alguna parte dentro del supercúmulo local. Desde la década de 1980 ha
sido evidente que no solo el Grupo Local, sino toda la materia a una distancia de al menos 50 Mpc está experimentando un flujo en masa del orden
de 600 km/s en dirección al Cúmulo de Norma (Abell 3627). Lynden-Bell,
en 1988, definió la región por esta causa como el Gran Atractor. Aunque
los astrónomos están seguros de la velocidad del supercúmulo local, que
se ha medido contra el Fondo Cósmico de Microondas (CMB), la naturaleza
de los cuerpos que están provocando una atracción de tal magnitud sigue
siendo poco conocida.
La galaxia Vía Láctea, o simplemente Vía Láctea es una galaxia espiral barrada 18 en la que se encuentra el Sistema Solar y, por lo tanto, la Tierra (figura 6.44). Según las observaciones, posee una masa de
1012 masas solares. Su diámetro medio se estima en unos 100 000 años
luz, equivalentes a casi un trillón y medio de kilómetros (1,42 · 1018 km) o
9,48 ·109 ua.

18

Galaxia espiral que posee una sección central donde las estrellas se agrupan en forma de barra.

305

FÍSICA

Fig. 6.44 Localización del Sistema Solar en la Galaxia Vía Láctea

Se calcula que contiene entre 200 000 millones y 400 000 millones de
estrellas. La distancia desde el Sol hasta el centro de la galaxia es de alrededor de 8 500 pc, unos 27 710 años luz, es decir, el 55 % del radio total
galáctico.
La Vía Láctea forma parte de un conjunto de unas cuarenta galaxias llamado Grupo Local, en el cual es la segunda más grande y brillante después
de la Galaxia de Andrómeda (aunque esta puede ser la más masiva, como
lo muestra un estudio reciente).
El nombre Vía Láctea proviene de la mitología griega y en latín significa “camino de leche”. Esa es, en efecto, la apariencia de la banda de luz
que rodea el firmamento, y así lo afirma la mitología griega, explicando
que se trata de leche derramada del pecho de la diosa Hera (Juno para los
romanos). Sin embargo, ya en la Antigua Grecia, el astrónomo Demócrito
(460-370 a.n.e.) sugirió que aquella región blanquecina en el cielo era en
realidad un conglomerado de muchísimas estrellas demasiado tenues individualmente como para ser reconocidas a simple vista.
Su idea, no obstante, no halla respaldo hasta 1609 cuando el astrónomo Italiano Galileo Galilei hace uso del telescopio y constata que Demócrito estaba en lo cierto, ya que a donde quiera que mirase, en esa región, se
encontraba llena de estrellas.

306

CAPÍTULO 6

Comprueba tus conocimientos
48. ¿Cómo está conformada Laniakea?
49. ¿Qué es el grupo local y cómo se compone este?
50. ¿Qué posición ocupa el Sistema Solar en la galaxia Vía Láctea?

6.7 La composición del universo observable
• Los Cuásares. Los objetos más lejanos detectados del universo observable se llaman cuásares (un acrónimo derivado de la frase Fuente de
Radio Cuasi-Estelar (en inglés de quasistellar radio source) son potentes fuentes de energía electromagnética, que incluye radiofrecuencias
y luz visible. La energía de emisión de los cuásares hace empequeñecer a casi todos los fenómenos astrofísicos conocidos en el universo,
los astrónomos piensan que son versiones muy luminosas de una clase
general de objetos conocida como galaxias activas. No se conoce con
exactitud el mecanismo que parece explicar la emisión de tan gran cantidad de energía y su variabilidad rápida en el núcleo de los cuásares,
pero según las hipótesis más aceptadas podría tratarse de agujeros negros supermasivos (una región en la que la gravedad es tan fuerte que
ni la luz puede salir de ella), con cientos de millones de masas solares.
• Las galaxias. Las galaxias son grandes sistemas gravitacionales conformados en primer lugar por estrellas: que conforman el 90 % del total de la
masa de la galaxia (sin considerar la materia oscura), los agujeros negros
supermasivos constituyen la maquinaria central de la formación y de la
dinámica de las galaxias, pues se cumple regularmente que cada uno
de ellos constituye el 0,5 % de la masa de su galaxia, a mayor masa del
hueco negro supermasivo mayor masa tiene la galaxia, y mayores son las
velocidades de las estrellas más distantes al centro. Las galaxias normales
como la nuestra y la vecina Andrómeda también tienen huecos negros
supermasivos centrales, pero no son activos, pues hay poco material cayendo en ellos, aunque tienen una masa de millones de masas solares.
En las galaxias activas que presentan intensa emisión en rayos X, se considera que gran cantidad de estrellas y otros componentes de la galaxia están
en un proceso acreción y caída hacia el hueco negro central. En los cuásares se conoce que los agujeros negros son aún de mayores dimensiones.
El medio interestelar se encuentra entre las estrellas de la galaxia, está
conformado por gas neutro que casi todo es hidrógeno -elemento

307

FÍSICA
predominante en todo el cosmos-; también existe en el medio interestelar gas molecular constituido por moléculas de dos o más átomos, que,
en general, posee una masa aproximada igual o menor que el 1,0 % de la
masa de las estrellas de la galaxia; adicionalmente, existe gas ionizado o
plasma formado por partículas cargadas eléctricamente, su masa es menor que el 0,01 % de la masa estelar de la galaxia y del polvo interestelar
-granos de polvo sólido de 10-5 cm de radio, en los que predominan los
carbonos y silicatos, absorben y emiten energía como un receptor-emisor
ideal-, su masa es menos del 0,00001 % de la masa estelar de la galaxia.
• Las estrellas y los sistemas planetarios. Las estrellas son objetos gaseosos autoconfinados gravitacionalmente, en cuyo interior tienen lugar
reacciones nucleares de fusión de forma espontánea.
Como las especies y las civilizaciones humanas, las estrellas no son eternas, tienen un origen, una estructura y una producción de energía en su
interior, nacen y evolucionan hasta que al emitir toda la energía que son
capaces de producir, dejan de existir. Su origen se produce en el interior
de las nebulosas gaseosas; desarrollan su vida como verdaderas estrellas
en la forma luminosa que nos es común; y terminan, ya sea apagándose
lentamente o en una apoteósica explosión. Las estrellas son máquinas
admirables, productoras de campos electromagnéticos y de elementos
pesados, que conforman los planetas, y nuestros cuerpos. Son el más
maravilloso ejemplo de organización espontánea y de sistema autorregulado. Ellas son el resultado de la acreción del gas que se encuentra
esparcido por todo el universo -actualmente compuesto de hidrógeno
(76 %) y helio (24 %)-, y enriquecido por los elementos producidos por
las generaciones de estrellas que a lo largo del tiempo han cumplido su
ciclo evolutivo. El Sol es una estrella como tantas otras que existen en la
galaxia y se encuentra aproximadamente en la mitad de su vida.
Las escalas para medir las estrellas toman como referencia a nuestra estrella, así pues, las masas de las estrellas se expresan, generalmente, en
masas solares y su luminosidad (que es la cantidad de energía que radia
la estrella) es expresada en un número de veces la luminosidad del Sol
(L⊙). De esta forma, la masa de una estrella se encuentra ordinariamente entre los valores de 0,06 a 150 masas solares en un límite teórico. Por
debajo de 0,08 masas solares no se alcanza la temperatura en el núcleo
(~ 3 · 106 K), que permite el inicio de las reacciones termonucleares en
el interior de la estrella.

308

CAPÍTULO 6
El color de las estrellas está relacionado con su temperatura, al igual
que ocurre cuando se calienta el hierro en las fundiciones al aumentar la temperatura se pasa del rojo al amarillo, posteriormente al azul
hasta alcanzar el blanco. Al descomponer la luz de las estrellas en su
espectro, podemos conocer con precisión la temperatura de su superficie. Los espectros estelares se han clasificado en siete tipos principales
que se designan en orden decreciente de temperaturas por las letras:
O – B – A – F – G – K – M.
Las O son estrellas blancas azuladas con temperaturas superficiales de
38 000 K, y las M son rojas con temperaturas superficiales de unos 2 660 K.
Cada clase se subdivide en 10 subclases de acuerdo con las características
de sus espectros, por ejemplo, desde G0 hasta G9, el espectro del Sol es
de la clase G2.
La luminosidad de las estrellas varía de 0,0004 a 107 veces la del Sol y
no solo depende de su temperatura, sino también de su tamaño; para
compararlas se utiliza la magnitud relativa, o aparente, que tendría una
estrella si se encontrara a la distancia patrón de 10 pc (32,6 años luz) de
la Tierra, que definimos como magnitud absoluta. Resulta de gran utilidad la comparación de su luminosidad con relación a su temperatura o
color, mediante la construcción de un diagrama con la luminosidad de las
estrellas en el eje vertical y la temperatura superficial en el eje horizontal, que es el Diagrama Hertzprung-Russell (figura 6.45), el cual permitió
descubrir la distribución de las estrellas según sus características, en 1911.

Fig. 6.45 Diagrama de Hertzsprung-Russell

309

FÍSICA
• El medio interestelar. El medio interestelar, es el contenido de materia-energía que existe entre las estrellas, dentro de una galaxia. El medio interestelar desempeña un papel crucial en astrofísica a causa de
su situación entre las escalas estelar y galáctica. Las estrellas se forman
dentro de regiones frías del medio interestelar, al tiempo que estas reponen materia interestelar, lo que equivale a un átomo de hidrógeno
por centímetro cúbico aproximadamente. Dicho medio lo conforman
tres constituyentes básicos: materia ordinaria, rayos cósmicos y campos
magnéticos.
El medio en sí es una mezcla heterogénea de polvo. La materia está
compuesta a su vez de alrededor de un 99 % en masa por partículas de
gas, y un 1,0 % por polvo. La composición química del gas, de acuerdo
con la nucleosíntesis primordial, es en masa, 75 % de H-1, 25 % de He-4
y un 0,01 % de deuterio, y muy poco (en el orden de 10-10) de litio y
berilio, comúnmente llamados metales en la jerga astrofísica. Una fracción significativa de estos metales condensan en forma de granos de
polvo en las regiones más densas y frías del medio interestelar.
La presencia del oscurecimiento interestelar dio a William Herschel y
a Jacobus Kapteyn la falsa impresión de que nuestro Sistema Solar se
encontraba cerca del centro de la galaxia. Sin embargo, ese oscurecimiento lo producen las nubes de gas y polvo que se interponen en el
recorrido de la luz de las estrellas y nuestro sistema planetario. Es lo
que se denomina extinción estelar. Este decaimiento de la intensidad
lumínica de las estrellas es causado por la absorción de fotones a ciertas
longitudes de onda.
Por ejemplo, la longitud de onda típica de absorción del hidrógeno
atómico se encuentra a unos 121,5 nm de la transición Lyman-alfa. Por
tanto, es casi imposible ver la luz emitida en esta longitud de onda por
una estrella, porque gran parte es absorbida durante el viaje a la Tierra.
Asimismo, la absorción causada por las nubes de polvo se da, sobre
todo, a longitudes de onda cortas, es decir que el azul se absorbe mejor que el rojo. Esto produce un efecto de enrojecimiento (reddening
en inglés) de la luz, más intenso cuanto más lejana sea la posición de
la fuente. Este es uno de los motivos por los cuales los telescopios de
infrarrojos permiten ver mejor a través de dichas nubes.
Otro efecto interesante es la polarización lineal de la luz, que es debida
a que los granos de polvo no son esféricos sino ligeramente alargados

310

CAPÍTULO 6
por lo que los campos magnéticos tienden a alinearlos a lo largo de sus
líneas de campo. La manifestación de ese efecto puso en evidencia la
existencia de campos magnéticos coherentes en el medio interestelar.
El medio interestelar suele dividirse en tres fases, dependiendo de la
temperatura cinética del gas: muy caliente (millones de kelvin), caliente
(miles de kelvin), y frío (decenas de kelvin). Características importantes
del estudio del medio interestelar incluyen nubes moleculares, nubes
interestelares, restos de supernovas, nebulosas planetarias, y estructuras difusas parecidas.
• Remanentes estelares. Las estrellas normales evolucionan. Una vez que
comienzan las reacciones de fusión de hidrógeno en su núcleo se alcanza un estado de equilibrio, la estrella es estable por muchos años
y mantiene su emisión (luminosidad) y su temperatura superficial, con
valores que la sitúan en la región de la llamada «Secuencia Principal»
en el diagrama de Hertzprung-Russell. Las estrellas pasan la mayor parte de su tiempo en este estado. Mientras más pequeña es la estrella,
más largo será su tiempo de vida en la secuencia principal.
• Estrellas evolucionadas (Gigantes Rojas). Cuando la estrella ha quemado todo el hidrógeno de su núcleo, que se estima en un 10 % de la
masa total de la estrella, la reacción nuclear que convierte el hidrógeno
en helio se detiene, el núcleo se enfría, se rompe el equilibrio entre la
presión hacia el exterior producto del calentamiento del gas, y de la
presión hacia el interior producto de la fuerza de gravedad.
Las capas superiores de la estrella caen hacia su interior abruptamente, provocando un aumento de temperatura en el núcleo de la estrella que, al llegar a los 100 millones de grados, produce la ignición de
otra reacción termonuclear: la del helio en carbono. Y en ese momento
ocurre que la ignición del helio no es capaz de detener la caída de las
capas superiores de la estrella inmediatamente, el núcleo sigue contrayéndose y elevando su temperatura, cuando alcanza los 250 millones
de grados, entonces el helio comienza a quemarse a unas siete veces
la velocidad con que venía haciéndolo, provocando que la estrella se
hinche. El Sol cuando llegue a esa etapa de su vida llegará a tener más
de 3,0 · 108 km de diámetro, por lo que la órbita de la Tierra quedará
por debajo de su superficie.
Este fenómeno de ignición del helio es lo que se conoce como el “flash
del helio”. Esa dilatación abrupta del núcleo ha comprimido las capas

311

FÍSICA
cercanas a este, provocando que se inicie la reacción de conversión de
hidrógeno en helio en la periferia del núcleo, que lo provee de más
combustible, y a su vez refuerza la expansión. Una vez revertida la contracción gravitacional por la expansión de las capas externas, el núcleo
se enfría, y el sistema busca un nuevo estado de equilibrio, en forma
de una estrella con una atmósfera muy extensa, con una temperatura
superficial baja y se denomina gigante roja.
Las estrellas con masas entre 0,5 y 9 masas solares no podrán iniciar las
reacciones que convierten el carbono en oxígeno y neón, y así la estrella terminará en forma de un cadáver estelar llamado enana blanca, al
expulsar sus capas exteriores, dando lugar a una a la formación de una
nebulosa planetaria.
Las estrellas de masa superior a las 9 masas solares continúan un ciclo
evolutivo de sucesivos destellos (flash) y estados estacionarios, hasta
que las reacciones termonucleares empiecen a producir hierro. De esta
forma, la estrella se ha ido estructurando en capas, en las que tienen
lugar reacciones nucleares cada vez más rápidas, energéticas y complejas a medida que nos acercamos al núcleo. El carbono demora en consumirse unos 600 años, el neón un año, el oxígeno seis meses, el silicio
un día, y se detiene en el hierro uno de los elementos más estables que
se conocen en la naturaleza.
¿Qué ocurre entonces en el interior de la estrella masiva?
Si el núcleo está constituido por hierro puro, la nucleosíntesis se detiene, y por tanto la fuerza que se opone a la presión que ejercen las capas
superiores (fuerza de radiación) disminuye casi totalmente. La presión
que ejercen las capas superiores aumenta induciendo un aumento de
temperatura por aumento de la presión. Ese aumento abrupto de temperatura produce un fenómeno llamado fotodisociación, en el cual
cada átomo de hierro se divide en 13 átomos de helio y se emiten cuatro neutrones.
Los electrones de los núcleos de hierro, que formaban el gas cuya presión frenaba la fuerza de gravitación como un fluido incompresible,
ceden y penetran en los núcleos de hierro para formar neutrones. El
núcleo de la estrella se convierte en un hiperdenso caldo de neutrones
en colapso.
Cuando se alcanzan densidades que pueden superar la increíble densidad de un núcleo atómico 1010 t/cm3, y la temperatura se eleva a 1011 K

312

CAPÍTULO 6
el colapso del núcleo interior se frena. La superficie de este rebota hacia afuera con la violencia con la que viajaba hacia adentro, generando
potentes ondas de choque que, en un intrincado proceso, son capaces
de expulsar súbitamente las envolturas exteriores de la estrella. Las capas exteriores intermedias de la estrella masiva, en las que se llevaron a
efecto reacciones nucleares de síntesis de los elementos helio, carbono,
oxígeno, neón, silicio y hierro son expulsadas violentamente al espacio
dando lugar a una gigantesca explosión llamada explosión supernova.
Vista desde afuera la estrella multiplica muchas veces su luminosidad
original, posibilitándonos, si era un objeto relativamente débil observarla, aún si nunca lo habíamos hecho antes.
Como residuo de este violentísimo proceso quedan los restos irregularmente esparcidos de la estrella formando objetos nebulosos conocidos
precisamente como remanentes de supernova. Lo que anteriormente
era el núcleo de la estrella se convierte ahora en un diminuto y denso
objeto que conocemos como estrella de neutrones.
Si la estrella es suficientemente masiva como para alcanzar unas 30 masas solares, se produce una contracción del astro y a una perturbación
del espacio-tiempo tal, que se forma después del estallido lo que llamamos un «hueco negro», una región donde la gravedad es tan fuerte
que ni la luz puede salir de ella. Enanas blancas, pulsares o estrellas de
neutrones, y agujeros negros de origen estelar son conocidos como remanentes estelares.
• La evolución de los sistemas planetarios. La vastedad del universo y la
existencia de millones de objetos en diferentes estadios evolutivos, nos
permiten construir modelos que muestran cómo surgen las estrellas y
sus sistemas planetarios. Las nubes de gas y el polvo interestelar, o nebulosas, constituyen la materia prima que, bajo determinadas circunstancias, da origen a nuevas estrellas. El gas se compone básicamente
de hidrógeno y helio, pero puede contener relativamente pequeñas
cantidades de elementos pesados formados por las reacciones nucleares en el interior de estrellas viejas o que terminaron su ciclo de vida.
Estos elementos son lanzados al espacio por medio del viento estelar
o al estallar las estrellas en procesos explosivos violentos. En su estado
inicial una nebulosa protoestelar es una oscura, turbulenta y fría nube
(10 K a 50 K), con una densidad pequeña si la comparamos con la atmósfera terrestre.

313

FÍSICA
Los campos magnéticos inmersos en la nube tienden a evitar su contracción gravitacional, pero, en algún momento y lugar, una acción
externa puede propiciar la formación de un núcleo de condensación.
Los agentes aglutinadores serían una onda de choque generada por
la explosión de una supernova o un intenso viento estelar de estrellas
vecinas muy energéticas.
Un escenario de este último tipo nos fue revelado en 1997, cuando el
telescopio espacial Hubble obtuvo imágenes de alta resolución de la
nebulosa M16, situada a 5 500 años luz del Sol, en nuestra Galaxia.
En ellas se observan columnas de gas y polvo cuya densidad es suficiente para que el gas colapse por sí mismo, pero la cercanía de estrellas
jóvenes que emiten una intensa radiación ultravioleta provoca la evaporación de sustancia en parte de la nube.
Subsisten pequeños glóbulos o «bolas» de materia respecto al tamaño
de la nube original, pero mayores que el Sistema Solar que son las estrellas en formación.
La protoestrella, propiamente dicha, se forma unos 10 000-200 000
años después de formado el núcleo de condensación. A medida que el
núcleo se comprime más, la sustancia se torna opaca, aumenta la temperatura y comienza a radiar energía.
La nebulosa remanente, que envuelve la protoestrella, posee desde el
inicio del proceso una cierta rotación derivada de su propia turbulencia, pero a medida que es gravitacionalmente atraída por la estrella en
gestación, se contrae y aumenta su giro a fin de conservar el impulso
de giro, el llamado momento angular, de forma análoga a la de una
bailarina de ballet que contrae sus brazos cuando quiere girar con más
rapidez.
Algunos modelos teóricos actuales salvan la objeción que demeritó la
hipótesis de Laplace. Se supone que una buena parte del material que
es atraído hacia la protoestrella no cae directamente en ella, sino que
entra en una órbita a su alrededor de forma similar a la órbita de un
cometa. Formándose un disco o anillo que transporta y redistribuye el
momento angular hacia el exterior, permitiendo a la vez que el material más interno del disco continúe ingresando en la naciente luminaria.
El proceso descrito puede requerir unos 10 millones de años hasta que
el núcleo adquiere la temperatura necesaria para iniciar las reacciones
nucleares y convertirse en una estrella típica.

314

CAPÍTULO 6
La formación de los planetas, se inicia en la nube protoplanetaria o disco protoplanetario (NPP), desde una etapa temprana estos discos han
sido observados alrededor de muchas estrellas.
• Los sistemas planetarios extrasolares. Desde 1988 se conoció la existencia de planetas que orbitan alrededor de determinadas estrellas.
Nuestro conocimiento sobre estos sistemas planetarios, encontrados
fuera del sistema solar, al principio muy incompleto y fragmentado ha
ido crecido considerablemente en los últimos años, lo que permitirá intentar comprender los procesos físicos que intervienen en su formación
y evolución.
Con el desarrollo de las tecnologías de búsqueda también se han
refinado los diferentes métodos para detectarlos y estudiarlos, a la
vez que se proponen nuevas ideas para ordenarlos y clasificarlos de
acuerdo con sus características físicas y astronómicas, lo cual repercutirá en una mejor comprensión de nuestro sistema planetario, y
del lugar que este ocupa en una galaxia que parece estar repleta de
planetas.
Un sistema planetario está conformado por un conjunto de cuerpos
celestes en interacción gravitatoria que se mantienen estables dinámicamente durante períodos de tiempo muy largos y cuyos componentes pueden ser: un sistema estelar, una estrella, o remanente de ella
y todos los planetas, planetas enanos y cuerpos menores que orbitan
alrededor de su baricentro.
La Unión Astronómica Internacional ha definido, desde el 24 de agosto
de 2006, que se debe considerar un planeta a todo cuerpo celeste que
no emite luz propia y que orbita alrededor de una estrella o remanente
de ella, con una órbita bien determinada, lo suficientemente masivo
como para haber alcanzado una forma casi esférica y despejar la vecindad de su órbita del polvo y los desechos del disco protoplanetario del
cual surgió.
Esta definición diferencia a los planetas de los planetas enanos (como
Plutón, Ceres, Eris, Haumea, y Makemake en nuestro sistema solar), los
cuales no adquirieron masa suficiente para limpiar de planetesimales la
vecindad de su órbita.
En el caso de los planetas extrasolares se añade una condición adicional
relacionada con el límite superior de su masa, que no debe exceder en
13 veces el valor de la masa de Júpiter, nuestro mayor planeta, para

315

FÍSICA
que no exista la posibilidad de que en sus núcleos se inicien reacciones
termonucleares que conviertan hidrógeno en helio.
Los objetos subestelares, con masas menores a 0,08 masas solares, con
una temperatura de superficie entre 1 000 K y 2 000 K, que no pueden
fusionar hidrógeno de forma continua, se deben denominar enanas
marrones. Por otra parte, los objetos aislados de masa planetaria, con
masa 0,015 masas solares, como límite inferior, se deben denominar
subenanas marrones.
En los últimos años, la búsqueda de planetas extrasolares se ha convertido en un área de investigación muy dinámica y competitiva, hasta el 2
de septiembre de 2023, según la enciclopedia de planetas extrasolares,
los astrónomos habían detectado 9 820 exoplanetas, 5 502 confirmados
en 4 401 sistemas planetarios.
La mayoría de estos exoplanetas son gigantes similares a Júpiter y a
Neptuno, que orbitan cerca de sus estrellas, aunque ya comienzan
a detectarse un buen número de ellos con masas cercanas a la terrestre
y aún menores. Hasta el 21 de marzo de 2024, se han hallado y confirmado 70 exoplanetas con condiciones potencialmente habitables, de
estos, 29 son planetas rocosos capaces de mantener agua líquida en su
superficie. Los otros 41 pueden ser mundos de agua o minineptunos,
pero el número de casos detectados crece rápidamente con los días.
Los planetas extrasolares al igual que los de nuestro sistema planetario
no emiten luz, reflejan la luz visible que les llega de sus “Soles”, por
ello, brillan mucho más débilmente. Ver la luz proveniente de un planeta distante cerca de su estrella madre es como intentar distinguir la luz
de una linterna que alumbre cercana a un gran reflector. Sin embargo,
los astrónomos se las han arreglado para detectarlos.
Actualmente se utilizan, en general, seis métodos distintos para buscar
planetas extrasolares, los cuales se perfeccionan continuamente, con
el fin de poder detectar planetas de masa y tamaño parecidos a los de
nuestra Tierra.
Después de varios años de búsqueda, los astrónomos han encontrado
que los planetas y los sistemas planetarios en el universo observable
son muy diversos.
Durante años se suponía que, un sistema planetario formado alrededor de otra estrella, sería muy similar al Sistema Solar, de modo que
la distribución de las masas planetarias, la distancia de sus órbitas y

316

CAPÍTULO 6
las propiedades de sus planetas serían algo semejantes a las que encontramos en el nuestro, con planetas de tipo terrestre (esencialmente
rocosos) próximos a las estrellas y otros similares a Júpiter (mucho más
masivos y gaseosos) en la zona más lejana.
Sin embargo, aunque muchos planetas encontrados se pueden considerar semejantes a los de nuestro sistema planetario la diversidad encontrada en las masas, en la distancia a la que orbitan sus estrellas y en
sus propiedades físicas parece ser la regla, encontrándose planetas que
se salen fuera de toda norma, y que van mucho más allá de lo que la
imaginación hubiera podido sugerir, puesto que no tienen análogos en
nuestro sistema solar.
El Sistema Solar se amplía. Nuestro sistema planetario se llama Sistema Solar y hasta el momento actual consta de una estrella: el Sol;
ocho planetas: Mercurio, Venus, Tierra, Marte, Júpiter, Saturno, Urano
y Neptuno; cinco planetas enanos: Ceres, Plutón, Eris, Makemake y
Haumea; y un número indeterminado de cuerpos menores: entre los
que se encuentran los meteoroides, asteroides, cometas, centauros,
junto a los objetos del cinturón de Kuiper, situados tras la órbita de
Neptuno (figura 6.46). También se encuentran formando parte del
sistema solar los satélites de los planetas y de los planetas enanos. El
polvo y el gas del medio interplanetario y las partículas y radiaciones
del viento solar.

Fig. 6.46 El Sistema Solar con el cinturón de Kuiper

317

FÍSICA
El Sol es la estrella más cercana a la Tierra y la que da nombre a nuestro
sistema planetario. Es la estrella que mejor hemos podido estudiar, los
fenómenos que observamos en ella nos ilustran sobre lo que ocurre en
muchas otras. Es una inmensa esfera de plasma incandescente con un
radio de 695 700 km desde su centro hasta la fotosfera (zona que vemos como su superficie), y que rota sobre un eje que pasa por su centro.
La velocidad de rotación varía con la latitud solar, y cerca de los polos
es cerca de 31 días, mientras en el Ecuador es de unos 26 días, a este
fenómeno se le llama rotación diferencial.
Nuestra estrella está constituida por una superposición de capas cuyas
temperaturas varían según la distancia al centro. El núcleo incandescente supera los 15 · 106 K mientras que en la fotosfera es de aproximadamente unos 5,8 · 103 K .
El límite exterior del sistema solar se define a través de la región de
interacción entre el viento solar y el medio interestelar. La región de
interacción entre el viento solar y el estelar se denomina heliopausa
esta frontera determina los límites de influencia del Sol. La heliopausa
puede encontrarse a unas 100 ua (15 · 109 km) del Sol.
Plutón desde 1930, en que fue descubierto, hasta el año 2006 se consideraba el noveno planeta, pero ha pasado a clasificarse como planeta enano, junto a Ceres, también considerado planeta durante algún
tiempo, más recientemente considerado como asteroide, y Eris, un objeto transneptuniano similar a Plutón.
Ciertamente, desde los años setenta existía un amplio debate sobre el
concepto de planeta, a la luz de los nuevos datos referentes al tamaño
de Plutón, un debate que aumentó en los años siguientes al descubrirse
nuevos objetos que podían tener tamaños similares. De esta manera, la
nueva definición de planeta introduce el concepto de planeta enano,
que incluye a Ceres, Plutón, Haumea, Sedna, Makemake y Eris (figura
6.47); y tiene la diferencia de definición en que un planeta enano no
ha despejado de planetesimales la zona local de su órbita y no es un
satélite de otro cuerpo.
Los primeros asteroides descubiertos fueron también denominados
temporalmente como planetas, como Ceres, que al igual que otros asteroides llegaron incluso a tener su símbolo planetario, hasta que fue
evidente que formaban parte de toda una familia de objetos: el cinturón de asteroides que se encuentra entre las órbitas de Marte y Júpiter.

318

CAPÍTULO 6

Fig. 6.47 Planetas enanos del Sistema Solar y objetos transneptunianos

Comprueba tus conocimientos
51. ¿Qué son los cuásares?
52. ¿Qué relación existe entre las galaxias y los agujeros negros
supermasivos?

53. ¿Cómo se define una estrella?
54. ¿Qué importancia tiene el diagrama Hertzsprung-Russell?
55. ¿Cómo surgen las estrellas y sus sistemas planetarios?
56. ¿Qué son los sistemas planetarios extrasolares?
57. ¿Cuál es la composición del sistema solar?
58. ¿Qué es un planeta y un planeta enano?

319

FÍSICA

Problemas generales del capítulo
1. Corrimiento al rojo y distancia a una galaxia
En 1920, Edwin Hubble halló que algunas de las manchas difusas, que
se observaban con los telescopios y que algunos astrónomos aceptaban como nubes dentro de la Vía Láctea, eran, en realidad, otras
galaxias. En esa época la aplicación del Efecto Doppler le permitió observar que las galaxias se estaban alejando de nosotros, de modo que
cuanto más lejos se encontraba una galaxia más rápida era su velocidad de recesión. Hubble concluyo que este hecho permitía encontrar
la distancia a la que se encontraba la galaxia a partir de su famosa
ecuación:
  o  H 
 ·r
o
c
Donde el valor considerado de H es 77 km s-1 Mpc-1; 𝑟 es la distancia
medida en parsec y 𝑐 la velocidad de la luz en el vacío. El término de
la izquierda es conocido como redshift (corrimiento al rojo, 𝑧) y es determinado por el corrimiento de la línea analizada hacia una mayor
longitud de onda.
a) ¿Para qué color se desplazan las líneas del espectro de una galaxia
que se acerca al observador?
b) Se observa que una galaxia experimenta un corrimiento al rojo de
𝑧 = 0,77. Determina la distancia a la que se encuentra esa galaxia.

2. La edad del Universo
Estima la edad del Universo para un valor del parámetro de Hubble de:
a) 50 km s-1 Mpc-1

b) 75 km s-1 Mpc-1

c) 100 km s-1 Mpc-1.

Explica cómo utilizando las edades de los cúmulos globurales se puede
poner un límite al valor de la constante.
3. Distancia a un Cuásar
Un cuásar observado tiene un corrimiento al rojo de z = 0,15.
a) ¿Cuál es la velocidad de recesión del cuásar en kilómetro por segundo (km/s)?
b) Encuentra la distancia al cuásar en megaparsec (Mpc), con un parámetro de Hubble de H0 = 70 km s-1 Mpc-1.

320

CAPÍTULO 6
4. Distancia a una galaxia
El espectro de una galaxia muestra la línea K del Calcio, cuya longitud
de onda de reposo es 3 934 Å, corrida hasta 3 990 Å. Calcula la distancia
a la galaxia usando Ho = 71 km s-1 Mpc-1.
5. Distancia a la nube grande de Magallanes
La Gran Nube de Magallanes tiene una velocidad de v = 2,8 km/s.
Usando la relación entre la velocidad y la distancia de Hubble, encuentra la distancia a la galaxia con un parámetro de Hubble de
H0 = 70 km s-1 Mpc-1.

321

GLOSARIO
DE TÉRMINOS
DE COSMOLOGÍA
ABIERTO (ESPACIO). En cosmología, se refiere a un espacio de
volumen infinito y sin bordes. Por ejemplo, el espacio euclídeo
o el espacio hiperbólico de topología simple.
ABUNDANCIAS. Las cantidades relativas de elementos químicos.
Por ejemplo, el hidrógeno forma aproximadamente el 75 %
de la masa del universo; su abundancia cósmica es 75 %.
ABSORCIÓN. Disminución de la intensidad de la radiación, en
determinadas frecuencias, debido a que esta es utilizada
para excitar a un átomo o a una molécula. El átomo (o la molécula) pasa entonces a un estado cuántico de mayor energía,
pudiendo, incluso, perder electrones en un proceso llamado
de ionización. En el caso del átomo excitado, la reemisión
del exceso de energía, en forma de un fotón, se hará en una
dirección arbitraria, y no necesariamente en la misma en la
que venía la radiación que excitó el átomo. Por lo tanto, esa
frecuencia particular estará ausente del campo de radiación,
lo que dará origen a líneas de absorción en el espectro de la
luz recibida.

323

FÍSICA

ACELERADOR (DE PARTÍCULAS). Máquinas en las que se aceleran
núcleos y partículas elementales a velocidades próximas a la
de la luz, para luego hacerlas chocar. Esta energía disponible
permite crear nuevas y más masivas partículas, y así poder estudiar la estructura íntima de la materia.
AGUJERO NEGRO. Objeto astrofísico con un campo gravitatorio tan grande, que ni siquiera la luz puede escapar (y por
supuesto, tampoco pueden hacerlo partículas materiales u
otra forma de información). Se forma, por ejemplo, como
producto del colapso gravitatorio de una estrella suficientemente masiva. En otros términos, el campo gravitatorio de
un agujero negro es tan grande que la velocidad de escape
en su superficie (que en el caso de la Tierra es de “apenas”
unos 11 km/s) excede la velocidad de la luz. Los objetos pueden caer dentro del agujero, pero, de acuerdo con la física
clásica (no cuántica), ninguna forma de energía puede salir de él. En teoría cuántica, el inmenso campo gravitatorio
permite la creación de pares de partículas justo en el “borde” del agujero. Si una de estas es “tragada” mientras que
la otra escapa, esta última constituirá la llamada radiación
de Hawking; los agujeros negros no serían tan negros, después de todo.
ANGSTROM. Medida de longitud equivalente a 10-10 m. Es empleada comúnmente para describir longitudes de onda, por
ejemplo, en el rango visible, que va de unos 4 000 Å a unos 7
000 Å. Un angstrom es la medida característica de un átomo
de hidrógeno; el diámetro de un cabello humano ronda el medio millón de angstrom.
ANISOTROPÍA. Diferencias en una propiedad física entre dos o
más direcciones, como en el caso de las anisotropías en la temperatura de la radiación cósmica de fondo.
ANISOTROPÍAS EN LA RADIACIÓN DE FONDO CÓSMICO DE
MICROONDAS. Diferencias de intensidad (o de temperatura efectiva) presentes en el campo de la radiación cósmica

324

GLOSARIO

del fondo de microondas. Estas diferencias de intensidad
revelan inhomogeneidades en la distribución de materia-energía, así como también la posible existencia de ondas gravitatorias, que habrían perturbado a los fotones del
fondo cósmico en su viaje hacia nuestros detectores. Las
anisotropías detectadas, en muy distintas escalas angulares
sobre el cielo de microondas, revelan también los detalles
de procesos astrofísicos más recientes y que son sumamente
importantes a la hora de estimar los parámetros cosmológicos de nuestro universo.
AÑO LUZ. Es una medida astronómica de distancia, equivalente al recorrido de la luz en el vacío en un año (estrictamente, un año juliano de 365,25 días). Equivale a unas 63,241 ua
y unos 9,46 · 1012 km.
ANTIMATERIA. Materia que cuenta con las mismas propiedades gravitatorias que la materia ordinaria, pero que tiene
la carga eléctrica opuesta; tiene también “cargas” opuestas
para las otras fuerzas nucleares: las fuerzas nucleares débil y fuerte. Cada partícula de materia tiene una correspondiente antipartícula. Si se encuentran se aniquilan entre sí,
dejando energía pura. Hoy, la producción experimental de
antimateria es un proceso rutinario en los aceleradores de
partículas, pero existen pocas trazas de antimateria en la
naturaleza.
ANTIPARTÍCULA. Una partícula de antimateria. La antipartícula
del neutrino es el antineutrino; la del protón es el antiprotón;
la del electrón es el positrón (o antielectrón), etcétera.
ANTRÓPICO (PRINCIPIO). Ver Principio ANTRÓPICO.
ASTEROIDES. Son cuerpos rocosos demasiado pequeños para llamarlos planetas que orbitan el Sol. Oscilan en tamaño entre
unos centímetros y 1 000 km de diámetro (el último es el tamaño de Ceres). Aunque se los encuentra a mucha distancia del
Sol, hay una importante concentración de ellos entre Marte y
Júpiter, el llamado cinturón de asteroides.

325

FÍSICA

ASTROFÍSICA. Rama de la Astronomía que estudia la física de los
astros. No la ubicación de los astros, sino “qué” son los astros.
También, es la aplicación de las leyes de la física, de la química
y de otras ciencias, para lograr comprender los fenómenos que
tienen lugar en los planetas, estrellas, etc. La astrofísica tuvo
sus inicios con el advenimiento de la espectroscopía, lo que le
permitió descifrar la información que, a través de la luz, nos
llega de los astros.
AMPLITUD DE PROBABILIDAD. En una teoría cuántica, número
complejo cuyo módulo al cuadrado da una probabilidad.
ÁTOMO. Unidad básica de la materia ordinaria, consistente en un
núcleo con protones y neutrones rodeado por electrones que
se mueven a su alrededor.
BARIÓN. Partícula subatómica que interactúa a través de la interacción nuclear fuerte, compuesta por tres quarks. Su nombre
proviene del griego barys que significa pesado. El neutrón y el
protón son ejemplos de bariones.
BIG BANG. Conjunto de modelos cosmológicos para la evolución
del universo, con un estado primordial altamente energético,
denso y caliente, en el que el espacio-tiempo comienza con
una singularidad que inicia un período de expansión global.
De acuerdo con estos modelos, el universo se ha estado expandiendo, enrareciendo y enfriando desde sus inicios, y durante
unos 13 800 millones de años. En la actualidad, el universo es
mucho más grande y frío, pero podemos observar los remanentes de aquel período temprano en la radiación cósmica del
fondo de microondas que invade todo el espacio.
BIG CRUNCH. Alter ego del Big Bang. Evento catastrófico final en
un universo que primero se expande y que, luego de alcanzar
un tamaño máximo, colapsa sobre sí mismo, como consecuencia de la excesiva densidad de materia-energía que contiene
(traducción: gran crujido o colapso). Las leyes físicas conocidas
hoy no permiten aún modelar este hipotético “evento final”
para el universo.

326

GLOSARIO

BINARIAS (ESTRELLAS). Sistema astronómico formado por
dos estrellas unidas por su mutua atracción gravitatoria.
Las estrellas se mueven en órbitas elípticas alrededor de
un centro común, llamado centro de masa del par. Se cree
que, al menos la mitad de las estrellas en las cercanías del
sistema solar pertenecen a este grupo. Los períodos de las
órbitas van de apenas horas a millones de años; sus separaciones, de apenas unos pocos radios estelares a algunas
décimas de parsecs. La forma de sus órbitas puede variar
fuertemente, y ser desde excesivamente excéntricas, hasta
casi circulares.
BOSÓN. Partícula con cantidad entera de la unidad básica de
espín “h/(2π)” -esto es -2; -1; 0; 1; 2; etc., multiplicados por
h/(2 π)-, donde h es la constante de Planck. Son, típicamente,
partículas vehículos (mensajeras) de las interacciones fundamentales. Por ejemplo, el fotón de espín 1 multiplicado por
h/(2π) es el mediador de la interacción electromagnética; el
gluón lo es de la interacción nuclear fuerte, el gravitón, de la
gravitación, etc. Existen también partículas compuestas de pares de fermiones cuyo espín suma cantidades enteras y, por lo
tanto, son bosones. Deben su nombre al físico indio Satyendra
Bose (1894-1974).
BRANA (MEMBRANA). En general, objetos “extensos” que
surgen en las teorías que pretenden unificar la relatividad
general de Einstein con la teoría cuántica. Una 1-brana es una
cuerda, una 2-brana es una membrana, etcétera.
CAMPO ESCALAR. Campo cuántico que queda especificado con
un solo número en cada punto del espacio.
CAUSALIDAD. Propiedad que debe satisfacer un sistema físico de
acuerdo con la teoría de la relatividad especial, según la cual
ninguna forma de energía (o información) puede propagarse
a velocidad mayor que la de la luz.
CERO ABSOLUTO. Corresponde al valor más bajo de la escala absoluta de temperaturas: 0 K corresponde a -273,15 ºC.

327

FÍSICA

CERRADO (ESPACIO). Espacio de volumen finito y sin bordes,
como la superficie de una esfera.
CERRADO (UNIVERSO). Modelo cosmológico de Friedmann-Lemaître, con volumen finito y curvatura espacial positiva. Corresponde a modelos con alta densidad de materia-energía,
que podrían eventualmente colapsar por su propio peso en
una suerte de Big Crunch.
CINTURÓN DE KUIPER. Es una región del sistema solar ubicada más allá de la órbita de Neptuno, a una distancia de
entre 30 ua y 55 ua del Sol. Lleva el nombre de uno de sus
descubridores, el astrónomo holandés, residente en EE. UU.,
Gerard Kuiper. Su existencia fue confirmada en 1992. Es
semejante a la franja de asteroides, pero mucho mayor;
20 veces más ancha y con objetos cuya masa es entre 20 y
200 veces más alta. Se compone de cuerpos diversos, cuya
existencia se remonta a la formación del sistema solar, incluso planetas enanos (categoría en la que fue incluido,
el antes considerado planeta, Plutón). A diferencia de los
cuerpos del cinturón de asteroides, que son rocosos y metálicos, los de Kuiper son formados sobre todo de gases (como
metano y amoníaco) y de agua congelados.
CONDICIÓN DE AUSENCIA DE BORDES. Requisito por el que las
historias del universo son superficies cerradas sin borde alguno.
CONSTANTE COSMOLÓGICA (O LAMBDA). Responde a un término agregado por Einstein, en 1917, a sus ecuaciones originales de la relatividad general. La idea era, mediante este
término, frenar la tendencia de la materia ordinaria a colapsar por su propia atracción gravitacional. Einstein obtenía así
un modelo estático (aunque altamente inestable, como más
tarde se descubriría), de acuerdo con las incipientes observaciones de la época. Años más tarde, el descubrimiento de
la expansión del universo hizo que los cosmólogos desecharan la necesidad de una constante cosmológica. Hoy, y desde
hace ya unos años, nuevas observaciones han hecho que la

328

GLOSARIO

constante cosmológica vuelva a formar parte de los modelos cosmológicos, que mejor reproducen las observaciones
astrofísicas.
CONSTANTE COSMOLÓGICA (PROBLEMA DE LA). Dificultad
con la que conviven (esencialmente, desde 1917) los físicos
que estudian las teorías de altas energías y los cosmólogos,
al no tener indicios claros sobre el origen físico ni sobre la
magnitud del término de constante cosmológica, que Einstein agregara en sus ecuaciones originales de la relatividad
general de 1916.
CORRIMIENTO AL ROJO (Z). Corrimiento de las líneas espectrales hacia mayores longitudes de onda debido a un movimiento de alejamiento o recesión de la fuente emisora. En
cosmología relativista, este efecto es debido a la expansión
del universo que “arrastra” a las galaxias lejanas y produce
un estiramiento de las longitudes de onda características de
su luz. Notar que este efecto NO es lo mismo que el efecto Doppler-Fizeau, aunque para “z” pequeños ambos dan
aproximadamente el mismo resultado. En el caso cosmológico, la onda de luz viaja a través del espacio al mismo tiempo que este espacio se estira. Por ello, también la longitud
de onda de la luz se estirará, ocasionando un corrimiento
al rojo. Cuanto más alejada está la fuente emisora, más espacio deberá recorrer la luz y por ello, más se estirará su
longitud de onda.
CORRIMIENTO AL AZUL. Corrimiento de las líneas espectrales hacia menores longitudes de onda debido a un movimiento de
acercamiento de la fuente emisora.
COSMOGONÍA. Disciplina relacionada con el origen del cosmos.
En cosmología, también se refiere al estudio del origen de los
sistemas astronómicos, desde sistemas solares hasta estrellas,
galaxias y cúmulos galácticos.
COSMOLOGÍA. El estudio del origen, estructura y evolución
del universo, y de sus constituyentes, a las mayores escalas

329

FÍSICA

astronómicas imaginables. Es también nuestro interés en estudiar el cosmos y conocer el lugar que en él ocupamos.
COSMOLOGÍA CUÁNTICA. Área de la cosmología que estudia
el universo primitivo en épocas previas al tiempo de Planck,
10-43 s, cuando tanto los efectos relativistas (dados por la relatividad general) como los cuánticos (dados por la teoría cuántica) son muy importantes.
COSMOLOGÍA RELATIVISTA. La aplicación de las ecuaciones de
la teoría de la relatividad general de Einstein al universo nos
permite describir su evolución relativista en una manera completamente distinta a la de la teoría newtoniana. Los modelos
del Big Bang surgen de esta nueva descripción del universo.
CUÁNTICA (MECÁNICA). Es la teoría que describe el reino de las
partículas subatómicas. Explica la interacción entre la radiación y la materia con un formalismo que surgió a partir de los
estudios realizados por el físico alemán Max Planck, y que llevaron a la comprensión de que la energía se transmite, no en
forma continua, sino en pequeñas unidades discretas, o cuantos. Explica, además, el origen de las líneas espectrales que
se detectan en astronomía, como transiciones cuánticas entre
niveles de diferente energía de los átomos y moléculas, y es la
teoría que deberá un día amalgamarse adecuadamente con la
relatividad general para poder describir el cosmos en épocas
ultra primordiales, por debajo de la escala de Planck.
CUERPO NEGRO. Objeto ideal que absorbe y emite radiación de
todas las longitudes de onda.
CUERPO NEGRO (RADIACIÓN DE). Campo de radiación cuya distribución de intensidad versus la frecuencia (su espectro) corresponde a la de un cuerpo negro, y sigue una ley muy conocida
en física llamada la Ley de Planck. Sus características dependen
solo de la temperatura del cuerpo negro. En el caso cosmológico, este tipo de radiación se genera cuando partículas materiales y fotones llegan a un estado de equilibrio térmico, en
el que cada reacción es balanceada por la reacción opuesta

330

GLOSARIO

y todos los constituyentes del universo comparten la misma
temperatura. La radiación cósmica del fondo de microondas
es de este tipo.
CUERDAS (TEORÍA DE). Teoría de gran unificación de las fuerzas
fundamentales de la física, que postula que los ingredientes
más básicos de la Naturaleza no son partículas sin dimensión
matemática, sino diminutos filamentos unidimensionales llamados cuerdas. Aunque no está libre de problemas técnicos, la
teoría de cuerdas amalgama las teorías de la relatividad general de Einstein (cuyas leyes describen el universo a gran escala,
macroscópico) con la mecánica cuántica (la teoría que describe
el reino subatómico).
CÚMULOS DE GALAXIAS. Grupos de galaxias, que pueden incluir
desde varias decenas de unidades (como en el caso de nuestro
Grupo Local) hasta un número mucho mayor que mil galaxias
(como en el caso del cúmulo de Virgo).
COORDENADAS COMÓVILES. Coordenadas en un sistema de referencia que se expande con el universo.
CUÁSAR. Palabra derivada de quasi-stellar radio source (radiofuente cuasi-estelar), debido a que los cuásares fueron
descubiertos como objetos con la apariencia óptica de estrellas, pero extremadamente brillantes en radioondas. Sin
embargo, a diferencia de las estrellas, los espectros de los
cuásares presentas fuertes líneas de emisión con un desplazamiento al rojo elevado, lo que es indicativo de su lejanía y
de la extremada luminosidad intrínseca.
DEFECTO TOPOLÓGICO CÓSMICO. Mucho de lo que hoy se sabe
en física de las altas energías se basa en procesos genéricos
conocidos como “procesos de rotura de las simetrías fundamentales”. Estas roturas de simetría se producen durante
transiciones de fase cosmológicas, y muchas de estas últimas
pudieron haber sucedido en el universo primitivo, en las inmensas energías y temperaturas cercanas a la singularidad
de los modelos del Big Bang. Una predicción genérica de muchos

331

FÍSICA

modelos cosmológicos de altas energías es la producción de
defectos cósmicos, durante estas transiciones de fase. De la
misma manera que la estructura cristalina del hielo, formado
sobre la superficie de un lago al descender la temperatura,
no está libre de defectos, el volumen de nuestro universo, al
disminuir su temperatura, también habría formado defectos
en aquellos campos de energía primordiales que dominaban
el universo en épocas tempranas. En el caso del hielo, son llamados “defectos” pues constituyen regiones en las que la estructura cristalina del hielo se altera, y “topológicos” pues su
completa descripción precisa de elementos de simetría, cuya
descripción formal se halla en la rama de las matemáticas conocida bajo el nombre de topología. En el caso de los defectos
cósmicos, lo que se altera es la estructura misma (la topología)
del espacio-tiempo. Existen defectos cósmicos de varios tipos
y dimensiones. Muchos son incompatibles con la cosmología
estándar, pero también existen otros que conviven armoniosamente con ella, y que hasta podrían responder a ciertos enigmas aún oscuros de la cosmología actual.
DENSIDAD CRÍTICA. Densidad de materia-energía cósmica que
separa universos de curvaturas y dinámicas muy diferentes. Dado que en la teoría de la relatividad general la materia-energía curva el espacio-tiempo, el valor de la densidad de
energía-materia, de ser conocido, podría indicarnos, por ejemplo, la curvatura global del universo. El valor de la densidad
crítica depende de la época cosmológica y también del valor
exacto de la tasa de expansión del universo (el parámetro de
Hubble). Su valor actual es de aproximadamente unos 10-29 g/
cm3, lo que equivale a unos pocos átomos de hidrógeno por
metro cúbico. Por referencia, el número de partículas (átomos
o moléculas) en un metro cúbico de gas a temperatura y presión normales es de unos 3 · 1025.
DESACOPLAMIENTO (ÉPOCA DEL). Transición entre un estado
altamente ionizado de la materia y un estado en el cual la
materia es predominantemente neutra. En los modelos del
Big Bang esta transición ocurre cuando la radiación, que era

332

GLOSARIO

difundida constantemente por los electrones y demás materia ionizada, deja de serlo, al formarse los primeros átomos neutros. En ese entonces, el universo tenía entre unos
380 mil años de vida, y su temperatura característica rondaba
los 3 000 K. El fondo de radiación residual de este proceso de
desacoplamiento (la llamada radiación cósmica del fondo
de microondas) nos llega con un corrimiento al rojo de
aproximadamente z = 1 100.
DEUTERIO (H-2 O 2H). Isótopo pesado del hidrógeno, cuyo núcleo está formado por un protón y un neutrón (en lugar de
solo un protón como en el caso del hidrógeno normal). Como
en el hidrógeno, el átomo de deuterio posee solo un electrón.
Cuando un átomo de deuterio reemplaza a un átomo de hidrógeno en la molécula del agua (H2O), se obtiene el agua
pesada de uso corriente como moderador de las reacciones
en las centrales nucleares. La abundancia de deuterio en el
espacio interestelar es de solo 1,4 · 10-5, aquella del hidrógeno -en el Sol hay menos de 10-6 y en los océanos de la Tierra
aproximadamente 10-4-. Dado que el deuterio es rápidamente consumido en las reacciones nucleares estelares, se cree
que la mayoría de su abundancia actual es primordial, esto
es, que fue fabricado durante la nucleosíntesis primordial.
DIFUSIÓN. Es la desviación de toda forma de radiación (incluyendo la luz visible) por su interacción con la materia. Por ejemplo,
la luz de una linterna puede interactuar con las partículas de
humo de una habitación. Como resultado esta luz es desviada
en todas direcciones, haciéndose difusa. También se produce
la difusión de la radiación en medios transparentes; es el caso
de la interacción de los rayos solares con las moléculas del aire,
cuyo resultado es el azul del cielo (en el rango visible, la luz
más difundida es la azul). También se llama así al proceso de
absorción y posterior reemisión de los corpúsculos de luz (en
todas direcciones) por la materia, sin cambios en su frecuencia
o energía. La difusión de los fotones por la materia ionizada
y los electrones libres es el proceso principal por el cual el universo temprano se muestra altamente opaco a la radiación.

333

FÍSICA

DOPPLER-FIZEAU (EFECTO). Modificación de la longitud de onda
de la radiación electromagnética debido al movimiento relativo entre fuente emisora y receptor. Si el objeto en movimiento
se acerca al observador, las ondas que emite llegan a este con
mayor frecuencia, si se aleja sucede lo contrario. El fenómeno
se produce también con el sonido: es conocido el caso de la
locomotora lanzada a toda velocidad, cuyo sonido resulta más
agudo que el original para a una persona inmóvil al lado de la
vía a medida que se le acerca, y se vuelve cada vez más grave a
medida que se le aleja. Sin embargo, hay una diferencia esencial: el sonido precisa de un medio (el aire) para propagarse;
las ondas electromagnéticas, no. En el caso cosmológico, este
efecto resulta en el corrimiento de todas las líneas espectrales debido al movimiento de acercamiento (corrimiento de las
líneas hacia el azul) o alejamiento (corrimiento al rojo) de las
fuentes emisoras relativamente cercanas (galaxias, estrellas...) a
lo largo de la línea de visión.
EDAD DEL UNIVERSO. Tiempo transcurrido desde la singularidad
predicha por los modelos del Big Bang y el estimado por las
últimas observaciones astrofísicas en 13 800 millones de años.
ELECTRONVOLTIO (eV). Es una unidad de energía usada en física.
Equivale a la energía que adquiere un electrón al atravesar
una diferencia de potencial de un voltio. Un electronvolt (eV)
es una cantidad muy pequeña de energía en una escala macroscópica, pero es conveniente en la descripción de procesos
atómicos. Por ejemplo, 13,6 eV es la energía necesaria para
desprender un electrón de un átomo de hidrógeno.
ELECTRÓN. Partícula fundamental de la materia que tiene carga
eléctrica negativa y es responsable de las propiedades químicas de los elementos.
EMISIÓN. La transición cuántica entre un estado de alta energía
y uno de energía menor, por ejemplo, en los átomos o moléculas, resulta en la emisión de un corpúsculo de radiación (un
fotón) con la diferencia de energía. Esta radiación emitida por

334

GLOSARIO

el átomo o molécula es lo que se denomina una línea de emisión. Estas líneas caracterizan los distintos niveles cuánticos de
la materia.
ENANA BLANCA. Una estrella pequeña, de débil luminosidad,
densa y “moribunda” (en las etapas finales de su evolución)
que ha consumido la totalidad de su combustible nuclear y
lentamente se va perdiendo de vista. Las estrellas cuya masa
está por debajo de 1,4 veces la masa del Sol, se convierten normalmente en enanas blancas hacia el final de sus vidas. Una
enana blanca típica es fría y densa, y cuenta con el 60 % de
la masa solar, pero es de tamaño apenas mayor que la Tierra.
Son estrellas muy comunes: un 10 % de las estrellas de nuestra
galaxia serían de este tipo. La más cercana es Sirio B, a unos
8,7 años luz de distancia. Ninguna es visible sin telescopio.
ENANA MARRÓN. Una protoestrella con masa insuficiente como
para iniciar la combustión termonuclear que transformará el
hidrógeno en helio. Sus masas van desde 13 veces la masa de
Júpiter hasta un 10 % de la masa solar (la masa mínima necesaria para iniciar el proceso de fusión termonuclear). Son objetos relativamente fríos, con temperaturas por debajo de los
1 000 K, y por ello emiten radiación en el infrarrojo. Podrían
formar parte de la materia oscura que se piensa hoy que debe
existir en las galaxias y cúmulos galácticos.
ENERGÍA FANTASMA. Es una forma hipotética de energía oscura
si se comprueba su existencia, esta clase de energía causaría
que la expansión universal acelerara tan rápidamente que el
Big Rip ocurriría, destruyendo el universo en su totalidad.
ENERGÍA OSCURA. Forma de energía cosmológica que estaría presente en todo el espacio, produciendo una presión
que tiende a acelerar la expansión del universo, resultando en una fuerza gravitacional repulsiva, no emite radiación u otra señal que podamos detectar. Su presencia debe
inferirse por mediciones dinámicas a través de sus efectos gravitatorios sobre los otros componentes ordinarios

335

FÍSICA

de materia-energía del universo y por sus efectos sobre
la expansión del universo. Existen en la actualidad varios
candidatos para la energía oscura, siendo la constante
cosmológica de Einstein y los campos llamados “de quintaesencia” los más estudiados.
ÉPOCA DOMINADA POR LA MATERIA. En los modelos del
Big Bang, es la época posterior a los 60 mil años de vida
del universo, cuando la densidad de la materia relativista
(radiación) se hace menor que la de la materia no relativista. Es, en principio, a partir de este momento que se
puede iniciar la formación de estructuras astrofísicas. Sin
embargo, la materia bariónica tardará un poco más en
estructurarse, debido a su fuerte acoplamiento con la radiación, que frenará todo intento de amplificación de los
grumos de materia ordinaria. De ahí la importancia que
tiene la materia oscura (fría), ya que esta última, que no
interactúa con la radiación, podrá comenzar a aglutinarse
apenas comenzada la época dominada por la materia, y
serán luego los bariones los que se verán atraídos a los
grumos de materia oscura, una vez logrado su desacople.
La materia oscura permite entonces comenzar antes −varios cientos de miles de años antes− el proceso de formación de estructuras que, de otra manera, no podríamos
llegar a explicar.
ÉPOCA DOMINADA POR LA RADIACIÓN. En los modelos del Big
Bang, la evolución cosmológica está dominada por la radiación, desde épocas muy tempranas y hasta que el universo
llega a unos 30 mil años de vida. Será luego la densidad en
materia no relativista la que dominará el universo hasta la
actualidad (o hasta valores de corrimientos al rojo z pequeños, si el universo es realmente dominado por un término
de constante cosmológica como lo indican las observaciones
actuales). Durante la época dominada por la radiación toma
lugar, por ejemplo, la llamada nucleosíntesis primordial, período durante el cual se construyen los núcleos de los átomos más livianos del universo.

336

GLOSARIO

ESFÉRICO (ESPACIO). Espacio tridimensional empleado en cosmología como una de las alternativas de los modelos del
Big Bang. Su geometría puede visualizarse como la superficie
de una esfera en tres dimensiones. Su curvatura es positiva;
la suma de los ángulos interiores de un triángulo siempre suman más de 180º; y dos geodesias que parten en direcciones
paralelas terminarán por converger, de la misma manera que
los meridianos terrestres, paralelos a la altura del Ecuador, se
cortan en los polos de la Tierra.
ESPACIO-TIEMPO. La unión del espacio (tridimensional) y del
tiempo (la cuarta dimensión), que constituye uno de los postulados de la teoría especial de la relatividad. Con la presencia de materia-energía, en el marco de la relatividad general,
este espacio-tiempo de cuatro dimensiones se deforma y se
curva. Con ciertas limitaciones, puede verse como la superficie
de una “tela”, dinámica y deformable, en donde ocurren los
eventos de la historia del universo.
ESPACIO-TIEMPO ABSOLUTO. En la teoría newtoniana se supone
implícitamente que las medidas de tiempo y las medidas de
longitud de los cuerpos físicos son independientes del sistema
de referencia y del estado de movimiento del observador. Esto
cambia con la relatividad especial de Einstein.
ESPECTRO. Separación de la luz de acuerdo con su longitud de
onda. El espectro de un elemento dado o compuesto contiene
líneas espectrales características.
ESPECTROSCOPÍA. Método de separación de la luz en los distintos «colores» que la forman para obtener su espectro. Permite
conocer la composición de objetos astronómicos a partir de
sus líneas espectrales.
ESPÍN. Momento angular intrínseco, se refiere a una propiedad física de las partículas subatómicas, por la cual toda
partícula tiene algo semejante a un momento angular intrínseco de valor fijo. Se trata de una propiedad intrínseca
de la partícula como lo es la masa o la carga eléctrica. Pero

337

FÍSICA

realmente es una propiedad cuántica que no tiene análogo
clásico. Puede tomar valor entero o “semientero” de la unidad básica h/(2π), donde h es la constante de Planck. En la
física clásica (no cuántica) el valor de h es extremadamente
pequeño, y propiedades como la del espín no son observables ni relevantes.
ESTADO ESTACIONARIO (MODELO DEL). Modelo cosmológico
alternativo a los modelos del Big Bang, propuesto por Bondi,
Gold y Hoyle que, hasta la década del 1960, contaba con
muchos cosmólogos adeptos. Se basa en el llamado “principio cosmológico perfecto”, extensión del principio cosmológico también a la coordenada temporal, según el cual el
universo debe ser isótropo y homogéneo para todo posible
observador y, además, debe mostrarse idéntico a sí mismo
en todo instante de tiempo. Este modelo es compatible con
un universo en expansión, aunque se opone a la idea de
evolución, y por ende a la de un universo que alguna vez
fue diferente del presente, como lo afirman los modelos
del Big Bang. Para evitar que la distribución de materia se
diluyese por la expansión cosmológica, se debió inventar
un mecanismo ad hoc de creación continua de materia, de
aproximadamente un átomo de hidrógeno por metro cúbico, cada 10 mil millones de años. Luego de varias observaciones contrarias a sus predicciones teóricas, el modelo
del estado estacionario sobrevive tan solo entre unos pocos
“irrompibles”.
ESTRELLAS DE NEUTRONES. Estrellas extremadamente densas
producto del colapso gravitacional de estrellas de muy alta
masa. Están compuestas casi enteramente de neutrones,
que son partículas subatómicas sin carga eléctrica y masa
similar a la de los protones, y su densidad es semejante a la
que resultaría de compactar el Sol a una esfera de 10 km de
radio.
ÉTER. Medio material hipotético a través del cual se pensó
una vez que se propagaban las ondas electromagnéticas de

338

GLOSARIO

Maxwell, de manera idéntica a como el aire da sustento a la
propagación de las ondas de sonido. Fue desechado con el advenimiento de la teoría especial de la relatividad. El éter fue
también considerado el quinto elemento, omnipresente en los
cielos, en la visión de Platón y Aristóteles.
EXOPLANETAS. Todos aquellos planetas que orbitan alrededor
de una estrella que no es el Sol.
ESPACIO-TIEMPO. Espacio matemático cuyos puntos deben ser
especificados por las coordenadas espacial y temporal.
FERMIÓN. Tipo de partícula fundamental de la materia con espín
semientero.
FÍSICA CLÁSICA. Cualquier teoría de la física en la cual se suponga que el universo tiene una sola historia, bien definida.
FORMULACIÓN ASCENDENTE, O DE ABAJO ARRIBA. En cosmología, idea basada en la suposición de que hay una sola historia
del universo, con un punto de partida bien definido, y que el
estado actual del universo procede de la evolución de aquel
inicio.
FORMULACIÓN DESCENDENTE, O DE ARRIBA ABAJO. Formulación de la cosmología en que se traza la historia del universo
de «arriba abajo», es decir desde el momento presente hacia
atrás.
FOTÓN. Bosón que transporta la fuerza electromagnética; partícula cuántica de la luz.
FUERZA ELECTROMAGNÉTICA. La segunda fuerza más intensa de
las cuatro fuerzas de la Naturaleza. Actúa entre partículas cargadas eléctricamente.
FUERZA NUCLEAR DÉBIL. Una de las cuatro fuerzas de la naturaleza. La fuerza débil es la responsable de la radiactividad y
desempeña un papel decisivo en la formación de los elementos en las estrellas y en el universo primitivo.

339

FÍSICA

FUERZA NUCLEAR FUERTE. La más intensa de las cuatro fuerzas
de la naturaleza. Mantiene unidos los protones y neutrones
en el interior de los núcleos atómicos. También mantiene la
cohesión interna de protones y neutrones, lo cual es necesario,
ya que están formados por partículas aún más pequeñas, los
quarks.
FERMIÓN. Partícula con cantidad “semientera” de la unidad
básica de espín h/(2π) -esto es -3/2, -1/2, 1/2, 3/2, etc., multiplicados por h/(2π)-, donde h es la constante de Planck.
Son típicamente partículas de materia. Por ejemplo, los
nucleones (también llamados bariones, como los protones
y los neutrones) son fermiones; los electrones y los neutrinos (llamados leptones) también son fermiones. Deben su
nombre al físico italiano Enrico Fermi (1901-1954).
FÍSICA DE ALTAS ENERGÍAS. Es la rama de la física que estudia
los constituyentes más básicos de la materia, y para acceder a
los cuales muchas veces es preciso el empleo de potentes aceleradores de partículas. Esta área busca también comprender
las distintas interacciones o fuerzas fundamentales de la física,
como las fuerzas nucleares débil y fuerte.
FOTÓN. Cuanto o corpúsculo de luz, es una unidad discreta de
energía del campo electromagnético. El fotón es la “partícula” sin masa que transmite la interacción electromagnética.
Su energía es proporcional a la frecuencia de la radiación. El
valor de espín del fotón es 1 (es un bosón) y él es su misma
antipartícula.
FRECUENCIA. Es el número de ciclos por unidad de tiempo de
un fenómeno cíclico, por ejemplo, una onda electromagnética
(véase Longitud de onda).
FRIEDMANN (ECUACIÓN DE). La ecuación que determina la evolución del universo, bajo las hipótesis de un universo isótropo
y homogéneo. Se obtiene de las ecuaciones de la relatividad
general y expresa la conservación de la energía total del universo. Su solución indica la manera en la que la distancia de

340

GLOSARIO

dos puntos (galaxias) suficientemente alejados del universo se
modifica con el tiempo.
FRIEDMANN-LEMAÎTRE (UNIVERSOS DE). Una clase general de
modelos cosmológicos que suponen que el universo a las mayores escalas astrofísicas es homogéneo e isótropo, y que evoluciona en el tiempo. Estos son los modelos del Big Bang a los
que nos referimos en el capítulo 6.
GALAXIA. Es un sistema astronómico sujeto a la fuerza de gravedad, compuesto por estrellas, remanentes estelares, gas, polvo
interestelar, más un componente aún misterioso llamado materia oscura. Las galaxias suelen contener múltiples sistemas
estelares y planetarios (como el sistema solar, que forma parte
de la Vía Láctea, la galaxia que habitamos), cúmulos de estrellas y nubes interestelares. El sistema rota alrededor de su
centro de masa. Se estima que el universo observable contiene
más de 100 000 millones de galaxias, con diámetros que oscilan entre unos 3 000 y 30 0000 años luz, separadas entre ellas
por distancias de millones años luz. El espacio intergaláctico
contiene un tenue gas, con densidades del orden de un átomo
por metro cúbico.
GALAXIAS DE NÚCLEO ACTIVO. Son galaxias en cuyo centro hay
una región de muy alta luminosidad en algunas o todas las
regiones del espectro electromagnético. Son las fuentes persistentes de radiación electromagnética más luminosas del
Universo.
GALAXIA ENANA. Es una galaxia pequeña, compuesta por algunos miles de millones de estrellas, en comparación con
la Vía Láctea, que podría alcanzar los 400 000 millones de
estrellas.
GALAXIA ESPIRAL. Es una estructura astronómica con la forma
de un disco chato con brazos en espiral. El disco rota y está
compuesto por estrellas, gas y polvo interestelar, con un núcleo central de estrellas conocido por el nombre de bulbo (en
inglés bulge). Las estrellas del núcleo están rodeadas por una

341

FÍSICA

aureola o halo más débil de estrellas, muchas de las cuales
forman cúmulos globulares (globular clusters). La Vía Láctea
pertenece a esta categoría de galaxias.
GAMMA (RAYOS). Radiación electromagnética de muy alta
energía y poder de penetración. Se considera rayos gamma a aquellos fotones con longitudes de onda inferiores
al angstrom, y frecuencias mayores que aproximadamente
10 19 Hz.
GEOCÉNTRICAS (COSMOLOGÍAS). Grupo de antiguos modelos
cosmológicos en los que la Tierra permanecía quieta en el centro del universo y el Sol, la Luna, los planetas, e incluso las
estrellas (“fijas” sobre una gran esfera), revolucionaban a su
alrededor.
GIGANTES ROJAS. Etapa tardía en la vida de una estrella, cuando
ha gastado como combustible todas sus reservas de hidrógeno
y la estrella se expande y su superficie se enfría, convirtiéndose
en gigante y roja.
GRAN UNIFICACIÓN (TEORÍAS DE). Clase especulativa de teorías de las interacciones fundamentales, en las que se trata
de describir al electromagnetismo y a las fuerzas nucleares fuerte y débil bajo un mismo marco teórico, consistente y unificado. Solo la gravitación es dejada de lado. La
unificación última se daría a la escala de Planck y debería
incluir también el campo gravitatorio. Las teorías “gran
unificadas” (llamadas GUTs, acrónimo de Gran Unified
Theories) intentan explicar las distintas fuerzas de la naturaleza como manifestaciones “de baja energía” de una
única “súper fuerza” que habría dominado en épocas ultra
primordiales.
GRAVITATORIA (FUERZA). Es la más débil de las cuatro interacciones fundamentales de la física. Fue primero descripta por
la teoría de la gravitación universal de Newton y luego por la
teoría general de la relatividad de Einstein.

342

GLOSARIO

GRAVITINO. Hipotética partícula fermiónica partner del gravitón,
y cuya existencia es predicha por las teorías de supergravedad,
que generalizan la relatividad general de Einstein.
GRAVITÓN. Partícula sin masa que cristaliza la supuesta cuantificación del campo gravitatorio, de la misma manera que
el fotón es la partícula asociada al campo electromagnético. El gravitón es el mediador de la interacción gravitatoria, como el fotón lo es de la interacción electromagnética
y, en el marco de una teoría cuántica de la gravedad apropiada, puede vérsele como un cuanto de la curvatura del
espacio-tiempo.
GRUPO LOCAL DE GALAXIAS. Asociación de aproximadamente
treinta galaxias cercanas a la nuestra y que se hallan ligadas
gravitacionalmente. Es el cúmulo de galaxias al que pertenece
la Vía Láctea y que tiene una dimensión de aproximadamente
1,0 Mpc. Las dos mayores del grupo son la Vía Láctea y la galaxia de Andrómeda.
HADRÓN. Del griego hadros: robusto o pesado. Una de las dos
familias de partículas elementales que forman toda la materia. Todos los hadrones se componen de quarks e interactúan
a través de la fuerza nuclear fuerte. Los nucleones (neutrones y protones) son ejemplos de bariones, esto es, hadrones
compuestos por tres quarks; los mesones son hadrones que se
componen de dos quarks; existen muchos otros hadrones de
mayores masas.
HALO. La “nube” aproximadamente esférica que rodea a las galaxias espirales. Contiene estrellas viejas y su masa excede con
creces la masa del disco de la galaxia.
HELIOCÉNTRICA (COSMOLOGÍA). Modelo cosmológico en el cual
es el Sol (y no la Tierra) el centro del universo. Alrededor de
este se desplazan planetas y estrellas a distintas distancias. Es
una buena aproximación si nos restringimos a distancias inferiores al tamaño del sistema solar, pero dista mucho de la

343

FÍSICA

realidad cuando tenemos en cuenta el desplazamiento del Sol
dentro de la Vía Láctea, el movimiento de “caída” de nuestra
galaxia hacia el cúmulo de Virgo, la caída de Virgo hacia la
concentración de masa llamada el Gran Atractor, etcétera.
HIPERBÓLICO (ESPACIO). Espacio tridimensional empleado en
cosmología como una de las alternativas de los modelos del
Big Bang. Su geometría puede visualizarse como la superficie de una silla de montar, pero en tres dimensiones. Su
curvatura es negativa; la suma de los ángulos interiores de
un triángulo siempre suman menos de 180 grados; dos geodésicas que parten en direcciones paralelas terminarán por
diverger.
HISTORIAS ALTERNATIVAS. Formulación de la teoría cuántica en
la cual la probabilidad de cada observación es construida a
partir de todas las historias posibles que podrían haber conducido a esa observación.
HORIZONTE DE PARTÍCULAS. También llamados horizontes cosmológicos, estos cristalizan la idea de que en cosmología no es
posible observar más allá de una cierta distancia finita a través
del espacio. Nuestro horizonte está dado por la distancia que
la luz ha podido recorrer desde las épocas más tempranas del
universo. Objetos ubicados fuera de nuestro horizonte no han
tenido aún el tiempo de hacernos llegar su señal.
HORIZONTE (PROBLEMA DEL). Problema cosmológico asociado
con la extrema uniformidad a gran escala del universo, esto
es, con el hecho de que regiones separadas por grandes distancias, mucho mayores que la distancia que un rayo de luz
puede cubrir en toda la historia del universo, nos muestran,
sin embargo, idénticas propiedades, como por ejemplo la temperatura y las anisotropías de la radiación cósmica del fondo
de microondas. Es un problema que los modelos del Big Bang
permiten plantear, sin ofrecer, sin embargo, una solución adecuada, más que la hipótesis de que el universo habría comenzado en un estado de uniformidad casi perfecta, asunción esta
que no agrada a los cosmólogos. La solución de este problema

344

GLOSARIO

debe buscarse en algún modelo del universo primordial que
complemente el Big Bang, como, por ejemplo, los modelos
inflacionarios.
HUBBLE (H, PARÁMETRO DE). Parámetro que indica la tasa de
expansión del universo, generalmente expresado en las unidades “kilómetros por segundo por megaparsec”. Es un parámetro que, en los modelos del Big Bang, varía con la época
cosmológica; para un tiempo dado fijo, H es la constante de
proporcionalidad entre la distancia a las galaxias y su velocidad de alejamiento, y fue introducida por Hubble, como resultado de sus observaciones, a fines de los años 1920. Aún
hoy no se conoce su valor exacto con precisión. Los valores
actuales comúnmente aceptados, estimados a partir de toda
una variedad de observaciones astrofísicas independientes, son próximos a H = 70 km s-1 Mpc-1 (con pequeñas barras
de error). Esta cifra nos indica que dos galaxias separadas por
1,0 Mpc, se estarán alejando a una velocidad de 70 km/s, debido a la expansión del universo. En modelos simples, la inversa
de H (con unidades de tiempo) nos da una idea de la “edad
del universo”, mientras que el producto de su inversa por la
velocidad de la luz nos indica aproximadamente el tamaño del
universo observable.
HUBBLE (LEY DE). Relación lineal aproximada que conecta la distancia a la que se hallan las galaxias lejanas con su velocidad
de recesión o, equivalentemente, con el corrimiento al rojo
(z) que la luz procedente de estas galaxias sufre en su viaje
hasta nosotros. Es válida para velocidades de alejamiento menores que la de la luz, lo que equivale a valores de z inferiores a la unidad. Galaxias que siguen precisamente esta ley
(o en general, la relación de expansión dada por los modelos
cosmológicos), se dice que están en el “flujo de Hubble”. En
la práctica, como el universo cercano no es homogéneo, sino
que existen grandes concentraciones de masa que ejercen su
atracción gravitatoria sobre las galaxias (así como también inmensos vacíos), el movimiento real de estas se aparta un poco
de este flujo. Para distancias suficientemente grandes, estas

345

FÍSICA

velocidades “peculiares” son relativamente pequeñas y las
velocidades de recesión medidas coinciden, en muy buena
aproximación, con las dadas por el flujo de Hubble.
INESTABILIDAD GRAVITACIONAL. Es el proceso mediante el cual
pequeñas fluctuaciones de densidad de materia crecen por autogravitación (recordemos que la gravitación es siempre atractiva). En el caso de tratarse de materia-energía con un cierto
grado de presión interna, este crecimiento solo se da si la talla
de las fluctuaciones excede un valor crítico dado, de tal manera que el “peso” de la materia gravitante sobrepase a la fuerza de la presión interna del gas que se le opone. La expansión
del universo frena en cierto sentido esta inestabilidad, aunque
no totalmente, y las fluctuaciones terminarán por crecer cada
vez más, hasta convertirse eventualmente en las grandes estructuras astrofísicas que nos rodean hoy.
INFLACIÓN CÓSMICA. Hipotético período primordial durante
el cual el universo se habría expandido en forma dramática (explosiva) impulsado por una suerte de energía de vacío
cósmica. Los modelos inflacionarios surgen de la unión de las
teorías de gran unificación y de la cosmología.
Estos modelos proponen que una cierta etapa inflacionaria
se habría iniciado en los primeros 10-35 s de vida del universo y, según muchos cosmólogos, sería el responsable del
“Bang” de los modelos del Big Bang. La inflación resuelve algunos de los problemas de los modelos de la cosmología estándar, como el problema de la planitud espacial,
y el problema del horizonte; brinda además el mecanismo
adecuado para la generación de pequeñas fluctuaciones en
la densidad de la materia, que estarían a la raíz de la generación de las grandes estructuras astrofísicas que existen en
el universo actual.
INFLATÓN. Nombre dado a cualquier tipo de campo de gran
unificación responsable de desencadenar un período
inflacionario.

346

GLOSARIO

ION. Es un átomo o molécula con carga eléctrica positiva o negativa por haber perdido o ganado, respectivamente, uno o más
electrones.
IONIZACIÓN. Es el proceso que convierte a un átomo o molécula
en un ion, por adición o substracción de electrones.
IONIZADA (MATERIA). Forma de materia en la que los átomos
se encuentran separados en núcleos atómicos cargados eléctricamente (llamados iones) y electrones libres. Los gases ionizados interactúan fuertemente con la radiación y por ello,
por ejemplo, durante las épocas tempranas de nuestro universo, la radiación se encontraba estrechamente ligada a la
materia.
ISÓTOPO. Núcleo atómico que posee idéntico número de protones que la especie más común, pero con un número diferente
de neutrones. Por ejemplo, el núcleo del hidrógeno está formado por solo un protón; el deuterio es un isótopo del hidrógeno con un protón y un neutrón, mientras que el tritio
es un isótopo aún más pesado pues contiene un protón y dos
neutrones.
ISOTROPÍA. Que no depende de la dirección. En cosmología, el
universo se dice isótropo si, para un dado observador, presenta iguales características en todas las direcciones.
JOVIANOS. Planetas gigantes que poseen una superficie gaseosa.
Los planetas jovianos del sistema solar son Júpiter, Saturno,
Urano y Neptuno.
KELVIN. Unidad de la escala absoluta de temperaturas, en la que
el cero absoluto, o cero kelvin, corresponde a 273,15 grados por
debajo del punto de congelamiento del agua. Se usa a veces
acompañado de la palabra “grado” (como en “la temperatura
ambiente es de 295 grados kelvin”); esto último, sin embargo,
es incorrecto. A partir del año 1968 se decidió que la unidad
sería 295 kelvin (o 295 K) y no “295 grados kelvin”. El nombre
de esta unidad fue elegido en honor al físico irlandés William

347

FÍSICA

Thomson (1824-1907), Lord Kelvin of Largs (Netherhall in Largs,
Escocia.)
KILOPARSEC. Distancia equivalente a 1 000 pc o bien 3,086 · 1021 cm.
LENTES GRAVITATORIAS. Concentraciones de materia, como,
por ejemplo, galaxias o cúmulos galácticos (o incluso el
Sol), que “tuercen” la trayectoria de la luz de las estrellas o cuásares lejanos. Es una predicción de la relatividad
general, teoría según la cual el espacio en las vecindades
de grandes concentraciones de materia se curva (se “hunde”) modificando así las geodésicas de partículas o fotones
que pasan cerca. De hallarse una dada concentración de
materia a lo largo de la línea de visión, se formarán varias imágenes del mismo objeto ubicado por detrás de la
“lente” (el deflector). Estas imágenes, a modo de espejismos, estarán más o menos deformadas, de acuerdo con la
geometría fuente-deflector-observador.
LEPTON. Del griego leptos: fino o liviano. Una de las dos familias de partículas elementales que forman toda la materia. Se
compone de seis miembros: las partículas llamadas electrón,
muon y tau, con sus correspondientes neutrinos (a estos deben
sumárseles también sus antipartículas).
LIBERTAD ASINTÓTICA. Propiedad de la fuerza fuerte que hace
que esta se haga más débil a distancias más cortas. Por lo tanto, aunque los quarks estén confinados en las partículas de los
núcleos por la fuerza fuerte, pueden moverse en el interior de
ellas como si no notaran fuerza alguna.
LÍNEA DE UNIVERSO. La trayectoria o “camino” seguido por las
partículas en el espacio-tiempo de cuatro dimensiones. Es el
análogo a la distancia entre dos puntos distintos del espacio
tridimensional usual. En el espacio-tiempo, los “puntos” se llaman eventos (ya que incluyen un punto espacial y un tiempo).
Aunque un objeto se quede quieto en el mismo lugar del espacio (y por lo tanto, la distancia tridimensional recorrida es
nula), su línea de mundo SI tendrá una cierta longitud, ya que

348

GLOSARIO

el “intervalo temporal” entre dos eventos dados no es nula (el
tiempo pasa).
LÍNEAS ESPECTRALES. Líneas distintivas en los espectros de emisión o absorción que se detectan de objetos astronómicos a
determinadas longitudes de onda. Son causadas por transiciones atómicas o moleculares. En los átomos, es el resultado del
«salto» de un electrón de uno de los estados cuánticos permitidos a otro. El electrón pasa a un estado más energético si
el átomo absorbe un cuanto de luz con la energía apropiada
(justo la energía diferencia entre los dos estados de la transición). Por el contrario, al desexcitarse el átomo, el electrón
pasará a un estado de menor energía y resultará en la emisión
de un cuanto de luz.
LONGITUD DE ONDA. Es la distancia entre dos crestas consecutivas de una onda. Se simboliza con la letra griega minúscula lambda. Es inversamente proporcional a la frecuencia, que
indica número de ciclos por unidad de tiempo y se mide en
hercios (Hz) (un hercio es un ciclo por segundo). Para las ondas
electromagnéticas el producto de la frecuencia y la longitud
de onda es igual a la velocidad de la luz. Múltiplos comunes
del hercio, para referirse a ondas de radio, son el megahercio
(1,0 MHz = 106 Hz) y el gigahercio (1,0 GHz = 109 Hz), respectivamente un millón y mil millones de veces mayores.
LUMINOSIDAD. El brillo intrínseco de una estrella. Generalmente, se la define en función de su magnitud absoluta.
M (TEORÍA). Teoría “Madre” que une varias teorías de supercuerdas dentro de un marco matemático más general. Está formulada en varias dimensiones (por encima de las 3 espaciales
+ 1 temporal); estas dimensiones suplementarias se habrían
luego compactificado, resultando en nuestro espacio-tiempo
estándar, de cuatro dimensiones. Es una teoría que permitiría describir el universo hasta épocas tan primordiales como
la época de Planck, en la que las fluctuaciones cuánticas del
espacio-tiempo no pueden ya dejarse de lado.

349

FÍSICA

MAGNITUD. Es la medida (en escala logarítmica) usada para medir el brillo de un objeto astronómico. Se define de tal forma
que números menores corresponden a brillos mayores; disminuir el brillo en una magnitud equivale a un factor de aumento de aproximadamente 2,5 en luminosidad. Una diferencia
de cinco magnitudes corresponde a un factor 100 = (2,512)5 en
luminosidad, y una diferencia de 10 magnitudes corresponde a
un factor 10 000 en luminosidad. Esta medida de luminosidad
se emplea desde los tiempos de Hiparco, en el siglo ii a.n.e., y
obedece al hecho de que la sensibilidad del ojo humano a la
intensidad de la luz es logarítmica.
MAGNITUD ABSOLUTA (M). Unidad que expresa la luminosidad
intrínseca de un astro, esto es, la energía por unidad de tiempo emitida por el objeto astronómico. Por ejemplo, el Sol
tiene una magnitud absoluta de +4,83; mientras que Sirio,
cuyo brillo intrínseco es mayor, tiene una magnitud absoluta
de +1,43.
MAGNITUD APARENTE (m). Expresa la luminosidad de los astros vista
desde la Tierra, independientemente de su verdadera distancia. En general, las estrellas más brillantes del cielo tienen
magnitud aparente m = 1; las más débiles tienen m = 6. El
Sol, la de mayor magnitud aparente tiene un valor negativo:
m = –26,74; mientras que la Luna llena tiene m = -12,5 y Venus
m = –4. La estrella más brillante de nuestro cielo nocturno es
Sirio, con una magnitud aparente de m = -1,46. Durante una
noche clara, el ojo humano distingue estrellas débiles de hasta
magnitud aparente +6, y los grandes telescopios logran detectar objetos hasta magnitudes aparentes de aproximadamente
unos +30.
MATERIA OSCURA. Toda forma de materia que no emite ningún
tipo de radiación electromagnética (luz visible, rayos infrarrojos, ondas de radio, etcétera) que podamos detectar, y cuya
presencia debe inferirse por mediciones dinámicas. Esto es,
solo la gravitación de esta materia no visible nos da indicio
de su existencia. Hay pruebas observacionales de la existencia

350

GLOSARIO

de materia oscura en las galaxias y cúmulos galácticos, posiblemente en forma de restos de estrellas masivas, de estrellas
frustradas que nunca iniciaron la combustión nuclear o en forma de objetos de tipo planetas con masas como la de Júpiter.
Se estima que la materia oscura es responsable de una parte
sustancial de la masa del universo, mayor incluso que la materia visible. Los físicos que estudian las partículas elementales a
muy altas energías han propuesto numerosos candidatos para
la materia oscura, a veces llamados WIMPs.
MATERIA OSCURA FRÍA. Materia solo detectable por sus efectos gravitacionales, presumiblemente un tipo de partícula
desconocida relativamente masiva que se mueve a velocidades mucho menores que la velocidad de la luz (velocidades no
relativistas) y que interactúa muy débilmente con la materia
ordinaria con gran importancia alrededor de la época en que
la sustancia comienza a dominar la expansión del universo.
Esta materia oscura permite que la formación de estructuras
astrofísicas comience antes de la época del desacople de los
bariones y la radiación.
MATERIA BARIÓNICA. Materia normal formada por los constituyentes del modelo estándar de partículas entre las que se encuentran protones, neutrones y electrones constituyentes del
átomo con sus correspondientes antipartículas.
MEGAPARSEC. Unidad de distancia equivalente a un millón de
parsecs, o bien 3,086 · 1024 cm.
MESÓN. Tipo de partícula elemental que está formado por un
quark y un antiquark.
MODELO COSMOLÓGICO. Se llama así a una descripción matemática del estado actual y evolución en el tiempo del universo. Para que tenga validez, los resultados de sus ecuaciones
deben coincidir con las observaciones, e incluso, predecir
fenómenos que confirmen observaciones futuras. Los modelos actuales se basan en las ecuaciones de la teoría general
de la relatividad de Einstein y fueron desarrollados, entre

351

FÍSICA

otros, por el holandés Willem De Sitter (1872-1934), el belga
Georges Lemaître (1894-1966) y el ruso Alexander Friedmann
(1888-1922).
MODELO DE MATERIA OSCURA FRÍA CON CONSTANTE COSMOLÓGICA (O LAMBDA-CDM). Es un modelo cosmológico que
concuerda con la teoría del Big Bang y que explica resultados
que coinciden con las observaciones de grandes estructuras
cósmicas, la luminosidad de las supernovas lejanas y la expansión del universo.
MONOPOLO MAGNÉTICO. Partícula predicha por las teorías de
gran unificación y cuya excesiva abundancia presenta un serio
problema para los modelos del Big Bang. Puede verse como
un imán con un solo polo, jamás descubierto en los experimentos, y que resulta ser excesivamente masivo, teniendo en
cuenta las energías a las que se habría originado (tan solo tres
órdenes de magnitud por debajo de la escala de Planck). La inflación cosmológica surgió como una posible solución de este
problema del exceso de monopolos magnéticos.
MOND (Modified Newtonian Dynamics). Teoría alternativa a
la dinámica Newtoniana, propuesta por Mordehai Milgrom,
y que consiste básicamente en modificar la segunda Ley de
Newton. La motivación de esta modificación es la de explicar
la elevada velocidad de rotación que se mantiene casi constante en la parte externa del disco de las galaxias espirales.
MONOPOLOS MAGNÉTICOS (PROBLEMA DE LOS). Un problema que surge de la unión de las teorías de gran unificación
y la cosmología estándar. La producción temprana de un
número excesivo de monopolos cambiaría drásticamente la
evolución e historia pasada de nuestro universo. La inflación diluye el número de monopolos observables, de manera de hacerlos compatibles (o, al menos, no nocivos) con la
cosmología.
MUÓN. partícula subatómica de la familia de los leptones (leptón
de segunda generación), unas 200 veces más masiva que el
electrón e inestable. Se crea por colisiones de rayos cósmicos.

352

GLOSARIO

MULTIVERSO. Conjunto de universos que hipotéticamente pueden formar el mundo.
NEUTRÓN. Tipo de barión eléctricamente neutro que, con el protón, forma los núcleos de los átomos.
NEBULAR (HIPÓTESIS). Teoría de formación de nuestro sistema
solar por la condensación y posterior colapso de una nube de
gas lentamente rotante. En el proceso de colapso se forma
un disco, del cual se irán separando los distintos planetas, por
acumulación de materia debida a la atracción gravitatoria y
al enfriamiento del gas. La región central, sometida a altas
presiones, elevará su temperatura hasta “encenderse” en una
estrella.
NEBULOSA. Con este nombre se llamaba a todo tipo de objetos
“nebulosos” del cielo en una época en que los telescopios no
lograban resolver los detalles de estas formaciones. Hoy, muchas de estas nebulosas son llamadas galaxias, aunque otras
terminaron siendo cúmulos galácticos, restos de supernovas, o
incluso nubes de gas ionizado en nuestra propia galaxia.
NEUTRINO. Partícula fundamental de la familia de los leptones
(fino, liviano, del griego leptos). Partícula eléctricamente neutra, muy liviana (hasta hace poco tiempo se pensaba que no
tenía masa) y muy débilmente interactuante (sujeta solo a la
interacción nuclear débil y la gravedad).
NEUTRÓN. Partícula sin carga eléctrica que, junto con el protón, integra el núcleo de todos los átomos excepto el hidrógeno. Este nucleón está formado por tres quarks (es un
barión). En el interior del núcleo, el neutrón es estable, pero
fuera de él, sufre un decaimiento radiactivo en unos pocos minutos, convirtiéndose en un protón, un electrón y un
antineutrino.
NEWTON (G, CONSTANTE DE). Constante de proporcionalidad
que aparece en la expresión de la Ley de la gravitación de
Newton. La relatividad general de Einstein, que relaciona
la geometría del espacio-tiempo con la distribución local de

353

FÍSICA

materia-energía, conserva a esta constante en su ecuación
principal. Sin embargo, de acuerdo con algunas teorías alternativas a la relatividad general, o bien algunas teorías que
buscan lograr la (gran) unificación de las interacciones fundamentales, G sería variable, variando, por ejemplo, con la época
cosmológica.
NEWTON (LEY DE LA GRAVITACIÓN DE). Es la fuerza atractiva
que existe entre dos partículas masivas. Esta fuerza es proporcional a la magnitud de las masas e inversamente proporcional
al cuadrado de la distancia que las separa, cuya constante de
proporcionalidad es la constante de Newton, G.
NUCLEAR DÉBIL (FUERZA). Una de las cuatro interacciones fundamentales de la física, responsable, en particular, de mediar el
decaimiento radiactivo de los neutrones. Al igual que la fuerza nuclear fuerte, la débil es de corto alcance.
NUCLEAR FUERTE (FUERZA). La más fuerte de las cuatro interacciones fundamentales, responsable de mantener a los quarks
confinados dentro de los neutrones y protones, y de mantener la integridad de núcleos con muchos neutrones y protones (cuando la repulsión eléctrica entre protones lo haría
desmembrarse). Esta fuerza es de corto alcance y su distancia
característica de acción es menor que 10-15 m.
NÚCLEO. Como en la biología, en la cual el núcleo denota la parte central de una célula, aquí también el núcleo indica la parte
central de un objeto, aunque esta vez se trata de los átomos, y
se compone de protones y neutrones. En el núcleo se concentra virtualmente la casi totalidad de la masa del átomo.
NUCLEOSÍNTESIS. Formación (síntesis) de núcleos atómicos por
medio de reacciones nucleares. De acuerdo con los modelos del
Big Bang, la nucleosíntesis primordial habría ocurrido en los
primeros tres minutos de la vida del universo, y se habrían generado en cantidades apreciables solo los núcleos más livianos
(especialmente los núcleos del helio y del deuterio). Núcleos
de elementos más pesados se crearán luego, en el interior de

354

GLOSARIO

las estrellas, proceso que se denomina nucleosíntesis estelar.
Finalmente, las explosiones de supernovas generarán las condiciones extremas necesarias para la formación de los núcleos
más pesados de la tabla periódica.
OMEGA. Importante parámetro cosmológico definido como el
cociente entre la densidad de materia-energía real del universo y la densidad crítica. Un valor de Omega mayor (menor)
que uno indica que la densidad de materia-energía real del
universo es mayor (menor) que la crítica y, en consecuencia,
que la geometría del espacio físico será esférica (hiperbólica)
y de curvatura positiva (negativa). El valor critico Omega = 1
indica, en cambio, un universo euclídeo (de curvatura nula) de
densidad idénticamente igual a la crítica. Las observaciones
actuales indican que Omega es muy próximo a la unidad y que
el universo es espacialmente plano.
PARSEC (PC). Es una medida astronómica de distancia. Contracción de PARallax SECond. Se define como la distancia a la cual
una unidad astronómica (1 ua) subtiende un ángulo de un
segundo de arco (1’’), esto es, 1 pc = 1 ua / 1’’. En otras palabras, corresponde a la distancia a la que debemos alejarnos
del sistema solar para que la distancia promedio Tierra-Sol
(1 ua) se vea bajo un ángulo de un segundo de arco. Tenemos
1 pc = 206,265 ua = 3,2616 al = 3,0857 · 1016 m = 3,086 · 1018 cm.
La estrella más cercana al Sol, Próxima Centauri, está a 1,3 pc.
PARTÍCULAS RELATIVISTAS. Aquellas partículas cuyas velocidades
características son próximas a la velocidad de la luz. En el caso
de partículas sin masa en reposo, como los fotones de la radiación electromagnética, la velocidad es exactamente la de
la luz.
PERIHELIO. Es el punto más próximo al Sol en la órbita de un
planeta o cometa. Para la Tierra el paso por el perihelio cae
aproximadamente el 3 de enero.
PERIHELIO (AVANCE DEL). De acuerdo con las leyes de Kepler y
la mecánica newtoniana, las órbitas de los planetas alrededor

355

FÍSICA

del Sol son elipses fijas en el espacio. Sin embargo, las perturbaciones debidas a los demás planetas del sistema solar hacen que estas elipses “no se cierren” o, lo que es lo mismo,
que estas elipses cambien lentamente sus posiciones en el mismo plano que las contiene. Esto resulta en una modificación
de la posición del perihelio (más precisamente, en un avance del perihelio). La relatividad general de Einstein agrega
una pequeña corrección al cálculo newtoniano, que coincide
exactamente con las discrepancias ya descubiertas, a fines del siglo xix, entre las observaciones y la teoría newtoniana.
PERTURBACIONES COSMOLÓGICAS. Pequeñas inhomogeneidades en la distribución de materia del universo que dieron origen –por medio de la acción de la gravedad− a las grandes
estructuras astrofísicas que nos rodean hoy. Uno de los más
interesantes problemas de la cosmología actual es saber con
precisión cómo fue que se originaron esas perturbaciones. En
la actualidad existe un gran consenso entre los cosmólogos en
afirmar que estas “semillas primordiales” se habrían originado
durante una etapa inflacionaria de nuestro universo que habría tenido lugar cuando este tenía no más de 10-35 s de vida.
PLANCK (CONSTANTE DE). Parámetro fundamental de la mecánica cuántica, indicado con la letra h. Es el parámetro que
determina el tamaño característico de las unidades discretas
de energía, espín, etc., en las cuales se fracciona el mundo
subatómico.
PLANCK (TIEMPO DE). Instante de tiempo en los modelos del
Big Bang, anterior al cual la teoría general de la relatividad
de Einstein se quiebra, y debe ser reemplazada por una teoría
cuántica de la gravedad. En función de constantes fundamentales de la física, el tiempo de Planck puede expresarse como
[G h / (2π) / c5)]1/2, donde G es la constante de Newton, c es la
velocidad de la luz en el vacío y h es la constante de Planck, y
vale aproximadamente 10-43 s.
PLANCK (LONGITUD O ESCALA DE). La escala de longitud característica por debajo de la cual las fluctuaciones cuánticas en la

356

GLOSARIO

“tela” espacio-temporal dejarían de ser despreciables. Es también la distancia que recorre un rayo de luz en un tiempo igual
al tiempo de Planck.
PLANCK (SATÉLITE). Sonda diseñada para detectar las anisotropías en el fondo cósmico de microondas en casi todo el cielo menos un octavo, con una resolución y sensibilidad sin
precedentes.
PLANITUD (PROBLEMA DE LA). Un problema de los modelos del
Big Bang relacionado con la precisión con que se debe ajustar el valor inicial del parámetro Omega, el cociente entre
la densidad real del universo y la densidad crítica. Omega
varía su valor con el tiempo y, de no ser exactamente uno, se
aparta rápidamente de este valor. Las observaciones actuales
indican que Omega debe estar cerca de la unidad, y eso implica que su valor en épocas de la nucleosíntesis primordial
(unos pocos minutos después de la singularidad) no podía
diferir de uno en más que una parte en 1015. De no ser así,
el universo que resultaría diferiría mucho del nuestro. Los
modelos del Big Bang proveen el marco adecuado para que
surjan este tipo de interrogantes, aunque no proveen la solución; esta solución quedará para modelos primordiales que
complementen el Big Bang, como, por ejemplo, los modelos
inflacionarios.
PLANO (ESPACIO). Sinónimo de espacio Euclídeo, en el que las
propiedades geométricas usuales deducidas de los postulados
de Euclides tienen validez. En cosmología se refiere al espacio
físico de tres dimensiones espaciales y sin curvatura.
PLANO (UNIVERSO). Universo de extensión infinita en el que el
espacio está exento de curvatura. A un universo isótropo y homogéneo se le llama plano si se encuentra justo en la línea
divisoria que separa los universos llamados de baja densidad
y los de alta densidad (estos últimos, a veces, también llamados universos “cerrados”). Si la constante cosmológica es cero,
un universo plano continuará su expansión indefinidamente,
pero cada vez con menor velocidad (hasta detenerse “en el

357

FÍSICA

infinito”, un balance exacto entre su energía cinética de movimiento y su energía potencial gravitatoria). En un universo
plano, la densidad real de materia-energía es siempre igual a
la llamada densidad crítica, y por ende el parámetro Omega es
igual a la unidad.
PLASMA. Un gas completamente ionizado, a veces llamado
el cuarto estado de la materia (además de los estados sólido, líquido y gaseoso). En un plasma la temperatura es
demasiado alta como para que existan átomos neutros,
y la materia se separa en núcleos atómicos y electrones
libres.
POLARIZACIÓN. Restricción en el modo de vibración de una
onda transversal, como las ondas electromagnéticas. En estas ondas, los campos eléctrico y magnético son ortogonales
entre sí y vibran en el plano perpendicular a la dirección de
propagación. La restricción que hace que, por ejemplo, el
campo eléctrico solo vibre en una dada dirección fija sobre
este plano, y no en todas las posibles, resulta en un estado
de polarización lineal. La polarización o cambio del estado
de polarización de la luz se logra con polarizadores. La interacción de la radiación con partículas cargadas también
polariza a la luz.
POSITRÓN. La antipartícula del electrón.
PRINCIPIO ANTRÓPICO. Enunciado que afirma que el estado
actual de nuestro universo puede explicarse por el hecho de
que, de ser distinto, no existirían las condiciones adecuadas
para la vida y entonces no habría lugar para observadores
(como nosotros) capaces de preocuparse sobre por qué el
universo es como es. Por ejemplo, si la fuerza nuclear fuerte fuera apenas diferente de lo que es en la actualidad, la
combustión termonuclear estelar sería distinta, las estrellas no
brillarían como lo hacen en la realidad y la vida como la
conocemos no tendría lugar. Se separan comúnmente dos
definiciones en este principio. El principio antrópico “débil”

358

GLOSARIO

y el “fuerte”. El primero afirma que los valores observados
de todas las cantidades físicas y cosmológicas, no son igualmente probables, sino que toman valores restringidos por
el requerimiento que deben existir lugares en el cosmos en
los que la vida basada en la química del carbono pueda evolucionar, y por el requerimiento adicional que el universo
sea lo suficientemente viejo como para haber permitido dicha evolución. Por otro lado, el principio antrópico “fuerte”
afirma que el universo debe poseer aquellas propiedades
que permitan la evolución de la vida en algún momento
de su historia. Esta separación fue introducida por Brandon
Carter, en 1974.
PRINCIPIO COSMOLÓGICO (O COPERNICANO). La hipótesis que
afirma que nuestra ubicación espacial en el universo no debe
ser privilegiada, que el universo debe resultar aproximadamente isótropo y homogéneo para todo posible observador.
PRINCIPIO COSMOLÓGICO PERFECTO. La extensión del principio cosmológico también al tiempo: el universo no solo debe
ser isótropo y homogéneo para todo posible observador, sino
que, además, debe mostrarse idéntico a sí mismo en todo instante de tiempo. Nótese que esto no prohíbe la expansión,
aunque SI prohíbe un origen de los tiempos y un universo
evolutivo. Este principio está en la raíz del modelo del estado
estacionario.
PRINCIPIO DE INCERTIDUMBRE DE HEISENBERG. Ley de la teoría
cuántica que establece que ciertos pares de magnitudes físicas no pueden ser conocidos simultáneamente con precisión
arbitraria.
PROTOESTRELLAS. Densas concentraciones de gas y polvo en el
seno de nubes moleculares frías que constituyen el estadio inicial de la constitución de las estrellas.
PROTÓN. Partícula subatómica con carga eléctrica. Unidad que,
junto con el neutrón, integra el núcleo de todos los átomos
(es un nucleón). El número de protones de un núcleo atómico

359

FÍSICA

define al elemento: el hidrógeno tiene siempre solo un protón
como núcleo, el helio tiene siempre solo dos protones en su
núcleo, etc., independientemente del número de neutrones
que compartan ese núcleo (que no hacen más que cambiar el
isotopo de dicho elemento).
QUARK. Partícula fundamental con carga eléctrica fraccionaria y
sensible a la fuerza nuclear fuerte. Los quarks existen en seis
variedades (o “sabores”): up (u), down (d), charm (c), strange
(s), top (t), bottom (b), y en tres “colores”: rojo, verde y azul.
Por ejemplo, tres quarks forman el proton (uud), pero deben
ser los tres de colores distintos, de tal manera que estos, al neutralizarse, den un protón “sin color”, como en efecto se verifica experimentalmente. El nombre quark está asociado con el
numero “tres”; de acuerdo con el físico Murray Gell-Mann, fue
sacado de la novela Finnegans Wake, de James Joyce: “Three
quarks for Muster Mark!”.
QUASAR (O CUÁSAR). Los objetos extra galácticos más luminosos
(y lejanos) del universo. Su nombre proviene de la contracción
de Quasi Stellar Radio Sources (Q.S.R.S), acrónimo que en inglés suena como “quasars” y que significa fuentes (de radio)
altamente energéticas de apariencia estelar. Se piensa que son
poderosos núcleos de galaxias activas.
QUINTAESENCIA. El quinto y más puro elemento en la filosofía
antigua y medieval, que constituye la substancia de la cual están hechos los astros.
En cosmología moderna, se da el nombre campos de quintaesencia a ciertas formas hipotéticas de energía oscura que
podrían dar cuenta de las observaciones actuales que indican
un movimiento de expansión acelerada para nuestro universo.
Es un tipo de “energía del vacío”, que actúa como un campo
repulsivo, y puede variar en escalas de tiempo cosmológicas.
A diferencia de la constante cosmológica de Einstein (otra forma de energía oscura), los campos de quintaesencia no permanecerían constantes en el tiempo, pudiendo incluso tener

360

GLOSARIO

fluctuaciones cuánticas, que harían su dinámica menos trivial
y más fácilmente amoldable a las estrictas y variadas observaciones astrofísicas actuales.
RADIACIÓN CÓSMICA DE FONDO. In extenso, radiación cósmica
del fondo de microondas. Es un fondo difuso de radiación de
muy alto nivel de isotropía, cuya distribución de intensidad,
en función de la frecuencia, corresponde al llamado espectro de cuerpo negro, y sigue con extrema precisión una curva teórica conocida como la curva de Plank. Vestigio del Big
Bang, es un frío baño de radiación en la región de las ondas
de radio y que hoy cuenta con unos pocos grados Celsius por
encima del cero absoluto (2,725 K, para ser más precisos). Llega de todas las direcciones del universo y llena completamente el espacio intersideral. La ley de Planck de su espectro es
un fuerte indicio de la existencia, miles de millones de años
atrás, de un estado de equilibrio térmico total entre todos
los constituyentes del universo (partículas fundamentales,
corpúsculos de radiación, etc.); equilibrio que se habría roto
en un determinado momento (llamado “desacoplamiento”)
y que habría dejado “escapar” este fondo de radiación. La
presencia de este fondo es una característica distintiva de los
modelos con un comienzo “caliente” y energético, como
los del Big Bang. Fue descubierta, en 1965, por Arno Penzias
y Robert Wilson, que recibieron el Premio Nobel de Física de
1978 por ello.
RADIACIÓN DE HAWKING. Tipo de radiación producida en el horizonte de sucesos de un agujero negro y debida, plenamente,
a efectos de tipo cuántico.
RAYOS CÓSMICOS. Son partículas subatómicas (protones, neutrones y núcleos atómicos despojados de sus electrones) que
ingresan en la atmósfera terrestre desde el espacio. Se las detecta en un rango muy amplio de energías, que llegan hasta 1020 eV. Un protón con esa energía se mueve a velocidad
muy cercana a la de la luz, y a pesar de su minúscula masa su

361

FÍSICA

energía es equivalente a la de una pelota de tenis impulsada a
150 km/h.
RAYOS GAMMA. Son una forma de radiación electromagnética de onda muy corta y muy alta frecuencia (por encima de
1019 Hz). Fueron descubiertos, en 1900, por el fisicoquímico
francés Paul Villard (1860-1934) estudiando la radioactividad
natural del uranio.
RECOMBINACIÓN. Proceso de captura de un electrón por un ion
positivo que, en los modelos del Big Bang, sucede principalmente cuando un protón captura un electrón para formar
un átomo de hidrógeno. Esta “recombinación” del hidrógeno neutro ocurre cuando el universo tenía una temperatura
aproximada de unos 3 000 K. Sucede poco antes de la época
del desacoplamiento pues, dado que la proporción de materia ionizada disminuye bruscamente durante la recombinación, la radiación, que interactúa muy poco con la materia
neutra, se desacoplará luego de esta.
REIONIZACIÓN. Luego de la formación de la materia neutra
(durante la etapa de la recombinación del hidrógeno) el
universo es en gran medida transparente a la radiación
cósmica de fondo. Pero a los pocos cientos de millones de
años, las primeras estrellas y cuásares comienzan a formarse. Estas potentes fuentes de radiación, que emiten en longitudes de onda cercanas al ultravioleta, terminarán por
volver a ionizar a la materia neutra, dando lugar a un nuevo período en el que el universo se hallará ionizado; por
eso se habla de “reionización”. Se considera comúnmente
que la observación de ese período de reionización es un
fuerte indicio del momento aproximado en el que se generaron las primeras estrellas, época en la que las “tinieblas
cósmicas” llegan a su fin.
RELATIVIDAD ESPECIAL. Descripción de los fenómenos mecánicos
y electromagnéticos que involucran fuentes y observadores
desplazándose a velocidades próximas a la de la luz, pero en

362

GLOSARIO

ausencia absoluta de efectos gravitatorios. Fue propuesta por
Einstein, en 1905, aunque varios otros científicos contemporáneos, tanto experimentales como teóricos, también contribuyeron a delinear sus bases.
RELATIVIDAD GENERAL. Descripción de la gravedad propuesta por Einstein, en 1916, en la cual la curvatura del espacio-tiempo tetradimensional surge de la distribución local de
materia-energía, y, a su vez, el movimiento de la materia es
afectado por la curvatura del espacio-tiempo, todo esto en
una forma bien precisa, dictada por las ecuaciones del campo
gravitatorio. La relatividad general (generalización de la relatividad especial) es la teoría que describe aquellos fenómenos
mecánicos, gravitatorios y electromagnéticos que ocurren en
presencia de campos gravitatorios fuertes y que involucran velocidades próximas a (o al menos, no mucho menores que) la
de la luz. Estos últimos son los casos en los que la teoría de
Einstein se aparta notoriamente de la gravitación de Newton,
y son ejemplos típicos el estudio de objetos compactos, como
los agujeros negros, y el estudio del universo.
REMANENTES DE SUPERNOVAS. Estructuras que se forman en el
espacio como consecuencia de las explosiones de supernovas,
y está compuesto por el material expelido por la estrella explotada, más el material que la onda expansiva encuentra en
su camino y, eventualmente, una estrella de neutrones en su
interior.
RENORMALIZACIÓN. Técnica matemática diseñada para eliminar
los infinitos que aparecen en las teorías cuánticas.
RETRÓGRADO (MOVIMIENTO). Movimiento aparente de un planeta en dirección opuesta a la normal, producido por el movimiento orbital de la Tierra; en astronomía, este movimiento
retrógrado corresponde a moverse −noche tras noche− de Este
a Oeste.
SEGUNDO DE ARCO. Unidad angular usada en astronomía. Un
segundo de arco (notado 1’’) equivale a 1/3 600 de un grado.

363

FÍSICA

SEGUNDO-LUZ. La distancia recorrida en el vacío por un haz de luz
en un segundo, esto es, aproximadamente unos 300 000 km.
SINGULARIDAD. Región del espacio-tiempo en la que las leyes
conocidas de la física se quiebran, la “tela” espacio-temporal sufre una ruptura y la curvatura se hace infinita. Hoy se
piensa que los modelos del Big Bang comienzan con una tal
singularidad.
SIRIO (ALPHA CANIS MAJORIS). Ubicada en la constelación del
Can Mayor, es llamada la Estrella Canicular, o a veces el Perro de
Orión. Es la estrella de mayor brillo (aparente) del cielo, con
una luminosidad aparente unas 26 veces menor que la del Sol.
Se ubica a 8,7 años luz de la Tierra y tiene una estrella compañera (una débil enana blanca, y que orbita alrededor de la
estrella principal) llamada Sirio B.
SOL. Estrella del sistema solar, alrededor de la cual orbita la Tierra
y los demás planetas y cometas. Su edad se estima en unos
4 600 millones de años, y se halla a unos 27 000 años luz del
centro de la galaxia, o sea a un 40 % de la distancia entre el
centro y el borde del disco galáctico.
SUPERCUERDAS (TEORÍA DE). Teoría de cuerdas que incorpora una
simetría adicional, llamada la supersimetría. Esta última postula
un principio de simetría que relaciona partículas con distintas
cantidades de espín, llamadas bosones (espín entero: -1, 0, 1,
etc.) y fermiones (espín semintero: -3/2, -1/2, 1/2, 3/2, etc.).
SUPERCÚMULO GALÁCTICO. Un cúmulo de cúmulos de galaxias,
típicamente de un tamaño que ronda los 100 millones años
luz.
SUPERGRAVEDAD. Teoría de la gravitación que tiene un tipo de
simetría denominado supersimetría.
SUPERNOVA (SN). Una explosión estelar que puede manifestarse de forma muy notable, incluso a simple vista, en lugares
de la esfera celeste en las que antes no se había detectado
nada en particular. La violenta explosión marca el fin de la

364

GLOSARIO

vida de algunas estrellas. Ese final también puede deberse a
la acumulación de un exceso de materia de una estrella vecina, y puede dejar como remanente un objeto compacto del
tipo de una estrella de neutrones (incluso un agujero negro,
si la masa es suficientemente grande). Existen varios tipos
de eventos de supernova, clasificados principalmente por los
elementos presentes en sus espectros de luz (las SN de tipo
I no muestran hidrógeno en sus espectros; las de tipo II en
cambio (SI lo muestran). Las SN de tipo I se clasifican además
en SN-Ia, SN-Ib y SN-Ic. Las dos últimas resultan del colapso de
estrellas masivas que han perdido sus atmósferas de hidrógeno; las primeras son estrellas del tipo de las enanas blancas,
que al incorporar demasiada masa de otra estrella compañera cercana, colapsan gravitacionalmente, terminando su vida
en una gigantesca explosión termonuclear. Recientemente,
las SN-Ia han sido muy usadas en cosmología como patrones
de luminosidad para calcular distancias astronómicas.
SUPERNOVA TIPO IA. Explosión termonuclear resultado de la
acreción de masa por parte de una enana blanca de carbono-oxígeno desde una estrella compañera, generalmente
una gigante roja. La enorme energía libera una poderosa onda de choque que destruye la estrella, normalmente no quedan rastros del astro que originó el cataclismo,
sino solo restos de gas y polvo sobrecalentados en rápida
expansión.
SUPERSIMETRÍA. Tipo sutil de simetría que no puede ser asociada
con la transformación de un espacio ordinario. Una de las implicaciones importantes de la supersimetría es que las partículas de fuerza y las partículas de materia, y por lo tanto fuerza
y materia, son en realidad dos facetas de la misma cosa.
TEORÍA CUÁNTICA. Teoría en que los objetos no tienen una sola
historia bien definida.
TEORÍAS DE GRAN UNIFICACIÓN (sigla en inglés TGU). Teorías
que tratan de unificar todas las interacciones conocidas a excepción de la gravitación: electromagnética, nuclear débil y

365

FÍSICA

nuclear fuerte. Suponiendo que sea posible una gran unificación de todas las interacciones, entonces todas las interacciones que observamos no son más que diferentes aspectos de la
misma teoría unificada.
TEORÍA M. Teoría fundamental de la física que es candidata a ser
teoría de todo.
TEORÍA DE CUERDAS. Teoría de la física en que las partículas
son descritas como modos de vibración que tienen longitud,
pero no anchura ni altura, como fragmentos de cuerda infinitamente finos.
TEORÍA DEL BIG BANG. Es un conjunto de modelos cosmológicos
que dan cuenta del estado ultra temprano y posterior desarrollo del universo que concuerdan en un alto grado de precisión
con las evidencias observadas. El término Big Bang o gran explosión (una mala designación para la teoría, pues no existe
una tal “gran explosión”) alude a que el universo se habría
expandido en un tiempo limitado a partir de un estado inicial
de altísima temperatura energía y densidad, y continúa expandiéndose hoy.
TRITIO. Isótopo del hidrógeno de corta vida media (unos 12 años)
en el cual el núcleo está formado por un protón y dos neutrones. Es el isótopo más pesado del hidrógeno y no se encuentra
en forma natural en la Tierra.
UNIDAD ASTRONÓMICA (UA). Es una medida astronómica convencional de distancia, aproximadamente igual a la distancia
promedio entre la Tierra y el Sol, es decir, unos 150 millones de
kilómetros (más exactamente 1,496 · 1013 cm, o 8,31 minutos
luz). Para distancias cósmicas de órdenes de magnitud mucho
mayores se usan: años luz o parsec.
UNIVERSO ESTÁTICO (DE EINSTEIN). Modelo cosmológico en el
cual el universo se mantiene estático (sin expansión ni contracción) gracias a la introducción de una fuerza cosmológica “repulsiva” (relacionada con la llamada constante cosmológica

366

GLOSARIO

de Einstein) que contrarresta, en forma precisa, la atracción
gravitatoria de la materia-energía ordinaria.
VELOCIDAD RADIAL DE LAS ESTRELLAS. Es la componente radial
(o sea, en dirección al observador) de la velocidad relativa de
cada estrella con relación al Sol. Se debe a que cada estrella
posee una velocidad diferente en su movimiento alrededor
del centro de la galaxia.
WIMP. Sigla en inglés, viene de Weakly Interacting Massive Particle, o sea, partícula masiva débilmente interactuante. Se usa
como término genérico para designar una clase de partículas
hipotéticas que brindarían una forma de materia oscura, posiblemente materia oscura no bariónica.
WMAP. Wilkinson Microwave Anisotropy Probe fue una sonda de
la NASA, cuya misión era estudiar el cielo y medir las diferencias de temperatura que se observan en la radiación de fondo
de microondas, un remanente del Big Bang. Fue lanzada por
un cohete Delta II, el 30 de junio de 2001, desde Cabo Cañaveral, Florida, Estados Unidos.

367

ANEXOS
SISTEMA INTERNACIONAL DE UNIDADES (SI)
El SI revisado quedó definido como aquel en el que: ​
• la frecuencia de la transición hiperfina del estado fundamental no perturbado del átomo de cesio 133 (DνCs) Dν C s es 9 192 631 770 Hz
• la velocidad de la luz en el vacío ( c c) es 299 792 458 m/s
• la constante de Planck ( h h) es 6,626 070 15 · 10-34 J·s
• la carga elemental ( e e) es 1,602 176 634 · 10-19 C
• la constante de Boltzmann ( k k) es 1,380 649 · 10-23 J/K
• la constante de Avogadro ( N A NA) es 6,022 140 76 · 1023 mol-1
• la eficacia luminosa de la radiación monocromática de 540 · 1012 Hz (Kcd
K cd ) es 683 lm/W
A partir de los valores anteriores se definen las siete unidades básicas.
TABLA 1.1 (unidades básicas)
Unidad
básica
(símbolo)

Magnitud
física básica
(Símbolo de
la magnitud)

segundo

tiempo

Se define al fijar el valor Es la duración de 9 192 631 770

(s)

[t]

numérico de la frecuencia periodos de la radiación corres-

Definición técnica

Definición derivada

de la transición hiperfina pondiente a la transición entre
del estado fundamental los dos niveles hiperfinos del
no perturbado del áto- estado fundamental no perturmo de cesio 133, Dν Cs, en bado del átomo de cesio 133.
9 192 631 770, cuando se expresa en la unidad Hz, igual
a s−1. [DνCs = 9 192 631 770 /s]

369

FÍSICA

Unidad
básica
(símbolo)

Magnitud
física básica
(Símbolo de
la magnitud)

metro

longitud

Se define al fijar el valor Es la longitud del trayecto

(m)

[l]

numérico de la velocidad recorrido por la luz en el va-

Definición técnica

Definición derivada

de la luz en el vacío, c, en cío durante un intervalo de
299 792 458, cuando se ex- tiempo de 1/299 792 458
presa en la unidad m · s−1, de segundo.
según la definición del segundo dada anteriormente.
[c = 299 792 458 m/s]
kilogramo

masa

Se define al fijar el valor numé-

(kg)

[m]

rico de la constante de Planck,
h, en 6,626 070 15 · 10−34, cuando se expresa en la unidad
J · s, igual a kg · m² · s−1,
según las definiciones del
metro y el segundo dadas
anteriormente.
[h = 6,626 070 15 · 10-34 kg · m²/s]

amperio

corriente

Se define al fijar el valor nu- El efecto de esta definición es

(A)

eléctrica

mérico de la carga elemental, que el amperio es la corriente

[I]

e, en 1,602 176 634 · 10-19, eléctrica correspondiente al flucuando se expresa en la uni- jo de 1/(1,602 176 634 · 10−19) =
dad C, igual a A · s, donde el = 6,241 509 074 · 1018 cargas
segundo se define en función elementales por segundo.
de DνCs.
[e = 1,602 176 634 · 10-19 A · s]

kelvin

temperatura

Se define al fijar el valor numéri- Es igual a la variación de tempe-

(K)

termodinámi-

co de la constante de Boltzmann, ratura termodinámica que da

ca [T]

k, en 1,380 649 · 10-23, cuando lugar a una variación de energía
se expresa en la unidad J · K−1, térmica kT de 1,380 649 · 10-23 J.
igual a kg · m² · s−2 · K−1, según
las definiciones del kilogramo,
el metro y el segundo dadas
anteriormente.
[k = 1,380 649 · 10−23 kg · m²/s²/K]

370

ANEXOS

mol

cantidad de

Cantidad de sustancia de exac- Es la cantidad de sustancia

(mol)

sustancia

tamente 6,022 140 76 · 1023 en- de un sistema que contiene

[N]

tidades elementales. Esta cifra es 6,022 140 76 · 1023 entidades
el valor numérico fijo de la cons- elementales especificadas.
tante de Avogadro, NA, cuando
se expresa en la unidad mol−1.
[NA = 6,022 140 76 · 1023 /mol]

candela

intensidad

Se define al fijar el valor numé- Es la intensidad luminosa, en

(cd)

luminosa

rico de la eficacia luminosa de una dirección dada, de una
la

[Iv]

radiación

monocromática fuente que emite radiación

de frecuencia 540 · 1012 Hz, monocromática de frecuenKcd, en 683, cuando se expre- cia 540 · 1012 Hz y tiene una
sa en la unidad lm · W−1, intensidad radiante en esa
igual a cd · sr · W−1, o a dirección de 1/683 W/sr.
cd · sr · kg−1 · m−2 · s³, según las
definiciones del kilogramo,
el metro y el segundo dadas
anteriormente.
[Kcd = 683 cd · sr/kg/m² · s³]

Además de las unidades básicas, en el SI hay dos unidades
suplementarias.
TABLA 1.2 (unidades suplementarias)

Unidad
(símbolo)

radián
(rad)

estereorradián
(sr)

Expresión
Magnitud
en unidades
física
SI básicas
ángulo
plano

ángulo
sólido

Definición

m/m = 1

Es el ángulo plano comprendido
entre dos radios de un círculo que,
sobre la circunferencia de dicho
círculo, intersecan un arco de longitud igual a la del radio.

m²/m² = 1

Es el ángulo sólido que, teniendo
su vértice en el centro de una esfera, interseca sobre la superficie de
dicha esfera un área igual a la de
un cuadrado que tenga por lado
el radio de la esfera.

371

FÍSICA

Unidades que no pertenecen al SI, pero se aceptan
para su uso dentro de este
El BIPM declara que las siguientes unidades, que no pertenecen al SI, se
permiten para su uso con el SI.
TABLA 1.3
Unidad
Magnitud

Nombre

Valor expresado en
unidades del SI

Símbolo

Masa

tonelada

t

1 t = 1 Mg = 1 000 kg

volumen

litro

L, l

1 L = 1 dm³ = 0,001 m³

área

a

1 a = 1 dam² = 100 m²

hectárea

ha

1 ha = 100 a = 10 000 m²

grado sexagesimal

°

1° = (π/180) rad

ángulo plano​ minuto de arco



1′ = (1/60)° = (π/10 800) rad

segundo de arco



1′ = (1/60)′ = (π/648 000) rad

minuto

min

1 min = 60 s

hora

h

1 h = 60 min = 3600 s

día

d

1 d = 24 h = 86 400 s

superficie

tiempo

DATOS ÚTILES
Ángulos notables
a

sen a

cos a



0

1

30°

0,5

45°

2
3

≈ 0, 71

2
2

≈ 0, 87

≈ 0, 71

≈ 0, 87

0,5

90°

1

0

180°

0

–1

60°

372

2

3
2

2

ANEXOS
Identidades trigonométricas frecuentes
1 = sen2a + cos2 a
sen2 a = 2sen a cos a
cos2 a = cos2 a + sen2 a

Algunas constantes físicas y datos astronómicos
Rapidez de la luz

2,997 924 68 · 108 m/s

Constante gravitacional

6,6742(10) · 10–11 Nm2/kg2

Aceleración de la gravedad (valor estándar)

9,806 65 m/s2

Masa del electrón

9,1093826(16) · 10–31 kg

Masa del protón

1,67262171(29) · 10–27 kg

Masa del neutrón

1,67492728(29) · 10–27 kg

Carga del electrón

1,6 · 10–19 C

Número de Avogadro

6,02 · 1023 mol–1

Constante de los gases

8,31 J/mol · K

Constante de Boltzmann

1,38 · 10–23 J/K

Masa de la Tierra

5,97 · 1024 kg

Masa de la Luna

7,349 · 1022 kg

Masa del Sol

1, 7,349 · 1022 kg

Radio medio de la Tierra

6371,0 km

Radio medio de la luna

1738 km

Radio medio del Sol

0,7 · 109 m

Los números entre paréntesis indican la incertidumbre en los dígitos
finales.

373

FÍSICA

Respuestas a las tareas generales
Capítulo 1
7.   6, 0  107 m
8.  300
9. a) d  2,5  105 m

b) de trazos/m  417

10. d  6, 8
11.   5, 23  107 m
12. y  1, 2  103 m
13.   4 , 9  107 m
14. a) y  1, 8  102 m
15.   54

b) y  0, 6  102 m

c) de trazos/m  10

0

16.   7,5  107 m
17. y1  1, 8  103 m

y 2  3, 6  103 m

y 3  5, 4  103 m

18. d  8  104 m
19.   4 ,56  107 m
Capítulo 2
12. v = 0, 967c
13. v = 0,1c ,

v = 0, 64c

14. x  0, 42m ,

  650

15. t´ 36 s
Capítulo 3
1.

E  3, 972  1019 J

2.

n  1, 0  1020 fotones

1. Ecmáx
3.

EcmÆx = 3, 0 eV

4 , 8 10 19 J

W0  3, 972  10

19

J

4.  0  4 ,59  10 Hz
14

15
5.   1, 29  10 Hz

2. b) Ecmáx

13, 9 10 19 J

3. a) W0  3, 94  1019 J
4.

W0  3, 41  1019 J

374

b)  0  5, 95  1014 Hz

ANEXOS
5.  0  5, 39  107 m
o E < W0

  6, 8  107 m No se muestra el fotoefecto    0
Uc = 4 , 65 V

7, 45 10 19 J

6. Ecmáx

7.   2, 03  107 m

 0  3, 74  107 m
 0  7,53  107 m

8. a)  0  3, 98  1014 Hz
b) Se produce    0
9. a) Ec

b) Uc = 3, 98 V

6, 23 10 19 J

máx

c)  0  3, 35  107 m

10. Uc = 8, 27 V
11. W0  3, 68  1019 J , E  2, 92  1019 J , No se produce E < W0
12. 1  2, 48 nm
13.

 2  3,10 nm

 3  4 ,13 nm

14

máx

6, 87 10 Hz

14. Ua = 12, 41 V
6. v  5, 92  106 m / s
7.   0, 05652 nm
15.    3, 0 1019 Hz
8.   1, 36  1015 Hz
Capítulo 4
4. E7 = – 0,27 eV

E1 = – 13,60 eV

5. E = Ei – Ef donde Ef > Ei según los estados estacionarios seleccionados.
6.   4 , 87  107 m
7.  min32  4 ,59  1014 Hz

 min43  6,16  1014 Hz

8. Lyman  0, 931 107 m

Balmer  3, 96  107 m

Brackett  21, 40  107 m

Pfund  45, 97  107 m

10. rn = r1n2

r5 = r152

r5 = 1,25 · 10–9 m

12.  rojo  4 ,59  1014 Hz

 verde  6,16  1014 Hz

 azul  6, 90  1014 Hz

 violeta  7, 32  1014 Hz

13. E = –12,10 eV
16. En =

E1
n2

En =

Paschen  10, 09  107 m
E1
n2

E5 = –0,54 eV

v = 2,92 · 1015 Hz

E4 = –0,85 eV

375

FÍSICA
Capítulo 5
9. E  212, 9274  1022 MeV
  6, 475 MeV
10. E10

E  3, 41 1010 J

  6, 92 MeV
E11

  6, 63 MeV
E12

  6, 92 MeV
Es más estable el de E11

11. a) dm = 0,1286 Da

b) Eenl = 119,7266 MeV

Eenl = 1,915 · 10–11 J

c) E’ = 7,48 MeV/nucleón
12. E = 203,33 MeV
13. b) Eenl = 1033,5 MeV
14. Eenl = 243,5 MeV

1
de los átomos de la muestra inicial.
4
3
16. Se obtuvo en forma de átomos de plomo
de los átomos iniciales de
4
polonio.
15. Quedan sin desintegrar

17. T = 5 días
18. Al cabo de 332,23 días.
19.
20. b) E = 4,84 MeV
21. c) E = 111,35 MeV
22. b) E = 19,27 MeV

376

BIBLIOGRAFÍA
Avila-Reese, V.: Un Universo en evolución, en Fronteras de la Física (e-book).
Battaner, S.: Introducción a la Astrofísica, Ed. Alianza, Madrid, 1999.
French, A. P.: Teoría de la Relatividad Especial, Ed. Reverte, España, 1988.
Gil, P.D., B. Macedo, M. J. Torregrosa, B. C. Sifredo, C. P. Valdés, A. Vilches:
¿Cómo promover el interés por la cultura científica? Una propuesta
didáctica fundamentada para la educación de jóvenes de 15 a 18 años.
OREALC/UNESCO, Santiago de Chile, 2005.
Hecht, Eugene: Óptica, Addison Wesley Iberoamericana, Madrid, 2000.
Kikoin, I. K., Kikoin, A. K.: Física 2, Ed. MIR, Moscú, 1987.
Parnonosky, S.: How the Universe Work. Introduction to Modern Cosmology, World Scientific, Publishing Co. Pte. Ltd., 2017.
Resnick, R., D. Halliday, S. K. Krane: Física, Vol. 2, Ed. Continental,
México,1999.
Ryden, B.: Introduction to Cosmology, Pearson, 2017.
Serway, A. R., Jewett, W. J.: Física para ciencias e ingeniería, Vol. 2, Cengage Learning, 2014.
Sifredo, B. C., E. L. Ayala: El trabajo experimental asistido por recursos
informáticos en el proceso de enseñanza-aprendizaje de la Física, Sello
editor Educación Cubana, La Habana, 2012.
Sifredo, B. C. y otros: Física Duodécimo grado, Parte 1, Ed, Pueblo y Educación, La Habana, 2007.
________________: Física Grado Doce. Orientaciones Metodológicas para la
solución de problemas, Ed. Pueblo y Educación, La Habana, 1990.

377

FÍSICA
The Oxford Handbook of the History of Modern Cosmology, Edited by
Heige Kragh and Malcom S. Lonbgair, 2019.
Vocabulario Internacional de Metrología, Centro Español de Metrología,
Tercera Edición, 2012.
Yavorki, B. M., Pinski, A. A.: Fundamentos de Física II, Ed. MIR, Moscú, 1983.
Young, H. D., Roger, A. F.: Física Universitaria, Vol. 2, Ed. Pearson, México,
2009.

378
Medios
5PRE022.pdf

Position: 260 (320 views)