lunes, 19 de julio de 2010

Breve historia de la Física Teórica

Revoluciones

Puede considerarse al 24 de Mayo de 1543 como la fecha simbólica en la que se inicia la ciencia experimental. En ese día muere el sacerdote católico Nicolás Copérnico (1473-1543) y aparece el primer ejemplar de su libro “De las revoluciones de los cuerpos celestes”, en el que propone su modelo de sistema planetario solar heliocéntrico. Mantuvo guardados los manuscritos de su libro, antes de editarlo, durante unos treinta y cinco años. No lo publicaba porque sentía temor por las críticas adversas que podría despertar. Sus estudios universitarios ocupan diez años de su vida y los realiza en Cracovia, en su Polonia natal, y luego viaja a Italia, donde se gradúa de Doctor en Derecho Canónico. También estudió Medicina.

En griego, la palabra “planeta” significa “errante”. Esta denominación se asignó a los cuerpos celestes que describen trayectorias en forma de “S” (vistas desde la Tierra). La antigua astronomía de Claudio Tolomeo (90-168) supone que la Tierra está inmóvil en el centro del universo y que los planetas describen epiciclos, a su alrededor, o trayectorias en forma de hélice.

En cambio, Copérnico supone que los planetas se mueven siguiendo órbitas circulares alrededor del Sol. Los planetas cercanos giran más rápido que los externos. Si se observa desde la Tierra, respecto de las estrellas lejanas, el movimiento de un planeta exterior, aparece la trayectoria en forma de “S” antes mencionada.

En este modelo viene implícita la igualdad entre el reposo y el movimiento rectilíneo uniforme, ya que las trayectorias de los planetas pueden considerarse como rectas, en pequeños tramos, debido a sus enormes longitudes.

Mientras que en la escala de observación humana existen fuerzas de fricción, que detienen al movimiento inercial, tanto en la escala astronómica como en la escala atómica son permitidos los movimientos perpetuos, por no existir esas fuerzas.


Física experimental

Galileo Galilei (1564-1642) fue el fundador de la física experimental y uno de los primeros científicos que asoció relaciones matemáticas al movimiento, siendo el iniciador de la cinemática. Fue el primer observador del cielo que utiliza el telescopio. Con ese instrumento observa que las sombras proyectadas por la luz solar sobre los cráteres lunares siguen las mismas leyes que en la Tierra. Dio lugar a lo que más tarde se denominó “principio de Galileo”, el cual establece la invariancia universal de las leyes de la física; algo novedoso en esa época.

En la actualidad podemos afirmar que muchos de los átomos que componen nuestro cuerpo, alguna vez formaron parte de alguna estrella, ya que el Sol, por su (relativo) reducido tamaño, sólo puede producir (como residuo de la fusión nuclear) átomos de los elementos más simples de la tabla periódica.

Los adversarios de Copérnico aducían que, si la Tierra gira alrededor del Sol, siendo que la Luna gira en torno de la Tierra, ésta la “perdería” por su camino. Galileo descubre con su telescopio a cuatro de los satélites naturales que orbitan alrededor de Júpiter, haciendo evidente que un planeta puede moverse sin inconvenientes junto a sus satélites.

Para difundir las evidencias observadas utilizando el método experimental, Galileo debe luchar contra la opinión adversa de la Iglesia, que no aceptaba el modelo copernicano. Este rechazo se debió, en principio, a que alguien descubrió que en la Biblia aparece que “Josué ordenó al Sol que se detuviera”, de ahí se dedujo que el Sol se movía. También debe luchar contra la opinión adversa de los profesores universitarios (que se basaban en la errónea descripción que Aristóteles realiza respecto del movimiento y de sus causas).

Una de esas descripciones afirma que los cuerpos pesados caen a Tierra antes que los livianos, si se los deja caer desde una misma altura y si se ignora la resistencia que al aire ofrece al movimiento. Es decir, si M pesa más que m, entonces M caerá antes que m. Galileo, mediante un razonamiento lógico, muestra la inconsistencia de esa posibilidad. Por ello, piensa en un experimento imaginario en el cual se atan ambos cuerpos, y ahora se tiene M+m. Si la opinión de Aristóteles es válida, m debería retardar a M, y la unión de ambos debería caer en un instante intermedio entre las caídas de m y M. Por otra parte, como M+m tiene mayor masa que M y m solas, deberá caer antes que ambas, lo cual es incompatible con la caída única. Por lo tanto, Galileo asegura que todos los cuerpos caen simultáneamente. Ello se debe a que la mayor masa inercial se opone más a un movimiento causado por una mayor fuerza de atracción gravitacional, compensándose ambos efectos y cayendo todos los cuerpos con una misma aceleración.

Galileo describe matemáticamente al movimiento acelerado, en el cual viene implícita la inercia, ya que, el movimiento causado por la fuerza de gravedad es mantenido por la inercia. Al persistir la aplicación de esa fuerza, el móvil se ha de acelerar.

También descubre la “composición del movimiento”. Así, si arrojamos horizontalmente, desde cierta altura, a un objeto, en el sentido horizontal tenderá a moverse inercialmente (a velocidad constante), mientras que la Tierra le impondrá un movimiento descendente uniformemente acelerado. La trayectoria final será la descripta por un movimiento combinado de ambos efectos superpuestos.


Órbitas elípticas

Johannes Kepler (1571-1630) encuentra las leyes que rigen el movimiento de los planetas del sistema planetario solar:

1)Cada planeta se mueve según una órbita elíptica, ocupando el Sol uno de los focos de la elipse.

2)Considerando una recta que va desde un planeta al Sol, en tiempos iguales la recta “barre” áreas iguales.

3)Existe un valor constante para la relación entre el cubo de la distancia media (R) de un planeta al Sol y el cuadrado del tiempo medio (T)empleado para girar una vuelta.

Kepler, astrónomo alemán, colabora con Tycho Brahe (1546-1601), quien, antes de la aparición del telescopio, es el mayor observador del cielo. La diferencia entre las órbitas circulares de Copérnico y las órbitas elípticas de Kepler se evidencian en la observación de un ángulo de apenas 8 minutos. Cualquiera hubiese supuesto un error de observación, pero Kepler conocía el nivel de precisión con el que Brahe realizaba sus mediciones y pudo así iniciar el camino hacia la ley de la gravitación universal que más tarde descubriría Newton.

En la época de Kepler se conocían seis planetas, mientras que los pitagóricos descubrieron la existencia de sólo cinco sólidos perfectos, es decir, cuerpos geométricos limitados por una misma figura geométrica. Por ejemplo, el cubo limitado por cuadrados. Kepler estableció la hipótesis de que los planetas se moverían a través de esferas intercaladas entre los sólidos pitagóricos concéntricos. Esta idea errónea fue su mayor orgullo y fue la que motivó sus intensos trabajos de investigación.


Mecánica y gravitación

Isaac Newton (1642-1727) dijo: "Si he tenido una visión más amplia, es porque me he subido a los hombros de gigantes". Esos gigantes son, sin duda, Galileo y Kepler. Al igual que Kepler, Newton nació prematuramente. Se dice que, al nacer, pesaba apenas un kilogramo. Es considerado como el científico más sobresaliente de la historia. Estableció las leyes de la mecánica, la ley de gravitación universal, el vínculo entre el cálculo diferencial y el integral, la composición de la luz blanca, etc.

Las leyes básicas de la mecánica newtoniana son: 1) Principio de inercia, 2) Ley de la dinámica (F = m.a) , 3) Principio de acción y reacción. En la segunda ley viene implícita la igualdad dinámica existente entre el reposo y el movimiento rectilíneo uniforme, ya que, si la fuerza aplicada es nula, también lo será la aceleración, lo que equivale a una velocidad nula o bien a una velocidad constante.

Antes de Newton, los científicos suponían que la fuerza que movía a los planetas tenía la misma dirección que su movimiento; incluso se pensaba que eran empujados por “ángeles invisibles”. A partir de Newton se consideró que la fuerza estaba dirigida hacia el Sol y que el movimiento era inercial. Luego aparece Einstein y describe los mencionados movimientos sin considerar fuerza alguna, sino estableciendo que el movimiento es inercial y que los planetas se mueven por el espacio-tiempo curvo, siendo esta curvatura un efecto del campo gravitacional del Sol.

Si consideramos que un cuerpo se mueve en línea recta, a velocidad constante, decimos que se trata de un “movimiento inercial” (si no hay tampoco fuerzas de fricción). Las longitudes recorridas serán proporcionales a los tiempos empleados. Si trazamos un punto exterior a la recta, a una cierta distancia, y si, además, trazamos desde el punto algunas rectas de manera que se formen segmentos iguales sobre la recta, veremos que se forma una sucesión de triángulos que tienen igual área. La segunda ley de Kepler fue interpretada por Newton como una consecuencia necesaria de un movimiento inercial.

Si arrojamos horizontalmente un objeto, describimos al movimiento como el efecto de dos causas: un movimiento inercial (en sentido horizontal) y un movimiento uniformemente acelerado (caída a Tierra), tal como fue establecido por Galileo. La idea de que la gravitación celeste es la misma que la gravitación terrestre, aparece cuando Newton supone que la misma fuerza que hace caer una manzana a Tierra, es la que hace “caer” a la Luna. Como la Luna mantiene un movimiento inercial, la parábola se convierte en una circunferencia, dado que posee velocidad suficiente para escapar a la caída.

Para la deducción de la ley de la gravitación universal se pueden considerar movimientos circulares. Cristian Huygens (1626-1695) había encontrado la fórmula para calcular la aceleración centrípeta (a = v² / R). Esta aceleración se reemplaza en la segunda ley de la dinámica (F = m.a). Como el movimiento es circular, la velocidad es la relación entre la longitud de la órbita (2 π R) y el tiempo empleado en recorrerla (T). Kepler había descubierto una relación constante que expresa con su tercera ley (K = R³ / T²). Agrupando constantes, se llega a la ley de la gravitación universal. (Esta es una forma elemental de deducción no utilizada por Newton):

Fuerza = Constante x (Msol x Mtierra)/R²

En épocas de Newton se conocía un fenómeno que no se podía explicar y que podría llevar a la destrucción del sistema planetario solar. Júpiter aumentaba su velocidad de traslación mientras que Saturno la disminuía. Newton dijo que …quizás las irregularidades irán en aumento hasta que el sistema sea de nuevo puesto en orden por su Creador.

Debido a la existencia de órbitas elípticas, los planetas se acercan al Sol en una época mientras que se alejan en otra. De ahí que cambia la posición del centro de masa del sistema. Este cambio perturba las órbitas y, en el caso de Júpiter y Saturno, se invierte el adelanto y el atraso con un periodo de 929 años. Tales cálculos los realizó Pierre Simón de Laplace (1749-1827), quien respondió: No he tenido necesidad de esa hipótesis, cuando Napoleón le preguntó por la supuesta intervención divina mencionada por Newton.


Funciones y cálculo

A las magnitudes físicas tales como espacio, tiempo, velocidad, aceleración, etc., se les asocian entes matemáticos tales como variables continuas, vectores, matrices, etc. Realizando operaciones matemáticas sobre estos entes asociados, se reproduce el ordenamiento existente en los fenómenos naturales. De ahí que la “ley natural humana” (la descripción de la ley natural) en física adquiere una forma matemática. La física teórica es la física “del lápiz y del papel”, permitiendo el progreso de esta rama de la ciencia a través de predicciones puramente matemáticas.

En la descripción del movimiento se utilizan variables numéricas ligadas funcionalmente. La ley natural humana vendría a ser el vínculo permanente (función matemática) entre dichas variables.

Para medir el cambio relativo existente entre dos variables ligadas funcionalmente se estableció la operación denominada “derivación”. Podemos considerar al cálculo diferencial como una forma de medir la velocidad de cambio del cociente entre dos variables que cumplen el requisito mencionado.

Siendo y = f (x), podemos denominar a (y2 – y1) como el “cambio absoluto de la variable y”. Si a ese cambio lo dividimos por el cambio correspondiente en x, tendremos el “cambio relativo de y respecto de x”, es decir:

Cambio relativo = y2 - y1 / x2 - x1 = Δy / Δx

Para obtener el “cambio relativo generalizado”, para todos los valores de (x), debemos saltar al límite:

Cambio relativo generalizado = lím Δy / Δx para Δx → 0

Por ejemplo, si tenemos la función y = constante la gráfica respectiva, en un sistema de coordenadas cartesiano, tendrá la forma de una recta “horizontal”. En este caso, el cambio relativo de y respecto de x es nulo (no hay cambio). Por ello la derivada será y’ = 0. Otro ejemplo: si es y = x (recta a 45º) será y’ = 1. Decimos que es un “crecimiento unitario”, ya que y crece tanto como lo hace x.

Podemos escribir la segunda ley de Newton como:

Fuerza = masa x d(velocidad)/d(tiempo)


Existe una operación inversa a la derivación y es la integración. Así como la derivada es una medida del cambio entre variables que se estudia observando cómo varía el cociente de dichas variables, la integral es una medida de cómo varía el producto de esas variables. Geométricamente, en un plano, dicho producto es un área. Por ejemplo, si partimos de la función y = 1 (recta paralela al eje x) , al integrarla nos da Int = x (recta creciente a 45º). Esto puede interpretarse diciendo que el área correspondiente a y = 1 crece linealmente a medida que “nos movemos por el eje x hacia la derecha”. En física se dice que “la integral es el efecto total en un proceso continuo”.


Ondas

La materia se presenta al físico bajo dos formas básicas: una es la continua y la otra la discontinua. Al aspecto continuo lo presentan los líquidos (alrededor del agua hay agua), mientras que al aspecto discontinuo lo presentan las partículas (alrededor de una piedra hay aire). Así como la segunda ley de Newton es la ley básica del movimiento de las partículas, ha de existir una ley básica para el movimiento de los medios continuos, tal el caso de la “ecuación de onda” de D’Alembert. Jean Le Rond D’Alembert (1717-1783) fue abandonado por su madre, luego de nacer, en las puertas de la iglesia de Saint Jean Le Rond, de ahí el nombre que le dan sus padres adoptivos.

Así como una ecuación algebraica es una igualdad condicional, que se cumple sólo para algunos números (raíces o soluciones de la ecuación), pueden realizarse “ecuaciones diferenciales” que son igualdades condicionales que, al tener derivadas de funciones, se cumplen sólo para ciertas funciones que han de ser las “soluciones” de la ecuación diferencial. La ecuación de ondas tiene, en física, una importancia tan grande como la ley del movimiento de las partículas.

Para una onda que se mueve en dirección del eje x, en un medio continuo caracterizado por alguna magnitud u = u (x,t), siendo u una función del espacio y del tiempo, la ecuación diferencial será la siguiente:

∂²u/∂t² = 1/v² (∂²x²/∂t²)

En este caso aparecen derivadas parciales (se deriva respecto de la variable indicada considerando constante a la otra variable). La velocidad de propagación del movimiento ondulatorio será v. La solución general de esta ecuación tendrá la siguiente forma:


u = U sen 2π (x ∕ λ – t∕T)


U es el valor máximo o amplitud del movimiento, λ es la longitud de onda y T es el periodo de la onda senoidal. En esta solución aparece una “periodicidad espacial” (si detenemos al tiempo, como si sacáramos una fotografía, aparece una forma senoidal) y también una “periodicidad temporal” (si nos detenemos en un punto del espacio, la magnitud u varía en el tiempo en forma senoidal).

A la periodicidad espacial se la caracteriza por el “número de onda”, mientras que a la periodicidad temporal se la caracteriza mediante la “velocidad angular”.


Número de onda: k = 2π ∕ λ

Velocidad angular: ω = 2π ∕ T

Luego; u = U sen (k x – ω t)

La función trigonométrica seno está aplicada a un ángulo. Dicho ángulo se denomina “fase” del movimiento ondulatorio.


Mecánica analítica

La mecánica newtoniana es esencialmente una “mecánica vectorial”, o geométrica, cuyas magnitudes básicas son la “fuerza” y la “cantidad de movimiento”. A partir de Goodfried Leibniz (1646-1716) comienza a buscarse una “mecánica escalar” cuyas magnitudes básicas serán la “energía cinética” y la “energía potencial”.

Joseph Louis Lagrange (1736-1813) logró establecer una nueva formulación de la mecánica que aparece en su libro “Mecánica analítica” en cuyo prefacio indica: "..en esta obra no encontrará gráficos". Utilizando como magnitudes básicas a la posición x y a la velocidad v logra una mecánica escalar que sigue la tendencia iniciada por Leibniz.

Lagrange utiliza “coordenadas generalizadas” y a sus respectivas derivadas. Así, puede describirse al movimiento circular en base a ángulo y a velocidad angular con un tratamiento matemático idéntico al utilizado para la descripción del movimiento lineal. Puede decirse que “unifica” al movimiento lineal con el circular. Incluso la descripción de Lagrange se adapta a cualquier tipo de coordenadas, ya sean cartesianas, polares, cilíndricas, etc., y su forma matemática permanece inalterada. Incluso su forma permanece invariante ante una traslación de coordenadas a velocidad uniforme, lo que la hace apta para la mecánica relativista. La ecuación básica (para cada grado de libertad del sistema) es la denominada “ecuación de Euler-Lagrange):

d/dt (∂L/∂v) - ∂L/∂x = 0

para L = T - U

En este caso se hace referencia al movimiento lineal, mientras que L (función de Lagrange o lagrangiano) es la diferencia entre la energía cinética T y la energía potencial U. Realizando las operaciones indicadas se obtienen las leyes de Newton de la mecánica.

Si tuviésemos que sintetizar en pocas palabras a todo el desarrollo de la física teórica, desde sus inicios hasta nuestros días, podríamos decir que ha consistido en buscar, en distintas situaciones, la “función de Lagrange” para ser introducida en la “ecuación de Euler-Lagrange” para permitirnos encontrar todas las ecuaciones importantes de la física teórica; incluso los principios de conservación vienen implícitos en esta maravillosa ecuación diferencial. En realidad, históricamente no se ha procedido de esa manera sino que, indirectamente, en ello ha consistido el progreso de la física teórica.


Hamilton

La dinámica de Newton aparece en el siglo XVII, la dinámica de Lagrange en el siglo XVIII, mientras que la tercera formulación de la dinámica se debe a William R. Hamilton (1805-1865) y fue realizada durante el siglo XIX. Las tres descripciones son equivalentes, si bien las formulaciones de Hamilton y de Lagrange se aplicarán fuera del ámbito original en donde fueron planteadas.

Hamilton describe los fenómenos mecánicos considerando dos magnitudes básicas: la cantidad de movimiento p y la posición x. Las ecuaciones básicas serán:

dx/dt = ∂H/∂p

dp/dt = - ∂H/∂x

para H = T + U

en donde H es la “función de Hamilton” o “hamiltoniano”, T y U las energías cinética y potencial, respectivamente. A partir de esta formulación pueden reencontrarse las fórmulas de la dinámica newtoniana y de la dinámica de Lagrange.

Cuando se habla de la “mecánica clásica” se hace referencia a la “mecánica de Newton-Lagrange-Hamilton”, en la que no se han hecho las “correcciones relativistas” ni las “correcciones cuánticas” que han de caracterizar a la física del siglo XX.

En 1805, Hamilton descubre una importante analogía entre la óptica y la mecánica. Una de las ecuaciones obtenidas por Hamilton, junto a Carl Jacobi (1804-1851), incluye a la acción S (energía x tiempo) como magnitud física fundamental. Tal ecuación, para el movimiento de una partícula de masa m que se mueve en la dirección x es la siguiente:


(∂S ∕ ∂x)² = 2 m (E − U)

Mientras que en la óptica se conocía una ecuación similar:


(∂u ∕ ∂x)² = n² ∕ c²


En donde E es la energía total, u es una magnitud asociada a una onda transversal, n es el índice de refracción y c la velocidad de propagación de dicha onda (luz).

A partir de estas ecuaciones se comprobó que un rayo luminoso resulta ser (desde el punto de vista de la óptica ondulatoria) una trayectoria perpendicular a los frentes de ondas esféricos emitidos por una fuente luminosa puntual. Tales frentes de onda serían superficies de igual fase. Por otra parte, la trayectoria que describe una partícula que se mueve en el campo gravitacional de la Tierra resulta ser perpendicular a las superficies de igual acción.

La propagación de los rayos luminosos cumple con el “principio del tiempo mínimo” establecido por Pierre de Fermat (1601-1665), mientras que el movimiento de una partícula como la mencionada, sigue el “principio de mínima acción” establecido originalmente por Pierre de Maupertuis (1698-1759) y perfeccionado por físicos posteriores.

A partir de esta analogía se produce una vinculación matemática entre el movimiento en medios continuos (ondas) y el movimiento en medios discontinuos (partículas). Esta analogía, sintetizada a continuación, ha de tener influencia posterior en la física del átomo y del núcleo atómico, pero esta vez a través de un vínculo concreto entre las magnitudes físicas asociadas a ambos tipos de movimiento, lo que se conocerá como la “dualidad onda-partícula”.


ONDAS LUMINOSAS..............PARTÍCULAS

Rayo luminoso................Trayectoria
Principio del tiempo mínimo..Principio de mínima acción
Frecuencia...................Energía
Velocidad de grupo...........Velocidad de la partícula
Fase.........................Acción
Número de onda...............Cantidad de movimiento


Ya en el siglo XIX comienza a vislumbrarse una tendencia que es necesario tener presente para seguir el desarrollo histórico de la física. Para comprender los trabajos de Kepler, Galileo o Newton, “miramos las fórmulas pensando en los fenómenos”, ya que es posible tener una imagen mental bastante cercana a la realidad. El cambio de actitud consiste en “imaginar los fenómenos pensando en las fórmulas”. La analogía descripta surgió al realizarse un análisis teórico, o matemático, antes que establecer una asociación de imágenes surgidas de los propios fenómenos naturales.


Electricidad y magnetismo

Christian Oersted (1777-1851) descubre que, junto a un conductor metálico que conduce una corriente eléctrica, aparece un campo magnético capaz de desviar la aguja de una brújula. Este vínculo entre electricidad (en movimiento) y magnetismo fue descripto matemáticamente por André Marie Ampere (1775-1836). El paso siguiente habría de darse encontrando un vínculo entre magnetismo y electricidad, es decir, a partir de un campo magnético habría de obtenerse algún fenómeno eléctrico.

Michael Faraday (1791-1867) utilizó dos bobinas arrolladas sobre un núcleo de material ferromagnético (logrando un “transformador”) y le conectó al bobinado primario una fuente de tensión continua. En el momento de cerrar el circuito, se produce una expansión del campo magnético y aparece una tensión eléctrica en el bobinado secundario (aguja de un voltímetro hacia la derecha). Cuando el interruptor queda cerrado, hay corriente, hay campo magnético, pero no hay variación del mismo. Tampoco hay tensión en el secundario (aguja en cero). Cuando se abre el interruptor que alimenta al primario, el campo magnético se contrae y aparece una tensión de polaridad opuesta a la del primer caso (aguja hacia la izquierda). De esta experiencia se concluye que la tensión inducida depende de la velocidad de variación del flujo magnético asociado a cierto bobinado:

Tensión = − N x d(flujo magnético)/d(tiempo)

Esta ley también está asociada a los nombres de Joseph Henry (1797-1878) y de Heinrich Lenz (1804-1865).

El concepto de “campo de fuerza” es introducido en la física por Faraday. Generalmente se piensa que todo descubrimiento implica conocer, por parte del descubridor, la casi totalidad de los trabajos ya realizados en el tema respectivo. Sin embargo, como Faraday no había ido a la universidad, desconocía el cálculo infinitesimal y le costaba mucho trabajo comprender los artículos de físicos franceses como Biot, Savart, Ampere, etc. Estas circunstancias lo obligan a describir los fenómenos electromagnéticos con el mencionado concepto. A partir de Faraday se deja de lado la “acción a distancia” y se describen las interacciones diciendo que “la partícula A crea un campo de fuerzas que actúa sobre la partícula B“.


El capacitor de Maxwell

Si conectamos un capacitor a un generador de tensión alterna, existirá una corriente alterna por el circuito asociado al capacitor (corriente de carga y descarga), sin embargo, a través del aislante (entre las placas del capacitor) no habrá circulación de corriente eléctrica, ya que el aislante no dispone de cargas móviles.

Cada vez que existe una corriente eléctrica, aparece un campo magnético que la rodea. Por lo tanto, habría un campo magnético alrededor de todo el circuito, excepto en la zona que corresponde al aislante. Entonces James Clerk Maxwell (1831-1879) pensó que podía establecerse la continuidad del campo magnético si se supone que a un campo magnético no sólo lo produciría una corriente eléctrica, sino también una variación de campo eléctrico no asociado al movimiento de cargas eléctricas, como sucede en el espacio comprendido entre las placas del capacitor.

La existencia de estas “corrientes de desplazamiento” fueron previstas por Maxwell observando las ecuaciones de la electricidad y del magnetismo vigentes en su época. Si existiese el nuevo fenómeno por él imaginado, cumplirían idéntico papel matemático las magnitudes físicas asociadas al campo eléctrico tanto como las asociadas al campo magnético. Así, las nuevas leyes del electromagnetismo permitirían la existencia de ondas electromagnéticas. Maxwell calculó la velocidad de propagación de dichas ondas y resultó que coincidía con la velocidad de propagación de la luz, concluyendo en que la luz es también una perturbación electromagnética. De esta forma se produce la unificación de la radiación con el electromagnetismo.


Ecuaciones de Maxwell

El conjunto de ecuaciones vectoriales que permitieron describir la mayor parte de los fenómenos electromagnéticos conocidos, se conoce como las “ecuaciones de Maxwell”, y son las siguientes:

GAUSS: div E = ρ

GAUSS: div B = 0

AMPERE – MAXWELL: rot B = J + ∂E/ ∂t

FARADAY: rot E = - ∂B/∂t

Así como un vector está caracterizado por tres números (que son las componentes según algún sistema de coordenadas), las ecuaciones del cálculo vectorial, agrupan tres ecuaciones del cálculo diferencial, dando lugar a nuevas operaciones matemáticas, como las indicadas.

El cálculo vectorial permite describir los campos de fuerzas asociando un vector a cada punto del espacio. Por ejemplo, si consideramos el caso de un río que lleva cierto caudal, en cada punto del cauce podemos asociar un vector “velocidad”, y así tendremos un campo vectorial de velocidades.

Mediante una pequeña rueda exploradora podremos saber si existen torbellinos que tiendan a hacerla girar. El sentido de giro, la velocidad angular y la orientación del eje de la ruedita exploradora constituirán otro campo vectorial que será el “rotor” (rot) del campo de velocidades. Si no se forman torbellinos, caracterizaremos a ese campo de velocidades diciendo que rot v = 0. Cuando se destapa la salida ubicada en el fondo de un recipiente con agua, tendremos un rotor resultante no nulo que será coincidente con el centro de la abertura.

El gradiente (grad) de un campo vectorial es la máxima derivada direccional en un punto del mismo. Para comprender su significado consideraremos el campo vectorial constituido por la fuerza de gravedad. Además, consideraremos una pequeña esfera que será abandonada en la ladera de una montaña. El movimiento de la esfera exploradora determinará la máxima pendiente. Así, en cada punto de la montaña podremos asociar un vector y tendremos el campo vectorial “gradiente”.

Para saber cuántas líneas de fuerza eléctrica parten (o entran) de una carga eléctrica, podemos encerrarla con una esfera imaginaria y así podremos “contar” las líneas mencionadas. Si, con la esfera de referencia, encerramos una carga positiva, la divergencia (div) tendrá un valor distinto de cero, mientras que si encerramos igual cantidad de cargas positivas como negativas, la divergencia será nula. La divergencia se aplica a los campos vectoriales, pero su resultado no es un vector, sino un número (magnitud escalar).

Respecto de las ecuaciones de Maxwell, podemos interpretarlas de la siguiente manera: la primera indica que las cargas eléctricas (cuya densidad volumétrica ρ se indica en el miembro derecho de la igualdad) producen un campo vectorial eléctrico E, cuyas líneas de fuerza tienen origen y fin. La segunda indica que un campo magnético estático está constituido por líneas de fuerzas cerradas (sin origen ni fin). Estas ecuaciones se justifican mediante el teorema de Gauss. La tercera es la ecuación de Ampere-Maxwell e indica que a un campo magnético B lo produce la circulación de una corriente eléctrica de densidad J y también una variación temporal del campo eléctrico E, tal como antes se mencionó. La cuarta indica que a un campo eléctrico dinámico E lo produce un campo magnético variable B, lo que constituye la “ley de inducción electromagnética” de Faraday.

Hendrik Lorentz (1853-1928) agrega a estas ecuaciones otra que expresa a la “fuerza de Lorentz” y que se utiliza para la descripción del movimiento de partículas cargadas eléctricamente y que se mueven en campos eléctricos y magnéticos.


Potenciales y lagrangiano

En la mecánica, podemos vincular a la energía potencial gravitacional con la fuerza de gravedad mediante la siguiente expresión:


Fuerza = − grad U = − ∇U


En donde el operador ∇ (nabla) aplicado a U produce

∇U = ∂U ∕ ∂x i + ∂U ∕ ∂y j + ∂U ∕ ∂z k

Decimos que la fuerza es el gradiente de la energía potencial gravitacional. Esta igualdad puede comprenderse considerando la existencia de superficies equipotenciales, que serían superficies de igual nivel (como las marcas que dejaría el agua al sumergir parcialmente a una montaña). El gradiente resulta ser un campo vectorial perpendicular a las superficies de nivel, que en realidad son esferas concéntricas con la Tierra. En cuanto al signo menos, debemos tener presente que, al alejarnos de la Tierra, aumenta la energía potencial, mientras que las líneas de fuerza gravitacionales tienen sentido opuesto a ese crecimiento de U.

Si buscamos la divergencia de dicha fuerza, en una zona en donde no existe distribución de masa, pero sí un campo gravitacional, dicha divergencia será nula (ya que en la esfera medidora entran tantas líneas de fuerza como las que salen). Aplicando nuevamente el operador vectorial nabla, tendremos:


div F = ∇.F = 0

o también ∇²U = 0

Esta última es la “ecuación de Laplace”, mientras que si realizamos una evaluación similar en zonas en donde existe una distribución de masas distinta de cero, tendremos:


∇²U = σ

siendo ésta la “ecuación de Poisson” (por Denis Poisson (1781-1840)).

Para obtener las ecuaciones de Laplace y de Poisson en electrostática, se definió al “potencial escalar eléctrico” (V) de tal manera que:


E = − ∇V

∇²V = 0

∇² V = ρ


que da lugar a la ecuación de Laplace para zonas donde no hay carga eléctrica y a la ecuación de Poisson para lugares con densidad volumétrica de carga distinta de cero.

Para obtener algunas ventajas matemáticas posteriores, se definió también al “potencial vectorial magnético” (A) que está vinculado a la densidad de flujo magnético (B) de la siguiente manera;


B = rot A = ∇xA

Pudo establecerse la anterior igualdad ya que, de la segunda ecuación de Maxwell , es (div B = 0) , mientras que existe una identidad del cálculo vectorial que indica que la divergencia de un rotor es siempre nula, lo que nos da cierta libertad de elegir alguno en forma arbitraria. Al adoptar este potencial vectorial, la intensidad de campo eléctrico quedará:

E = −∇V − ∂A ∕ ∂t

Debido a que el rotor implica derivadas parciales respecto de las coordenadas espaciales x, y, z, si al potencial vectorial A le agregamos el gradiente de una función arbitraria, no cambiará el valor de los campos B y E. Esto se debe a que siempre se cumple que rot grad f = 0 cualquiera sea f, luego:


A = A’+ ∇χ

V = V’+ ∂χ ∕ ∂t

Estas últimas igualdades, que permiten introducir una función arbitraria, se conocen como “transformación gauge electromagnética”, que es una “calibración invariante”. Junto a la “transformación gauge cuántica” habrá de desempeñar un importante papel en la física del siglo XX.

Para la descripción de la radiación de ondas electromagnéticas se establece la “condición de Lorentz”, que vincula ambos potenciales:

div A = − (1 ∕ c²) ∂V ∕ ∂t

Es interesante destacar que es posible encontrar un “lagrangiano de Maxwell” el que, al ser introducido en la ecuación de Euler-Lagrange, nos permite obtener las ecuaciones de Maxwell. Debe aclararse que, en el caso de los campos de fuerzas, el lagrangiano es una “densidad de energía”. La función mencionada es la siguiente:


L = ½ (E²− B²) − ρ V + J A

A la primera parte la llamaremos Lem (lagrangiano del campo electromagnético), es decir, a ½ (E²−B²), y al resto le llamaremos Lint (lagrangiano de la interacción). Tal interacción es la que ocurre entre dicho campo y las fuentes que lo producen (densidad de carga ρ y densidad de corriente J). Esta distinción es importante para aplicaciones posteriores.

Podemos decir que toda la física clásica (mecánica y electromagnetismo) puede describirse a partir de la ecuación de Euler-Lagrange.


Espacios reales y abstractos

Cuando René Descartes (1596-1650) y Pierre de Fermat (1601-1665) vinculan el álgebra con la geometría, creando la geometría analítica, no sólo permiten resolver problemas geométricos mediante métodos algebraicos, sino también generalizar conceptos asociados al espacio real para lograr espacios abstractos que, en cierta forma, también son partes del mundo real.

Una de las relaciones matemáticas más importantes la constituye el teorema de Pitágoras, conocido desde el siglo VI AC, y al que podemos interpretar como la expresión matemática de la mínima distancia entre dos puntos de un plano. Como el plano está descripto mediante dos variables continuas, o dimensiones, dicho teorema implicará:

ds² = dx² + dy²

En esta expresión aparecen diferenciales , los que pueden interpretarse como longitudes muy pequeñas comparadas con las magnitudes reales del espacio que representan. Podemos ahora generalizar la expresión anterior a tres dimensiones:

ds² = dx² + dy² + dz²

Este espacio euclideano es el marco en el que se desarrolla la física newtoniana y caracterizó la imagen más profunda que el hombre tenía sobre el mundo físico. El espacio y el tiempo fueron considerados como partes de un marco exterior a la materia y a la radiación con propiedades independientes de éstas. También el espacio y el tiempo se consideraban independientes entre ellos.

Según la geometría analítica, un punto en el plano puede caracterizarse mediante dos componentes cartesianas (x1, y1) , aunque cambiaremos la denominación de las dimensiones espaciales para establecer una generalización posterior y diremos que esas componentes serán (x1, x2) . Luego, un punto en el espacio será caracterizado por tres componentes (x1, x2, x3). En todos los casos con la ya mencionada distancia mínima o “métrica euclídea”.

Físicamente hablando, no es admisible considerar un espacio cuyas dimensiones sean mayores a tres, pero en la representación algebraica podemos escribir (x1, x2, x3, x4) y así lograr el primer espacio abstracto: el tetradimensional. También podemos escribir: (x1, x2, ......, xn), o también (x1, x2,...., xn,.....) siendo este último el espacio abstracto de infinitas dimensiones. En todos los casos hemos supuesto una “métrica euclídea” (o pitagórica) aunque es posible crear espacios con una métrica, o distancia mínima, distinta a la euclídea.

En el siglo XIX, Carl Gauss encuentra una expresión matemática para la distancia mínima sobre una superficie curva:

ds² = E dp² + 2 F dp dq + G dq²

Esta es una métrica más general que incluye a la euclídea cuando es F = 0. Podemos decir que la geometría plana es un caso especial de la geometría curva. Recordemos que sobre la superficie de una esfera, la suma de los ángulos interiores de un triángulo no suman 180°, ni la relación entre la longitud de una circunferencia y su diámetro es p, ya que dicha superficie “padece de incurable curvatura” es la expresión del físico George Gamow (1904-1968). Posteriormente, Bernhard Riemann (1826-1866) generaliza la métrica no euclideana y la aplica a espacios curvos n-dimensionales, mientras que David Hilbert (1862-1943) estudia espacios de infinitas dimensiones con métrica euclídea.


Espacio-tiempo y relatividad

A principios del siglo XX aparece la teoría de la relatividad especial, o restringida, en donde se considera la existencia de un intervalo de espacio-tiempo. Este intervalo tetradimensional se atribuye al matemático Hermann Minkowski (1864-1909), y resulta invariante a los distintos sistemas de coordenadas inerciales (SC):

ds² = c²dt² - dx² - dy² - dz²

Esta vez la distancia mínima pasa a ser un “intervalo mínimo” de espacio y tiempo. Dicho intervalo ha de ser establecido por la propagación de un rayo luminosos en vez de ser una característica intrínseca del espacio. Se considera, por lo tanto, que el espacio tiempo y el tiempo son magnitudes derivadas de la radiación y de la materia, como se verá luego. Albert Einstein (1879-1955) dijo: ..antes pensábamos que si sacásemos todas las cosas del universo, nos quedaría el espacio y el tiempo. Ahora pensamos que no quedaría nada.

Se dijo que el intervalo espacio-tiempo anterior es el mismo para dos observadores en movimiento inercial. Ello se debe a que la luz es un fenómeno similar para todos. Esto resulta poco intuitivo por cuanto estamos habituados a referir todo tipo de movimiento a un espacio universal y absoluto, independiente de lo que en él exista. Así, llegamos a pensar que si nos moviéramos a la misma velocidad que un rayo de luz, le veríamos “detenido”. Como no existe tal espacio universal, siempre medimos la misma velocidad c.

Ya que la luz es una perturbación electromagnética, regida por las ecuaciones de Maxwell, al movernos (supuestamente) a la misma velocidad que la luz, no habría variación de campos eléctricos ni variación de campos magnéticos, es decir, ya no habría luz. El universo tendría un aspecto distinto según el estado de movimiento del observador. Tampoco habría igualdad entre los observadores que se mueven entre sí a velocidad constante. Había que aceptar el principio de relatividad (igualdad entre el estado de reposo y el movimiento inercial) aceptando la independencia de la velocidad de la luz, dejando de lado el concepto de espacio y tiempo universales. A esta actitud nos obligan las circunstancias.

A comienzos del siglo XX, casi todos los fenómenos físicos conocidos estaban descriptos por la mecánica clásica y por el electromagnetismo. Según el principio de relatividad, es equivalente el estado de reposo al movimiento rectilíneo uniforme (inercial), por lo que las leyes de la física deberán tener la misma forma matemática si han de ser referidas a dos sistemas de coordenadas en movimiento rectilíneo uniforme. En el caso de la mecánica, para pasar de uno al otro sistema, existe la “transformación de coordenadas de Galileo” que tiene la siguiente forma (para el movimiento en el eje x):

x’= x − vt

t’= t

Nótese que al derivar dos veces x’ respecto de t (como lo exige la segunda ley de Newton), nos queda:

d²x’/dt² = d²x/dt²

Hendrik Lorentz había descubierto que las leyes del electromagnetismo eran invariantes, en dos sistemas de coordenadas inerciales, si se les aplicaba la “transformación de coordenadas de Lorentz” (denominación actual). Luego se vio que dicha transformación era una consecuencia de la invariabilidad del intervalo de Minkowski para dos sistemas de coordenadas inerciales.

Einstein pensaba que una de las dos transformaciones; la de Galileo o la de Lorentz, había de ser la adecuada para todos los fenómenos físicos, ya fuesen mecánicos o electromagnéticos. Se presentaban dos alternativas: cambiar las leyes del electromagnetismo para que mantuvieran su nueva forma matemática invariante ante la transformación de Galileo, o bien cambiar las leyes de la mecánica para que su nueva forma fuera invariante a la transformación de Lorentz. La primera alternativa llevaba a resultados no verificados experimentalmente, mientras que la segunda alternativa permitió lograr la “corrección relativista” de la mecánica, que consistió, esencialmente, en considerar la variación de la masa con la velocidad:


m = mo ⁄ √ (1 − v²⁄ c²)

Desarrollando la potencia fraccionaria mediante el binomio de Newton, se llegó a que una variación de masa implica una variación de energía, de donde:

E = m c²



Relatividad generalizada

Si todos los cuerpos caen a Tierra simultáneamente, como descubrió Galileo, significa que dicho fenómeno no es una propiedad de los cuerpos, sino del campo de fuerzas gravitacional. Además, como la aceleración producida por la gravedad es única, los fenómenos gravitacionales han de ser descriptos como si se tratase de movimientos en sistemas de coordenadas uniformemente acelerados.

Así como la métrica del espacio-tiempo de Minkowski viene determinada por la radiación (luz), la métrica del espacio-tiempo de la relatividad generalizada vendrá determinado por la materia (masa y energía). Dicho intervalo no euclideano (intervalo de Riemann) viene dado por la siguiente expresión:


ds² = g11 dt² + g12 dt dx + g13 dt dy + g14 dt dz + g22 dx² + g23 dx dy +

g24 dx dz + g33 dy² + g34 dy dz + g44 dz²

No es posible encontrar alguna transformación de coordenadas para pasar de un sistema acelerado a otro manteniendo invariante, esta vez, al intervalo anterior. Así como las magnitudes vectoriales son invariantes en sistemas de coordenadas inerciales, los tensores resultan invariantes en los sistemas de coordenadas acelerados.

Para la determinación de los potenciales gravitacionales, de la forma gij , Einstein tomó como referencia a la ecuación de Laplace (para espacio sin masas), mientras que tomó como referencia a la ecuación de Poisson para espacios con masa distribuida. Ambas condiciones quedaron así:


Rij = 0 Espacio sin masas


Rij − ½ gij R = (8 π k ⁄ c4) Tij Espacio con masas distribuidas


En donde Rij agrupa un sistema de varias ecuaciones que permiten obtener los coeficientes del intervalo ds, mientras que Tij es un tensor que tiene en cuenta a la masa, a la cantidad de movimiento y a la energía que han de producir a dicho intervalo curvo. La constante k incluye a la constante de gravitación universal para permitir obtener la ley de Newton de la gravitación (para campos gravitacionales débiles), siendo resueltas por primera vez por Karl Schwarzchild (1873-1916) al ser aplicadas al sistema planetario solar.

Las ecuaciones de Einstein han permitido la realización de modelos cosmológicos que describen al universo conocido. Utilizando dichas ecuaciones, Aleksandr Friedmann (1888-1925) pudo predecir en forma teórica la existencia de la expansión universal del universo.


Cuanto de acción

Para describir la forma en que se distribuye la energía contenida en una cavidad cerrada (cuerpo negro), Max Planck (1858-1947) tuvo que introducir cierta discontinuidad en la cantidad de acción interviniente en los fenómenos de radiación. Como la frecuencia de la radiación electromagnética puede adoptar cualquier valor, siendo una variable continua, se debió asignar a cada frecuencia cierta cantidad de “cuantos de acción” (fotones) siendo la energía de cada fotón proporcional a la frecuencia asociada:

E = h f (Energía = Constante de Planck x Frecuencia)

De esta forma, Planck pudo encontrar concordancia entre la teoría y los datos experimentales. Su trabajo fue enunciado en el año 1900.

La teoría electromagnética de Maxwell no contemplaba, para la radiación, ningún tipo de discontinuidad, por lo que la teoría de Planck fue bastante discordante con lo aceptado en esa época. Emilio Segré dijo que Planck era un revolucionario a pesar suyo, ya que su constante de acción fue introducida tan sólo para que la teoría se adaptara a los datos experimentales, actitud que fue adoptada por gran parte de los físicos posteriores.

Resultaba evidente que la teoría de Maxwell describía los fenómenos de la radiación en un nivel macroscópico, mientras que las leyes a una escala de observación inferior resultaban bastante distintas.

Planck asociaba la discontinuidad de la acción a ciertos osciladores hipotéticos que reciben e irradian energía electromagnética, ya que todavía no estaba bien establecida la existencia de los átomos.

En 1905, Einstein pudo describir al efecto fotoeléctrico. Para ello estableció que los cuantos de acción no sólo intervienen en las fuentes y en los receptores de la radiación, sino que también las propias ondas electromagnéticas presentaban tal discontinuidad.

Si se ilumina una superficie conductora de electricidad con la luz emitida por una lámpara, es posible que la superficie emita electrones con cierta energía cinética. Si ahora se ilumina la misma superficie con dos lámparas, la teoría macroscópica predice la emisión de electrones con mayor energía cinética. Sin embargo, se comprobó que en ese caso tan sólo aumentaba la cantidad de electrones que salían con la misma energía que antes. Si, en cambio, se cambia el color de la luz emitida (frecuencia de la onda electromagnética) cambia la energía cinética de los electrones en proporción directa a la frecuencia. La constante de Planck resultó ser el vínculo concreto entre la energía (de una partícula) y la frecuencia (de una onda) en la analogía establecida por Hamilton.

Posteriormente, Arthur H. Compton (1892-1962) comprobó experimentalmente, al hacer chocar un fotón muy energético (rayos X) con un electrón, que el fotón se comporta como una partícula a la que se le puede asociar cierta cantidad de movimiento (p = E ⁄ c) y que en el mencionado choque se sigue cumpliendo la ley de conservación de la cantidad de movimiento.

En el siglo XIX, Gustav Kirchhoff (1824-1887) y Robert Bunsen (1811-1899) inician la astrofísica, ya que perfeccionan un método para encontrar el espectro de radiación característico de cada elemento químico. Así se pudo descubrir al helio en el Sol antes que en la Tierra. Luego, otros físicos encontraron la ley que regía a los espectros mencionados. Un modelo de átomo debería reproducir la ley que rige a los espectros característicos de los elementos químicos. Niels Bohr (1885-1962), basándose en el modelo de átomo de Ernest Rutherford (1871-1937), el cual se parece a un pequeño sistema planetario solar, postula que los electrones no irradian si están en órbitas estables y que sólo emiten un fotón cuando saltan de uno a otro de dichos estados.

f = (E1 − E2) / h

es decir Frecuencia = Energía estado 1 - Energía estado 2 / Constante de Planck

La relación anterior vincula la frecuencia de un fotón emitido con los estados estables de energía asociados a los electrones dentro de un átomo. Además, la cantidad de acción asociada a un electrón de masa m que se mueve por una órbita circular de radio r, con una velocidad v, es un múltiplo entero de la constante de Planck dividida por 2 π:

m v r = nh/2π

Masa x velocidad x radio = Número entero h ⁄ 2 π

Con esta teoría (antigua teoría cuántica) se pudo justificar varios datos experimentales asociados al átomo más simple, que es el hidrógeno.


Ondas de materia

Louis de Broglie (1892-1987), quien en un tiempo estudió historia medieval, se interesaba por la historia de la física y así llegó a conocer la analogía entre óptica y mecánica establecida por Hamilton en el siglo XIX.

Una vez que Planck y Einstein vinculan, por medio de la constante de acción (h), a la energía con la frecuencia (E = h f) en el caso del fotón, Compton confirma el vínculo entre el número de onda y la cantidad de movimiento o, lo que es lo mismo, entre la longitud de onda y la inversa de la cantidad de movimiento (λ = h ⁄ p).

De Broglie propone que ambas relaciones no sólo tienen validez para la luz, sino también para la materia. En este caso, cada partícula debería comportarse como una onda, en ciertas circunstancias, y así debería exhibir el comportamiento propio de una onda; incluso producir los fenómenos de difracción e interferencia. Algo completamente nuevo e inesperado para la época. La relación de De Broglie será entonces:

λ = h/mv

es decir (Longitud de onda = h ⁄ Masa x velocidad)

La dualidad onda-partícula puede hacerse algo menos abstracta considerando que las partículas materiales presentan campos de fuerzas asociados que se extienden a cierta distancia. La variación espacial de líneas de fuerzas presenta cierto aspecto ondulante y, posiblemente, de ahí provenga tal atributo.

La velocidad de fase de las ondas de De Broglie no tiene un significado físico, por el momento, mientras que la velocidad de grupo coincide con la velocidad de la partícula; vínculo que ya aparecía en la analogía del siglo XIX.

De Broglie pudo interpretar la condición de Bohr, ya que al ser:


m v r = n h ⁄ 2 π se obtiene 2 π r = n λ


La última igualdad implica que las órbitas circulares de Bohr requieren tener la longitud necesaria para que en ella se establezca una onda estacionaria, mientras que, para una longitud distinta, la onda interfiere consigo misma y se destruye.


Mecánica ondulatoria

El siguiente paso, en la dirección adoptada por De Broglie, fue dado por Edwin Schrodinger (1887-1961), quien estableció una ecuación diferencial para las ondas de materia. Esta vez no sólo aparece la longitud de onda, sino la amplitud de tales ondas. Para poder reproducir la existencia de estados estables en el átomo, plantea una ecuación para ondas estacionarias (utilizada en varias ramas de la física), pero introduciendo la condición de De Broglie. Para el caso unidimensional tal ecuación será:

-(h ⁄ 2π)²/2m) (d²ψ/dx²) + V ψ = E ψ

Las ecuaciones diferenciales de este tipo presentan soluciones sólo para algunos valores de energía E. De ahí que los estados estables del átomo, en los que los electrones no irradian, provienen de la existencia de ondas estacionarias tridimensionales, expresadas por la ecuación anterior generalizada a las tres dimensiones del espacio.

Para encontrar el vínculo entre la ecuación de onda y los datos experimentales, Schrodinger descubrió ciertas propiedades algebraicas de los operadores asociados a las magnitudes físicas intervinientes. Para construir la ecuación de ondas progresivas, partió del hamiltoniano clásico (no relativista):


E = p²⁄2m + V (Energía total = Energía cinética + Energía potencial)


y asoció a la energía E y a la cantidad de movimiento p los operadores siguientes:


E ──> i h⁄2π ∂ ⁄ ∂t

p ──> h⁄2πi ∂ ⁄ ∂x


Obteniendo la ecuación para las ondas progresivas (unidimensional):

-(h⁄2π)²/ 2m . ∂²ψ/∂x² + V ψ = i (h/2π) ∂ψ

Respecto de la amplitud de onda ψ , apareció la duda acerca de qué era lo que ondulaba. En una época había siete interpretaciones distintas, siendo finalmente aceptada la propuesta por Max Born (1881-1970), la que establece que el cuadrado del módulo de dicha función compleja es una medida de la densidad volumétrica de probabilidad de que aparezca la partícula (en el punto del espacio en donde se evalúa la función). Para ello observó que existe una relación similar entre la amplitud del campo eléctrico y la probabilidad de existencia del fotón. En este caso, la dualidad onda-partícula parece ser una consecuencia del vínculo entre dos escalas de observación distintas; entre el macro y el micromundo.

Es interesante destacar que existe una forma matemática de la ecuación de Schrodinger en la cual, al hacer tender h a cero, queda la ecuación de Hamilton-Jacobi de la mecánica. La nueva teoría resultó ser una ampliación de la anterior, o bien una “corrección cuántica” de la mecánica.


Mecánica cuántica

A mediados de la década de los veinte, no sólo había aparecido la mecánica ondulatoria, sino también, y previamente, la mecánica matricial de Werner Heisenberg (1901-1976). Ambas serían incluidas en una teoría más general, tal el caso de la mecánica cuántica de Paul Dirac (1902-1984). Las tres teorías son equivalentes, de la misma manera en que lo son las teorías de Newton, Lagrange y Hamilton en el caso de la mecánica clásica.

Heisenberg trata de utilizar sólo magnitudes observables (intensidad de las líneas espectrales, probabilidad de transición entre estados, etc.) en lugar de las hipotéticas órbitas circulares que Bohr había propuesto. Aplicando matrices a magnitudes observables encuentra las condiciones matemáticas que deben cumplir, resultando similares a las de la mecánica clásica.

A Dirac le llama la atención, leyendo el trabajo de Heisenberg, la existencia de productos no conmutativos (de las matrices) y los pudo asociar a los “corchetes de Poisson”, un concepto que aparece en la mecánica hamiltoniana. Emilio Segré (1905-1989) escribió: “También la teoría de Dirac es equivalente a las teorías de Heisenberg y de Schrodinger. Para los tres, la relación esencial que produce la cuantificación es:


p q - q p = h / 2 p


Para Heisenberg, p y q son matrices; para Schrodinger q es un número y p es el operador diferencial


p = h / 2πi ∂/∂q


Para Dirac, p y q son números especiales que se rigen por un álgebra no conmutativa. En el caso de un problema concreto, los resultados de los cálculos realizados por cualquiera de los tres métodos son idénticos” (De “De los rayos X a los quarks”).

En la condición cuántica general, si hacemos h = 0 , obtenemos nuevamente el producto conmutativo de p (cantidad de movimiento) por q (posición) de la mecánica clásica. Además, la mecánica cuántica de Dirac se desarrolla en el “espacio de Hilbert”, que es un espacio vectorial de infinitas dimensiones. Este método presenta la ventaja de poder utilizar métodos algebraicos en la solución de problemas. Puede hacerse una analogía con los vectores del espacio tridimensional:


MATERIA...........VECTORES ESPACIO E3.....VECTORES ESPACIO H

Vector............Segmento orientado, v...Función compleja, Ψ(x)
Escalar...........Número real, r..........Número complejo, c
Combinación lineal.v = r1 v1 + r2 v2 .....Ψ = c1 Ψ1 + c2 Ψ2
Producto escalar..v1.v2 =|v1||v2|cos θ12..(Ψ1,Ψ2) = ∫ Ψ1* Ψ2 dx


Indeterminación

La integral, sobre todo el espacio, del módulo de la función de onda, elevado al cuadrado, resulta divergente para una onda individual, mientras que, para un “paquete de ondas”, en donde participan varias de ellas, se refuerzan en una zona del espacio y se interfieren en el resto. De ahí que las partículas reales admiten sólo ondas con varias componentes. Ello lleva implícita cierta imposibilidad de poder determinar con exactitud algunos pares de magnitudes físicas, cumpliéndose:


Δx Δp >= h / 2π

ΔE Δt >= h / 2π


Las desigualdades anteriores se conocen como las “relaciones de indeterminación” de Heisenberg. También en este caso existen distintas interpretaciones sobre su significado físico, aunque resulta adecuado asociarlo al conocido principio de “indeterminación en radiolocalización” (radar).

Joseph Fourier (1768-1830) estableció que cualquier función periódica puede descomponerse en una suma de funciones senoidales de distintas amplitudes y frecuencias (series de Fourier). También es posible descomponer un pulso breve en cierta distribución continua de componentes como las mencionadas (integral de Fourier).

El principio de indeterminación en la radiolocalización implica que, mientras más breve sea un pulso de energía electromagnética, enviado para su posterior reflexión en un objeto a localizar, mayor será el espectro de Fourier correspondiente, y mayor ha de ser el ancho de banda necesario que ha de tener un amplificador para poder procesar dicha información. Como no es posible realizar amplificadores electrónicos con un ancho de banda infinito (para procesar un pulso muy estrecho) existe una limitación insuperable en tal procedimiento. Como se dijo, es un proceso matemáticamente análogo al principio de indeterminación de la mecánica cuántica.


Gauge cuántico

Ya que sólo puede ser observable, o medible, el cuadrado del módulo de la función de onda, si se le aplica un desplazamiento de fase arbitrario a a la función de onda Y , mientras que a la compleja conjugada Y* se la desplaza un ángulo de fase -a, al obtenerse el producto YY* , no se afecta la probabilidad calculada:


Ψ.Ψ* = Ψ exp ia . Ψ* exp -ia


Decimos que la función de onda es invariante ante una transformación de fase. Esto se conoce como la “calibración invariante de fase”, o “transformación gauge cuántica”. Junto a la “transformación gauge electromagnética” aparecen como si fuesen “comodines” en un juego de naipes. Si se los sabe utilizar, se podrá lograr importantes progresos con ellos, como en realidad ha sucedido.

Para comprobar cómo funciona esta transformación, supongamos que cambiáramos la fase de la función de onda y la introducimos en la ecuación de Schrodinger. Se observa que la ecuación no resulta invariante a dicha transformación. Entonces agregamos a la ecuación algunas magnitudes que expresan la existencia de un campo electromagnético. Si ahora aplicamos simultáneamente las transformaciones gauge cuántica y electromagnética, adoptando la misma función arbitraria en ambas transformaciones, esta vez la ecuación de Schrodinger resulta invariante.

Podemos decir que se ha “redescubierto” la interacción electromagnética . El hallazgo de nuevas partículas y de nuevas interacciones se realiza mediante técnicas similares, aunque con una creciente dificultad matemática.


Spin

En la teoría de Bohr, algunos físicos propusieron órbitas elípticas e incluso un giro del electrón sobre sí mismo. En realidad, no es posible hacer una analogía estricta entre spin y giro, aunque podemos hablar de cierto grado de libertad propio de cada partícula libre.

Wolfgang Pauli (1900-1958) fue quien logró describir matemáticamente al spin del electrón. Para ello introdujo las “matrices de pauli” (matrices de 2 filas por 2 columnas) y las incluyó en la ecuación de Schrodinger, dando lugar a la “ecuación de Pauli”.

También pudo interpretar, a través del spin respectivo, la ley de distribución de partículas en los distintos estados cuánticos (estadísticas cuánticas). Así, las partículas de la mecánica clásica siguen la estadística de Maxwell-Boltzmann, las partículas con spin ½ h/2π a las que se les aplica el principio de exclusión de Pauli, siguen la estadística de Fermi-Dirac, mientras que las partículas con spin entero (n h/2π) siguen la estadística de Bose-Einstein.

Schrodinger dio la siguiente descripción elemental de las distintas estadísticas (para dos partículas a ubicar en tres estados):

Tres escolares, Juan, Enrique y Pedro, merecen un premio. El profesor tiene dos premios para distribuir entre ellos. Antes de hacerlo, quiere asegurarse de cuántas diferentes maneras es posible hacerlo:

a)Los premios son dos medallas conmemorativas, con imágenes de Newton y de Shakespeare, respectivamente. El profesor puede dar “Newton” a Juan, a Enrique o a Pedro, y “Shakespeare” a Juan, a Enrique o a Pedro. Tenemos así tres veces tres, o sea nueve distribuciones (Estadística clásica).

b)Los premios son dos piezas de un chelín (que, para nuestros propósitos hemos de considerar como indivisibles) Se pueden dar a dos de los muchachos, y el tercero, Juan, Enrique o Pedro, se quedará sin nada. Además de estas tres posibilidades, hay otras tres: o Juan, o Enrique o Pedro pueden recibir los dos chelines, con lo que tenemos seis distribuciones diferentes (Estadística de Bose-Einstein.

c)Los premios consisten en dos puestos vacantes en el equipo de fútbol que representa a la escuela. Dos de los muchachos podrán ingresar, en tanto que el tercero se quedará afuera. Así encontramos aquí tres diferentes distribuciones (Estadística de Fermi-Dirac). (De “Qué es una ley de la naturaleza ?”).

En el mundo atómico y nuclear, descripto por la mecánica cuántica, existen dos tipos de partículas principales: las “fuentes”, que interactúan con las demás partículas fuentes emitiendo y absorbiendo partículas “mensajeras”, que es el segundo tipo mencionado. Las partículas fuentes tienen un spin ½ de la unidad fundamental y se denominan “fermiones” (también pueden tener spin semientero). Las partículas mensajeras tienen un spin entero y se denominan “bosones”.


Mecánica cuántica relativista

La relatividad especial puede considerarse como una “corrección relativista” de la mecánica, mientras que la mecánica cuántica puede considerarse como una “corrección cuántica” de la mecánica, por lo que es de esperar una “corrección cuántica y relativista” de la mecánica. Además, el electromagnetismo de Maxwell es relativista desde sus orígenes, aunque admite una corrección cuántica, que habrá de constituirla la “electrodinámica cuántica”.

Se vio cómo Schrodinger “eleva el rango” de las magnitudes físicas convirtiéndolas en “operadores”. Obtiene la ecuación para ondas progresivas partiendo del hamiltoniano clásico, o energía total. Luego, para establecer una ecuación relativista debería partirse de la expresión relativista de la energía total de una partícula y reemplazar las magnitudes físicas por los operadores respectivos, siendo la energía total:


E² − p²c² = m² c4


La sustitución mencionada condujo a la ecuación de Klein-Gordon, que Schrodinger encontró antes, pero que no publicó porque no se adaptaba al electrón, aunque después se comprobó que era adecuada para la descripción de partículas de spin 0.

Para encontrar una ecuación relativista adecuada al electrón, Dirac partió de la misma expresión anterior, pero escrita así:


E = √ p²c² + m² c4

Esto lo hace teniendo presente que E se reemplaza por un operador en el que aparece una derivada temporal de primer orden (en el método de Schrodinger). También la raíz cuadrada de operadores elevados al cuadrado llevarán a derivadas espaciales de primer orden (por estar en una misma igualdad matemática). Se cumpliría con el requisito de la relatividad especial; tal el de aplicar similar tratamiento matemático al tiempo y al espacio. Es interesante destacar que abandona el intento de encontrar una ecuación de onda con derivadas parciales segundas, como aparecen en toda ecuación de ondas.

Se sabía cómo obtener operadores asociados a p, a E, a H, o a p², E², etc., pero a Dirac se le presentó el inconveniente de tener que obtener operadores bajo una raíz cuadrada. Entonces establece la siguiente igualdad:


√ c² p² + m² c4 = c (α p) + β m c²


Los operadores son p, α y β. Reemplazando p² = (px)² + (py)² + (pz)² y elevando al cuadrado a ambos miembros de la igualdad, encuentra las condiciones que deben cumplir los operadores α y β para que se cumpla la igualdad. La ecuación de Dirac queda, finalmente:

-h/i ∂Ψ/∂t = c (α p) Ψ + m c² β Ψ


Tanto p como α tienen componentes según x, y, z, por lo que esta ecuación en forma expandida consiste, en realidad, de cuatro ecuaciones.

En las soluciones de esta ecuación venía implícito el spin del electrón, mientras que en la ecuación no relativista habían de agregarse las matrices de Pauli como una ampliación de la ecuación de Schrodinger. También aparecen los estados de energía negativos, introduciéndose en la física a las antipartículas (antimateria), algo totalmente inesperado. Por ello Dirac decía de su ecuación que “era más inteligente que su autor”.

La ecuación de Dirac no sólo se adaptó al electrón y al positrón, sino a todas las partículas con spin ½ de la unidad fundamental. Posteriormente pudo obtenerse una ecuación relativista que describe las partículas de spin 1, y es la denominada “ecuación de Proca”. Tanto la ecuación de Dirac, como la de Klein-Gordon y como la de Proca admiten un lagrangiano, diferente en cada caso, para poder obtener dichas ecuaciones a partir de la ecuación de Euler-Lagrange.

El interés por lograr, en cada caso, el lagrangiano respectivo implica que ha de ser posible aplicar los “diagramas de Feynman” y las “reglas de Feynman” para hacer predicciones teóricas sobre algún fenómeno concreto.

Se considera que el lagrangiano está compuesto por dos partes: el lagrangiano de la partícula libre y el de la interacción. El primero está vinculado al “propagador” (línea del diagrama de Feynman), mientras que el segundo está asociado al vértice de dicho diagrama. Con la información obtenida al aplicar las reglas de Feynman, pueden calcularse las secciones eficaces o los tiempos de decaimiento de las partículas intervinientes en un fenómeno.


Teoría cuántica de campos

Tanto la mecánica cuántica no relativista como la relativista, describen el comportamiento de partículas individuales, mientras que la cantidad de las mismas se mantiene constante luego de alguna interacción.

Uno de los problemas que presenta la física de partículas deriva de la equivalencia entre masa y energía (E = m c²) . Esto significa que puede darse el caso en que, luego de chocar dos partículas, parte de la energía cinética se convierta en masa y aparezca, como resultado, tres o cuatro partículas finales. Siempre se ha de cumplir el principio de conservación de la energía, aunque pueda no cumplirse la conservación de la cantidad de partículas. Así como en el micromundo conocemos varias formas de energía (mecánica, eléctrica, magnética, química, etc.) en el micromundo se agrega a estas formas la energía asociada a la masa. Además, cuando se encuentra un electrón con su antipartícula (positrón) moviéndose a bajas velocidades, se aniquilarán y aparecerán dos fotones moviéndose a la velocidad de la luz.

La teoría cuántica de campos tiene en cuenta estos fenómenos e incorpora “operadores de creación” y de “aniquilación” de partículas. Así como la mecánica cuántica “eleva el rango” de las magnitudes físicas convirtiéndolas en operadores, en la teoría cuántica de campos ello se realiza con las propias funciones de onda. Esto se conoce como la “segunda cuantización”.

Así como el análisis matemático, o cálculo, estudia funciones de una variable real, en el análisis funcional, utilizado en las teorías cuánticas de campos, las variables independientes son, a su vez, funciones. Mientras que la mecánica cuántica se expresa en un “espacio de Hilbert”, las teorías cuánticas de campos se desarrollan en el “espacio de Fock” (por Vladimir Fock (1898- ?).


Electrodinámica cuántica

La electrodinámica cuántica (en inglés Quantum Electrodynamics – QED) es una teoría cuántica de campos que describe con gran exactitud a la mayoría de los fenómenos de la escala atómica. Los tres “actores” principales son el electrón, el positrón y el fotón.

Las ecuaciones básicas de esta teoría son las de Maxwell y la de Dirac. La versión definitiva fue establecida por Richard Feynman (1918-1988), Julian Schwinger (1918-1994) y Sinitiro Tomonaga (1905-1979), quienes compartieron el Premio Nobel de Física en 1965.

Es posible obtener el “lagrangiano de Maxwell” (densidad de Lagrange) para deducir luego las ecuaciones de Maxwell, a partir de la ecuación de Euler-Lagrange. El lagrangiano anterior está constituido por el del campo electromagnético (Lem) y por el de la interacción (del campo con sus fuentes) (Lint), según se vio antes. Para utilizarlos en la electrodinámica cuántica, se los expresa mediante una forma relativista que emplea cuadrivectores.


Lint = e Ψ* γ exp μ Ψ Aμ

En donde el primer factor es la carga eléctrica del electrón, el segundo es la función de onda conjugada, el tercer factor es un cuadrivector que proviene de la ecuación de Dirac, el cuarto es la función de onda y el último es el cuadrivector cuyas componentes son los potenciales escalar eléctrico y vectorial magnético.

Respecto de las funciones convertidas en operadores que crean o aniquilan partículas, tenemos:


Ψ Crea electrones o aniquila positrones
Ψ* Crea positrones o aniquila electrones
Aμ Crea o aniquila fotones

La ampliación de la teoría, a partir de la teoría de Maxwell, consistió en agregar el lagrangiano de Dirac, de manera tal que se tenga en cuenta la presencia de electrones y positrones, del campo electromagnético (campo de fotones) y de las fuentes que lo producen. El lagrangiano de Dirac también aporta operadores de creación y de aniquilación de partículas.

Respecto de la transformación gauge cuántica, debemos distinguir entre un exponente (i α), que da lugar a una “transformación gauge global” (en todas partes igual) y un exponente i α (x) que da lugar a una “transformación gauge local” (distinta en cada lugar, por ser función de x).

El lagrangiano completo, si ha de describir al mundo real, debe ser invariante ante la transformación gauge electromagnética como para la transformación gauge local, siendo:


L = Lem + Lint + Ldirac

Las dos primeras componentes resultan invariantes a todas las transformaciones, mientras que el lagrangiano de Dirac sólo lo es respecto del gauge global, pero no local. Para lograr la invariabilidad del lagrangiano completo, se lo modifica adecuadamente. Luego se realizan los diagramas de Feynman y se calcula aplicando las reglas de Feynman.


Teoría Standard

Los siguientes avances de la física teórica consistieron en generalizar las técnicas utilizadas en la electrodinámica cuántica. Así, los físicos Chen Ning Yang (1922-) y Robert Mills propusieron colocar en el exponente, como función arbitraria en la transformación gauge local, algo más complicado que una función del espacio. Colocaron una expresión en la que intervienen las matrices de Pauli, estableciendo un requisito más amplio a cumplir por los lagrangianos propuestos. Las partículas de la naturaleza deberían surgir de un ordenamiento que respondiera al grupo matemático SU (2).

Un grupo es una estructura algebraica que permite obtener a todos los elementos de un conjunto a partir de la aplicación de una operación matemática, la cual ha de ser asociativa, ha de existir un inverso y un elemento neutro. Los elementos de un grupo surgirían del ordenamiento subyacente de las partículas subatómicas.

Así se llega a la unificación de la fuerza electromagnética con la fuerza nuclear débil (fuerza electrodébil). Ahora la transformación gauge local se cumple con U(1) x SU(2) significando que SU(2) es un grupo más amplio que U(1), siendo este último un número. La unificación mencionada está asociada a los nombres de Sheldon Glashow (1932-), Steven Weinberg (1933-) y Abdus Salam (1926-).

Un posterior avance consistió en la utilización de las “matrices de Gell-Mann” (por Murray Gell-Mann (1929-)), que son matrices de 3 filas por 3 columnas y que responden al grupo SU(3), más amplio que los anteriores. Por ese camino se llegó a la “cromodinámica cuántica” que describe la fuerza nuclear fuerte y está asociada a los nombres de Howard Georgi, H.D. Politzer, David Gross y Frank Wilczek. La secuencia histórica fue, entonces, electrodinámica cuántica, flavordinámica cuántica (electrodébil) y cromodinámica cuántica, teorías que constituyen el “modelo Standard” o “teoría Standard”. Tan sólo la gravedad “rehusa” de entrar en este esquema. En esto se vislumbra, posiblemente, la existencia de un límite para la física de partículas puntuales (entes de dimensión 0) para dar lugar a la física de cuerdas (entes de dimensión 1).


Principios de la física

Debido a que los principios de la física utilizan distintos entes matemáticos, y en cada rama de la matemática es posible encontrar cierta axiomatización, es interesante preguntarse por los principios básicos existentes en la física, ya que en ellos se sustentaría toda la estructura del mundo material.

La física clásica está caracterizada por la existencia de una trayectoria única para el movimiento de las partículas. Pensemos en un objeto que se mueve en el campo gravitacional terrestre. Esta trayectoria única se determina mediante el “principio de la acción estacionaria”. Esto implica que si evaluamos la acción interviniente en la trayectoria real y variamos un poco el recorrido suponiendo trayectorias virtuales (no reales), se establece que no hubo cambio en la cantidad de acción.

El concepto descripto viene expresado por el principio de la acción estacionaria de Hamilton, y dice así: El movimiento del sistema entre el tiempo t1 y el tiempo t2 es tal que la integral curvilínea


t2
S = ∫ L dt
t1


donde L = T − V, tiene un valor estacionario para el camino del movimiento correcto. (De “Mecánica clásica” de H. Goldstein). Y la condición matemática para el cumplimiento de este principio es justamente la ecuación de Euler-Lagrange.

Mientras que en el cálculo diferencial analizamos el cambio relativo entre las variables x e y, correspondientes a una función y = f(x), en el cálculo de variaciones observamos el cambio que existe entre dos funciones y1 (x) e y2 (x) para un mismo valor de x. En nuestro caso, suponemos que existe una trayectoria real y suponemos otra trayectoria próxima (que tiene en común con la anterior los puntos extremos) y evaluamos la diferencia entre ambas a lo largo de toda la trayectoria.

Así como en la física existen “principios diferenciales”, tal como el principio de conservación de la energía (dE ∕ dt = 0), también existen los “principios integrales”, como el de la acción estacionaria. Para los primeros se utiliza el cálculo diferencial, mientras que para los segundos se utiliza el cálculo de variaciones.

Hemos visto que la constante de Planck resultó ser el vínculo entre magnitudes asociadas a partículas y a ondas considerando la analogía entre mecánica y óptica, establecida por Hamilton. Así, se estableció el vínculo entre energía y frecuencia (Planck – Einstein) y entre el número de onda y la cantidad de movimiento (De Broglie), quedando todavía por establecer el vínculo entre fase y acción, problema que fue resuelto por Dirac y por Feynman.

El ángulo de fase φ es una magnitud adimensional (si se lo mide en radianes). Si lo relacionamos con la acción S, a través de la constante de Planck h, sólo cabe la posibilidad:


φ = S/h

Asociado a la función de onda, será:


Ψ = exp iφ = exp iS/h

Como la mecánica cuántica es análoga a la clásica, debe existir algún vínculo entre el principio de acción de Hamilton y algún principio similar correspondiente al mundo cuántico. Podemos hacer entonces: Ψ = exp i ∫ L dt∕h, evaluada entre ti y t2

Cuando L adopta valores muy grandes respecto de h, la fase oscila rápidamente y los valores positivos y negativos de la función de onda se cancelan, mientras que sólo adquiere un valor significativo para un valor mínimo de L, como es el que corresponde al establecido por el principio de Hamilton.

La expresión anterior forma parte de la expresión matemática del “camino integral de Feynman” que es el principio de acción de la mecánica cuántica y de donde puede derivarse la ecuación de Schrodinger y todo lo demás. Feynman lo enunció cuando todavía era un estudiante universitario, pudiendo considerarse como el fundamento básico de toda la física.

Feynman enunció dos postulados básicos para fundamentar la mecánica cuántica:

1) Si se realiza una medición ideal para determinar cómo una partícula adopta un camino en una región del espacio-tiempo, la probabilidad que resulte afirmativo es el cuadrado del valor absoluto de la suma de las contribuciones complejas, una para cada camino en la región

P = | Ψ1 + Ψ2 + Ψ3 + . . . . | 2

2) Los caminos contribuyen igualmente en magnitud, pero la fase de esas contribuciones es la acción clásica (en unidades de h/2π) ; esto es, la integral en el tiempo del lagrangiano tomado a lo largo del camino.

|Ψ1| = |Ψ2| = |Ψ3| = . . . . .


El físico Michael Green escribió sobre la “suma de historias”: Se trata de un recurso para explicar, en mecánica cuántica, la interpretación probabilista que seguirá la trayectoria de una partícula. Se imagina la partícula puntual moviéndose simultáneamente a lo largo de todas las posibles líneas de universo del espacio-tiempo; a cada trayectoria se le asigna un peso, o probabilidad estadística, de tal manera que las trayectorias más cortas del espacio-tiempo sean, con mucho, las más probables. El resultado es una maraña de líneas de universo que presentan su densidad máxima a lo largo de la trayectoria clásica. (De “Supercuerdas” en Scientific American).

Cuando se habla de “las trayectorias más cortas del espacio-tiempo”, la expresión nos recuerda a los intervalos espacio-tiempo invariantes que ayudaron a construir tanto la relatividad especial como la general. La determinación de los intervalos mínimos posiblemente sea también un problema del cálculo de variaciones.

En 1917, la matemática Emmy Noether (1882-1935) enunció un importante teorema que vincula la existencia de invariantes a principios de conservación. Gordon Kane escribió: Para un sistema descripto por un lagrangiano, cualquier simetría continua la cual deje invariante a la acción ∫ L dt conduce a la existencia de una corriente conservada Sμ , con ∂Sμ = 0. Siempre es posible definir una carga como Q(t) = ∫ S(x) dx3 y la carga es conservada en el sentido de que dQ/ dt = 0. (De “Modern Elementary Particle Physics”).

A partir de este teorema aparece la siguiente correspondencia:


INVARIANCIA.....................CONSERVACIÓN

Translación en el espacio.......Momento lineal
Translación en el tiempo........Energía
Rotación en un ángulo fijo......Momento angular
Fase cuántica...................Carga eléctrica


Deseando que este escrito haya despertado en el lector algún interés por este apasionante tema, se menciona una frase de Richard Feynman: "La física forma parte de la verdadera cultura de la humanidad".

Pompilio Zigrino

Bibliografía

“El nacimiento de una nueva física” de Bernard Cohen-EUDEBA-Buenos Aires 1970.
“De los rayos X a los quarks” de Emilio Segrè-Folios Ediciones SA-México 1983
“¿Qué es una ley de la naturaleza?” de Erwin Schrödinger-Fondo de Cultura Económica-México 1975
“Materia y luz” de Louis de Broglie-Espasa-Calpe Argentina SA-Buenos Aires 1939
“Introduction to Elementary Particles” de David Griffiths-John Wiley & Sons. Inc.-USA 1987
“Modern Elementary Particle Physics” de Gordon Kane-Update Edition-USA 1994
“The Fundamental Particles and Their Interactions” de W.R. Rolnick-Addison Wesley Publishing Company-USA 1994
“Quarks & Leptons” de F. Halzen y A.D. Martin- John Wiley & Sons. Inc.-USA 1984

2 comentarios:

  1. Es el primer compendio cronológico de la evolución de la Física, que leo y aplaudo.

    Su destino a iniciados, sin estar demasiado cocumentados, lo veo eficaz.

    ResponderEliminar