miércoles, 29 de mayo de 2019

Breve historia de la electrónica

La electrónica es la rama de la tecnología que genera la transmisión, almacenamiento y procesamiento de información codificada eléctricamente. Así, el sonido, las imágenes, los símbolos alfanuméricos, etc., pueden ser afectados por tales procesos.

1 Telegrafía

En 1838, Samuel Morse patenta el primer telégrafo; palabra que significa “gráfico (o letra) a lo lejos”, ya que la interrupción intermitente de un circuito eléctrico permite transmitir puntos y rayas a distancia. Ello implica que, desde lejos, pude controlarse un electroimán asociado a una especie de lápiz, o marcador, que hace marcas (o bien perforaciones) sobre una cinta de papel que se mueve a velocidad constante.
Para superar los inconvenientes de este primitivo sistema, Morse utilizó sucesivos circuitos eléctricos, cada uno con su propia pila eléctrica y su propio electroimán (relevador o relé).
Morse se ganaba la vida pintando retratos en una época anterior a la de la aparición de la fotografía. También se atribuye esta invención a los ingleses Cooke y Wheatstone. Además, los alemanes Karl Gauss y W. E. Weber se comunicaban con un primitivo telégrafo.

2 Telefonía

Se atribuye a Alexander Graham Bell, nacido en Inglaterra, la invención del teléfono. La palabra “teléfono” significa “sonido a distancia”. Su inventor se desempeñaba como profesor de sordomudos tratando siempre de perfeccionar su trabajo docente. También se atribuye esta invención al italiano Meucci y a Elisha Gray.
El primer teléfono de Bell estaba constituido por dos imanes permanentes en forma de U, ubicados a cierta distancia, cada uno cumpliendo la función de núcleo de un bobinado. En ambos casos se incluía una membrana metálica sobre esas U.
Al hablar alguien cercano al primer imán, hacía oscilar la membrana metálica generando en el bobinado respectivo una débil tensión eléctrica (debido a la variación momentánea del campo magnético). Esa tensión se transmitía al segundo bobinado perturbando el campo magnético del segundo imán, y haciendo vibrar a la membrana respectiva al mismo ritmo que lo hacía la primera, reproduciendo de esa manera el sonido que inició la secuencia.

3 Electromagnetismo

La tecnología tiene como fundamento alguna rama de la ciencia experimental. Así, la transmisión de información mediante ondas de radio y televisión, tienen como fundamento al electromagnetismo de Maxwell.
El físico escocés James Clerk Maxwell amplía la ley de Ampere para establecer la ley de Ampere-Maxwell. Esta ampliación implica que, no sólo toda corriente eléctrica produce un campo magnético, sino que también puede ser producido por una variación de campo eléctrico no asociado a cargas eléctricas en movimiento. Previamente, en 1831, Michael Faraday había descubierto que un campo magnético variable produce también un campo eléctrico.
Estos campos de fuerzas, mutuamente sostenidos, se propagan aun por el espacio vacío. De ahí que nos llega la luz emitida por estrellas distantes, ya que la luz es también una perturbación electromagnética.
Luego de la etapa teórica, le siguió la experimental. Fue Heinrich Hertz quien verificó experimentalmente la existencia de tales ondas. Es de destacar el poco interés de Hertz por una posible aplicación práctica de las mismas. Incluso una vez expresó: “No sé para qué pueden servir estas onditas”. Su principal interés recaía en comprobar la veracidad de la teoría de Maxwell.
La etapa propiamente tecnológica está asociada a Guglielmo Marconi quien desarrolló un transmisor para establecer la “telegrafía sin hilos”. Marconi afirmó que el mejor premio que recibió fue una medalla recordatoria obsequiada por los 500 sobrevivientes del Titanic, que pudieron salvar sus vidas gracias a la telegrafía sin hijos, o radiotelegrafía.

4 Transmisor y receptor de Hertz

El transmisor de ondas electromagnéticas ideado por Hertz, estaba constituido por dos bobinados vinculados magnéticamente, que es esencialmente un transformador. Por el bobinado primario se aplicaba una tensión eléctrica mientras que al secundario le conectó una barra metálica (donde se conectaba el secundario) abierta en el centro. Cuando se cerraba el interruptor y circulaba corriente por el primario, saltaba una chispa entre las barras metálicas conectadas al secundario. Ello se debe a que puede considerarse al secundario y a las barras como un circuito LC (inductancia-capacidad eléctrica) con su propia frecuencia de resonancia. El cierre del interruptor, en el primario, implica un pulso de corriente que puede considerarse constituido por un amplio espectro de frecuencias que incluiría la de resonancia del secundario y la barra metálica. Al establecerse la resonancia, salta la chispa.
La perturbación electromagnética producida por la chispa, debería ser detectada por algún receptor, de manera de comprobar la existencia de tal perturbación. Tal receptor era un simple conductor en forma de C, donde la abertura de la C apuntaba hacia el transmisor. A este receptor se lo puede asociar a una bobina de una sola vuelta con un condensador en su extremo (las puntas de la C separadas por un aislante). Tal sistema LC debería tener una frecuencia de resonancia idéntica a la del transmisor. Por ello pudo Hertz observar una chispa en el receptor, producida por la recepción de una onda electromagnética.

5 Telegrafía sin hilos

Marconi modifica el chispero de Hertz conectando una antena al terminal superior del secundario del transmisor y estableciendo una conexión a tierra del terminal inferior. Además, coloca un bobinado para ser sintonizado, con su propia capacitancia distribuida, entre la antena y el terminal superior, permitiéndole seleccionar una determinada frecuencia de emisión, facilitando de esa forma la posibilidad de transmisiones simultáneas con otros equipos. Otra innovación consistió en girar 90 grados al transmisor, respecto del de Hertz, para que el campo eléctrico perpendicular al terreno fuera mucho menos absorbido, permitiéndole transmisiones de mayor alcance.
El receptor también podía sintonizarse, ya que estaba constituido por una bobina variable que resonaba con su propia capacitancia distribuida, conectada a la antena receptora. Con unos auriculares podían recibirse los puntos y rayas del código Morse, esta vez en forma de ondas electromagnéticas intermitentes, de distinta duración.
Si la señal recibida por el receptor se aplicara directamente a los auriculares, no se escucharía nada, por tratarse de frecuencias elevadas, Ello ocurre por la inercia mecánica de tal dispositivo, respondiendo al promedio de la corriente eléctrica que por él circula, siendo nulo el promedio de una corriente alterna.
Por ello Marconi utiliza un rectificador como detector para disponer de un promedio distinto de cero. Tal detector era una piedra galena (mineral de plomo y azufre) que permite que la corriente circule en un sentido, pero no en el otro. Para mejorar aún más la recepción coloca un capacitor (o condensador) que absorbe las variaciones de alta frecuencia permitiendo lograr una señal audible.

6 Válvulas termoiónicas

El inventor Thomas A. Edison realizó muy pocos descubrimientos científicos, siendo la emisión de electrones por parte de un filamento incandescente, su principal contribución en ese ámbito. Pero no le encuentra aplicación alguna. Experimentando con lámparas de filamento, observa que, cerca del terminal positivo de la tensión de alimentación, aparecen manchas en el vidrio que recubre al filamento.
John Ambrose Fleming, empleado de la Edison Light Company, de Londres, se entera del "efecto Edison" e introduce un conductor metálico dentro de una lámpara incandescente. Obtiene así el primer diodo (palabra que significa "dos terminales") y aparece en la naciente electrónica el término "valvula", ya que permite el paso de corriente eléctrica en un solo sentido (en forma similar al funcionamiento de la válvula de un neumático).
Lee de Forest, egresado de la Universidad de Yale, agrega una rejilla metálica entre el filamento (o cátodo) y la placa receptora (o ánodo). Obtiene así el audión, o triodo ("tres terminales"), en 1906. Este invento señala el inicio de la era de la electrónica.
Un dispositivo de tres terminales admite dos circuitos eléctricos: el de entrada (o control) y el de salida (o controlado). La amplificación de señales es la aplicación inmediata que se le puede dar a este dispositivo, ya que una pequeña variación de la tensión en el circuito de entrada se traduce en una variación de la corriente por el interior del triodo, que luego producirá una variación correspondiente de la tensión de salida (que puede ser bastante mayor a la variación de la tensión inicial de control).

7 Radiotelefonía

La meta siguiente, que se imponen los inventores de esa época, consistía en establecer una "telefonía sin hilos" o radiotelefonía. El chispero de Marconi sólo permitía emitir señales discontinuas, aptas para la telegrafía sin hilos. Para transmitir sonidos era necesario disponer de una oscilación eléctrica sostenida a la que se le pudiese agregar la información a propagar, es decir, modificando la amplitud de la señal básica para imprimirle el sonido a transmitir.
Ernst Alexanderson construyó un alternador giratorio logrando una frecuencia de 28.000 ciclos por segundo. La solución definitiva la logra Lee de Forest con su triodo, al realizar un circuito oscilador de alta frecuencia (esencialmente realimentando un amplificador). Una oscilación se produce acercando el micrófono conectado a un amplificador, ubicándolo cerca del parlante respectivo.
De Forest perfecciona el cine sonoro y patenta unos 300 inventos, pero no tuvo éxito como empresario por cuanto, más de una vez, es estafado por sus ocasionales socios.
Los receptores de radio primitivos, "a galena", comienzan a utilizar un amplificador con triodo, siendo una forma adicional de tratar la señal recibida, además de la detección y del filtrado capacitivo.
Al aparecer varias radioemisoras, que transmitían con distintas frecuencias, surgen inconvenientes para amplificarlas selectivamente en el receptor. Por ello fue necesario establecer una "mezcla de frecuencias" (entre la generada por un oscilador local, del propio receptor, y la recibida por la antena) de tal manera que su diferencia implicaba una frecuencia constante, mucho más fácil de amplificar, que se denominó "frecuencia intermedia". Este es el fundamento del receptor superheterodino, en donde la palabra "heterodyno" proviene del griego y significa "mezcla de fuerzas". Edwin W. Armstrong fue su inventor, inventando posteriormente la transmisión por frecuencia modulada. En un caso similar al de De Forest, al tener inconvenientes con empresarios, termina su vida suicidándose.

8 Heaviside y Pupin

Las líneas telefónicas admitían mucha capacidad eléctrica distribuida, por lo que las señales se debilitaban con las distancias. Había que agregarles inductancias (bobinas)de manera de lograr una especie de filtro pasabajos, es decir, que permite la fácil transmisión de bajas frecuencias, como las utilizadas en telefonía. Este proceso se conoce como "pupinizar" una línea telefónica.
La empresa ATT le encargó el trabajo a Campbell y a Pupin, siendo el primero un empleado de tal empresa. Ambos investigaron los trabajos previos realizados por Oliver Heaviside. De esos trabajos surge la teoría de los filtros eléctricos, realizada por Campbell y la obtención de una patente de invención a nombre de Pupin. La empresa ATT tuvo que pagar, en esa época, 500.000 dólares por hacer uso del invento patentado, que sólo era una mejora del trabajo de Heaviside.
Cuando le ofrecieron a Heaviside algo de dinero en retribución por sus trabajos, respondió que debía ser al "todo o nada", por lo que siguió en la pobreza extrema y en una soledad favorecida por su sordera.
El matemático Norbert Wiener alguna vez pensó en escribir una novela basada en este triste caso. Al respecto escribió: "Pupin había envuelto su alma dentro de un contrato comercial. Cuando un alma es comprada por alguien, el diablo es el consumidor último. Hasta la penitencia pública le fue denegada. Aunque era incapaz de reprimirse en silencio, las mentiras y las exageraciones a las que se vio forzado a recurrir deben de haber resonado sepulcralmente en el espacio vacío donde su alma se había alojado" (De "Inventar"-Tusquets Editores SA-Barcelona 1994).

9 Los Laboratorios Bell

Una de las empresas que realizó importantes aportes a la electrónica fue la ATT (American Telephone and Telegraph Company), sucesora de Bell Telephone Company. En la década de los 40 tenía 5.700 empleados, mientras que en los 60 tenía 17.500, que generaban unas 700 patentes de invención anuales.
Uno de sus empleados, el antes mencionado George A. Campbell, establece en 1915 la descripción matemática de los filtros de ondas. Un filtro de onda es un circuito que tiene una diferente respuesta para las distintas frecuencias que les son aplicadas. De ahí que transmitirá algunas y rechazará otras. La oposición al paso de las corrientes alternas, que presentan bobinas y condensadores, dependen de la frecuencia de aquellas, por lo que los filtros pasivos están constituidos principalmente por esos elementos circuitales. Posteriormente aparecen los filtros activos, que proveen una amplificación selectiva, según la frecuencia.
También en 1915, John R. Carson establece la transmisión por banda lateral única (BLU). Si se analiza el espectro de las frecuencias que componen una señal modulada en amplitud, se verá que consiste en una onda portadora de radiofrecuencia con dos bandas laterales generadas por la información a transmitir. Carson advirtió que la información venía por "duplicado" en ambas bandas por lo que podría suprimir una de ellas, e incluso a la portadora, necesitando mucha menor potencia del transmisor para lograr el mismo alcance que una señal modulada en amplitud, Eso sí, el receptor habría de ser bastante más complejo.
La transmisión de información requiere, en varias de sus etapas, de una adecuada amplificación. Ello implica, entre otros aspectos, que el amplificador tenga una respuesta lineal, es decir, que la salida sea una réplica aumentada de la señal de entrada, sin ninguna distorsión. De lo contrario, implicará la aparición de frecuencias indeseables en el proceso de la amplificación. Para lograr una compensación automática de la alinealidad propia de las válvulas y, posteriormente de los transistores, Harold S. Black propone el amplificador con realimentación negativa.
Black recuerda el momento exacto en que la idea surge de su mente: el 2 de agosto de 1927, a las 8 y 15 horas, cuando se dirigía a su trabajo, los Laboratorios Bell. La realimentación consiste en reinyectar a la entrada del amplificador parte de la señal de salida (como cuando una víbora muerde su propia cola). La realimentación positiva (en fase coincidente) produce una oscilación, mientras que la realimentación negativa (en contrafase) implica una redución de la ganancia del amplificador, pero con la ventaja antes mencionada.
La realimentación negativa también estabiliza la ganancia de un amplificador. Quienes logran la teoría matemática correspondiente fueron Harry Nyquist, estableciendo un criterio para el estudio de la estabilidad, y Hendrik W. Bode, quien describe la relación entre fase y frecuencia, complementando el trabajo de Nyquist.
En 1924, Clinton J. Davisson y Lester Germer, estudiando el comportamiento de las válvulas termoiónicas, verifican experimentalmente (sin proponérselo) la hipótesis de Louis de Broglie acerca de las ondas asociadas a las partículas atómicas. De esa forma, la mecánica ondulatoria pasa a ser una ley básica del mundo atómico.
Karl G. Jansky, buscando la fuente de ruido detectado por su antena, descubre que tales señales provienen de nuestra galaxia. Sin proponérselo, da inicio a la radioastronomía, que complementa a la tradicional astronomía óptica.
En 1928, J. B. Johnson describe matemáticamente al ruido térmico asociado al movimiento de los electrones. Éstos, al moverse por efecto de la temperatura, y al poseer carga eléctrica, generan variaciones aleatorias de tensión eléctrica. El ruido de Johnson está asociado a la temperatura, mientras que las frecuencias asociadas a las tensiones de ruido admiten un gran ancho de banda. El ruido térmico impone limitaciones a las comunicaciones codificadas eléctricamente.
El 23 de diciembre de 1947 se realiza la primera prueba exitosa del transistor. Son sus inventores los físicos J. Bardeen, W. Brattain y W. Schockley. El primero y el tercero eran físicos teóricos, mientras que Brattain era un físico experimental. Se considera al transistor como "el mayor invento del siglo XX".
Claude Shannon establece la teoría de la información, que consiste esencialmente en cuantificar tanto la información como la capacidad que posee un canal de comunicaciones para transmitirla. La formulación de Shannon establece que dicha capacidad aumenta con el ancho de banda disponible, siendo proporcional, además, al logaritmo de (1 + S/N), siendo S la potencia de la señal y N la potencia asociada al ruido térmico.
Arno Penzias y Robert Wilson repiten la historia de Jansky, ya que, trabajando con antenas de microondas, detectan el ruido de fondo que proviene de todas partes, descubriendo (sin proponérselo) la "radiación cósmica de fondo" predicha por los teóricos del big-bang, confirmando la teoría asociada a la expansión del universo.
Varios son los investigadores de los Laboratorios Bell que reciben el Premio Nobel de Física, tales los casos de Davisson, Brattain, Bardeen (2 Nobel), Schockley, Penzias, Wilson, y del fisico P.Anderson.

10 Radar

Quienes investigaban el comportamiento de las ondas de radio, observaron que, en ciertas ocasiones, eran reflejadas por las capas ionizadas de la atmósfera. El físico inglés Edward Appleton realiza un estudio para determinar la altura de esas capas, recibiendo posteriormente el Premio Nobel de Física.
En otras ocasiones, a veces fortuitas, se observó que incluso un avión reflejaba las ondas de radio, por lo que aparece la posibilidad de la radiolocalización. La palabra "radar" (abreviatura de radio detection and ranging) implica una "detección y posicionado por radio".
Su desarrollo se asocia a Robert Watson Watt en épocas previas a la Segunda Guerra Mundial. Esencialmente consiste en generar pulsos muy breves y potentes, que se envían por medio de una antena direccional. La misma antena recibe el rebote del pulso desde el objeto a localizar. Un radioreceptor recibe los pulsos mientras que un dispositivo indicador permite conocer la distancia del objeto reflector.

11 Transistor

El transistor surge de la búsqueda de un conmutador de estado sólido para ser utilizado en telefonía y reemplazar a los relés y a los sistemas de barras. Luego se vislumbra la posibilidad de obtener un reemplazo de la válvula de vacío.
Quentin Kaiser escribió: "Si no hubiera sido por las microondas o el radar de UHF, probablemente nunca hubiéramos tenido la necesidad de detectores de cristal. Si no hubiéramos obtenido detectores de cristal, probablemente no habríamos tenido el transistor, salvo que hubiera sido desarrollado de algún modo completamente diferente" (Citado en "Revolución en miniatura" de S. Braun y S. Macdonald-Editorial Tecnos SA-Madrid 1984).
En 1874, el físico alemán Ferdinand Braun descubrió que el contacto entre un alambre metálico y el mineral galena (sulfuro de plomo) permitía el paso de la corriente en una sola dirección. Por utilizar el radar elevadas frecuencias, el detector utilizado debería tener una capacitancia eléctrica muy reducida, por lo que no podían utilizarse diodos de vacío. El rectificador de estado sólido era esencial. Además, al inicio de la Segunda Guerra Mundial estaba completo el estudio teórico de los contactos semiconductor-metal.
Walter Brattain escribió: "Ninguno de la profesión estaba seguro de la analogía entre un rectificador de óxido de cobre y un tubo diodo de vacío y muchos tenían la idea de cómo conseguir poner una rejilla, un tercer electrodo, para hacer un amplificador" (Citado en "Revolución en miniatura").
Los niveles cuantificados de energía en los átomos dan lugar a bandas de energía cuando existen átomos distribuidos regularmente. El estudio del movimiento de electrones en estas bandas permitió vislumbrar la posibilidad de cambiar la conductividad eléctrica de los semiconductores agregándoles impurezas adecuadamente. Surgen así los materiales tipo N y tipo P".
Un diodo se construía uniendo un material N con uno P, mientras que el transistor surgió de una estructura del tipo NPN, o bien PNP. El nombre "transistor" fue ideado por J. R. Pierce, quién expresó: "...y entonces, en aquella época, el transistor fue imaginado para ser el dual del tubo de vacío, así si un tubo de vacío tenía transconductancia, éste debe tener transresistencia, y así llegué a sugerir transistor".
Luego de efectuadas las primeras pruebas con el transistor, se mantuvo en secreto durante casi siete meses, hasta que se pudo detallar su funcionamiento adecuadamente para solicitar la patente de invención respectiva. Esta patente fue concedida a Bardeen y a Brattain por el transistor de punta de contacto, mientras que la patente den transistor de juntura, surgido en 1951, le fue concedida a Schockley. Al respecto, E. Braun y S. Macdonald escriben: "Es asombroso que Schockley hubiera formulado la teoría precisa del transistor de unión al menos dos años antes de que el dispositivo fuera producido".
Podemos tener una idea del comportamiento del transistor mediante un circuito que utiliza una fuente de tensión continua, un miliamperímetro y dos resistencias con sus respectivos interruptores. La fuente se conecta entre colector y emisor mientras que las resistencias se conectan entre colector y base.
Estando ambos interruptores abiertos, no habrá corriente por el trayecto fuente-miliamperímetro-colector-emisor. Si cerramos un interruptor, habrá corriente de base y también de colector (medidas juntas por el miliamperímetro). Si cerramos el otro interruptor, habrá más corriente. De ahí que pueda decirse que el transistor se comporta como un conductor cuya resistencia se controla mediante la corriente de base.

12 Televisión

La palabra televisión significa "visión a lo lejos" y ha sido uno de los importantes logros de la inventiva humana. Muchos son los inventores y científicos que hicieron aportes para su realización. En el siglo XIX se idea un sistema mecánico en el cual dos cilindros, uno el transmisor y el otro el receptor, giran a la misma velocidad. Una aguja tocaba una lámina metálica en el primer cilindro, donde se ubicaba la imagen a transmitir, enviando una señal eléctrica que actuaba químicamente sobre un papel ubicado en el segundo cilindro.
Posteriormente aparece el método fotoeléctrico, hasta que finalmente se establece una exploración, tanto en el transmisor como en el receptor, con un delgado haz de electrones. El tubo de rayos catódicos de Crooke fue perfeccionado por Ferdinand Braun. Los rayos catódicos son electrones que chocan contra una pantalla fluorescente que emite luz en el lugar del impacto. A partir de este dispositivo, el problema consistía en controlar, desde el transmisor, los desplazamientos del haz de electrones para reproducir la imagen original.
El explorador de imagen fue el iconoscopio de Wladimir Zworykin, mientras que los aportes de Philo Farnsworth permitieron establecer la televisión en blanco y negro. Posteriormente surge la televisíón en color, con bastantes dificultades técnicas por vencer.

13 Los teóricos

Los progresos de la electrónica, durante el siglo XIX, y comienzos del XX, fueron establecidos principalmente por experimentadores carentes de formación universitaria. Incluso se afirma que Edison no conocía la ley de Ohm, es decir, posiblemente nunca realizó algún cálculo con ella, aunque intuitivamente advertía lo que sucedía en cualquier circuito eléctrico. Posteriormente aparecen los aportes de inventores con formación universitaria, como Braun, de Forest, Marconi, etc.
La electrónica contó también con el aporte de físicos y matemáticos quienes, a veces sin saberlo, establecieron bases teóricas de gran generalidad. Así, George Boole, tratando de matematizar la lógica, da origen al "álgebra de Boole", cuyas leyes no sólo describen los razonamientos del tipo verdadero-falso, sino también el comportamiento de los circuitos eléctricos con interruptores conectados en serie y en paralelo.
La electrónica digital nace verdaderamente en 1935 cuando Claude Shannon publica un artículo en el que describe la dualidad entre la lógica simbólica y el álgebra de los interruptores eléctricos, algo que no fue previsto por Boole, De Morgan, Schroeder y otros matemáticos que desarrollaron el álgebra de Boole.
El matemático y físico Joseph L. Fourier, en un trabajo de investigación sobre la propagación del calor, establece el "análisis armónico". Utilizando las series de Fourier, puede considerarse que toda señal periódica es una suma de componentes senoidales de distinta amplitud y frecuencia. Incluso un pulso único también admite un espectro característico de componentes de frecuencia. Esto dio origen al estudio de los circuitos mediante la respuesta en frecuencia, ya que puede conocerse el comportamiento de un circuito a partir del conocimiento de la respuesta ante funciones senoidales. Fourier, en su época, seguramente ignoraba esta futura aplicación de su teoría matemática.
Oliver Heaviside establece el cálculo operacional. Asocia un operador D a la derivada matemática, mientras que a la integración le asocia el operador 1/D. De esa forma logra reducir una ecuación diferencial lineal a una ecuación algebraica, de fácil resolución. Con el tiempo se le da el fundamento matemático correspondiente. Heaviside trabaja hasta los 24 años para dedicarse por completo a la investigación.
En la búsqueda de una respuesta característica única, que sirviera para predecir el comportamiento de un circuito ante cualquier tipo de función excitadora, se estableció a la "función senoidal amortiguada exponencialmente" como la función que abarca a todas las posibles señales eléctricas. Tal función generaliza a la función constante, a la senoidal y a la exponencial. Ello conduce al concepto de frecuencia compleja y a la utilización de la "transformada de Laplace", descubierta por el físico, matemático y astrónomo nacido en el siglo XVIII. Al respecto, W. H. Hayt y J. E. Kemmerly escriben: "El análisis de circuitos resistivos, el análisis de régimen permanente sinusoidal, el análisis transitorio, la respuesta forzada, la respuesta compleja y el análisis de circuitos excitados por funciones excitatrices exponenciales, y sinusoidales amortiguadas exponencialmente, se convertirán todos en casos especiales de las técnicas generales asociadas con el concepto de frecuencia compleja" (De "Análisis de circuitos en ingeniería"-Editorial McGraw-Hill-México 1970)

14 Circuitos integrados

Un circuito integrado es un circuito en el que las funciones de varios componentes discretos (transistores, resistencias, diodos, etc.) son realizados en una pieza única de material semiconductor. Jack Kilby, de la Texas Instruments, había mostrado que en un mismo chips de semiconductor podían hacerse componentes separados, mientras que Robert Noyce, de la Fairchild, mostró unos meses más tarde el proceso por el cual estos componentes podían ser fácilmente conectados. Kilby recibe posteriormente el Premio Nobel de Física, época en que Noyce había ya fallecido, posiblemente por fumar excesivamente. Jack Kilby expresó: "A diferencia del invento del transistor, éste era un invento con relativamente pocas implicaciones científicas. Ciertamente, en aquellos años, ahora y siempre, podrías decir que contribuia muy poco al pensamiento científico" (Citado en "Revolución en miniatura").
Antes de la aparición de los circuitos integrados, existían aplicaciones definidas (radioreceptores, televisores, etc.) y la habilidad del diseñador radicaba en lograr el mejor circuito para una aplicación ya establecida. Cuando aparecen los circuitos integrados, la habilidad del diseñador radica en su capacidad para vislumbrar nuevas aplicaciones de los circuitos previamente fabricados.

15 Valle del silicio

El Silicon Valley es una zona cercana a San Francisco, EEUU. Allí se instalan varias fábricas de componentes electrónicos, bajo la influencia de la Universidad de Stanford, en donde se destaca la figura de Frederick Terman, quien fuera autor del conocido libro "Ingeniería de Radio" y considerado el "padre del Silicon Valley".
Dos de sus alumnos, David Packard y William Hewlett, fundan la empresa Hewlett-Packard (luego de arrojar una moneda al aire para determinar el orden de los apellidos). Hewlett expresó posteriormente: "Nuestra idea original era aceptar lo que viniera, en términos de órdenes de trabajo" (Citado en "Los silicon boys" de David A. Kaplan-Emecé Editores SA-Buenos Aires 1990).
Uno de los primeros trabajos de HP fue el oscilador de audio Modelo 200 A, cuyo nombre daba la idea de que ya habían realizado 199 diseños anteriores. El éxito de la empresa se debió, entre otros aspectos, a la complementación entre las aptitudes de uno y otro socio fundador. Hewlett dijo respecto de Packard: "Él era el emprendedor y yo el que trabajaba".
William Schockley, al dejar los Laboratorios Bell, intenta establecer una fábrica de transistores. Entre sus empleados figuran Robert Noyce y Gordon Moore. Debido a su trato poco amable y a su incapacidad empresarial, en el primer año no logran fabricar ni un solo transistor. Schockley tomaba exámenes psicológicos a sus empleados, publicaba lo que ganaba cada uno y hasta utilizó un detector de mentiras cuando investigaba el origen de cierto accidente que ocurrió en la empresa.
Un empresario que fabricaba piezas de aviación, Sherman Fairchild, crea una empresa que contrata a los ex-empleados de Schockley, quien los denomina desde entonces "los ocho traidores". Durante la década de los 60, varios se independizan, hasta que los dos últimos, Noyce y Moore, se retiran para fundar su propia empresa.
Esta vez no hubo tirada al aire de una moneda, porque podría haberse dado el orden "Moore-Noyce" que suena como "more noise" (más ruido), la peor denominación posible de una empresa de electrónica, por lo que optan por Intel (de Integrated Electronics). Comienzan fabricando memorias con semiconductores para su utilización en computadoras.

16 Microprocesador

Una de las posibilidades que presentan los circuitos integrados es la de construir un chip que permita incluir todas las funciones de una calculadora manual. En 1969, la empresa japonesa Busicom solicita a Intel la realización de un chip con esas características. Asignan el diseño a Marcian E. Hoff, quien introduce una innovación interesante.
En electrónica digital hay dos formas de resolver problemas: con un hardware (circuiterío) complejo y un software (programación) simple, o bien con un hardware simple y una software complejo. La innovación de Hoff consistió en tener en cuenta la segunda alternativa, haciendo un circuito secuencial programable, con funciones similares a las de las computadoras ya existentes. En realidad, la programación del microprocesador no resultó compleja, pero permitió realizar un circuito no muy complicado.
La empresa japonesa desiste de su pedido y los primeros microprocesadores son puestos a la venta a muy bajo precio para sacárselos de encima. Sin embargo, en manos de aficionados y profesionales de la electrónica, se advierten sus casi ilimitadas posibilidades de aplicación.
El 15 de noviembre de 1971 aparece el primer microprocesador comercial, el 4004 de Intel. En un comienzo se lo denominó "ordenador microprogramable en un chip". En 1972 comenzó a denominarse según la forma actual.
Entre los factores que favorecieron la aparición del microprocesador, se tienen (según E. Braun y S. Macdonald):
I) El éxito de la calculadora ya había llevado a la industria a tomar el camino de o digital.
II) La tecnología MOS (metal óxido semiconductor) había avanzado muchísimo, con densidades crecientes y bajo consumo de potencia. Este factor fue de importancia decisiva, pues sin la posibilidad de poder poner al menos 2.000 componentes en un chip, toda la idea de un microprocesador hubiera sido absurda.

17 Amplificador operacional

Así como el circuito integrado posibilitó el rápido desarrollo de la electrónica digital, también favoreció el desarrollo de la electrónica analógica. La primera procesa información codificada mediante dos estados eléctricos posibles, mientras que la segunda lo hace con variables eléctricas que pueden varias con continuidad.
El amplificador operacional, que ya se había realizado con válvulas de vacío, es un amplificador de elevada ganancia. Si se lo realimenta negativamente, se advierte que su ganancia depende enteramente del lazo de realimentación. Como este lazo se puede lograr con resistencias, se puede controlar la ganancia, muy estable por cierto, en una forma muy simple.
La denominación de "operacional" deriva de su utilización en computadoras analógicas, siendo en la actualidad la célula básica de los circuitos lineales. La computadora digital, por otra parte, mediante aproximaciones derivadas del cálculo numérico, permite realizar simulaciones de sistemas regidos por ecuaciones diferenciales lineales en forma más simple y eficaz que las computadoras analógicas, por lo que se ha restringido bastante su utilización. También aquí el software predominó sobre el hardware.

18 Laser

Los trabajos teóricos de Albert Einstein, complementados por los de Paul Dirac, previeron la existencia de una tercera forma en que un átomo puede emitir o absorber energía luminosa, según se detalla a continuación.
Un átomo, al recibir alguna forma de energía, permite que un electrón se ubique en una órbita superior. Al volver a su nivel original, emite un fotón (Emisión espontánea).
Un átomo puede recibir la energía de un fotón, por lo que éste desaparece (Absorción).
La tercera posibilidad implica que un fotón llega a un átomo previamente activado, induciéndolo a emitir un fotón, por lo que llega uno y salen dos de ellos (Emisión estimulada).
En la Enciclopedia Salvat de Ciencia y Técnica puede leerse: "La emisión estimulada se produce cuando un átomo, en un estado excitado, es bombardeado por fotones de frecuencia exactamente igual que la del fotón que emitiría el átomo si cayera desde el estado excitado a un nivel de energía más bajo".
"Cuando estos fotones alcanzan el átomo, éste emite su propio fotón que naturalmente es idéntico al que lo ha alcanzado, y se produce la emisión estimulada. Además, los dos fotones viajan en la misma dirección y están totalmente en fase".
"Cuando uno de estos dos fotones choca contra otro átomo excitado, se emite un tercer fotón. Esta reacción en cadena se producirá mientras haya átomos del tipo necesario en estado excitado, y emitirá mucha luz, toda de la misma frecuencia y fase".
La palabra "laser" proviene de "Light Amplification by Stimulated Emission of Radiation", es decir, "Amplificación de luz por emisión estimulada de radiación"

martes, 12 de febrero de 2019

El extraño mundo cuántico

Los seres humanos nos sentimos familiarizados con la realidad cotidiana por cuanto podemos formarnos imágenes mentales cercanas a los fenómenos naturales y sociales. De ahí que tiene plena validez la expresión de Baruch de Spinoza: "El orden y conexión de las ideas es el mismo orden y conexión de las cosas".

Algo completamente diferente ocurre cuando tratamos de imaginar los fenómenos naturales al nivel del átomo. En este caso no disponemos de imágenes directas de ese mundo tan pequeño, por lo cual tales procesos nos resultan extraños e ilógicos, por la sencilla razón de que nuestra mente funciona de acuerdo a las leyes naturales que rigen el mundo en la escala de observación humana.

De ahí que algunos científicos comenten que "nadie comprende la física cuántica", en el sentido de que no podemos establecer imágenes compatibles con esa realidad. Richard P. Feynman expresó: "Debido a que el comportamiento atómico es tan diferente de nuestra experiencia ordinaria, es muy difícil acostumbrarse a él, y se manifiesta extraño y misterioso a todos, ya se trate del novicio o del físico experimentado. Aun el experto no lo comprende en la forma que quisiera, y es perfectamente razonable que ocurra así, pues todo aquello de experiencia directa o intuición humanas es aplicable sólo a los objetos grandes. Sabemos cómo actuarán los objetos grandes pero los objetos de escala pequeña no actuarán igual" (De "Las lecciones de Física de Feynman"-Fondo Educativo Interamericano-Panamá 1971).

Albert Einstein afirmaba que los grandes acontecimientos de la física estaban señalados con la aparición de las teorías. Desde el punto de vista de la imagen que tenemos de la naturaleza, no sólo interesan las ecuaciones matemáticas esenciales de esas teorías, sino también los principios físicos que subyacen a los fenónemos descriptos por ellas. Así, cuando se conocen las leyes de reflexión y refracción de un rayo luminoso, Pierre de Fermat enuncia el "principio del tiempo mínimo", que es el empleado por un rayo luminoso para desplazarse de un punto a otro, en cualquier circunstancia. Si no se hubiesen encontrado las leyes de reflexión y refracción, se hubieran podido deducir a partir de tal principio. Desde el punto de vista puramente conceptual, el principio de Fermat nos da una idea del aparente "criterio" imperante en tales fenómenos de la óptica geométrica.

Cuando aparecen las leyes de Newton de la mecánica, algunos científicos se propusieron encontrar algún principio físico subyacente a las mismas. En forma similar al principio del tiempo mínimo, que determina la trayectoria que sigue un rayo luminoso en distintas circunstancias, el principio de mínima acción de Maupertuis es el que determina cuál de todas las posibles trayectorias sigue una partícula en movimiento (en el campo gravitacional terrestre, por ejemplo). A partir de este principio se pueden derivar luego las leyes de la mecánica, si bien históricamente aparecen primero las ecuaciones físicas y luego los principios naturales.

Posteriormenete surge el principio de acción estacionaria de William R. Hamilton, que resulta ser más general que el anterior. Louis de Broglie escribió: "Es posible deducir las ecuaciones de la dinámica del punto material de un campo de fuerza derivado de un potencial, de un principio que -bajo su forma general- lleva el nombre de principio de Hamilton o de acción estacionaria. Según este principio, la integral en el tiempo, tomada entre dos épocas t1 y t2, de la diferencia de la energía cinética del punto material y de su energía potencial, es menor (o mayor) para el movimiento real que para todo movimiento infinitamente diferente que lleve el punto material de la misma posición inicial a la misma posición final. Es fácil mostrar que aplicando este enunciado con ayuda de las reglas del cálculo de variaciones, se vuelven a encontrar las ecuaciones clásicas del movimiento".

"Este principio de acción estacionaria toma una forma particularmente sencilla en el caso importante de los campos permanentes. Se convierte entonces en el principio de la mínima acción de Maupertuis, según el cual la trayectoria realmente seguida por el punto material para ir de un punto A a un punto B en el campo permanente, es la curva que hace mínima la integral curvilínea circulación de la cantidad de movimiento respecto a toda otra curva infinitamente próxima que una los puntos A y B" (De "La física nueva y los cuantos"-Editorial Losada SA-Buenos Aires 1961).

De la misma forma en que se encontraron principios subyacentes a la mecánica clásica, fue posible encontrarlos en el caso de la mecánica cuántica, labor asociada a los trabajos de Richard P. Feynman. Tales principios aparecen como una especie de síntesis acerca de cómo funciona el mundo en la escala atómica y nuclear. Se los expondrá brevemente más adelante.

El conflicto entre nuestras imágenes mentales y el micromundo comienza con la descripción del efecto fotoeléctrico por parte de Albert Einstein. Desde hacía varios años, se conocía la luz como un fenómeno puramente ondulatorio, con el típico efecto de interferencia en el cual puede darse el caso de que: Luz + Luz = Oscuridad. Sin embargo, Einstein encuentra que la luz, a nivel atómico, actúa como una partícula (el fotón) con la típica presencia o ausencia de tales entes materiales.

La desorientación se intensifica cuando Louis de Broglie asocia ondas a las hasta entonces conocidas partículas materiales, como los electrones. Es decir, tanto la luz como la materia se comportan como ondas y como partículas. Podría uno arriesgarse a decir que fotones y electrones se mueven como ondas (expandiéndose por el espacio) pero interactúan como partículas (localizándose en un lugar). Louis de Broglie escribió: "Tenía yo veinte años cuando comencé a ocuparme de ellos (los cuantos) y hace por lo tanto un cuarto de siglo que medito sobre el tema. Pues bien, debo confesar humildemente que he llegado en mis meditaciones a comprender algo mejor algunos de sus aspectos, pero no sé todavía con exactitud lo que se oculta detrás de la máscara que cubre su faz".

La experiencia típica, para evidenciar el extraño comportamiento cuántico, es aquella en que una fuente emana partículas (fotones o electrones) enviándolos a través de una pantalla con dos rendijas, para llegar finalmente a una pantalla plana posterior con un detector que indica la llegada o la ausencia de la partícula. Como se trata de ondas, es de esperar la aparición de franjas de interferencia ya que las ondas, al propagarse por caminos diferentes, pueden interferir tanto en forma constructiva, intensificando su efecto, como en forma destructiva, anulándose entre ambas.

Los físicos suponían que, si se hacía pasar de a una partícula por vez, debería desaparecer la interferencia. Sin embargo, al mantenerse el mismo patrón, se llegó a la conclusión de que cada partícula interfiere consigo misma. Sólo si se procede a detectar una partícula luego de pasar por una de las rendijas, se anula la interferencia, es decir, cuando aparece su aspecto corpuscular, desaparece simultáneamente su aspecto ondulatorio.

La mecánica cuántica sólo puede calcular probabilidades, siendo imposible prever comportamientos determinados previamente. Por ejemplo, considérese el caso de una persona que observa, a través de un vidrio, el interior de una vivienda. Al reflejar dicho individuo la luz del sol, envía fotones hacia el interior de la vivienda por lo cual puede ser visto. Pero él también puede verse reflejado parcialmente en el vidrio. Ello implica que los fotones, de los cuales nadie ha sospechado que presenten diferencias entre ellos, tanto pueden reflejarse como transmitirse hacia el interior, siendo imposible predecir el comportaniento de uno solo de ellos, sino que solamente puede calcularse la probabilidad de reflejarse como de transmitirse.

Si cada partícula interfiere consigo misma, significa que de alguna manera "se entera" de la configuración de pantallas y rendijas que se le presentan en su posible recorrido. Luego, para averiguar la probabilidad de incidencia en cada lugar de la segunda pantalla, se deben evaluar todas las trayectorias posibles (por las dos rendijas) para saber si en determinado punto de la segunda pantalla existe una interferencia constructiva o destructiva.

Feynman se preguntaba si en lugar de dos rendijas, en la primera pantalla, se realizaban varias, y si en lugar de una pantalla se colocaban varias. De esa manera llega a la conclusión de que, para averiguar la probabilidad de que una partícula se mueva entre dos puntos A y B, es necesario evaluar todas las trayectorias posibles teniendo en cuenta las posibles interferencias entre las mismas. Stephen Hawking escribió: "En los años posteriores a la Segunda Guerra Mundial, Feynman halló una manera nueva y poderosa de pensar la mecánica cuántica, por la cual fue galardonado con el premio Nobel de Física de 1965. Desafió la hipótesis clásica de que cada partícula tiene una historia particular y sugirió, en cambio, que las partículas se desplazan de un sitio a otro a lo largo de cada trayectoria posible en el espacio-tiempo. A cada trayectoria, Feynman le asoció dos números, uno para el tamaño -la amplitud- de la onda y otro para su fase -si corresponde a una cresta o un valle. La probabilidad de que una partícula vaya de A a B se halla sumando las ondas asociadas con cada posible camino que pasa por A y B".

"Sin embargo, en el mundo cotidiano nos parece que los objetos siguen un solo camino entre su origen y su destino. Ello concuerda con la idea de Feynman de múltiples historias, porque para los objetos grandes su regla de asignación de números a las trayectorias asegura que todas menos una se cancelan al combinar sus contribuciones. En lo que respecta al movimiento de los objetos macroscópicos, sólo subsiste uno de los infinitos caminos posibles y éste es precisamente el que emerge de las leyes clásicas de Newton del movimiento" (De "El universo en una cáscara de nuez"-Crítica-Barcelona 2005).

Aún cuando la mecánica cuántica describa comportamientos tan extraños a nuestra lógica cotidiana, ha llegado a un nivel de precisión nunca igualado por otras teorías. Richard P. Feynman escribió: "La teoría de la electrodinámica cuántica lleva en vigor más de cincuenta años, y ha sido ensayada con precisión cada vez mayor en un rango cada vez más extenso de condiciones. En la actualidad puedo decir orgullosamente ¡que no existe diferencia apreciable entre teoría y experimento!".

"Para darles idea de cómo esta teoría ha sido puesta a prueba, les daré algunos números recientes: los experimentos habían dado para el número de Dirac un valor de 1,00115965221 (con una incertidumbre de 4 en el último dígito); la teoría lo coloca en 1,00115965246 (con una incertidumbre como mucho cinco veces superior). Para que capten la precisión de estos números les diré algo como que: si se midiese la distancia de Los Ángeles a Nueva York con semejante precisión, su valor diferiría del correcto en el espesor de un cabello humano" (De "Electrodinámica cuántica"-Alianza Editorial SA-Madrid 1992)

domingo, 30 de septiembre de 2018

Edison (CC) vs. Westinghouse (CA)

A finales del siglo XIX se inicia la etapa de una masiva aplicación de la energía eléctrica, tanto a nivel familiar como industrial. Esta forma de energía proviene del interior de la materia. En su estado normal, los conductores eléctricos muestran un equilibrio entre cargas eléctricas positivas y negativas. Si, mediante otra forma de energía (mecánica, principalmente) se establece un desequilibrio de cargas eléctricas en tal cuerpo neutro, es decir, cargas negativas en un extremo y positivas en el otro extremo, aparece una tensión eléctrica que tiende a restablecer la neutralidad antes existente. Si permitimos que el equilibrio de cargas se restablezca haciéndolas circular (corriente eléctrica) por donde nosotros queramos (lámpara, calefactor, etc.) habremos podido utilizar dicha energía.

Es la época en que surge la lámpara de filamento; invención asociada al nombre de Thomas A. Edison, que requiere, previamente a su utilización, la fabricación de generadores, conductores, aisladores, interruptores y toda una industria antes inexistente. Los generadores de Edison transforman la energía mecánica provista por máquinas térmicas, presentando en sus terminales una tensión continua, es decir, siempre un terminal es positivo y siempre el otro es negativo. Esta tensión continua, cuando se la utiliza para alimentar lámparas de filamento, impulsa una corriente continua, o directa, ya que las cargas eléctricas se mueven sólo en una dirección para restablecer el equilibrio eléctrico (que no se restablece mientras actúa el generador).

Al haberse ya inventado el motor eléctrico de corriente continua (CC), surge la utilización de la energía eléctrica en la industria y el transporte. Justamente, los tranvías eléctricos requieren de un motor que desarrolle su máxima potencia a una mínima velocidad; que es la exigencia del momento de arranque. Este requerimiento es facilitado con eficacia por el motor de corriente continua en serie (o aquel en que el bobinado del estator se conecta en serie con el bobinado del rotor).

Ante la perspectiva de Edison, no hay problemas serios a la vista. Sin embargo, al surgir el proyecto de construcción de la primera gran central hidroeléctrica, a realizarse en las cataratas del Niágara, aparecen varios problemas antes inexistentes. Por empezar, al estar la central alejada de los centros de consumo, se ha de requerir una línea de transmisión de varios kilómetros de longitud.

Como la potencia eléctrica depende tanto de la tensión como de la corriente eléctrica (Potencia = Tensión x Intensidad de corriente), si se la transmite en baja tensión, se requerirá que la corriente sea elevada, por lo que se necesitarán gruesos conductores y grandes torres para sostenerlos. Por el contrario, si se pudiesen generar tensiones altas, o elevar de alguna forma la tensión entregada por los generadores, se requerirán conductores pequeños, torres no muy grandes y aislantes considerables, lo que resulta menos costoso y más eficaz.

Para elevar la tensión de los generadores hacían falta transformadores, pero éstos sólo funcionan con corriente alterna. De ahí que se comenzó a pensar en utilizar en el Niágara generadores de tensión alterna, es decir, que cambian su polaridad periódicamente: + -, - +, +-, y así sucesivamente, siendo la tensión de los generadores rotativos de forma senoidal, o sinusoidal.

Edison se oponía a la idea de generalizar el uso de tensiones alternas, especialmente porque todavía no se disponía en el mercado de motores de corriente alterna, y también porque ya se había establecido una electrificación en base a la corriente continua. Entre tanto, Westinghouse la promovía, apoyado por uno de sus empleados, Nikola Tesla.

La idea del motor de inducción de corriente alterna provino de Galileo Ferraris, quien dispuso de dos bobinados en ángulo recto, en el estator o carcasa del motor, a los que se le aplican tensiones alternas desfasadas (o no coincidentes en el tiempo) de manera que produjeran un campo magnético resultante giratorio en el interior del motor. Este campo magnético giratorio habría de inducir una tensión eléctrica en un rotor aislado mecánica y eléctricamente respecto de los bobinados del estator, luego aparecería una corriente y un campo magnético inducido en el rotor, y éste sería arrastrado por el campo giratorio. De esa forma se obtenía un motor con la ventaja, sobre los motores de corriente continua (CC), de no requerir colector y escobillas, que requerían frecuente reparación y mantenimiento.

También se observó un inconveniente asociado a la transmisión de elevadas potencias eléctricas con un sistema monofásico de CA, o de una sola onda de tensión, ya que la potencia transmitida tendría variaciones periódicas en las cuales aparecían picos de potencia seguidos de instantes de transmisión casi nula, lo que indicaba que se estaba desaprovechando una gran parte de la capacidad de la línea de transmisión. De ahí que surgió la idea de transmitir potencia por medio de sistemas bifásicos, esto es, constituido por dos ondas de tensión separadas en el tiempo lográndose transmitir potencia con variaciones mucho menores que las del sistema monofásico. Posteriormente se generalizó el uso de sistemas trifásicos.

Nikola Tesla fabricó el primer motor trifásico, aunque requería ser alimentado con seis conductores. Estos motores, al recibir potencia eléctrica en forma casi permanente, resultaban más pequeños que los motores monofásicos para una misma potencia mecánica entregada.

El siguiente paso fue la realización de un motor trifásico de tres conductores. “Después de que el físico serbio-estadounidense Nikola Tesla hubiese descubierto en el año 1887 el motor de corriente trifásica, el joven ingeniero ruso, y más tarde ingeniero jefe de la AEG, Mijail Dolivo-Dobrovolsky construye el primer motor de corriente trifásica que puede emplearse para el accionamiento de máquinas motrices y capaz de desarrollar una potencia de hasta 0,1 CV”.

“Mientras que hasta ahora se hablaba de corriente alterna de tres fases, Dolivo-Dobrovolsky emplea específicamente el concepto de corriente trifásica. Tesla empleaba inicialmente para transmitir las tres fases un total de seis conductores. En el año 1888 demuestra que es suficiente emplear sólo 4 conductores pues une entre sí los 3 de retorno. Además, inventa la conexión estrella-estrella para un sistema en el que el generador y el motor están unidos entre sí sólo mediante tres conductores” (De la “Crónica de la Técnica”-Plaza & Janés Editores SA-Barcelona 1990).

Mientras tanto, Edison inicia una campaña de desprestigio contra la empresa rival, Westinghouse, promotora de las tensiones alternas. Incluso asocia los diversos accidentes eléctricos que ocurren en Nueva York, principalmente por la falta de medidas de seguridad, sino que considera a la propia corriente alterna como la causante de los accidentes. Llega así a colaborar en el diseño de las primeras sillas eléctricas para ser utilizadas con corriente alterna, utilizando el término “westinghousear” en lugar de “electrocutar”.

Finalmente se inaugura la central hidroeléctrica en 1896, utilizando sistemas de corriente alterna, no sin antes disponer de equipos conversores de CA en CC para poder alimentar las instalaciones y motores ya existentes que utilizaban corriente continua. Mark Essing escribió: “Aunque los escaparates mostraban el futuro eléctrico, la verdadera revolución de la feria estaba en el sistema que suministraba la energía. En 1893, el equipo eléctrico funcionaba según distintos tipos de corriente, siendo la división básica la existente entre las corrientes alterna y directa. Los generadores de corriente alterna producían corriente de distintos tipos –conocidos como monofásica, bifásica y trifásica- que no eran intercambiables”.

“Los arcos luminosos requerían voltajes elevados (entre 1.000 y 2.000 voltios) y las lámparas incandescentes, bajos (entre 50 y 100 voltios). Las necesidades de energía eran más variadas. Los nuevos motores de corriente alterna eran adecuados para aparatos que funcionaban a velocidad constante, tales como taladros de dentista y ventiladores, pero tranvías y ascensores –los dos principales usos de la electricidad en la década de 1890- requerían motores de corriente directa, mejor equipados para funcionar a velocidad variable con carga pesada”.

“Muchas personas, compañías y alcaldías habían invertido en diferentes clases de equipo eléctrico. El distrito de la calle Pearl de Nueva York no podía cambiar su sistema de iluminación de corriente directa y empezar de pronto con la alterna, como tampoco una naciente compañía Westinghouse dedicada en buena parte a la corriente alterna monofásica podía convertirla en bifásica o trifásica. Y cualquier ciudad con ferrocarril eléctrico necesitaba corriente directa para hacerlo trabajar. Era como tener doce vías, cada una con un diferente ancho. La corriente, solución adecuada al problema de la incompatibilidad, generaría para cada aplicación diferentes tipos de electricidad”.

“Asistido por Nikola Tesla, George Westinghouse desarrolló un sistema universal de suministro eléctrico. El centro de Sistema Multifase Tesla empleado en Chicago era un generador de corriente alterna bifásica (pronto la trifásica sería la norma industrial). La flexibilidad que poseía la proporcionaban dos nuevos accesorios acoplados: los convertidores de fase que cambiaban la corriente bifásica o trifásica en monofásica. Más importante aún era un accesorio llamado «convertidor giratorio» que podía convertir la corriente alterna en directa. El sistema universal podía proveer, desde un mismo generador, electricidad para cualquier tipo de necesidad: motores de corriente directa, motores de corriente alterna monofásicos o multifase, procesos electroquímicos que requerían corriente directa y lámparas incandescentes o arcos luminosos que necesitaban corriente directa o corriente alterna monofásica o multifásica”.

“La oferta de George Westinghouse para el contrato de la feria de Chicago era tan baja que perdió dinero, pero su verdadero propósito era apostarle al proyecto del Niágara. No era casualidad que el sistema universal de Westinghouse se adaptara a la perfección para cubrir las necesidades de la estación eléctrica del lugar. En el verano de 1893, no mucho después de la clausura de la feria, Westinghouse obtuvo el contrato del Niágara. En 1896, Buffalo recibió su primera remesa de energía eléctrica del Niágara” (De “Edison y la silla eléctrica”-Editorial Océano de México SA-México 2007).

Se cerraba de esa forma una etapa de rápidos progresos tecnológicos en la que empresarios e ingenieros, en competencia y en cooperación, logran resolver los sucesivos problemas que se presentan ante el surgimiento de la, entonces, nueva industria de la electricidad.

Enrico Fermi y la física nuclear

Uno de los físicos más completos, que dominaba su ciencia con amplitud, incluso haciendo aportes importantes tanto en el aspecto teórico como experimental, fue Enrico Fermi. Al respecto, George Gamow escribió: “A medida que se iba extendiendo el territorio de la física, tanto las técnicas experimentales como los métodos matemáticos se complicaban más y más, hasta el punto de que no había persona capaz de manejar a ambos con similar destreza. La profesión de físico se bifurcó: algunos eran «experimentales», otros «teóricos». El gran físico Albert Einstein jamás ejecutó una experiencia por sí mismo, (al menos que yo sepa). En tanto que el gran físico experimental Lord Rutherford era tan pobre en matemáticas que su famosa fórmula para calcular la dispersión de las partículas alfa fue derivada para él por el entonces joven matemático R. H. Fowler”.

“En nuestros días, es norma casi segura que un físico teórico no se anime siquiera a tocar el material instrumental por miedo a romperlo…en tanto que los físicos experimentales se sienten perdidos en el confuso torbellino de los cálculos matemáticos. Enrico Fermi, nacido en Roma en 1901, representó un ejemplo, muy raro de hallar, de teórico excelente al par de físico experimental de real capacidad” (De “Treinta años que conmovieron la física”-EUDEBA-Buenos Aires 1971).

Mientras que en el ámbito de la música distinguimos los cantantes y grupos que tienen éxito con una o dos canciones, de aquellos que superan las veinte o treinta, también hubieron científicos que asociaron su nombre a un solo fenómeno descrito mientras que otros brindaron una cantidad bastante mayor de aportes. Franco Selleri escribió: “Uno de los discípulos de Fermi, Bruno Pontecorvo, concluye la biografía de su maestro preguntándose cuántos premios Nobel de Física habría podido recibir si los estatutos no hubiesen prohibido la concesión de más de un premio a la misma persona. Y sin vacilar respondió: seis. A saber:

1- Por la estadística cuántica, llamada «de Fermi» [también de Fermi-Dirac], de las partículas de espín semi-entero.
2- Por la teoría de la desintegración beta, es decir de la desintegración espontánea de neutrón en protón, electrón y neutrino.
3- Por las investigaciones básicas sobre los neutrones y la producción, usando éstos como proyectiles, de más de sesenta isótopos radiactivos.
4- Por sus contribuciones a la teoría atómica y molecular.
5- Por la construcción de la primera máquina capaz de producir energía a partir del contenido energético de los núcleos.
6- Por los hallazgos en física de partículas subnucleares.

“Se trata de descubrimientos llevados a cabo en tres ámbitos distintos: física teórica (3), física experimental (2), física aplicada (1). Ningún físico de nuestro siglo ha sido capaz de igualar la versatilidad de Fermi” (De “Física sin dogma”-Alianza Editorial SA-Madrid 1994).

Lo irónico del caso es que no fue galardonado con el Nobel por alguno de estos aportes, sino por uno que, como se demostró posteriormente, fue mal interpretado. Selleri escribió al respecto: “Cuando Fermi y los suyos llegan a bombardear el núcleo estable más pesado existente (el del uranio) y observan la producción de radiactividad, no piensan en absoluto que el mecanismo haya cambiado y llegan a la conclusión de haber producido un nuevo elemento transuránico. Esto es, ellos creen que han llegado a fabricar un nuevo tipo de materia inexistente en la naturaleza. Es un hallazgo clamoroso, que enseguida se propaga por todo el mundo y que reporta a Fermi el premio Nobel. Lo irónico del caso es que se trataba de un error, y que lo que realmente se había hallado era la fisión del uranio, su fragmentación en núcleos más pequeños, debido a la colisión con un neutrón de muy baja energía. Así que el gran físico que hubiera merecido seis premios Nobel ¡llega a ganarlo por un error!”.

Fermi se destacó también por su capacidad para crear y dirigir un grupo de físicos, conocido como el Grupo de Roma. Para ello tuvo la suerte de encontrar en el físico y político Orso Mario Corbino el apoyo que necesitaba. Emilio Segrè escribió: “Corbino tenía un sueño: hacer que renaciera la física en Italia. La ciencia que tanto amaba había estado en total parálisis en Italia durante casi un siglo, desde la época de gran esplendor de Volta y Avogadro. Corbino, sagaz, de gran corazón y carente por completo de celos, vio inmediatamente en Fermi los medios para realizar su sueño. En consecuencia, lo estimuló, lo protegió y lo ayudó infatigablemente” (De “De los Rayos X a los quarks”-Folios Ediciones SA-México 1983).

En plena época fascista, no fue extraño que a alguien se le ocurriera bautizar algún nuevo elemento con alguna denominación partidaria. Segrè comenta: “Creo que hubo sugerencias, si es que no directas presiones, de añadir gloria al régimen fascista dándole a los nuevos elementos hipotéticos nombres caros a los fascistas, como por ejemplo «littorio». (Los lictores eran funcionarios romanos que utilizaban el «fascio» como insignia de su magistratura). Corbino, que era muy agudo y rápido, señaló que los nuevos elementos tenían vidas muy cortas, lo cual los hacía inapropiados para celebrar el fascismo”.

Entre los integrantes del Grupo de Roma pueden mencionarse los siguientes: E. Amaldi, F. Rasetti, E. Segrè, B. Pontecorvo, E. Majorana, M. Ageno, G. Bernardini, G. Cocconi, M. Conversi, G. Gentile, U. Fano, B. Ferretti, O. Piccioni, G. Racah, B. Rossi y G. C. Wick.

Un caso enigmático fue el de Ettore Majorana, quien desapareció en plena juventud, sin dejar rastro y sin que, hasta ahora, se sepa qué ocurrió con él. Incluso su madre le deja su parte correspondiente de la herencia suponiendo que en alguna parte estaría vivo. Por tener algunos problemas psicológicos, Fermi decía que carecía de “buon senzo” (sentido común). Selleri escribió: “Fermi suscitaba como teórico una gran admiración por parte de todos sus colaboradores. Se dice, no obstante, que Fermi se consideraba inferior a Majorana, el único que podía hablar con él de tú a tú. Pensaba que era el mayor teórico de su tiempo. Pontecorvo recuerda haber oído decir a Fermi: «Si el problema ya ha sido formulado nadie en el mundo lo puede resolver mejor que Majorana». Pero Majorana tenía un carácter muy complejo y, para disgusto de Fermi, casi nunca publicaba los resultados de sus investigaciones. Desde 1932, empezó a encontrarse cada vez con menor frecuencia con el grupo de Fermi, hasta desaparecer literalmente en 1938. Como se sabe, se ha escrito y fantaseado mucho sobre esa desaparición”.

En el inicio de los estudios de los núcleos pesados, se utilizaban partículas alfa, muy energéticas, siendo rechazadas por el núcleo debido a su carga eléctrica. De ahí la decisión de Fermi de probar con partículas neutras, como es el caso del recientemente descubierto neutrón (1932). Incluso la efectividad aumentaba cuando los neutrones eran lentos, ya que la escisión de los núcleos se estableció finalmente ante su inestabilidad al aceptar una nueva partícula. El experimento decisivo fue anunciado bajo la firma de todos los integrantes del grupo de físicos, siendo otra innovación de Fermi, ya que, hasta ese momento, sólo figuraba el nombre del director de un grupo de investigación. Segrè escribió al respecto: “En el otoño de 1934 nos encontramos con una sorpresa mayor. Descubrimos, por casualidad pero también gracias a correctas observaciones, que los neutrones filtrados a través de parafina producían reacciones nucleares con mayor efectividad que los que emergían directamente de una fuente de radón o berilio. Después que los hechos fueron confirmados Fermi postuló la inesperada explicación de que los neutrones eran desacelerados por la colisión elástica al pasar a través de la parafina, y que los neutrones lentos eran mucho más efectivos que los rápidos para producir ciertas reacciones nucleares”.

“Pocas horas después pudimos verificar esta hipótesis, y en la tarde del 22 de octubre de 1934, el mismo día en que había sido descubierto el efecto, escribimos una nota de una página firmada por Fermi, Amaldi, Pontecorvo, Rassetti y Segrè que establecía firmemente los hechos y su interpretación. Para todos los firmantes aquella fue una de las obras principales de su carrera. Las grandes posibilidades prácticas de los neutrones lentos no se le escaparon a Corbino, que insistió en que debía patentarlos a pesar de que en ese momento ninguno pudiera sospechar, como es obvio, que los neutrones lentos serían la clave de la energía nuclear”.

Una vez descubierta en Alemania la fisión nuclear, se abría la posibilidad tanto de su uso pacífico como de su uso bélico. Esto se debe a que, cuando se produce la fisión de un núcleo pesado, se libera energía y también neutrones adicionales, que pueden fisionar otros núcleos. Segrè agrega: “Si la reacción en cadena ocurre con gran rapidez y de manera incontrolada, se produce una violenta explosión y uno tiene una bomba atómica o, hablando estrictamente, una bomba nuclear. En cambio, si la reacción puede ser controlada, y llevada a una situación estacionaria, se tiene una fuente de energía. Los dos caminos están abiertos: a la bomba atómica y a la energía nuclear –una alternativa doble, como la cabeza de Janus- según suele ocurrir en las aplicaciones de la ciencia y la tecnología”,

Fermi fue el pionero en el uso pacífico de la fisión nuclear al construir el primer reactor o pila de fisión controlada, en EEUU. También participó del Proyecto Manhattan; organización encargada de la fabricación de la primera bomba de fisión nuclear. Franco Selleri escribió acerca de la labor, poco pacífica por cierto, posterior a la guerra: “Después de la guerra encontramos a Fermi defendiendo la continuación en Los Alamos de las investigaciones de tipo militar contra todos aquellos que habrían querido devolver aquel lugar «a los lobos del desierto». Más tarde se ocupa de la bomba de hidrógeno, declarándose contrario en un primer momento, pero pasando después a trabajar en el proyecto, incluso, parece ser, con entusiasmo”.

viernes, 28 de septiembre de 2018

Max Planck y los inicios de la mecánica cuántica

La física atómica y nuclear, cuyas leyes implican una prolongación parcial de las que rigen el mundo a escala humana, presenta una diferencia esencial respecto de la física macroscópica, que es la existencia de discontinuidad en los intercambios energéticos. Mientras que, tanto los fenómenos mecánicos como los electromagnéticos admiten, en principio, la intervención de intercambios energéticos de una pequeñez arbitraria, Max Planck encuentra una limitación a esa creencia, descubriendo también una limitación a la validez de las teorías vigentes en el macromundo. Mario Bunge escribió: “La era atómica comenzó, sin que nadie se diese cuenta, el 14 de diciembre de 1900. Ese día Max Planck comunicó su hipótesis de los quanta, o cuanta, que le permitió explicar la distribución de la energía de radiación atrapada en un recinto. Este fue el primer desafío a la física del continuo, que había reinado desde Aristóteles en todos los campos excepto en la química. Fue la primera confesión de que esa física no era del todo verdadera, por lo cual debía ser modificada”.

“Como toda idea radicalmente nueva, la hipótesis de Planck no fue bien recibida. El propio Planck sufrió largo tiempo escrúpulos de conciencia, e intentó reconciliar su teoría con la física clásica. Desde luego, no lo logró. La física cuántica se desenvolvió de manera rápida e irreversible…” (De “Max Planck. Autobiografía científica”-Ediciones Leviatán-Buenos Aires 1987).

Emilio Segré se refiere a Planck como un “revolucionario a pesar suyo”, siendo uno de sus atributos ser un especialista de la termodinámica, aunque dominaba la totalidad de la física de su tiempo. Introdujo su famosa “constante de Planck” (simbolizada como h), partiendo de planteos propios de su especialidad. Segré escribió: “La termodinámica tiene el mismo grado de certidumbre que sus postulados. Razonar en termodinámica es a menudo sutil, pero las conclusiones son absolutamente sólidas. Veremos de qué manera Planck y Einstein edificaron a partir de ella con absoluta certeza, y de qué modo consideraron que la termodinámica era el único cimiento totalmente firme sobre el cual podía construirse la teoría física. Cada vez que se enfrentaban con obstáculos formidables, regresaban a ella” (De “De los Rayos X a los quarks”-Folios Ediciones SA-México 1983).

Si bien Planck introduce su constante de acción (Acción = Energía x Tiempo) buscando compatibilizar su fórmula descriptiva con los datos experimentales existentes, estuvo siempre orientado por una postura definida, en conflicto con la de varios físicos de renombre. Al respecto escribió: “Numerosos físicos eminentes trabajaban en el problema de la distribución de la energía espectral, tanto desde el aspecto experimental como del teórico, dedicando todos sus esfuerzos sólo a demostrar la dependencia de la intensidad de la radiación con respecto a la temperatura. Por otra parte, yo sospeché que la relación fundamental radica en la dependencia de la entropía respecto de la energía”.

Planck advierte los efectos de la “inercia mental” en la ciencia, ya que aun bajo las evidencias de la experimentación, a muchos científicos les cuesta abandonar sus arraigados hábitos de pensamiento. “Una nueva verdad científica no se impone por el convencimiento de sus opositores, haciéndoles reconocer la realidad, sino más bien porque algún día los opositores desaparecen y surge una nueva generación que ya está familiarizada con ella”.

Si bien en su formación contó con la influencia de destacados científicos, Planck reconoce en ellos algunas deficiencias didácticas que limitaron dicha influencia. Al respecto escribió: “Fue en Berlín donde mi horizonte científico se amplió considerablemente bajo la orientación de Hermann von Helmholtz y Gustav Kirchhoff, cuyos alumnos tenían toda clase de oportunidades para proseguir sus actividades, conocidas en todo el mundo. Debo confesar que no saqué ningún beneficio perceptible de los cursos impartidos por ellos”.

“Era evidente que Helmholtz jamás preparaba sus clases debidamente. Hablaba titubeando e interrumpía su disertación para buscar los datos necesarios en su pequeña libreta; más aún, con frecuencia se equivocaba en los cálculos que hacía en el pizarrón y era obvio que la clase le aburría a él, casi tanto como a nosotros. Con el tiempo, sus clases fueron quedando cada vez más desiertas, hasta que por último sólo asistían a ellas tres estudiantes, entre ellos yo y mi amigo Rudolf Lehmann-Filhés, quien posteriormente se hizo astrónomo”.

“Kichhoff era el extremo opuesto. Sus clases eran cuidadosamente preparadas, cada frase estudiada y tenía una aplicación correcta. No faltaban ni sobraban las palabras; pero daban la impresión de un texto memorizado, carente de interés y monótono. Sentíamos admiración por él, pero no por lo que decía” (De “Max Planck. Autobiografía científica”). Cuando Planck presenta su tesis doctoral sobre termodinámica, en 1879, advierte la indiferencia de varias de las figuras importantes de la física alemana. “Mi tesis no tuvo eco alguno sobre los físicos de aquellos tiempos. Ninguno de mis profesores de la Universidad comprendió su contenido, como pude deducir de mis conversaciones con ellos. Es evidente que aprobaron mi tesis doctoral sólo porque conocían mis restantes actividades en el laboratorio físico y en el seminario de matemáticas. Pero no encontré ningún interés, y menos aprobación, entre los físicos que se ocupaban del problema”.

“Es probable que Helmholtz ni siquiera haya leído mi trabajo. Kirchhoff expresamente desaprobó su contenido observando que el concepto de entropía, cuya magnitud sólo podía ser medida mediante un proceso reversible, y que en consecuencia era definible, no debía ser aplicado a los procesos irreversibles”.

“Con Clausius no pude ponerme en contacto; no contestó a mis cartas y no lo encontré cuando traté de verlo personalmente en su casa de Bonn. Mantuve correspondencia con Carl Neumann, de Leipzig, pero sin resultados fructuosos”.

“Sin embargo, debido a la gran importancia que yo le atribuía a la tarea que me había impuesto a mí mismo, tales experiencias no podían desanimarme para continuar mis estudios sobre la entropía que para mí era, después de la energía, la propiedad más importante de los sistemas físicos. Puesto que su valor máximo indica un estado de equilibrio, todas las leyes del equilibrio físico y químico derivan del conocimiento de la entropía”.

“Todas mis investigaciones tuvieron resultados fructuosos. Pero, lamentablemente, como después lo supe, los mismos teoremas habían sido obtenidos antes, y en cierto modo en forma aun más universal, por el gran científico norteamericano Josiah Willar Gibbs, y así fue que en este campo no logré ningún mérito”.

Mientras que la termodinámica describe los fenómenos térmicos en base a magnitudes macroscópicas como presión, volumen y temperatura, la mecánica estadística describe los mismos fenómenos pero partiendo de una escala molecular en donde se supone que las moléculas se rigen por las leyes de la mecánica newtoniana. De ahí que uno de los fenómenos estudiados por la mecánica estadística haya sido el de la distribución de velocidades entre las partículas de cierto gas, encerrado en un recipiente, estando a una determinada temperatura. Se observó, en este caso, que la velocidad media de las partículas aumentaba cuando lo hacía la temperatura.

Este fenómeno hizo que los físicos, análogamente, intentaran describir la distribución de energía asociada a las diferentes frecuencias de la radiación electromagnética existente en una cavidad cerrada y a cierta temperatura. Se había observado, en estos casos, que la frecuencia predominante tiende a aumentar con la temperatura, como es el caso de los hornos que pasan del rojo a un color cercano al blanco.

Mientras que la cantidad de partículas de un gas constituía una cantidad determinada y finita, las ondas estacionarias de la radiación, que se acomodaban en un recinto cerrado, podían admitir frecuencias en una cantidad prácticamente infinita, de ahí que, de alguna manera, la fórmula que habría de describir la repartición de energía, debía limitar el contenido energético de las altas frecuencias.

Planck conocía los trabajos experimentales de Heinrich Hertz y supuso que en las paredes del recipiente existían osciladores que emitían y absorbían radiación pero no en forma continua, sino en “paquetes” o “quantos” regidos por la relación: Energía = Constante de Planck x Frecuencia. La cantidad de estos quantos se reducía a medida que eran más energéticos. Louis de Broglie escribió: “La radiación negra puede ser descompuesta, por un análisis del tipo de Fourier, en una superposición de radiaciones monocromáticas. Entonces se plantea el problema de saber cuál es la composición espectral de esta radiación”.

“Según las teorías clásicas, una carga eléctrica animada de un movimiento periódico de frecuencia puede emitir y absorber en forma continua radiaciones electromagnéticas de la misma frecuencia . Planck tuvo la admirable idea de que era preciso abandonar el punto de vista clásico y admitir que una carga eléctrica animada de un movimiento periódico de frecuencia sólo puede emitir o absorber la energía radiante en cantidades finitas de valor h , donde h es la nueva constante” (De “Sabios y descubrimientos”-Espasa-Calpe Argentina SA-Buenos Aires 1952).

miércoles, 5 de septiembre de 2018

Matemáticas y realidad

Mientras que en otras épocas se consideraba a las matemáticas aplicadas a la física como un lenguaje convencional, en la actualidad tienden a ser consideradas como las únicas propiedades objetivas de la materia. Una vez que se eligen las variables relevantes para una descripción, como ser masa, velocidad y aceleración, el vínculo matemático entre las mismas tiene un carácter único para cierto fenómeno descrito, ya que en esas relaciones matemáticas se encuentra toda la información requerida para una adecuada descripción.

Galileo Galilei fue el iniciador de la física experimental y también el primero en aplicar las matemáticas en la descripción del movimiento. Las verificaciones experimentales no sólo las establecía para verificar hipótesis de tipo cualitativo sino, esencialmente, cuantitativo. Al respecto escribió: “Vamos a instituir una ciencia nueva sobre un tema muy antiguo. Tal vez no haya, en la naturaleza, nada más antiguo que el movimiento; y acerca de él son numerosos y extensos los volúmenes escritos por los sabios. Sin embargo, entre sus propiedades, que son muchas y dignas de saberse, encuentro yo no pocas que todavía no han sido observadas ni demostradas hasta ahora”.

“Se ha fijado la atención en algunas que son de poca importancia, como por ejemplo, que el movimiento natural (libre) de los graves en descenso se acelera continuamente; sin embargo, no se ha hallado hasta ahora en qué proporción se lleva a cabo esta aceleración; pues nadie, que yo sepa, ha demostrado que los espacios, que un móvil en caída y a partir del reposo recorre en tiempos iguales tienen entre sí la misma razón que tiene la sucesión de los números impares a partir de la unidad”.

“Se ha observado que las armas arrojadizas o proyectiles describen una línea en cierto modo curva; sin embargo, nadie notó que esa curva era una parábola. Yo demostraré que esto es así, y también otras cosas muy dignas de saberse; y lo que es de mayor importancia, dejaré expeditos la puerta y el acceso hacia una vastísima y prestantísima ciencia, cuyos fundamentos serán estas mismas investigaciones, y en la cual, ingenios más agudos que el mío, podrán alcanzar mayores profundidades” (Citado en “Sigma. El mundo de las matemáticas” (Tomo 2) de James R. Newman-Ediciones Grijalbo SA-Barcelona 1976).

Puede decirse que distintos fenómenos físicos, regidos por leyes que tienen una misma forma matemática, tienen propiedades semejantes. Como ejemplo veremos una relación matemática que rige tanto el movimiento de una partícula como el comportamiento de bobinados y condensadores en circuitos eléctricos. En el primer caso, la relación matemática es la siguiente:

Fuerza = Masa x aceleración

F = M dv/dt

En donde la aceleración se ha expresado como el ritmo de cambio de la velocidad (v) respecto del tiempo (t), esto es, la derivada de la velocidad respecto del tiempo. En este caso, la masa inercial (M) es una medida de la inercia o tendencia del móvil a mantener la velocidad (v) constante cuando se le aplica una fuerza F que trata de moverlo.

Veamos ahora el caso de una bobina L recorrida por cierta corriente eléctrica (i) impulsada por una tensión eléctrica (E):

E = L di/dt

Como la forma matemática es similar a la anterior, podemos decir que la inductancia (L) es una medida de la inercia magnética o tendencia de la bobina a mantener la corriente (i) constante cuando se le aplica una tensión eléctrica E.

En el caso de un capacitor, o condensador eléctrico, aparece una ecuación similar:

i = C de/dt

En este caso decimos que la capacitancia (C) es una medida de la inercia eléctrica o tendencia del capacitor a mantener la tensión (e) constante cuando por él circula una corriente eléctrica (i).

Existen dos formas posibles de razonar sobre los fenómenos físicos:

a) El físico intuitivo razona en base a imágenes que forma en su mente y que reproducen cercanamente el fenómeno en cuestión.

b) El físico matemático razona en base a la ley matemática que rige el fenómeno en cuestión.

Especialmente en el caso de los fenómenos atómicos y nucleares, sobre los cuales no resulta sencillo formarse imágenes mentales concretas, predomina el razonamiento en base a ecuaciones matemáticas, no existiendo una división neta entre estas dos formas de acceder a los fenómenos físicos. David Bohm escribió al respecto: “La teoría cuántica, y en menor medida la de la relatividad, no fueron nunca bien entendidas en términos de conceptos físicos, y por ello la física fue poco a poco resbalando hacia la práctica de tratar los temas por medio de ecuaciones. Esto ocurrió, desde luego, porque las ecuaciones eran la única parte de la teoría que todo el mundo creía poder entender realmente”.

“Eso hizo que, de manera inevitable, se desarrollara la idea de que las ecuaciones son en sí mismas el contenido esencial de la física. De alguna manera eso comenzó ya en los años veinte, cuando el astrónomo sir James Jeans afirmó que Dios tenía que ser un matemático. Más tarde, Heisenberg le dio gran empuje con su idea de que la ciencia no podía ya visualizar la realidad atómica mediante conceptos físicos, y de que las matemáticas son la expresión básica de nuestro conocimiento de la realidad”.

“Junto a ello llegó un cambio radical en lo que se entendía por capacidad intuitiva o imaginativa. Anteriormente esto había sido identificado con la habilidad para visualizar ideas y conceptos, pero ahora Heisenberg pretendía que la intuición y la imaginación proporcionan no una imagen de la realidad, sino una representación mental del significado de las matemáticas”. “Yo no estoy de acuerdo con esta evolución. De hecho, creo que el actual énfasis por las matemáticas ha ido demasiado lejos” (De “Ciencia, orden y creatividad” de D. Bohm y F. D. Peat-Editorial Kairós-Barcelona 1998).

Si consideramos que una hipótesis científica tiene una formulación inicial y un desarrollo posterior, puede afirmarse que, en la mayoría de los casos, la formulación inicial emplea el razonamiento intuitivo tradicional mientras que el desarrollo posterior se vuelca hacia la utilización de las matemáticas. El citado autor agrega: “Es verdad que las matemáticas permiten hacer observaciones creativas, y que la búsqueda de belleza matemática puede ser una guía de gran ayuda. Los científicos que han trabajado de esta manera han conseguido a menudo derivar un conocimiento nuevo a través del énfasis por el formalismo matemático…..Pero las matemáticas nunca fueron el único criterio de sus descubrimientos. Además, eso no significa que todos piensen lo mismo a este respecto. De hecho, yo creo que los conceptos verbales, los aspectos pictóricos y el pensamiento filosófico pueden contribuir de manera significativa a las nuevas ideas”.

“Einstein apreciaba ciertamente la belleza matemática pero, en realidad, no empezaba por las matemáticas, sobre todo en su periodo más creativo. En lugar de eso, comenzaba con sentimientos difíciles de especificar y una sucesión de imágenes de las cuales surgían en algún momento conceptos más detallados”. “Parece arbitrario decir que las matemáticas deben jugar un papel único en la expresión de la realidad. Las matemáticas sólo son una función de la mente humana, y otras funciones pueden, con toda seguridad, ser igualmente importantes, incluso en física”.

Mientras que Isaac Newton utiliza la geometría para establecer los fundamentos de la mecánica, Joseph Louis Lagrange, en el siglo XVII, establece una descripción equivalente pero sin utilizar ninguna figura geométrica, siendo un temprano indicio de que puede prescindirse de imágenes para la descripción de los fenómenos físicos. E. T. Bell escribió: “Desde el principio Lagrange fue un analista, jamás un geómetra. En él vemos el primer ejemplo notable de esa especialización que viene a constituir una necesidad en la investigación de la matemática. Las preferencias analíticas de Lagrange se manifiestan notablemente en su obra maestra, la Mécanique analytique, que proyectó en Turín cuando tenía 19 años, pero que fue publicada en París en el año 1788, cuando Lagrange tenía 52. «En esta obra no se encontrará ninguna figura», dice en el prefacio. Pero con un semihumorístico sacrificio a los dioses de la Geometría hace notar que la ciencia de la mecánica puede ser considerada como la Geometría de un espacio de cuatro dimensiones; tres coordenadas cartesianas con una coordenada del tiempo son suficientes para localizar una partícula en movimiento en el espacio y en el tiempo, una forma de considerar la mecánica que se ha hecho popular desde 1915, cuando Einstein la explotó en su relatividad general” (De “Los Grandes Matemáticos”-Editorial Losada SA-Buenos Aires 1948).

Una posible dualidad entre corpúsculo y onda aparece, en la mecánica clásica, en el siglo XIX. Lo que en un momento sólo pareció ser una curiosidad matemática, le sirvió a Louis de Broglie para introducir un importante concepto en la mecánica cuántica. D. Bohm y F. D. Peat escriben al respecto: “La teoría de Hamilton-Jacobi, desarrollada a finales de 1860, presentaba una nueva manera de tratar el movimiento, basada en ondas más que en partículas. En lugar de considerar que el movimiento de una partícula sigue un camino dado sobre el que actúan fuerzas externas, la teoría de Hamilton-Jacobi se basa en la descripción de una onda en la cual todo movimiento es perpendicular a una onda frontal. Una imagen sencilla la proporciona el movimiento de un corcho o un trozo de madera desplazado por las ondas en un lago. De esta manera, el movimiento lo determinan las ondas como un todo, y no acciones locales de una fuerza en cada punto de la trayectoria de una partícula”.

Uno de los mayores atractivos de la física teórica se encuentra en el desarrollo puramente matemático que se efectúa a partir de una ecuación matemática compatible con la realidad. En tales desarrollos aparecen fenómenos nuevos, o no advertidos por su realizador. De ahí que Paul Dirac dijo, respecto de su ecuación cuántica-relativista, que “era más inteligente que su autor” por cuanto en ella aparecía la posibilidad de la existencia de la antimateria, algo no previsto en un principio por el propio Dirac.

La estructura del espacio y del tiempo

Tanto el espacio, como el tiempo y la materia, parecen ser conceptos primarios, irreductibles a otros más simples, de ahí la dificultad que presentan para describirlos más allá de atribuirles ciertas propiedades y de asociarles ciertas denominaciones. Los filósofos anteriores al surgimiento de la teoría de la relatividad podían prescindir un tanto de la ciencia experimental. Posteriormente, todo lo que se diga al respecto debe necesariamente tenerla en cuenta; de lo contrario carecería de fundamento.

La imagen intuitiva que tenemos del universo es la de un marco general, el espacio, en donde se encuentra distribuida la materia, y en donde se producen cambios que nos sugieren, además del ordenamiento espacial, uno temporal. La física anterior al siglo XX consideraba la existencia de un espacio y de un tiempo universales, o absolutos, cuyas existencias no dependían de la materia existente. Isaac Newton escribió al respecto: “Somos capaces de concebir claramente la extensión como algo que existe solo y sin fundamento alguno, al igual que imaginamos espacios situados más allá del mundo o espacios vacíos de cuerpos”.

“El espacio absoluto, por su naturaleza y sin relación con nada externo, permanece siempre semejante e inmóvil. El espacio relativo es alguna dimensión o medida de los espacios absolutos”.

“El tiempo absoluto, verdadero y matemático, en sí y por su naturaleza, fluye igualmente y sin relación con nada externo, y con otro nombre se dice duración; el relativo, aparente y vulgar es alguna medida sensible y externa de dicha duración mediante el movimiento” (De “Principios matemáticos de la Filosofía natural”-Ediciones Altaya SA-Barcelona 1997).

Galileo Galilei establece el “principio de relatividad” por el cual se postula la equivalencia entre el reposo y el movimiento rectilíneo uniforme. Al respecto escribió: “Encerráos en la cabina mayor bajo cubierta de un barco grande…. Tomad una vasija de buen tamaño llena de agua y con un pez dentro…Quieto el barco…el pez nada en todas direcciones, sin preferencia por ninguna. Una vez hayáis observado esto…cuidadosamente…haced que el barco avance a la velocidad que queráis, con tal de que el movimiento sea uniforme…No descubriréis el menor cambio … ni siquiera podríais decir… si el barco se mueve o sigue quieto” (Citado en “El legado de Einstein” de Julian Schwinger-Prensa Científica SA-Barcelona 1995).

El principio de relatividad es esencialmente el principio de inercia, ya que implica la igualdad antes mencionada. Newton define el principio de inercia de la siguiente manera: “Todos los cuerpos perseveran en su estado de reposo o de movimiento uniforme en línea recta, salvo que se vean forzados a cambiar ese estado por fuerzas impresas”.

La equivalencia entre el estado de reposo y el movimiento rectilíneo uniforme se constituyó en un principio básico que todo físico debí tener siempre presente. Incluso Einstein se preguntaba si dicho principio, aplicado a los fenómenos electromagnéticos, mantendría su validez. Su principal tarea fue entonces suponer la validez general del principio sacando luego las conclusiones que necesariamente habrían de surgir. Julian Schwinger escribió: “Y sin embargo, desconocida por todo el mundo, tal posibilidad de conflicto fue avizorada por la intuición de un estudiante de enseñanza media de dieciséis años, a quien habían dado de baja de su escuela y a quien sus mayores consideraban atrasado y díscolo”.

“Mas, para entonces, había tenido ya una profunda intuición. Era, en sus propias palabras «…una paradoja que había descubierto ya a la edad de dieciséis años. Si persigo un rayo de luz a velocidad c (la misma velocidad de la luz en el vacío), debería observar ese rayo de luz como un campo electromagnético en reposo con una distribución periódica en el espacio. No parece, sin embargo, que exista tal cosa, ni según la experiencia, ni según las ecuaciones de Maxwell»”.

Debe recordarse que James Clerk Maxwell, mediante sus ecuaciones del campo electromagnético, había propuesto la existencia de ondas electromagnéticas, cuya existencia fue verificada por Heinrich Hertz unos veinte años después. Así, todo campo magnético variable produce un campo eléctrico variable, por la ley de Faraday, mientras que todo campo eléctrico variable produce un campo magnético variable, por la ley de Ampere-Maxwell. Como consecuencia de ello, aparece una propagación de energía electromagnética autosostenida que se propaga por el espacio.

Maxwell calculó la velocidad a la que debería propagarse tal perturbación y encontró que era la misma que la de la luz, de donde pudo encontrar su esencia desconocida hasta ese momento. Gracias a este fenómeno, es posible la llegada a la Tierra de luz solar a través del vacío e incluso desde las estrellas lejanas.

En síntesis, si uno se mueve con la misma velocidad que un rayo de luz, en principio no habría variaciones de los campos de fuerza que lo componen, es decir, no habría ya luz. El mundo ya no podría ser observado de igual forma por el viajero imaginario que lo recorre con un movimiento rectilíneo uniforme y a esa velocidad. El principio de relatividad no tendría validez para los fenómenos electromagnéticos.

De ahí que, suponiendo su validez general, Einstein postula que la velocidad de la luz ha de ser la misma para cualquier observador, cualquiera sea su movimiento. Esto contradice la suma de velocidades que se observa en los fenómenos cotidianos. “En la mecánica newtoniana es posible el movimiento a cualquier velocidad. Cualquier objeto con movimiento uniforme puede ser alcanzado por otro objeto; si este último se mantiene luego a la misma velocidad que el primero, la velocidad relativa de ambos será cero. Es el caso del coche de la policía que se pone al lado del coche infractor en una autopista…”.

El hecho de que la velocidad de la luz siempre sea la misma para todos los observadores, resulta ser algo contra-intuitivo, que luego traerá otras consecuencias con ese carácter. Por lo general tendemos a pensar que la luz se mueve con su velocidad c (unos 300.000 km/seg) respecto del “espacio de fondo”. Luego, si uno se mueve a esa misma velocidad y en la misma dirección, respecto de ese espacio, la velocidad relativa habría de ser nula. De ahí que, para “salvar” el principio de relatividad, tiene que aceptarse la inexistencia de tal “espacio de fondo”, que es el espacio absoluto propuesto por Newton.

En lugar de considerar la existencia de un espacio y un tiempo universal, nos encontramos con una velocidad que tiene ese carácter. Como una velocidad implica una relación entre espacio y tiempo, nuestra referencia será entonces una velocidad. Luego, la descripción que tendrá lugar, por parte de observadores en movimiento mutuo rectilíneo y uniforme, considerará distintos ordenamientos espaciales y temporales para un mismo fenómeno, ya que tales ordenamientos deberán ser compatibles con la velocidad de la luz común a todos los observadores.

Como ejemplo podemos considerar un “reloj de luz” consistente en dos espejos paralelos, uno arriba y otro abajo, entre los cuales se mueve un rayo de luz. Para cubrir la trayectoria recta de ida y vuelta, la luz requiere de cierto tiempo. Ese será el periodo del reloj de luz.

Si el mismo observador advierte que un reloj idéntico se mueve a una gran velocidad, de derecha a izquierda, por ejemplo, advertirá que la trayectoria de tal rayo resulta mayor, por cuanto ambos espejos se están desplazando a medida que el rayo de luz se mueve. Como la trayectoria es mayor, el periodo del reloj en movimiento resulta también mayor, lo mismo que el espacio recorrido. Ambos, espacio y tiempo, cambian para que la velocidad de la luz se mantenga constante, como lo requiere el principio de relatividad.

Lo interesante de todo esto es que no se trata sólo de una cuestión de medir espacio y tiempo, sino que los fenómenos físicos se adaptan a este principio de la naturaleza. Así, el tiempo de desintegración de una partícula subatómica difiere según esté quieta o en movimiento, tal el caso del muón. “Los rayos cósmicos primarios crean muones en la atmósfera a una altitud de unos 15 km. Si éstos tuvieran un periodo de semi-desintegración de sólo 1,5 μs, aun viajando a una velocidad casi igual a la de la luz, la mitad desaparecería en 0,5 km, y sólo una cienmillonésima parte de ellos llegarían al suelo: una proporción muy exigua comparada con los que realmente llegan. Lo único que explica su presencia en grandes cantidades es que, para los muones rápidos, el tiempo pasa más despacio (se desintegran más tarde) que para los muones en reposo” (“El legado de Einstein”).

Si los fenómenos físicos son similares para distintos observadores con movimientos relativos uniformes, las leyes físicas que los describen deben tener una misma forma matemática. Para “corregir” las diferencias de espacio, en sistemas de coordenadas con movimiento uniforme, debía aplicarse la “transformación de coordenadas de Galileo” para que las leyes de la mecánica tuvieran la misma forma matemática en ambos sistemas. En el caso de las leyes del electromagnetismo, tal proceso se lograba con la “transformación de Lorentz”. De ahí que Einstein, convencido de que una de las dos transformaciones debía ser la general, observa dos soluciones posibles: cambiar las leyes de la mecánica para que fueran compatibles con la transformación de Lorentz, o bien cambiar las leyes del electromagnetismo para que lo fueran con la transformación de Galileo. Teniendo en cuenta la compatibilidad experimental, se decide por la primera alternativa, que consistía esencialmente en considerar a la masa, no como una constante, sino variable con la velocidad. Como “premio” a su labor, y luego de algunos cálculos, surge la famosa relación E = m c², que muestra la equivalencia entre masa y energía.

Posteriormente se encuentra que, para dos observadores en movimiento relativo uniforme, existe un intervalo espacio-temporal de cuatro dimensiones que resulta idéntico para ambos. El próximo paso que da Einstein implica considerar que tal intervalo espacio-temporal puede ser modificado por la presencia de campos gravitacionales, pudiendo entonces sintetizarse ambas visiones:

a- Para Newton, existe espacio y tiempo universales cuya existencia resulta independiente de la materia que en ellos existe.

b- Para Einstein, tanto el ordenamiento espacial como el temporal de los fenómenos físicos dependen de la materia y de sus cambios.

John Archibald Wheeler escribió al respecto: “La materia le dice al espacio-tiempo cómo ha de curvarse”. “El espacio-tiempo le dice a la materia cómo ha de moverse” (De “Un viaje por la gravedad y el espacio-tiempo”-Alianza Editorial SA-Madrid 1994).