miércoles, 29 de mayo de 2019

Breve historia de la electrónica

La electrónica es la rama de la tecnología que genera la transmisión, almacenamiento y procesamiento de información codificada eléctricamente. Así, el sonido, las imágenes, los símbolos alfanuméricos, etc., pueden ser afectados por tales procesos.

1 Telegrafía

En 1838, Samuel Morse patenta el primer telégrafo; palabra que significa “gráfico (o letra) a lo lejos”, ya que la interrupción intermitente de un circuito eléctrico permite transmitir puntos y rayas a distancia. Ello implica que, desde lejos, pude controlarse un electroimán asociado a una especie de lápiz, o marcador, que hace marcas (o bien perforaciones) sobre una cinta de papel que se mueve a velocidad constante.
Para superar los inconvenientes de este primitivo sistema, Morse utilizó sucesivos circuitos eléctricos, cada uno con su propia pila eléctrica y su propio electroimán (relevador o relé).
Morse se ganaba la vida pintando retratos en una época anterior a la de la aparición de la fotografía. También se atribuye esta invención a los ingleses Cooke y Wheatstone. Además, los alemanes Karl Gauss y W. E. Weber se comunicaban con un primitivo telégrafo.

2 Telefonía

Se atribuye a Alexander Graham Bell, nacido en Inglaterra, la invención del teléfono. La palabra “teléfono” significa “sonido a distancia”. Su inventor se desempeñaba como profesor de sordomudos tratando siempre de perfeccionar su trabajo docente. También se atribuye esta invención al italiano Meucci y a Elisha Gray.
El primer teléfono de Bell estaba constituido por dos imanes permanentes en forma de U, ubicados a cierta distancia, cada uno cumpliendo la función de núcleo de un bobinado. En ambos casos se incluía una membrana metálica sobre esas U.
Al hablar alguien cercano al primer imán, hacía oscilar la membrana metálica generando en el bobinado respectivo una débil tensión eléctrica (debido a la variación momentánea del campo magnético). Esa tensión se transmitía al segundo bobinado perturbando el campo magnético del segundo imán, y haciendo vibrar a la membrana respectiva al mismo ritmo que lo hacía la primera, reproduciendo de esa manera el sonido que inició la secuencia.

3 Electromagnetismo

La tecnología tiene como fundamento alguna rama de la ciencia experimental. Así, la transmisión de información mediante ondas de radio y televisión, tienen como fundamento al electromagnetismo de Maxwell.
El físico escocés James Clerk Maxwell amplía la ley de Ampere para establecer la ley de Ampere-Maxwell. Esta ampliación implica que, no sólo toda corriente eléctrica produce un campo magnético, sino que también puede ser producido por una variación de campo eléctrico no asociado a cargas eléctricas en movimiento. Previamente, en 1831, Michael Faraday había descubierto que un campo magnético variable produce también un campo eléctrico.
Estos campos de fuerzas, mutuamente sostenidos, se propagan aun por el espacio vacío. De ahí que nos llega la luz emitida por estrellas distantes, ya que la luz es también una perturbación electromagnética.
Luego de la etapa teórica, le siguió la experimental. Fue Heinrich Hertz quien verificó experimentalmente la existencia de tales ondas. Es de destacar el poco interés de Hertz por una posible aplicación práctica de las mismas. Incluso una vez expresó: “No sé para qué pueden servir estas onditas”. Su principal interés recaía en comprobar la veracidad de la teoría de Maxwell.
La etapa propiamente tecnológica está asociada a Guglielmo Marconi quien desarrolló un transmisor para establecer la “telegrafía sin hilos”. Marconi afirmó que el mejor premio que recibió fue una medalla recordatoria obsequiada por los 500 sobrevivientes del Titanic, que pudieron salvar sus vidas gracias a la telegrafía sin hijos, o radiotelegrafía.

4 Transmisor y receptor de Hertz

El transmisor de ondas electromagnéticas ideado por Hertz, estaba constituido por dos bobinados vinculados magnéticamente, que es esencialmente un transformador. Por el bobinado primario se aplicaba una tensión eléctrica mientras que al secundario le conectó una barra metálica (donde se conectaba el secundario) abierta en el centro. Cuando se cerraba el interruptor y circulaba corriente por el primario, saltaba una chispa entre las barras metálicas conectadas al secundario. Ello se debe a que puede considerarse al secundario y a las barras como un circuito LC (inductancia-capacidad eléctrica) con su propia frecuencia de resonancia. El cierre del interruptor, en el primario, implica un pulso de corriente que puede considerarse constituido por un amplio espectro de frecuencias que incluiría la de resonancia del secundario y la barra metálica. Al establecerse la resonancia, salta la chispa.
La perturbación electromagnética producida por la chispa, debería ser detectada por algún receptor, de manera de comprobar la existencia de tal perturbación. Tal receptor era un simple conductor en forma de C, donde la abertura de la C apuntaba hacia el transmisor. A este receptor se lo puede asociar a una bobina de una sola vuelta con un condensador en su extremo (las puntas de la C separadas por un aislante). Tal sistema LC debería tener una frecuencia de resonancia idéntica a la del transmisor. Por ello pudo Hertz observar una chispa en el receptor, producida por la recepción de una onda electromagnética.

5 Telegrafía sin hilos

Marconi modifica el chispero de Hertz conectando una antena al terminal superior del secundario del transmisor y estableciendo una conexión a tierra del terminal inferior. Además, coloca un bobinado para ser sintonizado, con su propia capacitancia distribuida, entre la antena y el terminal superior, permitiéndole seleccionar una determinada frecuencia de emisión, facilitando de esa forma la posibilidad de transmisiones simultáneas con otros equipos. Otra innovación consistió en girar 90 grados al transmisor, respecto del de Hertz, para que el campo eléctrico perpendicular al terreno fuera mucho menos absorbido, permitiéndole transmisiones de mayor alcance.
El receptor también podía sintonizarse, ya que estaba constituido por una bobina variable que resonaba con su propia capacitancia distribuida, conectada a la antena receptora. Con unos auriculares podían recibirse los puntos y rayas del código Morse, esta vez en forma de ondas electromagnéticas intermitentes, de distinta duración.
Si la señal recibida por el receptor se aplicara directamente a los auriculares, no se escucharía nada, por tratarse de frecuencias elevadas, Ello ocurre por la inercia mecánica de tal dispositivo, respondiendo al promedio de la corriente eléctrica que por él circula, siendo nulo el promedio de una corriente alterna.
Por ello Marconi utiliza un rectificador como detector para disponer de un promedio distinto de cero. Tal detector era una piedra galena (mineral de plomo y azufre) que permite que la corriente circule en un sentido, pero no en el otro. Para mejorar aún más la recepción coloca un capacitor (o condensador) que absorbe las variaciones de alta frecuencia permitiendo lograr una señal audible.

6 Válvulas termoiónicas

El inventor Thomas A. Edison realizó muy pocos descubrimientos científicos, siendo la emisión de electrones por parte de un filamento incandescente, su principal contribución en ese ámbito. Pero no le encuentra aplicación alguna. Experimentando con lámparas de filamento, observa que, cerca del terminal positivo de la tensión de alimentación, aparecen manchas en el vidrio que recubre al filamento.
John Ambrose Fleming, empleado de la Edison Light Company, de Londres, se entera del "efecto Edison" e introduce un conductor metálico dentro de una lámpara incandescente. Obtiene así el primer diodo (palabra que significa "dos terminales") y aparece en la naciente electrónica el término "valvula", ya que permite el paso de corriente eléctrica en un solo sentido (en forma similar al funcionamiento de la válvula de un neumático).
Lee de Forest, egresado de la Universidad de Yale, agrega una rejilla metálica entre el filamento (o cátodo) y la placa receptora (o ánodo). Obtiene así el audión, o triodo ("tres terminales"), en 1906. Este invento señala el inicio de la era de la electrónica.
Un dispositivo de tres terminales admite dos circuitos eléctricos: el de entrada (o control) y el de salida (o controlado). La amplificación de señales es la aplicación inmediata que se le puede dar a este dispositivo, ya que una pequeña variación de la tensión en el circuito de entrada se traduce en una variación de la corriente por el interior del triodo, que luego producirá una variación correspondiente de la tensión de salida (que puede ser bastante mayor a la variación de la tensión inicial de control).

7 Radiotelefonía

La meta siguiente, que se imponen los inventores de esa época, consistía en establecer una "telefonía sin hilos" o radiotelefonía. El chispero de Marconi sólo permitía emitir señales discontinuas, aptas para la telegrafía sin hilos. Para transmitir sonidos era necesario disponer de una oscilación eléctrica sostenida a la que se le pudiese agregar la información a propagar, es decir, modificando la amplitud de la señal básica para imprimirle el sonido a transmitir.
Ernst Alexanderson construyó un alternador giratorio logrando una frecuencia de 28.000 ciclos por segundo. La solución definitiva la logra Lee de Forest con su triodo, al realizar un circuito oscilador de alta frecuencia (esencialmente realimentando un amplificador). Una oscilación se produce acercando el micrófono conectado a un amplificador, ubicándolo cerca del parlante respectivo.
De Forest perfecciona el cine sonoro y patenta unos 300 inventos, pero no tuvo éxito como empresario por cuanto, más de una vez, es estafado por sus ocasionales socios.
Los receptores de radio primitivos, "a galena", comienzan a utilizar un amplificador con triodo, siendo una forma adicional de tratar la señal recibida, además de la detección y del filtrado capacitivo.
Al aparecer varias radioemisoras, que transmitían con distintas frecuencias, surgen inconvenientes para amplificarlas selectivamente en el receptor. Por ello fue necesario establecer una "mezcla de frecuencias" (entre la generada por un oscilador local, del propio receptor, y la recibida por la antena) de tal manera que su diferencia implicaba una frecuencia constante, mucho más fácil de amplificar, que se denominó "frecuencia intermedia". Este es el fundamento del receptor superheterodino, en donde la palabra "heterodyno" proviene del griego y significa "mezcla de fuerzas". Edwin W. Armstrong fue su inventor, inventando posteriormente la transmisión por frecuencia modulada. En un caso similar al de De Forest, al tener inconvenientes con empresarios, termina su vida suicidándose.

8 Heaviside y Pupin

Las líneas telefónicas admitían mucha capacidad eléctrica distribuida, por lo que las señales se debilitaban con las distancias. Había que agregarles inductancias (bobinas)de manera de lograr una especie de filtro pasabajos, es decir, que permite la fácil transmisión de bajas frecuencias, como las utilizadas en telefonía. Este proceso se conoce como "pupinizar" una línea telefónica.
La empresa ATT le encargó el trabajo a Campbell y a Pupin, siendo el primero un empleado de tal empresa. Ambos investigaron los trabajos previos realizados por Oliver Heaviside. De esos trabajos surge la teoría de los filtros eléctricos, realizada por Campbell y la obtención de una patente de invención a nombre de Pupin. La empresa ATT tuvo que pagar, en esa época, 500.000 dólares por hacer uso del invento patentado, que sólo era una mejora del trabajo de Heaviside.
Cuando le ofrecieron a Heaviside algo de dinero en retribución por sus trabajos, respondió que debía ser al "todo o nada", por lo que siguió en la pobreza extrema y en una soledad favorecida por su sordera.
El matemático Norbert Wiener alguna vez pensó en escribir una novela basada en este triste caso. Al respecto escribió: "Pupin había envuelto su alma dentro de un contrato comercial. Cuando un alma es comprada por alguien, el diablo es el consumidor último. Hasta la penitencia pública le fue denegada. Aunque era incapaz de reprimirse en silencio, las mentiras y las exageraciones a las que se vio forzado a recurrir deben de haber resonado sepulcralmente en el espacio vacío donde su alma se había alojado" (De "Inventar"-Tusquets Editores SA-Barcelona 1994).

9 Los Laboratorios Bell

Una de las empresas que realizó importantes aportes a la electrónica fue la ATT (American Telephone and Telegraph Company), sucesora de Bell Telephone Company. En la década de los 40 tenía 5.700 empleados, mientras que en los 60 tenía 17.500, que generaban unas 700 patentes de invención anuales.
Uno de sus empleados, el antes mencionado George A. Campbell, establece en 1915 la descripción matemática de los filtros de ondas. Un filtro de onda es un circuito que tiene una diferente respuesta para las distintas frecuencias que les son aplicadas. De ahí que transmitirá algunas y rechazará otras. La oposición al paso de las corrientes alternas, que presentan bobinas y condensadores, dependen de la frecuencia de aquellas, por lo que los filtros pasivos están constituidos principalmente por esos elementos circuitales. Posteriormente aparecen los filtros activos, que proveen una amplificación selectiva, según la frecuencia.
También en 1915, John R. Carson establece la transmisión por banda lateral única (BLU). Si se analiza el espectro de las frecuencias que componen una señal modulada en amplitud, se verá que consiste en una onda portadora de radiofrecuencia con dos bandas laterales generadas por la información a transmitir. Carson advirtió que la información venía por "duplicado" en ambas bandas por lo que podría suprimir una de ellas, e incluso a la portadora, necesitando mucha menor potencia del transmisor para lograr el mismo alcance que una señal modulada en amplitud, Eso sí, el receptor habría de ser bastante más complejo.
La transmisión de información requiere, en varias de sus etapas, de una adecuada amplificación. Ello implica, entre otros aspectos, que el amplificador tenga una respuesta lineal, es decir, que la salida sea una réplica aumentada de la señal de entrada, sin ninguna distorsión. De lo contrario, implicará la aparición de frecuencias indeseables en el proceso de la amplificación. Para lograr una compensación automática de la alinealidad propia de las válvulas y, posteriormente de los transistores, Harold S. Black propone el amplificador con realimentación negativa.
Black recuerda el momento exacto en que la idea surge de su mente: el 2 de agosto de 1927, a las 8 y 15 horas, cuando se dirigía a su trabajo, los Laboratorios Bell. La realimentación consiste en reinyectar a la entrada del amplificador parte de la señal de salida (como cuando una víbora muerde su propia cola). La realimentación positiva (en fase coincidente) produce una oscilación, mientras que la realimentación negativa (en contrafase) implica una redución de la ganancia del amplificador, pero con la ventaja antes mencionada.
La realimentación negativa también estabiliza la ganancia de un amplificador. Quienes logran la teoría matemática correspondiente fueron Harry Nyquist, estableciendo un criterio para el estudio de la estabilidad, y Hendrik W. Bode, quien describe la relación entre fase y frecuencia, complementando el trabajo de Nyquist.
En 1924, Clinton J. Davisson y Lester Germer, estudiando el comportamiento de las válvulas termoiónicas, verifican experimentalmente (sin proponérselo) la hipótesis de Louis de Broglie acerca de las ondas asociadas a las partículas atómicas. De esa forma, la mecánica ondulatoria pasa a ser una ley básica del mundo atómico.
Karl G. Jansky, buscando la fuente de ruido detectado por su antena, descubre que tales señales provienen de nuestra galaxia. Sin proponérselo, da inicio a la radioastronomía, que complementa a la tradicional astronomía óptica.
En 1928, J. B. Johnson describe matemáticamente al ruido térmico asociado al movimiento de los electrones. Éstos, al moverse por efecto de la temperatura, y al poseer carga eléctrica, generan variaciones aleatorias de tensión eléctrica. El ruido de Johnson está asociado a la temperatura, mientras que las frecuencias asociadas a las tensiones de ruido admiten un gran ancho de banda. El ruido térmico impone limitaciones a las comunicaciones codificadas eléctricamente.
El 23 de diciembre de 1947 se realiza la primera prueba exitosa del transistor. Son sus inventores los físicos J. Bardeen, W. Brattain y W. Schockley. El primero y el tercero eran físicos teóricos, mientras que Brattain era un físico experimental. Se considera al transistor como "el mayor invento del siglo XX".
Claude Shannon establece la teoría de la información, que consiste esencialmente en cuantificar tanto la información como la capacidad que posee un canal de comunicaciones para transmitirla. La formulación de Shannon establece que dicha capacidad aumenta con el ancho de banda disponible, siendo proporcional, además, al logaritmo de (1 + S/N), siendo S la potencia de la señal y N la potencia asociada al ruido térmico.
Arno Penzias y Robert Wilson repiten la historia de Jansky, ya que, trabajando con antenas de microondas, detectan el ruido de fondo que proviene de todas partes, descubriendo (sin proponérselo) la "radiación cósmica de fondo" predicha por los teóricos del big-bang, confirmando la teoría asociada a la expansión del universo.
Varios son los investigadores de los Laboratorios Bell que reciben el Premio Nobel de Física, tales los casos de Davisson, Brattain, Bardeen (2 Nobel), Schockley, Penzias, Wilson, y del fisico P.Anderson.

10 Radar

Quienes investigaban el comportamiento de las ondas de radio, observaron que, en ciertas ocasiones, eran reflejadas por las capas ionizadas de la atmósfera. El físico inglés Edward Appleton realiza un estudio para determinar la altura de esas capas, recibiendo posteriormente el Premio Nobel de Física.
En otras ocasiones, a veces fortuitas, se observó que incluso un avión reflejaba las ondas de radio, por lo que aparece la posibilidad de la radiolocalización. La palabra "radar" (abreviatura de radio detection and ranging) implica una "detección y posicionado por radio".
Su desarrollo se asocia a Robert Watson Watt en épocas previas a la Segunda Guerra Mundial. Esencialmente consiste en generar pulsos muy breves y potentes, que se envían por medio de una antena direccional. La misma antena recibe el rebote del pulso desde el objeto a localizar. Un radioreceptor recibe los pulsos mientras que un dispositivo indicador permite conocer la distancia del objeto reflector.

11 Transistor

El transistor surge de la búsqueda de un conmutador de estado sólido para ser utilizado en telefonía y reemplazar a los relés y a los sistemas de barras. Luego se vislumbra la posibilidad de obtener un reemplazo de la válvula de vacío.
Quentin Kaiser escribió: "Si no hubiera sido por las microondas o el radar de UHF, probablemente nunca hubiéramos tenido la necesidad de detectores de cristal. Si no hubiéramos obtenido detectores de cristal, probablemente no habríamos tenido el transistor, salvo que hubiera sido desarrollado de algún modo completamente diferente" (Citado en "Revolución en miniatura" de S. Braun y S. Macdonald-Editorial Tecnos SA-Madrid 1984).
En 1874, el físico alemán Ferdinand Braun descubrió que el contacto entre un alambre metálico y el mineral galena (sulfuro de plomo) permitía el paso de la corriente en una sola dirección. Por utilizar el radar elevadas frecuencias, el detector utilizado debería tener una capacitancia eléctrica muy reducida, por lo que no podían utilizarse diodos de vacío. El rectificador de estado sólido era esencial. Además, al inicio de la Segunda Guerra Mundial estaba completo el estudio teórico de los contactos semiconductor-metal.
Walter Brattain escribió: "Ninguno de la profesión estaba seguro de la analogía entre un rectificador de óxido de cobre y un tubo diodo de vacío y muchos tenían la idea de cómo conseguir poner una rejilla, un tercer electrodo, para hacer un amplificador" (Citado en "Revolución en miniatura").
Los niveles cuantificados de energía en los átomos dan lugar a bandas de energía cuando existen átomos distribuidos regularmente. El estudio del movimiento de electrones en estas bandas permitió vislumbrar la posibilidad de cambiar la conductividad eléctrica de los semiconductores agregándoles impurezas adecuadamente. Surgen así los materiales tipo N y tipo P".
Un diodo se construía uniendo un material N con uno P, mientras que el transistor surgió de una estructura del tipo NPN, o bien PNP. El nombre "transistor" fue ideado por J. R. Pierce, quién expresó: "...y entonces, en aquella época, el transistor fue imaginado para ser el dual del tubo de vacío, así si un tubo de vacío tenía transconductancia, éste debe tener transresistencia, y así llegué a sugerir transistor".
Luego de efectuadas las primeras pruebas con el transistor, se mantuvo en secreto durante casi siete meses, hasta que se pudo detallar su funcionamiento adecuadamente para solicitar la patente de invención respectiva. Esta patente fue concedida a Bardeen y a Brattain por el transistor de punta de contacto, mientras que la patente den transistor de juntura, surgido en 1951, le fue concedida a Schockley. Al respecto, E. Braun y S. Macdonald escriben: "Es asombroso que Schockley hubiera formulado la teoría precisa del transistor de unión al menos dos años antes de que el dispositivo fuera producido".
Podemos tener una idea del comportamiento del transistor mediante un circuito que utiliza una fuente de tensión continua, un miliamperímetro y dos resistencias con sus respectivos interruptores. La fuente se conecta entre colector y emisor mientras que las resistencias se conectan entre colector y base.
Estando ambos interruptores abiertos, no habrá corriente por el trayecto fuente-miliamperímetro-colector-emisor. Si cerramos un interruptor, habrá corriente de base y también de colector (medidas juntas por el miliamperímetro). Si cerramos el otro interruptor, habrá más corriente. De ahí que pueda decirse que el transistor se comporta como un conductor cuya resistencia se controla mediante la corriente de base.

12 Televisión

La palabra televisión significa "visión a lo lejos" y ha sido uno de los importantes logros de la inventiva humana. Muchos son los inventores y científicos que hicieron aportes para su realización. En el siglo XIX se idea un sistema mecánico en el cual dos cilindros, uno el transmisor y el otro el receptor, giran a la misma velocidad. Una aguja tocaba una lámina metálica en el primer cilindro, donde se ubicaba la imagen a transmitir, enviando una señal eléctrica que actuaba químicamente sobre un papel ubicado en el segundo cilindro.
Posteriormente aparece el método fotoeléctrico, hasta que finalmente se establece una exploración, tanto en el transmisor como en el receptor, con un delgado haz de electrones. El tubo de rayos catódicos de Crooke fue perfeccionado por Ferdinand Braun. Los rayos catódicos son electrones que chocan contra una pantalla fluorescente que emite luz en el lugar del impacto. A partir de este dispositivo, el problema consistía en controlar, desde el transmisor, los desplazamientos del haz de electrones para reproducir la imagen original.
El explorador de imagen fue el iconoscopio de Wladimir Zworykin, mientras que los aportes de Philo Farnsworth permitieron establecer la televisión en blanco y negro. Posteriormente surge la televisíón en color, con bastantes dificultades técnicas por vencer.

13 Los teóricos

Los progresos de la electrónica, durante el siglo XIX, y comienzos del XX, fueron establecidos principalmente por experimentadores carentes de formación universitaria. Incluso se afirma que Edison no conocía la ley de Ohm, es decir, posiblemente nunca realizó algún cálculo con ella, aunque intuitivamente advertía lo que sucedía en cualquier circuito eléctrico. Posteriormente aparecen los aportes de inventores con formación universitaria, como Braun, de Forest, Marconi, etc.
La electrónica contó también con el aporte de físicos y matemáticos quienes, a veces sin saberlo, establecieron bases teóricas de gran generalidad. Así, George Boole, tratando de matematizar la lógica, da origen al "álgebra de Boole", cuyas leyes no sólo describen los razonamientos del tipo verdadero-falso, sino también el comportamiento de los circuitos eléctricos con interruptores conectados en serie y en paralelo.
La electrónica digital nace verdaderamente en 1935 cuando Claude Shannon publica un artículo en el que describe la dualidad entre la lógica simbólica y el álgebra de los interruptores eléctricos, algo que no fue previsto por Boole, De Morgan, Schroeder y otros matemáticos que desarrollaron el álgebra de Boole.
El matemático y físico Joseph L. Fourier, en un trabajo de investigación sobre la propagación del calor, establece el "análisis armónico". Utilizando las series de Fourier, puede considerarse que toda señal periódica es una suma de componentes senoidales de distinta amplitud y frecuencia. Incluso un pulso único también admite un espectro característico de componentes de frecuencia. Esto dio origen al estudio de los circuitos mediante la respuesta en frecuencia, ya que puede conocerse el comportamiento de un circuito a partir del conocimiento de la respuesta ante funciones senoidales. Fourier, en su época, seguramente ignoraba esta futura aplicación de su teoría matemática.
Oliver Heaviside establece el cálculo operacional. Asocia un operador D a la derivada matemática, mientras que a la integración le asocia el operador 1/D. De esa forma logra reducir una ecuación diferencial lineal a una ecuación algebraica, de fácil resolución. Con el tiempo se le da el fundamento matemático correspondiente. Heaviside trabaja hasta los 24 años para dedicarse por completo a la investigación.
En la búsqueda de una respuesta característica única, que sirviera para predecir el comportamiento de un circuito ante cualquier tipo de función excitadora, se estableció a la "función senoidal amortiguada exponencialmente" como la función que abarca a todas las posibles señales eléctricas. Tal función generaliza a la función constante, a la senoidal y a la exponencial. Ello conduce al concepto de frecuencia compleja y a la utilización de la "transformada de Laplace", descubierta por el físico, matemático y astrónomo nacido en el siglo XVIII. Al respecto, W. H. Hayt y J. E. Kemmerly escriben: "El análisis de circuitos resistivos, el análisis de régimen permanente sinusoidal, el análisis transitorio, la respuesta forzada, la respuesta compleja y el análisis de circuitos excitados por funciones excitatrices exponenciales, y sinusoidales amortiguadas exponencialmente, se convertirán todos en casos especiales de las técnicas generales asociadas con el concepto de frecuencia compleja" (De "Análisis de circuitos en ingeniería"-Editorial McGraw-Hill-México 1970)

14 Circuitos integrados

Un circuito integrado es un circuito en el que las funciones de varios componentes discretos (transistores, resistencias, diodos, etc.) son realizados en una pieza única de material semiconductor. Jack Kilby, de la Texas Instruments, había mostrado que en un mismo chips de semiconductor podían hacerse componentes separados, mientras que Robert Noyce, de la Fairchild, mostró unos meses más tarde el proceso por el cual estos componentes podían ser fácilmente conectados. Kilby recibe posteriormente el Premio Nobel de Física, época en que Noyce había ya fallecido, posiblemente por fumar excesivamente. Jack Kilby expresó: "A diferencia del invento del transistor, éste era un invento con relativamente pocas implicaciones científicas. Ciertamente, en aquellos años, ahora y siempre, podrías decir que contribuia muy poco al pensamiento científico" (Citado en "Revolución en miniatura").
Antes de la aparición de los circuitos integrados, existían aplicaciones definidas (radioreceptores, televisores, etc.) y la habilidad del diseñador radicaba en lograr el mejor circuito para una aplicación ya establecida. Cuando aparecen los circuitos integrados, la habilidad del diseñador radica en su capacidad para vislumbrar nuevas aplicaciones de los circuitos previamente fabricados.

15 Valle del silicio

El Silicon Valley es una zona cercana a San Francisco, EEUU. Allí se instalan varias fábricas de componentes electrónicos, bajo la influencia de la Universidad de Stanford, en donde se destaca la figura de Frederick Terman, quien fuera autor del conocido libro "Ingeniería de Radio" y considerado el "padre del Silicon Valley".
Dos de sus alumnos, David Packard y William Hewlett, fundan la empresa Hewlett-Packard (luego de arrojar una moneda al aire para determinar el orden de los apellidos). Hewlett expresó posteriormente: "Nuestra idea original era aceptar lo que viniera, en términos de órdenes de trabajo" (Citado en "Los silicon boys" de David A. Kaplan-Emecé Editores SA-Buenos Aires 1990).
Uno de los primeros trabajos de HP fue el oscilador de audio Modelo 200 A, cuyo nombre daba la idea de que ya habían realizado 199 diseños anteriores. El éxito de la empresa se debió, entre otros aspectos, a la complementación entre las aptitudes de uno y otro socio fundador. Hewlett dijo respecto de Packard: "Él era el emprendedor y yo el que trabajaba".
William Schockley, al dejar los Laboratorios Bell, intenta establecer una fábrica de transistores. Entre sus empleados figuran Robert Noyce y Gordon Moore. Debido a su trato poco amable y a su incapacidad empresarial, en el primer año no logran fabricar ni un solo transistor. Schockley tomaba exámenes psicológicos a sus empleados, publicaba lo que ganaba cada uno y hasta utilizó un detector de mentiras cuando investigaba el origen de cierto accidente que ocurrió en la empresa.
Un empresario que fabricaba piezas de aviación, Sherman Fairchild, crea una empresa que contrata a los ex-empleados de Schockley, quien los denomina desde entonces "los ocho traidores". Durante la década de los 60, varios se independizan, hasta que los dos últimos, Noyce y Moore, se retiran para fundar su propia empresa.
Esta vez no hubo tirada al aire de una moneda, porque podría haberse dado el orden "Moore-Noyce" que suena como "more noise" (más ruido), la peor denominación posible de una empresa de electrónica, por lo que optan por Intel (de Integrated Electronics). Comienzan fabricando memorias con semiconductores para su utilización en computadoras.

16 Microprocesador

Una de las posibilidades que presentan los circuitos integrados es la de construir un chip que permita incluir todas las funciones de una calculadora manual. En 1969, la empresa japonesa Busicom solicita a Intel la realización de un chip con esas características. Asignan el diseño a Marcian E. Hoff, quien introduce una innovación interesante.
En electrónica digital hay dos formas de resolver problemas: con un hardware (circuiterío) complejo y un software (programación) simple, o bien con un hardware simple y una software complejo. La innovación de Hoff consistió en tener en cuenta la segunda alternativa, haciendo un circuito secuencial programable, con funciones similares a las de las computadoras ya existentes. En realidad, la programación del microprocesador no resultó compleja, pero permitió realizar un circuito no muy complicado.
La empresa japonesa desiste de su pedido y los primeros microprocesadores son puestos a la venta a muy bajo precio para sacárselos de encima. Sin embargo, en manos de aficionados y profesionales de la electrónica, se advierten sus casi ilimitadas posibilidades de aplicación.
El 15 de noviembre de 1971 aparece el primer microprocesador comercial, el 4004 de Intel. En un comienzo se lo denominó "ordenador microprogramable en un chip". En 1972 comenzó a denominarse según la forma actual.
Entre los factores que favorecieron la aparición del microprocesador, se tienen (según E. Braun y S. Macdonald):
I) El éxito de la calculadora ya había llevado a la industria a tomar el camino de o digital.
II) La tecnología MOS (metal óxido semiconductor) había avanzado muchísimo, con densidades crecientes y bajo consumo de potencia. Este factor fue de importancia decisiva, pues sin la posibilidad de poder poner al menos 2.000 componentes en un chip, toda la idea de un microprocesador hubiera sido absurda.

17 Amplificador operacional

Así como el circuito integrado posibilitó el rápido desarrollo de la electrónica digital, también favoreció el desarrollo de la electrónica analógica. La primera procesa información codificada mediante dos estados eléctricos posibles, mientras que la segunda lo hace con variables eléctricas que pueden varias con continuidad.
El amplificador operacional, que ya se había realizado con válvulas de vacío, es un amplificador de elevada ganancia. Si se lo realimenta negativamente, se advierte que su ganancia depende enteramente del lazo de realimentación. Como este lazo se puede lograr con resistencias, se puede controlar la ganancia, muy estable por cierto, en una forma muy simple.
La denominación de "operacional" deriva de su utilización en computadoras analógicas, siendo en la actualidad la célula básica de los circuitos lineales. La computadora digital, por otra parte, mediante aproximaciones derivadas del cálculo numérico, permite realizar simulaciones de sistemas regidos por ecuaciones diferenciales lineales en forma más simple y eficaz que las computadoras analógicas, por lo que se ha restringido bastante su utilización. También aquí el software predominó sobre el hardware.

18 Laser

Los trabajos teóricos de Albert Einstein, complementados por los de Paul Dirac, previeron la existencia de una tercera forma en que un átomo puede emitir o absorber energía luminosa, según se detalla a continuación.
Un átomo, al recibir alguna forma de energía, permite que un electrón se ubique en una órbita superior. Al volver a su nivel original, emite un fotón (Emisión espontánea).
Un átomo puede recibir la energía de un fotón, por lo que éste desaparece (Absorción).
La tercera posibilidad implica que un fotón llega a un átomo previamente activado, induciéndolo a emitir un fotón, por lo que llega uno y salen dos de ellos (Emisión estimulada).
En la Enciclopedia Salvat de Ciencia y Técnica puede leerse: "La emisión estimulada se produce cuando un átomo, en un estado excitado, es bombardeado por fotones de frecuencia exactamente igual que la del fotón que emitiría el átomo si cayera desde el estado excitado a un nivel de energía más bajo".
"Cuando estos fotones alcanzan el átomo, éste emite su propio fotón que naturalmente es idéntico al que lo ha alcanzado, y se produce la emisión estimulada. Además, los dos fotones viajan en la misma dirección y están totalmente en fase".
"Cuando uno de estos dos fotones choca contra otro átomo excitado, se emite un tercer fotón. Esta reacción en cadena se producirá mientras haya átomos del tipo necesario en estado excitado, y emitirá mucha luz, toda de la misma frecuencia y fase".
La palabra "laser" proviene de "Light Amplification by Stimulated Emission of Radiation", es decir, "Amplificación de luz por emisión estimulada de radiación"

martes, 12 de febrero de 2019

El extraño mundo cuántico

Los seres humanos nos sentimos familiarizados con la realidad cotidiana por cuanto podemos formarnos imágenes mentales cercanas a los fenómenos naturales y sociales. De ahí que tiene plena validez la expresión de Baruch de Spinoza: "El orden y conexión de las ideas es el mismo orden y conexión de las cosas".

Algo completamente diferente ocurre cuando tratamos de imaginar los fenómenos naturales al nivel del átomo. En este caso no disponemos de imágenes directas de ese mundo tan pequeño, por lo cual tales procesos nos resultan extraños e ilógicos, por la sencilla razón de que nuestra mente funciona de acuerdo a las leyes naturales que rigen el mundo en la escala de observación humana.

De ahí que algunos científicos comenten que "nadie comprende la física cuántica", en el sentido de que no podemos establecer imágenes compatibles con esa realidad. Richard P. Feynman expresó: "Debido a que el comportamiento atómico es tan diferente de nuestra experiencia ordinaria, es muy difícil acostumbrarse a él, y se manifiesta extraño y misterioso a todos, ya se trate del novicio o del físico experimentado. Aun el experto no lo comprende en la forma que quisiera, y es perfectamente razonable que ocurra así, pues todo aquello de experiencia directa o intuición humanas es aplicable sólo a los objetos grandes. Sabemos cómo actuarán los objetos grandes pero los objetos de escala pequeña no actuarán igual" (De "Las lecciones de Física de Feynman"-Fondo Educativo Interamericano-Panamá 1971).

Albert Einstein afirmaba que los grandes acontecimientos de la física estaban señalados con la aparición de las teorías. Desde el punto de vista de la imagen que tenemos de la naturaleza, no sólo interesan las ecuaciones matemáticas esenciales de esas teorías, sino también los principios físicos que subyacen a los fenónemos descriptos por ellas. Así, cuando se conocen las leyes de reflexión y refracción de un rayo luminoso, Pierre de Fermat enuncia el "principio del tiempo mínimo", que es el empleado por un rayo luminoso para desplazarse de un punto a otro, en cualquier circunstancia. Si no se hubiesen encontrado las leyes de reflexión y refracción, se hubieran podido deducir a partir de tal principio. Desde el punto de vista puramente conceptual, el principio de Fermat nos da una idea del aparente "criterio" imperante en tales fenómenos de la óptica geométrica.

Cuando aparecen las leyes de Newton de la mecánica, algunos científicos se propusieron encontrar algún principio físico subyacente a las mismas. En forma similar al principio del tiempo mínimo, que determina la trayectoria que sigue un rayo luminoso en distintas circunstancias, el principio de mínima acción de Maupertuis es el que determina cuál de todas las posibles trayectorias sigue una partícula en movimiento (en el campo gravitacional terrestre, por ejemplo). A partir de este principio se pueden derivar luego las leyes de la mecánica, si bien históricamente aparecen primero las ecuaciones físicas y luego los principios naturales.

Posteriormenete surge el principio de acción estacionaria de William R. Hamilton, que resulta ser más general que el anterior. Louis de Broglie escribió: "Es posible deducir las ecuaciones de la dinámica del punto material de un campo de fuerza derivado de un potencial, de un principio que -bajo su forma general- lleva el nombre de principio de Hamilton o de acción estacionaria. Según este principio, la integral en el tiempo, tomada entre dos épocas t1 y t2, de la diferencia de la energía cinética del punto material y de su energía potencial, es menor (o mayor) para el movimiento real que para todo movimiento infinitamente diferente que lleve el punto material de la misma posición inicial a la misma posición final. Es fácil mostrar que aplicando este enunciado con ayuda de las reglas del cálculo de variaciones, se vuelven a encontrar las ecuaciones clásicas del movimiento".

"Este principio de acción estacionaria toma una forma particularmente sencilla en el caso importante de los campos permanentes. Se convierte entonces en el principio de la mínima acción de Maupertuis, según el cual la trayectoria realmente seguida por el punto material para ir de un punto A a un punto B en el campo permanente, es la curva que hace mínima la integral curvilínea circulación de la cantidad de movimiento respecto a toda otra curva infinitamente próxima que una los puntos A y B" (De "La física nueva y los cuantos"-Editorial Losada SA-Buenos Aires 1961).

De la misma forma en que se encontraron principios subyacentes a la mecánica clásica, fue posible encontrarlos en el caso de la mecánica cuántica, labor asociada a los trabajos de Richard P. Feynman. Tales principios aparecen como una especie de síntesis acerca de cómo funciona el mundo en la escala atómica y nuclear. Se los expondrá brevemente más adelante.

El conflicto entre nuestras imágenes mentales y el micromundo comienza con la descripción del efecto fotoeléctrico por parte de Albert Einstein. Desde hacía varios años, se conocía la luz como un fenómeno puramente ondulatorio, con el típico efecto de interferencia en el cual puede darse el caso de que: Luz + Luz = Oscuridad. Sin embargo, Einstein encuentra que la luz, a nivel atómico, actúa como una partícula (el fotón) con la típica presencia o ausencia de tales entes materiales.

La desorientación se intensifica cuando Louis de Broglie asocia ondas a las hasta entonces conocidas partículas materiales, como los electrones. Es decir, tanto la luz como la materia se comportan como ondas y como partículas. Podría uno arriesgarse a decir que fotones y electrones se mueven como ondas (expandiéndose por el espacio) pero interactúan como partículas (localizándose en un lugar). Louis de Broglie escribió: "Tenía yo veinte años cuando comencé a ocuparme de ellos (los cuantos) y hace por lo tanto un cuarto de siglo que medito sobre el tema. Pues bien, debo confesar humildemente que he llegado en mis meditaciones a comprender algo mejor algunos de sus aspectos, pero no sé todavía con exactitud lo que se oculta detrás de la máscara que cubre su faz".

La experiencia típica, para evidenciar el extraño comportamiento cuántico, es aquella en que una fuente emana partículas (fotones o electrones) enviándolos a través de una pantalla con dos rendijas, para llegar finalmente a una pantalla plana posterior con un detector que indica la llegada o la ausencia de la partícula. Como se trata de ondas, es de esperar la aparición de franjas de interferencia ya que las ondas, al propagarse por caminos diferentes, pueden interferir tanto en forma constructiva, intensificando su efecto, como en forma destructiva, anulándose entre ambas.

Los físicos suponían que, si se hacía pasar de a una partícula por vez, debería desaparecer la interferencia. Sin embargo, al mantenerse el mismo patrón, se llegó a la conclusión de que cada partícula interfiere consigo misma. Sólo si se procede a detectar una partícula luego de pasar por una de las rendijas, se anula la interferencia, es decir, cuando aparece su aspecto corpuscular, desaparece simultáneamente su aspecto ondulatorio.

La mecánica cuántica sólo puede calcular probabilidades, siendo imposible prever comportamientos determinados previamente. Por ejemplo, considérese el caso de una persona que observa, a través de un vidrio, el interior de una vivienda. Al reflejar dicho individuo la luz del sol, envía fotones hacia el interior de la vivienda por lo cual puede ser visto. Pero él también puede verse reflejado parcialmente en el vidrio. Ello implica que los fotones, de los cuales nadie ha sospechado que presenten diferencias entre ellos, tanto pueden reflejarse como transmitirse hacia el interior, siendo imposible predecir el comportaniento de uno solo de ellos, sino que solamente puede calcularse la probabilidad de reflejarse como de transmitirse.

Si cada partícula interfiere consigo misma, significa que de alguna manera "se entera" de la configuración de pantallas y rendijas que se le presentan en su posible recorrido. Luego, para averiguar la probabilidad de incidencia en cada lugar de la segunda pantalla, se deben evaluar todas las trayectorias posibles (por las dos rendijas) para saber si en determinado punto de la segunda pantalla existe una interferencia constructiva o destructiva.

Feynman se preguntaba si en lugar de dos rendijas, en la primera pantalla, se realizaban varias, y si en lugar de una pantalla se colocaban varias. De esa manera llega a la conclusión de que, para averiguar la probabilidad de que una partícula se mueva entre dos puntos A y B, es necesario evaluar todas las trayectorias posibles teniendo en cuenta las posibles interferencias entre las mismas. Stephen Hawking escribió: "En los años posteriores a la Segunda Guerra Mundial, Feynman halló una manera nueva y poderosa de pensar la mecánica cuántica, por la cual fue galardonado con el premio Nobel de Física de 1965. Desafió la hipótesis clásica de que cada partícula tiene una historia particular y sugirió, en cambio, que las partículas se desplazan de un sitio a otro a lo largo de cada trayectoria posible en el espacio-tiempo. A cada trayectoria, Feynman le asoció dos números, uno para el tamaño -la amplitud- de la onda y otro para su fase -si corresponde a una cresta o un valle. La probabilidad de que una partícula vaya de A a B se halla sumando las ondas asociadas con cada posible camino que pasa por A y B".

"Sin embargo, en el mundo cotidiano nos parece que los objetos siguen un solo camino entre su origen y su destino. Ello concuerda con la idea de Feynman de múltiples historias, porque para los objetos grandes su regla de asignación de números a las trayectorias asegura que todas menos una se cancelan al combinar sus contribuciones. En lo que respecta al movimiento de los objetos macroscópicos, sólo subsiste uno de los infinitos caminos posibles y éste es precisamente el que emerge de las leyes clásicas de Newton del movimiento" (De "El universo en una cáscara de nuez"-Crítica-Barcelona 2005).

Aún cuando la mecánica cuántica describa comportamientos tan extraños a nuestra lógica cotidiana, ha llegado a un nivel de precisión nunca igualado por otras teorías. Richard P. Feynman escribió: "La teoría de la electrodinámica cuántica lleva en vigor más de cincuenta años, y ha sido ensayada con precisión cada vez mayor en un rango cada vez más extenso de condiciones. En la actualidad puedo decir orgullosamente ¡que no existe diferencia apreciable entre teoría y experimento!".

"Para darles idea de cómo esta teoría ha sido puesta a prueba, les daré algunos números recientes: los experimentos habían dado para el número de Dirac un valor de 1,00115965221 (con una incertidumbre de 4 en el último dígito); la teoría lo coloca en 1,00115965246 (con una incertidumbre como mucho cinco veces superior). Para que capten la precisión de estos números les diré algo como que: si se midiese la distancia de Los Ángeles a Nueva York con semejante precisión, su valor diferiría del correcto en el espesor de un cabello humano" (De "Electrodinámica cuántica"-Alianza Editorial SA-Madrid 1992)