LA ERA ATÓMICA Y EL DESARROLLO DE LA FÍSICA EN EL SIGLO XX

Rolando Delgado Castillo y Francisco Arturo Ruiz Martínez.

Universidad de Cienfuegos.

 

   

Contexto mundial y algunos hitos en el ámbito de las Matemáticas

 

   

El desarrollo de la Mecánica Cuántica

 

   

Las ideas sobre la variabilidad del espacio y el tiempo

 

   

La desintegración radiactiva y la teoría del átomo nuclear.

 

   

El empleo de la energía nuclear y la posición de la comunidad científica

 

   

Algunas tecnologías derivadas de las teorías físicas y su aplicación.

 

   

Los avances en los programas de exploración del Cosmos.

 

   

El nacimiento de la Electrónica y de la Informatización.

 

   

Bibliografía

 


 

 

Contexto mundial y algunos hitos en el ámbito de las Matemáticas

 

El siglo XX  traería al escenario mundial dos grandes guerras que paradójicamente darían un impulso al desarrollo del conocimiento científico en aquellas áreas en que se advertían necesidades internas y principalmente con fines relacionados con la tecnología militar. Este desarrollo dio lugar, incluso, al holocausto nuclear de la década de los años cuarenta.

 

El progreso de las ciencias debió navegar en medio de tales circunstancias históricas. Desde inicios de la centuria comenzó a manifestarse la principal característica de su desarrollo consistente en la transformación, de producto social, elemento de la superestructura de la sociedad humana, en una fuerza productiva con rasgos muy especiales. Esta característica estuvo precedida por una explosión en el ritmo de la producción de los conocimientos científicos que alcanzó un crecimiento exponencial. Las relaciones Ciencia – Sociedad se hicieron más complicadas.

 

Un proceso de fortalecimiento de los nexos en la comunidad científica, que se habían iniciado con las Sociedades  fundadas en el siglo XVIII, se advierte desde los comienzos del siglo, sufriendo en los períodos de duración de ambas guerras un inevitable debilitamiento. En este contexto se destacan los Congresos realizados en Bruselas, con el apoyo financiero del químico industrial belga Ernest Solvay (1838-1922), que congregaron a los más brillantes físicos de la época.

 

El Congreso  Solvay de 1911 inaugura el reconocimiento de la comunidad científica a las ideas de la Teoría Cuántica, verdadera revolución en el campo de las Ciencias Físicas. En el transcurso del evento se arribó a un consenso de que la Física de Newton y Maxwell si bien explicaba satisfactoriamente los fenómenos macroscópicos era incapaz de interpretar los fenómenos de la interacción de la radiación con la sustancia, o las consecuencias de los movimientos microscópicos de los átomos en las propiedades macroscópicas. Para cumplir este último propósito era necesario recurrir a las ideas de la cuantificación. Ello demostraba la comprensión de la vanguardia de las Ciencias sobre el carácter temporal, histórico en la construcción del conocimiento científico.

 


Imagen:

omega.ilce.edu.mx:3000/sites/ciencia/

volumen1/ciencia2/31/htm/sec_13.htm

El famoso químico-físico Walter Nernst (1864 – 1941) logró que el industrial belga Ernest Solvay (1838 – 1922) patrocinara un congreso, que fue el primero de los famosos Congresos Solvay que se han efectuado desde 1911 en Bruselas, Bélgica. Este congreso resultó muy importante en la historia de la Física,  ya que  en su transcurso la comunidad de físicos más relevantes renunció explícitamente  a  la  validez  universal  de  la  Física desarrollada hasta fines del siglo XIX, sostenida   por  la   Mecánica  de  Newton  y  el   Electromagnetismo  de Maxwell.

Las representaciones cuánticas y las ideas sobre la naturaleza dual de la luz y las partículas van a invadir el pensamiento físico de la época.


El siglo XX traería también una organización de la ciencia en Instituciones que debían concentrar sus esfuerzos bien en estudios fundamentales como en aquellos de orden práctico. Los políticos se darían cuenta, desde la Primera Guerra Mundial,  de la importancia de sufragar los gastos de aquellas investigaciones relacionadas con la tecnología militar.

 

El Laboratorio Cavendish en Cambridge, fundado en el siglo XIX, hizo época no sólo por la relevancia de sus investigaciones fundamentales para la determinación de la estructura atómica, sino por la excelencia mostrada por sus directores científicos, Joseph John Thomson (1856 – 1940) y Ernest Rutherford (1872 – 1937), que lograron con su liderazgo la reproducción de los valores de la producción científica (siete investigadores del Laboratorio alcanzaron el Premio Nóbel de Física).

 

En las primeras décadas del siglo el Laboratorio "Kaiser Guillermo" de Berlín se erigió en modelo de institución investigativa y en el período de la Primera Guerra Mundial contó con la asistencia de los más célebres científicos alemanes vinculados a proyectos de desarrollo de nuevas armas. Fritz Haber, notable químico alemán jugó el triste papel de introductor del arma química en los campos de batalla.

 

En la década del 40, se crea en Nuevo México, el Laboratorio Nacional de los Álamos, verdadera empresa científica multinacional, con el objetivo de dar cumplimiento al llamado Proyecto Manhattan para la fabricación de la bomba atómica. La movilización de hombres de ciencias de todas las banderas tuvo el propósito de neutralizar cualquier tentativa de la Alemania hitleriana de emplear el chantaje nuclear. El propio Einstein, con su enorme prestigio y autoridad moral, inicia el movimiento enviando una  misiva al presidente de los Estados Unidos. Cinco años después, enterado de los éxitos ya obtenidos en los ensayos de la bomba atómica, vuelve a usar la pluma está vez para reclamar prudencia en el empleo de este engendro de la Física Nuclear. El resto de la Historia es bien conocido.

 


En la década del 40, bajo el mayor secreto, se desarrolla el llamado Proyecto Manhattan, verdadera empresa científica multinacional, con el objetivo de fabricar la bomba atómica. Una red de laboratorios estadounidenses se comparte los trabajos a los cuales concurren científicos de todas las banderas, alarmados con la posibilidad  de que la Alemania hitleriana pudiera acceder primero al  arma nuclear. 

Cuando el engendro destructivo estuvo listo pero aún no se había provocado el holocausto de Hiroshima, un equipo del

Laboratorio de Metalurgia de la Universidad de Chicago proclamó su oposición al lanzamiento de la bomba.La mayoría de la comunidad científica abrazó la causa del uso pacífico de la energía atómica.


 

El  9 de agosto de 1945 la humanidad se aterrorizaba con la hecatombe nuclear en Hiroshima,  días después se repetía la escena esta vez en Nagasaki. Se inauguraba la época del arma nuclear con un saldo inmediato en Hiroshima de unos 140 mil muertos de una población estimada en 350 mil habitantes, y una multiplicación a largo plazo de las víctimas como resultado de las manifestaciones cancerígenas y las mutaciones genéticas inducidas por la radiación nuclear.

 

Los más relevantes exponentes, y la mayoría de la comunidad científica reaccionaron vigorosamente contra el desarrollo del armamento nuclear y abrazó la causa del uso pacífico de la energía nuclear. Poco antes del lanzamiento de la bomba en Hiroshima, como expresión de las ideas de los científicos que trabajaban en el proyecto Manhattan, 68 participantes en las investigaciones desarrolladas en el Laboratorio de Metalurgia de la Universidad de Chicago firmaron una carta de petición al presidente de los E.U. para impedir el empleo del arma nuclear. El propio Albert Einstein (1879 -1955) abogó por el desarme internacional y la creación de un gobierno mundial. No faltaron, sin embargo aquellos que como el físico húngaro, nacionalizado estadounidense, Edward Teller (1908 – 2003), arquitecto principal de la bomba H, consideraron oportuno continuar la espiral armamentista, confiados en que el liderazgo de un país podía resultar ventajoso para todo el mundo.

 

Al finalizar la Segunda Guerra Mundial se conformaron dos grandes bloques militares, económicos y políticos, que se enfrascaron en una guerra fría, desarrollaron una irracional carrera armamentista, y fomentaron la hipertrofia de un complejo militar industrial. El ruido de la guerra ha tenido una huella que no ha sido evaluada con suficiente precisión. De acuerdo con los resultados del primer "ensayo nuclear" en las Islas Marshall, las superpotencias trasladaron sus polígonos de prueba para sitios protegidos por extensas zonas desérticas, e incluso llevaron las pruebas al nivel del subsuelo evitando la contaminación atmosférica y las lluvias radiactivas que suelen llevar impulsados por los vientos, residuos radiactivos a miles de kilómetros del lugar de la explosión. De cualquier forma el planeta ha sufrido la sacudida telúrica, y el pulso electromagnético de radiaciones ionizantes  provocados por más de dos mil explosiones nucleares, más de la mitad lanzadas por los Estados Unidos, el 85 % por las dos grandes superpotencias del siglo (E.U. y la URSS), el 10% en el orden Francia, China y Gran Bretaña. Cinco pruebas se reparten entre dos países asiáticos envueltos en un litigio histórico: Paquistán y la India. Una bomba atómica fue lanzada en el océano Índico por el régimen sudafricano del apartheid en 1979, para emplear el chantaje en sus relaciones con los vecinos africanos. Desde 1992, logrado un Tratado Internacional de no proliferación del arma nuclear, se han silenciado notablemente "los ensayos nucleares". Pero India y Paquistán desoyendo el clamor universal, en 1998 realizaron un par de pruebas por parte en demostración mutua de fuerza. Al grupo de ocho países responsables de esta demencial carrera se ha sumado recientemente Corea del Norte.

 


El impacto de la guerra sobre los hombres de ciencias dependió del escenario histórico en que les tocó vivir.  Georges Charpak (1924-), físico francés de origen polaco, premio Nóbel de Física  en 1992  por sus novedosos métodos para la detección de las partículas subatómicas  que significó un notable avance en el estudio de los procesos nucleares, tenía   19 años cuando, acusado de terrorista por su actividad en la heroica resistencia francesa, sufre el horror de la prisión en un campo de concentración nazi.

Imagen: http://ambafrance-ca.org/HYPERLAB/PEOPLE/_charpak.html


 

La rivalidad dominante este – oeste del siglo se reflejó también entre las instituciones científicas hasta bien avanzado el siglo. A la competencia y el  intercambio que alentó, en lo fundamental, el desarrollo de las investigaciones en las primeras décadas entre las Escuelas de Copenhague, Berlín,  París, y Londres, le sustituyó un cerrado silencio. El intercambio fue tapiado y supuestas filtraciones al bando opuesto adquirieron  la dramática connotación de espionaje político. Los logros publicables que obtenían los laboratorios nucleares de Dubna, en la ex - Unión Soviética,  Darmstad en Alemania,  y Berkeley de los Estados Unidos eran sometidos a encendidas polémicas sobre prioridad, como es el caso del descubrimiento (acaso sería mejor decir "la fabricación" en los aceleradores lineales) de los elementos transférmicos que ocupan una posición  en la tabla periódica posterior al elemento número 100.

 

El proceso de descolonización en África y Asia experimentó una aceleración en el período de la posguerra. Pero el cuadro del desarrollo socioeconómico de los países a lo largo del siglo se mantuvo tan desigual y asimétrico como irracional resultaría la distribución de riquezas heredada del pasado colonial. La brecha entre ricos y pobres continuó ampliándose y se reflejó necesariamente en el estado de la ciencia y la técnica. Los países "en vías de desarrollo" debieron sufrir otro fenómeno: la fuga de cerebros. El capital humano, tal vez el mayor capital que atesora un país, se ve tentado en los países en desarrollo por las oportunidades que ofrecen las Mecas contemporáneas de las ciencias y al triste fenómeno de la emigración selectiva asisten sin posible defensa ante  el mercado de la inteligencia, los países pobres.

 

Un panorama similar se advierte si se recurre a cifras que ilustren el financiamiento por países en el área de investigación y desarrollo, así como si se analizan la producción de patentes de invención. En esta última esfera un nuevo problema viene a matizar el progreso científico.

 

La protección de la propiedad industrial en todo el siglo XIX operó como un elemento de financiamiento de nuevas investigaciones que alentaran y permitieran nuevos logros en la invención. Pero con el siglo XX se van haciendo borrosos los contornos de los descubrimientos y las invenciones para la pupila de las grandes transnacionales interesadas más que todo en competir con éxito en el templo del mercado. Una encendida polémica se viene gestando en la opinión pública que gana creciente conciencia de los peligros que entraña semejante política. Afortunadamente, entre los propios investigadores se desarrolla un movimiento tendiente a preservar como patrimonio de toda la humanidad  los descubrimientos científicos de mayor trascendencia.

 


El estudio de las heteroestructuras semiconductoras, que tuvieron una gran repercusión como uno de los soportes de la electrónica moderna encontró en el físico bieloruso Zhores I. Alferov, premio Nobel de Física del 2000, uno de sus más destacados investigadores.

En tema tan estratégico como resultan las fuentes energéticas futuras, Alferov ha declarado que a finales del siglo XXI la energía solar será determinante en el desarrollo de la energética en general "porque el Sol no se podrá nunca privatizar".

La Universidad de la Habana le confirió en 1986 el título deDoctor Honoris Causa y en el 2006 aprovechando la visita del científico a Cuba, le fue entregado personalmente este alto reconocimiento. Alferov ha mantenido una invariable actitud de amistad hacia Cuba. 

Imagen: http://www.bohemia.cubasi.cu/2006/05/18/nacionales/premio-novel.html


 

Ya a finales de la década de los años ochenta, con el derrumbe del sistema socialista en el este europeo, se establecieron las bases de un mundo unipolar, caracterizado por un proceso de globalización, que si en principio pudiera considerarse en bien del intercambio científico, potencialmente representa un desafío para la supervivencia del mosaico de culturas de las naciones emergentes y de sus identidades nacionales.

 

Por otra parte, la desaparición de la guerra fría  y el clima de universal entendimiento que parecía poder alcanzarse brindaban la posibilidad de congelar la irracional carrera de armamentos y desviar estos enormes recursos financieros hacia la esfera del desarrollo. Esto equivale a decir que podría al fin inaugurarse la era en que Ciencia y Tecnología alinearan sus fuerzas en bien de toda la humanidad. Pronto el optimismo inicial, derivado de semejante razonamiento se evaporó ante las nuevas realidades.

 

En el ámbito de las Matemáticas el siglo se inicia con el Congreso Internacional de París que concentró a las más relevantes figuras del momento y tuvo la significación de contar con las predicciones de David Hilbert (1862 -1943), notable matemático de la célebre Universidad de Gotinga forja académica de Gauss y Riemann y uno de las instituciones dónde se generó la actual interpretación de la Mecánica Cuántica, sobre los problemas más candentes que deberían ser resueltos por el esfuerzo de la comunidad de matemáticos. En efecto, a lo largo del siglo estos problemas serían abordados, pero lo que no pudo Hilbert pronosticar fue que las más significativas aportaciones en las Matemáticas guardarían relación con el mundo de la informatización y la inteligencia artificial. Así aparecen una nueva rama de la Geometría, esta vez la Geometría de los fractales, una nueva Lógica,  la llamada Lógica Difusa, un Álgebra de nuevo tipo, conocida como el Álgebra de Neumann, y una teoría que había sido relegada por la complejidad inherente a su abordaje, la Teoría de los Sistemas Caóticos. 

 

En el año 1946 se construye en Estados Unidos el primer ordenador electrónico digital de uso práctico (enicak), sin pieza mecánica alguna. Desde entonces estos artefactos han tenido un vertiginoso desarrollo, alcanzando su cima en la inteligencia artificial.  

 

La teoría de los juegos aparece a fines de los años 20, impulsada principalmente por John von Neumann (1903-1957), matemático estadounidense nacido en Hungría. La teoría de juegos se aplicó a los negocios y las guerras y Neumann extiende sus conceptos para desarrollar nuevos operadores y sistemas conocidos como anillos de operadores que reciben el nombre de Álgebra de Neumann que resultan muy utiles en la Mecánica Cuántica.

 


Cuando hoy se agitan las banderas de la xenofobia conviene recordar el inmenso aporte de los inmigrantes y sus descendientes al desarrollo de las sociedades más ricas del mundo actual. La lista se haría demasiado larga y abarca todos los campos de las ciencias. Sirva de ejemplo Lotfi  Zadeh, autor de la lógica difusa, una de  las  teorías que sustentan los avances en el campo de la inteligencia artificial. Nació en 1921 en  Irán, se educó en Arzeibaijan y finalmente se radicó en Berkeley,  donde en la Universidad de California desarrolló su nueva lógica. Imagen: morden.csee.usf.edu/Nafipsf/ifsanafips2001/plenaries.html


 

A pesar de los grandes adelantos  en la optimización computacional ocurridos durante los últimos 20 años,  el método Simplex inventado por George B. Dantzig (1914-2005) en 1947 es aún la herramienta principal en casi todas las aplicaciones de la Programación Lineal. Las contribuciones de Dantzig abarcan además la teoría  de la descomposición, el análisis de sensibilidad, los métodos de pivotes complementarios, la optimización en gran escala, la programación no lineal, y la programación bajo incertidumbre. De ahí en adelante la Teoría del Caos,  y la Lógica Difusa vienen emergiendo con gran fuerza en el panorama científico y tecnológico.

 

La Teoría del Caos se ocupa de sistemas que presentan un comportamiento impredecible y aparentemente aleatorio, aunque sus componentes estén regidas por leyes deterministas. Desde 1970 se viene aplicando esta teoría en la esfera de los fenómenos meteorológicos y en la Física Cuántica entre otras, siendo el físico estadounidense Mitchell Feigenbaum (1944- ) uno de los exponentes más representativos. Estos sistemas tienen afinidades con la Geometría Fractal y con la teoría de catástrofes.

 

La Geometría Fractal fue descubierta en la década de los setenta por el matemático polaco, nacionalizado francés, Benoit B. Mandelbrot (1924 - ). Ya no se limita la Geometría a una, dos o tres dimensiones, sino que se plantea el trabajo con dimensiones fraccionarias. Las montañas, nubes, rocas de agregación y galaxias se pueden estudiar como fractales. Estos vienen siendo usados en gráficos por computadora y para reducir el tamaño de fotografías e imágenes de vídeo. 

 

La Lógica Difusa fue introducida en 1965 por Lotfi Zadeh (1921- ), profesor de la universidad de Berkeley. La gran diferencia con la teoría de conjuntos clásica, enunciada por el alemán George Cantor a finales del siglo XIX, es que un elemento puede pertenecer parcialmente a un conjunto; en contradicción con la concepción tradicional que solo brinda dos posibilidades: "se pertenece o no se pertenece". La Lógica Difusa constituye una de las técnicas que sustentan la inteligencia artificial y se viene aplicando en Medicina y Biología, Ecología, Economía y Controles Automáticos.

 

Las Matemáticas invaden en el siglo XX  todas las esferas de la sociedad, de la técnica y la ciencia,  y sus más significativas aportaciones se relacionan con las nuevas áreas de la informatización y la inteligencia artificial. La modelación matemática reina en los procesos de ingeniería, de control automático, de la robótica, se introduce en los procesos biológicos y hasta algunos lo han evocado, a nuestro juicio con excesivo entusiasmo, en la solución de complejos problemas sociales.

 


Mitchell Feigenbaum, considerado uno de los fundadores de la teoría del caos, es hijo de Abraham,  un químico analítico de padres  polacos,  y  de  Mildred Sugar, cuyo apellido debe haberse nacionalizado, pues sus padres proceden de la lejana capital ucraniana de Kiev. Mitch era el segundo de tres hermanos, y a diferencia del primogénito que parecía tener un gran talento, aprendió a leer con  dificultad en las escuelas de Brooklyn donde cursó sus primeros estudios. Sin embargo, a los 16 ingresó en el Colegio de la Ciudad de Nueva y en cuatro años recibió su primer título de ingeniero eléctrico. Luego, decidió hacer su doctorado en el MIT, y su 

contacto con la obra de Landau decidió su inclinación hacia la Física. En los años 80, luego de haber sido rechazados dos de sus trabajos en revistas especializadas, la Comunidad Científica lo reconocía como uno de los pioneros en los estudios teóricos que demuestran el caracter universal de los sistemas no-lineales e hicieron posible penetrar el mundo del caos. Imagen: ens.math.univ-montp2.fr/SPIP/article.php3?id_article=1126


 

La Revolución en el campo de la Física se abrió paso en el siglo XX a través de la superación de profundas crisis en el campo de las ideas, que exigieron lo que se ha dado en llamar un cambio de paradigma. La construcción en paralelo de las teorías que pretendían explicar el universo de las micropartículas y ofrecer una nueva visión del mundo macroscópico, en lugar de encontrar un punto convergente se distanciaban desde sus propios enfoques de partida.

 

Las páginas que siguen hacen un  vertiginoso recorrido por los principales momentos en la evolución de estas ideas que traen nuevas nociones para las coordenadas esenciales de la existencia humana y cósmica: el tiempo y el espacio, al tiempo que se esfuerzan por explicar y dominar la estructura interna del átomo y de las propias partículas subatómicas. Por este camino, inundado por complejas teorías se abren paso colosales realizaciones prácticas que implican el gobierno de aquella energía fuente de todo el movimiento del sistema solar: la energía nuclear.

 

En el campo de las Ciencias Físicas una trascendental revolución se producía en:

  1. Las ideas sobre la cuantificación de la luz y la sustancia que permitieron  el desarrollo de la llamada Mecánica Cuántica.

  2.  

  3. Las ideas sobre la variabilidad del tiempo y del espacio, desarrolladas inicialmente casi en solitario por A. Einstein al crear su Teoría de la Relatividad.

  4.  

  5. Las ideas sobre la desintegración radiactiva y el desarrollo de la teoría del átomo nuclear.

El desarrollo de la Mecánica Cuántica

 

El primer período en el desenvolvimiento meteórico de la Física Cuántica abarca desde el propio año inicial del siglo hasta 1913. Si tuviera que bautizarse esta etapa recurriendo a los protagonistas fundacionales, como el paradigma mecánico se reconoce como la época de Newton-Galileo, o la concepción electromagnética del mundo se asocia al par Faraday-Maxwell, habría que llamar a este momento histórico como el de Planck-Einstein-Rutherford-Bohr. Y al así hacerlo tendríamos en cuenta que ellos lideraron la búsqueda y solución de los problemas esenciales que condujeron a la teoría cuántica del átomo de Bohr:

  • La distribución de la energía en el espectro de emisión del cuerpo negro absoluto.


Max Planck (1858-1947) fue un pionero de las ideas de la cuantificación de la energía en los procesos de emisión de la radiación. La ecuación E = hυ lo inmortaliza a través de la constante universal h que recibe su nombre, constante de Planck. Su enorme prestigio hace que lo elijan en 1930 presidente de la Sociedad Científica alemana más importante, la Sociedad Kaiser Guillermo para el progreso de la ciencia. Sus críticas abiertas al régimen nazi le forzaron a abandonar la Sociedad  a  la cual regresa  como presidente  al  terminar  la

Segunda Guerra Mundial. Hoy esta sociedad lleva su nombre, Sociedad Max Planck. Imagen: © The Nobel Foundation

 

  • La elaboración de un modelo atómico constituido por partículas positivas y negativas.

  • La determinación de las leyes que rigen en los espectros de rayas y de bandas.

 

El surgimiento de las ideas de la cuantificación de la luz nace con el inicio del siglo XX. Los trabajos de Max Planck (1858 – 1947) al explicar el comportamiento de la radiación por temperatura del radiador ideal, considera la existencia de paquetes de energía que depende de la frecuencia de la radiación. Por primera vez la Física se encontró con las representaciones cuánticas que modificarían la faz de esta Ciencia.

 

Las representaciones cuánticas fueron aplicadas por Albert Einstein (1879 – 1955) en 1905 a la teoría del efecto fotoeléctrico. Einstein a diferencia de Planck formuló la hipótesis de que los cuantos de magnitud hυ existen no solo en el proceso de emisión o de absorción, sino que tienen, además, existencia independiente. A partir de esta concepción explicó las particularidades de este efecto, inexplicables desde el punto de vista de la teoría ondulatoria de la luz, y enunció la ley básica del efecto fotoeléctrico.

 

La ecuación que resume esta concepción teórica  fue comprobada experimentalmente por Arthur Holly Compton (1892 – 1962) en 1912.  La explicación del efecto fotoeléctrico externo establece las bases de la Teoría Fotónica de la Luz. 

 

Finalmente, Niels Bohr (1885- 1962) en 1913, abre la etapa de la cuantificación de la energía para las partículas al  proponer un modelo inicial del átomo basado en el postulado de cuantificación del momento angular y la energía de los electrones en sus órbitas para los átomos hidrogenoides. La noción de los estados estacionarios del electrón rompía con la electrodinámica clásica  y apuntaba hacia una nueva manera de entender el mundo de las micropartículas.

 

En 1914, Bohr visitó las universidades de Munich y Gottinga y establece relaciones con famosos físicos como Max Born (1882- 1970) y Arnold Sommerfeld (1868-1951). La Primera Guerra Mundial interrumpió su gira por Alemania y ya en 1916 abre una cátedra  de Física Teórica en Copenhague. Cinco años después funda el Instituto de Física Teórica de la Universidad de Copenhague. En los próximos años, el Instituto de Bohr y la Universidad de Gottinga se convierten en los baluartes de la naciente Mecánica Cuántica.

 


© The Nobel Foundation

Niels Bohr es el autor del sistema planetario de la estructura electrónica de los átomos. Su imagen de la envoltura electrónica deriva de la aplicación del principio de cuantificación a las órbitas posibles de los electrones. Durante la segunda guerra mundial emigró con su familia a EEUU y participó en el proyecto de los Álamos para la construcción de la bomba atómica. Fue un enérgico defensor de poner en manos del control internacional el armamento atómico y al concluir  la guerra regresó a la universidad de su natal Copenhague, dónde se consagró al desarrollo del uso pacífico de la energía atómica. 


 

Un segundo período nacido con la posguerra, nos trae las ideas duales para las partículas que tienen su origen en los trabajos teóricos de Louis De Broglie (1892 – 1987). Hasta entonces todos los fenómenos relacionados con el electrón se explicaban sólo desde el punto de vista corpuscular.

 

De Broglie busca obstinadamente una idea generalizada, en la cual los puntos de vista corpuscular y ondulatorio estuviesen íntimamente integrados. A partir de su hipótesis deduce de una forma sorprendentemente sencilla la condición de cuantificación de las órbitas electrónicas de Bohr.

 

La confirmación experimental del carácter ondulatorio de los electrones fue espectacularmente obtenida en 1927 por los científicos norteamericanos Clinton Joseph Davisson (1881-1958) y Lester H. Germer (1896-1971) y de forma independiente en Aberdeen por George P. Thomsom (1892- 1975) al obtener el espectro de difracción de un haz de electrones convenientemente acelerados.

 

En los años cruciales para el desarrollo de la Mecánica Cuántica del 1921 al 27, en Zurich, Erwin Schrodinger (1887 – 1961) llevó a cabo las investigaciones fundamentales que culminaron en su famosa ecuación de onda. La ecuación de onda de Schrodinger permite, a través del instrumental matemático con que opera, obtener valores discontinuos para la energía, que cuantifican el movimiento de las partículas no relativistas; y al mismo tiempo plantea el problema del sentido físico de la función de onda. Estas investigaciones basadas en la objetividad de las ondas existentes y en su comportamiento causal fueron aplaudidas desde Berlín por Planck y Einstein que por entonces ejercían la docencia en la Universidad berlinesa.

 

En el mismo año en que Schrodinger   establece su famosa ecuación de onda, Werner Karl Heisenberg (1874 – 1956)  enuncia  el principio de indeterminación (incertidumbre). Heisenberg demuestra mediante un experimento imaginario que cuanto mayor es la precisión con que determinemos la posición de la micropartícula tanto menor es la precisión con que se determine su velocidad.

 


El físico austriaco Erwin Schrodinger pudo haber retenido su cátedra en Berlín puesto que él tenía afiliación católica, pero decidió mostrar su rechazo al régimen nazi abandonando Alemania. Su excepcional formación cultural se refleja en su concepción sobre la Historia: "La Historia es la más fundamental de todas las Ciencias, porque no hay conocimiento humano que no pierda su carácter científico cuando los hombres  olvidan las condiciones en que fue originado, las preguntas a las que respondió  y las funciones para las cuales fue creado" . What is life? And other scientific essays,  p 132, 1956.

Imagen:http://www.phys.barnard.edu/~muk/BC3006/3006intro.html


Werner K. Heisenberg, físico alemán, mereció el premio Nóbel en 1932 por ser uno de los padres de la Mecánica Cuántica. Su principio de la incertidumbre ha  tenido una profunda influencia tanto en  la Física como en la Filosofía. Reanimó la polémica sobre el clásico problema de la cognoscibilidad del mundo. El curso ulterior de los acontecimientos continúa demostrando la capacidad humana para penetrar en los enigmas de la naturaleza. Un estrecho nacionalismo lo llevó a dirigir el plan nuclear de la Alemania nazi que afortunadamente no tuvo éxito.

Imagen: http://rei.ific.uv.es/rei/index.php/rei/historia_de_la_ciencia/

art_culos/f_sica_y_caza_de_brujas_en_torno_a_1930


 

El sentido de la relación de indeterminación ha sido objeto de encendidas polémicas. Compartimos el criterio de que estas relaciones no constituyen barreras para la cognición del mundo de las micropartículas sino que expresan su peculiar esencia. Al establecer un enfoque probabilístico en la descripción del micromundo no se está intentando evadir las grandes dificultades representadas por el gran número de partículas de los sistemas abordados en  la Física Molecular y la Termodinámica, pero que al menos en principio podían ser descritos con arreglo a leyes bien determinadas.

 

El Congreso de Solvay de 1927 dejó como saldo para la Historia el rico debate alentado principalmente por Bohr  y Einstein sobre los principios de la nueva Mecánica Cuántica. A partir de este Congreso la Comunidad de los físicos teóricos reconoció como válida  la interpretación  de la Escuela de Copenhague (liderada por Bohr). Einstein aceptó la coherencia alcanzada por la teoría cuántica pero siempre creyó en la posibilidad de crear una teoría más  completa.

 

En el caso del micromundo,  no existe la posibilidad de descripción determinista y es necesario el reconocimiento de la existencia de leyes objetivas con un carácter probabilístico.  

 

El trabajo fundamental que fija el sentido de probabilidad de la función de onda pertenece a Max Born (1882 - 1970) quien, al examinar esta cuestión en 1926 llegó a la conclusión de que si el sistema consta de un punto, la función de onda expresa la probabilidad de encontrar la partícula en el punto del espacio tridimensional; ahora bien si se trata de un sistema de n partículas la función de onda cambia de  un punto a otro del espacio de representación con 3n dimensiones.  Born fue uno de los pocos físicos que edificaron la estructura filosófica de la Mecánica Cuántica. Su principal contribución fue la interpretación probabilística de las ondas de Schrodinger, una  interpretación que eleva la probabilidad a categoría primaria de la Mecánica Cuántica.

 

En 1928, el eminente teórico inglés Paul Dirac (1902-1984) deduce la famosa ecuación relativista cuántica que describe el comportamiento del electrón. Se considera la ley que generaliza las ecuaciones relativistas cuánticas del movimiento de las partículas.

 


La teoría de Dirac auguraba la existencia de antipartículas para casi todas las partículas elementales, lo que se confirmó en lo sucesivo. En 1955 fueron descubiertos los antiprotones y luego otras antipartículas, en fin fue descubierto el antimundo. Los pronósticos de Dirac iban más lejos y aseguraban que durante su encuentro ocurriría el  aniquilamiento mutuo de partículas y antipartículas con la correspondiente liberación de energía. El proceso de aniquilación fue una confirmación más de la ecuación de Einstein que interrelaciona masa y energía.

Imagen: www-history.mcs.st-andrews.ac.uk/history/BigPictures/Dirac_4.jpeg


 

La resolución de las ecuaciones obtenidas por Dirac indicaba que debía existir una partícula con la misma masa del electrón pero con carga positiva. Era la predicción del antimundo, por primera vez apareció el concepto de antipartícula, nació así teóricamente el positrón. Cuatro años más tarde, el físico norteamericano Carl D. Anderson (1905 – 1991) logró observar en la cámara de Wilson la traza de una partícula extraordinaria que poseía la masa del electrón pero era desviada por el campo magnético en sentido contrario. Se había hallado experimentalmente el gemelo del electrón predicho por Dirac.

 

En octubre de 1985, en el Laboratorio Nacional "Enrico Fermi"de Illinois, probaron un nuevo y superpotente acelerador de partículas con el cual colisionaron protones y antiprotones. La energía descargada durante la colisión superó cualquier cantidad conseguida hasta el momento: se produjo una energía equivalente a 1,6 trillones de electrón- volts.

 

El impetuoso avance de la Física Atómica permitió una mayor profundización en los niveles de la naturaleza e hizo posible el surgimiento de la Teoría de los Quarks. La explicación de la estabilidad del núcleo atómico, que confinaba en regiones muy reducida a los protones de carga positiva, exigió el postulado de nuevas partículas nucleares.

 

El físico japonés Hideki Yukawa (1908 – 1981) fue el primero en emitir la hipótesis de que las partículas que garantizan la estabilidad de los núcleos pueden poseer una masa mucho mayor que la del electrón. Estas partículas luego fueron llamadas mesones, y la comprobación experimental de su existencia debió esperar 11 años cuando se investigaban los rayos cósmicos. Fue entonces que se encontraron partículas con una masa 273 veces la masa del electrón y otras con 207 masas del electrón. A estas partículas se les llamaron mesones π o piones y mesones µ o muones. El pión resultó ser el mesón propuesto por Yukawa. 

 

El progreso de la Teoría Dual de la Luz se fortalece con la llamada estadística de los bosones propuesta en los trabajos de A. Einstein, en 1924, y de Satyendra Nath Bose (1894 – 1974), de los cuales el fotón es un caso particular, y al incorporar, según las concepciones actuales, los fotones al sistema de partículas básicas consideradas por la Teoría de los Quarks.

 


Imagen:

www.ictp.trieste.it/

~sci_info/News_from_ICTP/

News_93/dateline.html

El camino que tomaron las investigaciones en el campo de las micropartículas demostraba la inagotabilidad de la materia. En 1961, el físico norteamericano Murray Gell-Mann (1929- ) diseñó una especie de tabla periódica que agrupaba a las partículas subatómicas en familias de ocho. Este esquema fue confirmado por descubrimientos posteriores. Tres años después Gell-Mann propuso la existencia de los quarks, partículas constituyentes de las partículas "elementales". Según la profundización alcanzada en los niveles del micromundo,  hay bariones (de masa mayor o igual a los protones); mesones (de masa inferior a los protones y mayor que los electrones) y luego hay quarks.

Por razones estructurales se clasificaron los quarks en seis grupos teóricos.  A fines de la década de los sesenta, en el laboratorio de aceleración de micropartículas de la Universidad de Stanford el equipo integrado por el físico canadiense Richard E. Taylor (1929- ) y los físicos estadounidenses Henry W. Kendall (1926-1999) y Jerome I. Friedman (1930- ), descubrieron los quarks y por este descubrimiento, compartieron el Premio Nobel de Física en 1990. En los noventa se probó la existencia del último de los seis grupos.


 

En unos cincuenta años, se consolidó la Teoría Atómica, con el desarrollo de modelos, tanto para el átomo de hidrógeno, con cálculos exactos, como para los átomos multielectrónicos, con cálculos aproximados, pero muy eficientes, y edificado la Teoría del Núcleo que dio lugar a la utilización de la energía nuclear en las distintas ramas de la economía, aunque lamentablemente también en el terreno bélico.

 

Las realizaciones de la Escuela de Física soviética, fundada hacia los años treinta entre otros por  Piotr Kapitsa (1894-1984) y Lev Landau (1908-68), abarcan un amplio campo de trabajo que incluye la superconductividad y la superfluidez, la electrodinámica cuántica, la física nuclear y la física de partículas. En la segunda mitad del siglo aparecen como continuadores sobresalientes de las investigaciones en la superconductividad y la superfluidez los rusos, premios Nobel de Física del 2003, Alexei A. Abrikosov (1928- ), declarado científico distinguido del Laboratorio Nacional de Argonne, naturalizado en los Estados Unidos,  y el nonagenario Vitali L.Ginzburg (1916- ), jefe del Grupo de Teoría del Instituto de Física P.N. Lebedev de Moscú.

 

La Mecánica Cuántica y sus múltiples aplicaciones en otras ramas concretas de las Ciencias,  han traído importante derivaciones epistemológicas y filosóficas. Entre ellas destaca el debate  sobre la cognoscibilidad del mundo, dado por diferentes interpretaciones del Principio de Indeterminación.  En realidad este principio debe entenderse  que define un límite de validez para la aplicación de los conceptos que el hombre ha aplicado a una determinada esfera de fenómenos naturales, y acusa el riesgo de una generalización no fundamentada.

 

Los avances en esta rama de las ciencias han tenido importantes aplicaciones prácticas, en particular sobresalen las aportaciones en la rama de las comunicaciones, la codificación de información, los diversos tratamientos con la utilización de los láseres, las aplicaciones en la medicina de técnicas basadas en el láser y en la resonancia magnética nuclear, los átomos marcadores para la datación de hallazgos arqueológicos, y el desarrollo de la rama de la energética nuclear.

 

El siglo XX conoció de la construcción en paralelo de las teorías que pretendían explicar el universo de las micropartículas y ofrecer una nueva visión del mundo macroscópico. Estos esfuerzos en lugar de encontrar un punto convergente se distanciaban desde sus propios enfoques de partida.

 


© The Nobel Foundation

La ciencia soviética, heredera de la tradición rusa, archivó resonantes logros en el desarrollo de la Física Cuántica. Entre los más destacados representantes en esta dirección se hallan los premios Nobel de Física,  Piotr L. Kapitsa y Lev D. Landau. Ambos científicos, en momentos determinados de sus vidas, sufrieron la política represiva de las autoridades stalinistas que empañó los logros de la ciencia soviética  y estratégicamente contribuyó a empeñar el destino de la primera sociedad socialista. Se afirma que Kapitsa alegó razones de conciencia para alejarse del programa soviético  de  desarrollo  de  armas  nucleares  pero  fue  uno  de los

 líderes científicos del proyecto inicial de  satélites  de   la  URSS.    (En la imagen, Kapitsa.)


 

Las ideas sobre la variabilidad del espacio y el tiempo y la Teoría de la Relatividad

 

Las páginas que siguen hacen un  vertiginoso recorrido por los principales momentos en la evolución de las ideas que traen nuevas nociones para las coordenadas esenciales de la existencia humana y cósmica: el tiempo y el espacio. En este otro extremo de la cuerda, el cuadro físico del mundo experimentaba una profunda reestructuración, en lo fundamental, por los trabajos del genio alemán Albert Einstein.

 

La teoría de la relatividad de Einstein es uno de los grandes logros de la Física contemporánea. Si la Mecánica de Newton representa en el siglo XVII el acto fundacional de la Física, la Mecánica Relativista desarrollada en este siglo provoca una nueva cosmovisión del universo y constituye lo que se ha dado en llamar un cambio paradigmático a partir de la interpretación dada por el físico Thomas Samuel Khun (1922-1996) en su clásico "Estructura de las Revoluciones Científicas".

 

De cualquier modo compartimos el criterio expresado por Steven Weinberg (Premio Nóbel de Física en 1979) en una retrospectiva sobre el trabajo de Kuhn:

 

"No es verdad que los científicos sean incapaces de conectarse con diferentes formas de mirar hacia atrás o hacia delante" y que después de una revolución científica ellos sean incapaces de comprender la ciencia que le precedió. Uno de los  desplazamientos de paradigmas a los cuales Kuhn brinda mucha atención en "Estructura" es la sustitución al inicio de esta centuria de la Mecánica de Newton por la Mecánica relativista de Einstein. Pero en realidad, durante la educación de los nuevos físicos la primera cosa que les enseñamos es todavía la buena mecánica vieja de Newton, y ellos nunca olvidan como pensar en términos newtonianos, aunque después aprendan la teoría de la relatividad de Einstein. Kuhn mismo como profesor de Harvard, debe haber enseñado la mecánica de Newton a sus discípulos".

 

Einstein, en 1905, ya había demostrado al proponer la Teoría de la Relatividad Especial, que la Mecánica de Newton no tenía validez universal; demostró que si los cuerpos se mueven con velocidades comparables a la de la luz, entonces la Mecánica de Newton no puede describir los fenómenos correspondientes. La Teoría de la Relatividad es una generalización de la teoría newtoniana, que amplía su dominio de aplicación. Si en la Teoría de la Relatividad se consideran fenómenos en los cuales la velocidad de los cuerpos es mucho menor que la de la luz, como son la mayoría de los fenómenos cotidianos, entonces se recupera la mecánica de Newton. Es decir, la teoría newtoniana es un caso particular de la relativista, para velocidades muy pequeñas.

 


La teoría general de la relatividad es uno de los grandes logros de la Física contemporánea. Si la Mecánica de Newton representa en el siglo XVII el acto fundacional de la Física, la Mecánica Relativista desarrollada en este siglo provoca una nueva cosmovisión del universo que porta originales nociones para las coordenadas esenciales de la existencia humana y cósmica: el tiempo y el espacio. Su construcción es obra casi exclusiva, hecho insólito en este siglo, de Einstein lo que se explica al recordar que en el período que abarca de 1905 al 1916 la atención de la comunidad de físicos se centra en el desarrollo de la Teoría Cuántica del átomo.

 Imagen: http://www-groups.dcs.st-and.ac.uk/~history/PictDisplay/Einstein.html


 

Tanto la llamada Teoría Especial para el caso de los sistemas inerciales que fue, en lo fundamental enunciada en 1905, como su ulterior extensión, la llamada Teoría General de la Relatividad que consideraba el caso de los sistemas no inerciales, les permitieron a Einstein desarrollar su Teoría sobre la Gravitación Universal a partir de la propiedades del espacio – tiempo en la cercanías de las grandes aglomeraciones de masa.

 

Es necesario destacar que la Teoría General de la Relatividad pertenece no solo a la Historia de la Ciencia sino a la Física contemporánea. Constituye una síntesis, desde postulados relativistas, de  la teoría newtoniana de la atracción gravitatoria, de la teoría del espacio-tiempo tetradimensional curvo y, finalmente, de la generalización del principio de relatividad de movimientos uniformes respecto a movimientos acelerados.

 

Como expresión de una teoría revolucionaria, en el ámbito que abarca, va a exigir de nuevas concepciones sobre el espacio, el tiempo y el movimiento, a la vez que se apoya en novedosos instrumentos matemáticos de trabajo.

 

Asentada principalmente en la Teoría Especial de la Relatividad; en las observaciones de Poincaré (1854 – 1912) sobre la gravitación; y en la interpretación cuatridimensional de Minkowski (1864 – 1909); así como en los trabajos geométricos de Lovachevski y Riemann, su construcción fue obra casi exclusiva de A.Einstein. Este hecho, insólito ya en la Física del siglo XX, repleta de ejemplos del trabajo en "Escuelas", se explica al recordar que en el período que abarca de 1905 al 1916 la atención de la comunidad de físicos se centra en el desarrollo de la Teoría Cuántica del átomo.

 

No parecía entonces que los problemas de la atracción gravitatoria y de la generalización de la Teoría Especial de la Relatividad, fuera a ofrecer resultados trascendentes. De hecho, una característica de este descubrimiento que puede resultar, a primera vista sorprendente es que si bien la Teoría General de la Relatividad señala un giro radical en nuestras ideas sobre categorías tan generales como el espacio, el tiempo y la gravitación, esta no presentó la menor trascendencia técnica.

 

Sin embargo, después de su formulación y sobre todo luego de la confirmación experimental por Eddington (1882 - 1944) del entonces llamado efecto Einstein acerca de la pequeñísima desviación de los rayos de luz de las estrellas al pasar cerca de la superficie del sol, una nueva promoción de físicos se sintió inclinada a participar en nuevas búsquedas, emitir audaces hipótesis, y someter las nuevas ideas a confirmación astronómica. Desde entonces se han repetido los intentos de estructurar una teoría única del campo, y elaborar la Teoría Cuántica de la Gravitación.

 


Imagen: A. Friedmann

www-history.mcs.

st-and.ac.uk/PictDisplay/

Friedmann.html

La cosmología relativista entró en una nueva fase en 1922, cuando el físico y geofísico ruso A.A. Fridman (1888 – 1925) publicó dos obras clásicas que se oponían al modelo estacionario propuesto por Einstein, y abrían paso a las ideas sobre un universo en expansión. Sólo siete años después de los trabajos de Fridman, en 1929, el astrónomo norteamericano E. Hubble (1889 – 1953), que trabajaba en el reflector más grande de aquellos tiempos en el observatorio de Mount Wilson, llegó a la conclusión, a partir del desplazamiento hacia el rojo de las rayas espectrales de todos los sistemas estelares distanciados, de que todas las estrellas se alejan de nuestra galaxia.


 

En el propio año de 1916 en que se publica la teoría general de la relatividad, poco antes de su muerte, el matemático alemán Karl Schwarzschild (1873-1916),   predijo la existencia de los agujeros negros. Sobre la base de la relatividad einsteniana, postuló "el radio de Schwarzschild", magnitud cósmica relacionada con el hipotético círculo, que se generaría durante la explosión de una supernova, tan compacto que nada ni siquiera la luz podría escapar de su intenso campo gravitatorio.  A estos objetos se les conoció más tarde como agujeros negros. Fue necesario esperar a fines del siglo XX para que el radiotelescopio Hubble instalado en una sonda espacial confirmara la existencia de un agujero negro en el centro de una enorme galaxia llamada M87.   

 

Estos trabajos fueron proseguidos por el sacerdote y astrónomo belga Georges Lemaitre (1894 – 1966) que fundamentó una teoría cosmológica según la cual, la expansión del Universo habría comenzado con una enorme explosión de un "núcleo primordial". Este "núcleo primordial", según sus deducciones matemáticas, increíblemente denso contenía toda la materia del Universo dentro de una esfera unas 30 veces mayor que el Sol.

 

1948 representa el año en que se desarrollan dos teorías cosmológicas contrapuestas: el llamado modelo estacionario y la más conocida teoría de la gran explosión. La teoría del universo estacionario resultante de la creación continua de materia que se condensa para la formación de nuevas galaxias fue desarrollada en Cambridge por los astrofísicos Hermann Bondi (1919-2005), Fred Hoyle (1915-2001), y Thomas Gold (1920-2004). La teoría de la Gran Explosión se enriquece con los trabajos del físico teórico ucraniano, nacionalizado estadounidense, George Gamow (1904-1968) que explica la expansión del universo y desarrolla nuevas hipótesis sobre la creación de los elementos en los primeros momentos del descomunal estallido.

 

Los progresos del período de investigaciones aceleradas en plena guerra habían legado un instrumental avanzado para escudriñar ahora la infinitud del universo. En 1960, desde el Observatorio de Monte Palomar en California, el astrónomo estadounidense Allan Rex Sandage (1926- ) consigue la primera imagen espectrográfica de un objeto estelar caracterizado por dos fenómenos enigmáticos: sus líneas espectrales de emisión resultan inidentificables al tiempo que emiten enormes cantidades de energía.

 


Imagen:

www.aps.org/

apsnews/0206/

020609.cfm

En el verano de 1967, Jocelyn Bell se encontraba investigando en la Universidad de Cambridge, bajo la asesoría del radioastrónomo Antony Hewish (1924- ), la escintilación de los quásares. En este empeño descubrieron una señal inusual recibida a un intervalo constante cercano al segundo. Semejante señal pulsante fue inicialmente interpretada como el resultado de una emisión de seres inteligentes, pero luego la detección de una señal análoga desde el extremo opuesto del cielo evaporó esa probabilidad. Un año después la mayoría de los físicos aceptaban la naturaleza de los púlsares como estrellas de neutrones de una increíble densidad que giran rápidamente en un pequeño círculo  con intensos campos electromagnéticos,  emitiendo ondas de radio.

Los púlsares fue el primer paso en la verificación de la existencia de un fenómeno teórico muy extraño: los agujeros negros.


 

Los quásares (acrónimo de quasi-stellar radio source, fuente de radio cuasiestelar), fueron sometidos a sistemática observación a partir de este momento y en 1963, el astrónomo estadounidense de origen holandés Maarten Schmidt emitió la hipótesis de que estas líneas de emisión no identificadas en el espectro eran líneas ya conocidas pero que mostraban un desplazamiento hacia el rojo mucho más intenso que en cualquier otro objeto conocido, lo cual se interpreta como que el quasar se aleja rápidamente de nuestro planeta como resultado de la expansión del Universo. El análisis de observaciones posteriores y su correspondencia con las teorías existentes indican como única explicación satisfactoria para que un quásar variable produzca tal cantidad de energía en un volumen relativamente pequeño es la absorción de grandes cantidades de materia por un agujero negro. Los astrónomos creen que los quásares son agujeros negros supermasivos rodeados de materia que gira a su alrededor; esta materia emite energía al caer en el agujero negro.

 

En este debate sobre la cosmovisión del universo, el descubrimiento en 1965 de una misteriosa radiación de fondo cósmica correspondiente a las microondas de 3 K (-270oC) que no tiene fuente específica y se detecta desde todas las direcciones del universo fue interpretada como una prueba a favor de la teoría que apuesta a un universo que se expande producto de una colosal explosión original. Esta radiación detectada por el astrofísico estadounidense, de origen alemán, Arno Penzias (1933- ) y el  radioastrónomo estadounidense Robert W. Wilson (1933- ) se comprendió como el remanente cósmico de las elevadísimas temperaturas que acompañaron al instante inicial del Gran Bang.

 

En 1979 el físico estadounidense Alan Guth (1947- ), desarrolló una nueva teoría acerca de la expansión del Universo, continuadora de la hipótesis inflacionaria desarrollada 30 años atrás por  Gamow,  que ha servido de base para la interpretación contemporánea de los primeros momentos del Universo. Guth combina las ideas cuánticas con la teoría del campo unificado para demostrar la posibilidad de que toda la materia del Universo podría haber sido creada por fluctuaciones cuánticas en un espacio ‘vacío’ y que una región de aquel  estado caótico original podía haberse hinchado rápidamente para permitir que se formara una región observable del Universo. 

 


Imagen:

Stephen Hawking

www.hawking.org.uk/

about/images/

stephenh1.jpg

El físico teórico Stephen Hawking (1942- ) es la figura líder de la moderna cosmología. Los sentidos del hombre se resienten con las concepciones emergentes de la teoría de la gran explosión. Una edad del universo estimada en 13,7 ± 0,2 mil millones de años, un modelo que advierte un período de inflación cósmica de 10-35 segundos, la expansión y el enfriamiento que condujo a la bariogénesis produciendo de alguna manera la asimetría observada entre materia y antimateria, son elementos en que se asienta la prevaleciente cosmovisión actual.

Hawking, con un extraordinario espíritu y la alta tecnología puesta a su servicio es uno de los grandes en el propósito de enlazar la Mecánica Cuántica y la Relatividad las dos principales teorías de la Física Moderna, desarrollando la teoría cuántica de la gravedad.

 

En la Cosmología actual prevalece el modelo del Bing Bang, y la teoría del relevante físico Stephen Hawking (1942 - ). Las ideas relativistas de Einstein posibilitaron así el nacimiento de una ciencia del Cosmos y adelantar hipótesis sobre el surgimiento del universo conocido.

 

En el campo del micromundo, el impacto de las aportaciones de A. Einstein, ha sido enorme y merece destacarse que todo progreso de la Mecánica Cuántica ha tomado en cuenta el carácter relativista de las micropartículas introduciéndose magnitudes para la descripción de los fenómenos del universo subatómico que no tienen su similar en el mundo clásico como por ejemplo son el momento de espín, las cargas bariónica y leptónica, y la hipercarga, entre otros. Por otro lado al aprovechar el carácter relativo del espacio y del tiempo se han podido construir aceleradores de partículas con el objetivo de estudiar las propiedades más íntimas de la materia.

 

Hacia 1948, veinte años después de los trabajos fundacionales de Dirac en la versión cuántico-relativista de la formulación de Maxwell, la electrodinámica cuántica se consideraba una teoría completada, en lo esencial, por los físicos estadounidenses Richard Feynman (1918 -1988), y Julian Schwinger (1918 -1994) y por el físico japonés Sin-itiro Tomonaga (1906 – 1979). En 1965 compartirían el premio Nobel de Física.

 

En 1967 el físico de Harvard, Steven Weinberg (1933- ) dio un gran paso adelante hacia la realización de una «teoría del campo unificado». Ésta comprendería las cuatro fuerzas aparentemente distintas de la naturaleza: gravedad, electromagnetismo y las fuerzas nucleares débil y fuerte.  La fuerza nuclear débil se manifiesta al expulsar partículas del núcleo en la desintegración  radiactiva y la fuerza fuerte une las partículas nucleares. El modelo de Weinberg describe el electromagnetismo y la fuerza nuclear débil como distintas manifestaciones del mismo fenómeno.

 

Notables aportaciones a la teoría electrodébil, aplicable a las partículas elementales, fueron desarrolladas por el físico paquistaní, profesor de Física Teórica del Imperial College de Londres, Abdus Salam (1926 – 1996). A partir de entonces se conoció el modelo de Weinberg - Salam. En 1970 Sheldon Glashow (1932- ), otro físico de Harvard, extendió la teoría de este modelo a todas las partículas conocidas. En 1979, Weinberg, Salam y Glashow compartirían el Premio Nóbel de Física.

 

A finales de los años setenta, una teoría del campo sobre la fuerza nuclear fuerte, Cromodinámica Cuántica, se integró con la teoría electrodébil de Weinberg y Salam para formar el modelo estándar. De las cuatro fuerzas, la única que queda fuera de esta teoría unificada es la gravedad. El científico holandés Gerardus’t Hooft (1946- ) y su colega Martinus J Veltman (1931- ) merecieron el premio Nóbel de Física de 1999 por sus relevantes aportaciones en el desarrollo de las matemáticas necesarias para explicar el modelo estándar.

 


Abdus Salam nació en Jhang, un pequeño pueblo paquistaní en 1926. Graduado en Cambridge, mereció el Premio Nobel de Física en 1979.  El dinero recibido de sus premios internacionales ha sido dedicado totalmente para posibilitar que jóvenes talentos en Física de su país y de otros países subdesarrollados visiten el Centro Internacional de de Física Teórica fundado por Salam en Trieste.

Abdus Salam fue un  devoto musulmán cuya religión no ocupó un compartimiento separado de su vida; fue inseparable de su trabajo y su vida familiar.

Imagen: nuclphys.sinp.msu.ru/persons/images/salam.jpg


 

En el terreno epistemológico la Teoría de General de la Relatividad permitió una concepción más profunda sobre las nociones acerca del espacio y el tiempo y su relación con el movimiento al desechar o refutar las viejas ideas sobre el carácter absoluto o de receptáculos de estas entidades y analizar su variabilidad en dependencia del estado de movimiento de los sistemas. Además hizo posible comprender las relaciones entre la masa y la energía como magnitudes que expresan medidas cuantitativas de las propiedades inerciales y gravitatorias de las micropartículas por una parte y de las propiedades del movimiento de tales partículas por otra.

 

Otra importante derivación epistemológica de esta teoría radica en hacer evidente, tal vez por primera vez en el campo de la Ciencias Físicas, la importancia del llamado Principio de Correspondencia, considerado por muchos como el segundo criterio de la verdad sobre una determinada teoría científica, al establecer que toda nueva teoría, además de demostrar su valía en el campo de la práctica social, debe comprender o englobar a la teoría anterior sobre el mismo campo o dominio de aplicación, como un caso particular o límite. Tal era el caso entre la Teoría de la Relatividad y la Mecánica de Newton, de forma que la primera abarcaba a la segunda para el caso de bajas velocidades en comparación con la rapidez de propagación de la luz en el vacío.

 

Pero el gran mérito de la obstinada búsqueda de Eisntein, radica en indicar el camino para que mas de medio siglo después una nueva generación de físicos fundara una teoría que, estremeciendo preceptos establecidos, se esforzara por cumplir sus sueños de encontrar un principio universal para explicar las propiedades y fuerzas observadas en dos mundos "antagónicos" el microcosmos y el universo de los objetos ordinarios.

 

Al cierre del siglo el sueño de Einstein de encontrar un principio integrador de los mundos gravitatorios, electromagnéticos (y más tarde nucleares) parecía comenzar a cristalizar con la emergente teoría de las cuerdas. La teoría de las supercuerdas reconoce una estructura interna para las partículas fundamentales del universo que han identificado los físicos –electrones, neutrinos, quarks, y otras, las letras de toda la materia. De acuerdo con esta teoría si nosotros examinamos estas partículas con una mayor precisión, una precisión de muchos ordenes de magnitud mayor que la alcanzable con la capacidad tecnológica actual encontraríamos que cada partícula no es puntual sino consiste de un diminuto anillo. Como una banda de goma infinitamente delgada cada partícula contiene un filamento vibrante que los físicos han llamado cuerda. El electrón es una cuerda vibrante de un modo, el quark es una cuerda vibrante de otro modo, y así sucesivamente.

 


Imagen:

www.telepolis.com/

weekend/week3/

usa_entr.htm

El físico argentino Juan Maldacena (1967- ), formado en la Universidad de Buenos Aires, y actualmente investigador en el Instituto de Estudios Avanzados de Princeton, es considerado uno de los impulsores de las últimas proyecciones de la teoría de las supercuerdas. Maldacena es hoy un destacado exponente de esa minoría de científicos de origen hispano que desarrollan su actividad en instituciones élites estadounidenses.

Un estudio reciente de la National Science Foundation reveló que los  estadounidenses  de  origen hispano, africano  e indígena  tan solo comprenden el 6 por ciento de la fuerza laboral del país en los campos de la ingeniería y las ciencias. No obstante las ricas sociedades del norte continuan actuando como un agujero negro para la luz, el capital humano, de las naciones del sur...


 

Aunque no resulte obvio esta simple sustitución de partículas puntuales constituyentes de los materiales con las cuerdas resuelve la incompatibilidad entre la mecánica cuántica y la relatividad general. La teoría de las cuerdas proclama por ejemplo que las propiedades observadas para las partículas fundamentales y las partículas asociadas a las cuatro fuerzas de la naturaleza (las fuerzas nucleares fuertes y débiles, el electromagnetismo y la gravedad) son un reflejo de las variadas formas en que una cuerda puede vibrar. Justamente como las cuerdas de un violín tienen frecuencias resonantes a las cuales ellas prefieren vibrar, lo mismo se mantiene para los anillos de la teoría de las cuerdas. Pero en lugar de producir notas musicales cada una de ellas prefiere determinadas masas o cargas de fuerzas según el modo oscilatorio de la cuerda.

 

La misma idea se aplica a las fuerzas de la naturaleza. Las partículas de la fuerza son también asociadas con los modos particulares de vibración de la cuerda y de ahí que cada cosa, todo material y todas las fuerzas se unifican bajo la misma rubrica de oscilaciones microscópicas de las cuerdas, las notas que las cuerdas pueden tocar.

 

Por primera vez en la historia de la Física se dispone de un cuadro con la capacidad de explicar cada característica fundamental sobre la cual el universo es construido. Por esta razón la teoría de las cuerdas es con frecuencia descrita como la "teoría de todo". Este término hace pensar en el advenimiento de la teoría de mayor profundidad posible que incluye todas las otras. Y esto enciende otra violenta polémica. ¿Qué significa la teoría del todo? ¿Pretende abarcar esta teoría en un solo principio la divina diversidad de "nuestros mundos"?

 

Si el debut del siglo XX abrió un nuevo capítulo en el desarrollo de la Física que supuso la superación de una crisis de sus nociones sobre el mundo de las micropartículas y el advenimiento de un nuevo paradigma, con el cierre del siglo se anunciaba el descubrimiento de un principio integrador que explicaba el mundo cósmico, electromagnético y nuclear. No era precisamente la Teoría del "Todo" pero representa una nueva conquista del inagotable conocimiento científico.

 


http://phys.columbia.edu/

faculty/greene.htm

Brian Greene (1963- ), profesor del Departamento de Física de la Universidad de Columbia, es uno de los fundadores de la Teoría de las Supercuerdas, también llamada teoría del "Todo" por su supuesta capacidad para explicar completamente los atributos de las partículas fundamentales del Universo e integrar en un único cuadro, apasionada ambición de Einstein, las fuerzas físicas conocidas hasta hoy por el hombre. Greene se ha esforzado en "traducir" las complejas nociones que emergen de considerar un mundo de n- dimensiones que no atrapan nuestros sentidos, a símiles comprensibles.

Ha defendido también la hipótesis que esta teoría no puede considerarse que agote los enigmas de la naturaleza y detenga el desarrollo del conocimiento científico.


 

La desintegración radiactiva y la teoría del átomo nuclear.

 

A continuación intentaremos llevar a cabo un breve recorrido por aquellos descubrimientos trascendentes de la estructura nuclear del átomo. Al hacerlo revelaremos el protagonismo de hombres de ciencias e instituciones élites en momentos cruciales vividos por la humanidad, asistiendo a conflictos de género, peligros de subsistencia, compromisos políticos, y en fin al drama de las ideas que los acompañó.

 

Casi desde estos primeros momentos comenzaron las tentativas por describir un modelo atómico. J.J. Thomson concibe inicialmente la carga positiva distribuida uniformemente por todo el átomo mientras los electrones en número que compensaba esta carga se encuentran en el interior de esta nube positiva. Un año más tarde, supone a los electrones en movimiento de tipo oscilatorio alrededor de ciertas posiciones de equilibrio dentro de la carga positiva distribuida en una esfera.

 

Luego de otros intentos para describir un modelo atómico que explicara el espectro de rayas y de bandas y el fenómeno de la radioactividad, aparece en 1911 la publicación del físico neozelandés Ernest Rutherford (1872 – 1937) "La dispersión por parte de la materia, de las partículas alfa y beta, y la estructura del átomo" en la que propone el modelo nuclear del átomo. Según Rutherford la carga positiva y prácticamente la masa del átomo se confinan en una porción muy reducida, 104 veces menor que las dimensiones del átomo, mientras los electrones quedan alojados en una envoltura extranuclear difusa. La carga positiva nuclear es igual a Ze, siendo e, la carga del electrón y  Z aproximadamente la mitad del peso atómico.

 

Rutherford fue más allá y en diciembre de 1913 expone la hipótesis de que la carga nuclear es una constante fundamental que determina las propiedades químicas del átomo. Esta conjetura fue plenamente confirmada por su discípulo H. Moseley (1887 – 1915), quien demuestra experimentalmente la existencia en el átomo de una magnitud fundamental que se incrementa en una unidad al pasar al elemento siguiente en la Tabla Periódica.  Esto puede explicarse si se admite que el número de orden del elemento en el sistema periódico, el número atómico, es igual a la carga nuclear.

 


Rutherford fue director del Laboratorio de Cavendish en Cambridge, desde dónde condujo o dirigió trascendentales estudios sobre la estructura atómica. Entre sus predicciones, que experimentalmente comprobaría su discípulo James Chadwick más de diez años después, se encuentra la existencia de las partículas nucleares llamadas neutrones. En plena guerra fría de los años 60 los halcones ordenaron el desarrollo de la tristemente célebre bomba de neutrones. Ella exhibía la maquiavélica virtud de solo exterminar a los hombres en tanto dejaba intactas las edificaciones.  La espiral de la irracionalidad belicista se anotaba otro alarmante éxito.

Imagen: www.chstm.man.ac.uk/people/hughes.htm


Imagen:

histoirechimie.free.fr/

Henry Moseley (1887-1915), discípulo de Rutherford, desarrolló brillantemente la aplicación de los espectros de rayos X al estudio de la estructura atómica y arribó a una nueva formulación de la ley periódica de los elementos químicos 50 años después de Mendeleev.  La carga nuclear y no la masa atómica era la propiedad clave para explicar la periodicidad de las propiedades de los elementos químicos. No había cumplido aún los treinta años cuando muere en los campos de batalla de la Primera Guerra Mundial, tras enrolarse en la Royal Army.

Otra vez la guerra cegaba la vida de un científico. ¿Cuántas vidas irrepetibles se han perdido?


Durante este primer período la atención de la mayor parte de la vanguardia de los físicos teóricos se concentraba en extender los razonamientos cuánticos iniciados por Planck; mientras, la construcción de un modelo para el núcleo atómico era un problema relativamente relegado y frente al cual se levantaban enormes obstáculos teóricos y prácticos. Rutherford sugirió desde sus primeras investigaciones que muy probablemente el núcleo estaría constituido por las partículas alfa emitidas durante la desintegración radioactiva. Ya para entonces el propio Rutherford había cuidadosamente comprobado que las partículas alfa correspondían a núcleos del Helio, es decir, partículas de carga +2  y masa 4. Otra línea de pensamiento conducía a suponer que los electrones (partículas beta) emitidos durante la desintegración radioactiva eran lanzados desde el mismo núcleo.

 

Frederick Soddy (1877 –1956), uno de los primeros y más sobresalientes radioquímicos, premio Nobel en 1921, al pretender ubicar el creciente número de productos de la desintegración radioactiva en la Tabla Periódica colocó los elementos que mostraban  propiedades químicas idénticas en la misma posición aunque presentaran diferentes masas atómicas. Al hacerlo estaba ignorando la ley de Mendeleev y modificando el propio concepto de elemento químico. Ahora surgía una nueva categoría para los átomos, el concepto de isótopos (del griego iso: único, topo: lugar). Poco después, el descubrimiento de Moseley apoyaría su decisión, al demostrar que la propiedad fundamental determinante de las propiedades químicas y de la propia identidad de los átomos era la carga nuclear.

Con la Primera Guerra Mundial se levantaron obstáculos para el progreso de los estudios fundamentales recién iniciados, quedarían interrumpidos los intercambios científicos, detenidas las publicaciones, el campo de acción de las investigaciones desplazado a la práctica de la tecnología militar.

Pero en Berlín una pareja de investigadores, Lise Meitner (1879 – 1968) y Otto Hahn (1878 – 1968), una física y un químico, venían investigando sobre el aislamiento y la identificación de radioelementos y de productos de la desintegración radioactiva. Ante el alistamiento de Hahn en el ejército para llevar a cabo estudios vinculados con la naciente guerra química,  Meitner continúa las investigaciones y descubre en 1918 el protactinio.

 


Imagen:  

sisbib.unmsm.edu.pe/

bibvirtual/Publicaciones/

gaceta/2000_n38/

art01.htm

Egresado de una de las Universidades más antiguas de América, la Universidad Mayor de San Marcos, el científico peruano Santiago Antúnez de Mayolo (1909-1967), merece un reconocimiento mayor de su obra. Existen las referencias de que Antúnez, ocho años antes del descubrimiento de Chadwick, predijo la existencia del neutrón en el III Congreso Científico Hispanoamericano celebrado en Lima en 1924. El apoyo oficial necesario para que el profesor peruano presentara sus resultados en Europa y alcanzaran "visibilidad"  no llegó a tiempo y es preciso reivindicar, al menos  en el ámbito hispanoamericano, su mérito histórico.

Perú le rinde tributo al fundar la Universidad Nacional "Santiago Antúnez de Mayolo" en su Departamento natal de Huaraz.


 

En 1919, Rutherford, que encabeza a partir de este año el laboratorio Cavendish en Cambridge, al estudiar el bombardeo con partículas alfa sobre átomos de nitrógeno, descubre la emisión de una nueva partícula, positiva, y evidentemente responsable de la carga nuclear del átomo, los protones. La existencia en el núcleo de partículas positivas y de los electrones emitidos como radiaciones beta, llevó a este relevante investigador a concebir una partícula que constituyese una formación neutral, un doblete comprendido como una unión estrecha de un protón y un electrón, el neutrón. Durante más de 10 años Rutherford y su principal asistente James Chadwick (1891 – 1974) intentaron en vano demostrar experimentalmente la existencia del neutrón.

 

Las señales alentadoras vendrían de París, del laboratorio de los Joliot.  Jean Frederick (1900 – 1958) e Irene Joliot- Curie (1897 – 1956) reportaron en 1932 que al bombardear con partículas alfa, provenientes de una fuente de polonio, átomos de berilio se producía una radiación de alto poder de penetración, nombrada originalmente "la radiación del berilio", que ellos asociaron a rayos γ. Pero Chadwick no compartió este supuesto y procedió a verificar que estas partículas eran los escurridizos neutrones. Chadwick fue acreditado para la Historia como el descubridor de los neutrones.

 

La nueva oportunidad que se les presentó dos años más tarde a los Joliot fue esta vez convenientemente aprovechada. En 1928 Paúl Dirac (1902-1984) había predicho la existencia de la antipartícula del electrón, el positrón, que cuatro años después, experimentalmente descubre el físico norteamericano C. Anderson (1905 – 1991). Ellos encontraron que al bombardear aluminio con partículas alfa, la emisión de positrones continuaba después de retirar la fuente de plutonio, y además el blanco continuaba emitiendo conforme a la ley exponencial de la descomposición  de radionúclidos. Se había descubierto la radioactividad artificial.

 

Inmediatamente después del  descubrimiento del neutrón, W.Heinseberg propone el modelo del núcleo del protón – neutrón. Conforme con este modelo los isótopos descubiertos por Soddy se distinguen sólo por el número de neutrones presentes en el núcleo. Este modelo se verificó minuciosamente y obtuvo una aprobación universal de la comunidad científica. Algunos cálculos preliminares estimaron la densidad del núcleo en ~ 1012 kg/m3, lo cual es un valor enorme.

 


Frederic Joliot e Irene Curie constituyen una pareja que logra asaltar el Olimpo de la ciencias. Comparten el premio Nóbel de Química de 1935 por el descubrimiento de la radioactividad artificial. Frederic merece algo más que la frase común de ser "un hombre de una intensa actividad pública". Su adhesión a la heroica Resistencia francesa contra la ocupación nazi y su consagrada lucha por la paz, lo convierten en un paradigma de hombre de ciencias comprometido con las causas más nobles de su época. Imagen: www.radiochemistry.org/nuclearmedicine/pioneers/joliot-curie.shtml


 

Por otra parte, la presencia de los protones, partículas cargadas positivamente, confinadas a distancias del orden de las dimensiones del núcleo ~ 10-15 m implicaba la existencia de fuerzas de repulsión coulombianas (de origen electrostático) gigantescas, que deberían ser compensadas por algún otro tipo de fuerza de atracción para mantenerlas no solo unidas, sino con una cohesión tal que su densidad tuviera los valores antes citados. Estas son las fuerzas nucleares, las cuales son de corto alcance, muestran independencia respecto a la carga (ya que actúan por igual entre protones que entre neutrones) y presentan saturación dado que un nucleón solo interactúa con un número limitado de nucleones.

La naturaleza de este nuevo tipo de fuerza, que se añadía a las conocidas anteriormente fuerzas gravitacionales y electromagnéticas, fue considerada como el tipo de intercambio, un nuevo concepto cuántico que involucra en la interacción entre nucleones el intercambio de una tercera partícula. En 1934 los científicos soviéticos Ígor Y. Tamm (1895-1971), premio Nobel de 1958 y el profesor Dmitri D. Ivanenko (1904- 1994) intentaron describir las fuerzas nucleares como fuerzas de intercambio en que las dos partículas interaccionan por medio de una tercera que intercambian continuamente. Ellos además comprobaron que no se podía explicar las fuerzas nucleares mediante el intercambio de ninguna de las partículas conocidas en aquel momento.

En 1935 el físico japonés Hideki Yukawa dio una respuesta a este problema al suponer que ese intercambio se realiza mediante una nueva partícula: el mesón. En los dos años que siguieron se detectaron primero por Carl Anderson y luego por el británico Cecil Powell (1903 – 1969) partículas con similares características en los rayos cósmicos.

 

Conjuntamente con el descubrimiento de las diferentes partículas constitutivas del núcleo fue surgiendo la necesaria pregunta de cuál era la estructura del mismo, o sea, de qué manera pudieran estar dispuestos los nucleones y así surgieron los primeros modelos del núcleo. Entre estos vale la pena citar el modelo de la gota líquida y el modelo de las capas.

 

Cada uno de estos modelos se fundamenta en determinados resultados experimentales y logra explicar algunas de las características del núcleo. Por ejemplo, el modelo de la gota líquida se apoya en la analogía entre las fuerzas nucleares y las que se ejercen entre las moléculas de un líquido puesto que ambas presentan saturación. A partir del mismo se puede calcular la energía de enlace por nucleón teniendo en cuenta la energía volumétrica, la de tensión superficial y la de repulsión coulombiana, la cual tiene un aspecto similar a la curva experimental. Sin embargo, no puede explicar los picos que tiene dicha curva para los núcleos de elementos tales como el He, C, O, Ca, etc.

 


Tres pioneros de la física nuclear, Yukawa, Powel, y Joliot-Curie, firmaron el Manifiesto de Londres en 1955, que encabezado por Russel y Einstein convocaba a un Congreso Internacional de los hombres de ciencia para impedir que la loca carrera armamentista que se avecinaba pudiera incluir las armas nucleares con su poder desvastador. El Congreso de Pugwash en 1957 reunió a 22 científicos de la élite mundial que reclamaron de los políticos la prohibición de continuar las investigaciones del núcleo con fines militares.

Imagen: Cecil Powell. http://www.diffusion.ens.fr/vip/tableE01.html


 

El modelo de la capas admite que el núcleo posee una estructura energética de niveles semejante a la estructura de capas electrónicas del átomo. En este sentido reproduce el esquema atómico para el núcleo. Este modelo explica satisfactoriamente la existencia de los números "mágicos", que corresponden al número total de nucleones de los núcleos más estables: 2, 8, 20, 50, 82 y 126. También justifica adecuadamente el valor de los espines nucleares, las grandes diferencias entre los períodos de semi-desintegración de los núcleos alfa-radiactivos, la radiación gamma, etc. No obstante, los valores de los momentos magnéticos muestran discrepancias con los valores experimentales.

 

Otros modelos nucleares más desarrollados han sido concebidos de manera que tienen en cuenta elementos de los anteriores y en este sentido resulta su síntesis. Es preciso aclarar que aún en la actualidad no existe un modelo universal del núcleo capaz de explicar todas sus características.

 

Sin embargo numerosas interrogantes quedaban en pie, entre otras flotaba la pregunta: ¿de dónde proceden los electrones resultantes de la desintegración radiactiva beta? Para responder a esta pregunta el eminente físico teórico suizo Wolfgang Pauli (1900 – 1978) supuso, en el propio 1932, que durante la desintegración beta junto con los electrones se emite otra partícula que acompaña la conversión del neutrón en un protón y un electrón y que porta la energía correspondiente al defecto de masa observado según la ecuación relativista de Einstein. Lo trascendente en la hipótesis de Pauli es que semejante partícula, necesaria para que el proceso obedeciera la ley de conservación y transformación de la energía,  no presentaba carga ni masa en reposo.

 

Esta vez fueron 24 años, la espera necesaria para que la partícula postulada por Pauli y bautizada por Enrico Fermi (1901 - 1954) con el nombre de neutrino,  fuera  observada mediante experimentos indirectos conducidos de modo irrefutable por el físico norteamericano F. Reines (1918 - ). Con este descubrimiento se respaldaba la teoría desarrollada por Fermi sobre la desintegración beta y las llamadas fuerzas de interacción débil entre las partículas nucleares.

 

Pero antes de esta espectacular verificación de la teoría, aún en la memorable y triste década de los 30, el propio Fermi y su grupo de la Universidad de Roma,  inició el camino hacia la fisión nuclear, considerando por el contrario que se dirigía hacia el descubrimiento de nuevos elementos más pesados.

 


Imagen:

www.fi.edu/tfi/

exhibits/bower/

03/physics.html

La perseverancia y la imaginación premiaron al equipo liderado por el científico japonés Masatoshi Koshiba que en 1987 pudo identificar neutrinos,  provenientes de la explosión de una supernova. Para ello debió emplear un tanque gigantesco lleno de agua, ubicado en la profundidad de una mina japonesa hasta donde lograban llegar estas partículas de alto poder de penetración. Los neutrinos al incidir sobre el agua interactuaban y se liberaba un pequeño flash de luz, que podía ser capturado por componentes del detector. Se confirmaban los resultados acopiados durante tres décadas por el astrofísico estadounidense Raymond Davis (1914-2006).

La academia sueca consideró la tarea conducida por estos  investigadores  "más difícil que encontrar un grano particular de arena en el desierto de Sahara" y les concedió el premio Nobel de Física, compartido, en el 2000.


 

En 1934 Fermi y sus colaboradores, pensando en la mayor facilidad que debían tener los neutrones para penetrar en los núcleos respecto a las partículas alfa, bombardearon diferentes sustancias con neutrones. Apoyándose en los resultados anteriores, usaban en calidad de fuente de neutrones una ampolla de vidrio que contenía una mezcla de berilio y gas radón, el cual se conocía como emisor de partículas alfa. Ellos investigaron 60 elementos, de los cuales 40 resultaron radiactivos luego del bombardeo con neutrones.

 

En Berlín, un equipo de investigación compuesto por Otto Hahn (1879-1968), Fritz Strassmann (1902 – 1980) y Lise Meitner (1878 -1968), pretendió verificar los estudios del grupo de Roma e inició el bombardeo de átomos de uranio con neutrones, esperando poder descubrir nuevos elementos más pesados.  En vez de esto, a finales de 1938, Hahn y Strassmann (la Meitner había sido clandestinamente sacada de Alemania ya que peligraba su integridad por su origen judío) descubren no un elemento más pesado como resultado del bombardeo nuclear del uranio sino un elemento más ligero, llamado bario.

 

Sin poder darles una explicación, envían estos resultados inmediatamente a Meitner,  entonces en Estocolmo, donde ella y su sobrino, el físico Otto Frisch (1904 – 1979), investigaron el misterio. Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o un pequeño grupo de partículas como se suponía,  se rompía en dos fragmentes ligeros, cuyas masas, unidas, pesaban menos que el núcleo original del uranio. El defecto de masa, según la ecuación de Einstein, podía aparecer en forma de energía cinética de los fragmentos y factible de transformarse a su vez en calor por frenado de los mismos transformarse en energía.

 

Dos años después, en la Universidad de Berkeley, California, un grupo de jóvenes científicos demostraron que algunos átomos de uranio, en vez de dividirse, absorbían los neutrones y se convertían en las sustancias que había predicho Fermi. Los investigadores de Berkeley,  Edwin McMillan (1907 – 1991) y Philip Hauge Abelson (1913 – 2004) realizaron experimentos en los que obtuvieron un elemento que poseía un protón más que el uranio, de modo que su número atómico era 93. Se le llamó Neptunio, por el planeta Neptuno, más allá de Urano. Luego, Glenn Seaborg (1912 – 1999) dirigió un colectivo del propio Berkeley, que demostró la conversión de los átomos de Neptunio en un elemento cuyo número atómico era 94. Este elemento fue llamado Plutonio recordando al último planeta de nuestro sistema solar. El primer isótopo descubierto fue el Plutonio 238. Un segundo isótopo, el plutonio 239, resultó ser tres veces más fisionable que el Uranio 235 (el material que finalmente se utilizó en la bomba de Hiroshima). En teoría, 300 gramos podían generar una carga explosiva equivalente a 20.000 toneladas de TNT.

 


Imagen:

www.portierramaryaire.com/

imagenes/hahn_meitner.jpg

En el otoño de 1907   empezó una fructífera colaboración entre Otto Hahn y Lise Meitner. Por entonces, Hahn laboraba en el Instituto Fischer de Berlín y para ingresar a  Meitner, por su condición de mujer, tuvo que solicitar una autorización especial. Luego continuaron  en  el pequeño departamento de radiación del Instituto de Química de la Sociedad Kaiser Guillermo inaugurado en 1912, hasta 1938. Entonces, por su origen judío,  la austriaca Meitner,  se vio obligada a emigrar a Suecia. El resto es conocido, Hahn descubre  las  condiciones en que el núcleo de uranio se escinde; la propia Meitner con su sobrino Otto Frisch, desde Estocolmo, se encargan de apoyarlo en la interpretación física del fenómeno.

 Pero  Meitner, que acuño el término de "fisión nuclear", es despojada de todo reconocimiento sobre el fabuloso descubrimiento.


 

En octubre de 1942, un equipo de científicos dirigido por  Fermi empezó a construir una pila atómica (uranio colocado entre ladrillos de grafito puro) bajo las gradas de un estadio en la Universidad de Chicago. La investigación formaba parte del proyecto Manhattan para la fabricación de la bomba atómica y pretendía demostrar que los neutrones liberados en la fisión de un átomo de uranio podían "disparar" un mecanismo en cadena que generaría una enorme cantidad de energía. La pila atómica de Fermi es precursora de los reactores termonucleares para generar energía eléctrica. Una nueva  fuente energética plantearía nuevos desafíos.

 

El empleo de la energía nuclear y la posición de la mayoría de la comunidad científica

 

Nueve años después de inventada la pila atómica,  y a seis años del holocausto de Hiroshima y Nagasaki, científicos estadounidenses emplearon por primera vez la tecnología nuclear para generar electricidad. En 1951, bajo la supervisión de la Comisión de Energía Atómica se iniciaron las pruebas del funcionamiento de un reactor nuclear experimental instalado en una central eléctrica construida por los Laboratorios Nacionales Argonne en Idaho. El reactor experimental produjo energía suficiente para poner en funcionamiento su propio sistema de puesta en marcha; como llegaría a ser común en todas las plantas de energía atómica, el calor del núcleo haría hervir agua y el vapor impulsaría una turbina.

 

En 1954, los soviéticos abrieron la primera planta nuclear civil en Obninsk. La planta fue capaz de generar sólo 5 MW de energía eléctrica. La planta civil de Calder Hall representó la inauguración del programa nuclear británico en 1956. Pero la primera planta electronuclear comercial fue levantada en 1957 por la compañía Westinghouse en Shippingport, Pensilvania.  Pronto empezaron a funcionar centrales nucleares en todo el  mundo. Al finalizar la centuria  las más de 400 centrales nucleares instaladas en 18 países generaban casi la quinta parte de la producción mundial, que se había decuplicado en la segunda mitad del siglo superando la astronómica cifra de 10 billones de kWh. Francia, líder mundial, producía el 75% de su generación eléctrica en plantas nucleares.

 


Imagen:

www.children

ofthemanhattan

project.org/HF/Photos%20-%20Men/fermi.gif

Enrico Fermi había mostrado virtudes relevantes  como físico teórico  y como investigador experimental liderando el grupo de la Universidad de Roma hasta que emigró de la Italia fascista hacia EEUU para evitar el sufrimiento de su esposa de origen judío. En la Universidad de Chicago, como parte del  proyecto Mahanttan, inventó la manera de controlar la reacción de fisión nuclear. La pila atómica de Fermi es precursora de los reactores termonucleares para generar energía eléctrica. Una nueva  fuente energética plantearía nuevos desafíos. 

Fermi se opuso al desarrollo de los armamentos nucleares en la posguerra y su trágica desaparición, víctima de un cáncer  cuando apenas cumplía los 53 años fue una sensible pérdida para la ciencia.


 

Pero las predicciones de un futuro impulsado por energía atómica resultaron poco realistas. Las centrales nucleares, caras de construir y de mantener, también resultan peligrosas por los residuos radiactivos y la posibilidad de accidentes catastróficos. Entretanto las grandes potencias se esfuerzan por lograr el monopolio de la energía nuclear, preocupadas por el posible desarrollo paralelo de la tecnología nuclear con fines militares, sin dedicar los recursos necesarios para las búsquedas de fuentes alternativas de energía que den solución, no a los proyectos de un modelo neoliberal basado en las leyes del mercado, sino al hambre energética que experimentan vastas zonas del planeta.

 

Por lo menos cuatro accidentes principales han sido registrados en las plantas nucleares. En todos se reporta como causa una combinación de errores humanos (como factor principal) con fallas en el diseño de los equipos. La Organización Internacional de la Energía Atómica (OIEA) ha implantado una escala para categorizar la magnitud de los accidentes (conocida por sus siglas INES) en siete niveles. La categoría máxima está representada por un accidente de consecuencias comparables al ocurrido en la Central de Chernóbil.

 

Resulta sorprendente que en los diferentes informes sobre la catástrofe se acepte la increíble versión de que se sumaran tantas negligencias para desatar la tragedia. Primero, el equipo que operaba en la planta el día del accidente, se propuso, con la intención de aumentar la seguridad del reactor, realizar un experimento a un régimen de baja potencia, que exigía desconectar el sistema de regulación de la potencia, el sistema de emergencia refrigerante del núcleo y otros sistemas de protección. Segundo, los operadores quedaron responsabilizados con la manipulación de las barras de control del reactor y de las 30 barras de la aleación de acero al boro que debieron permanecer bajadas, según establecen como mínimo las reglas de seguridad, sólo quedaron introducidas en el núcleo 8 de ellas. Casi cuatro horas después de iniciada "la experiencia", en la sala de control se dio la señal de alarma de que el reactor experimentaba una subida de potencia extremadamente rápida. Se ordenó bajar de inmediato las barras de moderación pero cumplir el mandato exigió "liberarlas" pues el sistema de descenso no funcionó, y entonces sobrevino la explosión que levantó por los aires el techo de 100 t del reactor provocando un incendio en la planta y lanzando una gigantesca emisión a la atmósfera de productos de fisión.

 

Las consecuencias del "accidente nuclear" han sido evaluadas de muy diferentes maneras por distintas fuentes. Ha quedado reconocido que 31 personas murieron en el momento del accidente, alrededor de 350.000 personas tuvieron que ser evacuadas de los 155.000 km² afectados, permaneciendo extensas áreas deshabitadas durante muchos años. La radiación se extendió a la mayor parte de Europa, permaneciendo los índices de radiactividad en niveles peligrosos durante varios días. Se estima que se liberó unas 500 veces la radiación de la bomba atómica arrojada en Hiroshima en 1945.

 


El 26 de abril de 1986 a las 1:23 horas, explotó el reactor número 4 de la central nuclear de Chernobil. La catástrofe fue el resultado de la combinación de fallas técnicas, de diseño de la planta y sobre todo de errores humanos. Enormes cantidades de material radioactivo fueron lanzadas a la atmósfera contaminando grandes extensiones de Bielorrusia, la Federación Rusa y Ucrania. Las nubes trasladaron el polvo radiactivo hacia vastas regiones del norte europeo. Los modelos matemáticos anunciaron que un incremento no menor al 20% en la tasa normal de cáncer sufrirán los 135.000 habitantes de los alrededores que recibieron una dosis alta de radiaciones.


 

En septiembre de 2005, el borrador del informe del Fórum de Chernobyl (en el que participan entre otros el OIEA, la OMS y los gobiernos de Bielorrusia, Rusia y Ucrania) se predicen 4000 muertes entre las 600.000 personas que recibieron las mayores dosis de radiación. La versión completa del informe de la OMS, publicado en 2006, incluye la predicción de otras 5000 víctimas en áreas significativamente contaminadas de Bielorus, Rusia y Ucrania, con lo que se alcanzarían las 9000 víctimas de cáncer. Esta cifra coincide con la estimación admitida por la Agencia Cubana de Prensa (ACP) que fija entre ocho mil y 10 mil las víctimas, mientras otras 500 mil podrán afectarse por diversos cánceres en los próximos 10 años, muchos de ellos muy lejos del área del accidente.

 

Al informarse sobre la catástrofe varias naciones ofrecieron ayuda humanitaria inmediata a los afectados, además de realizar promesas a largo plazo, que nunca cumplieron. Solo Cuba ha mantenido desde 1990, sin ningún apoyo financiero de institución internacional alguna, un programa de socorro para las víctimas de este accidente nuclear. El sistema de salud de Cuba ha atendido a 18 153 pequeños de Ucrania y Bielorus con diversas enfermedades y ha acogido además a 3 427 adultos acompañantes. Más de 300 infantes con padecimientos hematológicos, 136 con tumores y 1 552 con afecciones dermatológicas, han recibido tratamiento. Se han realizado 14 operaciones cardiovasculares y seis transplantes de médula ósea. Un por ciento alto de los niños de Chernobyl atendidos en Cuba provienen de orfanatos y escuelas para niños sin amparo filial.

 

En el peligroso polo del desarrollo de las armas nucleares también se vieron envueltos eminentes físicos y radioquímicos. A fines de los años 30 el panorama de la 2da Guerra Mundial se presentaba muy complicado. El odioso Reichstag alemán había amenazado con estar desarrollando un arma de potencia desconocida que rendiría a la humanidad a los pies del nazifascismo.

 


Durante las décadas del 20 al 40 el profesor sueco en física-médica  Rolf M. Sievert (1896 – 1966) hizo las más importantes contribuciones al campo de la física clínica. En particular a la solución de los problemas físicos relacionados con el empleo de la radiación en la diagnosis y la terapia.  Sievert desarrolló las bases de como calcular la dosis absorbida para los tumores, nuevos equipos para la irradiación de pacientes, e instrumentos de medición de dosis, entre ellos la mundialmente conocida cámara que lleva su nombre.

A este científico se debe la determinación de los efectos biológicos de la radiación ionizante, con particular énfasis en los efectos que las dosis bajas de radiación ionizante recibida por los radiólogos en su trabajo diario. Hasta su muerte en 1964, Sievert jugó un rol muy activo en la cooperación internacional en el campo de protección y de la medición de las dosis de radiación.  En 1979, la Comisión General de Pesos y Medidas aprobó que la unidad para una dosis de radiación ionizante equivalente llevara su nombre (sievert, Sv).   Imagen: radfys.ki.se/sievert/Sievert.html


 

En 1939 Einstein junto con otros físicos envió una carta  al presidente Roosevelt solicitando el desarrollo de un programa de investigación que garantizara el liderazgo de los aliados en la construcción del arma atómica. Científicos de diferentes generaciones y países concurrieron a la convocatoria del Proyecto Manhattan, para producir el arma atómica antes de que el eje nazifascista pudiera obtenerla. Al finalizar la guerra, el profundo carácter humanista y la inteligente pupila de la mayoría de estos científicos quedaron revelados por la firme oposición mostrada a la continuación de las investigaciones en el arma nuclear.

 

Desde  1942,  Julius R. Oppenheimer (1904 – 1967), físico norteamericano, de origen judío, actúa   como director científico del Proyecto Manhattan para la fabricación de la bomba atómica. Formado en los momentos de esplendor de la Universidad de Gottinga al lado de físicos de la talla de su mentor James Franck (1882- 1964), y su colega Eugene Rabinovitch (1903 -1973), .Oppenheimer mostró una incuestionable capacidad de liderazgo en el círculo de científicos participantes del proyecto. Estimuló una atmósfera de confianza y respeto que produjo enormes progresos. Con consagración  se mantuvo al frente del complejo proyecto, aunque su vida privada se resintió enormemente.

 

Toda una red de establecimientos investigativos, en particular de universidades estadounidenses, y de instalaciones especialmente diseñadas para este propósito se compartieron las tareas del Proyecto Manhattan. Dentro de esta comunidad científica multinacional se destacaba el colectivo estadounidense que creció alrededor del Colegio de Química y del Laboratorio de Radiación de la Universidad de California en Berkeley, y jugó un papel extraordinario en el descubrimiento de radioisótopos y elementos transuránicos, su aplicación en nuevos dominios de la ciencia y la técnica, y también en el desarrollo del arma nuclear.

 

Durante este período, Seaborg era ya uno de los más brillantes radioquímicos de la época, y según se comentó brevemente arriba, dirigió el colectivo que se enfrascó con éxito en la obtención del material nuclear fisionable.  En febrero de 1941, continuó los estudios sobre la fusión nuclear iniciados por McMillan, reclamado en ese momento para investigaciones relacionadas con la guerra, en el nuevo ciclotrón del laboratorio de radiación y descubrió que el Plutonio-239 es fisionable con neutrones lentos producidos en el ciclotrón de 37 pulgadas. Esto demostraba la utilidad del plutonio como componente explosivo en el arma nuclear y lo más importante abría paso al uso del uranio como combustible nuclear para reactores generadores de la energía necesitada por el mundo.

 


Leo Szilard (1898 - 1964), físico de origen húngaro, fue uno de los personajes  que tiene la enorme responsabilidad de haber persuadido a Einstein para alentar en Roosevelt el desarrollo de un programa para la fabricación del arma atómica. Más tarde, formó parte del contingente científico del proyecto Manhattan y junto a Fermi en la Universidad de Chicago, comparte el honor de haber sido coautor de la primera reacción nuclear en cadena. Condenó enérgicamente el lanzamiento de las bombas en Hiroshima y Nagasaki y posteriormente fue un ferviente partidario de la destrucción del arma nuclear.

En 1946 detuvo sus investigaciones en el campo nuclear y se reorientó hacia la biofísica. Imagen:  //omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/31/htm/sec_13.htm htm


 

Casi veinte años más tarde Seaborg intervino de forma relevante en la redacción del Tratado para la Prohibición de Pruebas Nucleares de 1963, cuyo fin era prohibir los ensayos nucleares en el espacio, la atmósfera o bajo las aguas.

 

Pero apenas a dos meses antes del lanzamiento de la bomba atómica en Hiroshima el secretario de la guerra de EU recibió un documento firmado por científicos de las investigaciones conducidas en el Laboratorio de Metalurgia de la Universidad de Chicago, que pasó a la historia como "Franck Report". Entre los firmantes se encontraba Seaborg, y lo encabeza el jefe de la división de Química, el físico y químico alemán, naturalizado en los EU, James Franck (1882- 1964).

 

El copioso documento intenta frenar el lanzamiento de la bomba atómica de forma unilateral por los EU. Su sumario parece redactado más que por científicos por políticos profundos y sensatos que comprendieron, amén de la tragedia que le tocaría vivir a las víctimas de semejante engendro destructivo, el espectro de la guerra fría y el clima de recelos mutuos que se entronizarían en las relaciones internacionales a partir de este momento. Leamos a continuación los convincentes argumentos sintetizados en los últimos párrafos del reporte:

 

"Nosotros creemos que estas consideraciones hacen el uso de las bombas nucleares inadmisible si antes no se anuncia el terrible poder destructivo de esta arma, que con menos de una tonelada, es capaz de arrasar un área urbana de más de 10 millas cuadradas y cuyos efectos a largo plazo no conoce la humanidad.

 

Si los EU fueran los primeros en lanzar este nuevo medio de indiscriminada destrucción sobre el género humano, con seguridad estaríamos sacrificando el apoyo público internacional, precipitaríamos la carrera armamentista y perjudicaría la posibilidad de alcanzar un acuerdo internacional sobre el control futuro de tales armas.

 

Si el gobierno decidiera a favor de una demostración previa de las armas nucleares, entonces tendría la posibilidad de tomar en cuenta la opinión pública de este país y de otras naciones antes de decidir si estas armas deben ser usadas contra el Japón. De esta manera otras naciones podrían compartir la responsabilidad de tan fatal decisión.

 


 

El físico alemán, naturalizado en EU, James Franck (1882- 1964), es en los años del esplendor de Gotinga como plaza fuerte de la Física Cuántica, mentor que inspiró a un círculo de colaboradores entre los que se encontraban: Patrick J. Blackett (1897- 1974), Julios R. Oppenheimer y Eugene Rabinovitch. En 1925, comparte el premio Nobel con Gustav Hertz (1887-1975) por sus investigaciones conjuntas que significaron una prueba experimental de la teoría atómica desarrollada por Bohr.

El  profesor  Franck  fue  uno  de  los  primeros  que  se  manifestó

abiertamente contra las leyes raciales en Alemania y renunció a su cátedra en la Universidad de Gotinga en 1933 como una protesta contra el régimen nazi. Más tarde en 1945 se unió a un grupo de científicos del Proyecto Manhattan para preparar el renombrado Franck Report dirigido al Departamento de la Guerra, urgiendo a que EU no lanzara la bomba atómica contra Japón, y denunciando la peligrosa carrera armamentista que se desataría a partir de este momento. Imagen: http://nucl-a.inha.ac.kr/physics/mphys/main/08-01.html


 

Nosotros urgimos que el uso de las bombas nucleares en esta guerra sea considerada como un problema de la política nacional estratégica mas que una decisión evaluada desde posiciones militares y que esta política sea dirigida al alcance de un acuerdo que permita un control internacional efectivo de los medios de la guerra nuclear".

 

Esta exhortación aunque no alcanza su objetivo principal, ya que en junio de este mismo año la humanidad se despierta aterrorizada ante el holocausto de Hiroshima, queda como un monumento testimonial del rechazo de los científicos al uso de la ciencia para la destrucción e intimidación en los asuntos políticos.

 

Las terribles consecuencias del lanzamiento de la bomba atómica sirvieron de detonante para estremecer la conciencia de un grupo de científicos que pronto comprendieron la horrible significación de trabajar para el desarrollo del armamento nuclear.

 

En plena guerra fría, el propio año del fallecimiento de Einstein, se publica el llamamiento a los científicos que pasa la historia como el Manifiesto de Russel – Einstein. No pudo ser más oportuno este aldabonazo para unir las voluntades de científicos de diferentes credos y orientaciones políticas en la lucha por la paz pero diversas circunstancias no hicieron posible el encuentro propuesto hasta 1957, en que el filántropo estadounidense Cyrus Eaton ofreció la villa de Pugwash en Nova Scotia, Canadá, como sede del evento que pasó a la historia como Primera Conferencia del Pugwash. A partir de entonces se inauguró un movimiento a favor de la solución pacífica de los litigios entre naciones que ha tenido una creciente capacidad de convocatoria entre la comunidad científica con el propósito de examinar los problemas más candentes que aquejan a la especie humana.

 


 Una vez detonada la bomba atómica sobre Japón declaró que la humanidad condenaría la fabricación de esta arma. Luego, aunque aceptó la dirección de la Comisión de Energía Atómica (CEA)  de los EEUU, se opuso públicamente al nuevo plan para fabricar la bomba H. En  1954, J. Edgar  Hoover, director del FBI,

redactó un informe para la Casa Blanca apoyando la acusación de que Oppenheimer era un "agente de espionaje". Por esta acusación  el comité de seguridad de la CEA, aunque sin hallarlo culpable, lo separó de toda participación  en los nuevos proyectos investigativos. En 1963, cuatro años antes de su muerte fue rehabilitado y la CEA le confirió el premio Enrico Fermi.


Imagen:

www.pugwash.org/about/manifesto.htm

El Manifiesto de Einstein-Russell, una urgente convocatoria en plena guerra fría a la comunidad científica para definir las estrategias a seguir con el propósito de librar al planeta del espectro de las armas nucleares, encuentra en Rotblat uno de los firmantes junto a Max Born, Percy Bridgman, Leopold Infeld, Frederic Joliot-Curie, Herman Muller, Cecil Powell, Hideki Yukawa y Linus Pauling.

El ultimo párrafo del manifiesto reza:

"Nosotros apelamos como seres humanos a seres humanos. Recuerden su humanidad y olviden el resto. Si puedes hacer esto, el camino quedara abierto para un nuevo paraíso; si  no puedes quedará ante ti el riesgo de la muerte universal".


Entre los que mostraron un temprano alistamiento en la causa a favor de la paz y el desarme se encuentra el físico nuclear polaco Joseph Rotblat (1908 - 2005) que apoyó sin reservas este Manifiesto firmado por Einstein dos días antes de su muerte y por otros nueve científicos relevantes en el campo de la Física Nuclear.

 

Rotblat que había trabajado en el laboratorio de Chadwick en Liverpool en el desarrollo de experimentos básicos para evaluar la factibilidad de fabricar una bomba atómica, se ve enrolado en la delegación británica que asiste en 1941, luego de la entrada de los Estados Unidos en la guerra y la decisión del gobierno de iniciar el Proyecto Manhatann, al Laboratorio de los Álamos, Nuevo México. Se contó entre el grupo de científicos  que tan pronto comprendieron que la amenaza fascista había desaparecido, abandonaron inmediatamente el proyecto.

 

En 1950 Rotblat se traslada al Colegio Medico del Hospital de San Bartolomé de la Universidad de Londres, donde su carrera profesional fue orientada a la aplicación de la Física Nuclear a la Medicina, desarrollando trabajos pioneros en radiología, radioterapia con acelerador lineal, y radiobiología.

 

Pero la principal contribución de Rotblat al desarrollo de la paz mundial fue la organización de aquel movimiento que naciera del Manifiesto de Russel – Einstein en la pequeña villa de Pugwash. A partir de este momento casi una vez al año se reúnen más de 100 participantes de unos 40 países, principalmente de USA, Rusia y Gran Bretaña con el propósito de evaluar las vías para lograr un mayor entendimiento y viabilizar acuerdos internacionales en materia de regulaciones y prohibiciones de desarrollar nuevas generaciones de armamentos nucleares. Rotblat es durante largos periodos secretario general del movimiento (1957 - 1973), su presidente desde 1988 – 1997 y en 1995 resulta galardonado con el Premio Nobel de la Paz.

 

Otra gran figura en el activismo a favor de la paz y la comprensión entre los pueblos es el físico –químico estadounidense Linus Pauling (1901- 1994). Su esposa Ava Helen Miller se interesó primero que Pauling por los temas de los derechos humanos, la paz y la prohibición de los ensayos nucleares llegando a ser miembro de la Liga Internacional de Mujeres por la Paz y la Libertad. Pero pronto Linus que era ya un profundo conocedor de la estructura de las moléculas, y de su transmisión a través de la herencia, despertó una honda preocupación por los efectos potenciales malignos de las emisiones nucleares sobre las estructuras de las moléculas humanas.

 


Ya a los 30 años Rotblat se desempeña como director asistente del Instituto de Física Nuclear de la Universidad Libre de Varsovia y en el inolvidable 1939 logra una estancia de un año de trabajo  en la Universidad de Liverpool para investigar en el laboratorio del profesor James Chadwick. Poco después, las tropas hitlerianas invaden a Polonia dando paso a la 2da Guerra Mundial. Su esposa que debía acompañarlo a Inglaterra tan pronto restableciera su estado de salud, muere a los pocos meses de la ocupación nazi a Varsovia, victima de las dramáticas condiciones en que fueron hacinados los judíos en el ghetto de la capital polaca.

 Supo compartir su larga vida entre una brillante actividad profesional como pionero de la radiobiología con una consagración total a la causa de la paz. En 1995 recibe el Premio Nobel por la Paz. 

Imagen: education.guardian.co.uk/higher/research/story/0,,1561452,00.html


 

Desde fines de los cuarenta, Pauling, se afilió al Comité de Emergencia organizado por Einstein entre los científicos atómicos, y sirvió como activista de apoyo de muchas organizaciones por la paz. Intentó demostrar con cálculos la probabilidad de las deformaciones congénitas en las futuras generaciones resultantes de los productos de la fisión nuclear emitidos por las pruebas nucleares, y los publicó; protestó por la producción de la bomba de hidrógeno, abogó por la prevención de la proliferación de las armas nucleares; y promovió la suspensión de las pruebas de armas nucleares, como un primer paso hacia el desarme multilateral. En 1958, Pauling presentó en Naciones Unidas la petición firmada por más de diez mil científicos de muchas naciones de suspender las pruebas nucleares. Por esto debió rendir cuentas al Comité Senatorial de Seguridad Interna que deseaba obtener los nombres de los científicos firmantes de esta petición. En 1962 recibió su segundo premio Nobel, este por su relevante contribución a la paz mundial. El primero por sus aportaciones a la comprensión de la naturaleza del enlace químico.

Muy a pesar de la actividad de los hombres de ciencias por frenar la carrera de las armas y detener los nuevos desarrollos del arma atómica, la lógica de la espiral armamentista había alcanzado al arma nuclear.

 


Las autoridades rusas se dirigieron al físico soviético Abraham F. Ioffe (1880 -1960) para conducir el programa soviético de fabricación de la bomba atómica. Ioffe en la década de los 30 era toda una autoridad en la Física Nuclear. Al graduarse en 1902 en el Instituto Tecnológico de San Petersburgo había obtenido su doctorado en la Universidad de Munich, trabajando durante dos años en el Laboratorio de Wilhelm Roentgen, y luego de regreso a Rusia, había fomentado la creación de la Escuela Soviética de Física.

Imagen: www.cultinfo.ru/fulltext/1/001/009/001/229527398.jpg

Ya con 60 años, Ioffe rechazó la designación y propuso al físico Igor V. Kurchatov  (1903 -1960), el constructor del primer ciclotrón soviético, como organizador del proyecto. En  agosto de 1953 detonó la primera bomba H soviética. Kurchatov más tarde se dedicó al uso pacífico de la energía nuclear y deploró la continuación de los ensayos atómicos. (En la imagen: Igor Kurchatov)


El estado de plasma caracteriza al conjunto de sobresalientes propiedades que exhiben los gases a altas temperaturas,  totalmente ionizados. En 1950, el Premio Nobel soviético Ígor Yevguénievich Tamm (1895-1971) sugirió por primera vez el empleo de un dispositivo que mantuviera la confinación magnética del hidrógeno en estado de plasma para lograr la reacción termonuclear controlada. A pesar de la revolución energética que presupone el dominio de la energía asociada a la fusión nuclear los problemas que deben ser superados son de tal

magnitud que medio siglo después continúan las prometedoras investigaciones en este campo. Imagen: http://www.peoples.ru/science/physics/tamm/


 

Cuando el presidente Truman ordena la fabricación de la Bomba H, luego del primer ensayo atómico soviético, se encarga del proyecto al eminente físico de origen húngaro Edward Teller (1908-2003). Teller, que había recibido una formación académica en Alemania y trabajado en Munich en el equipo del propio Heisenberg,  emigró hacia Estados Unidos huyendo de la represión de la Alemania fascista. En Estados Unidos se unió al proyecto Manhattan y en Los Álamos se mostró como un  defensor entusiasta de la continuación del programa de fabricación de nuevas armas nucleares. Esta vez la conquista se enfilaba a liberar la colosal energía asociada a la fusión nuclear. El 1 de noviembre de 1952 explotaba la primera bomba de hidrógeno (nombrada Mike) con la fuerza equivalente a 500 bombas como la que había destruido a Hiroshima. Desde California, Teller pudo registrar el impacto sísmico que produjo y exclamó alegremente: "Es un chico". Un "chico" que podía cegar la vida de millones de seres... 

 

Como ya apreciamos en el caso de dos personalidades como Szilard y Rotblat, una trascendente orientación de los físicos nucleares se dirigió hacia la solución de problemas en el campo de la biología. Un notable impacto en los estudios de los procesos biológicos tuvo el descubrimiento del isótopo radioactivo del carbono –14. Pero no solo la biología resultó beneficiada con este hallazgo, la técnica de datación con el carbono –14 provocó una revolución en los ámbitos de la arqueología, y la geología.

 

Los autores de este descubrimiento fueron dos jóvenes científicos que en la década del 30 formaron parte de un impresionante staff de físicos y químicos agrupados en torno al joven director del Laboratorio de Radiación de la Universidad de Berkeley, inventor del ciclotrón, Ernest O. Lawrence (1901-1958). Martín D. Kamen (1913-2002) y Samuel Ruben (1913-1943) vieron sus planes inmediatos postergados por su enrolamiento en investigaciones para los servicios de la guerra y, a partir de estos momentos, sufrieron una verdadera tragedia.

 

El paralelismo en las vidas de Ruben y Kamen supera el marco profesional. Ambos nacieron en 1913. Kamen había nacido en Toronto de padres inmigrantes, la madre de la región del Báltico, el padre de Bielorrusia. Los padres de Ruben eran polacos. En 1936, Kamen había defendido su grado de doctor en la temática de la interacción protones-neutrones en la Universidad de Chicago. Ruben, dos años, después recibió el doctorado por la Universidad de California, Berkeley, y el tema central de su disertación estuvo vinculado con el empleo del fósforo radioactivo como trazador para estudiar procesos biológicos.

 


La historia profesional de Samuel Ruben se entrelaza con la de su compañero Martin D. Kamen. A partir de 1937 una alianza productiva se establece entre estos dos jóvenes investigadores de áreas complementarias en Berkeley. En 1940 anuncian el descubrimiento del isótopo del carbono –14 que prometía, por su tiempo de vida medio, una nueva época como trazador radioactivo. A la entrada de los E.U. en la II Guerra Mundial, son reclamados por diferentes laboratorios para estudios   relacionadas con la guerra y sus vidas profesionales se separan.

Ya no volverían a encontrarse. Ruben muere trágicamente en un accidente de laboratorio que lo hace inhalar una dosis letal de fosgeno apenas con 30 años, Kamen se ve involucrado en acusaciones de filtraciones de información sensible a los soviéticos que le frenan su desarrollo en el momento más fértil de su trayectoria científica. En la imagen: S. Ruben

Imagen: http://www.life.uiuc.edu/govindjee/Part3/9_Gest_On_Ruben.pdf


 

La razón de su posterior alianza se puede encontrar en los temas hacia dónde dirigieron sus esfuerzos iniciales en la investigación. En 1937, Ed McMillan traslada a esta pareja de jóvenes talentosos de dos áreas complementarias de Berkeley, un encargo de comprobación experimental solicitado por el propio Lawrence. A partir de entonces una tácita división del trabajo opera entre ellos: la producción y caracterización de los isótopos producidos en el ciclotrón sería una responsabilidad de Kamen, mientras su aplicación en la investigación química debía ser tarea de Ruben.

 

En febrero de 1940, se anunciaba, en ocasión de la ceremonia de entrega oficial del premio Nobel de Física (1939) a E.O. Lawrence el descubrimiento del carbono-14. La valoración del significado trascendental del hallazgo destacaba que por medio del ciclotrón, se había obtenido una nueva forma radioactiva del carbono, probablemente de masa 14 y tiempo de vida media del orden de magnitud de algunos años. Sobre la base de su potencial utilidad es la más importante sustancia radioactiva que haya sido creada. Tenían entonces ambos 27 años. Pronto intervendría EU en la Guerra, y sería reclamada la participación de ellos en estudios relacionados con la actividad bélica.

 

Ruben fue solicitado por el Comité Nacional de Defensa para un proyecto que se proponía desarrollar métodos para la determinación de la concentración de gases en el ambiente. Durante la manipulación de una ampolleta de vidrio defectuosa, cargada con fosgeno, escapó el gas y Ruben debió inhalar una dosis mortal del mismo. Un día después, en el otoño de 1943 murió en el Hospital en que fuera internado.

 

En este año de la muerte de Ruben, fue enrolado Kamen en las investigaciones del Laboratorio Nacional de Oak Ridge del Proyecto Manhattan. Pero poco después es separado de este laboratorio cuando Kamen especula con sus colegas sobre la existencia de un reactor nuclear en las dependencias de estas instalaciones y esta información, sumamente sensible, llega a los agentes de seguridad del proyecto. Este suceso es interpretado como una intromisión de Kamen y una inclinación por datos de la seguridad y se decide no sólo su separación del programa sino también someterlo a chequeo personal.

 


El físico estadounidense Martín D. Kamen conocido por su codescubrimiento del carbono –14 en el Laboratorio de Radiación de Lawrence, junto con su colega del Departamento de Química de Berkeley, Samuel Ruben, sufrió las presiones de la cacería de brujas que le hicieron perder su empleo en Berkeley, afectaron gravemente su prestigio personal por la campaña de la prensa amarilla, y lo llevaron a tal depresión que incluso atentó contra su vida. Perdió años fértiles de su carrera, le prohibieron el intercambio necesario con colegas del extranjero al retirarle el pasaporte y debió resistir todo tipo de presiones.

Kamen cerró sus estudios nucleares en 1947, y realizó importantes contribuciones a la bioquímica de la fotosíntesis con el empleo de radiotrazadores. En 1996 recibió el premio Enrico Fermi por el Departamento de Energía de los EU, tenía entonces 83 años. Imagen: imglib.lbl.gov/ImgLib/COLLECTIONS/BERKELEY-LAB/SEABORG-ARCHIVE/Images/97401411.lowres.jpg


 

Un nuevo incidente se crea al reincorporarse a Berkeley. En el transcurso de una velada musical organizada por su amigo el músico Isaac Stern, al cual acompaña en la viola, conoce a dos oficiales rusos, uno de los cuales le pide a Kamen averigüe sobre como puede un compañero aquejado de leucemia acceder a la nueva terapia radioquímica.

 

Los agentes del FBI lo chequeaban y esta "relación" con oficiales rusos es de nuevo interpretada como un motivo para levantar un expediente de investigación. Kamen es despedido de su trabajo en Berkeley. El despido de Kamen fue seguido por un año de negaciones a ofertas de trabajo tanto en puestos académicos como de la industria. Es difícil imaginar las ideas perdidas tras la muerte de Ruben y la suerte corrida por Kamen.

 

En la primavera de 1945 el premio Nobel de Física (1923) Arthur H. Compton (1892 - 1962) lo invita a trabajar en la Escuela de Medicina de la Universidad Washington para conducir el programa del ciclotrón. Sin embargo la enseñanza de la metodología del trazador radioactivo a los profesores y la preparación de materiales radioactivos marcadores para sus investigaciones clínicas, desplazaron el interés de la investigación desde la física nuclear hacia la biofísica. Con la publicación en 1947 de su aclamado texto "Radioactive tracers in Biology", Kamen concluyó su trabajo sobre el C-14.

 

Kamen debió sufrir en estos años la negativa del Departamento de Estado a concederle el pasaporte que le impedía su participación en las conferencias internacionales a las cuales era invitado en calidad de pionero en el trabajo con trazadores radioactivos. Semejante prohibición se extendió desde 1947 hasta 1955. En 1948, de nuevo soportó las presiones del Comité de Actividades Antiamericanas ante la posibilidad de que hubiera filtrado secretos atómicos a los rusos mientras trabajaba en el proyecto Manhattan. La insostenibilidad de los cargos obligó al Comité a revocarlos pero la marca de espía atómico debió llevarla Kamen aún varios años.

 

En 1951, según recoge en su autobiografía, "Radiant Science, Dark Politics", comenzó un litigio legal contra la Compañía Tribuna cuyos periódicos lo identificaron en sus páginas de historias como un científico atómico espía y traidor. Al final, Kamen triunfó, obteniendo una reparación monetaria en el juicio. Pero su rehabilitación ante la historia vino tardíamente ya a los 83 años cuando el Departamento de Energía le confirió el Premio "Enrico Fermi", una de las más altas condecoraciones dadas a los científicos atómicos por el gobierno de los EU.

 


© The Nobel Foundation

Al concluir la guerra, el profesor del Departamento de Química de Berkeley, Willard Libby se traslada al Instituto de Estudios Nucleares de la Universidad de Chicago y allí descubre en 1947 "el reloj radioactivo" del carbono-14. Su técnica de datación de lapsos grandes es una de las aplicaciones más sobresalientes del isótopo de Kamen-Ruben. Un organismo vivo mantiene un intercambio permanente con el medio y por tanto la concentración del C-14 en su constitución se mantiene constante, pero al morir, el C-14 se desintegra a una velocidad constante de acuerdo con su período de vida media de 5730 años.

La intensidad pues de la radiación emitida por el fósil será una medida de "su edad". Una revolución en la arqueología, antropología y geología deviene de la confiabilidad de esta técnica de datación.


 

Algunas tecnologías derivadas de las teorías físicas y su aplicación.

 

Resumir en breves líneas los extraordinarios progresos alcanzados en el siglo XX en materia de tecnología  derivadas de teorías físicas es tarea imposible. Reducimos nuestro propósito a esbozar algunas técnicas de avanzada que emergen de los resultados teóricos más brillantes nacidos y desarrollados en este siglo. 

 

Cuando Roentgen descubre en 1895 los rayos de naturaleza entonces desconocida pero desde ya comprobada su alta capacidad de penetración pronto se aplica para obtener las primeras fotos de los huesos humanos. Su aplicación en Medicina encuentra una rápida difusión y en determinadas circunstancias históricas brilla en esta actividad la célebre Marie Curie. También con relativa rapidez se inaugura una época en que los rayos –X resultan útiles para analizar las sustancias cristalinas o los espectros de emisión de estas radiaciones por los elementos químicos permiten su identificación. Las páginas que siguen abordaran brevemente estos momentos.

 

Con el propósito de apoyar la candidatura para una plaza vacante en la Academia de Ciencias del eminente físico Edouard Branly (1844-1940), que representaba los valores del conservadurismo francés, la prensa reaccionaria francesa no dudó en dañar la imagen de la insigne científica de origen polaco, Marie Curie. El daño se hizo y la candidatura de Marie fue derrotada en 1910 por dos votos. Un año después a su regreso del Congreso Solvay en Bruselas, debió enfrentar una nueva ronda de odio esta vez "acusada" de sostener relaciones con el destacado físico francés Paul Langevin (1872 – 1946). Poco después recibiría la información de la Academia Nobel de haber recibido un segundo Premio, esta vez en la disciplina de Química. De cualquier forma en los primeros meses de 1912, sufrió primero una fuerte depresión nerviosa y luego debió someterse una operación de los riñones. Sólo a fines de este año Marie retornó al laboratorio después de casi 14 meses de ausencia. El escándalo había finalizado y la Academia de Ciencias estaba dispuesta a darle la bienvenida a la mujer que había sido dos veces laureada con un premio Nobel.

 

Pero pronto se pondría a prueba la estatura moral y el patriotismo verdadero que, durante el periodo de la guerra, iba a demostrar Marie por su nación de adopción. Por el otoño de 1914, cuando Alemania declaró la guerra a Francia, la construcción del Instituto de Radio había terminado pero la Curie no había trasladado aún su laboratorio para la nueva edificación. El trabajo del Instituto de Radio podría haber esperado por la restauración de la paz pero la Curie encontró formas de poner su conocimiento científico al servicio del país. En el Instituto de Radio, la Curie entrenó alrededor de 150 mujeres en la técnica de rayos – X que actuaron como asistentes en las unidades radiológicas móviles que fueron llevadas a las líneas del frente. Previamente había encabezado una campaña nacional para adaptar carros de aquellos tiempos como unidades radiológicas móviles que dieran una asistencia inmediata para el tratamiento de los heridos y fracturados en el campo de batalla. El uso de los rayos –X durante la guerra salvó las vidas de muchos heridos y redujo los sufrimientos de los que sufrieron fracturas de todo tipo.

 


Bajo la dirección de Marie Curie el Instituto de Radio en París se convirtió en un centro mundial para el estudio de la radioactividad. Entre 1919 y el 1934, año en que fallece la Curie, los científicos del laboratorio publicaron más de 483 artículos y 31 libros y monografías. Hasta el final de su vida ella continúo sus estudios para aislar, purificar y concentrar el polonio y el actinio. Al mismo tiempo su trabajo estuvo íntimamente relacionado con la producción comercial de las sustancias radioactivas y muchas de sus aplicaciones en la ciencia, la industria y la medicina.

Imagen: http://www.aip.org/history/curie/scandal3.htm

La pareja científica estelar del Instituto, su hija Irene y su yerno Frederic hicieron en 1934 el trascendental descubrimiento de la radioactividad artificial.


 

Cuando los servicios radiológicos ya estaban marchando establemente, Curie cambió su atención hacia el servicio de radioterapia. Comenzó entonces a usar una técnica desarrollada en Dublín para colectar radón, un gas radioactivo emitido continuamente por el radio. Trabajando sola y sin una protección adecuada Madame Curie pudo colectar el gas en ampolletas de vidrio selladas que eran así entregadas a los hospitales militares y civiles para que los médicos empleando agujas de platino lo inyectaran en la zona del cuerpo de los pacientes donde la radiación debía destruir el tejido enfermo. Se inauguraba la época de la radioterapia en la medicina.

 

El redescubrimiento de los rayos –X se produjo cuando el físico alemán Max von Laue (1879 – 1960)  determina experimentalmente la longitud de onda de los rayos –X  al estudiar los espectros de difracción   que experimentan las sustancias cristalinas. Otros pioneros en el estudio de la estructura de los cristales mediante sus espectros de difracción de rayos –X  fueron los físicos británicos, padre e hijo, William Henry Bragg (1862-1942) y  William Lawrence Bragg (1890-1971). El primero fue profesor de Física de universidades inglesas y en el último tramo de su vida profesional ocupo la cátedra de Física de la Universidad de Londres. Su hijo le siguió los pasos en la investigación  y juntos desarrollaron trascendentales estudios sobre la estructura cristalina de importantes sustancias del mundo inorgánico demostrando la utilidad de la técnica como herramienta de investigación para confirmar las teorías cristalográficas. En reconocimiento a los logros cosechados compartieron padre e hijo el premio Nobel de Física de 1915. Nunca antes ni después se ha repetido este acontecimiento. William Lawrence fue sucesor en la Universidad de Manchester del físico nuclear Ernest Rutherford y luego funda en Cambridge, en 1938 el laboratorio de Biología Molecular que se destacará en los próximos años por los estudios fundamentales que desarrolla que cubren todo una época.

 


© The Nobel Foundation

 

Continuadora de los trabajos de los Bragg,  en este campo brilló la actividad de la físico-química británica Dorothy Crowfoot Hodgkin (1910 – 1994). Desde los años 30 Hodgkin empleó el análisis de rayos X para la determinación de las configuraciones moleculares de la penicilina, la vitamina B-12, la insulina, y proteínas. En todos los casos Dorothy introdujo las últimas innovaciones de la técnica computacional Padeció de artritis reumatoide desde su juventud, por lo que debió sufrir de deformación de las manos y continuos dolores  pero  a  todo  esto  supo  sobreponerse y fue madre de tres hijos, una eminente científica, premio Nobel de Química en 1964, y una destacada activista por la amistad y la paz entre los pueblos


 

Otro grande de las primeras décadas en el desarrollo de la espectroscopia de rayos –X fue el físico sueco, primer director del Instituto Nobel de Física Experimental, Karl Manne Georg Siegbahn (1886-1978). Siegbahn no se dedicó a la interpretación de los espectros de difracción sino al análisis de los rayos –X emitidos por los elementos químicos al ser bombardeados por electrones rápidos. En tales casos cada elemento ofrece un espectro de emisión característico. Los espectrómetros construidos por el propio Siegbahn permitían medir y registrar con alta precisión las longitudes de onda emitidas por cada elemento químico. Sus trabajos revelaron información sobre prácticamente todos los elementos químicos, desde el sodio hasta el uranio, lo que facilitó el análisis de sustancias desconocidas y encontraron aplicación en campos tan diversos como la física nuclear, la química, la astrofísica y la medicina.

 

En artículos publicados en la Revista Journal of Applied Physics de 1963 y 1964 el físico sudafricano, naturalizado en EU, Allan M. Cormack (1924 -1998) expusó los principios de una nueva técnica que aplicaba un barrido multidireccional de rayos –X sobre el paciente para luego reconstruir las imágenes de sus órganos con mayor resolución que las técnicas convencionales. Estos trabajos no llamaron la atención de la comunidad de radiólogos hasta que en 1967 el ingeniero  electrónico británico Godfrey N. Hounsfield (1919-2004) sin conocerlos desarrolló  el escáner un equipo que    bajo el mismo principio propuesto por Cormack iba a representar una de las más importantes invenciones médicas del siglo XX: la tomografía axial computerizada (TAC). Los escáneres se empezaron a utilizar  en la década de 1970 y en la actualidad se emplean en muchos países, sobre todo para diagnosticar el cáncer. La tomografía permite un diagnóstico más preciso al obtener imágenes tridimensionales con una resolución mucho mayor.   En 1979 Cormack y Hounsfield compartieron el Premio Nobel de Fisiología y Medicina.

 


El estudio de las fuentes cósmicas de rayos –X se inició en la segunda mitad del siglo XX. Como uno de los fundadores de la Astronomía de Rayos –X se reconoce al físico italiano Riccardo Giacconi (1931-), premio Nobel de Física 2002. En 1962 Giacconi y un equipo de científicos de la NASA enviaron en un cohete un detector de rayos –X con un objetivo diferente al descubrimiento obtenido: el primer agujero negro se registraba en la constelación Escorpión como un potente emisor de rayos-X. A partir de entonces  diferentes  laboratorios  espaciales  de  rayos-X  han

descubierto  explosiones  de  supernovas,  púlsares  de   rayos-X, quásares extragalácticos y otros acontecimientos cósmicos que produzcan  un extraordinario calentamiento de gases o campos magnéticos intensos.    En la década de 1990, un satélite alemán equipado con un telescopio de  rayos X cuyo nombre perpetúa la memoria de  Roentgen (ROSAT) proporcionó una observación detallada de la radiación cósmica de rayos X. La exploración del ROSAT  descubrió casi 60.000 fuentes de rayos X en todo el Universo.

Imagen: http://wisp.physics.wisc.edu/xray/xr_experiments.htm


 

Las ondas mecánicas con una frecuencia de vibración comprendida entre 15 y 20 kHz son registradas por el sistema del oído interno humano. Las ondas de frecuencia superior inaudibles son llamadas ondas ultrasónicas. La génesis de las ondas ultrasónicas esencialmente se asocia con el descubrimiento en 1880 del efecto piezoeléctrico por los hermanos Pierre (1859 – 1906) y Jacques Curie que proporcionó los medios de generar y de detectar las ondas de ultra alta frecuencia.        

 

Las primeras aplicaciones serias de dispositivos piezoeléctricos tuvieron lugar durante la primera guerra mundial. En 1917 un equipo de investigación dirigido por el  físico francés Paul Langevin (1872 – 1946) comenzó a diseñar un detector submarino ultrasónico. El transductor  era un mosaico de cristales de cuarzo delgados encolado entre dos platos de acero (el compósito tenía una frecuencia resonante de aproximadamente 50 KHz), montado en un conveniente dispositivo para la sumersión. Para el fin de la guerra, se había logrado el objetivo de emitir un gorjeo submarino de alta frecuencia y medir la profundidad cronometrando el eco del retorno. La importancia estratégica de su logro no fue pasada por alto por las naciones industrializadas y desde entonces no ha cesado  el desarrollo de transductores del sonar, circuitos, sistemas, y materiales relacionados.

 

Cuatro decádas después de la invención del sonar, apareció un artículo de título sugerente publicado en la Revista Science: “Tomando imágenes con el sonido”. Corría el último mes de 1957 y lo firmaba un físico de la División de Metalurgia del Laboratorio Nacional Argonne, William Nelson Beck (1923 – 1996). Como ocurre con relativa frecuencia el objeto inicial de la investigación fue alterado cuando Beck comprobó que podía recomponer imágenes de los órganos expuestos a ondas ultrasónicas. Ajustando la sensibilidad del sistema de registro fue  posible diferenciar entre carne y hueso.  

 

Con el paso del tiempo, los equipos analizadores de ultrasonido han tenido una gran aceptación en las investigaciones médicas por tres razones fundamentales: permite ver imágenes en tiempo real (en movimiento), es un método de diagnóstico económico en comparación con otros, y por último las ondas ultrasónicas no constituyen radiaciones ionizantes que penetren y dañen al tejido vivo. El término de ecografía con que se reconoce la técnica de exploración clínica que emplea el ultrasonido acusa el principio de su aplicación. El equipo debe emitir ondas ultrasónicas cuyo eco (variable según la naturaleza del tejido reflector) es registrado y finalmente transformado en imagen. Puesto que las ondas ultrasónicas son mejor reflejadas por los órganos que contienen líquidos, estos serán mejor “vistos” lo que hace especialmente útil la técnica de análisis clínico en las áreas de obstetricia (placenta, feto, partes maternas); la ginecología (útero y ovarios); gastroenterología (hígado, vesícula, vías biliares) y urología (riñones, vejiga y próstata).  

 


De Paul Langevin, físico francés de importantes contribuciones a la física del estado sólido y a la mecánica relativista,  Einstein afirmó: “Es indudable que si yo no hubiera publicado mi trabajo, él habría alcanzado su meta, tarde o temprano, y lo habría hecho antes que todos los demás”. Pero su grandeza desborda su valiosa contribución a la Ciencia. Desarrolla una notable lucha por la paz entre las naciones. En 1933, preside el Comité Mundial contra la Guerra y el Fascismo. Con el asalto de las hordas nazis a París es el primer relevante intelectual francés  internado en un calabozo.

Imagen: www.physik.uni-frankfurt.de/~jr/gif/phys/langevin.jpg

 


 

La radiación coherente intensa y direccional producida por el dispositivo llamado láser en una amplia región del espectro electromagnético desde el infrarrojo hasta los rayos – X, es el resultado de un proceso de amplificación de la radiación mediante emisión estimulada de un medio que puede ser un gas, un líquido o un sólido. La radiación láser ha encontrado aplicaciones en el campo de la técnica, la medicina y las investigaciones científicas.

 

En 1917 Einstein introduce el concepto de emisión estimulada y sólo décadas más tarde, en 1954, los físicos soviéticos Nikolai G. Basov (1922- 2001) y Alexander M. Projorov (1916 - 2002) del Instituto Lebedev de Física de Moscú y, de modo independiente, el físico estadounidense Charles H. Townes (1915- ), por entonces profesor de la Universidad de Columbia, utilizan el proceso de emisión estimulada para la fabricación de los primeros amplificadores de microondas (Máser). Por sus estudios en el campo de la electrónica cuántica que anticiparon la técnica de amplificación de las microondas por emisión estimulada de la radiación, Basov, Projorov y Townes compartieron el Premio Nobel de Física en 1964. Pronto se encontraron numerosas aplicaciones para estos dispositivos capaces de enviar microondas de elevada intensidad en cualquier dirección y un resultado inmediato fue el perfeccionamiento de la tecnología de los radares. Los máseres encontraron aplicación por la gran estabilidad de las frecuencias generadas, como reguladores de tiempo en relojes atómicos.

 

No pasan cuatro años sin que Projorov e —independientemente— Arthur L. Schawlow (1921 - 1999) y Townes extiendan los principios de la amplificación por estimulación de la radiación a la luz visible (Láser). En 1958, la pareja de estadounidenses describió a grandes rasgos los principios de funcionamiento del láser en su solicitud de patente. Obtuvieron la patente, pero posteriormente fue impugnada por el ingeniero estadounidense Gordon Gould. En 1977, el Tribunal de Patentes de Estados Unidos confirmó una de las reivindicaciones de Gould en relación con los principios de funcionamiento del láser.

 

Los plazos siguen acortándose y esta vez en 1960 el físico estadounidense Theodore H. Maiman (1927- ) construye el primer láser utilizando un rubí como medio amplificador del láser.  Un año después el físico de origen iraní Alí Javan fabrica un láser utilizando una mezcla gaseosa de helio y neón. El láser de helio-neón resalta por su elevada estabilidad de frecuencia, pureza de color y mínima dispersión del haz.

 


 

Schawlow y Townes se consideran los padres de la espectroscopia de microondas al describir las bases de esta técnica en un texto clásico en 1958. Más adelante Schawlow continúa aplicando la radiación coherente del visible y del infrarrojo a nuevas técnicas de la espectroscopia molecular. En 1981 Schawlow recibe el premio Nobel de Física por sus investigaciones sobre el láser y su aplicación en la espectroscopia. También este año la Academia Sueca reconoció la labor del físico holandés, doctorado en 1948 en la Universidad de Leiden, y profesor de la Universidad de Harvard desde 1951, Nicolaas Bloembergen (1920- ).

Bloembergen elaboró nuevas leyes de la óptica para la interacción entre la radiación intensa del láser y la sustancia  y las utilizó en la puesta a punto de nuevas técnicas de espectroscopia láser. La aplicación de estas técnicas contribuyó al análisis de las estructuras complejas de sustancias biológicas. Imagen: © The Nobel Foundation


 

A lo largo de la década de los sesenta se investigan con éxito diferentes medios de estimulación. En 1962 se fabrican los primeros láseres de semiconductores en varios laboratorios del mundo. Este tipo de laser está integrados por una unión entre capas de semiconductores con diferentes propiedades que confina la cavidad del láser mediante dos límites reflectantes. Se logra así una estructura de láser compacta.  En la actualidad, entre los usos más comunes de los láseres de semiconductores se encuentran los reproductores de discos compactos y las impresoras láser.

 

En 1931 el físico estadounidense Robert Jemison Van de Graaff (1901-1967) inventó la máquina electrostática conocida como generador de Van de Graaff capaz de producir las altas tensiones requeridas para acelerar partículas con las cuales estudiar transformaciones nucleares. Poco después Ernest O. Lawrence (1901-1958) inventa un acelerador de micropartículas, el ciclotrón, que abría nuevas horizontes a las investigaciones de los procesos de fusión nuclear pronosticados por Fermi. Lawrence, profesor titular de la Universidad de Berkeley a los 29 años, fundó el Laboratorio de Radiación que en alianza productiva con el Colegio de Química   dirigido por el veterano Gilbert Newton Lewis (1875 –1946) posibilitó el descubrimiento de los elementos transuránicos y de numerosos radioisótopos de gran utilidad como trazadores en investigaciones biológicas y en aplicaciones médicas.  En 1939 recibe el Premio Nobel de Física. 

 

El descubrimiento de los 22 elementos transuránicos con número atómico superior a 92 (que caracteriza al uranio) fue posible gracias a los aceleradores de partículas. Sólo tres de estos elementos fueron producidos en los reactores nucleares por procesos de fusión mediante el bombardeo con neutrones rápidos, y de desintegración radiactiva. Así cuando el uranio- 238 es bombardeado con neutrones se convierte en el uranio -239 que experimenta la beta desintegración para producir neptunio 239Np93 y plutonio 239Pu94. El plutonio-239 cambia a americio 241Am95 por bombardeo de neutrones y posterior desintegración beta del plutonio-241.

 

Los elementos transuránicos desde número atómico 96 y más alto son todos fabricados mediante aceleración de un pequeño núcleo (tal como He, B, o C) en un acelerador de partículas cargado para colisionar con un núcleo pesado marcado (a menudo de un núcleo transuránico previamente producido).

 


La contribución de Glenn Seaborg al desarrollo de la radioquímica ha sido impresionante. Su equipo participó en el descubrimiento de 10 elementos transuránicos, entre ellos el plutonio, elemento esencial en la fisión nuclear. Compartió en 1951 el Premio Nobel de Química con el físico estadounidense Edwin McMillan (1907 –1931). Una amplia variedad de radionúclidos empleados en la lucha contra el cáncer y otros fines médicos como el yodo-131 y el cobalto -60 fueron también "fabricados" bajo su dirección.

Narra Seaborg en su autobiografía que una satisfacción adicional recibió cuando su propia madre prolongó su vida durante varios años al recibir el tratamiento con yodo- 131. Los descubridores del elemento 106 propusieron nombrarlo Seaborgium (Sg) y en 1997 la IUPAC anunció su aprobación.

Imagen: www.atomicarchive.com/Bios/SeaborgPhoto.shtml


 

A los descubrimientos del Laboratorio Nacional Lawrence se sumaron otros dos laboratorios de relieve internacional que fundados en la segunda mitad del siglo XX asumieron como direcciones fundamentales de la investigación la síntesis de nuevos elementos pesados y superpesados, el estudio de sus propiedades físicas y químicas así como la investigación de las propiedades de sus desintegraciones radioactivas. Una sobresaliente actuación en estas complejas tareas ha caracterizado la gestión del Laboratorio de las Reacciones Nucleares de Flerov perteneciente al Instituto Conjunto para la Investigación Nuclear de Dubna, a unos 160 km de Moscú y el Laboratorio de Investigación de Iones Pesados en Darmstadt, Alemania.

 

La naturaleza y complejidad de los problemas que debieron superar estos colectivos se entiende mejor cuando se conoce que los tiempos de vida de los nuevos elementos resultan extraordinariamente breves, los rendimientos de las reacciones de fusión son extremadamente bajos mientras los rendimientos de los núclidos secundarios que interfieren con la identificación de los nuevos elementos son altos. Por consiguiente se necesita contar con métodos de detección ultrarrápidos y específicos que identifiquen sin ambigüedad los nuevos núcleos.

 

Complicados experimentos sobre la síntesis de los nuevos núcleos fueron con frecuencia conducidos paralelamente en las tres instituciones. Como consecuencia de esta simultaneidad se origina la polémica sobre la prioridad de los descubrimientos. Para resolver este problema en 1986, de acuerdo con una decisión unánime de la Unión Internacional de Química Pura y Aplicada (IUPAC) y la Unión Internacional de la Física Pura y Aplicada, se constituyó un grupo especial de trabajo compuesto por físicos y químicos para trabajar en el criterio de reconocer la prioridad en el descubrimiento de los nuevos elementos químicos.

 

Entre los 80 y los 90 el Laboratorio de Darmstadt, cosechó significativos éxitos en el terreno de la síntesis de nuevos elementos pesados. El equipo encabezado por el físico alemán Peter Ambruster participó en el descubrimiento de los elementos Bohrio (Z=107, 1981), Hassio (Z=108, 1984), 109 Meitnerio (Z= 109, 1982); Darmstadtio (Z=110, 1994) y Roentgenio (Z=111, 1994).

 


Durante 30 años el académico soviético Georgy N. Flerov (1913 – 1990) fue director del Laboratorio de Reacciones Nucleares que fundó en 1956 en Dubna. Sus colaboradores que llegaron a Dubna en plena juventud reconocieron el clima de confianza y de libertad fomentado por Flerov que posibilitó en una década el liderazgo alcanzado por esta institución. En 1995 el grupo internacional de trabajo adjudicó la prioridad en la síntesis de los elementos 102-105 al laboratorio de Flerov. Además el laboratorio recibió un reconocimiento por su destacada contribución al descubrimiento de los elementos 106 - 108.

En 1997, en el Congreso de la Unión Internacional de Física Pura y Aplicada, el elemento 105 fue llamado Dubnium. El sucesor de Flerov al frente del laboratorio fue el profesor Yuri Ts. Oganessian, uno de los descubridores más fecundos de elementos transférmicos de fines del siglo XX. En 1998 se anunciaba el descubrimiento del Ununquad (Z=114). Imagen en : flerovlab.jinr.ru/flnr/index.html


 

El camino iniciado por Kamen en la utilización de los isótopos radioactivos como trazadores de procesos biológicos resultó clave en la identificación definitiva del agente responsable de la transmisión hereditaria. La comunidad científica hacia finales de los cuarenta no había sido convencida por las pruebas experimentales presentadas por el colectivo del Instituto Rockefeller de Investigación Médica encabezado por el inmunólogo estadounidense Oswald Theodore Avery (1877-1955) que demostraban que era el ADN, y no otras posibles sustancias como el ácido ribonucleico (ARN) o las proteínas, el que transmitía las características hereditarias. Tuvieron que pasar ocho años más para que Alfred D. Hershey (1908 – 1997) y Martha Chase (1928 – 2003) en 1952, utilizando bacteriófagos marcados con los isótopos radioactivos S-35 o P-32 (el azufre como elemento químico propio de las proteínas y el fósforo del ADN) demostraran de manera irrefutable que el ADN viral llevaba la información genética responsable de la síntesis de los compuestos proteicos que constituyen la cápside del virus. Es decir, los genes son ADN. En 1969, Hershey compartió el premio Nobel con Salvador E. Luria (1912- 1991) y Max Delbrück (1906 -1987) "por sus descubrimientos en relación con el mecanismo de replicación y estructura genética de los virus".

 

Una vez aceptado el significado genético del ADN, el paso obligado siguiente era determinar la estructura que explicara las propiedades mágicas de la replicación y la mutación. Los nombres de dos científicos británicos y un estadounidense se enlazan en el trascendental descubrimiento de la estructura de doble hélice del ácido desoxirribonucleico. Sin embargo son muchos los que reclaman un merecido espacio a un nombre de mujer: la prematuramente desaparecida Rosalind Franklin (1920 -1958).

 

Un baluarte en la aplicación y desarrollo de estos métodos lo encontramos en el Laboratorio Cavendish de Cambridge. En este laboratorio se concentraron recursos materiales y capital humano que forjó una comunidad con un nivel de primera línea. El físico británico Francis H. C. Cricks (1916- ) y el bioquímico estadounidense James D. Watson (1928- ) coincidieron en los primeros años de los cincuenta en el Cavendish. Contaban en el arsenal de antecedentes con el principio de complementariedad de las bases nitrogenadas establecido experimentalmente por el químico checo Erwin Chargaff (1905- 2003), los modelos de estructura helicoidal propuestos para las proteínas por Linus Pauling, y las imágenes de los espectros de difracción de rayos X obtenidos por Maurice Wilkins (1916- ), y sobre todo por la química – física Rosalind Franklin (1920 – 1958).

 


A fines de 1951 Rosalind Franklin había obtenido los espectros más nítidos del ADN hasta la fecha, y de acuerdo con una práctica reconocida presentó en una conferencia en el King’s College sus resultados. Su interpretación de los datos espectrales conducían a una estructura molecular formada por dos o cuatro cadenas helicoidales entrelazadas, integradas por azúcares y fosfatos, con bases nitrogenadas orientadas hacia la parte interior de la hélice.

Watson se encontraba entre el auditorio que escuchaba  a la Franklin. Imagen: www.genome.education.ca

La historia del descubrimiento de la estructura del ADN concluye con los aplausos recibidos por el trío integrado por Wilkins, Crick y Watson. Rosalind, que víctima de un cáncer muere prematuramente con 34 años, se ha considerado un ejemplo de la discriminación de la mujer aún en el campo de la ciencia en época tan reciente como la segunda mitad de este siglo.


 

La integración de estas fuentes con una imaginación creativa desbordante los condujo a publicar en 1953 dos artículos en par de meses. Publicaron primero en la revista "Nature", la descripción, en algo más de una página, del modelo estructural de la doble hélice y luego en el segundo "Implicaciones genéticas de la estructura del ácido desoxirribonucleico" justifican cómo el modelo propuesto es capaz de explicar dos propiedades fundamentales del material hereditario: la de conservarse a sí mismo (replicación) y la de cambiar (mutación). En 1962 Crick, Watson y Wilkins compartieron el premio Nobel de Fisiología y Medicina. La evolución de los acontecimientos luego de sus publicaciones ratifica la importancia de la teoría para alumbrar la práctica. Se tornaba más claro y firme el despegue de la ingeniería genética.

 

En la década de los cincuenta, una contribución extraordinaria al campo del análisis estructural de las sustancias orgánicas fue realizada por el físico estadounidense Félix Bloch (1905 – 1983), premio Nóbel de Física en 1952, al desarrollar la Resonancia Magnética Nuclear. Pronto esta técnica se difundió por los laboratorios de investigación, contribuyendo de manera especial a este esfuerzo de expansión el físico-químico suizo Richard Ernst (1933 - ), premio Nóbel de Química en 1991, por el diseño y construcción de una nueva generación de equipos de alta resolución, y el desarrollo paralelo de la teoría para ampliar el alcance de su aplicación.

 

Un nuevo salto se produciría durante la década de los ochenta cuando el químico suizo Kurt Wuthrich (1938- ), premio Nóbel de Química del 2002, desarrolló la idea sobre cómo extender la técnica de Resonancia Magnética Nuclear al estudio de las proteínas. En muchos aspectos el método de RMN complementa la cristalografía de rayos X, pero presenta la ventaja de estudiar la molécula gigante de la proteína en solución, es decir en un medio que se asemeja a cómo ella se encuentra y cómo funciona en el organismo viviente. Ahora la técnica de RMN puede también usarse para los estudios estructurales y dinámicos de otros biopolímeros tales como los ácidos nucleicos que dirigen el dominio de la información hereditaria. En esta década de los ochenta, se producen equipos de RMN que ofrecen imágenes de los tejidos internos del organismo, convirtiéndose en una técnica muy útil para el diagnóstico de enfermedades especialmente para el examen de la cabeza, cuello y cerebro.

 


La microbiografía del joven Félix Bloch es la de aquel talentoso estudiante universitario suizo que tiene la oportunidad de asistir a los cursos de Debye y Schrödinger, que luego traba relaciones en Leipzig con Heisenberg, y más tarde conoce a la élite de la Física Teórica de la época. Su origen judío le obliga en la época de la Alemania fascista a emigrar hacia Estados Unidos y allí enrolado en el programa de Los Álamos se familiariza con los adelantos más novedosos de la Electrónica.

Al término de la Guerra, sus trabajos apuntaban al nacimiento de una nueva técnica: la Resonancia Magnética Nuclear. Imagen: © The Nobel Foundation


 

En la década del 30, el físico e ingeniero electrónico alemán Ernst A. Ruska (1906 – 1988), premio Nóbel de Física en 1986,  elaboró los principios de funcionamiento y diseñó el primer microscopio electrónico. Al comienzo del 45, cerca de 35 instituciones científicas fueron equipadas con este equipo. Los modernos microscopios electrónicos capaces de ampliar la imagen del objeto unos dos millones de veces se fundamentan en las propuestas técnicas de Ruska. Una nueva generación de microscopios fue propuesta hacia la década de los sesenta, cuando el físico suizo Heinrich Rohrer (1933- ), quien compartió el premio Nóbel de Física en 1986 con Ruska,   desarrollara  la técnica de microscopía electrónica de barrido por efecto túnel en el laboratorio IBM de Zurich. Con esta técnica se detectan imágenes con resolución atómica. Las posibilidades brindadas por la microscopía electrónica fueron aprovechadas para la obtención de imágenes tridimensionales de virus, proteínas y enzimas. En este propósito sobresale la obra de Aaron Klug (1926- ), biólogo molecular, lituano de nacimiento, surafricano por crianza, y británico según adopción, que mereció el Nóbel de Química en 1991.

 

La espectrometría de masas es en la actualidad una de las más potentes técnicas analíticas con que cuenta el químico. El inicio de su aplicación data del registro de los espectros de masas de moléculas sencillas de bajo peso molecular obtenidas por J.J. Thomson en 1912. Los primeros prototipos de espectrógrafos, siguiendo los mismos principios básicos de los empleados hoy día fueron principalmente desarrollados por Francis W. Aston (1877 – 1945), quien descubrió un gran número de isótopos (elementos con igual carga nuclear pero que difieren en los índices de masas) y fue laureado por estas aportaciones con el premio Nóbel de Química de 1922.

 

El equipo para obtener tales espectros debía ser capaz de: a) producir iones gaseosos a partir de las moléculas a investigar; b) separar estos iones de acuerdo con la relación carga: masa; y c) medir la abundancia relativa de cada ión. En la década del cuarenta ya se habían fabricado espectrógrafos para analizar sustancias orgánicas de peso molecular medio; a finales de los cincuenta se demostró el papel de los grupos funcionales sobre la fragmentación directa ampliándose la capacidad de los equipos para determinar estructuras orgánicas; y ya hacia los setenta el perfeccionamiento de los equipos alcanzaba una sensibilidad que permitía trabajar con masas de muestras del orden de una millonésima de gramo. 

 

La aplicación de la espectrometría de masa, sobre todo acoplada a la Cromatografía Gaseosa, técnica capaz de separar componentes de una muestra, se extiende en la actualidad al análisis de sustancias dopantes o drogas; el control de los alimentos; y los ensayos ultrarrápidos para determinar los niveles de contaminación ambiental.

    


Imagen:

© The Nobel Foundation

Francis Aston fue invitado por J.J. Thomson a trabajar  en el Laboratorio de Cavendish durante la primera década del XX. Con motivo de la primera Guerra Mundial se ve obligado a abandonar sus investigaciones fundamentales y no es hasta 1919 que se reincorpora al trabajo en Cambridge. En estos años desarrolla la espectrometría de masas y con su aplicación descubre más de 200 isótopos de ocurrencia natural. Harold C. Urey (1893 -1981) descubre en 1934 con ayuda de esta técnica el deuterio (el isótopo de masa doble del H). El deuterio es el elemento clave en la fabricación de las armas de fusión nuclear (la llamada bomba de hidrógeno).


 

Pero hasta esta altura la espectrometría de masas no servía para la determinación de estructuras de moléculas gigantes como lo son importantes biopolímeros. La primera etapa de la técnica exige el paso de las macromoléculas a la fase gaseosa lo cual implica la ocurrencia de indeseables transformaciones estructurales que empañaban los resultados. Dos investigadores en la década de los ochenta propusieron los procedimientos para burlar este obstáculo. El estadounidense John B. Fenn (1917- ) propuso dispersar la proteína bajo estudio en un solvente y luego atomizar la muestra sometiéndolas a un campo eléctrico. Cómo el solvente se evapora las microgotas se convierten en moléculas de las proteínas totalmente desnudas. El método se conoce como ionización por electrodispersión (en inglés las siglas ESI, corresponden a electrospray ionization).

 

Las técnicas de análisis de los componentes de la atmósfera y sus contaminantes han resultados decisivos para la comprensión y toma de opiniones en relación con los cambios climáticos globales promovidos por actividad irracional del hombre en la superficie del planeta.

 

Hacia la mitad de la década de 1950 el biofísico británico James E. Lovelock (1919 - ) se ocupaba de diseñar una serie de detectores de ionización para su empleo en los cromatógrafos de gases, cuando uno de ellos, el detector de captura electrónica vino a revolucionar las técnicas de análisis de los gases en la atmósfera y con ello condicionó el desarrollo de una conciencia ambiental. Este detector fue patentado en 1957 y aún hoy se cuenta entre los más sensibles métodos para el análisis de aquellas sustancias químicas que constituyen una amenaza para el medio ambiente.  Su empleo condujo al descubrimiento de la distribución de los residuos de pesticidas en el ambiente natural que sirvió de base para el libro de la bióloga Rachel Carson (1907 – 1964) "La Primavera Silenciosa" que alertó a la conciencia pública sobre los peligros del uso irracional de los pesticidas. Una década más tarde Lovelock se encargó de demostrar, al menos con algunos ejemplos relevantes, que  la propia biosfera se ocupa de engendrar, reproducir y regular sus propias condiciones ambientales.

 

En 1971,  Lovelock detectó ciertas sustancias que actúan como reguladoras del equilibrio térmico y descubrió sus fuentes de emisión. Resulta que durante el verano   las algas costeras proliferan, incrementando sus emisiones del dimetilsulfuro (DMS) y estas moléculas actúan como núcleos de condensación para el vapor de agua, lo que eleva la concentración nubosa, oscurece por consiguiente la superficie y provoca el descenso de las temperaturas. Por el contrario el frío del invierno inhibe la multiplicación de las algas en los océanos, reduce sus emisiones, con lo que disminuye la concentración de dimetil sulfuro, se forman menos nubes y comienza una nueva escalada térmica.

 


Imagen:

© The Nobel Foundation

El joven ingeniero japonés Koichi Tanaka (1959- ) reportó en 1987 una técnica diferente para salvar la etapa crítica en el análisis espectral de las biomoléculas. La propuesta consistió en someter la muestra en estado sólido o viscoso al bombardeo con rayos láser, lo que llamó deserción suave por láser (SLD). Cuando la muestra absorbe la energía de la pulsación láser "explota suavemente" en pequeños fragmentos. Las moléculas se liberan unas de otras quedando intactas como moléculas cargadas suspendidas que son aceleradas por  un  campo  eléctrico  en  una  cámara  de  vacío  dónde  el  tiempo  de  vuelo (TOF, time of flight) es medido.

Con el empleo de la técnica de Tanaka los tests para determinar diferentes enfermedades como la malaria y los cánceres de próstata y mama, se verifican con total fiabilidad en unos minutos...


 

Aparte de los cinturones de las selvas tropicales y de las plataformas continentales un tercer cinturón mostró su sensibilidad a la actividad del hombre, y por sorpresa, este se ubica fuera de los límites de la biosfera escapando del dominio de ésta, pero ejerciendo una notable influencia en su protección: la capa de ozono.

 

Mientras el ingeniero mecánico estadounidense Thomas Midgley (1889 – 1944) evaluaba la utilización de una nueva generación de refrigerantes potencialmente inofensivos, un científico inglés Gordon M. B. Dobson (1889 - 1976) en la Universidad de Oxford iniciaba la observación y estudio del ozono atmosférico. Hoy sabemos que las tres mil millones de toneladas de ozono que se acumulan en la estratosfera  es en sentido estricto un manto difuso del trioxígeno (molécula triatómica del oxígeno)  que alcanza una concentración en el intervalo de los 300 - 500 Dobson. La unidad Dobson,  propuesta para perpetuar la memoria de este pionero en la determinación del ozono atmosférico, representa una molécula por cada 109 moléculas, es decir la concentración de ozono es muy baja, entre 03, - 0,5 ppm (partes por millón). 

 

Por entonces sus investigaciones descubrieron que el perfil de la temperatura por encima de la tropausa no era constante como sugería el propio nombre de estratosfera sino que había una región donde la temperatura sustancialmente se incrementaba. Dobson infirió correctamente que la causa del calentamiento de la estratosfera estaba relacionada con la absorción de la radiación solar ultravioleta por el ozono, y decidió construir un equipo para hacer mediciones de las cantidades de ozono y su variabilidad. El primer espectrómetro estuvo listo en el verano de 1924 y las mediciones regulares obtenidas a lo largo del 1925 establecieron las características principales de la variación estacional del ozono, el máximo en la primavera y el mínimo hacia el otoño, y también demostró la estrecha  correlación entre la cantidad de ozono y las condiciones meteorológicas en la alta troposfera y la baja estratosfera.  A fines de 1929, Dobson y sus colaboradores habían extendido una red de equipos que permitió  establecer las regularidades mas generales entre la variación de la cantidad de ozono con la latitud y la estación.

 

  


En 1969, el biofísico James Lovelock formuló una hipótesis subversiva: nuestro planeta actúa como una especie de superorganismo que a través de una red de complejas interacciones entre sus sistemas vivos mantienen las condiciones ideales para la vida. La primera reacción del mundo científico fue admitir con reservas estos postulados que parecían saturados de especulaciones. En cierta forma fueron vistos como el reverso del legado darwinista según el cual la historia de la vida demostraba su necesaria adecuación a las condiciones del entorno físico - químico. 

El creador de la hipótesis Gaya (diosa tierra para los griegos), postula ante todo la defensa de los cordones de la autorregulación planetaria: el cinturón de selvas tropicales y las plataformas continentales.  La alteración drástica de estas zonas de la biosfera constituyen la verdadera amenaza para Gaya, o mejor decir, para Pachamama, la tierra nutricia de la mitología inca que no pare monstruos, ni traiciona al dios-cielo, sino evita heladas y plagas, madura los frutos y asegura la caza...

Imagen: marxists.org/reference/subject/philosophy/works/us/gaia.htm


 

Paralelamente con estos trabajos de medición del ozono en la atmósfera superior el geofísico inglés Sydney Chapman (1888 - 1970) publicaba en 1930 en las Memorias de la Sociedad Real Meteorológica británica, la teoría cuantitativa del equilibrio y los cambios del ozono y el oxígeno atómico en la atmósfera superior que implicaban la interacción del ozono con la radiación ultravioleta proveniente del astro rey. 

 

La idea de que la capa de ozono constituía un escudo protector de la llamada radiación ultravioleta dura se difundía entre la comunidad científica que estudiaba la atmósfera del planeta. La II Guerra Mundial detuvo estas investigaciones pero poco después de su final se fundó la Comisión Internacional de Ozono por la Unión Internacional de Geodesia y Geofísica. A fines de 1956, en el Año Internacional de la Geodesia y Geofísica no menos de 44 nuevos espectrómetros fueron distribuidos a través del mundo.

 

Cinco años después de formulada la teoría Gaya y a cuatro décadas de los nuevos refrigerantes propuestos por Midgley, los científicos de la Universidad de California, Irvine, F. Sherwood (1927- ) y el mexicano – estadounidense Mario Molina (1943- ) determinaron, luego de un exhaustivo estudio, que los clorofluorcarbonos empleados masivamente como propulsores en todo tipo de "spray" y como refrigerantes, tienen potencial para destruir la capa de ozono. Y en efecto, años después se confirmó el adelgazamiento de la capa de ozono en diferentes latitudes del planeta.

 

Este adelgazamiento  ocasiona un aumento de los niveles de la radiación ultravioleta dura que penetra en la atmósfera e incide sobre la superficie del planeta. Las consecuencias son ya importantes y podrían llegar a ser trágicas.

 

La incidencia de este incremento de la radiación ultravioleta "dura" sobre las distintas especies de los seres vivos puede ser muy diversa pero entre los efectos más dramáticos se cuenta la afectación a largo plazo que sufrirá el fitoplancton lo que trastornará la cadena alimentaria en mares y océanos con efectos ecológicos impredecibles, y a mediano plazo la reducción de la población marina disminuirá sensiblemente los rendimientos de la industria pesquera.

 


El mexicano – estadounidense, Mario J. Molina, confiesa en su autobiografía que durante sus primeros años en Berkeley  sintió un profundo rechazo a la posibilidad de emplear los  láser de alta potencia para producir armas.  Deseaba por entonces dedicarse a una investigación que fuera útil a la sociedad, y lo logró. El 28 de junio de 1974 publicó, junto a su asesor F. Sherwood Rowland, en la Revista Nature un primer informe alertando a la comunidad científica y a la opinión pública de los peligros en que se encontraba la capa de ozono estratosférica. En 1995, ambos compartían el Premio Nobel de Química.

Imagen:  http://www.sepbcs.gob.mx/comunicacion/Noticias%20educacion/

/ENERO%2006/Novel%20de%20quimica.htm


 

En 1976 el Programa de Naciones Unidas para el Medio Ambiente (PNUMA) llama a una Conferencia Internacional para discutir una respuesta internacional al problema del ozono. En 1985 se firma en Austria "La Convención de Viena para la protección de la capa de ozono pero esta no se acompaña de un protocolo vinculante.  Dos años mas tarde en Canadá se  firma "Protocolo de Montreal sobre las sustancias que degradan la capa de ozono". Este protocolo, legalmente vinculante, es aprobado por 24 países. Sucesivos encuentros han sido auspiciados por la ONU para discutir y tomar medidas de acuerdo con los informes de los expertos sobre el efecto de la degradación de la capa de ozono. Hacia fines de siglo los datos demostraban que la concertación internacional había al menos detenido el avance del enrarecimiento de la capa protectora.

 

En 1904 el físico - químico sueco Svante Arrhenius (1859 – 1927) pronosticó que las crecientes emisiones industriales de CO2 determinarían un cambio notable en la concentración de este gas en la atmósfera, provocando un cambio climático global. Según la predicción de Arrhenius este incremento podría resultar beneficioso al hacer más uniforme el clima del planeta y estimular el crecimiento de las plantas y la producción de alimentos.

 

Una opinión discrepante con la optimista visión de Arrhenius aparece a fines de los treinta. El eminente ingeniero termoenergético británico Guy Stewart Callendar (1898 – 1964) publica en 1938 el artículo titulado "La producción artificial del dióxido de carbono y su influencia sobre la temperatura". Este trabajo y los que posteriormente dio a conocer demostraban la correlación existente entre la elevación de las concentraciones del dióxido atmosférico desde los tiempos preindustriales, y la información entonces acopiada por él sobre la tendencia observada de la elevación de la temperatura. Las deducciones de Callendar no encontraron resonancia en la comunidad científica de la época. Prevalecía el criterio de que la inmensa masa de las tres cuartas partes del planeta, el agua de océanos y mares, actuaría como sistema regulador por su capacidad absorbente del CO2.

 

Sin embargo las investigaciones conducidas en la década de los cincuenta por el geofísico estadounidense Roger Revelle (1909-1991) con la colaboración del radioquímico de origen austríaco Hans Suess (1909- ) demostraron de manera irrefutable que los niveles de dióxido de carbono en la atmósfera se habían incrementado como resultado de la quema de los combustibles fósiles y de la tala de los bosques, rechazando la idea prevaleciente sobre la actividad reguladora de mares y océanos.

 


En 1977 el geofísico estadounidense Roger Revelle encabeza un Panel de la Academia Nacional de Ciencias de los Estados Unidos el cual encuentra que alrededor de un 40 % del dióxido de carbono antropogénico permanece en la atmósfera, las dos terceras partes provenientes de los combustibles fósiles y una tercera de la tala de los bosques. Al inicio de los ochenta la escalada en las predicciones se ensombrecen cuando Revelle publica un artículo  en  la  importante  revista  estadounidense

Scientific American en la que anuncia la posible elevación del nivel del mar como resultado de la fusión de los glaciares que debe acompañar a la elevación de la temperatura del planeta. Imagen: www.aip.org/history/climate/Revelle.htm


 

En 1988 el Programa Medioambiental de la ONU fundó un Panel Intergubernamental sobre el Cambio Climático (IPCC) que debió valorar la información científica, técnica y socioeconómica para la comprensión del cambio climático, sus impactos potenciales y las opciones para la adaptación y mitigación de los daños. El IPCC fue el primer esfuerzo internacional para dirigir los temas medioambientales. 

 

En resumen los expertos  coincidieron en  que la elevación de las temperaturas globales provocará una elevación del nivel del mar, cambios en los regímenes de  precipitación y otras condiciones climáticas locales. Los cambios regionales del clima pueden alterar los bosques, el rendimiento en las cosechas,  y las fuentes de agua. También puede resultar amenazada la salud humana, dañadas especies de aves, peces y muchos tipos de ecosistemas.

 

En mayo de 1992, 154 países (incluidos los de la Unión Europea) firmaron el Tratado de las Naciones Unidas para el Cambio Climático (ratificado en marzo de 1994). Los países signatarios se comprometieron a estabilizar, para el final de siglo, los niveles de las emisiones de dióxido de carbono en los valores de 1990. A cinco años de este tratado, se firma en la ciudad japonesa de Kyoto el Protocolo que anuncia el compromiso de las naciones poderosas a limitar sus emisiones de los gases de invernadero hasta los niveles emitidos en 1990. Los inicios del nuevo milenio eran testigos de la no ratificación del Protocolo de Kyoto por precisamente dos grandes, que "ven amenazados su desarrollo si no se prevén limitaciones en las cuotas de emisiones de los países en vías de desarrollo", los Estados Unidos de América y la nueva Rusia. La comunidad científica y toda la humanidad deben apoyar la ratificación de estos tratados y su celoso cumplimiento.

 

La creciente preocupación de los círculos científicos por el manejo que hacen los políticos de los problemas medioambientales llevó a la fundación de una "Unión de los Científicos Preocupados" (UCS) que en carta abierta firmada por más de 20 laureados con el premio Nóbel acusó al Gobierno de Estados Unidos de estar manipulando el sistema científico asesor de esta nación para evitar los consejos que puedan ser contrarios a sus intereses políticos. A escasos doce meses de su fundación el listado de personalidades científicas que apoyan la gestión de esta Unión se ha multiplicado y suman 48 los galardonados con el Nobel que han expresado su adhesión a este movimiento de hombres de ciencia comprometidos con los problemas de su tiempo. Los problemas que ahora se plantean rebasan las fronteras originales de los Estados Unidos y tienen un alcance internacional.

 


De los 48 científicos estadounidenses laureados con el Premio Nobel que expresaron su adhesión a la “Unión de Científicos Preocupados”, 16 son físicos y ocho reciben el galardón de la Academia Sueca en la última década del siglo XX.  Entre los firmantes se encuentran dos colegas, David M. Lee (1931- ) y Douglas D. Osheroff (1945- ) que compartieron el premio en 1996 por el descubrimiento en 1972 de la superfluidez en  el isótopo de 3He. Esta    sobresaliente propiedad había sido descubierta por el  físico soviético Piotr Kapitsa en 1937 en el isótopo de 4He a temperaturas extremadamente bajas.

La casualidad acaso quiso que un tercer especialista en la superfluidez, galardonado en 2003, Anthony Leggett (1938- ) también se integrara a este movimiento de científicos que promueven la preocupación y la acción sobre los problemas ambientales. Imagen: (Lee y su díscipulo Osheroff,  http://www.news.cornell.edu/releases/Oct96/Nobel_photos.html


 

La superconductividad ha atraído la atención de los investigadores pues si esta propiedad exhibida por distintos materiales a temperaturas muy bajas fuera observada a temperaturas viables produciría una verdadera revolución tecnológica. El descubrimiento de este fenómeno data de 1911 cuando el profesor de la Universidad de Leiden, Heike Kamerlingh Onnes (1853-1926), investigando los efectos observados en gases y metales a temperaturas extremadamente bajas, cercanas al 0 de la escala absoluta descubrió que el mercurio a temperaturas por debajo de 4,2 K no presentaba resistencia al paso de la corriente eléctrica.

 

La comprensión de la superconductividad como un fenómeno cuántico no llegó hasta los años 50, cuando los físicos estadounidenses John Bardeen (1908-1991), Leon N. Cooper (1930- ) y John R. Schrieffer (1931- ) explicaron la superconducción en los metales como resultado del desplazamiento electrónico en pares, apantallados por la atmósfera de iones positivos, que no muestran resistencia eléctrica.

 

En 1962, cuando aún era un estudiante en Cambridge, el físico británico Brian D. Josephson (1940 - ) descubrió el fenómeno de conducción que se manifiesta entre dos superconductores mantenidos a temperaturas muy bajas, que están separados entre sí por una capa muy fina de un aislante. Un flujo constante de corriente a través del aislante se puede inducir mediante un campo magnético fijo. Este efecto que representa un efecto de túnel a través de un aislante recibió el nombre de efecto Josephson. Por este descubrimiento compartió el premio Nobel de Física.

 

A finales de 1986, el físico-químico alemán Johannes G. Bednorz (1950- ) y el físico suizo Karl A Müller (1927- ), del Laboratorio de Investigaciones de IBM en Zurich, anunciaban al mundo que un compuesto cerámico, el óxido de lantano, bario y cobre, manifestaba la superconductividad a una temperatura más alta que la exigida por los sistemas hasta entonces investigados, los metales y aleaciones. Aún la barrera impuesta para la aparición de la superconductividad era muy baja, 35 K, pero el descubrimiento de un nuevo tipo de superconductores abría un campo de investigación. En 1987 se reveló la composición de un cuprato de itrio y bario que mostraba una temperatura crítica de superconducción de 94 K. A medida que las temperaturas resulten superiores a 77 K (la temperatura del nitrógeno líquido), y los óxidos resulten más baratos, las aplicaciones potenciales de estos materiales resultaran económicamente más viables. Por este trabajo merecieron Bednorz y Muller el Premio Nobel de Física de 1987.

 


En la década de los 50 el Instituto de Problemas Físicos de la Academia de Ciencias de la URSS bajo la dirección de Piotr Kapitsa, realizaba notables trabajos en la Física de bajas temperaturas. En esta dirección fue investigado el comportamiento de los superconductores del tipo I que repelen los campos magnéticos, y Ginzburg y Landau desarrollaron la teoría que predecía la existencia de un segundo tipo de superconductores. Basándose en esta hipótesis, Abrikosov explicó acertadamente las condiciones  que  deben  cumplir  ciertos  superconductores  para admitir un campo magnético.

 Estas propiedades se descubrieron, con posterioridad, en los nuevos compuestos superconductores tipo II, incluidos los compuestos cerámicos que son superconductores a temperaturas más altas. Las aportaciones de Ginzburg y Abrikosov fueron reconocidas por la Academia Sueca en el 2003 al conferirle el Nobel de Física. (En la imagen: Landau, http://foroff.phys.msu.su/eng/index.html)


 

Los avances en los programas de exploración del Cosmos.

 

Quizás ninguna otra empresa científica tenga una naturaleza interdisciplinaria tan marcada como la conquista del cosmos. Pero nadie duda que los vuelos espaciales exigieran el desarrollo de una ciencia y una ingeniería propia y que en estos progresos desempeñara un importante papel la Física, al tiempo que sus ideas se nutrieran de los resultados de esta soñada exploración.

 

El análisis del panorama político en que se desarrolla la conquista del cosmos desborda los propósitos de nuestro breve examen pero es imposible omitir que, a mediados del siglo, la lógica que presidía las relaciones entre las naciones más poderosas del planeta, determinó que en lugar de una eficaz colaboración entre las partes, la cosmonáutica naciera con un claro perfil de competencia que dividió los esfuerzos, tapió el intercambio de experiencias, multiplicó los gastos, y paralelamente alentó el desarrollo en espiral de programas y armas que "neutralizaran" al enemigo.

 

La guerra fría entre los bloques calentó las relaciones entre las naciones y los proyectos para la fabricación de cohetes portadores ambivalentes (empleados para las lanzaderas de las naves espaciales y de proyectiles intercontinentales) y el curso de programas tan irracionales como "la guerra de las galaxias", demandaron de enormes recursos que compitieron con la necesaria asistencia a los países subdesarrollados. Esta ayuda para el desarrollo hubiera seguramente saneado la atmósfera internacional y evitado tal vez el surgimiento de los focos de tensión que matizados por la frustración y el odio de pueblos y culturas hacia la irracionalidad de la civilización occidental derivaron hacia la dolorosa confrontación y las guerras "locales" del fin siglo.

 

Cuba pequeño país del Caribe, sumergida en esta confrontación, sufrió la hostilidad del gobierno de los Estados Unidos desde el propio nacimiento de la Revolución cubana y en el otro extremo de la cuerda apreció la solidaridad y ayuda recibida de la nación soviética. Esto explica que varias generaciones de cubanos aplaudieran los logros en materia de vuelos espaciales de la ciencia soviética en tanto las realizaciones de la astronáutica estadounidense encontraran en nuestro contexto una baja resonancia.

 

A continuación, pasaremos breve revista a los momentos principales de esta carrera, sus cabezas más visibles, los logros y fracasos, y las repercusiones más importantes hacia el desarrollo de la ciencia. No esconderemos el sesgo de nuestra pupila, pero intentaremos equilibrar las fuentes de información y mantener una objetividad que rara vez es encontrada en el tratamiento de estos temas.

 


Apenas 5 días antes de la invasión de un ejército mercenario por Playa Girón (Bahía de Cochinos), un 12 de abril de 1961 la noticia recorría el mundo: una nave espacial soviética con un cosmonauta a bordo había orbitado el planeta. En una hora y 48 minutos le había dado una vuelta a la Tierra pasando por encima de América, luego de África para caer finalmente en la Siberia. El joven piloto de franca sonrisa se llamaba Yuri y en una breve declaración desde la Vostok -1 había reclamado: "Pobladores del mundo, salvaguardemos esta belleza, no la destruyamos". En julio de ese mismo año

Gagarin visitó a Cuba, y en la multitudinaria concentración popular del 26, Fidel le impuso la Orden Playa Girón que lo convirtió en la primera persona en recibir esta distinción de la nación cubana.


 

En la actualidad, es un criterio bastante aceptado el reconocer como antecedente inmediato del desarrollo de los cohetes propulsores de las naves espaciales tanto de la Unión Soviética como de los Estados Unidos, los logros alcanzados en la Alemania nazi por el equipo encabezado por el científico alemán Werner von Braun (1912 – 1977).

 

Nadie ignora hoy las dramáticas circunstancias históricas en que un equipo de científicos y técnicos alemanes en una base de investigaciones radicada en Peenemünde, diseñaron los cohetes V-2 que eran fabricados y después lanzados desde esta zona de la isla de Usedom, situada en el mar Báltico, en la desembocadura del río Oder. En la fábrica de estos cohetes laboraron en trabajos forzosos prisioneros de los fascistas y el blanco a que apuntaron estos cohetes fueron territorios de Inglaterra. Los V-2 representaban un proyectil propulsado por combustible líquido con una longitud que superaba los 46 pies y un peso de 27 000 libras, que volaban a una velocidad superior a las 3 500 millas por hora, llevando una cabeza explosiva a un blanco a 500 millas de distancia.

 

Tampoco se oculta que von Braun, ante el avance de las tropas aliadas, planeó detalladamente la rendición de 500 científicos alemanes especialistas en cohetes, y la entrega de los proyectos y vehículos de prueba a los estadounidenses. No hay que olvidar que las tropas que venían desde el este eran las soviéticas pero la entrega se hizo desde el frente occidental, según el programa calculado por von Braun. En 1945 llegó a Estados Unidos como consejero técnico del programa nacional de cohetes desarrollado en Nuevo México. Cinco años después dirigía el programa de misiles Redstone en Alabama y ya en 1955 adoptaba la nacionalidad estadounidense.

 

Serguéi Koroliov (1912-1966) fue el constructor jefe de las naves espaciales soviéticas. Por una parte el hermetismo de las fuentes oficiales de la URSS y por otra el silencio cómplice de Occidente sobre las personalidades que brillaron en la ciencia y la ingeniería del país de los soviets hacen que injustamente no sea reconocido como un gigante de la conquista del cosmos.

 


Los primeros vuelos que demostraban la supremacía inicial de los soviéticos llevaron en 1960 a von Braun a la dirección de las operaciones de desarrollo técnico del centro de vuelos espaciales George C. Marshall en Huntsville. Fue el responsable de la construcción del vehículo de lanzamiento Saturno V que se utilizó, junto con la nave espacial Apolo, en el programa del alunizaje tripulado que devolvería a los estadounidenses la confianza en el liderazgo mundial. La imagen del alemán llegó a adquirir la relevancia del héroe y su pasado sepultado por su probada lealtad y extraordinario talento.

Aún hoy se afirma que "los estudiosos están reevaluando el rol de von Braun en las actividades calificadas como "controversiales" en Peenemünde. Las víctimas de los proyectiles V-2 debían tener la palabra. Imagen: history.msfc.nasa.gov/vonbraun/bio.html


 

Las nuevas fuentes rusas aseguran que en la década del 30, justamente cuando Koroliov daba sus primeros pasos como ingeniero jefe del programa de cohetes rusos, fue víctima de la represión stalinista. Se afirma que por una falsa delación sufre prisión durante años, hasta que en 1944 es puesto en libertad. Poco después de la victoria de los aliados se le encomienda la tarea de viajar a Alemania y recopilar todos los datos que le permita a la renaciente cohetería soviética reproducir la tecnología de los cohetes alemanes. El tiempo demostró que en esta empresa el equipo de Koroliov logra superarlos. A partir de 1954, cumple con el sueño de su vida, trabajar en investigaciones que lanzaran el hombre al cosmos. Todos los éxitos iniciales del programa espacial soviético: Laika, Gagarin, Tereshkova, y Popov están indisolublemente ligados a un nombre: Serguéi Koroliov.

 

La Exposición de Logros de la Ciencia y la Técnica Soviética mostraba por los años sesenta, entre sus piezas más atrayentes, una esfera de aluminio de poco más de medio metro de diámetro cuyo sistema de antenas acopladas hacia imaginar que este diminuto objeto, el primer satélite artificial de la Historia, fue capaz de mantener comunicación con la Tierra y enviar la información científica deseada (temperatura y densidad de las capas superiores de la atmósfera e intensidad y naturaleza de las radiaciones cósmicas) durante el tiempo que estuvo orbitando al planeta. El Sputnik 1 fue lanzado el 4 de octubre de 1957 y circunvoló la Tierra 57 días hasta ingresar en la atmósfera y arder por el calor liberado producto de la fricción. La perra Laika ascendería a bordo del Sputnik -2, poco menos de un mes después, para iniciar las investigaciones biomédicas acerca de la influencia de la ingravidez y exposición a las radiaciones sobre los seres vivos. En mayo de 1958, el Sputnik -3, despegó del Cosmódromo de Baikonur elevando más de una tonelada de carga total y continuó verificando los sistemas soviéticos de puesta en órbita y correcciones a la misma, al tiempo que prosiguió las investigaciones sobre el campo magnético, y las radiaciones cósmicas.

 


Imagen:

www.russia-hc.ru/spn/history/persons/

korol.cfm

Una página poco conocida de los vuelos cósmicos nos brinda la oportunidad de reflejar la personalidad de Serguei Koroliov constructor jefe del programa soviético de exploración espacial. Se acercaba a su fin el vuelo del "Vosjod-2" en el que el cosmonauta Alexei A. Leónov (1934- ) el 18 de marzo de 1965 había dado el primer paseo espacial con un cable que lo unía como cordón umbilical a la nave. En el curso de la hora y media de la última vuelta debían ejecutarse por los autómatas de a bordo las etapas finales de orientación, frenado y descenso y de súbito se comprueba que los controles automáticos no responden a la orden teledirigida de entrar en funcionamiento. El cosmonauta de la nave, Pável Beliaev informa a la sala de control de vuelo.

El propio Koroliov responde imperturbable: "dentro de 30 segundos tendrá la orden". Y exactamente a los 30 segundos se vuelve a escuchar su voz: "Conecte el mando manual. Oriéntese y haga funcionar inmediatamente el dispositivo de frenado." Beliaev operó correctamente las instrucciones de emergencia y los dispositivos de control manual respondieron eficazmente. El descenso de la cápsula del Vosjod -2 terminó felizmente.


 

Aún no había reingresado en la atmósfera destruyéndose la cápsula del Sputnik-2, cuando el primer satélite estadounidense el Explorer -1, iniciaba el 31 de enero de 1958 el programa de la NASA. La nave cilíndrica de dimensiones más pequeñas que sus homólogas soviéticas aportó datos excepcionales sobre las radiaciones cósmicas que condujeron al descubrimiento de los cinturones de van Allen. En marzo de este mismo año dos satélites artificiales el Vanguard 2 y el Explorer 3 continuaron el estudio de las radiaciones cósmicas, al tiempo que comprobaban la eficiencia de los sistemas de despegue y de guiado desde la Tierra como fase de preparación hacia los vuelos tripulados.

 

El Programa Apolo de la NASA tenía como ambicioso objetivo llevar al hombre hasta la superficie lunar. Esta hazaña debía neutralizar el síndrome de los Sputniks y demostrar a la gran audiencia el liderazgo en materia espacial de los Estados Unidos. Se ha afirmado que una vez cumplida las tareas de inyección translunar para trasladar la nave de la órbita terrestre a la lunar y de regreso repetir la operación ahora de inyección transterrestre y además dominar las técnicas de acoplamiento de naves a módulos, la participación el hombre en la empresa lunar carecía de sentido práctico. De cualquier forma es indudable que el cumplimiento del programa confirmó de modo espectacular el desarrollo de la ingeniería y la ciencia estadounidense.

 

1968 marca el inicio del lanzamiento de las naves que iban comprobando las diferentes fases del proyecto Apolo. Un año después, el hombre pisó la superficie de su satélite en los pies de dos astronautas estadounidenses, Edwin E. Aldrin (1930- ) y Neil A. Armstrong (1930- ). Michael Collins (1930- ) permaneció en la órbita lunar pilotando el módulo de control después de la separación y apoyando las maniobras del módulo lunar. Armstrong al borde del Mar de la Tranquilidad, declaró: "Éste es un pequeño paso para un hombre, pero un gran salto para la humanidad". Millones de personas pudieron seguir en directo la retransmisión vía satélite del acontecimiento. Armstrong y Aldrin clavaron en el suelo lunar una bandera de Estados Unidos. El acto hizo reflexionar a no pocos sobre el simbolismo que este acto de reconocido orgullo nacional, podía entrañar. El programa científico de la estancia en suelo lunar fue exitosamente cumplido. En los tres años siguientes, 6 naves estadounidenses con sus tripulaciones de tres astronautas cada una, se dirigieron hacia el satélite lunar. Sólo una, el Apolo 13, confrontó una avería que felizmente no terminó en desastre, en abril de 1970. A partir del Apolo 15, las expediciones contaron con un vehículo de ruedas eléctrico que permitió extender la zona de exploración de los cosmonautas. Más de 70 horas en total permanecieron los astronautas en labores de exploración de la superficie selenita.

 


El 20 de febrero de 1962, John H. Glenn (1921- ) se convirtió en uno de los pioneros de la exploración del espacio al inaugurar el programa Mercury de la Agencia Espacial Estadounidense. Durante 4 horas, 55 minutos y 23 segundos el Mercury Atlas 6 completó tres órbitas. Cinco años antes, Glenn había pilotado el avión que realizara el primer vuelo transcontinental supersónico. Después del vuelo espacial y los honores recibidos se dedicó a la política hasta 1997. En octubre de 1998, a los 77 años de edad regresó al espacio, a bordo del trasbordador Discovery; marcando un record difícil de superar y posibilitando

la ejecución de investigaciones sobre el efecto de la ingravidez en el envejecimiento. La misión esta vez se extendió por 9 días en los cuales su nave describió 134 órbitas terrestres. Imagen: www.jsc.nasa.gov/Bios/htmlbios/glenn-j.html


 

El primer montaje de estaciones orbitales soviéticas comenzó en abril de 1971 cuando fue lanzada al espacio la Saliut 1, con un peso de 18 toneladas. En junio, la nave Soyuz 11 se acopló a la estación Salyut 1 y su tripulación de tres hombres entró en ella para realizar un vuelo que alcanzó el récord de 24 días. En ese tiempo llevaron a cabo numerosos experimentos biológicos y estudios sobre recursos de la Tierra. Sin embargo, a su regreso a la Tierra ocurrió una tragedia y los tres cosmonautas soviéticos — Georgi T. Dobrovolsky (1928–71), Vladislav N. Volkov (1935–71), y Víctor I. Patsayev (1933–71) — perecieron a causa de una fuga de aire en una válvula. Su muerte fue instantánea al no tener puestos los trajes espaciales.

 

El accidente detuvo el programa espacial soviético pero luego el programa de las Salyut continuó desarrollándose con éxito y ya la Salyut 6 (septiembre de 1977-julio de 1982) y la Salyut 7 fueron visitadas por numerosas tripulaciones internacionales de países como Cuba, Francia e India, así como por la primera mujer que realizó un paseo espacial: Svetlana Savitskaya (1948- ). La caminata que duró casi 4 horas se produjo un 25 de julio de 1984. Este mismo año se produjo uno de los acontecimientos más importantes del programa Sayuz-Saliut cuando la tripulación integrada por Leonid Kizim (1941- ), Vladímir Soloviov (1946- ) y el médico Oleg Atkov (1949 - ) pasaron 237 días a bordo de la Salyut 7 antes de regresar a la Tierra; fue el vuelo más largo de la época.

 

El programa soviético perseguía el objetivo de perfeccionar la tecnología de las estaciones orbitales con el diseño de una capaz de experimentar una progresiva ampliación de sus módulos de acuerdo con las demandas del propio proyecto y que garantizara las facilidades para una larga estadía de tripulantes. La primera estación espacial en cumplir estos propósitos, la Mir (paz, en ruso), fue lanzada en 1986. Constituida inicialmente por un único módulo central se expandió hasta llegar a contar con siete módulos. Astronautas de Afganistán, Alemania, Austria, Estados Unidos, Francia, Gran Bretaña, Japón, Kazajstán y Siria trabajaron a bordo de la Mir al lado de sus colegas rusos. La estación acogió a un total de 104 astronautas. Entre otras misiones relevantes merece destacarse la permanencia en 1994 de más de un año (exactamente 438 días, récord de permanencia en el espacio) del médico Valeri Polyakov (1942- ). Está misión de Polyakov fue compartida durante más 5 meses con Yelena Kondakova (1957- ), la primera mujer en pasar una larga estancia (168 días) en el espacio. Dos años después la astronauta estadounidense Shannon Lucid (1943- ), con 53 años, implantó una nueva marca de permanencia en el cosmos para una mujer cuando a bordo de la MIR se mantuvo 188 días en la estación orbital soviética.

 


Poco después del vuelo de Gagarin la trabajadora textil y paracaidista aficionada Valentina Tereshkova (1937- ) era aceptada para ingresar en la Escuela de Cosmonautas de Baikonur. Valentina había quedado huérfana a los tres años, cuando su padre cayera combatiendo en los primeros momentos del ataque nazi a la URSS. Bastaron dos años de intenso adiestramiento para que Valentina se convirtiera en la primera mujer en el espacio, orbitando la Tierra.

Su voz llegó el 16 de junio de 1963 desde la nave Vostok 6 con un breve mensaje. 

 A lo largo de tres días, ella circunvoló la Tierra 48 veces –lo que significa que vio un nuevo amanecer cada hora y media. "Fue impresionantemente hermoso", "como algo extraído de un cuento de hadas". Las investigaciones biomédicas sobre el efecto de las condiciones del cosmos en la mujer se iniciaron con el vuelo de Valentina.

Imagen: http://www.lospobresdelatierra.org/galeria.html


 

La falta de financiamiento hizo que los astronautas que ocupaban la Mir la abandonaran en agosto de 1999; pero Rusia decidió prolongar la vida de la estación espacial y, en abril de 2000, se lanzó la nave tripulada Soyuz PM-30 con la misión de repararla. Esta última tripulación de la Mir regresó el 16 de junio de 2000. Finalmente se decidió hacer descender la estación hacia las capas densas de la atmósfera, donde se desintegraría en su mayor parte, y hundir sus restos en el océano Pacífico. La caída controlada de la Mir tuvo lugar el 23 de marzo de 2001, tal como estaba previsto. Para muchos constituyó un símbolo de la caída de otros tantos valores de la nación soviética.

 

En 1993 la NASA firmó un acuerdo de colaboración con la Agencia Espacial Rusa. La concertación comprendía también a Japón, Canadá y los miembros de la Agencia Espacial Europea. El proyecto concibe la construcción de una estación espacial internacional (ISS, en inglés) a un coste aproximado a unos 60.000 millones de dólares. Se estima que para su montaje en una órbita terrestre serán necesarios más de 40 vuelos espaciales. La ISS podrá acoger a una tripulación permanente de siete astronautas para continuar el estudio del cosmos, las investigaciones biomédicas y las modernizaciones de los sistemas de a bordo y de exploración extravehicular. Para fines de siglo se había acoplado como resultado de esta cooperación tres módulos de los 10 elementos que se preveían para la estación en pleno funcionamiento. La estación fue inaugurada por una tripulación ruso-estadounidense el 2 de noviembre de 2000. Un año después, los socios del proyecto aprobaron el inicio del negocio turístico en el cosmos con el viaje a la Estación de un acaudalado estadounidense, quien permaneció seis días a bordo de la ISS a principios de mayo.

 

Nuestro conocimiento actual sobre Marte procede esencialmente de las exploraciones estadounidenses desarrolladas entre 1964 y 1976. Hoy sabemos que el planeta rojo de nuestro sistema solar presenta una atmósfera delgada por lo que el efecto de invernadero se hace débil y su superficie es mucho más fría que  la de nuestro planeta. La temperatura promedio en Marte es de -63° C con una temperatura máxima de  20° C y un mínimo de - 140° C.  El principal componente de la atmósfera marciana es el dióxido de carbono, en un 95,32% de su masa. En 1976, las Sondas Viking se posaron suavemente sobre su superficie ofreciendo las primeras determinaciones in situ sobre la composición de la atmósfera y el suelo marciano.

 


El astronauta estadounidense Niels Armstrong a punto de cumplir el objetivo supremo del Programa Apolo, al borde del Mar de la Tranquilidad, declaró: "Éste es un pequeño paso para un hombre, pero un gran salto para la humanidad". Millones de personas pudieron seguir en directo la retransmisión vía satélite del acontecimiento. Armstrong y Aldrin clavaron en el suelo lunar una bandera de Estados Unidos. El acto hizo reflexionar a no pocos sobre el simbolismo que podía entrañar.

 El éxito del programa Apolo fue un triunfo de la ciencia y la ingeniería estadounidense.

Imagen: http://www.actualaliens.com/aliens/eyewitness-interviews/


 

En julio de 1997, un nuevo programa de la NASA se puso en ejecución llevando una nave (la Mars Pathfinder) con un vehículo todo terreno a la superficie marciana. Los datos obtenidos indican que la sonda se asentó en lo que fue un entorno marciano húmedo. En general, esta misión proporcionó a los científicos importantes informaciones sobre el presente y el pasado de Marte. Las dos sondas que le siguieron terminaron en fracaso cuando intentaron entrar en la órbita de Marte.

 

Venus, el otro planeta vecino al nuestro, es a veces llamada el planeta hermano de la Tierra ya que los dos son muy similares en tamaño y en masa. Pero allí terminan las similitudes. La densa atmósfera de Venus hace especialmente difícil las observaciones telescópicas y la obtención de datos espectrales fiables desde nuestro planeta. Por consiguiente los conocimientos que hemos construido sobre el segundo planeta desde el Sol se basan en los datos enviados por las naves enviadas hacia este destino. El programa de la URSS para penetrar en la densa atmósfera de Venus, comenzó en agosto de 1970 con el lanzamiento de la nave Venera 6 que en apenas media hora envió datos sobre la temperatura en su superficie. Dos años más tarde el Venera 8, fue capaz de enviar datos sobre un análisis de su suelo. En octubre de 1975, dos naves de la serie Venera se posaron en la superficie del planeta y obtuvieron las primeras fotografías. La presión de 90 atmósferas (similar a la que se encuentra a 900 metros de profundidad en los océanos de la Tierra) y una temperatura en superficie de 460 ºC fue registrada por vez primera en 1978, también por naves soviéticas.

 


En 1978 el Teniente Coronel de las Fuerzas Aéreas Cubanas, Arnaldo Tamayo Méndez, es seleccionado para participar en la séptima tripulación internacional del programa Intercosmos. El 18 de septiembre de 1980, la nave Soyuz-38 se elevaba rumbo al cosmos, llevando consigo al primer latinoamericano que pudo observar nuestro planeta desde tan arriba. La misión en el laboratorio de la Salyut-6 (saludo, en ruso) desarrolló con éxito los más de 20 experimentos científicos que se tenían previstos durante los 7 días y 20 horas que duró el vuelo. De regreso a su país Tamayo fue condecorado como Héroe Nacional de la República de Cuba.

Su infancia en la oriental provincia de Guantánamo fue la de un niño que limpia "botas" en la calle. Tamayo Méndez es hoy General de Brigada, y diputado ante la Asamblea Nacional del Poder Popular de Cuba.


Cinco años después del vuelo de Tamayo Méndez, un representante del pueblo azteca, el ingeniero mecánico y profesor de la Facultad de Ingeniería de la UNAM, Rodolfo Neri Vela (1952- ) integra la tripulación del transbordador Atlantis. La misión de la NASA que se extiende del 26 de noviembre al 3 de diciembre de 1985 tenía como uno de sus objetivos poner en órbita un satélite mexicano el Morelos II. (Imagen Neri Vela,  www.jsc.nasa.gov/Bios/htmlbios/nerivela-r.html)

En 1986 se produce el primer vuelo al espacio de Franklin Chang-Díaz (1950- ), quien nace y recibe educación hasta los 17 años en Costa Rica. Desde 1969 estudia en Connecticut, donde se gradúa de ingeniero mecánico en 1973 y luego se doctora en el ITM de Física Aplicada del Plasma. Veterano de cuatro vuelos espaciales, el Dr. Chang - Díaz ha permanecido más de 656 horas en el espacio, conduciendo importantes experimentos en Astrofísica. El gobierno de Costa Rica le confirió la Ciudadanía Honoraria, máximo honor concedido a un extranjero que paradójicamente nació en esta hermana nación…


 

En marzo de1982, de nuevo dos naves Venera se posaron en Venus, y efectuaron los primeros análisis sobre la composición química de la atmósfera y del suelo, demostrando que la atmósfera de Venus está constituida principalmente por dióxido del carbono, casi ningún vapor de agua, y gotas de ácido sulfúrico lo que ocasiona un efecto invernadero tan intenso que explica las temperaturas registradas superiores a los 450° C   una superficie más caliente que la del planeta Mercurio, el cual está más cerca del Sol. La más importante misión de los Estados Unidos hacia Venus fue el lanzamiento en 1989 desde un trasbordador espacial de la sonda Magallanes. Esta sonda remitió hacia la Tierra imágenes de radar que procesadas por técnicas de computación dieron lugar a imágenes tridimensionales espectaculares de la superficie del lucero del Alba.

 

Junto a los triunfos relevantes de la cosmonáutica también se han conocido los dramáticos reveses. En el intervalo de tres meses, durante 1967 se conocieron los dos primeros accidentes fatales en la historia de la conquista del cosmos. En enero, tres astronautas estadounidenses murieron durante un ensayo en la Tierra, víctimas del incendio desatado en el módulo de control de la tripulación. En abril se probaba una nueva generación de naves soviéticas, la Sayuz -1, diseñada para producir el acoplamiento orbital, y con un compartimiento más amplio para llevar a tres cosmonautas, cuando ya de regreso al ingresar en la atmósfera el sistema de frenado falló y la nave se estrelló contra la superficie terrestre provocando la muerte instantánea del piloto.

 

El programa soviético se reinició dos años más tarde y luego en 1971, una misión en nave Sayuz, tras 224 días de exitosa estancia en la primera estación orbital Saliut, cuando regresaba a Tierra la nave se desintegró y sus tres tripulantes perecieron.

 

La fiabilidad de los sistemas parecía haber aumentado y durante más de 15 años no se reportaron accidentes que lamentar pero en enero de 1986, el transbordador estrella de la NASA, el Challenger, tras 75 segundos de vuelo, se convirtió en una bola de fuego y sus siete tripulantes -dos mujeres y cinco hombres- murieron. Las conmovedoras escenas televisivas transmitieron al mundo la magnitud de la tragedia. El accidente paralizó el programa de vuelos hasta que se analizaron y volvieron a diseñar todos los sistemas. Una comisión presidencial, en que participara el veterano astronauta Neil Armstrong, culpó del accidente a la NASA y a sus sistemas de de control de la calidad.Sólo dos años después hizo su aparición el nuevo transbordador, el Discovery.

 


En 1985 el ingeniero Roger Boisjoly comenzó a trabajar en la mejora de los "anillos O" ("O-ring seals") del Challenger y se sintió frustrado con el lento progreso y la poca atención prestada por la gerencia de la compañía al equipo creado para realizar las tareas relacionadas con dichos sellos. En reunión previa al dramático despegue expone los datos que aconsejaban postergar el lanzamiento de la nave y es ignorado por los ejecutivos comprometidos con el programa de la NASA.

La Sociedad Americana para el Desarrollo de las Ciencias otorgó a Boisjoly el "Premio a la Libertad Científica y Responsabilidad" por su honestidad e integridad en los eventos que se presentaron antes y después del desastre de la nave espacial.

Imagen: http://onlineethics.org/spanish/boisjoly/RB-intro-span.html


 

Ya en el siglo XXI, en 2003, el transbordador Columbia al regreso de una expedición de 15 días con una tripulación de 7 cosmonautas, se desintegró cuando faltaban 16 minutos para pisar tierra firme. Era primera vez en 42 años de vuelos tripulados estadounidenses que un accidente se registrara durante el regreso de la nave.

 

La humanidad conoció así de programas riesgosos de vuelos tripulados que buscaron un efecto político a costos desproporcionados, supo de proyectos trasnochados que pretendieron  trasladar las conquistas espaciales al terreno de “los escudos bélicos espaciales” y de las nuevas generaciones de misiles y antimisiles con ojivas nucleares; esquemas todos que resultaban una ofensa a los países históricamente condenados al subdesarrollo, y recibió por otro lado con optimismo los planes racionales de colaboración entre las naciones desarrolladas que promovieron la expansión de los conocimientos del hombre sobre su cuna mayor: el infinito universo.

 

Uno de estos logros se ejemplifica con el programa de instalación en órbita del telescopio espacial Hubble en 1990. Fruto de la cooperación de la Agencia Espacial Europea y la NASA el telescopio alcanzaba una resolución 10 veces superior a la mejor obtenida desde los telescopios terrestres y se diseñaba para realizar observaciones en la región del espectro visible y ultravioleta con una capacidad inimaginable 50 años atrás para escudriñar las regiones más remotas del universo. Adicionalmente, la necesaria corrección de un error de fabricación de su espejo principal y la modernización progresiva de sus dispositivos han sido tareas resueltas por misiones de astronautas que aproximando sus naves al telescopio han salido al espacio para desarrollar con éxito las tareas encomendadas.

 


Cuando en 1990 se puso en orbita un telescopio espacial, el Hubble, las observaciones astronómicas entraban en una nueva época de insospechados descubrimientos cósmicos. Ahora los astrónomos comenzarían a burlarse del “espeso velo” de la atmósfera terrestre. Propiamente se trataba de un laboratorio telescópico con el instrumental óptico más moderno de este siglo.  

Sin embargo, pronto las  deformaciones de las imágenes recibidas acusaban un error en la fabricación del espejo principal del equipo.     Tres misiones de cosmonautas de la NASA entre 1993 y 1999 se ocuparon primero de corregir el defecto de fabricación y luego de renovar o incorporar nuevas técnicas al laboratorio telescópico. Colisiones entre galaxias, impacto de cometa sobre la superficie de Júpiter que altera su atmósfera, estrellas en proceso de formación que se encuentran en el interior de nubes de polvo y gas, nueva estimación del número de galaxias y de la edad del universo que ahora adquiere como fecha de nacimiento unos 14 mil millones de años atrás son algunos resultados de las espectaculares observaciones telescópicas.

Imagen: http://www.xtec.es/~rmolins1/univers/es/mesur02.htm


 

El nacimiento de la Electrónica y del universo de la Informatización.

 

Si el mundo de la electrónica comprende la ciencia y la tecnología relacionadas con el movimiento de las partículas cargadas en un gas, en el vacío, o en un semiconductor, entonces la invención de la válvula de oscilación o tubo de vacío le dio a la tecnología inalámbrica su primer impulso y marcó el inicio de la nueva ciencia de la electrónica. Correspondió este honor al físico británico John Ambrose Fleming (1849-1945).

 

En 1899 Fleming se hizo consultante de la Compañía de Marconi. Por entonces la telegrafía inalámbrica se encontraba en su infancia y Marconi estaba experimentando constantes innovaciones para aumentar la distancia que podía alcanzarse. Fleming quedó absorbido con esta cuestión y comprendió que el principal problema provenía de la escasa sensibilidad del dispositivo detector de las señales. En noviembre de 1904 Fleming patentó su válvula de oscilación llamada así por la analogía observada con la válvula de un fluido que permite solo el movimiento del flujo en una sola dirección. El diodo de tubo de vacío, como mas comúnmente se conoció, estaba constituido por un filamento caliente que emite electrones de acuerdo con el efecto Edison y una placa, el ánodo, que es el colector de electrones. En este dispositivo la corriente circula sólo cuando esta placa es positiva respecto al cátodo. Si se aplica un potencial alterno a la placa, la corriente pasará por el tubo solamente durante la mitad positiva del ciclo, actuando así como rectificador. La válvula de Fleming fue el primer diodo que se utilizó en la radio como detector y rectificador.

 


Imagen: chem.ch.huji.ac.il/

~eugeniik/history/

fleming.htm

El físico británico John Ambrose Fleming (1849-1945) sintió un interés inicial por la Química y dio sus primeros pasos en el laboratorio de Frankland, pero luego quedó fascinado al conocer de los trabajos de Maxwell y pasó a investigar en el campo de la electricidad y el magnetismo en Cambridge donde alcanzó el doctorado en ciencias. Unos años después trabajó en los laboratorios de Edison en los Estados Unidos y allí pudo conocer de primera mano el descubrimiento conocido como Efecto Edison que indicaba la emisión de electrones por un filamento caliente en un bulbo de iluminación.

A su regreso a Londres, en 1885 el Colegio Universitario de Londres (UCL) le solicitó fundara un nuevo departamento de Ingeniería Eléctrica, en el cual el se desempeñaría como profesor durante 41 años. Compartió la docencia universitaria con la investigación y en 1904, luego de identificar como uno de los problemas a resolver en la naciente industria de la telegrafía inalámbrica la pobre sensibilidad de los detectores, inventó el primer diodo que se utilizó en la radio como detector y rectificador.


 

Pero el más importante hito de los primeros tiempos de la electrónica llegó en 1906 cuando el físico e inventor estadounidense Lee De Forest (1873 – 1961) colocó un tercer electrodo, como una rejilla, en la válvula de Fleming, y así inventó el tubo triodo al que llamó audión. Un pequeño cambio en el voltaje de la rejilla provocaba un notable cambio en el voltaje de la placa. De modo que fue el audión el primer amplificador. Todavía debieron pasar cinco años para mejorar el vacío en el audión y añadir un revestimiento eficiente de oxido en el cátodo para obtener un dispositivo confiable. Este fortaleció la corriente a través del tubo, amplificando las débiles señales del telégrafo y también de la radio.

 

En los círculos británicos se ha creado cierto estado de opinión sobre la novedad de la patente de De Forest en relación con la válvula de Fleming. El inventor de la tecnología termoiónica disputó en las cortes la originalidad de la propuesta de De Forest y su opinión fue desestimada por los jueces.

 

En 1912 De Forest desarrolló un circuito de retroalimentación que podría incrementar la salida de un transmisor de radio y producir corriente alterna. Es difícil admitir la afirmación de que no apreció correctamente la importancia de su invención y por ello no solicitara la patente hasta 1915 cuando ya lo había hecho el profesor de la Escuela de Ingeniería Eléctrica de la Universidad de Columbia, Edwin Howard Armstrong (1890- 1954). El circuito regenerador de Armstrong constituyó un progreso en la radiofonía porque podía amplificar débiles señales de radio sin distorsión. De Forest apeló ante los jueces y casi 20 años después la Corte falló a su favor pero en la comunidad de electrónicos el crédito le fue dado a Armstrong. 

 

Ambos debieron hacer invenciones trascendentes en la tecnología de los medios de comunicación. De Forest en la década de los 20 encontró una forma de registrar el sonido sobre la cinta de la película. Esto llevó directamente a la creación de las imágenes animadas con movimiento y con sonido. Solicitó la patente en 1921 y le fue otorgada en 1924. Desde entonces intentó atraer la industria del cine hacia su tecnología y sin embargo los cineastas no mostraron interés. Irónicamente las primeras tentativas del cine hablado no usaron la patente de De Forest pero años después aplicaron su método.

 


Imágenes:

chem.ch.huji.ac.il/

~eugeniik/history/

deforest.htm

De Forest, pionero del mundo de la tecnología de la radio, había estudiado  en uno de los pocos centros estadounidenses que por entonces ofrecía una formación científica de primera clase, la Universidad de Yale, donde obtuvo en 1899 el doctorado en Ciencias Físicas, defendiendo la tesis titulada "Reflexión de las ondas hertzianas desde los terminales de alambres paralelos". Luego siguió investigando sobre las ondas de radio, desarrolló y perfeccionó el recibidor del telégrafo inalámbrico y en 1906 inventó el tríodo una de las primeras conquistas en la revolución inicial de la Electrónica.

Impugnado primero por Fleming ante las cortes, y luego por Armstrong al reclamar la autoría  del circuito retroalimentador

por el que Lee reclamaba su derecho de patente, es De Forest un ejemplo de la encarnizada y con frecuencia desleal competencia que se desató entre los pioneros de dos de las conquistas mas importantes en los medios masivos de comunicación del siglo XX: la radio y la televisión.


 

En 1933, Armstrong inventó el sistema de modulación de frecuencia (FM), que brindaba una mejor calidad en la recepción del sonido y lograba reducir las interferencias en comparación con el  sistema de amplitud modulada (AM). Unos 5 años después el primer recibidor de frecuencia modulada era disponible. Sin embargo la FM no comenzó a utilizarse hasta después la 2da Guerra Mundial, y los derechos de autor de Armstrong fueron ignorados, lo que sumergió al inventor en la pobreza y depresión. Sólo después de su dramática muerte (se lanzaría por la ventana de su apartamento neoyorkino a una altura de trece pisos) su viuda logró que primero la RCA (Radio Corporation of America) y luego prácticamente todas la compañías que usaban la FM le reconocieran los derechos correspondientes. Actualmente la radiodifusión por FM está ampliamente extendida.

 

Algo más de un lustro después de la patente de estudiante de ingeniería alemán Paul G. Nipkow (1860 –1940), que adelantaba el primer sistema de televisión electromecánico, en 1889 el ingeniero eléctrico Alan Archibald Campbell Swinton (1863 – 1930) expone en la Sociedad Roentgen de Inglaterra un esquema que en principio constituye el sistema de la tecnología televisiva actual. Otros 24 años hicieron falta para que la idea de Campbell se transformara en el primer sistema mundial de fotografía electrónica.

 

Por estos años, el joven ruso Vladimir Kosma Zworykin (1889-1982) estudiaba ingeniería eléctrica en el Instituto Imperial de Tecnología de San Petersburgo, habiendo asistido a su mentor Boris Rosing en el desarrollo y la exhibición en 1910 de un sistema híbrido de televisión, primitivo pero exitoso, que combinaba ingeniosamente el disco mecánico de Nipkow como cámara y como receptor el tubo de rayos catódicos inventado por el físico alemán premio Nobel de Física (1909), Karl Braun (1850 – 1918). Poco después de graduarse con honores en San Petersburgo, Zworykin emigra a Paris donde pudo trabajar en Física Teórica y en 1919 se traslada a los Estados Unidos. Durante diez años trabaja en Pittsburgh en los laboratorios de Westinghouse, obteniendo en 1923 su primera patente sobre un nuevo sistema de televisión, que es desestimada por sus superiores que le aconsejan abandonar un proyecto impracticable. Pero Zworykin no se desalienta y en 1929 presenta en una convención de ingenieros de radio su sistema electrónico al combinar su dos ingenios: el "iconoscopio", la primera cámara de tubo electrónico, con su "cinescopio" un tubo de rayos catódicos más sofisticado como receptor de la imagen. Uno de los problemas que supo resolver Zworykin para hacer eficiente su iconoscopio fue desarrollar un método que permitiera el depósito uniforme de más de un millón de elementos fotosensibles de plata cubiertos con oxido de cesio en la placa de la cámara.

 


Imagen:

chem.ch.huji.ac.il/

~eugeniik/history/

zworykin.htm

El joven ingeniero ruso Vladimir K. Zworykin había desarrollado en el Instituto Imperial de San Petersburgo un sistema híbrido de televisión, primitivo pero exitoso, que combinaba ingeniosamente el disco de Nipkow como cámara y como receptor el tubo de rayos catódicos. Luego de su graduación como ingeniero se sintió atraído por la física teórica y realizó estudios con Langevin en el Collegè de France sobre los rayos X  pero  no alcanzaría  su  doctorado  en  Física hasta 1920 en la Universidad de Pittsburgh, tratando su disertación sobre el mejoramiento de las celdas fotoeléctricas.

Casi 20 años después trabajando en los Estados Unidos para los laboratorios Westinghouse desarrolla el primer sistema televisivo totalmente electrónico (cámara y receptor). Corría el 1929 y suponía estar a 18 meses de la fabricación de un equipo comercial pero cometió un grave error solo 10 años mas tarde estuvo listo el aparato. Hoy se estima que una cifra cercana a los mil millones de equipos se fabrican usando esencialmente la misma tecnología propuesta en el modelo de 1939 de Zworykin.


 

Cuando David Sarnoff (1891–1971), directivo de la RCA Victor, se interesó por el proyecto, Zworykin aseguró que con una inversión de unos 100 mil dólares en el plazo de 18 meses estarían resueltos los problemas pendientes para disponer de una tecnología factible. Se equivocó en ambas predicciones, la empresa debió invertir 50 millones y el sistema no estuvo listo hasta diez años después. El ingreso de los Estados Unidos en la 2da Guerra Mundial detuvo la difusión de la industria televisiva., aunque continuaron los estudios para perfeccionar sobre todo la sensibilidad de los elementos. Durante los años de la guerra, un grupo de científicos e ingenieros dirigidos por Zworykin desarrollaron una cámara 100 veces más sensible que el iconoscopio y al terminar la guerra, la RCA reinició sus trabajos en este campo.

 

En 1946 se vendieron unos 7,000 equipos en los Estados Unidos. Para 1950, la cifra de televisores superaba los 10 millones. Hoy, con la entrada del gigante asiático en la producción seriada se estima que una cifra cercana a los mil millones de equipos se fabrica usando esencialmente la misma tecnología propuesta en el modelo de 1939 de Vladimir Zworykin. Al final de su vida, lamentó el uso y abuso que hacían los medios televisivos de la trivialización y la violencia en lugar de ponerse en función del enriquecimiento educativo y cultural del público.

 

A principios de la década de los 40, el doctor en ciencias físicas, profesor de la Universidad de Pensilvania, John William Mauchly (1907-1980) escribió un memorando titulado: "Utilización de Tubos al Vacío de Alta Velocidad par realizar Cálculos" Este memorando abrió las puertas para que Washington aprobara el presupuesto para emprender la construcción de una computadora electrónica. Entre 1943 y 1946, Mauchly, como consultante principal,  y el ingeniero eléctrico John Presper Eckert (1919 - 1995), como ingeniero jefe, ambos de la Universidad de Pensilvania,  dirigieron el programa  patrocinado por la sección de artillería del ejército estadounidense para los laboratorios de investigación balística. 

 


Imagen

148.223.215.115/

cursos/vac/index.php?

f=modulo/contenido/

revista/vc12r.htm

América Latina siente un sano orgullo con contar en la historia de la televisión a uno de sus actores principales. Se trata del inventor mexicano Guillermo González Camarena (1917-1965). A los 15 años obtuvo la licencia para trabajar como operador de radio en la radioemisora de la Secretaría de Educación, al mismo tiempo que experimentaba en su laboratorio, y dos años después fabricó su propia cámara de televisión. Cuando tenía 23 años le fue otorgada la patente por el desarrollo de un Sistema Tricromático Secuencial de Campos, que era posible adaptarlo al sistema de blanco y negro.

Junto a su obsesión creativa, sentía una vocación especial por poner la televisión al servicio de la educación y la cultura. Se interesaba porque su sistema se utilizara para alfabetizar y proyectó lo que mas tarde se conocería como sistema de telesecundaria. Hoy cuando se hace uso y abuso de la TV comercial, y no pocas veces este medio de comunicación masiva se emplea para la desinformación, Guillermo se levanta como un símbolo.


 

Fruto de este proyecto fue la primera computadora electrónica, conformada por 30 unidades independientes que totalizaban una masa de 30 toneladas, y representaba un sistema ensamblado de 18 000 tubos de vacío, 70 mil resistores, 10 mil capacitores, 6 mil interruptores manuales, y otros componentes electrónicos con sus diversos acoplamientos. La ENIAC (Electronic Numerical Integrator And Computer) representó entonces la mayor colección de circuitos electrónicos interconectados. Aunque se concluyó tarde para contribuir a los servicios militares en la II Guerra Mundial, prestó asistencia durante el período de la guerra fría en los cálculos relacionados con la fabricación de la bomba de Hidrógeno.

 

La ENIAC demostró su alta velocidad de procesamiento utilizando los tubos de vacío o bulbos que representaban la más alta tecnología de punta de la época. Podía ejecutar 5,000 adiciones, 357 multiplicaciones, y 38 divisiones en un segundo. ENIAC estuvo en funcionamiento hasta 1955 con mejoras y ampliaciones, y se afirma que durante su vida operativa realizó más cálculos matemáticos que todos los realizados anteriormente por la humanidad. Esta primera versión fue perfeccionada por los autores en los siguientes modelos conocidos por EVAC  (Electronic Discrete Variable Automatic Computer) y finalmente,  para 1951 habían producido el primer modelo de computadora digital comercial que recibió el nombre de UNIVAC (Universal Automatic Computer). Fue la primera en utilizar un compilador o autoprogramador para traducir idioma de programa en idioma de máquinas.

 

En la década de los 50 el ingeniero eléctrico estadounidense Seymour Cray  (1925-1996) trabajaba en el diseño y fabricación de las primeras supercomputadoras, ingenios que los expertos clasificaban así, cuando eran capaces de efectuar 20 millones de operaciones matemáticas por segundo.  El nombre de Cray se relaciona en particular con la primera supercomputadora comercial, la UNIVAC 1103 fabricada en 1953 por la corporación Remington Rand. Su afán de diseñar computadoras más potentes, con mayor velocidad de procesamiento lo lleva a fundar ya en los setenta su propia compañía de investigación que continua diseñando nuevas versiones de computadoras capaces de realizar   hasta  1 200 millones de operaciones de cálculo por segundo.

 


Un duro golpe recibieron los inventores de estas primeras versiones de computadora digital cuando un tribunal en 1973 le revocó el derecho a la patente de invención de la ENIAC por considerar que en 1941, Mauchly tuvo la oportunidad de conocer la tecnología de la llamada ABC (Atanasoff - Berry Computer) desarrollada en 1939 por el físico estadounidense de origen búlgaro, John Vincent Atanasoff (1903-1995) y su asistente Clifford E. Berry (1918 -1963) , y aplicar sus principios técnicos a la fabricación de la computadora ENIAC. De cualquier manera los trabajos de Mauchly y Eckert quedan como un monumento en los primeros pasos de las computadoras electrónicas. En ENIAC ya aparecieron casi todos los componentes y conceptos de las computadoras digitales de alta velocidad actuales.

Imagen: Mauchly (izquierda), www.ieee-virtual-museum.org/collection/people.php?id=1234636&lid=1


 

Gracias a estas poderosas máquinas los científicos e ingenieros pueden llevar a cabo procedimientos matemáticos muy complejos que los ayudan a analizar una vasta cantidad de datos y predecir que ocurrirá en  procesos de disímil naturaleza que alcanza hasta el pronóstico del clima. Cray muere víctima de un accidente del tránsito sin haber conocido los éxitos comerciales. Estamos a dos décadas del lanzamiento del primer microprocesador capaz de efectuar 60 mil operaciones por segundo, para que este dispositivo apareciera en escena se necesito la invención de los semiconductores.

 

Apenas concluida la Guerra, los Laboratorios Bell apostaron por la investigación fundamental orientada a la sustitución de los tubos de vacío que no eran muy seguros, principalmente porque ellos generaban una gran cantidad de calor, y sus filamentos tenían una vida útil limitada. Para cumplir este propósito en 1945 un grupo de físicos del estado sólido fue formado teniendo como uno de sus más importantes objetivos específicos tratar de desarrollar un amplificador en el estado sólido.

 

En el listado de este grupo se incluían tres físicos Walter Houser Brattain (1902-1987), John Bardeen (1908-1991), y William Shockley (1910-1989) que unían a una experiencia importante en el campo de la Física Experimental, un conocimiento profundo del legado de las investigaciones teóricas conducidas por Arnold Sommerfeld, John Hasbrouck van Vleck (1899-1980), Nevill Francis Mott (1905-1996), y otros científicos de todo el mundo.

 

En 1947, Brattain y Bardeen comprobaron experimentalmente que si sobre la superficie de un cristal de germanio se presionaban dos alambres de oro muy cercanos, entonces el voltaje de salida (con respecto a la base de germanio) hacia el colector de prueba era mayor que el de entrada al emisor. Así había nacido el amplificador en el estado sólido. Pero estos primeros transistores fueron muy malos, tenían baja ganancia, un bajo ancho de banda y resultaron ruidosos. Entonces fue Shockley quien reconoció que las dificultades de este dispositivo se relacionaban con los contactos de puntos metálicos y en consecuencia propuso casi inmediatamente el transistor de junta, elaborando en lo esencial la teoría de su operación. Era un dispositivo que en vez de la corriente de conducción presente en un tubo basaba su operación en la difusión. El nuevo dispositivo tenia además portadores de carga de ambas polaridades operando simultáneamente, es decir eran mecanismos dipolares. La teoría predecía que el nuevo dispositivo permitiría la conducción de altas densidades de corriente a bajos potenciales aplicados.

 


La invención de los transistores es acaso una prueba irrefutable de la fusión de la ciencia y la técnica en este siglo para producir los mas revolucionarios elementos electrónicos de la época. Sus principales protagonistas fueron tres eminentes físicos estadounidenses que merecieron, por primera vez en la historia de la Academia Nobel, su galardón en Física por la invención de un dispositivo de ingeniería y el desarrollo de la ciencia que lo anunció. Shockley, uno de estos brillantes físicos mostró, junto a su reconocido talento, una visión reaccionaria y racista de los problemas de la humanidad y su solución por la vía de la depuración genética.

Sus discípulos y la mayoría de la comunidad científica rechazaron enérgicamente los repugnantes postulados de Shockley.

Imagen: http://3quarksdaily.blogs.com/3quarksdaily/images/william20shockley.jpg


 

La posibilidad de obtener aparatos de gran importancia práctica sin filamentos calentados fue inmediatamente reconocida. Sin embargo consideraciones teóricas predecían también que el transistor no podría ser fiable y seguro sino eran disponibles cristales simples de ultrapureza. Tres cortos años mediaron entre el descubrimiento de la amplificación en un sólido, la invención del transistor y su fabricación como producto comercial, un diminuto aparato electrónico capaz de sustituir ventajosamente las funciones de los tubos de vacío apareció en 1952.

 

En 1956, Bardeen, Bradain y Shockley recibieron el premio Nobel de Física. Fue la primera ocasión en que la Academia Nobel otorgó el galardón por la invención de un dispositivo de ingeniería y el desarrollo de la ciencia que lo anunció. Los transistores fueron usados por el público por primera vez en 1953, en la forma de amplificadores para los aparatos contra la sordera. En 1954 se desarrolló la radio de transistores y en febrero de 1956 el Laboratorio de Computadoras Digitales de MIT empezó a desarrollar en colaboración con IBM una computadora transistorizada.

 

Bardeen fue el primer científico que ganó dos premios Nobel en la misma disciplina, su segundo galardón le fue conferido en 1972, también en forma compartida con   Leon N. Cooper y John R. Schrieffer, esta vez por sus investigaciones en el campo de la superconductividad. El químico británico Frederick Sanger (1918- ) por sus trabajos fundamentales para el despegue de la ingeniería genética mereció igual distinción en 1958 y luego en 1980.

 

En 1954, el  físico - químico estadounidense Gordon Teal (1907 - 2003), trabajando en los laboratorios de investigación de Texas Instruments descubre que los transistores pueden ser fabricados de silicio puro, describiendo el primer transistor verdaderamente apropiado para la producción masiva.  Un año después los ingenieros Carl Frosch y Link Derick de los Laboratorios Bell  descubren que el dióxido de silicio puede actuar como una máscara de difusión. Es decir descubren que al calentar una pastilla de silicio a  1200°C en una atmósfera de vapor de agua u oxígeno, una capa delgada de dióxido de silicio se forma en la superficie.

 


Después de la invención del transistor, según testimonios del propio Bardeen, el clima de trabajo en el laboratorio tomó un giro inesperado. Shockley se mostraba resentido con haber compartido la invención y llegó a bloquear el trabajo de su colega en el área del perfeccionamiento del transistor. Esto provocó su traslado a la Universidad de Illinois en 1951, en donde concentró su atención en las investigaciones de la superconductividad mostrada por los metales a temperaturas muy bajas.

En 1957, junto con su discípulo post-doctoral Leon Cooper y su asistente graduado John R. Schrieffer, Bardeen desarrolló  la  primera  teoría  sobre cómo  los metales  a   muy bajas temperaturas eran capaces de conducir la corriente tan eficientemente. En la actualidad esta teoría es conocida como la teoría BCS (Bardeen, Cooper, y Schrieffer). En 1972, los tres investigadores recibieron el premio Nobel por este trabajo. Bardeen se convertía así en el primer científico en recibir dos veces el premio Nobel en la misma disciplina. Imagen: chem.ch.huji.ac.il/~eugeniik/history/bardeen.htm


 

Con la grabación selectiva de la capa de óxido, se podía difundir impurezas en el silicio para crear las juntas P-N.  Es entonces que el doctor en Ingeniería Eléctrica por la Universidad Estatal de Ohio, John L. Moll (1921- ), desarrolla el transistor de silicio de completa difusión, en el cual las impurezas son difundidas en la pastilla mientras los elementos activos son protegidos por la capa del óxido.  Ya en esta década el silicio comienza a desplazar al germanio como el material semiconductor que se expande a la producción de casi todos los transistores modernos.

 

La ciencia y la tecnología de los semiconductores  tomarían diversos senderos.  Otro trío de físicos se encuentran entre los científicos de la época que hicieran aportaciones notables al desarrollo de la teoría de los semiconductores: John Hasbrouck van Vleck (1899-1980),  conocido como "el padre del magnetismo moderno", su discípulo de Harvard,  Philip Warren Anderson (1923- ), y el británico Nevill Francis Mott (1905-1996). No solo impulsaron el desarrollo inicial de la teoría de las transformaciones de los  semiconductores, que se conocen actualmente como transiciones de Mott, sino que abrieron una nueva perspectiva en las investigaciones cuando a partir del descubrimiento en 1958 del fenómeno llamado "localización de Anderson" centran la atención  no en los semiconductores cristalinos utilizados convencionalmente, sino en el comportamiento de materiales amorfos que han hecho posible el desarrollo de dispositivos de memoria fabricados a partir del vidrio.

 

En 1963 el físico bieloruso Zhores I. Alferov (1930 - ) y el físico alemán Hebert Kroemer (1928- ) postularon de forma independiente, el principio del llamado láser de heteroestructuras. La aplicación de la teoría desarrollada por ambos científicos les permitió crear estructuras de semiconductores dispuestos en capas para la fabricación de los transistores de alta velocidad utilizados en las  estaciones  de la  telefonía   móvil y el   desarrollo  de los  diodos de láser empleados en los reproductores de CD y para impulsar los flujos de información en los cables de fibra óptica de Internet. En el 2000 compartieron el Premio Nobel de Física con el inventor estadounidense Jack S. Kelby.

 


Imagen:

weblog.educ.ar

/protagonistas/

archives/004675.php

Aunque Jack Kilby archiva más de 60 patentes de invención podría ser considerado el más fecundo ingeniero eléctrico de todos los tiempos por una sola invención: el circuito integrado monolítico o microchip. Kilby había obtenido en 1958 una plaza de investigador en la compañía Texas Instruments en Dallas, y un año después había concebido y creado un diminuto circuito monolítico integrado en una pieza simple de material semiconductor del tamaño de una anillo de dedo. En la primera presentación profesional de su invento, en el Instituto de Ingenieros de Radio (IRE) en 1959, sus colegas ingenieros quedaron atónitos.

En 1961 fabrica en Texas Instruments la primera computadora usando circuitos integrados y seis años después  inventa la calculadora de bolsillo que se convierte en el artículo electrónico más difundido en estos años. En el 2000 es galardonado con el Premio Nobel de Física. 


 

En 1959 la industria electrónica conocería un renacimiento cuando fuera concebido y creado un diminuto circuito monolítico integrado en una pieza simple de material semiconductor del tamaño de un anillo de dedo, había llegado la época de la microelectrónica. La proeza tecnológica fue realizada por el ingeniero eléctrico estadounidense Jack Kilby (1923- 2005). Los circuitos integrados provocaron cambios revolucionarios en la fabricación de equipamientos electrónicos, que ganaron en capacidad funcional y en fiabilidad al tiempo que se conseguía reducir el tamaño de los equipos y disminuir su complejidad física y su consumo de energía. La tecnología de las computadoras pronto se beneficiaría especialmente por las bondades de esta invención. Una ola de perfeccionamientos ha venido aumentando constantemente la capacidad funcional de los circuitos integrados.

 

Una década después de la invención del microchip, Gilbert Hyatt (1938- ) dio un paso trascendente cuando concibió en un circuito integrado todos los elementos necesarios para operar un microprocesador. Hyatt solicitó la patente en 1970, pero un año después, cuando esta solicitud seguía los trámites requeridos en la oficina de patentes,  Gary W. Boone a la cabeza de un equipo de la Texas Instruments (TI) creó el primer microcontrolador comercialmente viable (TMS100). En 1990 la US Patent Office concedió el derecho de autoría a Hyatt pero 5 años mas tarde un tribunal declaró sin efecto este reconocimiento acreditando a Boone y la TI los derechos de invención. 

 

En el propio 1971, un colectivo de la Corporación Intel encabezados por el doctor de la Universidad de Padua, Federico Faggin (1941- ), el PhD en ingeniería eléctrica, Marcian Edward "Ted" Hoff, Jr. (1937- ) y el especialista en software Stanley Mazor (1941- ), crearon la primera unidad central del procesador (CDU) totalmente integrada en un chip, el microprocesador 4004 (4-bit) de la Intel  fue el primero  en el mercado. A 35 años de la aparición de la ENIAC surgía el dispositivo que en 1/8 de pulgada de ancho y 1/6 pulgada de largo presentaba la misma capacidad de procesamiento que el enorme sistema constituido por 18 000 tubos de vacío. En 1974 apareció el Intel 8080 (8-bit), dieciséis veces más potente.  Este fue el hardware de la primera microcomputadora popular la Altair 8800. Los microcontroladores no sólo van a permitir el lanzamiento de las computadoras personales, sino que encontraran un   amplio empleo  en televisores, lavadoras, hornos microwave y otros equipos electrónicos.

 


© The Nobel Foundation

Cuando en 1957 trabajaba en la Corporación Sony el físico japonés Leo Esaki (1925- ) descubrió el efecto túnel en los semiconductores y desarrolló un nuevo tipo de diodo, el diodo túnel con uniones eléctricas de un espesor de diez milésimas de micra a través del cual los electrones podían pasar. El diodo Esaki se considera el primer dispositivo electrónico cuántico. Sus trabajos en la década de los sesenta con las superredes, cristales sintéticos compuestos por capas extremadamente finas de diferentes semiconductores no sólo sirvieron para demostrar la validez de la teoría cuántica sino que encontraron aplicación en los ordenadores a altas velocidades.


  

A inicios de los 70, las compañías fabricantes de computadoras se encontraban enfrascadas en perfeccionar grandes sistemas informáticos para su introducción en la industria y en otras actividades macroecononómicas. Pasó inadvertida para los grandes inversionistas la oportunidad que brindaron los microprocesadores en la fabricación de pequeñas computadoras  para el  hogar. Un joven ingeniero investigador, Ed Roberts (1942- ),  propietario de una pequeña empresa de calculadoras al borde de la quiebra,  aceptó  el desafío de endeudarse con el objetivo de fabricar una pequeña computadora basada en los recientes desarrollos del microprocesador de Intel, que logró comprar al increíble precio de 500 dólares.  Roberts bautizó la computadora como Altair 8800 y la lanzó al mercado en la portada del primer número de 1975 de la revista "Popular Electronics".   El crédito obtenido por Roberts suponía una recapitalización por concepto de la venta de unas 800 máquinas al año. El fin de semana  de la publicación de la Revista estaba recibiendo 30 llamadas diarias interesándose por la computadora. 

 

Los usuarios de la Altair tenían que programarla en código de máquina. Conocedores de las bondades del popular lenguaje Basic inventado en 1964 por John George Kemeny (1926 - 1992) y Tom Kurtz, los jóvenes Bill Gates (1955- ) y Paul Allen (1953- ), comprendieron que la Altair pudiera ser mucho más eficiente y cómoda si los usuarios pudieran programarla en este lenguaje. La emprendedora pareja propuso a Roberts un intérprete del Basic para la Altair.  Roberts estuvo de acuerdo y en seis semanas compró el programa de Gates y Allen y contrató al último cono programador de software.  Allen y Gates poco después fundaron la Microsoft Corporation.

 

En 1977, los jóvenes diseñadores de computadoras Stephen Wozniak (1950- ) y Steve Jobs (1955- ) introdujeron el Apple II, un ordenador personal capaz de generar gráficos en color, con su propio teclado, fuente de alimentación y ocho plazas para dispositivos periféricos, que permitían a los usuarios amplias posibilidades de incorporar dispositivos y programas de software complementarios. Pronto la Apple Computer Company se convertiría en el negocio de más rápido crecimiento en la historia de Estados Unidos.  En enero de 1983 Apple presentó el Lisa, un ordenador personal diseñado para la empresa que incorporaba el ratón o mouse para seleccionar comandos y controlar un cursor en pantalla.

 

Un software básico para el control de una computadora, el sistema operativo con una interfaz de línea de comandos fue diseñado en 1980 por el joven programador estadounidense Tim Paterson (1956- ), que lo nombró como Quick and Dirty Operating System, QDOS. Microsoft  se lo compró en 50 000 dólares para cumplir el encargo de la IBM que necesitaba un sistema operativo para la primera computadora personal que lanzaría al mercado en 1981, la IBM PC, y lo llamó MS-DOS.

  


Imagen: Allen (izquierda) y Gates

www.hnf.de/

museum/

pcgeburt_en.html

El lanzamiento de Windows en 1985 representó un boom para Microsoft, fundada una década antes por Bill Gates (1955- ) y Paul Allen (1953- ). El nuevo sistema operativo ampliaba las posibilidades ofrecidas por el MS-DOS y ofrecía  por primera vez una interfaz gráfica de usuario (Graphical User Interface, GUI).  Este nuevo tipo de entorno permitía al usuario elegir comandos, ver listas de archivos y otras opciones utilizando las representaciones visuales (iconos) y las listas de elementos del menú. Nuevas versiones de Windows que mejoraban el rendimiento y el apoyo visual a las operaciones de la máquina se convirtieron    rápidamente    en  los  sistemas    operativos   mas  utilizados en el mundo.

En 1990 Microsoft pasó a ser la empresa líder de programas informáticos y alcanzó unas ventas anuales de más de mil millones de dólares.


 

En 1984 Microsoft había otorgado licencias de MS-DOS a 200 fabricantes de equipos informáticos y, así, este sistema operativo se convirtió en el más utilizado para PC, lo que permitió a Microsoft crecer vertiginosamente en la década de 1980.

 

En 1980  Timothy Berners-Lee (1950- ), egresado en Física de la Universidad de Oxford, era consultante en el  CERN (Consejo Europeo para la Investigación Nuclear). La implementación del trabajo en red de esta multinacional institución resultaba muy compleja porque los investigadores del sistema empleaban diferentes técnicas, protocolos y equipos. Berners-Lee consagró  entonces todo su tiempo libre a la elaboración de un programa de almacenamiento de datos llamado  "Enquire-Within-Upon-Everything," capaz de vincular cualquier punto en el sistema. Este programa fue el fundamento conceptual de lo que llegó a ser la WEB. 

 

Nueve años más tarde   Berners-Lee escribió "Information Management: A Proposal" En vez de estandarizar el equipamiento o el software se crearon patrones para la data y un sistema universal de dirección.   De esta manera cualquier documento en Internet podía ser recuperado y visto. En 1990, el CERN fue el mayor sitio europeo de Internet. Dos años después la WEB se distribuyó y el software del navegador se estrenó a lo largo de las instituciones del CERN y aún más allá. Entonces existían 26 servidores fiables.

 

Los primeros exploradores de Internet fueron funcionales pero no simples para el usuario. En 1993 Marc Andreessen (1971- ) un joven programador del Centro Nacional para Aplicaciones de Supercomputadoras (NCSA), que aún estudiaba en la Universidad de Illinois, creó un nuevo explorador de la WEB que ofrecía una interfaz gráfica para explorar texto, imagen y sonido que sólo exigía apuntar y hacer click en la opción gráfica deseada.  Los usuarios no necesitaban conocer nada de programación ni aún las direcciones de Internet. El explorador hacia posible de una manera muy simple para el usuario añadir sus propios materiales a la WEB. El  explorador llamado NCSA Mosaic,   se distribuyó gratuitamente a través de las redes informáticas y, en 18 meses, consiguió una cifra estimada de usuarios de 2 millones, lo que propició el crecimiento espectacular de la World Wide Web.

 


Imagen:

web.mit.edu/invent/

iow/berners-lee.html

En la compleja historia de la innovación conducente a la Internet una realización incuestionable es la invención, en el periodo entre 1989 y 1991, de la World Wide Web por el físico inglés Tim Berners-Lee. La visión de Berners-Lee fue crear una colección comprehensiva de información en palabra, sonido e imagen, cada una identificada por un Identificador de Documento Universal ("Universal Document Identifier", UDI) e interconectada por vínculos de hipertexto, que permitiera usar Internet para proporcionar el acceso a esta colección de información.

Dos años después la WEB se distribuyó y el software del navegador se estrenó a lo largo de las instituciones del CERN y aún más allá. Entonces existían 26 servidores fiables.


 

En 1994, Andreessen y su equipo diseñaron un nuevo explorador superior al Mosaic, al que llamaron Netscape Navigator. Este navegador pronto se convirtió en el explorador más utilizado por los usuarios de Internet, y al año de su lanzamiento decenas de millones exploraban con este software la WEB.

 

Intel presentó la quinta generación de su línea de procesadores compatibles en 1993, que llevaría el nombre de Pentium.  21 años lo separaban del Intel 4004 que inauguró la era de los microprocesadores. Los 2 300 transistores del Intel 4004 procesaban 108 kHz, contaban con 60 instrucciones y 8kb de espacio de almacenamiento, ejecutando 60 000 operaciones por segundo. El Pentium incluyó 3.100.000 transistores (fabricado con el proceso BICMOS (Bipolar-CMOS) de 0,8 micrones), con velocidades iniciales de 60 y 66 MHz y capacidad de ejecución de 112 millones de instrucciones por segundo,    verificación interna de paridad para asegurar la ejecución correcta de las instrucciones,   bus de datos de 64 bit para una comunicación más rápida con la memoria externa y, lo más importante, permitía la ejecución de dos instrucciones simultáneamente. 

 

Al cierre del siglo un equipo multidisciplinario de investigadores de los Laboratorios Bell   presentan sus últimos hallazgos en la producción de un transistor impreso totalmente en plástico. Los usos potenciales de los transistores plásticos incluyen pantallas de computadoras flexibles y tarjetas inteligentes portadoras de estadísticas vitales y virtualmente indestructibles. Estos progresos se inscriben en una dirección más amplia que persigue controlar y, en algunos casos, inducir respuestas electrónicas y fotónicas en materiales poliméricos. Tales investigaciones combinan la experiencia de prácticamente cada  campo tradicional del estudio tecnológico: la química y la ingeniería química, la física, la ingeniería eléctrica, la ciencia de los materiales y la biología.

 

El siglo XX concluía, según cálculos conservadores, con unos 150 millones los ordenadores conectados a Internet. La cifra impresiona y da una medida de hacia donde va el mundo en materia de globalización de la información.

 

Los conceptos de "superautopista de la información" que eduque sobre principios sustentables e informe con objetividad sobre los problemas planetarios, se combina con la de pulpo de la información comercial, creador de gustos insípidos, inductor a patrones de consumos y espejismos de riqueza. Tal es el desafío que deben aceptar los que creen en la virtud y el perfeccionamiento humano. Se conoce  ya de la intervención de Internet para diseminar rápidamente la verdad y aplastar la mentira. Contribuyamos al ejercicio de esta función. No olvidemos que ni la microlectrónica ni la informatización han llegado a las mayorias del planeta que aspira sólo a la globalización del pan,  la cultura y la salud...

 

Así, en el siglo XX el planeta navegó entre las brumas o al filo de las guerras. Los hombres de ciencia y su actividad de investigación no escaparon de estas dramáticas realidades. Fueron marcados como científicos por la interrupción de sus planes durante uno o dos intervalos productivos de sus vidas profesionales, y lo que es más importante, como seres humanos conocieron y sufrieron los horrores de la guerra. Embarcados en la espiral armamentista y en un estrecho chovinismo algunos representantes como individuos e instituciones contribuyeron al desarrollo de armas horribles. La empresa atómica llamó a las puertas en uno de los momentos más oscuros de la historia de la humanidad y los físicos jugaron un importante rol en esta tarea. Pero la mayoría, y algunos aún antes del lanzamiento de la bomba atómica, comprendieron los desafíos impuestos a la humanidad por la era nuclear y lucharon decididamente por detener el desarrollo de tales armas.

 

En el ámbito gnoseológico, se abrió paso en el siglo XX una Revolución en la Física que supuso la superación de profundas crisis en el campo de las ideas, y el advenimiento de lo que se ha dado en llamar un cambio de paradigma.

 

En el progreso científico técnico, la fusión de la Física con la Técnica como expresión concreta de las necesidades y posibilidades que se dieron en este siglo resonó sobre el resto de las Ciencias y fue responsable del repertorio de realizaciones materiales alcanzado en todas las esferas de la sociedad contemporánea.

 

La irracionalidad del orden mundial establecido  es la causa principal de que coexistan al lado de los colosales avances impulsados por el desarrollo de las ciencias el dramático panorama que exhibe aún el planeta.

 

Bibliografía:

 

Aboites Vicente (1991): III. Sistemas láser específicos. El Láser. Fondo de Cultura Económica. Impreso en México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/105/htm/sec_7.htm

http://lectura.ilce.edu.mx:3000/biblioteca/sites/ciencia/volumen2/ciencia3/105/htm/ellaser.htm

 

Asimov I. (1987): Enciclopedia biográfica de ciencia y tecnología. Editorial Alianza.

 

Avendaño Bárbara (2006): Un chico de papá Ioffe. Zores I. Alferov conversa con Bohemia. Bohemia Digital. 18 de mayo, 2006. La Habana. Cuba.

http://www.bohemia.cubasi.cu/2006/05/18/nacionales/premio-novel.html

 

Ausejo E., Hormigón M (2002): Siglo XX. Historia de las Ciencias y las Técnicas. Cronología. Universidad de Zaragoza.

http://www.oei.es/salactsi/historia7.htm

 

Bashevaya Ludmila (2003): Flerov Laboratory of Nuclear Reactions (FLNR). Joint Institute for Nuclear Research, 141980 Dubna, Moscow region, Russian Federation.

http://flerovlab.jinr.ru/flnr/index.html

 

Bernal John D. (1986): X Las Ciencias Físicas en el siglo XX. La Ciencia en nuestro tiempo. Historia Social de la Ciencia. Tomo II. Editorial de Ciencias Sociales. Ciudad de la Habana. Cuba.

 

Bethe. H. A. (1997): J. Robert Oppenheimer. Biographical Memoirs. National Academy of Sciences. http://www.nap.edu/html/biomems/joppenheimer.html

 

Biblioteca Digital Universidad Nacional de San Marcos (2002): Santiago Antúnez de Mayolo. Revista Editor. Año 2, no 4, 2002. Universidad Nacional de San Marcos (UNMSM).

http://sisbib.unmsm.edu.pe/bibvirtual/publicaciones/editor/ano2_N4_marzo/santiago.htm

 

Bird Kai, Sherwin Martin J. (2005): Los mitos de Hiroshima. Angeles Times. Publicado en Trabajadores Digital. La Habana. Cuba.

http://www.trabajadores.cubaweb.cu/SUPLEMENTO-HISTORIA/historia-universal/los-mitos.htm

 

Braun Eliezer (1997): Capítulo XII. Las siguientes etapas de la Historia. Una faceta desconocida de Einstein.. Fondo de Cultura Económica. Impreso en México.

http://lectura.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/19/htm/faceta.htm

 

Braun Eliézer (1992): XX  Desarrollo de la radio. Electromagnetismo: de la Ciencia a la Tecnología. Fondo de Cultura Económica. Impreso en México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/sec_23.htm

 

Bosch Pedro y otros (1994): Pioneros de las Ciencias Nucleares. Fondo de Cultura Económica. México. http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/120/htm/pioneros.htm

 

Bulbulian S. (1996): El descubrimiento de la radiactividad. La Radiactividad. Fondo de Cultura Económica. México. http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/42/htm/radiacti.htm

 

Campbell John (2001): Rutherford - A Brief Biography. Material basado en el libro "Rutheford Scientist Supreme". Rutherford.org.nz. http://www.rutherford.org.nz/biography.htm

 

Chodos Alan, Ouellette Jennifer (2006): February 1968: The Discovery of Pulsars Announced.  APS News Online. American Physical Society.

 

Comby Bruno (2006): James Lovelock: Author of the GAIA Theory. Professor James Lovelock's Web Site. http://www.ecolo.org/lovelock/lovedeten.htm

 

Curiel Ballesteros A. (1999): Guillermo González Camarena (1917-1965). Jalisco en el siglo 20: Perfiles. Guadalajara: Universidad de Guadalajara,   1999, pp. 247-256.

http://www.jalisco.gob.mx/nuestroedo/muro/glzcamarena.html

 

De la Peña, L. (1995): Albert Einstein: Navegante Solitario. Fondo de Cultura Económica. México.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/31/htm/albertei.htm

 

Dismukes Kim (2005): Biographical Data. Astronaut Biographies. Johnson Space Center. NASA. http://www.jsc.nasa.gov/Bios/

John H. Glenn, http://www.jsc.nasa.gov/Bios/htmlbios/glenn-j.html

Rodolfo Neri Vela, http://www.jsc.nasa.gov/Bios/htmlbios/nerivela-r.html

Franklin Chang-Díaz, http://www.jsc.nasa.gov/Bios/htmlbios/chang.html

 

Duff Michael J (1998): The theory formerly know as string. Scientific American.Feb , 1998. pag 12 -17

 

Eklof Anders (2003):  Rolf Sievert, the man and the unit. Karolinska Institute. Medical Radiation Physics History. Stockholm. Sweden. http://radfys.ki.se/sievert/Sievert.html

 

Enciclopedia Encarta (2006):  4. La Física Moderna 5. Avances de la Física desde 1930. Física." Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.

 

Enciclopedia Encarta (2006): 2. Física del Espacio. Astronaútica ." Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.

 

Einstein, Albert; Russell Bertrand (1955): The Russell-Einstein Manifesto. London

http://www.pugwash.org/about/manifesto.htm

 

Franck James et al (1945): The Franck Report . Memorandum on Political and Social Problems of the Bomb by scientists at the Metallurgical Laboratory- Univ. of Chicago. J. Franck (Chairman), D. J. Hughes, J. J. Nickson, E. Rabinowitch, G.T. Seaborg, J. C. Stearns, L. Szilard.

www.nuclearfiles.org/redocuments/ 1945/450611-franck-report.html  

 

Fitzgerald Richard (2001): Physics Nobel Prize Honors Roots of Information Age.

Physics Today Online. American Institute of Physics.

http://www.aip.org/pt/vol-53/iss-12/p17.html

 

Fleischer Lisa (2005): Juan M. Maldacena. Institute for Advanced Study School of Natural Sciences.

http://www.sns.ias.edu/~malda/

 

Galai Mark (1977): S. Koroliov. Constructor jefe. Fragmentos del libro "Con el Hombre a bordo", publicado en la Revista Sputnik, 10, 1977. Traducción: Mariza Viniars.

http://www.russia-hc.ru/spn/history/persons/korol.cfm

 

García-Colin L., Mazari M., Moshnsky M. et al (1997): Niels Bohr: científico, filósofo, humanista. Fondo de Cultura Económica.

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/14/htm/bohr.htm

 

Geoscience Australia (2005): Query Nuclear Explosions Database. Australian Government. http://www.ga.gov.au/oracle/nukexp_form.jsp

 

Gest Howard (2004): Samuel Ruben’s contributions to research on photosynthesis

and bacterial metabolism with radioactive carbon. Photosynthesis Research 80: 77–83, 2004. Kluwer Academic Publishers. Printed in the Netherlands.

http://www.life.uiuc.edu/govindjee/Part3/9_Gest_On_Ruben.pdf

 

Giambiagi Juan J. (1997): La Física del siglo XX a vuelo de pájaro. Ciencia y Sociedad. Revista Ciencia-Hoy, Vol7, no.4. Conferencia dictada en la Academia Nacional de Ciencias Exactas, Físicas y Naturales, Buenos Aires.http://www.cienciahoy.org.ar/hoy40/fisica2.htm

 

Golovanov Y. (1990): Semblanzas de grandes hombres de ciencia. Editorial Progreso. Moscú.    Serguei Koroliov 143 – 149; Igor Kurchatov, p.155- 160; Pablo Langevin p. 190 - 194 (Cita de Einstein sobre Langevin en página 191); Lev Landau, p. 207 – 215.

 

Greene Brian (2004): Personal Page Web. Columbia University Department of Physics. http://phys.columbia.edu/faculty/greene.htm

 

Grigorian A. T., Polar L.S. (1962): Las ideas básicas de la Física. Ediciones Pueblos Unidos S.A. Montevideo.

 

Griffin Scott (2006): Marc Andreessen. Internet Pioneers.

http://www.ibiblio.org/pioneers/andreesen.html

 

Groom Charles (1996): La línea del tiempo de la física de partículas. Contemporary Physics Education Project. http://particleadventure.org/particleadventure/spanish/history/mains.html

 

Hacyan S. (1994): Del Mundo Cuántico al Universo en Expansión. Fondo de Cultura Económica. México. http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/129/htm/delmundo.htm

 

Histoire de la Chimie (2005): Moseley Henry Gwyn-Jeffreys. Biographies. Galerie. Resumen de los cursos ofrecidos por el profesor Georges Bram de la Facultad de Ciencias de París Sud - Orsay.

http://histoirechimie.free.fr/Lien/MOSELEY.htm

 

Holden, N. E. (1990): The delayed discovery of nuclear fission. Chemistry International, Vol. 12, no.5, 177-185.

 

Hunter David (1983): Tim Paterson. http://www.1000bit.net/storia/perso/tim_paterson_e.asp

 

IEEE Virtual Museum (2006): Institute of Electrical and Electronics Engineers, Inc.

Edwin H. Armstrong. 

http://www.ieee-virtual-museum.org/collection/people.php?id=1234606&lid=1

J. Presper Eckert

http://www.ieee-virtual-museum.org/collection/people.php?id=1234636&lid=1 

John W. Mauchly

http://www.ieee-virtual-museum.org/collection/people.php?id=1234639&lid=1

Federico Faggin

http://www.ieee-virtual-museum.org/collection/people.php?id=1234777&lid=1

Ted Hoff

http://www.ieee-virtual-museum.org/collection/people.php?id=1234774&lid=1

Stanley Mazor

http://www.ieee-virtual-museum.org/collection/people.php?id=1234773&lid=1

 

Intergovernmental Panel on Climate Change (1990): Policymakers Summary of the Scientific Assessment of Climate Change. Report to IPCC from Working Group 1, June 1990.

 

Kapitsa Piotr (1985): Lev Davidovich Landau. Experimento, teoría, intelecto. Editorial MIR. Moscú.

 

Katz Eugenii (2003): Famous Electrochemists. Department of Chemistry.  The Hebrew University of Jerusalem Givat Ram.  Jerusalem.  

Sir John Ambrose Fleming.

http://chem.ch.huji.ac.il/~eugeniik/history/fleming.htm

Vladimir Kosma Zworykin

http://chem.ch.huji.ac.il/~eugeniik/history/zworykin.htm

 

Kuhn, T.S. (1982): La estructura de las revoluciones científicas. Fondo de Cultura Económica. México.

 

Lemelson MIT Program (1999): Inventor of the week archive. Computing & Telecommunications. Massachusetts Institute of Technology. MIT School of Engineering.

Tim Berners – Lee. The World Wide Web.

http://web.mit.edu/invent/iow/berners-lee.html

Lee de Forest. Triode amplifier, http://web.mit.edu/invent/iow/deforest.html

Jack St. Clair Kilby. The Microchip, http://web.mit.edu/invent/iow/kilby.html

 

Menchaca Rocha A. (1996): El discreto encanto de las partículas elementales. V Reimpresión. Fondo de la Cultura Económica. Mexico. D.F.

http://lectura.ilce.edu.mx:3000/biblioteca/sites/ciencia/volumen2/ciencia3/068/htm/discreto.htm

VII El positrón: Dirac y Anderson

VIII. El neutrino: Pauli, Fermi, Reines y Cowan.

XII. Unificación Electrodébil: Salam, Weinberg, Van deer Meer y Rubbia.

 

MSFC History Office (2003): Biography of Wernher Von Braun. Marshall Space Flight Center. Huntsville, Alabama. http://history.msfc.nasa.gov/vonbraun/bio.html

 

Nobel e-Museum (2002): The Nobel Prizes in Physics. http://www.nobel.se/physics/index.html

 

Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 1901-1921, Elsevier Publishing Company, Amsterdam, 1965.

Max von Laue, http://nobelprize.org/nobel_prizes/physics/laureates/1914/bragg-bio.html

William Henry Bragg      

William Lawrence Bragg, http://nobelprize.org/nobel_prizes/physics/laureates/1915/bragg-bio.html

Max Planck, http://nobelprize.org/nobel_prizes/physics/laureates/1918/planck-bio.html

 

Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 1922-1941, Elsevier Publishing Company, Amsterdam, 1965.

Manne Georg Siegbahn

http://nobelprize.org/nobel_prizes/physics/laureates/1925/ siegbahn -bio.html

Arthur Holly Compton

http://nobelprize.org/nobel_prizes/physics/laureates/1927/compton-bio.html

Erwin Schrodinger

http://nobelprize.org/nobel_prizes/physics/laureates/1933/schrodinger-bio.html

Paul Dirac

http://nobelprize.org/nobel_prizes/physics/laureates/1933/dirac-bio.html

James Chadwick

http://nobelprize.org/nobel_prizes/physics/laureates/1935/chadwick-bio.html

Ernest Orlando Lawrence.

http://nobelprize.org/physics/laureates/1939/lawrence-bio.html  

 

Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 1942-1962, Elsevier Publishing Company, Amsterdam, 1965.

Cecil Powell, http://nobelprize.org/nobel_prizes/physics/laureates/1950/powell-bio.html

Igor E. Tamm, http://nobelprize.org/nobel_prizes/physics/laureates/1950/tamm-bio.html 

John Bardeen, http://nobelprize.org/nobel_prizes/physics/laureates/1956/bardeen-bio.html

Walter H. Brattain, http://nobelprize.org/nobel_prizes/physics/laureates/1956/bardeen-bio.html

 

Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 1963-1970, Elsevier Publishing Company, Amsterdam, 1970.

Nikolai G. Basov, http://nobelprize.org/nobel_prizes/physics/laureates/1964basov-bio.html

Alexander M. Projorov 

http://nobelprize.org/nobel_prizes/physics/laureates/1964/projorov-bio.html

Charles H. Townes, http://nobelprize.org/nobel_prizes/physics/laureates/1964/townes-bio.html

Murray Gell-Mann, http://nobelprize.org/nobel_prizes/physics/laureates/1969/gell-mann-bio.html

 

Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 1971-1980. Elsevier Publishing Company, Amsterdam, 1980.

Leo Esaki, http://nobelprize.org/nobel_prizes/physics/laureates/1973/esaki-bio.html

Brian Josephson

http://nobelprize.org/nobel_prizes/physics/laureates/1973/josephson-cv.html

John Hasbrouck van Vleck

http://nobelprize.org/nobel_prizes/physics/laureates/1977/vleck-bio.html

Philip Warren Anderson  

http://nobelprize.org/nobel_prizes/physics/laureates/1977/anderson-bio.html

Nevill Francis Mott

http://nobelprize.org/nobel_prizes/physics/laureates/1977/mott-bio.html

Robert Wilson

http://nobelprize.org/nobel_prizes/physics/laureates/1978/wilson-autobio.html

Arno Penzias

http://nobelprize.org/nobel_prizes/physics/laureates/1978/penzias-autobio.html

Abdus Salam.

http://nobelprize.org/physics/laureates/1979/salam-bio.html

Steven Weinberg

http://nobelprize.org/physics/laureates/1979/weinberg-bio.html

 

Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures.

Arthur L. Schawlow

http://nobelprize.org/physics/laureates/1981/schawlow-autobio.html

Nicolaas Bloembergen

http://nobelprize.org/physics/laureates/1981/bloembergen-autobio.html

Ernst A. Ruska

http://nobelprize.org/physics/laureates/1986/ruska-autobio.html

Heinrich Rohrer

http://nobelprize.org/physics/laureates/1986/rohrer-autobio.html

Johannes G. Bednorz 

http://nobelprize.org/physics/laureates/1987/bednorz-autobio.html

Karl A. Müller

http://nobelprize.org/physics/laureates/1987/müller-autobio.html

Georges Charpak

http://nobelprize.org/physics/laureates/1992/charpak-autobio.html

Henry W. Kendall

http://nobelprize.org/physics/laureates/1990/kendall-autobio.html

Richard E. Taylor    

http://nobelprize.org/physics/laureates/1990/taylor-autobio.html

Jerome I. Friedman

http://nobelprize.org/physics/laureates/1990/friedman-autobio.html

David M. Lee  

http://nobelprize.org/physics/laureates/1996/lee-autobio.html

Douglas D. Osheroff

http://nobelprize.org/physics/laureates/1996/osheroff-autobio.html

Hebert Kroemer  

http://nobelprize.org/physics/laureates/2000/ kroemer -autobio.html

Masatoshi Koshiba

http://nobelprize.org/physics/laureates/2002/koshiba-autobio.html

Alexei A. Abrikosov

http://nobelprize.org/physics/laureates/2003/abrikosov-autobio.html

Vitali L.Ginzburg

http://nobelprize.org/physics/laureates/2003/ginzburg-autobio.html

 

Nobel e-Museum (2004):  From Nobel Lectures, Chemistry. Elsevier Publishing Company, Amsterdam.

Glenn Theodore Seaborg.

http://nobelprize.org/chemistry/laureates/1951/seaborg-bio.html  

Willard F. Libby.

http://nobelprize.org/chemistry/laureates/1960/libby-bio.html

Dorothy Crowfoot Hodgkin

http://nobelprize.org/chemistry/laureates/1962/hodgkin-bio.html

Richard Ernst

http://nobelprize.org/chemistry/laureates/1991/ernst-autobio.html

Mario Molina

http://nobelprize.org/chemistry/laureates/1995/molina-autobio.html

Kurt Wuthrich

http://nobelprize.org/chemistry/laureates/2002/wuthrich-autobio.html

John B. Fenn

http://nobelprize.org/chemistry/laureates/2002/fenn-autobio.html

Koichi Tanaka

http://nobelprize.org/chemistry/laureates/2002/tanaka-autobio.html

 

Nobel e-Museum (2004):  From Nobel Lectures, Physiology or Medicine . Elsevier Publishing Company, Amsterdam, 1972. 

Maurice Wilkins, http://nobelprize.org/medicine/laureates/1962/wilkins-bio.html

Alfred D. Hershey, http://nobelprize.org/medicine/laureates/1969/hershey-bio.html   

 

NuclearFiles.Org (2006): Nuclear Files resources and history of the nuclear age. Library. Project of the Nuclear Age Peace Foundation. 

Frederic Joliot.

http://www.nuclearfiles.org/rebios/joliot.htm

Irene Joliot-Curie

http://www.nuclearfiles.org/rebios/curie.htm

Julius R. Oppenheimer

http://www.nuclearfiles.org/menu/library/biographies/bio_oppenheimer-julius.htm

James Franck

http://www.nuclearfiles.org/menu/library/biographies/bio_franck-james.htm

Lise Meitner

http://www.nuclearfiles.org/menu/library/biographies/bio_meitner-lise.htm

 

Nuñez J. (2000): La ciencia y la tecnología como procesos sociales. Lo que la educación científica no debe olvidar. La Habana. http://www.campus-oei.org/salactsi/nunez00.htm#9  

 

O'Connor J. J., Robertson E. F. (2000):  School of Mathematics and Statistics. University of St Andrew. Scotland.

John George Kemeny 

http://www-groups.dcs.st-and.ac.uk/~history/Biographies/Kemeny.html

George Dantzig

http://www-history.mcs.st-and.ac.uk/Biographies/Dantzig_George.html

Werner Karl Heisenberg.

http://www-groups.dcs.st-and.ac.uk/~history/Mathematicians/Heisenberg.html

Karl Schwarzschild

http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Schwarzschild.html

Mitchell Feigenbaum

http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Feigenbaum.html

Edwin P. Hubble

http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Hubble.html

Alexander A. Friedmann

http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Friedmann.html

 

Office of Radiation, Chemical & Biological Safety (2002): Figures in radiation history. Michigan State University

http://www.orcbs.msu.edu/radiation/radhistory/

 

Online Ethics Center (2005): Roger Boisjoly y el Desastre del Challenger. Online Ethics Center for Engineering and Science. La versión original en inglés fue creada por Jagruti S. Patel y Phil. Traducción: Francy Acosta. Asesor: Ingeniero Antonio Alba.

http://onlineethics.org/spanish/boisjoly/RB-intro-span.html

 

Pasachoff Naomi (2006): Marie Curie and the Science of the Radioactivity. The Center for History of Physics. The American Institute of Physics.

http://www.aip.org/history/curie/contents.htm

 

Peralta y Fabi Ricardo (1995): Del Espacio al Subsuelo. Fondo de Cultura Económica. Impreso en México.

I. El Reto Espacial

http://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/086/htm/sec_4.htm

VII. Hacia el Futuro

 

Pugwash On Line (2004): The origins of Pugwash. Conferences of Science and World Affairs. http://www.pugwash.org/origins.htm  

 

Ríos Jáuregui Annet (2005): Celebran 15 años de solidaridad humanitaria. Diario Granma. 30 de marzo de 2005. La Habana.

http://www.granma.cubaweb.cu/2005/03/30/nacional/articulo08.html

 

Sample Ian (2005): Joseph Rotblat. Man of peace dies - scientist who turned back on A-bomb project. Friday September 2, 2005, The Guardian. UK. http://education.guardian.co.uk/higher/research/story/0,,1561452,00.html

 

Science Odyssey (1998): People and discoveries: Discoveries. Public Broadcasting Service. Virginia. USA. 

1945 ENIAC is built

http://www.pbs.org/wgbh/aso/databank/entries/dt45en.html

1947 The transistor is invented

http://www.pbs.org/wgbh/aso/databank/entries/dt47tr.html

1971 First commercial microprocessor is introduced

http://www.pbs.org/wgbh/aso/databank/entries/dt71mi.html

1975 Personal computer industry is launched

http://www.pbs.org/wgbh/aso/databank/entries/dt75co.html

1992 The Internet gives rise to the World Wide Web 

http://www.pbs.org/wgbh/aso/databank/entries/dt92ww.html

Erwin Schrödinger 1887 –1961. http://www.pbs.org/wgbh/aso/databank/entries/bpschr.html

Idem (2005): People & Events.

Enrico Fermi, (1901 - 1954). The American experience. Race for the superbomb.
http://www.pbs.org/wgbh/amex/bomb/peopleevents/pandeAMEX52.html Enrico Fermi

 

Selleri F. (1990): Chapter 1. Quantum theorists and the physical world. Quantum paradoxes and physical reality. Kluwer Academic Press. The Netherlands.

 

Szilard Leo (1945): A petition to the President of The United States. July 17, 1945. (Drafted by Leo Szilard and signed by 68 members of the Metallurgical Laboratory in Chicago).http://www.atomicarchive.com/Docs/ManhattanProject/Petition.shtml

 

The Chemical Heritage Foundation (2000): Otto Hahn, Lise Meitner and Fritz Strassmann. Chemical Achievers. http://www.chemheritage.org/EducationalServices/chemach/ans/hms.html

 

The Manhattan Project Heritage Preservation Association, Inc. (2004): JAMES FRANCK. Director - Chemistry División. Metallurgical Laboratory - Univ. of Chicago.

 

The Nobel Laureates of LMB (2004): Laboratory of Molecular Biology. Cambridge.

Francis H. Crick

http://www2.mrc-lmb.cam.ac.uk/archive/Crick62.html

James Watson.

http://www2.mrc-lmb.cam.ac.uk/archive/ Watson62.html

 

The Russian Women Network (2006): Svetlana Savitskaya - Second woman in space. First woman to walk in space. Great Russian Women.

http://great.russian-women.net/Svetlana_Savitskaya.shtml

 

The Voice of Russia (2001): Estación Espacial "MIR": 15 Años de Vuelo. 115326 Russia, Moscow, st. Pyatnitskaya 25, bld. 1, Voice of Russia. 

http://www.vor.ru/Spanish/Cosmos/cosmos_sp_23.html

Constructor Jefe: Serguei Koroliov.

htpp://www.vor.ru/Spanish/Cosmos/cosmos_sp_04.html

Gagarin en Cuba

http://www.vor.ru/Spanish/Cosmos/cosmos_sp_34.html

 

UNEP(1998): Environmental Effects of Ozone Depletion. Executive Summary. United Nations Environmental Program (UNEP). http://www.gcrio.org/UNEP1998/UNEP98.html

 

Union of Concerned Scientists (2004): Scientific Integrity in Policymaking. http://www.ucsusa.org/global_environment/rsi/page.cfm?pageID=1642

 

Universidad de California, San Diego (1997): Martin David Kamen. Papers. Background. http://orpheus.ucsd.edu/speccoll/testing/html/mss0098a.html

 

Weart Spencer (2005): The Discovery of Global Warming. Center for the History of Physics. American Institute of Physics. http://www.aip.org/history/climate/index.html

 

Weart, Spencer R. (1997). Global Warming, Cold War, and the Evolution of Research Plans. Historical Studies in the Physical and Biological Sciences 27(2): 319-56. En "Roger Revelle’s Discovery". American Institute of Physics.

http://www.aip.org/history/climate/Revelle.htm

 

Wright Pearce (2002): Martin Kamen. Scientist, co-discoverer of the isotope that gave archaeology carbon-dating, and innocent victim of America's Communist witchhunts. Monday September 9, 2002. The Guardian. London.

http://education.guardian.co.uk/obituary/story/0,,788663,00.html