miércoles, 11 de marzo de 2009

HISTORIA DE LA INFORMÁTICA ( II )

1900: Comienzo de la física cuántica. A finales del siglo 19 los científicos estaban intrigados por el comportamiento de los cuerpos negros, los cuales, según la física que conocían, absorbían y radiaban energía en toda la gama de frecuencias, cosa que no ocurre con los cuerpos de color. Suponían que la energía era emitida a manera de flujo continuo, mayor o menor según la frecuencia de radiación electromagnética y la cantidad de calor en el cuerpo, pero estaban
equivocados.
En 1900 el físico teórico alemán Max Planck aceptó la teoría electromagnética de la luz, que sostenía que la luz era un fenómeno ondulatorio y que la materia -que se suponía que contenía pequeños cuerpos cargados eléctricamente, o partículas- irradiaba energía en la forma de ondas de luz cuando esas partículas cargadas eran aceleradas.
Con el objetivo de estudiar la radiación de un cuerpo negro, Planck se imaginó las partículas cargadas como pequeños osciladores, acelerados y desacelerados repetidamente de manera uniforme.
Para poder calcular el equilibrio de la energía entre los supuestos osciladores y su radiación de entrada y salida, Planck halló que necesitaba suponer la existencia de cuantos, o diminutas divisiones de energía, en vez de una gama continua de energías posibles.
Por ello, llegó a deducir la definición de un cuanto de energía como la frecuencia de la oscilación multiplicada por un diminuto número que no tardó en ser conocido como la constante de Planck. Esos supuestos fueron los utilizados por Planck para resolver el problema del cuerpo negro,
pero nunca llegó más allá en una interpretación significativa de sus cuantos.
Se denomina cuanto al salto que experimenta la energía de un corpúsculo cuando absorbe o emite radiación. Dicha energía es proporcional a la frecuencia de la radiación.
En 1905 Einstein, basándose en el trabajo de Planck, publicó su teoría sobre el fenómeno conocido como efecto fotoeléctrico y demostró que las partículas cargadas –que en esos tiempos se suponían que eran electrones- absorbían y emitían energía en cuantos finitos que eran proporcionales a la frecuencia de la luz o radiación, fenómeno que hoy se está aprovechando para crear los nuevos computadores cuánticos, en los que ya no se habla de bits que representan
1 ó 0, sino de qubits que pueden asumir a la vez dos estados opuestos.
El paso sustancial hacia la nueva teoría cuántica de los átomos se le debe al físico alemán Werner Heisenberg, quien después de haber inventado la mecánica matricial, en 1925, junto con Max Born y Pascual Jordan, elaboró una versión completa de la nueva teoría cuántica, una nueva dinámica que servía para calcular las propiedades de los átomos, igual que había servido la mecánica de Newton para calcular las órbitas de los planetas.
Para concebir el mundo cuántico, Heisenberg y Niels Bohr se esforzaron por hallar una estructura nueva que estuviera de acuerdo con la nueva mecánica cuántica.
Heisenberg descubrió, cuando intentaba resolver estos problemas interpretativos, el
«principio de incertidumbre», el cual revelaba una característica distintiva de la mecánica
cuántica que no existía en la mecánica newtoniana.

En 1938 el alemán Konrad Zuse terminó la primera máquina binaria para calcular, y la llamó Z1.
A comienzos de los años 30, John Vincent Atanasoft, un norteamericano doctorado en física teórica, hijo de un ingeniero eléctrico emigrado de Bulgaria y de una maestra de escuela, se
encontró con que los problemas que tenía que resolver requerían una excesiva cantidad de cálculo. Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Babbage, empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario, y hacer los cálculos de modo distinto a como los realizaban las calculadoras mecánicas.
Con 650 dólares donados por el Concejo de Investigación del Estado de lowa, contrató la cooperación de Clifford Berry, estudiante de ingeniería, y los materiales para un modelo experimental. Posteriormente recibió otras donaciones que sumaron 6460 dólares.
Este primer aparato fue conocido como ABC Atanasoff- Berry-Computer.
Prácticamente al mismo tiempo que John Vincent Atanasoft, el ingeniero John Mauchly, director en ese momento del Departamento de física del Ursine College cerca de Filadelfia, se había encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que habría una forma de acelerar el proceso por medios electrónicos. Al carecer de medios económicos, construyó un pequeño calculador digital y se presentó al congreso de la AAAS (Asociación Americana para el Avance de la Ciencia) para presentar un informe sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó una disputa sobre la paternidad de la computadora digital.
En 1941 Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, donde conoció a J. Presper Eckert, un instructor de laboratorio. La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas. La cantidad de cálculos necesarios era inmensa, tanto que se demoraba unos treinta días en completar una tabla mediante el empleo de una máquina de cálculo analógica. Aun así, esto era unas 50 veces más rápido de lo que tardaba un hombre con una sumadora de sobremesa. Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el interés de Lieutenant Herman Goldstine, un oficial de la reserva que hacía de intermediario entre la universidad y el ejército, el cual consiguió interesar al Departamento de Ordenación en la financiación de una computadora electrónica digital. El 9 de abril de 1943 se autorizó a Mauchly y Eckert iniciar el desarrollo del proyecto. Se le llamó ENIAC (Electronic Numerical integrator and Computer) y comenzó a funcionar en las instalaciones militares norteamericanas del campo Aberdeen Proving Ground en Agosto de 1947. La construcción tardó 4 años y costó $486.804,22 dólares (el equivalente actual a unos tres millones de dólares por menos poder de cómputo del que actualmente se consigue en las calculadoras de mano). El ENIAC tenía 19.000 tubos de vacío, 1.500 relés, 7.500 interruptores, cientos de miles de resistencias, condensadores e inductores y 800 kilómetros de alambres, funcionando todo a una frecuencia de reloj de 100.000 ciclos por segundo. Tenía 20 acumuladores de 10 dígitos, era capaz de sumar, restar, multiplicar y dividir, y tenía tres tablas de funciones. La entrada y la salida de datos se realizaba mediante tarjetas perforadas. Podía realizar unas 5.000 sumas por segundo (lo cual es muy poco, comparado con la capacidad de los computadores actuales). Pesaba unas 30 toneladas y tenía un tamaño equivalente al de un salón de clases. Consumía 200 kilovatios de potencia eléctrica (una computadora personal moderna consume apenas 200 vatios y es más poderosa) y necesitaba un equipo de aire acondicionado para disipar el gran calor que producía. En promedio, cada tres horas de uso fallaba una de las válvulas. Lo que caracterizaba al ENIAC como computadora moderna no era simplemente su velocidad de cálculo, sino el que permitía realizar tareas que antes eran imposibles.

No hay comentarios:

Publicar un comentario

ESCRIBE AQUI TUS COMENTARIOS Y DEJA TAMBIEN TUS DUDAS E INTERESES QUE TE CONTESTARÉ A LA MAYOR BREVEDAD POSIBLE. SI TE INTERESA CUALQUIER OTRO TEMA PREGUNTAMELO QUE TE AYUDARÉ .