La primera máquina de calcular mecánica, un precursor de
la computadora digital, fue inventada en 1642 por el matemático francés
Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez
dientes en las que cada uno de los dientes representaba un dígito del 0 al
9. Las ruedas estaban conectadas de tal manera que podían sumarse números
haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y
matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e
inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un
telar automático, utilizó delgadas placas de madera perforadas para
controlar el tejido utilizado en los diseños complejos. Durante la década de
1880 el estadístico estadounidense Herman Hollerith concibió la idea de
utilizar tarjetas perforadas, similares a las placas de Jacquard, para
procesar datos. Hollerith consiguió compilar la información estadística
destinada al censo de población de 1890 de Estados Unidos mediante la
utilización de un sistema que hacía pasar tarjetas perforadas sobre
contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico
Charles Babbage elaboró los principios de la computadora digital moderna.
Inventó una serie de máquinas, como la máquina diferencial, diseñadas para
solucionar problemas matemáticos complejos. Muchos historiadores consideran
a Babbage y a su socia, la matemática británica Augusta Ada Byron
(1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos
inventores de la computadora digital moderna. La tecnología de aquella época
no era capaz de trasladar a la práctica sus acertados conceptos; pero una de
sus invenciones, la máquina analítica, ya tenía muchas de las
características de una computadora moderna. Incluía una corriente, o flujo
de entrada en forma de paquete de tarjetas perforadas, una memoria para
guardar los datos, un procesador para las operaciones matemáticas y una
impresora para hacer permanente el registro.
Primeras computadoras
Las computadoras analógicas comenzaron a construirse a
principios del siglo XX. Los primeros modelos realizaban los cálculos
mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las
aproximaciones numéricas de ecuaciones demasiado difíciles como para poder
ser resueltas mediante otros métodos. Durante las dos guerras mundiales se
utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde
eléctricos, para predecir la trayectoria de los torpedos en los submarinos y
para el manejo a distancia de las bombas en la aviación.
Computadoras
electrónicos
Durante la II Guerra
Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban
en Bletchley Park, al norte de Londres, crearon lo que se consideró la
primera computadora digital totalmente electrónico: el Colossus.
Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o
tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por
Alan Turing para descodificar los mensajes de radio cifrados de los alemanes.
En 1939 y con independencia de este proyecto, John Atanasoff y Clifford
Berry ya habían construido un prototipo de máquina electrónica en el Iowa
State College (EEUU). Este prototipo y las investigaciones posteriores se
realizaron en el anonimato, y más tarde quedaron eclipsadas por el
desarrollo del Calculador e integrador numérico digital electrónico (ENIAC)
en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en
la ‘computadora’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical
Integrator and
Computer), obtuvo una patente que caducó en 1973, varias décadas más
tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una
velocidad de varios cientos de multiplicaciones por minuto, pero su programa
estaba conectado al procesador y debía ser modificado manualmente. Se
construyó un sucesor del ENIAC con un almacenamiento de programa que estaba
basado en los conceptos del matemático húngaro-estadounidense John von
Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo
que liberaba la computadora de las limitaciones de velocidad del lector de
cinta de papel durante la ejecución y permitía resolver problemas sin
necesidad de volver a conectarse a la computadora.
A finales de la década de 1950 el uso del transistor en
las computadoras marcó el advenimiento de elementos lógicos más pequeños,
rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los
transistores utilizan mucha menos energía y tienen una vida útil más
prolongada, a su desarrollo se debió el nacimiento de máquinas más
perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda
generación. Los componentes se hicieron más pequeños, así como los espacios
entre ellos, por lo que la fabricación del sistema resultaba más barata.
Circuitos integrados
A finales de la década de 1960 apareció el circuito
integrado (CI), que posibilitó la fabricación de varios transistores en un
único sustrato de silicio en el que los cables de interconexión iban
soldados. El circuito integrado permitió una posterior reducción del precio,
el tamaño y los porcentajes de error. El microprocesador se convirtió en una
realidad a mediados de la década de 1970, con la introducción del circuito
de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y,
más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de
Very Large Scale Integrated), con varios miles de transistores
interconectados soldados sobre un único sustrato de silicio.