Ya en el siglo XVII, el filósofo y matemático alemán Gottfried Leibniz estaba firmemente convencido de que todo era calculable en función del principio dual de 0 y 1. Incluso inventó una calculadora mecánica que operaba con este principio en 1672 y que era capaz de ejecutar adiciones y sustracciones, multiplicar, dividir y hasta sacar raíces cuadradas. Otros, como Charles Babbage y Ada Lovelace, siguieron sus pasos en el siglo XIX, conceptuando máquinas que pudieran razonar como seres humanos.
Sin embargo, no fue hasta mediados de la década de 1940 cuando en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey, un pequeño grupo de físicos, matemáticos, biólogos e ingenieros diseñaron, construyeron y programaron la primera computadora digital electrónica. Parte de su inspiración procedía de un joven y brillante matemático, Alan Turing, que había publicado un artículo revolucionario en 1936 donde se establecía un vínculo entre el código (el ahora llamado software) y el trabajo de construir máquinas físicas (el hardware).
El primer problema computacional en el que se trabajó con este nuevo enfoque fue la simulación de las reacciones de fisión. En 1945, las mentes humanas fueron reemplazadas así por el Ordenador e Integrador Numérico Electrónico (ENIAC), diseñado y construido para el desarrollo de armas nucleares en el Laboratorio Nacional de Los Álamos, en Nuevo México.
No deja de ser irónico que la máquina que contribuyó a extraer el inmenso poder del interior del átomo también fuera una voraz consumidora de energía.
El consumo de energía de ENIAC era tal que su