Del cero a los buscadores: momentos clave de la historia de la informática
Con un smpartphone prácticamente en cada bolsillo, la mayoría vivimos una relación cotidiana con la informática. Le damos uso cada día para decenas de tareas distinas. Pero tras esta herramienta a la que ya nos hemos acostumbrado, hay un largo desarrollo científico y tecnológico. El consultor informático Ian Trump, ante las preguntas de un colega, trató de reducir esa larga historia todo lo posible. Se quedó en los 28 momentos más importantes de la historia de la informática.
1. El número cero (India, aproximadamente año 800 antes de Cristo). Puesto que la informática está basada en combinaciones de 1 y 0, el momento en el que se inventó el cero puede ser considerado clave en su historia. Aunque no está claro si fue concebido en Egipto, Mesopotamia o India, fue en esta última donde se trató como un número más por primera vez.
2. La máquina de sumar de Pascal (Francia, 1642). El inventor y matemático Blaise Pascal diseña y construye la primera calculadora mecánica, llamada pascalina en su honor. Abultaba menos que una caja de zapatos y funcionaba gracias a unas ruedas dentadas conectadas entre sí: cuando una giraba, las demás lo hacían en cadena. Cada rueda tenía 10 pasos, númerados del 0 al 9, y la caja contaba con ocho ruedas, seis para los números enteros y dos para los decimales.
3. El sistema binario (Alemania, 1679). El filósofo y matemático Gottfried Leibniz continúa con el desarrollo del sistema binario, una numeración didáctica con la que todo número podía ser expresado mediante una serie de unos y ceros.
4. La electricidad (Estados Unidos, 1751). Ben Franklin, científico e inventor además de político, realiza las primeras observaciones y experimentos con la electricidad, utilizando la famosa cometa para conducir la electricidad generada por un rayo.
5. El telar de Jacard (Francia, 1801). El tejedor y comerciante Joseph Marie Jacqard inventó en 1801 un telar mecánico que utilizaba tarjetas perforadas para tejer patrones de distintos colores. Estas tarjetas se utilizarían mucho después para programar en los ordenadores.
Joseph Marie Jacqard inventó en 1801 un telar mecánico que utilizaba tarjetas perforadas para tejer patrones de distintos colores
6. La máquina analítica (Reino Unido, 1833). Charles Babbage, matemático y científico de la computación, ideó la primera máquina analítica, que podríamos considerar la antecesora lejana del ordenador. Trabajó con Ada Lovelace, que fue quien sugirió utilizar las tarjetas perforadas de Jacqard para programar la máquina.
7. El álgebra de Boole (Reino Unido, 1854). El matemático George Boole desarrolla la llamada álgebra de Boole, poniendo las bases de la teoría de la información, que convertía los «y», «o» y «no» en fórmulas matemáticas.
8. Las emisiones termoiónicas (Estados Unidos, 1863). Thomas Edison descubrió las emisiones termoiónicas, los bloques fundamentales de toda la industria electrónica.
9. El disco de Nipkow (Reino Unido, 1925). Este dispositivo, inventado por el alemán Paul Gottieb Nipkow, fue un paso adelante en la captación y reproducción de imágenes, siendo uno de los avances que permitieron el nacimiento y desarrollo de la televisión tal y como la conocemos hoy. Fue utilizado por John Logie Baird, inventor del sistema de televisión pública y del tubo de televisión en color.
10. La programación automática (Reino Unido, 1936). Alan Turing puso las bases para desarrollar la programación automática, demostrando que las computadoras podían simular problemas y situaciones más complejas de lo que se creía hasta el momento.
John Bardeen, William Shockley Walter Brattain compartieron el Nobel de Física de 1956 por su trabajo en semiconductores y el descubrimiento del efecto transistor
11. El transistor (Estados Unidos, 1948). John Bardeen, dos veces Premio Nobel de Física, inventa el transistor, que revolucionó la industria electrónica: dio paso a la era de la información y es la base de prácticamente todos los dispositivos modernos, desde los teléfonos y los ordenadores a los misiles.
12. La memoria de núcleos magnéticos (1949, Estados Unidos). El ingeniero An Wang vendió a IBM la patente de la memoria de núcleos magnéticos, que no llegó a construir, por cuatrocientos mil dólares, y utilizó el dinero para fundar su propia compañía. Su función era similar a la de la memoria RAM: daba a la CPU el espacio para trabajar, y en ella se grababan los resultados inmediatos de las operaciones que iba realizando.
13. COBOL (Estados Unidos, 1952). Inspirado en un lenguaje diseñado por la científica de computación Grace Hopper, COBOL fue creado para ser un lenguaje de programación universal que pudiese ser utilizado en cualquier ordenador, y especialmente orientado a los negocios.
14. SABRE (Estados Unidos, 1953). American Airlines e IBM desarrollan el sistema operativo SABRE, creado para gestionar llamadas y reservas de vuelos en tiempo real. Era lo más moderno de la época, y llegó a procesar unas 84.000 llamadas diarias.
15. John F. Kennedy (Estados Unidos, 1961). Con su discurso en defensa de la carrera espacial y su intención de que Estados Unidos llegase a la Luna, Kennedy consiguió que se destinasen grandes presupuestos a la investigación en ingeniería informática.
16. Las bases de datos (Estados Unidos). Esenciales para el entorno computacional de hoy en día, la primera vez que se utilizó el término «base de datos» fue en un simposio en California en 1963.
17. El IBM S/360 (Estados Unidos, 1964). Se trataba del primer ordenador en usar microprogramación, y creó el concepto de arquitectura de familia: fue la primera gama de ordenadores diseñados para cubrir las aplicaciones independientemente de su tamaño o ambiente. Esto fue la base del mercado de los ordenadores porsonales.
18. La interacción humano-máquina (Estados Unidos, 1964). Doug Engelbart crea los primeros conceptos de ratón, interfaz gráfica de usuario e hipertecto. Pasaron diez años hasta que Xerox PARC desarrolló estas ideas.
19. Intel (Estados Unidos, 1964). Gordon Moore y Robert Noyce crearon la empresa Intel para construir los circuitos integrados. Solo un año después, enunciaron la famosa ley de Moore.
La primera patente es un hito crucial en la industria del ‘software’, ya que sin ellas no habría conseguido el capital para desarrollarse
20. La primera patente de ‘software’ (Estados Unidos, 1968). Martin Goetz se convierte en el primero en patentar un programa informático, un hito crucial en el desarrollo de la industria del software, ya que sin las patentes difícilmente habría conseguido el capital para desarrollarse.
21. Atari (Estados Unidos, 1972). El momento en el que Nolan Bushnell fundó la empresa Atari, y el del triunfo de su segundo juego, Pong, pueden considerarse el despegue de la industria de los videojuegos como tal. Además, sirvió para atraer e interesar a las generaciones más jóvenes, convirtiendo el sector en uno de los más deseados para trabajar desde entonces.
22. El microprocesador 8008 (Estados Unidos, 1972). Intel lanzó el microprocesador de 8 bits 8008, que pronto sustituyó por el 8080. Fue el primer microprocesador real, que condujo hacia la revolución de los PCs.
23. VisiCalc (Estados Unidos, 1979). Fue el primer programa de hoja de cálculo disponible para ordenadores personales. Se considera la aplicación que convirtió los PCs en una herramienta de negocios seria y práctica, y no solo un producto para entusiastas de la informática. En seis años vendió setecientas mil copias.
24. El lenguaje PostScript (Estados Unidos, 1982). Se trata de un lenguaje de descripción de páginas utilizado en impresoras para unificar estándares cuando se utilizan ordenadores y sistemas operativos diferentes, de forma que la impresora reconozca qué es una página y cómo imprimirla.
25. La World Wide Web (Reino Unido, 1989). Tim Berners Lee crea la web mientras trabaja en el CERN. Lo que consigue es unir hipertexto e internet, de forma que fuese posible navegar de unos documentos a otros a través de enlaces.
26. Mosaic (Estados Unidos 1992). Aunque Berners Lee también creó el primer navegador, Mosaic fue seguramente el primero dedicado a los consumidores generales. Fue la base para las primeras versiones de Mozilla y de Spyglass (comprado por Microsoft y renombrado como Internet Explorer).
Si no hubiese sido por los buscadores, el boom de la información que vivimos en nuestros días no habría ocurrido a la misma velocidad
27. La arquitectura RISC (Reino Unido, 1985). Los procesadores ARM, basados en la arquitectura RISC, son ideales para aplicaciones de baja potencia, y por tanto se han convertido en dominantes en el mercado de la electrónica móvil, integrados en microprocesadores de bajo consumo y relativamente baratos.
28. Archie (Reino Unido, 1993). Archie fue la primera herramienta de búsqueda diseñado para localizar archivos FTP. Utilizaba un formulario como interfaz y y ya combinaba las tres funciones básicas de un motor de búsqueda: rastreo, indexación y búsqueda. Con el tiempo, fue sustituido por la WWW, pero si no hubiese sido por los buscadores, el boom de la información que vivimos en nuestros días no habría ocurrido a la misma velocidad.
@BrenpCom
#Web #Noticias #España #Madrid #Barcelona #Valencia #Sevilla #Zaragoza #Málaga #Murcia #Palma #Mallorca #LasPalmas #Andalucía #Bilbao