Читать книгу El gran reto presente - Rolando Carrasco Antonio - Страница 6
ОглавлениеUN TRÁNSITO HISTÓRICO
Desde la máquina de códigos enigma hasta la codificación de alta complejidad de la computación
1936-1937: Alan Turing fue un científico británico pionero en ciencias de la computación. Durante la Segunda Guerra Mundial, desarrolló una máquina que ayudó a romper el código alemán «enigma». También sentó las bases para la computación moderna y teorizó sobre la inteligencia artificial.
1945: El matemático John von Neumann emprendió un estudio de la computación que demostró que una computadora podría tener una estructura simple y fija, y a la vez ser capaz de ejecutar cualquier tipo de cálculo dado o control adecuadamente programado sin la necesidad de hardware modificación. Von Neumann contribuyó a una nueva comprensión de cómo las computadoras rápidas y prácticas deberían organizarse y construirse.
1946: El ordenador digital ENIAC, con 18.000 tubos de vacío y un peso de 30 toneladas se constituye como la primera computadora electrónica del mundo a gran escala. Computadora de propósito general, construida por Mauchly y Eckert, y activada en la Universidad de Pensilvania en 1946.
Las computadoras de primera generación dependían del lenguaje de la máquina, el lenguaje de programación de nivel más bajo entendido por los ordenadores, para realizar operaciones, y solo podían resolver un problema a la vez. Esto llevaba a los operadores días o incluso semanas para establecer un nuevo problema. La entrada se basó en tarjetas perforadas y cinta de papel, y la salida se mostraba en impresiones.
1948: Apareció «Una teoría matemática de la comunicación» artículo del matemático, ingeniero eléctrico y criptógrafo Claude E. Shannon, publicado en el diario técnico de Bell System en 1948. Su trabajo fue renombrado como la teoría matemática de la comunicación (teoría de la información) en el libro del mismo nombre; un pequeño pero significativo cambio de título después de darse cuenta de la validez general de este trabajo.
1948: El transistor fue inventado en los laboratorios Bell. Este dispositivo electrónico semiconductor cumplía funciones de amplificador, oscilador, conmutador o rectificador. Después, en 1954, Texas Instruments diseña la primera radio de transistores.
1951: Se fabricaron los primeros tubos de vacío UNIVAC I (Universal Automatic Computer) en Estados Unidos. De 1951 a 1958 se entregó un total de 46 UNIVAC I para computadoras, todas las cuales han sido eliminadas gradualmente. En 1947, John Mauchly eligió el nombre «UNIVAC» para el producto de su empresa.
1958: Texas Instruments desarrolló los circuitos integrados por John Bordeen, Walter Houser y William Bradford (premio Nobel de física en 1956).
1961: Los transistores se incorporan a las computadoras de bastidor principal (1956-1963). El mundo vería que los transistores reemplazarían a los tubos de vacío en la segunda generación de computadoras. El transistor era muy superior al tubo de vacío, lo que permitía a las computadoras ser más pequeñas, más rápidas, más baratas, más eficientes energéticamente y más fiables que sus predecesoras de primera generación.
1964: El IBM 7030 Stretch fue considerado el ordenador más rápido del mundo desde 1961 hasta que el primer CDC 6600 entró en funcionamiento en 1964. Originalmente diseñado para cumplir con un requisito formulado por Edward Teller en Lawrence Livermore, el primer ejemplar fue entregado al Laboratorio Nacional de los Álamos en 1961, así como una segunda versión personalizada del IBM 7950 Harvest.
1964: Equipos de circuitos integrados (1964-1971). El desarrollo del circuito integrado fue el sello distintivo de la tercera generación de ordenadores. Los transistores fueron miniaturizados y colocados en chips de silicio, llamados «semiconductores», los cuales aumentaron drásticamente la velocidad y la eficiencia de los ordenadores.
1960: Una calculadora electrónica es típicamente un dispositivo electrónico portátil utilizado para realizar cálculos que van desde aritmética básica a matemáticas complejas. La primera calculadora electrónica de estado sólido fue creada a principios de la década de 1960. Los dispositivos de bolsillo estaban disponibles en la década de 1970, especialmente después de que el Intel 4004, el primer microprocesador fuera desarrollado por Intel para la compañía de calculadora japonesa Busicom. Más tarde, se utilizaron de manera regular dentro de la industria petrolera.
1971: Se inició el desarrollo de los microprocesadores. El microprocesador trajo la cuarta generación de computadoras, ya que miles de circuitos integrados fueron construidos en un solo chip de silicio. Lo que en la primera generación llenó una habitación entera, ahora podría caber en la palma de la mano. El chip Intel 4004, desarrollado en 1971 (después Intel 8008 y 8085), reúne todos los componentes del equipo, desde la unidad de procesamiento central y la memoria hasta los controles de entrada/salida.
1981: IBM introdujo su primer ordenador para uso doméstico y Apple introdujo el Macintosh en 1984 (Osborne y Commodore e IBM PC Intel 8080). Los microprocesadores también se movieron fuera del ámbito de las computadoras de escritorio y en muchas áreas de la vida a medida que más y más productos cotidianos empezaron a utilizar microprocesadores.
1999: RIM introdujo BlackBerry 850. La compañía vende sus acciones en NASDAQ, generando 250 millones de dólares. RIM presenta BlackBerry 850 Wireless Handheld, combinando correo electrónico, redes de datos inalámbricos y un teclado tradicional llamado «QWERTY». En 2004 presenta los ordenadores portátiles
2007: El iPhone (iPhone 2G) es el primer smartphone diseñado y comercializado por Apple Inc. Contaba con conectividad celular GSM Quad-Band con soporte GPRS y EDGE para la transferencia de datos. El desarrollo del iPhone data de 2005, cuando el ex CEO de Apple, Steve Jobs, concibió la idea de un dispositivo con el que los usuarios pudieran interactuar directamente con la interfaz de pantalla.
2017: Las próximas CPU de Intel. Intel afirma haber alcanzado un hito con 100 millones de transistores por milímetro cuadrado. En general, esto lleva a un aumento de la densidad del transistor en 2.7x más de 14 nm comparado con otras tecnologías de fundición.
2018: Se presenta el Gram Computer 35000 CPU, un computador muy complejo, de 50 millones de gigabytes.
Presente-futuro: La computación cuántica es el uso de fenómenos mecánicos cuánticos, como la superposición y el entrelazamiento, para realizar cálculos. Un ordenador cuántico se utiliza para realizar este tipo de computación, que se puede implementar teórica o físicamente. Los científicos ya han construido computadoras cuánticas básicas que pueden realizar ciertos cálculos; pero un ordenador cuántico práctico todavía está a años de distancia, aún tenemos que aprender lo que es un ordenador cuántico y lo que se utilizará en la próxima era de la computación.
Presente y más allá. Inteligencia artificial. Los dispositivos informáticos de quinta generación, basados en la inteligencia artificial, todavía están en desarrollo, aunque hay algunas aplicaciones, como el reconocimiento de voz, que ya se están utilizando hoy en día. El uso del procesamiento paralelo y de los superconductores ayuda a hacer realidad la inteligencia artificial. Computación cuántica y molecular y nanotecnología cambiarán radicalmente la cara de los ordenadores en los años venideros. El objetivo de la computación de quinta generación es desarrollar dispositivos que respondan a la entrada del lenguaje natural y sean capaces de aprender y autoorganizarlo.
La singularidad tecnológica o, simplemente singularidad, es un hipotético momento futuro en el que el crecimiento tecnológico se vuelve incontrolable e irreversible, provocando cambios insondables en la civilización humana.