Portada » Blog » Historia de la computadora

Historia de la computadora

Los elementos de hardware de la computación han experimentado una mejora significativa durante su historia.

Historia de la computadora

Esta mejora ha disparado el uso mundial de la tecnología, las prestaciones han mejorado y el precio ha bajado. Los ordenadores se han convertido comodidades accesibles a sectores cada vez mayores de la población.

El hardware de computación se ha convertido en una plataforma para usos distintos a los de la computación, tales como la automatización, la comunicación, el control, el entretenimiento y la educación. Cada uno de estos campos ha creado sus propios requerimientos al hardware, que a su vez ha evolucionado para dar respuesta a estos requerimientos.

Primeras calculadoras

Los primeros indicios de cálculo numérico fueron introducidos en 3000 aC por los babilonios , que habitaron en la

Estos empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras que utilizaban para hacer sus cuentas agrupándolas en carriles de caña.

Más tarde, los chinos desarrollaron el ábaco , con el que realizaban cálculos rápidos y complejos. Este instrumento tenía un marco de madera y cables horizontales con bolas agujereadas que corrían de izquierda a derecha.

Al siglo XVII John Napier , matemático (escocés famoso por la invención de los logaritmos (unas funciones matemáticas que permiten convertir las multiplicaciones en sumas y las divisiones en restos) inventó un dispositivo de un palet con números impresos que, gracias a un mecanismo ingenioso y complicado, le permitía realizar operaciones de multiplicación y división. También referido como los huesos de Napier .

Basado en los logaritmos neperianos, William Oughtred inventó el 1610 una regla que mediante sumas y restas permitía cálculos aritméticos.

El 1617 , Wilhelm Schickard (matemático alemán) diseñó una primera calculadora capaz de sumar, restar, multiplicar y dividir. Cuando terminaba su invento, un incendio lo destruyó, pero quedaron unos esquemas que permitieron reconstruir el artefacto el 1970 .

El 1642 , el físico y matemático francés Blaise Pascal inventó el primer calculador mecánico, la pascalina . Posteriormente Pascal el mejoró con la capacidad de tener una memoria mecánica que acumulaba resultados de operaciones anteriores.

A los 18 años, deseando reducir el trabajo de cálculo de su padre que era funcionario de impuestos, fabricó un dispositivo de 8 ruedas dentadas en el que cada una hacía avanzar un paso siguiente cuando completaba una vuelta.

Estaban marcadas con números del 0 al 9 y había dos para los decimales, por tanto podía manejar números entre 000000,01 y 999.999,99. Las ruedas giraban mediante una manivela, con lo que para sumar o restar había que hacerle el número de vueltas correspondiente en un sentido o en otro.

Treinta años después el filósofo y matemático alemán Gottfried Leibniz inventó una máquina de cálculo que podía multiplicar, dividir y obtener raíces cuadradas en sistema binario basándose en la pascalina.

Hizo un estudio sobre la matemática binaria sobre el que George Boole desarrolló un sistema de lógica, el álgebra de Boole el 1,854 , un paso importante para los primeros ordenadores.

Preordinadors: tarjetas perforadas

El 1805 el inventor y mecánico francés Joseph Marie Jacquard , inventó un telar automático que utilizaba un mecanismo para copiar prototipos de telas difíciles de reproducir mediante la clasificación, duplicación y copia de tarjetas perforadas.

En Charles Babbage (1793-1871) creó un motor analítico que permitía sumar, sustraer, multiplicar y dividir sin necesidad de intervención humana a una velocidad de 60 sumas por minuto.

En 1843 Ada Byron  (1815-51) sugirió la idea de que las tarjetas perforadas se adaptaran de manera que el motor de Babbage repitiera ciertas operaciones.

Debido a esta sugerencia algunos consideran Lady Lovelace la primera programadora y Charles Babbage como el auténtico inventor del ordenador digital moderno.

El 1879 , Herman Hollerith , con 19 años, fue contratado como asistente en las oficinas del censo estadounidense y desarrolló, basándose en el telar mecánico de Joseph Marie Jacquard, un sistema de cómputo que funcionaba primero con una cinta y luego mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, etc.

Gracias a la máquina tabuladora de Hollerith el censo de 1890 (de 60 millones de habitantes) se realizó en dos años y medio, cinco menos que el censo de 1880.

En Hollerith dejó las oficinas del censo el 1.896 para fundar su propia Compañía: la Tabulating Machine Company .

El 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto (en vez de las 80 cuando se hizo el censo), una perforadora de tarjetas y una máquina de cómputo semiautomática.

El 1924 Hollerith fusionó su compañía con otras dos para formar la International Business Machines hoy mundialmente conocida como IBM.

Computadores analógicos avanzados

Antes de la Segunda Guerra Mundial, los ordenadores analógicos eléctricos y mecánicos eran considerados el ” estado del arte “, y muchos pensaban que era el futuro de la computación.

Los ordenadores analógicos toman la ventaja de las grandes similitudes entre las matemáticas de fenómenos a baja-escala -la posición y el movimiento de las ruedas, o el voltaje y la corriente de los componentes electrónicos- y las matemáticas de otros fenómenos a mayor escala, como las trayectorias balísticas, la inercia, la resonancia, la transferencia de energía, el momento, etc.

Así pues, estos sistemas modelan y simulan estos últimos fenómenos mediante los primeros, usando el voltaje y la corriente como cantidades analógicas, permitiendo a los usuarios predecir el comportamiento de los sistemas de interés observando sólo sus análogos eléctricos.

Primeros computadores digitales

La era de la computación moderna comenzó con un intenso periodo de desarrollo antes y durante la Segunda Guerra Mundial, con el uso de elementos electrónicos como sustituto de sus equivalentes mecánicos, y con los cálculos digitales sustituyendo a los cálculos analógicos.

Máquinas como la Z3, la Atanasoff-Berry Computer, los ordenadores Colossus, y el ENIAC fueron construidas a mano usando circuitos que contenían relés y válvulas ( válvulas de vacío ) ya menudo usaban tarjetas perforadas o papel perforado como entrada y como la principal (no volátil) memoria de almacenamiento.

Los primeros ordenadores electrónicos y programables fueron diseñados por el alemán Konrad Zuse : el Z1 ( 1938 ) y el Z3 ( 1941 ).

Durante la II Guerra Mundial , un equipo de científicos y matemáticos, dirigidos por Alan Mathison Turing , que trabajaban en Bletchley Park , al norte de Londres (Inglaterra), crearon lo que se consideró como el primer ordenador digital totalmente electrónico: el COLOSSUS .

Hacia el 1943 , ya estaba totalmente operativo y fue utilizado para descodificar los mensajes de radio cifrados de los alemanes.

A principios de los años 30 , John Vincent Atanasoff , un estadounidense doctorado en física teórica, hijo de un ingeniero electrónico emigrado de Bulgaria y de una maestra de escuela, se encontró que los problemas que debía resolver requerían una excesiva cantidad de cálculos.

Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Charles Babbage , comenzó a considerar la posibilidad de construir un calculador digital.

Decidió que la máquina debería operar en sistema binario, y hacer los cálculos de manera diferente a como los realizaban las calculadoras mecánicas.

Con 650 dólares donados por el Consejo de Investigación del Estado de Iowa , pidió la cooperación de Clifford Berry , estudiante de ingeniería, y los materiales para un modelo experimental.

Posteriormente recibió otras donaciones que sumaron 6460 dólares. Este primer aparato creado fue conocido como ABC Atanasoff- Berry-Computer

Prácticamente al mismo tiempo que Atanasoff, el ingeniero John Mauchly se había encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que habría una forma de acelerar el proceso por medios electrónicos.

Al carecer de medios económicos, construyó un pequeño calculador digital y se presentó en el congreso de la Asociación Americana para el Avance de la Ciencia para presentar un informe sobre el mismo. Allí, en diciembre de 1940 , se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó una disputa sobre la paternidad del computador digital.

Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el mérito de la creación del primer ordenador, sino que fue el esfuerzo de muchas personas.

No obstante en el antiguo edificio de Física de la Universidad de Iowa figura una placa que dice: “El primer computador digital electrónico de operación automática fue construido en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la universidad, y es quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física “.

Ordenador Z3

El ordenador Z3 , creado por Konrad Zuse , fue la primera máquina programable y completamente automática de características usadas para definir un ordenador.

Estaba construido con 2200 relés, tenía una frecuencia de refresco de aproximadamente 5 Hz , y una longitud de respuesta de 22 bits.

Los cálculos eran realizados con aritmética en coma flotante puramente binaria . La máquina fue completada en 1941 (el 12 de mayo de ese mismo año fue presentada a una audiencia de científicos en Berlín).

El Z3 original fue destruido el 1944 durante un bombardeo aliado de Berlín. Una réplica completamente funcional fue construida durante los años 60 por la compañía del creador Zuse KG y está en exposición permanente en el Deutsches Museum . El 1998 se demostró que el Z3 es Turing completo .

Mark I

Entre 1939 y 1.944 , Howard H. Aiken de la Universidad Harvard , en colaboración con IBM , desarrolló el Mark I o ASCC, conocido como Calculador Automático de Secuencia Controlada.

Fue un computador electromecánico de 15 metros de largo y 2,40 de alto, y pesaba 5 toneladas. Tenía 700.000 elementos móviles y de algunos cientos de kilómetros de cables. Podía realizar las cuatro operaciones básicas y trabajar con información almacenada en forma de cinta perforada.

Operaba con números de hasta 23 cifras decimales, tenía una capacidad de memoria de 72 números de 23 cifras y podía multiplicar dos números de 10 cifras en 10 segundos. Estaba basado en relés eléctricos , que permiten abrir y cerrar un circuito y el formaban un número de 5.000. Funcionó de 1944 hasta el 1959.

El Mark 1, y las versiones que posteriormente se realizaron del mismo, tenían el mérito de parecerse al tipo de máquina ideada por Babbage,  aunque trabajaban en código decimal y no en binario.

El avance que dieron estas máquinas electromecánicas a la informática fue rápidamente entristecido por el ENIAC con sus circuitos electrónicos.

Alan Turing , matemático inglés, descifrar los códigos secretos de Enigma usados por la Alemania nazi para sus comunicaciones. Turing fue un pionero en el desarrollo de la lógica de los computadores modernos, y uno de los primeros en tratar el tema de la inteligencia artificial.

Norbert Wiener , trabajó con la defensa antiaérea inglesa y estudió la base matemática de la comunicación de la información y del control de un sistema para derribar aviones. En 1948 publicó sus resultados en un libro que tituló Cybernetics ( Cibernética ), palabra que provenía del griego “piloto”, y que se usó ampliamente para indicar automatización de procesos.

ENIAC

El 1941 , Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania , donde conoció a John Presper Eckert , un instructor de laboratorio.

La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas.

La cantidad de cálculos necesarios era inmensa, tanto que se quedaba unos treinta días en completar una tabla mediante el uso de una máquina de cálculo analógica. Sin embargo, esto era unas 50 veces más rápido de lo que tardaba un hombre con una de sumadora de sobremesa.

En Mauchly publicó un artículo con sus ideas y las de Atanasoff, el cual despertó el interés de Herman Goldstine , un oficial de la reserva que hacía de mediador entre la universidad y el ejército, el cual logró interesar al Departamento de Ordenación en la financiación de un computador electrónico digital y de funcionamiento automatizado.

El 9 de abril de 1943 se autorizó a Mauchly y Eckert iniciar el desarrollo del proyecto. Se le llamó Electrónico Numerical Integrator and Computer ( ENIAC ) y comenzó a funcionar en las instalaciones militares norteamericanas del campo Aberdeen Proving Ground en Agosto de 1947.

La construcción tardó 4 años y costó $ 486.804,22 dólares (el equivalente actual a unos tres millones de dólares por menos poder de cómputo de lo que actualmente se consigue en las calculadoras de mano).

El ENIAC tenía 19.000 válvulas de vacío , [5] 1500 relés , 7500 interruptores , miles de resistencias , condensadores y inductores y 800 kilómetros de cableado , funcionando todo a una frecuencia de reloj de 100.000 ciclos por segundo.

Historia de la computadora1 (FILEminimizer)

Tenía 20 acumuladores de 10 dígitos, era capaz de sumar, restar, multiplicar y dividir, y tenía tres tablas de funciones. La entrada y la salida de datos se realizaba mediante tarjetas perforadas. Podía llevar a cabo una multiplicación de dos números de 10 cifras en 0,003 segundos.

Pesaba unas 30 toneladas y tenía un tamaño equivalente al de un salón de clases. Consumía 150 kilovatios de potencia eléctrica y necesitaba un equipo de aire acondicionado para disipar el gran calor que producía.

En promedio, cada tres horas de uso fallaba una de las válvulas. Su programación se realizaba estableciendo conexiones entre cables eléctricos y accionando gran cantidad de interruptor.

Lo que caracterizaba al ENIAC como computador moderno no era simplemente su velocidad de cálculo, sino el hecho de que permitía realizar tareas que antes eran imposibles.

Máquinas von Neumann de primera generación (1950-1960)

Durante la primera generación se fabricaron por primera vez ordenadores con fines comerciales.

En 1946 John Von Neumann propone una versión modificada del ENIAC; Von Neumann se incorpora al equipo de John Mauchly y J. Presper Eckert, y juntos construyen el EDVAC , el año 1952 .

Esta máquina presentaba dos importantes diferencias respecto a la ENIAC: En primer lugar emplea aritmética binaria, lo que simplifica enormemente los circuitos electrónicos de cálculo. En segundo lugar, permite trabajar con un programa almacenado.

El ENIAC se programaba enchufando centenares de clavijas y activando un pequeño número de interruptores. Cuando había que resolver un problema diferente, era necesario cambiar todas las conexiones, proceso que requería muchas horas.

En Von Neumann propuso cablear una serie de instrucciones y hacer que estas se ejecuten bajo un control central. Además propone que los códigos de operación que debían controlar las operaciones se almacenen de manera similar a los datos en forma binaria.

De esta manera el EDVAC no necesita una modificación del cableado para cada nuevo programa, pudiendo procesar instrucciones tan deprisa como los datos.

Además, el programa podía modificarse a sí mismo, ya que las instrucciones almacenadas, como datos, podían ser manipuladas aritméticamente. Es por tanto la primera máquina que incorpora memoria.

El 1951 John Mauchly y J. Presper Eckert entregan a la Oficina del Censo su primer computador: el UNIVAC I (Universal Automatic Computer).

Diseñada para propósitos de uso general. Es la primera máquina que permite procesar problemas alfanuméricos y de datos.

Es con el UNIVAC que nacen los ordenadores comerciales. Posteriormente aparece la UNIVAC-II con memoria de núcleos magnéticos , lo que lo hará superior a su antecesor, pero, por diversos problemas, esta máquina no verá la luz hasta que, en 1957 perderá su liderazgo en el mercado ante el 705 de IBM.

El 1953 aparece el IBM 701, el Burroughs E-101, y el Honeywell Datamatics 1000. Son la primera generación de ordenadores, con un sistema de lámparas de vacío que permitían o interrumpían el paso de la corriente. El 1953 IBM fabrica su primer ordenador a gran escala, el IBM 650 .

La segunda generación (1958-1964): Transistores

En la segunda mitad de los años 50, los transistores BJT sustituyen las válvulas de vacío. Esto da lugar a la “segunda generación” de computadoras.

En un principio se creía que se producirían y se usarían muy pocos computadores. Esto era en parte debido a su tamaño, el costo, y los conocimientos necesarios para operarlo o interpretar los resultados.

Los transistores redujeron enormemente el tamaño de los ordenadores, el coste inicial, y el costo de operación. El transistor de unión bipolar fue inventado en 1947.

Un transistor y una válvula cumplen funciones equivalentes, con lo que cada válvula puede ser reemplazada por un transistor. Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta de caza.

Mientras que las tensiones de alimentación de los tubos eran alrededor de los 300 voltios, las de los transistores son de 10 voltios, con lo que los otros elementos del circuito también pueden ser de menor tamaño, al tener que disipar y soportar tensiones mucho menores.

El transistor es un elemento constituido fundamentalmente por silicio o germanio . Su vida media es prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío.

Se crearon nuevas profesiones; programador, analista, experto en sistemas de información, y se inició la industria del software.

  • 1948 : William Bradford Shockley, John Bardeen y Walter H. Brattain Inventan el Transistor.
  • 1959 IBM saca su primer ordenador transistoritzat, los modelos 1620 hasta 1790
  • 1961 : Aparecen nuevos conceptos pioneros, entre ellos el carácter de 8 bits
  • 1962 : IBM saca al mercado los primeros discos extraíbles que se convirtió en un estándar de la industria de la computación.
  • 1963 : Un comité Industria-Gobierno desarrolla el código de caracteres ASCII (se pronuncia asques), el primer estándar universal para intercambio de información (American Standard Code for Information Interchange), el cual permitió que máquinas de todo tipo y marca pudieran intercambiar datos.
  • 1964 : La evolución de los ordenadores hace que surjan lenguajes de alto nivel, más comprensibles como el COBOL , FORTRAN o BASIC .

La tercera generación de ordenadores (1964-1971) – Circuitos Integrados

Aunque los circuitos integrados fueron inventados en el 1958, no fue hasta 1964 que se construyeron ordenadores con estos componentes. Fueron los primeros ordenadores a disponer de sistema operativo que controlaba la ejecución de los diferentes programas a ejecutar.

Jack Kilby de Texas Instruments fabrica el primer circuito integrado. La idea de un circuito integrado, es la de encapsular transistores en un mismo chip.

Haciendo que los transistores sean más pequeños y cercanos para que un impulso eléctrico, viaje más rápido, ya que debe transcurrir menos espacio. En un mismo chip se han integrado hasta millones de transistores.

1964

La aparición del IBM 360 marca el comienzo de la tercera generación . Las placas de circuito impreso con múltiples componentes pasan a ser sustituidas por los circuitos integrados.

Estos elementos son unas plaquitas de silicio llamadas chips, sobre la superficie de las cuales se coloca por medios especiales unas impurezas que hacen las funciones de varios componentes electrónicos. Esto representa un gran avance en cuanto a velocidad y, en especial, en cuanto a reducción de tamaño.

En un chip de silicio de aproximadamente un centímetro cuadrado cabe 64.000 bits de información. En núcleos de ferrita esta capacidad de memoria puede requerir cerca de un litro en volumen.

Investigadores del Instituto Tecnológico de Massachusetts ( MIT ), de la Corporación Rand y del Laboratorio Nacional de Física de Gran Bretaña, presentaron simultáneamente soluciones a lo propuesto por las Fuerzas Armadas estadounidenses.

Y ese mismo año la Fuerza Aérea asignó un contrato a la Corporación RAND para la llamada “red descentralizada”. Este proyecto fracasó después de muchos intentos y nunca fue realizado, pero la idea de una red que no dependiera de un solo punto central y con la transferencia de datos por paquete se quedó anclada en la cabeza de muchas personas.

En Paul Baran , que entonces trabajaba con Rand Corporation, fue uno de los primeros en publicar en Data Communications Networks sus conclusiones en forma casi simultánea con la publicación de la tesis de Kleinrock sobre teoría de líneas de espera.

Diseñó una red de comunicaciones que utilizaba computadores y no tenía casco ni gobierno central. Además, asumía que todas las uniones que conectaban las redes no eran suficientemente fiables.

El sistema de Baran trabajaba con un esquema que partía los mensajes en pequeños trozos y los ponía en sobres electrónicos, llamados ” paquetes ” cada uno con la dirección del remitente y del destinatario.

Los paquetes se lanzaban en una red de computadores interconectados, donde rebotaban del uno al otro hasta llegar a su punto de destino, en el que se juntaban nuevamente para recomponer el mensaje total.

Si alguno de los paquetes se perdía o se alteraba (y se suponía que algunos deberían dislocar), no era problema, ya que se volvían a enviar.

  • 1966. Texas instrumentos saca su primera calculadora de bolsillo.
  • 1968. Se funda Integrated Electronics ( Intel ) dedicada a la construcción de circuitos integrados.

La cuarta generación de ordenadores (1971 en adelante) – PC

Apple II de Apple , uno de los primeros ordenadores personales
La base de la cuarta generación fue la invención por parte de Marcian Hoff del microprocesador .

A diferencia de las minicomputadores de tercera generación, que eran esencialmente una versión reducida de ordenadores mainframe , los orígenes de la cuarta generación son fundamentalmente diferentes.

Los ordenadores basados en microprocesadores originariamente eran muy limitados en cuanto a la capacidad computacional y velocidad, y no eran por tanto ningún intento de hacer una versión de tamaño pequeño de un minicomputador, sino que iba dirigidos a un mercado completamente diferente.

Aunque la capacidad de computación y almacenamiento se ha incrementado espectacularmente desde los años 70, la tecnología subyacente de los chips ( LSI (large scale integration) o VLSI (very large scale integration)) se ha mantenido básicamente la misma, de modo que es ampliamente aceptado que la mayoría de ordenadores de hoy en día todavía pertenecen a la cuarta generación.

Algunos chips caracerístico eran el 8008, 8080 de Intel, el Z80 de Zilog o el 6800 de Motorola. Estos chips se diseñan con objetivos genéricos y gracias al software pueden ejecutar funciones muy diversas.

Durante esta generación la evolución de los microprocesadores ha seguido la ley de Moore (que en 1965 dijo que la capacidad de los microprocesadores se doblaría cada 2 años), duplicándose cada 18 meses.

  • 1971. Intel saca el microprocesador 4004. Encargado por una empresa japonesa para hacer una calculadora de escritorio. Era un chip de 4 bits, con 2.300 transistores que procesaban 108 kHz. Tenía una capacidad para 4KB de memoria.
  • 1973 . IBM saca al mercado los discos duros llamados Winchester.
  • 1975. Gary Klidall y John Torode sacan CP / M (Control Program for Microcomputers) el primer Sistema Operativo estándar, para las máquinas basadas en los chips 8080 de Intel y el Z80.
  • 1976 . Steve Wozniak y Steve Jobs fundaron Apple Computer .
  • 1978 . Intel fabrica la CPU, Intel 8086 (de 16 bits). IBM sacó al mercado su primer PC, con un chip de la misma familia, un intel 8088 (con bus de datos externo de 8 bits). De aquí surgieron los 80286 , 80386 (de 32 bits), 80486 (con coprocesador matemático incorporado), y Pentium, II, III y IV.
  • Los PCs que encontramos actualmente en el mercado son una evolución de los 8086.
  • 2000 Intel Fabrica el Pentium 4 con 42 millones de transistores.
  • 2.003 : Aparecen los primeros chips de 64 bits del Opteron de AMD y el Itanium de Intel dirigidos a usuarios domésticos.
  • 2005 : Se empiezan a comercializar los procesadores con varios núcleos o multi core para PCs domésticos.

El microprocesador y la reducción de costes

El Apple II , uno de los computadores de la “trinidad de 1977”. La unidad de disco mostrada es un modelo para el Apple III

Los antepasados (miniordenadores) del moderno ordenador personal usaban tecnología de circuitos integrados , que redujeron el tamaño y el coste, comparado a los transistores discretos. El proceso fue realizado por circuitos con una gran cantidad de componentes dispuestos en múltiples tarjetas grandes de circuitos impresos .

Los miniordenadores eran consecuentemente físicamente grandes y costosos en producir comparado con posteriores sistemas de microprocesadores.

Después de que el “ordenador en un chip” fuera comercializado, el costo de producir un sistema de computación cayó dramáticamente.

La aritmética, lógica, y las funciones de control que previamente ocuparon varias costosas tarjetas de circuitos, ahora estaban en un circuito integrado que era muy costoso de diseñar pero barato de producir en grandes cantidades.

Concurrentemente, los avances en el desarrollo de la memoria de estado sólido eliminar la voluminosa, costosa, hambrienta de energía memoria de núcleo magnético usada en anteriores generaciones de computadores.

El Altair 8800 y el IMSA 8080

El desarrollo del microprocesador en un solo chip fue un enorme catalizador en la popularización de verdaderos computadores personales baratos y fáciles de usar. E

l Altair 8800 , introducido en un artículo de la revista Popular Electronics en la edición de enero de 1975, fijó en ese entonces un nuevo punto de bajo precio para un ordenador, llevando la posesión del ordenador a un mercado ciertamente selecto en la década de 1970.

Esto fue seguido por el ordenador IMSAI 8080 (un clon del Altair 8800), con capacidades y limitaciones similares. El Altair y el IMSAI eran esencialmente miniordenadores reducidos y eran incompletos: para conectar un teclado o un teletipo ellos se requerían “periféricos” pesados y costosos. Las dos máquinas ofrecían un panel delantero con interruptores y lámparas, que se comunicaban con el operador binario .

Para programar la máquina después encenderla, el programa arranque loader (cargador de arranque) debía ser entrado, sin errores, en binario, y después, un interpretador BASIC se cargaba desde un lector de cinta de papel .

Teclear el cargador requirió la configuración hacia arriba o hacia abajo de un banco de ocho interruptores y pulsar el botón de “cargar” (load), una vez para cada byte del programa , que típicamente era de cientos de bytes de longitud. El ordenador podría correr programas escritos en BASIC una vez que el interpretador había sido cargado.

El MITS Altair 8800 , el primer kit de microprocesador comercialmente exitoso, fue ofrecido en la cubierta de la revista Popular Electronics en enero de 1975. Fue el primer kit del mundo, producido en masa, de un computador personal, así como el primer ordenador en usar un procesador Intel 8080.

Fue un éxito comercial con 10.000 Altairs despachados. El Altair también inspiró los esfuerzos de desarrollo de programas de Paul Allen y de su amigo de la universidad, Bill Gates , que desarrollaron un interpretador BASIC para el Altair, y después crearon Microsoft .

El Altair 8800 de MITS efectivamente creó una nueva industria de microcomputadores y de kits de computadores, con muchos otros siguiendo, por ejemplo una onda de pequeños computadores de negocios a finales de la década de 1970 basados en los microprocesadores Intel 8080, Zilog Z80 y Intel 8085 .

La mayoría corriendo el sistema operativo CP / M -80 desarrollado por Gary Kildall a Digital Research . CP / M-80 fue el primer sistema operativo de microcomputador popular a ser usado por muchos vendedores de hardware, y muchos paquetes de software fueron escritos para él, como WordStar y dBase II.

Para mediados de los años setenta, muchos aficionados diseñar sus propios sistemas, con diversos grados de éxito, y se congregaron juntos para facilitar el trabajo.

Fuera de estas reuniones de casa, el Homebrew Computer Club se convirtió en un lugar donde los aficionados se encontraron para hablar de lo que habían hecho, intercambiar diagramas esquemáticos y software, y demuestra sus sistemas.

Mucha gente construyó o ensambó sus propios ordenadores según diseños publicados. Por ejemplo, muchos miles de personas construyeron el ordenador casero Galaksija más adelante a principios de la década de 1980.

Se podría decir que el ordenador Altair, generó el desarrollo de las empresas Apple , así como de Microsoft la que produjo y vendió el interpretador de lenguaje de programación Altair BASIC , primer producto de Microsoft.

La segunda generación de microcomputadores, los que aparecieron en el final de la década de 1970, provocado por la inesperada demanda para los computadores de kit en los clubes de aficionados de la electrónica, eran usualmente conocidos como computadores caseros.

Para el uso de negocio, estos sistemas eran menos capaces y en cierto modo menos versátiles que los computadores de negocio grandes de estos días. Fueron diseñados para la diversión y propósitos educativos, no tanto para el uso práctico.

Y aunque se podían usar en ellos algunas aplicaciones simples de oficina / productividad, fueron generalmente usados por los entusiastas de las computadoras para aprender a programar y para correr juegos de ordenador, para los que los computadores personales del período eran menos convenientes y mucho más costosos.

Para los aficionados más técnicos, los computadores caseros también fueron usados para la interfaz electrónica, por ejemplo controlar modelos de trenes , y otras actividades del aficionado.

Micral N

En Francia, la compañía Réalisations te Etudes Electronique (R2E) [6] formada por dos ingenieros anteriores de la compañía de Intertechnique, André Truong Trong Thi [7] y François Gernelle, introdujo en febrero de 1973 un microcomputador, el Micral N basado en el Intel 8008.

Originalmente, el ordenador había sido diseñado para Gernelle, Lacombe, Beckmann y Benchitrite para el Institut National de la Recherche Agronomique para automatizar mediciones higrométricas.

El Micral N costó una quinta parte del precio de un PDP-8 , alrededor de 8500FF ($ 1300). El reloj del Intel 8008 fue fijado en 500 kHz, la memoria fue de 16 kilobytes. Un bus, llamado Pluribus fue introducido y permitía la conexión de hasta 14 tarjetas.

Diferentes tableros para entrada / salida digital, entrada / salida análoga, memoria, disco floppy, estaban disponibles para R2E. El sistema operativo de Micral fue llamado inicialmente Sysmic, y fue más tarde renombrado Prologue.

R2E fue absorbida por Bull en 1978. Aunque Bull continuara la producción de ordenadores Micral, no estaba interesado en el mercado del ordenador personal. y los computadores Micral fueron confinadas sobre todo a las puertas de peaje de la carretera (donde permanecieron en servicio hasta el 1992) y similares mercados muy especializado.

El microcomputador emerge

El advenimiento del microprocesador y de la memoria de estado sólido hizo la computación casera asequible.

Los primeros sistemas de computadores para el aficionado como, la Altair 8800 y el Apple I , introducidos alrededor de 1975 marcaron el lanzamiento de los chips de procesador de 8 bits de bajo coste, que tenían suficiente poder de computación para ser de interés para usuarios aficionados y experimentales.

Para 1977, sistemas preensamblados como el Apple II , Commodore PET , y el TRS-80 (más adelante denominados como la “Trinidad de 1977” por la revista Byte ) [12] comenzaron la era de los computadores personales mercadeados en masa; mucho menos esfuerzo fue requerido para obtener un ordenador operando, y aplicaciones como juegos, procesamiento de palabras, y hojas de cálculo comenzaron a proliferar.

A diferencia de los ordenadores de segunda mano en hogares, los pequeños sistemas empresariales fueron típicamente basados en el CP / M , hasta que IBM introdujera el IBM PC , que fue adoptado rápidamente.

El PC fue fuertemente clonado , llevando a la producción en masa ya la consiguiente reducción de costes a través de la década de 1980.

Esto expandió la presencia de los PC en los hogares, reemplazando la categoría del ordenador casero durante la década del 1990 y llevando a la actual monocultura de computadores personales arquitectónicamente idénticos.

Intento fallido de quinta generación

En 1982, el Ministerio de Industria Japonés intentó revolucionar el mundo de los ordenadores lanzando un proyecto para desarrollar ordenadores de quinta generación en un plazo de 10 años. Debían ser ordenadores capaces de utilizar inteligencia (sistemas expertos) para resolver los problemas.

Todo induce a pensar que los resultados de este proyecto no se correspondieron ni mucho menos con las expectativas que se generaron.

El futuro

Aún no se ha encontrado ningún sustituto comercial para los chips de silicio. Entre otros, se habla de los ordenadores basados en ADN (donde moléculas de ADN interaccionarían realizando cálculos en paralelo), los ordenadores cuánticos (Que no estarían basados sólo en el 0 o el 1, sino también en un conjunto de estados intermedios típicos de la física cuántica).

Una tendencia constante en el desarrollo de los ordenadores es la microminiaturització , iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño.

Actualmente existen ordenadores de bolsillo , que se pueden coger con una sola mano, con casi las mismas prestaciones de un ordenador personal.

Los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad , un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.

Las redes informáticas han adquirido cada vez más importancia en el desarrollo de la tecnología informática.

Las redes son grupos de ordenadores interconectados mediante sistemas de comunicación. La red pública Internet , es un ejemplo de red informática planetaria.

Las redes permiten que los ordenadores conectados intercambien rápidamente información, y en algunos casos, compartan una tarea, con lo que muchos ordenadores pueden cooperar para realizar un trabajo específico.

Una vía que se está explorando activamente es el ordenador de proceso paralelo , que utiliza muchos chips para realizar varias tareas diferentes al mismo tiempo. Este proceso paralelo podría llegar a reproducir, hasta cierto punto, las complejas funciones que caracterizan el pensamiento humano.

Otra forma de proceso paralelo que se está investigando es la utilización de ordenadores moleculares . En estos ordenadores, los símbolos lógicos se expresarían por unidades químicas de ADN en vez de por el flujo de electrones habitual en los ordenadores de ahora.

Los ordenadores moleculares podrían llegar a resolver problemas complicados mucho más rápidamente que los actuales superordenadores con un gasto mucho menor de energía .

Visita nuestro artículo estrella de raiola manda y no el panda

Dejar Comentario

Click here to post a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *