El ábaco. El ábaco fue quizá el primer dispositivo mecánico de contabilidad que existió. Se calcula que tuvo su origen hace al menos 5.000 años y su efectividad ha soportado la prueba del tiempo, estando todavía en uso en varios países.
|
Pascalina |
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. Se le llamó Pascalina. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó ser un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos aritméticos.
El inventor y pintor Leonardo Da Vinci (1452-1519) trazó las ideas para una calculadora mecánica. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
LA LOCURA DE BABBAGE. La máquina analítica
En el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna.
Charles Babbage (1793-1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de los ordenadores si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware para cómputo al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la máquina de diferencias Babbage concibió la idea de una "máquina analítica". En esencia, ésta era un ordenador de propósito general. Conforme con su diseño, la máquina analítica de Babbage podía sumar, restar, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranajes y mecanismos que cubrirían el área de un campo de fútbol y necesitaría accionarse por una locomotora. Los escépticos le pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte. Los trazos detallados de Babbage describían las características incorporadas ahora en los modernos ordenadores electrónicos.
Si Babbage hubiera vivido en la era de la tecnología electrónica y de la fabricación mecánica de precisión, hubiera adelantado el nacimiento del ordenador varías décadas. Irónicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de los ordenadores electrónicos ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de programa secuencial.
La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios.
Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos.
Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus.
Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes.
En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945.
El MARK1 de IBM, realizado en 1944 con la colaboración de la Universidad de Harvard, estaba basada en relés y no era una máquina de propósito general.
El ENIAC (acrónimo de Electronic Numerical Integrator and Computer), que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC) obtuvo una patente que caducó en 1973, varias décadas más tarde.
El ENIAC, mil veces más veloz que sus predecesores electromecánicos, irrumpió como un importante descubrimiento en la tecnología de la computación. Pesaba 30 toneladas y ocupaba un espacio de 450 metros cuadrados, llenaba un cuarto de 6 m x 12 m. Contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente.
Cargar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas, con una alta probabilidad de que se produjesen errores. A diferencia de los ordenadores actuales que operan con un sistema binario (0,1) el ENIAC operaba con uno decimal (0,1,2..9).
El ENIAC requería una gran cantidad de electricidad. Se cuenta que, construido en la Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se activaba. La imponente escala y las numerosas aplicaciones generales del ENIAC señalaron el comienzo de la primera generación de ordenadores.
Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas.
Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados.
El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño.
Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.
Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.
Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano.
Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares (mediante la "nanotecnología"). En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes. Las computadoras moleculares podrían llegar a resolver problemas complicados mucho más rápidamente que las actuales supercomputadoras y consumir mucha menos energía.
En 1945, John von Neumann, que había trabajado con Eckert y Mauchly en la Universidad de Pensilvania, publicó un artículo acerca del almacenamiento de programas. El concepto de programa almacenado permitió la lectura de un programa dentro de la memoria del ordenador, y después la ejecución de las instrucciones del mismo sin tener que volverlas a escribir. El primer ordenador en usar el citado concepto fue el llamado EDVAC (Eletronic Discrete-Variable Automatic Computer, es decir ordenador automático electrónico de variable discreta), desarrollado por Von Neumann, Eckert y Mauchly.
Hasta este punto, los programas y datos podían ser introducidos en el ordenador sólo con la notación binaria, que es el único código que los ordenadores "entienden". El siguiente desarrollo importante en el diseño fueron los programas intérpretes, que permitían a las personas comunicarse con ellos utilizando medios distintos a los números binarios.
En 1952 Grace Murray Hoper una oficial de la Marina de EE.UU., desarrolló el primer compilador, un programa que puede traducir enunciados parecidos al inglés en un código binario comprensible para la maquina llamado COBOL (Common Business-Oriented Languaje)
Generaciones de ordenadores
Primera Generación (de 1951 a 1958)
Los ordenadores de la primera Generación emplearon válvulas para procesar información. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas, constituyendo el antecesor de los discos duros actuales.
La compañía IBM tenía el monopolio de los equipos de procesamiento de datos basándose en tarjetas perforadas y estaba teniendo un gran auge en productos como básculas, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950. Comenzó entonces a construir ordenadores electrónicos (Serie MARK) y su primera entrada en el mercado fue con el IBM 701 en 1953.
Después de un lento pero excitante comienzo el IBM 701 se convirtió en un producto comercialmente viable, del que se vendieron un total de 18 equipos hasta 1957. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de los ordenadores. La Dirección de IBM asumió un gran riesgo y estimó una venta de 50 unidades; este número era mayor que la cantidad de ordenadores instalados en esa época en todos los EE.UU. De hecho la IBM instaló 1.000 unidades. El resto es historia.
Aunque caros y de uso limitado los ordenadores fueron aceptados rápidamente por las compañías privadas, del Gobierno y de la Administración. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de ordenadores.
Segunda Generación (1959-1964)
El invento del transistor hizo posible una nueva generación de ordenadores, más rápidos, más pequeños y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Los ordenadores de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Los programas de los ordenadores también mejoraron. El COBOL desarrollado durante la 1ª generación estaba ya disponible comercialmente. Los programas escritos para un ordenador podían transferirse a otro con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware del ordenador. Los ordenadores de la 2ª Generación eran sustancialmente más pequeños y rápidos que los de válvulas, y se usaban para nuevas aplicaciones, como en los sistemas para reserva en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicarlos para tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.
La marina de EE.UU. utilizó los ordenadores de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I).
Tercera Generación (1964-1971)
Los ordenadores de la tercera generación emergieron con el desarrollo de los circuitos integrados (chips de silicio) en los cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Los ordenadores nuevamente se hicieron más pequeños, más rápidos, desprendían menos calor y eran más eficientes.
Miniordenadores. Con la introducción del modelo 360 IBM acaparó el 70% del mercado. Para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC dirigió sus esfuerzos hacia ordenadores pequeños, mucho menos costosos y más fáciles de operar que los grandes éstos se desarrollaron durante la segunda generación pero alcanzaron su mayor auge entre 1960 y 70.
Cuarta Generación (1971 a la fecha)
Dos mejoras en la tecnología de los ordenadores marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador hizo posible la creación de los ordenadores personales. (PC) y la integración del ordenador como elemento esencial de las Telecomunicaciones.
Algo de lo último
Como última novedad, además de todos los equipos que circulan por nuestros mercados, podemos hacer mención a lo último que sacó Apple, el Macbook Pro.
El MacBook Pro con pantalla Retina sorprende porque es asombrosamente fino y ligero. Pero lo increíble de verdad es que un portátil así sea, además, tan y tan potente. Cada milímetro está fabricado y montado con la máxima precisión. Se sustituyeron viejas tecnologías como el disco duro giratorio y las unidades de disco óptico, que tanto ocupan, por opciones de alto rendimiento como el almacenamiento flash. ¿Por qué? Porque es mucho más rápido y fiable y ocupa hasta un 90% menos. Con todo esto, no es extraño que el MacBook Pro sea tan versátil y cómodo de llevar.El MacBook Pro con la pantalla Retina revoluciona el mundo de los portátiles y eleva su categoría a un nivel estratosférico. Todo lo que ves tiene una definición asombrosa y todo lo que haces es mucho más rápido.
Al tener 4 veces más píxeles que una pantalla normal, (más de cuatro millones de píxeles en el modelo de 13 pulgadas y más de cinco millones en el de 15), los vídeos se ven más claros, nítidos y reales. Además, cambiará por completo la forma de editar vídeo, sobre todo en Final Cut Pro X y iMovie, porque por primera vez en un portátil, se pueden ver vídeos con una precisión de píxeles de 1080p HD mientras queda espacio de sobra para trabajar en la pantalla.
La pantalla Retina también reduce los reflejos hasta un 75% y a la vez ofrece un color y una calidad asombrosos. Además, la tecnología IPS hace posible un ángulo de visión de 178º, lo cual te permite ver perfectamente la pantalla desde cualquier ángulo.
|
Macbook Pro |
Hoy, 14 de noviembre de 2012, sale una noticia en la prensa referente al ordenador más rápido del mundo, se llama Titan y es de la empresa estadounidense Cray, ubicada en el Laboratorio Nacional Oak Ridge del Gobierno de Estados Unidos. Ha superado al sequoia, otro dispositivo de IBM, que hasta ahora ostentaba el record.
El ranking publicado por investigadores de Estados Unidos y Alemania revela que Titan, ubicado en Tennessee alcanzó 17,59 petaflops que equivalen a 4.000 billones de cálculos por segundo.
En la lista de los 500 superordenadores más rápidos del mundo, copada por americanos y chinos, hay que bajar hasta el 5º puesto para encontrar el primer dispositivo europeo, el Juqueen de Alemania, con 4,14 petaflops. Y hay que retroceder aún más, al puesto 36, para localizar al primer español, el Mare Nostrum de Barcelona Computering Center. En este mismo centro está el Bullx, el otro ordenador español que se ha colado en las lista de los 500 más potentes.
En la relación no aparece el superordenador gallego Finisterrae, del Cesga, aunque este no se caracteriza por su rapidez de cálculo sino por su extensa memoria. Es el superordenador con mayor memoria compartida de Europa.