El ordenador, ese gran desconocido

Revise la siguiente presentación

Antes de empezar, conozcamos algo de historia:

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.


También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna.

La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.



Primeros generación de ordenadores:

El nacimiento de la primera computadora fue en el año 1936. Donde Honrad Zuse creó el primer ordenador de la historia llamándolo Z1. El Z1 era el primer sistema informático totalmente programable.

Ordenadores electrónicos:

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus.

Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes.

No fue hasta el año 1942 que alguna empresa viera posibles beneficios y oportunidades los ordenadores. La primera compañía se llamó ABC Computers perteneciente a John Atanasoff y Clifford Berry. Dos años después, en 1944, el ordenador Harvard Mark I fue desarrollado llevando más allá la tecnología de los ordenadores.

En 1946 se creo el ENIAC, el primer ordenador de uso general. Ocupaba una superficie de 167 metros cuadrados y ocupaba una habitación de 6m x 12m , pesaba 27 toneladas y se tardo en construir 30 meses. Estaba compuesto por tubos de vacío o también llamados válvulas termoiónicas, en total unos 17468 tubos.

La UNIVAC I (UNIVersal Automatic Computer I, Computadora Automática Universal I) fue la primera computadora comercial fabricada en Estados Unidos, entregada el 31 de marzo de 1951 a la oficina del censo. Fue diseñada principalmente por J. Presper Eckert y John William Mauchly, autores de la primera computadora electrónica estadounidense, la ENIAC. 



Segunda generación (transistores 1956-1963):

El mundo vería que los transistores reemplazan los tubos de vacío en la segunda generación de ordenadores. El transistor fue inventado en Bell Labs en 1947, pero no se vio un uso generalizado hasta finales de la década de 1950. El transistor era muy superior al tubo de vacío, lo que permitía que los ordenadores se volvieran más pequeños, más rápidos, más baratos, más eficientes energéticamente y más confiables que sus antecesores de primera generación. Aunque el transistor aún generaba una gran cantidad de calor, fue una gran mejora con respecto al tubo de vacío. Los ordenadores de segunda generación aún dependían de tarjetas perforadas para la entrada y copias impresas para la salida.

Estos equipos pasaron del lenguaje de máquinas binarias crípticas a lenguajes simbólicos o de ensamblaje, lo que permitió a los programadores especificar instrucciones en palabras. Los lenguajes de programación de alto nivel también se estaban desarrollando en este momento, como las primeras versiones de COBOL y FORTRAN. Estos fueron también los primeros ordenadores que almacenaron sus instrucciones en su memoria, que pasaron de un tambor magnético a una tecnología de núcleo magnético. Los primeros ordenadores de esta generación fueron desarrollados para la industria de la energía atómica.



Tercera generación (Circuitos Integrados 1964-1971):

El desarrollo del circuito integrado fue el sello distintivo de la tercera generación de ordenadores. Los transistores fueron miniaturizados y colocados en chips de silicio, llamados semiconductores, que aumentaron drásticamente la velocidad y la eficiencia.

En lugar de tarjetas perforadas e impresiones, los usuarios interactuaron a través de teclados y monitores, e interactuaron con un sistema operativo, lo que permitió que el dispositivo ejecutara muchas aplicaciones diferentes a la vez con un programa central que monitoreaba la memoria. Por primera vez se hicieron accesibles para una audiencia masiva, porque eran más pequeños y más baratos que sus predecesoras.



Cuarta generación (1971-presente):

El microprocesador trajo la cuarta generación de ordenadores, ya que miles de circuitos integrados se construyeron en un solo chip de silicio. Lo que en la primera generación llenaba una habitación entera, ahora cabía en la palma de la mano. El chip Intel 4004, desarrollado en 1971, ubicó todos los componentes, desde la unidad de procesamiento central y la memoria hasta los controles de entrada / salida, en un solo chip.

En 1981, IBM presentó su primer ordenador para el usuario doméstico, y en 1984, Apple presentó el Macintosh. A medida que se volvieron más poderosos, pudieron vincularse entre sí para formar redes, lo que finalmente condujo al desarrollo de Internet. Los ordenadores de cuarta generación también vieron el desarrollo de GUI, el ratón y dispositivos de mano.



Quinta generación: inteligencia artificial (presente y más allá)

Los dispositivos informáticos de quinta generación, basados ​​en inteligencia artificial, aún están en desarrollo, aunque hay algunas aplicaciones, como el reconocimiento de voz, que se están utilizando en la actualidad. El uso de procesamiento paralelo y superconductores está ayudando a hacer realidad la inteligencia artificial. La computación cuántica y la nanotecnología molecular cambiarán radicalmente la cara de las computadoras en los años venideros. El objetivo de la computación de quinta generación es desarrollar dispositivos que respondan al aporte del lenguaje natural y que sean capaces de aprender y autoorganizarse.


Podemos ver el siguiente vídeo para ampliar lo visto en clase:



El siguiente vídeo explica perfectamente qué entendemos por ordenador o computadora:







Actividad evaluable. Trabajo por parejas


Cada pareja deberá realizar una presentación utilizando cualquier programa o sitio web dedicado a ello, Power Point, Prezi, Genially...en el que se expondrá la historia del ordenador, desde sus principios en 1642 hasta la quinta generación. Se valorará la inclusión de datos no aportados en clase.

Posteriormente a la entrega de la presentación, se seleccionará a tres grupos para que expongan su presentación en clase. Para estos grupos, según la calidad de la exposición, se les podrá subir hasta 1 punto en la calificación.



Buscadores que se pueden utlizar:

Se podrán utilizar los siguientes buscadores:

Google
Google Academy
Bing
Yahoo


ENTREGA

Fecha tope de entrega grupo 
día 04/09/2019

Se mandará por correo electrónico a la dirección del profesor arobles@ciamariaalmeria.org especificando en el asunto el curso al que perteneces, el nombre del alumno y el título de la actividad.

[1BACHC] o [1BACHD] <nombre y apellidos>.<Ejercicio>



Ejemplo: [1BACHC] Angel Robles. Historia Ordenador