evolución del ordenador

44
UNIVERSIDAD PRIVADA ANTENOR ORREGO FACULTAD DE INGENIERÍA ESCUELA PROFESIONAL DE COMPUTACIÓN Y SISTEMAS “Un breve análisis a la evolución del ordenador y sus propuestas de mejoras en un futuro cercano e inmediato” MONOGRAFIA Presentada en cumplimiento al requisito del curso de Lenguaje II. AUTORES: Armas Escudero, Bruno Daniel Corre Aponte, Diego Armando Ruiz Ato, Carlos Armando Sánchez Ponce, Yeltsin Anthony DOCENTE: Ramos Paz, Liliana

Upload: diego-armando

Post on 12-Jan-2016

231 views

Category:

Documents


3 download

DESCRIPTION

Monografía

TRANSCRIPT

Page 1: Evolución del Ordenador

UNIVERSIDAD PRIVADA ANTENOR ORREGOFACULTAD DE INGENIERÍA

ESCUELA PROFESIONAL DE COMPUTACIÓN Y SISTEMAS

“Un breve análisis a la evolución del ordenador y sus propuestas de mejoras en un futuro cercano e inmediato”

MONOGRAFIA

Presentada en cumplimiento al requisito del curso de Lenguaje II.

AUTORES:

Armas Escudero, Bruno Daniel

Corre Aponte, Diego Armando

Ruiz Ato, Carlos Armando

Sánchez Ponce, Yeltsin Anthony

DOCENTE:

Ramos Paz, Liliana

TRUJILLO – 2015

Page 2: Evolución del Ordenador

PRESENTACIÓN

La presente investigación tiene como objetivo fundamental, el estudio de los

siguientes temas en el área de la computación: generación, evolución, historia e

inventores destacados. Teniendo en cuenta el ideal, que es que pueda ser asequible al

público en general, sin importar su especialidad o grado de instrucción. Para poder

completar esta monografía se ha optado por el método de recopilación de información, la

cual ha sido extraída de diversas fuentes escritas y digitales publicadas por autores de

elite en el área de esta especialidad; todo esto con el fin de poder obtener un material

que pueda servir de apoyo para quienes luego quieran disponer de él.

Los autores

Page 3: Evolución del Ordenador

DEDICATORIA

Este trabajo va dedicado al público en general ya que investigar e informar a los demás es una satisfacción muy

grande y nos permite seguir nuestra investigación y así lograr nuestro propósito en un futuro.

A Dios, por brindarnos la dicha de la salud y bienestar físico y espiritual.

Page 4: Evolución del Ordenador

AGRADECIMIENTO

A nuestros padres, como agradecimiento a su esfuerzo, amor y apoyo incondicional, durante

nuestra formación tanto personal como profesional.

A nuestros docentes y a nuestra alma mater Universidad Privada Antenor Orrego, por

brindarnos su guía y sabiduría en el desarrollo de este trabajo.

Page 5: Evolución del Ordenador

ÍNDICE

DEDICATORIA…………………………………………………………………………… I

AGRADECIMIENTO…………………………………………………………………….. II

ÍNDICE…………………………………………………………………………………… III

I. INTRODUCCIÓN………………………………………………………………………….

II. ANTECEDENTES…………………………………………………………………………

III. HISTORIA DEL ORDENADOR………………………………………………………….

1. ANTES DE 1967………………………………………………………………….

2. DE 1967 A 1977………………………………………………………………….

3. DE 1978 A 1988………………………………………………………………….

4. DE 1989 A LA ACTUALIDAD…………………………………………………

IV. EVOLUCIÓN DEL ORDENADOR……………………………………………………

1. PRIMERA GENERACIÓN……………………………………………………

2. SEGUNDA GENERACIÓN……………………………………………………

3. TERCERA GENERACIÓN……………………………………………………

4. CUARTA GENERACIÓN…………………………………………………….

5. QUINTA GENERACIÓN……………………………………………………..

V. PRÓXIMO ORDENADOR…………………………………………………………….

1. COMPUTADORAS DE GRAFENO…………………………………………

2. COMPUTADORA CUÁNTICA…………………………………………………

3. COMPUTADORA CUÁNTICA CON GRAFENO……………………………

VI. PARTES DEL ORDENADOR………………………………………………………

1. SOFTWARE……………………………………………………………………..

2. HARDWARE…………………………………………………………………….

i. UNIDAD CENTRAL DE PROCESAMIENTO………………………..

ii. PLACA PRINCIPAL, PLACA MADRE O PLACA BASE……………

1. MEMORIA RAM…………………………………………………

2. MEMORIA RAM DINÁMICA………………………………

3. MEMORIAS RAM ESPECIALES……………………………

iii. PERIFÉRICOS…………………………………………………

1. DISPOSITIVOS DE ENTRADA DE INFORMACIÓN (E)

2. DISPOSITIVOS DE SALIDA DE INFORMACIÓN (S)

3. DISPOSITIVOS MIXTOS (E/S DE INFORMACIÓN)

iv. HARDWARE GRÁFICO…………………………………………………

VII. CONCLUSIONES GENERALES…………………………………………………

VIII. REFERENCIAS BIBLIOGRÁFICA…………………………………………………

Page 6: Evolución del Ordenador

IX. ANEXOS…………………………………………………

1. INFOGRAFIA PERSONAJES DETACADOS EN LA EVOLUCION DEL

ORDENADOR………………………………………………………

2. INFOGRAFIA ACERCA DE LA EVOLUCION DEL ORDENADOR…………

3. INFOGRAFIA ESTRUCTURA DEL ORDENADOR………………………

4. INFOGRAFIA DE PROTOTIPOS DE ORDENADORES…………………..

5. GLOSARIO…………………………………………………

Page 7: Evolución del Ordenador

INTRODUCCIÓN

Con la progresiva digitalización de los contenidos y la informatización de los

servicios, a menudo el usuario de un servicio de información no trata directamente con el

personal del centro (al menos en una primera aproximación) sino con una aplicación

informática, y no consulta o lee documentos en papel sino en formato digital. El

profesional de la información, para ofrecer un buen servicio en este entorno debe dominar

nuevos campos de especialización como el tratado en este artículo, la interacción

persona - ordenador.

Este trabajo ofrece una panorámica de la evolución de las interfaces persona -

ordenador centrándose en las tendencias actuales y en las alternativas al aún

predominante modelo WIMP (Windows, Icons, Menus and Pointing devices).

Page 8: Evolución del Ordenador

II. ANTECEDENTES

Page 9: Evolución del Ordenador

III. HISTORIA DEL ORDENADOR

1. ANTES DE 1967

La tecnología está en sus comienzos: los ordenadores son grandes máquinas que

procesan comandos en lenguaje máquina en modo batch (la operación se organiza en

grupos o lotes de trabajo), con largos tiempos de espera; la entrada se realiza por tarjetas

perforadas y la salida por impresoras línea a línea; los usuarios son básicamente los

propios programadores (Shackel: 1997).

Para la historia de la IPO (Interacción Persona-Ordenador) lo más importante de este

período son las visiones de diversos científicos, que hicieron proyecciones futuras para

los ordenadores. Entre ellos destacan las ideas de Bush, Nelson y Licklider, así como

los resultados experimentales de Engelbart y Sutherland.

Bush (Bush: 1945) ve a los ordenadores como asistentes documentales que

facilitan el almacenamiento y la interrelación de los documentos. Imagina un dispositivo

que extiende la capacidad de la memoria humana para guardar información de todo tipo,

relacionarla y consultarla con rapidez, al que bautiza como Memex. Su principal

aportación es establecer las bases conceptuales de lo que posteriormente se llamará

“hipertexto”. El artífice de la denominación “hipertexto” y posteriormente también de

“hipermedia”, entre otras, es Ted Nelson (Nelson: 1965), que recupera y expande las

ideas de Bush, trabajando de por vida en su implementación en el proyecto Xanadú.

Xanadú pretende crear el docuverso, un universo de documentos conectados entre sí en

el que se guarda la memoria de la Humanidad y permite la creación de nuevas obras en

las que se incorporan las fuentes originales.

Licklider en 1960 (Licklider: 1990) visiona una compenetración entre hombres y

ordenadores para realizar investigación científica, en la que las máquinas (sólo las más

rápidas y exactas) realizan el trabajo rutinario mientras que los hombres llevan a cabo la

parte creativa. También prevé todos los ordenadores del continente (EUA) conectados

entre sí (Licklider; Wilson, 1990). Crea dos de las grandes ideas que han dirigido la IPO

desde entonces: el ordenador como asociado y como medio. No sólo contribuye a la

disciplina con sus hipótesis, sino que durante muchos años trabaja como director de un

colectivo de investigadores para llevarlas a la práctica. Entre las realizaciones de este

grupo está la interacción a tiempo real entre el usuario y la máquina durante la ejecución

de un proceso en contraposición al funcionamiento por lotes, y la posibilidad de tener

sistemas informáticos multiusuario.

Page 10: Evolución del Ordenador

Uno de los talentos contratado por los programas de ARPA (Advanced Research

Project Agency) dirigido por Licklider que merece especial atención es Doug Engelbart

que experimenta con nuevos dispositivos para que el ordenador sirva realmente de

complemento a la mente humana (Engelbart: 1962). Sus aportaciones a la disciplina son

múltiples y de tipo práctico: una pantalla en la que se pueden ver texto y gráficos

simultáneamente, un dispositivo de apuntamiento (él es el inventor del ratón) y una

primera implementación del hipertexto; también presenta algunas ingeniosas ideas para

la gestión de ventanas. Engelbart crea el primer procesador de textos con las

características básicas de los actuales. En el año 1968 demuestra todas estas

posibilidades con el sistema NLS (online System) en una conferencia sobre IPO,

provocando una gran ovación de los asistentes.

A pesar de estos primeros logros, hasta el momento los ordenadores operan

básicamente con números y texto; la manipulación de gráficos, que posteriormente se

desarrollará en los sistemas CAD (Computer Aided Design), viene de la mano de Ivan

Sutherland, estudiante del MIT (Massachusetts Institute of Technology) que en su tesis

de 1963 crea el programa SketchPad para hacer dibujos en la pantalla del ordenador

mediante un lápiz apuntador, guardando en la memoria del ordenador pequeñas

instrucciones para posteriormente manejar los dibujos, reutilizarlos y combinarlos.

2. DE 1967 A 1977

Los ordenadores han experimentado un cambio importante como resultado de

toda la investigación citada; externamente ya cuentan con los dispositivos de entrada y

salida que son comunes actualmente: teclado, componente gráfico de apuntamiento,

pantalla, impresora de documentos. Internamente las limitaciones de memoria son

todavía importantes y los tiempos de espera también. El coste de los aparatos dificulta su

difusión y los usuarios son principalmente investigadores e ingenieros. A nivel de

comunicación aparecen las primeras redes privadas a través de las líneas telefónicas que

al principio se usan para transferir datos en modo batch. El tiempo real aparece

tímidamente alrededor de 1971.

Aunque el estado de la tecnología aún no lo permite, algunos diseñadores ven ya

las posibilidades de la informática para el público en general. En concreto el psicólogo

Seymour Papert crea el lenguaje Logo, para escolares, con el que una tortuga responde

a simples instrucciones de avance y giros creando formas dibujadas con su recorrido.

Page 11: Evolución del Ordenador

Este lenguaje demuestra que los niños pueden familiarizarse sin dificultad con los

lenguajes de programación sin ninguna formación especial. Un estudiante de informática,

Alan Kay, impresionado por los logros de Papert y Engelbart visiona un ordenador para

todas y cada una de las personas, con la potencia de NLS y la simplicidad de Logo. Kay

proyecta pues el ordenador personal en su tesis doctoral de 1969 (Kay: 1969) y trabaja

en el equipo fundador de investigadores del Xerox Palo Alto Research Center (PARC)

para hacer realidad su sueño. Sus dos grandes aportaciones son el entorno SmallTalk,

que permite una programación incremental y la reutilización de procedimientos

sembrando la simiente para la futura orientación a objetos del software; y la idea de

conceptualizar las diferentes tareas del ordenador mediante ventanas solapadas. Otra

aproximación al usuario lego en esta etapa es VisiCalc, la primera hoja de cálculo, que ya

permite crear pequeñas rutinas de programación (macros). Finalmente, el uso de las

redes informáticas se popularizará con la aparición, al final de esta etapa, del correo

electrónico, que a la vez será la primera de las herramientas de trabajo cooperativo.

En cuanto a la teoría informática, el mayor conocimiento y experimentación de la

interacción persona–ordenador fructifica en unas primeras pautas de diseño de

interfaces.

3. DE 1978 A 1988

Esta etapa se podría denominar como la del ordenador personal. En ella es

crucial el papel de PARC, que consigue reunir a los principales talentos en el área, pues

en él se fraguan los principales avances tecnológicos e hipótesis de futuro. Por fin el

estado del arte de la tecnología, con la reducción de coste y tamaño de los ordenadores,

permite hacer realidad la idea del ordenador para el público en general. El nuevo

ordenador es una caja con el sistema central y con dispositivos de entrada y salida

estándares: pantalla (ahora ya con bastante resolución), impresora (en esta época

aparecen las láser), teclado y ratón que se dirige al personal de oficina.

Es una época muy rica en avances teóricos en el campo de la IPO, hay un

ambiente entusiasta en la disciplina y Palo Alto es el nido de creación de futuras grandes

empresas informáticas. La riqueza de ideas existente provoca que en el año 1982 se cree

un grupo de interés especial sobre IPO en la ACM (Association for Computing

Machinery), el ACM Sigchi (Special Interest Group on Computer–Human Interaction).

Una de las grandes aportaciones de esta etapa es la incorporación de las teorías de la

psicología cognitiva a la disciplina, especialmente a partir del tratado de Card, Moran y

Page 12: Evolución del Ordenador

Newell de 1983 (escrito a partir de investigaciones realizadas por los autores en Xerox

PARC). En esta obra se aplican los conocimientos teóricos de psicología al campo de la

interacción y se crea el modelo GOMS (Goals, Operators, Methods y Selection rules) un

modelo analítico con el que estimar la bondad de un sistema interactivo. En segundo

lugar se definen las bases teóricas de la usabilidad, como metodología para crear

interfaces más fáciles de usar (Bewley: 1983; Butler: 1985; Good, Spine, Whiteside,

George: 1986) como claro exponente de la nueva orientación de la informática centrada

en el usuario en contraposición a la orientación anterior, centrada en la máquina. En

tercer lugar, Ben Shneiderman establece las bases teóricas de la manipulación directa

(que recibe este nombre por reemplazar los lenguajes de comandos por acciones

directas sobre objetos visibles), en un manual de IPO con gran impacto (Shneiderman:

1989) en el que también recopila diversas directrices heurísticas.

Los principios de la manipulación directa descritos por Shneiderman se llevarán a

la práctica de modo experimental en Xerox. El hito más importante de esta etapa es, sin

duda, su implementación en WIMP definido por Xerox, comercializado por Apple y

posteriormente imitado por Microsoft.

Es tan revolucionario el cambio que representan los nuevos ordenadores de

Apple que la empresa difunde públicamente una guía de estilo, unos recursos y unas

herramientas para desarrollar interfaces para su ordenador. La consistencia, que

defiende la importancia de mantener unas convenciones en todos los programas para

facilitar su aprendizaje y memorización, cobra así una gran importancia como principio

heurístico de diseño. Su éxito es enorme: WIMP ha prevalecido sobre otras posibles

interfaces gráficas hasta la era actual. Paradójicamente su penetración ha frenado la

investigación en interfaces de usuario y se han olvidado ideas previas potencialmente

más ricas.

No influido aún por la predominancia del modelo de interfaz creado por Apple con

su ordenador Macintosh, Negroponte realiza aportaciones experimentales a la disciplina

con Dataland y “put–that–there” (1980). Estas aplicaciones usan reconocimiento del habla

y de los gestos poniendo en práctica varios conocimientos sobre el funcionamiento de la

memoria humana. En el ámbito del hipertexto aparece el primer sistema hipermedia (que

incluye texto y gráficos) creado en la Brown University, y después otros a los que se les

añaden diversos formatos como voz, hojas de cálculo y vídeo.

El entusiasmo inicial y las grandes expectativas creadas por los ordenadores

producen finalmente un desencanto en el público, que encuentra los aparatos difíciles de

Page 13: Evolución del Ordenador

usar, frustrantes, y poco flexibles. Ante el fracaso de muchos diseños se incorporan

nuevos métodos de usabilidad en el desarrollo del software desde sus fases iniciales y se

adopta el modelo de desarrollo en espiral: la especificación se realiza en múltiples

iteraciones a partir de diseños previos o prototipos que se evalúan con la participación del

usuario. El desencanto afecta también a la aplicabilidad de las teorías cognitivas; éstas

se cuestionan fuertemente y se buscan nuevos fundamentos teóricos en la antropología

con el influyente libro de Suchman (1987) como ejemplo. En su obra, defiende la

necesidad de que los sistemas informáticos sean como mapas, que propongan pero no

prescriban rutas, que se adapten a diversos cursos de acción y que sean altamente

reactivos, es decir informen inmediatamente de los resultados de una acción para

parecerse más a las interacciones persona–persona de la vida real. Su influencia provoca

la redefinición de la usabilidad, que ahora tendrá en cuenta el entorno y las situaciones

concretas de la interacción (Löwgren, 1995) e incorporará algunas técnicas de

antropología.

4. DE 1989 A LA ACTUALIDAD

Es una etapa difícil de sintetizar por la falta de perspectiva existente que no

permite aún hacer divisiones claras en el tiempo. Aun así, la importancia de los cambios

habidos justifica una exposición en, al menos, tres sub-apartados.

La worldwide web.

Es el cambio más importante de este período, entendido como la aplicación

estrella de internet. Aporta dos novedades: es una interfaz centrada en el documento y no

en la aplicación, que rompe los límites entre la información local y la remota.

La web no sólo es un avance tecnológico sino que se convierte en un elemento clave en

el desarrollo de la sociedad de la información, que ha cambiado radicalmente el uso de

los ordenadores. Se inmiscuye en todos los aspectos de la vida en la sociedad: desde la

investigación científica y la educación, pasando por la e–administración, hasta el

comercio electrónico.

Continuismo y crisis en la disciplina.

Como línea continuista a las aportaciones teóricas de la anterior etapa, Nielsen

Page 14: Evolución del Ordenador

simplifica y divulga los métodos de la usabilidad para acercarlos a los profesionales de la

IPO, con los “Discount Usability Methods” que tendrán una gran repercusión. Los

procedimientos que propone son mucho más baratos que los de la ingeniería de

usabilidad clásica y se basan principalmente en evaluaciones cualitativas.

Otro cambio tecnológico de la época, también proveniente de las

telecomunicaciones, es la aparición y consolidación de las redes inalámbricas, siendo los

estándares Bluetooth para redes de área personal y Wi–Fi (Wireless Fidelity) para redes

de área local los ejemplos más conocidos. Este cambio se suma a la miniaturización de

los componentes informáticos y posibilita la aparición de múltiples dispositivos móviles y

de pequeño tamaño con prestaciones similares a los ordenadores: portátiles, asistentes

digitales personales, teléfonos móviles; incluso se produce la integración de capacidad de

procesamiento a dispositivos como electrodomésticos, relojes, etc. El cambio tecnológico

provoca a su vez otro en el uso de los ordenadores: se utilizan en escenarios muy

diferentes a los tradicionales (despacho o estudio con buena iluminación, silencio y

concentración), y ahora se usan en el coche, en medio de multitudes, etc.

En las otras áreas de la IPO, aunque se sigue investigando en el reconocimiento

del habla, en general hay pocas aportaciones experimentales o teóricas de relevancia. En

esta etapa diversos autores hablan de la crisis de la disciplina. Observan que el modelo

WIMP ya no tiene utilidad para los nuevos dispositivos (Myers; Hudson; Pausch: 2000;

Beaudoin–Lafon: 2004), ni para los nuevos tipos de usuarios, los cuales tienen diferentes

expectativas respecto a los ordenadores (Beaudoin–Lafon: 2004). Aunque los avances

tecnológicos permitirían mejoras cualitativas importantes (Myers; Hudson; Pausch: 2000)

y se intuye que hay que redefinir teorías y metodologías para crear nuevas pautas, la

predominancia de la www y de WIMP impide cambios importantes en el campo. Don

Norman había resumido ya las críticas a los modelos existentes en su libro The

psychology of everyday things (Norman: 1988), donde sugiere nuevos principios de

diseño basándose en el concepto de affordances (las propiedades percibidas y reales de

los objetos que determinan sus posibles usos).

La computación ubicua, un nuevo paradigma.

Es en este entorno cuando se publica el artículo más influyente de la disciplina en

esta etapa, “Computers for the twentyfirst century” de Mark Weiser, de nuevo un

investigador del laboratorio PARC, sobre computación ubicua. La computación ubicua

defiende que los ordenadores actuales ya no están vinculados al escritorio sino que están

Page 15: Evolución del Ordenador

integrados en todos los aparatos y aspectos de nuestras vidas, y las personas se

relacionan con ellos de forma transparente. El ordenador ubicuo rompe las presunciones

en que se basaba gran parte del conocimiento y directrices del diseño en IPO: el foco de

atención del usuario no es el ordenador, seguramente el usuario no tiene las dos manos

libres, no está sentado, etc. Los nuevos ordenadores pueden ser desde grandes paneles

en una pared para trabajo colaborativo, a pequeños dispositivos para tomar notas,

pasando por sensores de presencia que activen sistemas de iluminación o de seguridad.

Algunos autores hablan de la “tercera ola” de la informática en la que la cantidad de

ordenadores por persona cambia radicalmente: al principio de la era informática la

relación era de un ordenador por varias personas; con los ordenadores personales la

relación es de un ordenador por persona; y con la computación ubicua la relación es de

varios ordenadores por persona.

Page 16: Evolución del Ordenador

IV. EVOLUCIÓN DEL ORDENADOR

4.1. PRIMERA GENERACIÓN

La primera generación de computadoras comenzó en los años 1940 y se

extendió hasta los 1950. Durante este periodo, las computadoras empleaban tubos al

vacío para conducir la electricidad. El uso de los tubos al vacío hacía que las

computadoras fueran grandes, voluminosas y costosas porque los tubos tenían que ser

continuamente reemplazados debido a que se quemaban con frecuencia. Hasta este

tiempo, las computadoras fueron clasificadas por su dispositivo principal para el

almacenaje en memoria. La UNIVAC I empleaba un ingenioso dispositivo llamado línea

de demora de mercurio (mercury delay line), la cual dependía de pulsos de

ultrasonido.

4.1.1. 1951 – Remington Rand

Desarrolló la primera computadora eléctrica digital, la UNIVAC I (UNIVersal

Automatic Computer).

4.1.2.1953 – IBM 650

Para esta época, por primera vez se emplea ampliamente como sistemas de

computadora el modelo de IBM 650. Originalmente se planificaron producir 50 máquinas,

pero el sistema fue tan exitoso que eventualmente IBM manufactura más de 1,000. Con

las series de máquinas IBM 700, la compañía dominaría el mercado de las

supercomputadoras para la próxima década.

4.1.3.1957 – IBM 305 RAMAC

En el 1957, el sistema de IBM 305 RAMAC es el primero en su clase en utilizar

disco magnético para almacenaje externo. El sistema provee capacidad de

almacenamiento similar a la cinta magnética que fue usada previamente, pero ofrece la

ventaja de capacidad de acceso semi-aleatorio.

4.2. SEGUNDA GENERACIÓN

Page 17: Evolución del Ordenador

4.2.1. 1958 – Transistor

Las computadoras construidas con transistores marcan el comienzo de la

segunda generación de los equipos de computadora.

4.2.2. 1959 – IBM 1602

IBM introduce dos pequeñas computadoras de escritorio, a saber: la IBM 1401

para negocios y la IBM 1602 para científicos.

4.3. TERCERA GENERACIÓN

4.3.1. 1964 – IBM 360

La tercera generación de computadoras comenzó en el 1964 con la introducción

de la IBM 360, la computadora que fue la pionera para el uso de circuitos integrados en

un chip. En ese mismo año, los científicos de computadora desarrollaron circuitos

integrados diminutos e instalaron cientos de estos transistores en un solo chip de silicón,

el cual era tan pequeño como la punta de un dedo

4.3.2. 1965 – PDP-8

La “Digital Equipment Corporation” (DEC) introduce la primera minicomputadora,

conocida como la PDP-8.

4.3.3. 1968 – Alan Shugart

Alan Shugard en IBM demuestra el primer uso regular del Disco flexible de 8-

pulgadas (disco de almacenaje magnético).

4.4. CUARTA GENERACIÓN

4.4.1. 1968 – Gilbert Hyatt

El desarrollo de la tecnología de microprocesadores resultó en la cuarta

generación. En 1968, Gilbert Hyatt diseño una computadora que tenía la capacidad de

instalar un microchip de silicón del tamaño de una uña de dedo. Hayatt quería que el

mundo lo reconociera como el inventor que revolucionó la computadora. Después de

veinte años de batallas legales, la oficina de patentes y marcas en Estados Unidos

Continentales le otorgó a Hyatt la patente No. 4,942.516 por un “Single Chip integrated

Circuit Computer Architecture”.

Page 18: Evolución del Ordenador

4.4.2. 1971 –Dr. Ted Hoff

En el 1971, el Dr, Ted Hoff, conjuntamente con un grupo de individuos trabajando

en Intel Corporation, desarrollaron un microprocesador o un chip de computadora

microprogramable, conocido con el nombre de Intel 4004. Tal chip solo estaba destinado

para calculadoras, puesto carecía de la potencia necesaria para que pudiera trabajar en

una computadora.

4.4.3. 1975 –la Altair

Tres años más tarde, ellos presentaron en el mercado la versión 8080, la cual era

capaz de correr la unidad de procesamiento de una computadora. En el 1974, Radio

Electronics publicó un artículo sobre la construcción de una computadora casera que

usaba esta tecnología. Subsecuentemente, la revista Popular Electronics escribió una

sección sobre Altair, una computadora que tenía el chip 8080. La Altair, nombrada así

por un episodio de Star Trek, fue introducida por MITS, Inc. Fue vendida en combo por

menos de $400.00. Aunque inicialmente no contaba con teclado, monitor, sin una

memoria permanente y sin programas, fueron tomadas 4,000 órdenes dentro de los

primeros tres meses.

4.4.4. 1976 – Steve Wozniak and Steve Jobs

Las computadoras Apple hicieron su aparición durante la década de los 1970. En

el 1976, Steve Wozniak y Steve Jobs construyeron la primera computadora de Apple.

Este dúo suministraba gratuitamente programas para sus máquinas, adquiriendo un éxito

módico. Con la ayuda de profesionales en este campo, en el 1977 presentaron una nueva

versión mejorada de su máquina de Apple, llamada la Apple II. Este sistema de

computadora fue el primero en su clase en ser aceptado por usuarios comerciantes,

puesto contaba con la simulación de una hoja de cálculo llamada VisiCalc. Era una

computadora de escritorio compacta con 4K de memoria, con precios de $1,298 y una

velocidad del reloj de 1.0.

4.4.5. 1980 – IBM PC

La corporación de IBM entró en el mercado de las computadoras personales,

lanzando la IBM PC. Esta computadora fue un éxito rotundo y se convirtió en un “best

seller”. Debido al éxito de la entrada de la IBM en el mercado de microcomputadoras tipo

PC, otras corporaciones de computadoras decidieron capitalizar tal popularidad al

desarrollar sus propios clones. Estas computadoras personales contaban con muchas de

los mismos rasgos de las máquinas IBM y eran capaces de correr los mismos programas.

Page 19: Evolución del Ordenador

Se hizo realidad el uso diseminado de computadoras personales.

4.5. QUINTA GENERACIÓN

En la quinta generación, surgieron computadoras con chips de alta velocidad.

4.5.1. 1991 – Toushstone Delta Supercomputer

En el 1991, Cal Tech hizo público su “Touchstone Delta Supercomputer”, la cual

ejecutaba 8.6 billones de cálculos por segundo. Al presente, existen computadoras que

pueden llevar a cabo miles de operaciones simultáneamente y la frecuencia de la

ejecución de estas máquinas se mide en teraflops. Un teraflop es equivalente a la

ejecución de 1 trillón de operaciones de puntos flotantes por segundo.

Page 20: Evolución del Ordenador

V. PRÓXIMO ORDENADOR

5.1. COMPUTADORAS DE GRAFENO:

El grafeno es uno de los materiales más ligeros, más conductivos y más

resistentes de la tierra.

Se puede utilizar el agua en conjunción con el grafeno para crear un transistor.

El grafeno tiene el potencial de hacer los ordenadores más resistentes, mucho más

pequeños y mucho más rápidos que los que tenemos hoy en día. Un dispositivo del

tamaño de un Tablet podría tener la capacidad de procesamiento y memoria que toda

una red de ordenadores.

5.2. COMPUTADORA CUÁNTICA:

Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas

que hacen posibles nuevos algoritmos.

La superposición cuántica permite mantener simultáneamente dos estados en un bit

cuántico, es decir 0 y 1 a la vez, la superposición cuántica logra el paralelismo cuántico.

Una de las ventajas de la computadora cuántica es que es capaz de realizar cálculos en

todas sus superposiciones al mismo tiempo. Un qubit no es muy diferente del bit de un

ordenador digital, pero si se usan varios la potencia de los qubits supera por mucho a los

bits tradicionales.

5.3. COMPUTADORA CUÁNTICA CON GRAFENO:

El grafeno permite lo que llaman “efecto Hall cuántico fraccionario” (FQHE, por

fractional quantum Hall effect).

HARALD BRUNE y su equipo de la Universidad de Lausana (Suiza), han

descubierto la posibilidad real de usar dispositivos basados en GRAFENO para abrir el

campo de la espintrónica.

Uno de los requisitos para la computación cuántica, es un dispositivo que permita

a la vez la transmisión de un par de señales por un único canal usando electrones.

Los científicos suizos cultivaron películas de GRAFENO sobre rutenio e iridio utilizando la

Page 21: Evolución del Ordenador

deposición química en fase vapor (CVD). Los resultados en el material fueron

abrumadores, el equipo de HARALD dice que están centrados en el estudio de las

moléculas, que han de ser suficientemente duraderas en su estado magnético para tener

control y hacer realidad dispositivos cuánticos.

Hablan de la posibilidad de almacenar un bit de información en el estado

magnético en un solo átomo de metal de transición, cuando en la actualidad se usan 107

átomos para cada bit en discos duros magnéticos.

Las posibilidades reales del GRAFENO en la electrónica traerán un replanteamiento

industrial de la misma.

Page 22: Evolución del Ordenador

VI. PARTES DEL ORDENADOR

6.1. SOFTWARE:

Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines

prácticos se puede clasificar al software en tres grandes tipos:

6.1.1. SOFTWARE DE SISTEMA: Su objetivo es desvincular adecuadamente al usuario

y al programador de los detalles del sistema informático en particular que se use,

aislándolo especialmente del procesamiento referido a las características internas

de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras,

pantallas, teclados, etc. El software de sistema le procura al usuario y

programador adecuadas interfaces de alto nivel, controlador, herramientas y

utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye

entre otros:

Sistemas operativos

Controladores de dispositivos

Herramientas de diagnóstico

Herramientas de Corrección y Optimización

Servidores

Utilidades

6.1.1. SOFTWARE DE PROGRAMACIÓN: Es el conjunto de herramientas que permiten

al programador desarrollar programas informáticos, usando diferentes alternativas

y lenguajes de programación, de una manera práctica. Incluyen básicamente:

Editores de texto

Compiladores

Intérpretes

Enlazadores

Depuradores

Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores

herramientas, usualmente en un entorno visual, de forma tal que el

programador no necesite introducir múltiples comandos para compilar,

Page 23: Evolución del Ordenador

interpretar, depurar, etc. Habitualmente cuentan con una avanzada

interfaz gráfica de usuario (GUI).

6.1.2. Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o

varias tareas específicas, en cualquier campo de actividad susceptible de ser

automatizado o asistido, con especial énfasis en los negocios. Incluye entre

muchos otros:

Aplicaciones para Control de sistemas y automatización industrial

Aplicaciones ofimáticas

Software educativo

Software empresarial

Bases de datos

Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)

Videojuegos

Software médico

Software de cálculo numérico y simbólico.

Software de diseño asistido (CAD)

Software de control numérico (CAM)

6.2. Hardware

6.2.1. Unidad central de procesamiento

6.2.2. Placa principal, placa madre o placa base

6.2.3. Memoria RAM

6.2.3.1. Memoria RAM dinámica

6.2.3.2. Memorias RAM especiales

6.2.4. Periféricos

6.2.4.1. Dispositivos de entrada de información (E)

6.2.4.2. Dispositivos de salida de información (S)

6.2.4.3. Dispositivos mixtos (E/S de información)

6.2.5. Hardware gráfico

Page 24: Evolución del Ordenador

VII. CONLUSIONES GENERALES

Page 25: Evolución del Ordenador

VIII. REFERENCIAS BIBLIOGRÁFICAS

Page 26: Evolución del Ordenador

IX. ANEXOS

9.1. INFOGRAFIA PERSONAJES DETACADOS EN LA EVOLUCION DEL

ORDENADOR:

9.2. INFOGRAFIA ACERCA DE LA EVOLUCION DEL ORDENADOR

Page 27: Evolución del Ordenador

9.3. INFOGRAFIA ESTRUCTURA DEL ORDENADOR

9.3.1. EXTERNA:

9.3.2. INTERNA:

Page 28: Evolución del Ordenador

9.4. INFOGRAFIA DE PROTOTIPOS DE ORDENADORES

Page 29: Evolución del Ordenador

9.5. GLOSARIO:

1. Abstracto: No concreto, sin realidad propia, de difícil comprensión; sin aplicación

concreta.

2. Adaptabilidad: Facilidad con la que un sistema o un componente pueden

modificarse para corregir errores, mejorar su rendimiento u otros atributos, o

adaptarse a cambios del entorno.

3. Archivo (fichero): Son documentos computacionales que contienen información

(al contrario de instrucciones), como texto, imágenes, sonido, video, etc. Ej.: una

carta escrita en un procesador de texto.

4. Arquitectura de Computadores: Trata del diseño interno de los componentes de

un computador y la comunicación entre ellos en un lenguaje llamado

ensamblador, que es el lenguaje propio de la máquina.

5. Biométrico: La biométrica es el estudio de métodos automáticos para el

reconocimiento único de humanos basados en uno o más rasgos conductuales o

físicos intrínsecos. El término se deriva de las palabras griegas "BIOS" de vida y

"metro" de medida.

6. Cibernética: Es una aplicación de la ciencia, en el ámbito tecnológico la podría

definir como aquella función que le ayuda al hombre para poder organizar

maquinas que hagan el trabajo del hombre de una forma más eficiente y rápida.

Page 30: Evolución del Ordenador

7. Ciclo de máquina: Tiempo o período en que los elementos y memorias de la PC

deben responder a la CPU para el intercambio de datos.

8. Clones: Se refiere a los modelos de PCs cuyo diseño se ciñe a la arquitectura de

PCs originales IBM.

9. CMOS: Common Metal Oxide Semiconductor. Chip que sirve de almacenamiento

a la configuración de la PC y es alimentado por pila.

10. Compiladores: Estos programas son los que traducen las órdenes del usuario

(dadas a través de un programa computacional o una orden dada por consola)

que están conformados por letras y números, a un lenguaje de máquina

conformado por secuencias de impulsos eléctricos.

11. Componente: Una de las partes que forman un sistema. Un componente puede

ser hardware, software, y puede a su vez subdividirse en otros componentes.

12. Constante: Estructura de programación que contiene datos. Puede contener

números o caracteres alfanuméricos y el programador le asigna un nombre único.

Mantiene los datos invariablemente, es decir, no cambia ni dentro de la realización

ni dentro de la ejecución de un programa.

13. Contador: En programación: estructura de programación que contiene datos

alfanuméricos y el programador le asigna un nombre único, se usa generalmente

para almacenar la cantidad de veces que se ejecute una acción o ciclo dentro de

le ejecución de un programa. En internet: dispositivo que cuenta el número de

visitas o de impactos que ha recibido un sitio web. Suele aparecer en la página

inicial del sitio.

14. CPU: Central Processing Unit, Unidad Central de Procesamiento de instrucciones

de programas y subrutinas que permite el direccionamiento a memoria bajo

ciertos modos de operación.

15. Criterio de Escritura: Modo de operación de las memorias cachés en que la CPU

recibe datos actualizados.

16. Chipsets: Conjunto de chips que definen el funcionamiento general de buses e

interfaces de la PC, enviando y recibiendo datos de la CPU y otros elementos.

17. Descripción del sistema: Documento orientado al cliente que describe las

características del sistema desde el punto de vista del usuario final. El documento

se utiliza para coordinar conjuntamente los objetivos del sistema del usuario,

cliente, desarrollador e intermediarios.

18. Diseño: Proceso de definición de la arquitectura, componentes, interfaces y otras

características de un sistema o de un componente.

Page 31: Evolución del Ordenador

19. Disponibilidad: El grado con el que se mide la accesibilidad de un sistema o de

un componente cuando es necesario su uso. Suele expresarse en términos de

probabilidad.

20. Dirección lineal: Modo de operación de la CPU que permite la no segmentación

de aplicaciones en memoria.

21. EPA: Environmental Protection Agency – Entidad mundial que controla los efectos

de los dispositivos en el ser humano y medio ambiente.

22. Esclavo: Elemento de la PC que ocupa una posición inmediata a un dispositivo

de su mismo tipo.

23. Entropía: Medida del desorden y su influencia en el equilibrio.

24. Equifinalidad: Es una característica de los sistemas abiertos, y se entiende como

la propiedad de alcanzar determinados objetivos por caminos muy diferentes, con

independencia de las condiciones individuales que posea el sistema.

25. Excel: Hoja de cálculo con todas las facilidades para computadores personales y

Macintosh de Microsoft. Puede enlazar varias hojas de cálculo para su

consolidación y provee una amplia variedad de gráficos y diagramas comerciales,

para crear materiales de presentación.

26. Exoarquitectura: Es la estructura y capacidad funcional de la arquitectura visible

al programador de assembler ( qué y cómo hace cada instrucción, por ejemplo

una instrucción MVCL -move character long- se utiliza para mover un string de

caracteres de longitud variable).

27. Extensión de Archivo: Son los caracteres que, precedidos de un punto,

aparecen detrás del nombre de un archivo. Permiten identificar y clasificar los

ficheros.

28. Factor de Interpolación: Salto secuencia que deben hacer las cabezas de

lectura de discos duros entre sectores, para evitar la pérdida de datos debido a la

velocidad rotacional del disco.

29. Fallo de Protección General: GPF. Error que se presenta cuando un programa

de una aplicación excede el espacio estipulado para otro programa.

30. Firmware: Término que se refiere a estructuras de código de medio nivel que

involucran procesos de software y hardware.

31. FlashBIOS: Modalidad de memoria ROM programable y modificable de

actualización que permite la comunicación entre dispositivos de tecnología Plug &

Play.

32. Font: Carácter tipográfico para computación con medida variable.

Page 32: Evolución del Ordenador

33. Grafeno: Es una sustancia formada por carbono puro, con átomos dispuestos en

patrón regular hexagonal, similar al grafito, pero en una hoja de un átomo de

espesor.

34. Hardware: Se refiere a todas las partes físicas de un sistema informático; sus

componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son

cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico

involucrado.

35. Hipertexto: Son enlaces a vínculos que encontramos cuando estamos

navegando en una página de Internet y que al dar clic sobre ellos

automáticamente nos abre una nueva página que se relaciona con la que estamos

utilizando.

36. Inherente: Algo que por su naturaleza debe mantener unido a algo o es esencial

de él y no puede ser separado.

37. Inteligencia Artificial: Este concepto lo definiría como una creación de máquinas

que son capaces de crear conocimiento a partir de una especie de algoritmos,

aunque debo decir que no se trata de crear inteligencia por sí sola, sino que como

lo dije, esta inteligencia se crea a partir de una serie de cálculos.

38. Internet: red de redes. Sistema mundial de redes de computadoras

interconectadas.

39. Interfaz de usuario: Interfaz que permite la comunicación entre un usuario y un

sistema, o los componentes de un sistema.

40. Isomorfismo: Del griego isomorfo, pretende indicar de varios sistemas con la

misma estructura.

41. Multimedia: Referido al audio, datos y video.

42. Multitarea: Capacidad de posibilitar la ejecución de distintas tareas de forma

simultánea.

43. Megabyte: Unidad de medida utilizada en informática que equivale a 1.024

Kilobyte

44. Paradigma: Etimológicamente, se origina en la palabra griega (parádeigma) que

a su vez se divide en dos vocablos "pará" (junto) y "déigma" (modelo), en general,

etimológicamente significa «modelo» o «ejemplo» .Modelo o patrón en cualquier

disciplina científica.

45. Producto de software: Conjunto de programas, procedimiento y opcionalmente

documentación asociada que se entrega al usuario como resultado.

46. Programa principal: Componente de software, llamado desde un sistema

operativo y que a su vez suele llamar a otros componentes de software.

Page 33: Evolución del Ordenador

47. Prototipo: Versión preliminar de un sistema que sirve de modelo para fases

posteriores. Sistema de software: entradas del usuario, salidas (presentadas) al

usuario, consultas del usuario, archivos usados por el sistema e interfaces

externos.

48. Software: Es el conjunto de los programas de cómputo, procedimientos, reglas,

documentación y datos asociados, que forman parte de las operaciones de un

sistema de computación.

49. Realidad virtual: Es un sistema o interfaz informático que genera entornos

sintéticos en tiempo real, representación de las cosas a través de medios

electrónicos o representaciones de la realidad, una realidad ilusoria, pues se trata

de una realidad perceptiva sin soporte objetivo, sin red extensa, ya que existe sólo

dentro del ordenador. Por eso puede afirmarse que la realidad virtual es una

speudo realidad alternativa, perceptivamente hablando.

50. Redes: Son líneas conexas que nos permiten intercambiar información. ej.: los

computadores, los teléfonos, las video conferencias... en fin, toda clase de

tecnología moderna que sirva para transferir información de un lugar a otro

51. Redundancia: Presencia de componentes auxiliares en un sistema para realizar

funciones idénticas o similares a las de los componentes principales.

52. Registro: Es una pequeña unidad de almacenamiento destinada a contener cierto

tipo de datos. Puede estar en la propia memoria central o en unidades de

memoria de acceso rápido.

53. Retroalimentación: En el concepto de Sistema, uno o varios productos o salidas

se convierten luego en entradas para repetir el ciclo del sistema.

54. Sinergia: Asociación, correlación entre las partes y estructuras.

55. Sistema Experto: Un sistema experto es aquel que posee la capacidad de utilizar

el razonamiento para que a través de una información suministrada y basándose

en conocimientos incorporados con anterioridad se llegue a una conclusión.

56. Subsistema: Sistema subordinado a otro mayor.

57. Telecomunicaciones: Esto se refiere a comunicación a distancia. Es decir poder

comunicarnos con alguien aunque se encuentre a kilómetros de distancia de

nosotros.

58. UAE: Unrecoverable Application Error – Error Irrecuperable de Aplicación que

involucra la integridad del sistema.Véase Integridad del Sistema.

59. UART: Universal Asynchronous Receiver Transmiter - Chip que controla la

información vía puerto serial.

Page 34: Evolución del Ordenador

60. Unidad Lógica: Término que se utiliza para denominar las unidades de disco que

se crean con software.

61. Variable de Entorno: Valores que utilizan las aplicaciones para referirse a una

parte específica de la PC sin la necesidad de utilizar o repetir el mismo parámetro.

62. Velocidad Externa: Se refiere a la velocidad que no hace parte de las

especificaciones internas de la CPU.

63. Windows 95: Sistema Operativo para PC cuya arquitectura de 32-bits soporta un

sistema completo de multitareas a través de un esquema de memoria virtual

paginada.