trabajo final investigacion de las 4 unidades
DESCRIPTION
ARQUITECTURA DE COMPUTADORASTRANSCRIPT
INSTITUTO TECNOLOGICO DE LÁZARO CÁRDENAS
TRABAJO FINAL:
’INVESTIGACION DE LAS 4 UNIDADES DE LA MATERIA’
INTEGRANTES:
ALEJANDRA LUNA JAIMES
ANA LIZBETH RICO VARGAS
ALEJANDRO ROJAS VARGAS
DANIEL BALANZAR ROJAS
DANIEL ALEJANDRO CORONA ORTEGA
CARRERA: INGENERIA EN SISTEMAS COMPUTACIONALES
MATERIA: ARQUITECTURA DE COMPUTADORAS
PROFESOR: ALAN JIMENEZ PACHECO
AULA: 51T SALON: I6
UNIDAD 1
1. EL MICROPROCESADOR (CPU)
El microprocesador (o simplemente procesador) es el circuito integrado central y más
complejo de un sistema informático; a modo de ilustración, se le suele llamar por
analogía el «cerebro» de un ordenador. Es un circuito integrado conformado por
millones de componentes electrónicos. Constituye la unidad central de
procesamiento (CPU) de un PC catalogado como microcomputador.
Es el encargado de ejecutar los programas desde el sistema operativo hasta
las aplicaciones de usuario. Sólo ejecuta instrucciones programadas en lenguaje de
bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar,
restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros,
una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en
coma flotante (conocida antiguamente como «co-procesador matemático»).
El microprocesador está conectado generalmente mediante un zócalo específico de
la placa base del ordenador; normalmente para su correcto y estable funcionamiento,
se le incorpora un sistema de refrigeración que consta de un disipador de calor
fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de
uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador.
Entre el ventilador y la cápsula del microprocesador normalmente se coloca pasta
térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces,
como la refrigeración líquida o el uso de células peltier para refrigeración extrema,
aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales,
tales como en las prácticas de overclocking.
1.1. Arquitectura básica y sus operaciones.
El microprocesador tiene una arquitectura parecida a la computadora digital. En otras
palabras, el microprocesador es como la computadora digital porque ambos realizan
cálculos bajo un programa de control. Consiguientemente, la historia de la
computadora digital ayuda a entender el microprocesador. El hizo posible la
fabricación de potentes calculadoras y de muchos otros productos. El
microprocesador utiliza el mismo tipo de lógica que es usado en la unidad
procesadora central (CPU) de una computadora digital. El microprocesador es
algunas veces llamado unidad microprocesadora (MPU). En otras palabras, el
microprocesador es una unidad procesadora de datos. En un microprocesador se
puede diferenciar diversas partes:
Encapsulado: es lo que rodea a la oblea de silicio en si, para darle
consistencia, impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir
el enlace con los conectores externos que lo acoplaran a su zócalo a su placa
base.
Memoria caché: es una memoria ultrarrápida que emplea el procesador para
tener alcance directo a ciertos datos que «predeciblemente» serán utilizados en
las siguientes operaciones, sin tener que acudir a la memoria RAM, reduciendo así
el tiempo de espera para adquisición de datos. Todos los micros compatibles con
PC poseen la llamada caché interna de primer nivel o L1; es decir, la que está
dentro del micro, encapsulada junto a él. Los micros más modernos (Core i3,Core
i5 ,core i7,etc) incluyen también en su interior otro nivel de caché, más grande,
aunque algo menos rápida, es la caché de segundo nivel o L2 e incluso los hay
con memoria caché de nivel 3, o L3.
Coprocesador matemático: unidad de coma flotante. Es la parte del micro
especializada en esa clase de cálculos matemáticos, antiguamente estaba en el
exterior del procesador en otro chip. Esta parte esta considerada como una parte
«lógica» junto con los registros, la unidad de control, memoria y bus de datos.
Registros: son básicamente un tipo de memoria pequeña con fines especiales
que el micro tiene disponible para algunos usos particulares. Hay varios grupos de
registros en cada procesador. Un grupo de registros esta diseñado para control del
programador y hay otros que no son diseñados para ser controlados por el
procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta
y dos registros.
Memoria: es el lugar donde el procesador encuentra las instrucciones de los
programas y sus datos. Tanto los datos como las instrucciones están almacenados
en memoria, y el procesador las accede desde allí. La memoria es una parte
interna de la computadora y su función esencial es proporcionar un espacio de
almacenamiento para el trabajo en curso.
Puertos: es la manera en que el procesador se comunica con el mundo
externo. Un puerto es análogo a una línea de teléfono. Cualquier parte de la
circuitería de la computadora con la cual el procesador necesita comunicarse,
tiene asignado un «número de puerto» que el procesador utiliza como si fuera un
número de teléfono para llamar circuitos o a partes especiales.
1.2. Tipos de arquitecturas en la evolución del CPU.
TIPOS DE ARQUITECTURAS.
ARQUITECTURAS CISC
La microprogramación es una característica importante y esencial de casi todas las
arquitecturas CISC.
Como por ejemplo:
Intel 8086, 8088, 80286, 80386, 80486.
Motorola 68000, 68010, 68020, 68030, 6840.
La microprogramación significa que cada instrucción de máquina es interpretada por
un microprograma localizado en una memoria en el circuito integrado del procesador.
En la década de los sesentas la microprogramación, por sus características, era la
técnica más apropiada para las tecnologías de memorias existentes en esa época y
permitía desarrollar también procesadores con compatibilidad ascendente. En
consecuencia, los procesadores se dotaron de poderosos conjuntos de instrucciones.
Las instrucciones compuestas son decodificadas internamente y ejecutadas con una
serie de microinstrucciones almacenadas en una ROM interna. Para esto se requieren
de varios ciclos de reloj (al menos uno por microinstrucción).
ARQUITECTURAS RISC
Buscando aumentar la velocidad del procesamiento se descubrió en base a
experimentos que, con una determinada arquitectura de base, la ejecución de
programas compilados directamente con microinstrucciones y residentes en memoria
externa al circuito integrado resultaban ser mas eficientes, gracias a que el tiempo de
acceso de las memorias se fue decrementando conforme se mejoraba su tecnología
de encapsulado.
Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden
implantar por hardware directamente en la CPU, lo cual elimina el micro código y la
necesidad de decodificar instrucciones complejas.
En investigaciones hechas a mediados de la década de los setentas, con respecto a la
frecuencia de utilización de una instrucción en un CISC y al tiempo para su ejecución,
se observó lo siguiente:
- Alrededor del 20% de las instrucciones ocupa el 80% del tiempo total de ejecución
de un programa.
- Existen secuencias de instrucciones simples que obtienen el mismo resultado que
secuencias complejas predeterminadas, pero requieren tiempos de ejecución más
cortos.
Las características esenciales de una arquitectura RISC pueden resumirse como
sigue:
Estos microprocesadores siguen tomando como base el esquema moderno de
Von Neumann.
Las instrucciones, aunque con otras características, siguen divididas en tres
grupos:
a) Transferencia.
b) Operaciones.
c) Control de flujo.
Reducción del conjunto de instrucciones a instrucciones básicas simples, con la que
pueden implantarse todas las operaciones complejas.
Arquitectura del tipo load-store (carga y almacena). Las únicas instrucciones que
tienen acceso a la memoria son 'load' y 'store'; registro a registro, con un menor
número de acceso a memoria.
Casi todas las instrucciones pueden ejecutarse dentro de un ciclo de reloj. Con un
control implantado por hardware (con un diseño del tipo load-store), casi todas las
instrucciones se pueden ejecutar cada ciclo de reloj, base importante para la
reorganización de la ejecución de instrucciones por medio de un compilador.
Pipeline (ejecución simultánea de varias instrucciones). Posibilidad de reducir el
número de ciclos de máquina necesarios para la ejecución de la instrucción, ya que
esta técnica permite que una instrucción pueda empezar a ejecutarse antes de que
haya terminado la anterior.
El hecho de que la estructura simple de un procesador RISC conduzca a una notable
reducción de la superficie del circuito integrado, se aprovecha con frecuencia para
ubicar en el mismo, funciones adicionales:
Unidad para el procesamiento aritmético de punto flotante.
Unidad de administración de memoria.
Funciones de control de memoria cache.
Implantación de un conjunto de registros múltiples.
La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos de
diseño más cortos cuando se desarrollan nuevas versiones, lo que posibilita siempre
la aplicación de las más recientes tecnologías de semiconductores. Por ello, los
procesadores RISC no solo tienden a ofrecer una capacidad de procesamiento del
sistema de 2 a 4 veces mayor, sino que los saltos de capacidad que se producen de
generación en generación son mucho mayores que en los CISC.
Por otra parte, es necesario considerar también que:
La disponibilidad de memorias grandes, baratas y con tiempos de acceso
menores de 60 ns en tecnologías CMOS.
Módulos SRAM (Memoria de acceso aleatorio estática) para memorias cache
con tiempos de acceso menores a los 15 ns.
Tecnologías de encapsulado que permiten realizar más de 120 terminales.
Esto ha hecho cambiar, en la segunda mitad de la década de los ochentas,
esencialmente las condiciones técnicas para arquitecturas RISC.
EVOLUCIÓN DEL CPU.
La CPU es el motor del ordenador, es la cabeza pensante del cuerpo, en definitiva es
el ordenador.
A lo largo de la historia de la Informática han sido muchas las CPU’s que han pasado
por los ordenadores, pero al final, en el tema de los compatibles ha sido la serie X86
la que se ha llevado la palma.
Cuando IBM se planteó la construcción de su Personal Computer, barajó una serie de
CPU’s que cumplían una serie de requisitos, pero fue el 8086 el elegido para el PC.
El CPU 8086 fue uno de los primeros CPU’s de 16 Bits que salió al mercado, y era
muy avanzado a su época. Sus principales características son:
-Ancho de bus de 16 Bits.
-Un bus de direccionamiento de 20 Bits.
-Alimentación única a +5V.
-Dos procesadores independientes en su interior: Una unidad de comunicación con
los buses y una unidad de ejecución de instrucciones.
-Una serie de registros de 16 Bits.
Cuando nos referimos que tiene un bus de direcciones de 20 Bits, nos referimos a
que es capaz de direccionar 220 direcciones, o sea, 1 MB. Ahora nos parece ridículo,
pero en su época era una barbaridad, por lo que parecía que Intel se había “pasado”
en su diseño.
Los primeros ordenadores basados en 8086, todos ellos de IBM, tenían una memoria
de 64KB. Nos puede parecer extraño que pudiendo manejar 1MB sólo lo hiciera con
64KB; debemos tener en cuenta que en aquella época la memoria era muy cara y no
estaba al alcance de todo el mundo, so pena de encarecer el precio final del
ordenador. Además, el software no era tan exigente como el actual.
Los primeros IBM PC tenían incorporado el BASIC, y como sistema de
almacenamiento de masa tenía un casete. Posteriormente, se añadió la
disquetera. Como sistema operativo, se utilizó el famoso CP/M.
La evolución del software hizo que pronto se quedara corta la memoria. Se hicieron
ampliaciones a 128Kbytes, 256Kbytes, 512Kbytes y 640KBytes, que sólo podían
pagar unos pocos.
El aumento de memoria provocó determinadas incompatibilidades, que quedaron
subsanadas con un ingenioso sistema denominado segmentación, que será explicado
más adelante.
De todas formas, los primitivos PC’s eran muy caros. Es por ello por lo que IBM
encargó a Intel un CPU compatible con el 8086 pero de menor precio, de manera que
se diseñó un CPU idéntico al 8086 pero con un bus de datos de sólo 8 Bits,
denominada 8088. Pronto se hizo muy popular, puesto que por su menor precio, el
PC fue más económico.
Las CPU’s 8086 y 8088 funcionaban a una velocidad de reloj de 4,77 MHz, siendo
por tanto de las más rápidas que había en su época. Además, surgió una gran
cantidad de chips que acompañaban a los CPU’spara diversas funciones: generador
de reloj, control de entradas/salidas, buffers, etc.
Sin embargo, los 8086/8088 tenían poca facilidad para el cálculo matemático
complejo, de manera que hubo que diseñar un chip específico para dichas
operaciones. A este chip se le denominó coprocesador matemático y su nombre fue
8087.
Un coprocesador matemático como su nombre indica, es un chip destinado única y
exclusivamente a operaciones matemáticas complejas, tales como senos, cosenos,
potenciación, exponenciación, etc. Este chip va conectado al CPU mediante los
buses de datos y direcciones.
¿Cómo funciona un coprocesador? Supongamos que estamos ejecutando un
programa que necesita de un cálculo matemático complejo. Es necesario que el
programa haya sido creado pensando en la posibilidad de utilizar un
coprocesador. Este punto es imprescindible, ya que el objeto del coprocesador es
asistir a la CPU en operaciones que por sí sola no es capaz de hacer. Si el “copro” no
estuviera, el programa no debe funcionar.
En ese momento, el programa intenta ejecutar la orden compleja, y el CPU
automáticamente deja de atender al programa, dándole paso al coprocesador. Este
ejecuta la instrucción y cuando termina, da paso otra vez al CPU,
desconectándose. Huelga decir que el “copro” pasa al CPU los resultados.
El uso del coprocesador permitió ejecutar programas complejos de diseño y cálculo,
pero con el poco rendimiento del 8086/8088 no se aprovechó bien, de manera que
hubo que pensar una manera de mejorar los PC´s. La solución se llamó 80286.
3. 2. La siguiente generación, el 80286
La verdad es que la serie 8086/8088 tenía poca potencia de cálculo, sobre todo
debido a su baja velocidad de proceso, que ya sabemos era de 4,77 MHz. Es por eso
por lo que Intel siguió investigando en el mundo de los procesadores, presentando en
sociedad al 80186/80188.
Estos CPU’s estaban optimizados en el tiempo de ejecución de las instrucciones, es
decir, que la ejecución de una instrucción determinada ocupaba menos ciclos de reloj,
de forma que el programa se ejecutaba más rápido.
De todas formas, estos microprocesadores apenas se vieron, debido a la aparición de
un CPU que revolucionó el mercado de los ordenadores personales de la época, me
refiero a la auténtica estrella de la casa: El 80286.
El 286 era un CPU pensado por y para la multitarea, debido a una serie de
características internas que lo hacían idóneo para ello. En primer lugar, era más
rápido que sus antecesores, y no sólo en tiempo de ejecución de instrucciones, sino
también en el reloj del sistema. Los 286 comenzaron a verse a velocidades de reloj
de 6, 8, 12, 16 y 20MHz.
Hay que hacer notar que los CPU’s a 16 y 20MHz no los fabricaba Intel: Por aquel
entonces comenzaba a despuntar la casa AMD, la cual ha dado al mundo versiones
muy buenas de los CPU’s de Intel. Debemos recordar al lector que Intel no había
terminado de atar los cabos de las patentes, de manera que cualquiera podía basarse
en sus diseños para crear un CPU.
También entró en escena otro fabricante: HARRIS. Si bien las CPU’s de Harris eran
las más rápidas que jamás se habían visto, (¡20 MHz!), también es cierto que quiso
incorporar ciertas mejoras al 286 que provocaron una serie de problemas de
compatibilidad con el software, de manera que los CPU’s de Harris siempre tuvieron
fama de ser problemáticos.
Las características del 286 eran:
-Bus de datos de 16 Bits.
-Direccionamiento ampliado de 24 Bits.
-Dos modos de trabajo: Real y Protegido.
Con 24Bits de bus de direcciones, el 286 permitía la ampliación de memoria hasta
valores de: 16 MB de RAM.
A pesar de esto, era raro el 286 que tenía más de 4 MB de RAM, pues el precio de la
memoria en aquellos tiempos era muy caro: Llegó a ser de hasta 10.000 Ptas el MB.
Antes hemos dicho que el 286 tenía dos modos de trabajo: Real y Protegido. El modo
real de trabajo es el estándar del 8088/8086, con la limitación de 1 MB de RAM. Este
modo se implantó para tener la compatibilidad con los sistemas antiguos.
El modo Protegido se implantó para la integración del 286 en los sistemas
multiusuario y multiprocesador de aquella época, que eran las primitivas versiones de
OS/2 y UNIX. En este modo se pueden utilizar la máxima memoria de la que se
disponga, mediante la carga de un driver en el CONFIG.SYS de la máquina, ya sea en
MS-DOS ó DR-DOS.
Para conseguir la “multitarea” de los sistemas anteriormente reseñados, al 286 “no
se le puede dejar solo” con la memoria. Es por ello por lo que el 286 incorpora una
especie de “coprocesador” encargado de las colas de instrucciones y el manejo de la
memoria, conceptos estos que provocan una especie de “modo de supervisión” del
trabajo realizado, concepto ya desarrollado por Motorola en su serie 68000.
Sin embargo, con el 286 comenzaron los errores de Intel, ya que había un error en el
modo de trabajo virtual: En determinadas circunstancias, no se podía volver al modo
real, quedando el ordenador colgado. Este fue uno de las motivos que impidió el
avance del DOS. Por aquella época, se estaba preparando la versión 4.0 del MS-
DOS. Esta versión incluía una serie de órdenes que permitían el trabajo en modo
protegido en DOS, lo cual hubiera acabado en posteriores versiones en una especie
de DOS multitarea. Lamentablemente, el fallo del 286 truncó esa esperanza, de
manera que el MS-DOS 4.0 acabó con una serie de funciones y órdenes que no están
documentadas en ningún sitio para que no se usen, que utilizaban las prestaciones
avanzadas del 286.
Esto hubiera supuesto la muerte de la compatibilidad, ya que también se habría
acabado con la barrera de los 640 KB. Aun así, como opinión personal, creo que al
final hubiera sido mejor para todos.
Por supuesto, también apareció el coprocesador de turno, denominado 80287, con
una serie de mejoras en el cálculo y en velocidad de ejecución.
Sin embargo, no se siguió investigando para aumentar las prestaciones del 286, ya
que estaba a punto de aparecer el CPU que marcó la revolución: El 80386.
1.3 ARQUITECTURA MULTINUCLEO
ARQUITECTURA MULTINUCLEO
HISTORIA
Como historia se puede decir que el primer procesador multinúcleo en el mercado fue el IBM Power 4 en el año 2000. Una alternativa a los procesadores multinúcleo son los sistemas multiprocesadores, que consisten en una placa madre que podía soportar desde 2 a más procesadores. El rendimiento es bastante bueno, pero también es bastante caro.
DESCRIPCIÓN
Un microprocesador multinúcleo es aquel que combina dos o más procesadores independientes en un sólo circuito integrado. Un dispositivo doble núcleo contiene solamente dos microprocesadores independientes. En general, los microprocesadores multinúcleo permiten que una computadora trabaje con Multiprocesamiento, es decir procesamiento en simultáneo con dos o más procesadores. Por otro lado, la tecnología de doble núcleo mejora el rendimiento de los entornos de trabajo multitarea y las aplicaciones con múltiples subprocesos. Por ejemplo, permite que aplicaciones fundamentales como antivirus o antiespías se ejecuten al mismo tiempo que aplicaciones empresariales con un impacto mínimo sobre el rendimiento del sistema.
Durante agosto de 2007 comenzaron a aparecer los procesadores de cuádruple núcleo, encabezados por el lanzamiento del Core 2 Quad de Intel. En el caso de las computadoras portátiles.
CLASES DE PROCESADORES MULTINUCLEOS
Antes de comenzar a nombrar los diferentes procesadores multinucleo definieremos lo que es HyperThreading.
HyperThreading: esta tecnología fue creada por Intel, para los procesadores Pentium 4 más avanzados. El Hyperthreading hace que el procesador funcione como si fuera dos procesadores. Esto fue hecho para que tenga la posibilidad de trabajar de forma multihilo (multithread) real, es decir pueda ejecutar muchos hilos simultáneamente.
Un procesador con la tecnología Hyperthreading tiene un 5% más de transistores que el mismo procesador sin esa tecnología.
Clases de procesadores multinucleo INTEL:
PentiPentium D están conformados por dos procesadores Pentium 4 Prescott sin Hyperthreadingum.
Core Duo
Core 2 Duo
Core2Quad
Clases de procesadores multinucleo AMD:
Athlon 64 X2
Opteron X2
Turion X2 (Portatiles)
1.4 MULTIPROCESAMIENTO Y MULTINUCLEO
MULTIPROCESAMIENTO
Multiprocesamiento o multiproceso es tradicionalmente conocido como el uso de múltiples procesos concurrentes en un sistema en lugar de un único proceso en un instante determinado. Como la multitarea que permite a múltiples procesos compartir una única CPU, múltiples CPUs pueden ser utilizados para ejecutar múltiples hilos dentro de un único proceso.
El multiproceso para tareas generales es, a menudo, bastante difícil de conseguir debido a que puede haber varios programas manejando datos internos (conocido como estado o contexto) a la vez. Los programas típicamente se escriben asumiendo que sus datos son incorruptibles. Sin embargo, si otra copia del programa se ejecuta en otro procesador, las dos copias pueden interferir entre sí intentando ambas leer o escribir su estado al mismo tiempo. Para evitar este problema se usa una variedad de técnicas de programación incluyendo semáforos y otras comprobaciones y bloqueos que permiten a una sola copia del programa cambiar de forma exclusiva ciertos valores.
MULTINUCLEO
Los procesadores multi núcleo son chips independientes que contienen dos o más procesadores o núcleos de ejecución distintos en el mismo circuito integrado. Aunque son independientes, su construcción les permite compartir tareas de forma interdependiente.
Y, ¿eso qué significa para el usuario? Cada día que pasa se desarrollan programas que envían múltiples instrucciones que se tienen que procesar simultáneamente.
Estos programas toman miles de millones de decisiones en un segundo, especialmente mientras se ejecutan programas exigentes como reproducción de vídeo de alta definición o programas de ingeniería.
Los procesadores Intel Core 2 Duo incorporan dos núcleos de ejecución en un mismo paquete que ofrece, con el software adecuado, la ejecución totalmente paralela de varios subprocesos. Esto permite que cada núcleo funcione a una frecuencia menor, dividiendo la potencia normalmente asignada a un único núcleo.
El resultado para el usuario no es sólo un procesamiento más rápido. Es… bueno, ¡que tu foto ya está lista! Mientras chateas. Y has imprimido un diseño arquitectónico.
La tecnología de cuatro núcleos consiste en un único procesador que cuenta con cuatro núcleos. Piensa que son cuatro cerebros que están pensando al mismo tiempo pero que pueden trabajar juntos o por separado en una tarea grande, lo que se traduce en unos resultados más rápidos y eficientes.
CONCLUSIÓN
El microprocesador es uno de los logros más sobresalientes del siglo XX. Esas son
palabras atrevidas, y hace un cuarto de siglo tal afirmación habría parecido absurda.
Pero cada año, el microprocesador se acerca más al centro de nuestras vidas,
forjándose un sitio en el núcleo de una máquina tras otra. Su presencia ha comenzado
a cambiar la forma en que percibimos el mundo e incluso a nosotros mismos. Cada
vez se hace más difícil pasar por alto el microprocesador como otro
simple producto en una larga línea de innovaciones tecnológicas.
Ninguna otra invención en la historia se ha diseminado tan aprisa por todo el mundo o
ha tocado tan profundamente tantos aspectos de la existencia humana. Hoy existen
casi 15,000 millones de microchips de alguna clase en uso (el equivalente de
dos computadoras poderosas para cada hombre, mujer y niño del planeta).
No obstante que reconocemos la penetración del microprocesador en nuestras vidas,
ya estamos creciendo indiferentes a la presencia de esos miles de
máquinas diminutas que nos encontramos sin saberlo todos los días. Así que, antes
de que se integre de manera demasiado imperceptible en nuestra diaria existencia, es
el momento de celebrar al microprocesador y la revolución que ha originado, para
apreciar el milagro que es en realidad cada uno de esos chips de silicio diminutos y
meditar acerca de su significado para nuestras vidas y las de nuestros descendientes.
BIBLIOGRAFÍA
http://www.monografias.com/trabajos11/micro/micro.shtml
http://www.itescam.edu.mx/principal/webalumnos/sylabus/asignatura.php?clave_asig=
IFD-1006&carrera=IINF-2010-220&id_d=60
http://jasaru.blogspot.mx/2012/03/13-arquitectura-multinucleo.html
UNIDAD 2 .MEMORIAS
2.1. ORGANIZACIÓN BÁSICA
1. CARACTERÍSTICAS GENERALES DE LAS MEMORIAS
Las memorias se pueden clasificar atendiendo a diferentes criterios.
Revisaremos en los apartados siguientes los más significativos:
MÉTODO DE ACCESO
Acceso aleatorio (RAM): acceso directo y tiempo de acceso constante e
independiente de la posición de memoria.
Acceso secuencial (SAM): tiempo de acceso dependiente de la posición de memoria.
Acceso directo (DAM): acceso directo a un sector con tiempo de acceso
dependiente de la posición, y acceso secuencial dentro del sector.
Asociativas CAM): acceso por contenido
SOPORTE FÍSICO
Semiconductor
Magnéticas
Ópticas
Magneto-ópticas
ALTERABILIDAD
RAM: lectura y escritura
ROM (Read 0nly Memory): Son memorias de sólo lectura. Existen diferentes variantes:
ROM programadas por máscara, cuya información se escribe en el proceso
de fabricación y no se puede modificar.
PROM, o ROM programable una sola vez. Utilizan una matriz de diodos cuya
unión se puede destruir aplicando sobre ella una sobretensión.
EPROM (Erasable PROM) o RPROM (Reprogramable ROM), cuyo contenido
puede borrarse mediante rayos ultravioletas para volverlas a escribir.
EAROM (Electrically Alterable ROM) o EEROM (Electrically Erasable ROM),
son memorias que están entre las RAM y las ROM ya que su contenido se
puede volver a escribir por medios eléctricos. Se diferencian de las RAM en
que no son volátiles.
Memoria FLASH. Utilizan tecnología de borrado eléctrico al igual que las
EEPROM, pero pueden ser borradas y reprogramadas en bloques, y no
palabra por palabra como ocurre con las tradicionales EEPROM. Ofrecen un
bajo consumo y una alta velocidad de acceso, alcanzando un tiempo de vida
de unos 100.000 ciclos de escritura.
VOLATILIDAD CON LA FUENTE DE ENERGÍA
Volátiles: necesitan la fuente de energía para mantener la información.
No volátiles: mantienen la información sin aporte de energía.
DURACIÓN DE LA INFORMACIÓN
Estáticas: el contenido permanece inalterable mientras están polarizadas.
Dinámicas: el contenido sólo dura un corto período de tiempo, por lo que es
necesario refrescarlo (reescribirlo) periódicamente.
PROCESO DE LECTURA
o Lectura destructiva: necesitan reescritura después de una lectura.
o Lectura no destructiva
UBICACIÓN EN EL COMPUTADOR
o Interna (CPU): registros, cache(L1), cache(L2), cache(L3), memoria principal
o Externa (E/S): discos, cintas, etc.
PARÁMETROS DE VELOCIDAD
o Tiempo de acceso
o Tiempo de ciclo
o Ancho de banda(frecuencia de acceso)
UNIDADES DE TRANSFERENCIA
o Palabras
o Bloques
JERARQUÍA DE LAS UNIDADES DE MEMORIA DE UN COMPUTADOR
Las distintas memorias presentes en un computador se organizan de forma jerárquica:
aumenta capacidad
nivel superior aumenta velocidad
Registros de la CPU
Memoria cache(L1,L2,L3)
Memoria principal
Discos magnéticos
Cintas, CD-ROM, etc.
En el nivel i+1 se ubica una copia de aquellos bloques del nivel i que tienen
mayor probabilidad de ser referenciados en el futuro inmediato
nivel i+1
nivel i
Este mecanismo de migración entre niveles es efectivo gracias al principio de localidad
referencial que manifiestan los programas:
espacial
temporal
Se consigue que el mayor número de referencias generado por los programas correspondan a
Informaciones ubicadas en los niveles más altos de la jerarquía. ORGANIZACIÓN INTERNA DE LA MEMORIA PRINCIPAL.
Una memoria principal se compone de un conjunto de celdas básicas dotadas de
una determinada organización. Cada celda soporta un bit de información. Los bits se
agrupan en unidades direccionales denominadas palabras. La longitud de palabra la
determina el número de bits que la componen y constituye la resolución de la memoria
(mínima cantidad de información direccionales). La longitud de palabra suele oscilar
desde 8 bits (byte) hasta 64 bits.
Cada celda básica es un dispositivo físico con dos estados estables (o semi-
estables) con capacidad para cambiar el estado (escritura) y determinar su valor
(lectura). Aunque en los primeros computadores se utilizaron los materiales
magnéticos como soporte de las celdas de memoria principal (memorias de ferritas,
de película delgada, etc.) en la actualidad sólo se utilizan los materiales.
Desde un punto de vista conceptual y con independencia de la tecnología,
consideraremos la celda básica de memoria como un bloque con tres líneas de
entrada (entrada dato, selección y lectura/escritura) y una de salida (salida dato). La
celda sólo opera (lectura ó escritura) cuando la selección está activa.
Selección
Entrada dato Salida dato
Lectura/Escritura
ORGANIZACIÓN INTERNA DE LA MEMORIA.
Las celdas de memoria se disponen en el interior de un chip atendiendo a dos
organizaciones principales: la organización por palabras, también denominada 2D, y la
organización por bits, también denominada 2 ½ D o 3D.
ORGANIZACIÓN 2D
Es la organización más sencilla que responde al esquema mostrado en la siguiente figura:
dirección
2n
Matriz de celdas
Selección
2n * m celdas
n
SC
Control
R/W
m m
datos
datos
entrada
salida
Las celdas forman una matriz de 2n filas y m columnas, siendo 2n el número de
palabras del chip y m el número de bits de cada palabra. Cada fila es seleccionada por la decodificación de una configuración diferente de los n bits de dirección.
Esta organización tiene el inconveniente que el selector (decodificador) de
palabras crece exponencialmente con el tamaño de la memoria. Igual le ocurre al
número de entradas (fan-in) de las puertas OR que generan la salida de datos.
Ejemplo
En la siguiente figura se muestra la organización 2D de un chip de memoria con 4 palabras de 4
bits:
De0 De1 De2 De3
R/W
A0 DEC
A1
Ds0 Ds1 Ds2 Ds3
ORGANIZACIÓN 3D
En lugar de una única selección (decodificador) de 2n salidas en esta organización se utilizan dos decodificadores de 2n/2 operando en coincidencia. Las líneas de dirección se reparten entre los dos decodificadores. Para una configuración dada de las líneas de dirección se selecciona un único bit de la matriz. Por ello se la denomina también organización por bits.
Selección X
2n/2
n/2
n
Matriz de celdas
2n/2
Selecci
ón
2n * m celdas
dirección
Y
n/2
2.2. ACCESO A LOS DATOS Y TEMPORIZACIÓN
TEMPORIZACIÓN
RELOJ DEL SISTEMA
El reloj de una computadora se utiliza para dos funciones principales:
1. Para sincronizar las diversas operaciones que realizan los diferentes
subcomponentes del sistema informático.
2. Para saber la hora.
El reloj físicamente es un circuito integrado que emite una cantidad de pulsos por
segundo, de manera constante. Al número de pulsos que emite el reloj cada segundo
se llama Frecuencia del Reloj.
La frecuencia del reloj se mide en Ciclos por Segundo, también llamados Hertzios,
siendo cada ciclo un pulso del reloj. Como la frecuencia del reloj es de varios millones
de pulsos por segundo se expresa habitualmente en Megaherzios.
El reloj marca la velocidad de proceso de la computadora generando una señal
periódica que es utilizada por todos los componentes del sistema informático para
sincronizar y coordinar las actividades operativas, evitando el que un componente
maneje unos datos incorrectamente o que la velocidad de transmisión de datos entre
dos componentes sea distinta.
Cuanto mayor sea la frecuencia del reloj mayor será la velocidad de proceso de la
computadora y podrá realizar mayor cantidad de instrucciones elementales en un
segundo.
El rango de frecuencia de los microprocesadores oscila entre los 4,77 megaherzios
del primer PC diseñado por IBM y los 200 megaherzios de las actuales computadoras
basadas en los chips Intel Pentium.
En máquinas de arquitectura Von Neumann la mayoría de las operaciones son
serializadas, esto significa que la computadora ejecuta los comandos en un orden
preestablecido. Para asegurarnos de que todas las operaciones ocurren justo en el
tiempo adecuado, las máquinas 80x86 utilizan una señal alternante llamada el reloj del
sistema.
En su forma básica, el reloj del sistema maneja toda la sincronización de un
sistema de cómputo. El reloj del sistema es una señal eléctrica en el bus de control
que alterna entre los valores de cero y uno a una tasa dada. La frecuencia en la cual
el reloj del sistema alterna entre cero y uno es llamada frecuencia del reloj de sistema.
El timepo que toma para cambiar de cero a uno y luego volver a cero se le llama
periodo de reloj, también llamado ciclo de reloj. La frecuencia del reloj es simplemente
el número de ciclos de reloj que ocurren en un segundo, en sistemas actuales, éste
valor excede los 200 ciclos por segundo, siendo ya común frecuencias del orden de
los 366 Mhz. (MegaHertz, que equivale a un millón de ciclos por segundo). Observe
que el periodo de reloj es el valor inverso de la frecuencia, por lo tanto, para un
sistema de 200 Mhz el periodo es igual a 5 nanosegundos. Para asegurar la
sincronización, el CPU inicia una operación ya sea en el flanco ascendente (cuando la
señal cambia de cero a uno) ó en el descendente (cuando la señal cambia de uno a
cero). Como todas las operaciones de un CPU están sincronizadas en torno a su reloj,
un CPU no puede ejecutar operaciones más rápido que la velocidad del reloj.
ACCESO A MEMORIA Y EL RELOJ DEL SISTEMA
El acceso a memoria es probablemente la actividad más común de un CPU, se
trata en definitiva de una operación sincronizada al reloj del sistema, esto es, la lectura
o escritura no puede ser más rápida que un ciclo de reloj, de hecho, en muchos
sistemas 80x86 el acceso a memoria toma varios ciclos de reloj. El tiempo de acceso
a memoria es el número de ciclos de reloj que el sistema necesita para acceder a una
ubicación de memoria, este es un valor importante ya que a mayor número de ciclos
menor desempeño. El tiempo de acceso a memoria es la cantidad de tiempo que
transcurre desde que se solicita una operación (sea de lectura ó escritura) y el tiempo
en que la memoria completa dicha operación. En procesadores de 5 Mhz (80x88,
80x86) el tiempo de acceso a memoria es de aproximadamente 800 ns.
(nanosegundos), en cambio, un procesador de 50 Mhz (80x486) el tiempo es de
aproximadamente 20 ns. El tiempo de acceso a memoria en el procesador 80x486 es
casi 40 veces más rápido que en el caso del procesador 80x86 porque éste último
consume más ciclos de reloj para el acceso a memoria además del incremento en la
velocidad de reloj.
Una memoria cache es un dispositivo sin estados de espera que se encuentra
construida como parte integral del CPU, físicamente se encuentra entre el CPU y los
módulos de memoria RAM, su función es evitar la generación de estados de espera
por parte de los módulos de memoria RAM y así aprovechar al máximo el rendimiento
esperado por el CPU, sin embargo la memoria cache no es un dispositivo perfecto
pues hay ocasiones en que no es posible colocar en memoria cache los datos que
requiere el programa para ejecutarse forzando al sistema a leer dichos datos
directamente de los módulos de memoria RAM y por lo tanto generando estados de
espera, cuando ocurre éste fenómeno se le llama pérdida cache (cache miss), cuando
tienen éxito las operaciones en memoria cache se le llama éxito cache (cache hit). Por
lo general el radio entre éxito y pérdida en memoria cache está entre 85 y 90%. Este
rendimiento disminuye al aumentar la cantidad de memoria cache y por esta razón la
memoria cache es relativamente pequeña, sus valores de almacenamiento oscilan
entre 256 y 512 Kb.
INTERRUPCIONES
Transferencia de datos por interrupción.
Las interrupciones alteran la secuencia normal de un programa para permitir una operación de E/S. Son particularmente útiles con periféricos lentos o en aplicaciones donde la ocurrencia de datos a ser transferidos a la computadora es impredecible como en enlaces de comunicación.
La principal característica es que : El intercambio de datos es iniciado por los dispositivos periféricos.
La implementación de tal sistema consiste en reemplazar el lazo de espera para la transferencia asíncrona con un lazo equivalente en hardware para probar para una interrupción externa.
Durante cada ciclo de máquina el microprocesador checa la presencia de una señal de interrupción.
Para realizar una transferencia por interrupción simple, ocurren generalmente los siguientes pasos:
1. Un dispositivo periférico solicita una interrupción.
2. El microprocesador emite un conocimiento de la interrupción.
3. Se guarda el PC y el programa brinca a una localidad de la memoria que contiene una rutina para procesar la interrupción.
4. El contenido de los registros internos (de trabajo y estatus) son guardados y la transferencia de datos es ejecutada bajo control de software.
La ejecución del programa es regresada a la secuencia pre- interrumpida del programa.
Hay dos métodos de implementar la secuencia antes mencionada.
e. Interrupciones sondeados (polling)
f. Interrupciones vectorizadas
El siguiente diagrama muestra la forma de dar servicio a una interrupción.
El microprocesador Z80 posee un complejo y poderoso sistema de interrupciones, las cuales le sirven para comunicarse con periféricos externos, que pueden ser o no compatibles con el microprocesador Z80.
El microprocesador cuenta con dos entradas para interrupciones externas ; la terminal INT (pin 16) y la NMI (pin 17), de las cuales INT es activa a nivel bajo y NMI en la transición de 1 a 0.
Las líneas de interrupción del microprocesador (INT, NMI) permiten a un dispositivo externo interrumpir el flujo de un programa en el microprocesador, forzando el programa a pasar una localidad especifica de memoria.
Una interrupción es un evento asíncrono ya que puede ocurrir en cualquier momento, y por lo general suspenderá la ejecución del programa en curso.
Hay tres mecanismos de interrupción en el Z80.
1. La solicitud de los buses BUSREQ
2. Interrupción no enmascarable NMI
3. Interrupción usual.
Las interrupciones pueden ser enmascarables y no enmascarables.
Una interrupción enmascarable tiene la característica que si el microprocesador ejecuta una instrucción de deshabilitar interrupción,(DI), cualquier señal de control en la línea de interrupción será ignorado o enmascarada (masked out). El procesador se mantendrá sin hacer caso a la línea de la interrupción enmascarable (EI) sea ejecutada.
Una interrupción no enmascarable, por otro lado no puede ser enmascarable bajo control de programa.
Se dice también que hay interrupciones vectorizadas o interrupciones de localidad fija.
Una interrupción de localidad fija, siempre hará que el programa brinque a una localidad de memoria específica, invariable.
Las interrupciones vectorizadas, puede hacer que el procesador brinque a cualquier número de diferentes localidades dependiendo de la señal en un puerto de interrupción que es interrogado por el procesador siguiendo una interrupción.
La interrupción no enmascarable del Z80 NMI no puede ser vectorizada.
Un NMI hace al procesador brincar a la localidad 0066h en la memoria donde debe empezar la rutina de servicio de la interrupción. La rutina de servicio de la interrupción termina con una instrucción de return, el cual fuerza al microprocesador a regresar exactamente donde estaba el programa principal en el momento de la interrupción.
INTERRUPCIONES ENMASCARABLES
Las interrupciones ordinarias INT también pueden ser “enmascaradas” selectivamente por el programador. Haciendo uso de los flip flops IFF1 y IFF2 a “1” las interrupciones son autorizadas. Poniéndolas a cero (mascarándolos) se prevendrá la detección de INT. La instrucción EI es usada para habilitarlas y DI para deshabilitarlas.
IFF1 y IFF” no son “puestos” en “1” simultáneamente durante la ejecución de las instrucciones EI y DI, las interrupciones son deshabilitadas para prevenir cualquier pérdida de información.
Para que el microprocesador acepte esta interrupción, deben de cumplirse las siguientes condiciones:
1. Que las interrupciones hayan sido habilitadas previamente.
2. Que la entrada Busreq no esté activa.
3. Que la entrada NMI no esté activa.
En la operación normal del Z80 examina la entrada INT en la subida de reloj en el último estado del último ciclo de máquina de cada instrucción y después en cada transferencia o comparación de bloques o entrada y salida de bloques.
Cuando la entrada está en 0 lógico y se cumplen todas las condiciones, el microprocesador inicia un ciclo especial de respuesta a la interrupción (interrupt acknowledge) para avisar al dispositivo que su interrupción fue aceptada.
Durante este ciclo de máquina se activa la señal M1, pero para distinguirlo de un ciclo normal de lectura de código de operación, la señal IOREQ se activa en lugar de la señal Mreq y la señal RD permanece inactiva. IOREQ se utiliza para indicar al dispositivo que puede colocar una palabra de 8 bits en el bus de datos. Este byte le proporciona al microprocesador información de la dirección en que se encuentra la
subrutina de servicio a donde se transferirá el control. Esta información varía dependiendo de la interrupción. Además, durante la interrupción el contenido del PC no se altera y permanece con el último valor que tenía antes de la interrupción.
El Z-80 puede responder a 3 formas de interrupciones enmascarables, dependiendo de cual de los modos de interrupción ha sido seleccionado por el programa del microprocesador.
MODO 0 : En este modo el dispositivo que provoca la interrupción coloca una palabra de 8 bits en bus de datos en lugar de que lo haga la memoria. Esa instrucción es leída por el Z-80 en el ciclo de respuesta a una interrupción y ejecutada inmediatamente después. Normalmente se emplea una instrucción RST n (restart) con lo cual se genera una llamada a subrutina que transfiere el control del programa a una de las 8 direcciones posibles colocadas en los primeros bytes de memoria. Las 8 posibilidades de RST son :
Código (bits 5, 4, 3) Dirección
0 0 0 00h
0 0 1 08h
0 1 0 10h
0 1 1 18h
1 0 0 20h
1 0 1 28h
1 1 0 30h
1 1 1 38h
MODO 1 : Es un modo de interrupción no vectorizada. Una interrupción en la línea INT en este modo, hará brincar a el procesador a una localidad fija ; la 0038h.
MODO 2 : Es un modo de interrupción vectorizada que se habilita con la instrucción IM2. En este modo, la dirección de la rutina de servicio de interrupción es almacenado en dos bytes del espacio de memoria.
El vector de interrupción es una dirección proporcionada por el dispositivo periférico que generó la interrupción y es usado como un apuntador a la dirección de inicio de la subrutina de servicio de interrupción. Cada periférico proporciona 7 bits de la dirección el cual es agregado a la dirección de 8 bits que se encuentra en el registro I. El bit menos significativo del vector de interrupción debe ser cero. El PC se carga automáticamente al STACK ya que el PC es recargado con el contenido de la entrada
de la tabla de interrupciones correspondiente al vector proporcionado por el dispositivo.
LA INTERRUPCION NO ENMASCARABLE.
Este tipo de interrupciones no puede ser inhibida por el programador. Es por esto que se dice que es no enmascarable. Siempre será aceptada por el Z80 hasta que finalice la instrucción en curso, asumiendo que no se ha recibido una requisición de buses (BUSREQ). Si un NMI se recibe durante un BUSREQ se hará 1 el flip flop interno NMI, y será procesador al finalizar el BUSREQ.
El NMI producirá una colocación push automática del contador del programa en el STACK, y brinca a la dirección 0066h : Los dos bytes que representan la dirección 0066h será instalado en el contador de programa. Estos representan la dirección de inicio de la rutina de manejo para el NMI.
Este mecanismo fue diseñado así por rapidez, ya que es usado en casos de emergencia. Por esto, no ofrece la flexibilidad del modo de interrupción enmascarable.
Nótese también que la rutina de interrupción debe haber sido cargada con anterioridad de usar el NMI en la dirección 0066h.
La secuencia de eventos es la siguiente :
PC STACK
IFF1 IFF2
0 IFF1
BRINCA A 0066H
Nótese que el estado del flip flop de interrupción enmascarable es pasado automáticamente al flip flop al flip flop de interrupción #2 IFF2. Luego IFF1 se hace cero para evitar cualquier interrupción posterior. Este comportamiento es importante para evitar que se pierdan interrupciones demás baja prioridad (INT) y simplifica el hardware externo : El estado de la interrupción pendiente INT es conservado internamente por el Z80.
La interrupción NMI es normalmente usado para eventos de alta prioridad tal como reloj de tiempo real o una falla de energía.
El regreso de una interrupción NMI es realizado por la instrucción especial ; RETN : “return from no maskable interrupt”. El contenido de IFF1 es regresado de IFF2 y el contenido de el PC es recargado con la localidad en el STACK. Ya que IFF1 ha sido “reseteado” durante la ejecución del NMI, no se pudo aceptar ningún INT durante el NMI. No hay pérdida de información. Después de que el manejador de interrupción termina, la secuencia es :
IFF2 IFF1
STACK PC
2.3. TIPOS DE MEMORIAS.
Inicialmente podemos clasificar la memoria en tres tipos:
RAM.
ROM.
MEMORIA VIRTUAL.
MEMORIA RAM
Es la memoria de acceso aleatorio (Random Access Memory). Se llama de acceso
aleatorio porque el procesador accede a la información que está en la memoria en
cualquier punto sin tener que acceder a la información anterior y posterior.
Es la memoria que se actualiza constantemente mientras el ordenador está en uso
y que pierde sus datos cuando el ordenador se apaga.
La memoria RAM se clasifica en:
DRAM
SRAM
TAG RAM.
DRAM
Es la memoria de acceso aleatorio dinámica
(Dynamic Random Access Memory). Está organizada en direcciones de memoria
(Addresses) que son reemplazadas muchas veces por segundo.
Es la memoria de trabajo, por lo que a mayor cantidad de memoria, más datos se
pueden tener en ella y más aplicaciones pueden estar funcionando simultáneamente,
y por supuesto a mayor cantidad mayor velocidad de proceso, pues los programas no
necesitan buscar los datos continuamente en el disco duro, el cual es muchísimo más
lento.
La memoria RAM dinámica puede ser de diferentes tipos de acuerdo con su
tecnología de fabricación: FPM, EDO, SDRAM, BEDO y más recientemente RDRAM.
Además, cualquiera de los tipos anteriores puede presentarse en módulos de
memoria SIN PARIDAD, CON PARIDAD o de tipo ECC.
Los módulos de memoria CON PARIDAD (parity) se distinguen porque tienen un
número impar de chips. El chip que hace el número par no es de memoria, sino que
es el chip de paridad, que se utiliza para comprobar el flujo de datos y eliminar los
errores que se pueden producir. Este tipo de módulos se usan especialmente en
ordenadores que funcionan como servidores, por la necesidad que existe de
mantener la integridad de los datos t porque el precio de éstos módulos es muy
superior a los módulos sin paridad, por que sería muy costoso para usuarios
domésticos.
Memoria ROM
Es una memoria de sólo lectura (Read Only Memory) en la que no se puede escribir
como la RAM, y que guarda la información almacenada en ella incluso después de
apagar el equipo. También se puede acceder a este tipo de memoria de forma
aleatoria.
La configuración de la BIOS de la placa base, así como la configuración de los
distintos dispositivos instalados en el equipo se guarda en memoria ROM. A la
información de los dispositivos escrita en la memoria ROM de cada uno de ellos se
llama FIRMWARE.
La ROM estándar se escribe durante el proceso de fabricación de un componente y
nunca puede cambiarse. Sin embargo existen algunos tipos de memoria ROM que
pueden cambiarse:
EPROM:(Erasable Programmable Read-Only Memory) se borra exponiendo la
ROM a una luz ultravioleta. La usan los fabricantes para poder correjir errores
de última hora en la ROM. El usuario no puede modificarla.
EEPROM:(Electrically Erasable Programmable Read-Only Memory) se borra y
se puede reprogramar por medio de una carga eléctrica, pero sólo se puede
cambiar un byte de información de cada vez.
FLASH MEMORY:es un tipo de EEPROM que se puede reprogramar en
bloques. S usa en la BIOS de los equipos, y de ahí que se llamen FLASH
BIOS.
MEMORIA VIRTUAL
Es una manera de reducir el acceso constante a memoria por parte del procesador.
Cuando se está ejecutando un programa, y especialmente si se tienen varias
aplicaciones abiertas, el ordenador tiene que cargar en memoria RAM los valores e
instrucciones de dicho/s programa/s.
CONCLUSION
Lo citado anteriormente a exigido a los fabricantes de memorias, la constante
actualización de las mismas, superándose una y otra vez en velocidad, capacidad y
almacenamiento.
Actualmente el mercado está tomando vigor nuevamente, debido a que han aparecido
procesadores muy rápidos, los cuales trabajan a velocidades de 1 GHz.
Las memorias de definen por su similaridad con almacenes internos en el ordenador.
El término memoria identifica el almacenaje de datos que viene en forma chips, y el
almacenaje de la palabra se utiliza para la memoria que existe en las cintas o los
discos. Por otra parte, el término memoria se utiliza generalmente
como taquigrafía para la memoria física, que refiere a los chips reales capaces de
llevar a cabo datos. Algunos ordenadores también utilizan la memoria virtual, que
amplía memoria física sobre un disco duro.
Cada ordenador viene con cierta cantidad de memoria física, referida generalmente
como memoria principal o RAM. Se puede pensar en memoria principal como arreglo
de celdas de memoria, cada una de los cuales puede llevar a cabo un solo byte de
información.
Un ordenador que tiene 1 megabyte de la memoria, por lo tanto, puede llevar a cabo
cerca de 1 millón de bytes (o caracteres) de la información.
La memoria funciona de manera similar a un juego de cubículos divididos usados para
clasificar la correspondencia en la oficina postal. A cada bit de datos se asigna una
dirección. Cada dirección corresponde a un cubículo (ubicación) en la memoria.
Para guardar información en la memoria, el procesador primero envía la dirección
para los datos. El controlador de memoria encuentra el cubículo adecuado y luego el
procesador envía los datos a escribir.
Para leer la memoria, el procesador envía la dirección para los datos requeridos. De
inmediato, el controlador de la memoria encuentra los bits de información contenidos
en el cubículo adecuado y los envía al bus de datos del procesador.
BIBLIOGRAFIA
http://www.terra.es/personal/alksoft/hard/memoria.htm http://www.sc.ehu.es/sbweb/webcentro/automatica/WebCQMH1/PAGINA%20PRINCIPAL/PLC/ESTRUCTURAS/ESTRUCTURA%20INTERNA/MEMORIA/memoria.htm http://es.wikipedia.org/wiki/Memoria_de_acceso_aleatorio#Tecnolog.C3.ADas_de_memoria
3. BUSES Y PUERTOS ESTÁNDAR
3.1. BUSES Y LA TRANSFERENCIA DE LA INFORMACIÓN.
Los buses se caracterizan por el número de bits que pueden transmitir en un
determinado momento. Un equipo con un bus de 8 bits de datos, por ejemplo,
transmite 8 bits de datos cada vez, mientras que uno con un bus de 16 bits de datos
transmite 16 bits de datos simultáneamente.
Como el bus es parte integral de la transmisión interna de datos y como los usuarios
suelen tener que añadir componentes adicionales al sistema, la mayoría de los buses
de los equipos informáticos pueden ampliarse mediante uno o más zócalos de
expansión (conectores para placas de circuito añadidas). Al agregarse estas placas
permiten la conexión eléctrica con el bus y se convierten en parte efectiva del sistema.
El Bus se refiere al camino que recorren los datos desde una o varias fuentes hacia
uno o varios destinos y es una serie de hilos contiguos. En el sentido estricto de la
palabra, esta definición sólo se aplica a la interconexión entre el procesador y los
periféricos.
Un bus es simplemente un conjunto compartido de pistas trazadas en la placa de
circuito principal, al que se conectan todas las partes que controlan y forman el
ordenador. Cuando un dato pasa de un componente a otro, viaja a lo largo de este
camino común para alcanzar su destino. Cada chip de control y cada byte de memoria
del PC están conectados directa o indirectamente al bus. Cuando un nuevo
componente se inserta en uno de los conectores de expansión, queda unido
directamente al bus, convirtiéndose en un objeto más de la unidad completa.
Cualquier información que entra o sale de un sistema ordenador se almacena
temporalmente en al menos una de las distintas localizaciones que existen a lo largo
del bus. La mayor parte de las veces el dato se sitúa en la memoria principal, que en
la familia PC está formada por miles de posiciones de memoria de 8 bits. Pero algún
dato puede acabar en un puerto, o registro, durante unos instantes, mientras espera
que la CPU lo envíe a una posición adecuada.
Una PC tiene muchos tipos de buses incluyendo los siguientes:
Processor Bus: Es la vía de comunicación entre el CPU y los chip inmediatos
a el, El propósito de processor bus es conseguir mayor velocidad en la entrega
de la información para y del CPU, este bus opera a una mayor rapidez que
cualquier otro bus en la PC.
Memory Bus: Es usado para transferir información entre la memoria principal y
el CPU. Este bus es implementado en un chip dedicado, el cual es responsable
de la comunicación. La información que viaja sobre el memory bus se hace a
una velocidad mas baja que en el processor bus.
Address Bus: En los sistemas actuales, este bus es considerado como parte
de los buses del procesador y de la memoria. Este bus es usado para indicar
exactamente que dirección en memoria o que dirección sobre el bus de sistema
será usada en la operación de transferir un dato. El tamaño del bus de memoria
controla la cantidad de memoria que el CPU puede direccional directamente.
I/O Bus: Son los buses que se encargan de la entrada y salida de los datos en
todo el sistema. Las diferencias entre los tipos de buses que pertenecen a esta
categoría consiste en la cantidad de datos que pueden transferir a la vez y la
velocidad a la que pueden hacerlo.
Cada línea es capaz de transmitir señales binarias representadas por 1 y 0. En un
intervalo de tiempo, se puede transmitir una secuencia de dígitos binarios a través de
una única línea, y se pueden utilizar varias líneas simultáneamente (en paralelo).
3.2. EVOLUCIÓN DE LOS BUSES Y EL TAMAÑO DEL DATO.
Primera generación
Bus Backplane del PDP-11 junto con algunas tarjetas.
Los primeros computadores tenían 2 sistemas de buses, uno para la memoria y otro
para los demás dispositivos. La CPU tenía que acceder a dos sistemas con
instrucciones para cada uno, protocolos y sincronizaciones diferentes.
La empresa DEC notó que el uso de dos buses no era necesario si se combinaban las
direcciones de memoria con las de los periféricos en un solo espacio de memoria
(mapeo), de manera que la arquitectura se simplificaba ahorrando costos de
fabricación en equipos fabricados en masa, como eran los primeros
minicomputadores.
Los primeros microcomputadores se basaban en la conexión de varias tarjetas de
circuito impreso a un bus Backplane pasivo que servía de eje al sistema. En ese bus
se conectaba la tarjeta de PU que realiza las funciones de árbitro de las
comunicaciones con las demás tarjetas de dispositivo conectadas; las tarjetas incluían
la memoria, controladoras de diskette y disco, adaptadores de vídeo. La CPU escribía
o leía los datos apuntando a la dirección que tuviera el dispositivo buscado en el
espacio único de direcciones haciendo que la información fluyera a través del bus
principal.
Segunda generación
Jerarquía de diversos buses en un equipo relativamente moderno: SATA, FSB, AGP,
USB entre otros.
El hecho de que el bus fuera pasivo y que usara la CPU como control, representaba
varios problemas para la ampliación y modernización de cualquier sistema con esa
arquitectura. Además que la CPU utilizaba una parte considerable de su potencia en
controlar el bus.
Desde que los procesadores empezaron a funcionar con frecuencias más altas, se
hizo necesario jerarquizar los buses de acuerdo a su frecuencia: se creó el concepto
de bus de sistema (conexión entre el procesador y la RAM) y de buses de expansión,
haciendo necesario el uso de un chipset.
El bus ISA utilizado como backplane en el PC IBM original pasó de ser un bus de
sistema a uno de expansión, dejando su arbitraje a un integrado del chipset e
implementando un bus a una frecuencia más alta para conectar la memoria con el
procesador.
En cambio, el bus Nubus era independiente desde su creación, tenía un controlador
propio y presentaba una interfaz estándar al resto del sistema, permitiendo su
inclusión en diferentes arquitecturas. Fue usado en diversos equipos, incluyendo
algunos de Apple y se caracterizaba por tener un ancho de 32 bits y algunas
capacidades Plug and Play (autoconfiguración), que lo hacían muy versátil y
adelantado a su tiempo. Entre otros ejemplos de estos buses autónomos, están el
AGP y el bus PCI.
Tercera generación
Los buses de tercera generación se caracterizan por tener conexiones punto a punto,
a diferencia de los buses arriba nombrados en los que se comparten señales de reloj.
Esto se logra reduciendo fuertemente el número de conexiones que presenta cada
dispositivo usando interfaces seriales. Entonces cada dispositivo puede negociar las
características de enlace al inicio de la conexión y en algunos casos de manera
dinámica, al igual que sucede en las redes de comunicaciones. Entre los ejemplos
más notables, están los buses PCI-Express, el Infiniband y el HyperTransport.
3.3. TIPOS DE PUERTOS ESTÁNDAR.
En la informática, un puerto es una forma genérica de denominar a una interfaz a
través de la cual los diferentes tipos de datos se pueden enviar y recibir. Dicha interfaz
puede ser de tipo físico, o puede ser a nivel de software (por ejemplo, los puertos que
permiten la transmisión de datos entre diferentes ordenadores) (ver más abajo para
más detalles), en cuyo caso se usa frecuentemente el término puerto lógico.
Son los conectores que unen dos dispositivos. La característica principal de este tipo
de puertos es que los bits viajan en grupos simultáneamente, enviando paquetes de
byte cada vez, que forman “buses”.
Hay tres tipos principales:
Los unidireccionales (puerto estándar 4 Bit) que no permitían enviar datos de
ida y vuelta.
Los bidireccionales (8 Bit) que sí permitían la entrada y salida de datos
simultáneamente.
EPP o puerto paralelo realzado, que fue desarollado por Intel y puede alcanzar
altas velocidades.
Los puertos paralelos son hembra y tienen 25 pines (interiores), por lo que miden
unos 38mm. Suele servir para conectar impresoras, escáner o varios ordenadores
entre sí. Por esta razón también se conocen como “Centronics”, porque así es como
se llama el conector de la parte de la impresora.
El puerto serie por excelencia es el RS-232 que utiliza cableado simple desde 3 hilos
hasta 25 y que conecta ordenadores o micro controladores a todo tipo de periféricos,
desde terminales a impresoras y módems pasando por ratones. La interfaz entre el
RS-232 y el microprocesador generalmente se realiza mediante el integrado
82C50.Los puertos serie sirven para comunicar al ordenador con la impresora, el ratón
o el módem, sin embargo, el puerto USB sirve para todo tipo de periféricos, desde
ratones a discos duros externos, pasando por conexiones bluetooth. Los puertos
sATA (Serial ATA): tienen la misma función que los IDE, (a éstos se conecta, la
disquetera, el disco duro, lector/grabador de CD y DVD) pero los sATA cuentan con
una mayor velocidad de transferencia de datos. Un puerto de red puede ser puerto
serie o puerto paralelo.
PCI: Puertos PCI2 (Peripheral Component Interconnect) son ranuras de expansión de
la placa madre de un ordenador en las que se pueden conectar tarjetas de sonido, de
vídeo, de red, etc... El slot PCI se sigue usando hoy en día y podemos encontrar
bastantes componentes (la mayoría) en el formato PCI. Dentro de los slots PCI está el
PCI-Express. Los componentes que suelen estar disponibles en este tipo de slot son:
Capturadoras de televisión
Controladoras RAID
Tarjetas de red, inalámbricas, o no
Tarjetas de sonido
PCI-EXPRESS
PCI-Express3 4 es un nuevo desarrollo del bus PCI que usa los conceptos de
programación y los estándares de comunicación existentes, pero se basa en un
sistema de comunicación serie mucho más rápido que PCI y AGP. Posee nuevas
mejoras para la especificación PCIe 3.0 que incluye una cantidad de optimizaciones
para aumentar la señal y la integridad de los datos, incluyendo control de transmisión
y recepción de archivos, PLL improvements, recuperación de datos de reloj, y mejoras
en los canales, lo que asegura la compatibilidad con las topologías actuales.5
(anteriormente conocido por las siglas 3GIO, 3rd Generation I/O), este sistema es
apoyado, principalmente, por Intel, que empezó a desarrollar el estándar con el
nombre de proyecto Arapahoe después de retirarse del sistema Infiniband. Tiene
velocidad de transferencia de 16x (8GB/s) y se utiliza en tarjetas gráficas.
PUERTOS DE MEMORIA
A estos puertos se conectan las tarjetas de memoria RAM. Los puertos de memoria
son aquellos puertos, o bahías, donde se pueden insertar nuevas tarjetas de memoria,
con la finalidad de extender la capacidad de la misma. Existen bahías que permiten
diversas capacidades de almacenamiento que van desde los 256MB (megabytes)
hasta 4GB (gigabytes). Conviene recordar que en la memoria RAM es de tipo volátil,
es decir, si se apaga repentinamente el ordenador los datos almacenados en la misma
se pierden. Dicha memoria está conectada con la CPU a través de buses de muy alta
velocidad. De esta manera, los datos ahí almacenados se intercambian con el
procesador a una velocidad unas 1000 veces más rápida que con el disco duro.
PUERTOS INALÁMBRICOS
Las conexiones en este tipo de puertos se hacen sin necesidad de cables, a través de
la conexión entre un emisor y un receptor, utilizando ondas electromagnéticas. Si la
frecuencia de la onda, usada en la conexión, se encuentra en el espectro de
infrarrojos se denomina puerto infrarrojo. Si la frecuencia usada en la conexión es la
usual en las radio frecuencias entonces sería un puerto Bluetooth.
La ventaja de esta última conexión es que el emisor y el receptor no tienen por qué
estar orientados el uno con respecto al otro para que se establezca la conexión. Esto
no ocurre con el puerto de infrarrojos. En este caso los dispositivos tienen que "verse"
mutuamente, y no se debe interponer ningún objeto entre ambos ya que se
interrumpiría la conexión.
PUERTO USB
Un puerto USB6 7 8 permite conectar hasta 127 dispositivos y ya es un estándar en
los ordenadores de última generación, que incluyen al menos cuatro puertos USB 3.0
en los más modernos, y algún USB 1.1 en los más anticuados.
A través del cable USB no sólo se transfieren datos; además es posible alimentar
dispositivos externos. El consumo máximo de este controlador es de 2.5 Watts. Los
dispositivos se pueden dividir en dispositivos de bajo consumo (hasta 100 mA) y
dispositivos de alto consumo (hasta 500 mA). Para dispositivos que necesiten más de
500 mA será necesaria alimentación externa. Hay que tener en cuenta, además, que
si se utiliza un concentrador y éste está alimentado, no será necesario realizar
consumo del bus. Una de las limitaciones de este tipo de conexiones es que la
longitud del cable no debe superar los 5 m y que éste debe cumplir las
especificaciones del Standard USB iguales para la 1.1 y la 2.0
3.4. ENTRADA Y SALIDA DE DATOS A DISPOSITIVOS PERIFÉRICOS.
En informática, se denomina periféricos a los aparatos y/o dispositivos auxiliares e
independientes conectados a la unidad central de procesamiento de una
computadora.
Se consideran periféricos tanto a las unidades o dispositivos a través de los cuales la
computadora se comunica con el mundo exterior, como a los sistemas que almacenan
o archivan la información, sirviendo de memoria auxiliar de la memoria
principal.[cita requerida]
Se entenderá por periférico al conjunto de dispositivos que, sin pertenecer al núcleo
fundamental de la computadora, formado por la CPU y la memoria central, permitan
realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que
realiza la CPU.
Un puerto paralelo es una interfaz entre una computadora y un periférico, cuya
principal característica es que los bits de datos viajan juntos, enviando un paquete de
byte a la vez. Es decir, se implementa un cable o una vía física para cada bit de datos
formando un bus. Mediante el puerto paralelo podemos controlar también periféricos
como focos, motores entre otros dispositivos, adecuados para automatización.
El cable paralelo es el conector físico entre el puerto paralelo y el dispositivo
periférico. En un puerto paralelo habrá una serie de bits de control en vías aparte que
irá en ambos sentidos por caminos distintos.
En contraposición al puerto paralelo está el puerto serie, que envía los datos bit a bit
por el mismo hilo.
ENTRADAS Y SALIDAS POR EL PUERTO PARALELO
Al hablar de operaciones de entrada y salida por el puerto paralelo no debe olvidarse
que, inicialmente, este elemento se desarrolló de acuerdo con el están dar Centronics
con el fin, casi exclusivo, de que el PC pudiese enviar datos en paralelo a la impresora
conectada, no se pensó en la posibilidad inversa: que el PC pudiese recibir datos a
través de ese puerto. Las operaciones de entrada y salida de información a través del
puerto paralelo en el PC las realizaremos gestionando el puerto paralelo en el nivel de
registros, es decir, programando directamente los circuitos integrados o chips que
constituyen la tarjeta de interface, lo cual permitirá aprovechar al máximo todas las
posibilidades que ofrezca realmente el hardware de la tarjeta de interface.
Características E/S Cuando usamos el puerto paralelo para otro cometido distinto al
original, solo podemos hablar de 12 líneas de salida de información desde el
ordenador:
pines del 2 al 9 → registro de datos
pines 1,14, 16 y 17 → registro de control
15 líneas de entrada al mismo:
pines 2-9→ registro de datos
pines 10,11,12,13 y 15 → registro de estado
Esto hace del puerto paralelo un interface de comunicación con el exterior bastante
flexible. El registro de estado es de sólo lectura. Cuando se lee este registro, lo que se
recibe es el estado lógico de los pines 10, 11, 12, 13 y 15 del conector DB-25 ( el bit S
7 contiene el complemento del estado de la línea). Los tres bits de menor peso (SO-
S2) no se utilizan y, habitualmente, se encuentran a nivel alto El registro de control es
parcialmente bidireccional. Cuando se escribe en los cuatro bits de menor peso ( C0 -
C3 ) lo que se hace es establecer el nivel lógico de los pines C 2 de forma directa y
C0, C 1 y C 3 de forma complementada. Los tres bits de mayor peso ( C 5 C 7) no se
utilizan.
El registro de datos es de tipo latch de lectura y de escritura, de modo que cuando se
realiza una operación de escritura (OUT) el dato se carga en los bits correspondientes
y las líneas asociadas del conector tienden a alcanzar la tensión correspondiente a
ese estado.
CONCLUSION
El uso de buses y puertos en un equipo de computo son indispensables al igual que
los puertos estándar que tiene el equipo, esto ya que permiten transmitir datos a una
cierta velocidad, los puertos vienen evolucionando drásticamente, a lo largo del tiempo
han venido mejorando de manera importante beneficiando la agilidad de los equipos
de computo cuando el usuario maneja este tipo de recursos.
BIBLIOGRAFIA
http://www.monografias.com/trabajos28/operaciones-bus/operaciones-bus.shtml
http://es.wikipedia.org/wiki/Universal_Serial_Bus
http://es.wikipedia.org/wiki/Bus_(inform%C3%A1tica)
http://es.wikipedia.org/wiki/Puerto_(inform%C3%A1tica)
http://www.monografias.com/trabajos34/puertos-computador/puertos-
computador.shtml
http://es.wikipedia.org/wiki/Perif%C3%A9rico_(inform%C3%A1tica)
http://es.wikipedia.org/wiki/Puerto_paralelo
http://es.kioskea.net/contents/pc/serie.php3
http://www.lammertbies.nl/comm/cable/RS-232.html
UNIDAD 4.- EL CHIPSET, SU EVOLUCIÓN Y LA CAPACIDAD DE UNA
COMPUTADORA
4.1. CARACTERÍSTICAS DE LOS PRIMEROS CHIPSETS.
La "placa base" (mainboard), o "placa madre" (motherboard), es el elemento
principal de todo ordenador, en el que se encuentran o al que se conectan todos
los demás aparatos y dispositivos.
Físicamente, se trata de una "oblea" de material sintético, sobre la cual existe un
circuito electrónico que conecta diversos elementos que se encuentran anclados
sobre ella; los principales son:
el microprocesador, "pinchado" en un elemento llamado zócalo;
la memoria, generalmente en forma de módulos;
los slots o ranuras de expansión donde se conectan las tarjetas;
diversos chips de control, entre ellos la BIOS.
Una placa base ofrece un aspecto similar al siguiente:
FACTORES DE FORMA Y ESTÁNDARES
Las placas base existen en diferentes formas y con diversos conectores para
periféricos. Para abaratar costes permitiendo la intercambiabilidad entre placas
base, los fabricantes han ido definiendo varios estándares que agrupan
recomendaciones sobre su tamaño y la disposición de los elementos sobre ellas.
De cualquier forma, el hecho de que una placa pertenezca a una u otra categoría
no tiene nada que ver, al menos en teoría, con sus prestaciones ni calidad. Los
tipos más comunes son:
BABY-AT
Fue el estándar absoluto durante años. Define una placa de unos 220x330 mm,
con unas posiciones determinadas para el conector del teclado, los slots de
expansión y los agujeros de anclaje a la caja, así como un conector eléctrico
dividido en dos piezas.
Estas placas son las típicas de los ordenadores "clónicos" desde el 286 hasta los
primeros Pentium. Con el auge de los periféricos (tarjeta sonido, CD-ROM, discos
extraíbles...) salieron a la luz sus principales carencias: mala circulación del aire
en las cajas (uno de los motivos de la aparición de disipadores y ventiladores de
chip) y, sobre todo, una maraña enorme de cables que impide acceder a la placa
sin desmontar al menos alguno.
Para identificar una placa Baby-AT, lo mejor es observar el conector del teclado,
que casi seguro que es una clavija DIN ancha; vamos, algo así: ; o bien mirar
el conector que suministra la electricidad a la placa, que deberá estar dividido en
dos piezas, cada una con 6 cables, con 4 cables negros (2 de cada una) en el
centro.
Si nos damos cuenta son las que van en correspondencia con las fuentes de
alimentación y las cajas AT.
ATX
La placa de la foto pertenece a este estándar. Cada vez más comunes, van
camino de ser las únicas en el mercado.
Se las supone de más fácil ventilación y menos maraña de cables que las Baby-
AT, debido a la colocación de los conectores. Para ello, el microprocesador suele
colocarse cerca del ventilador de la fuente de alimentación y los conectores para
discos cerca de los extremos de la placa.
La diferencia "a ojo descubierto" con las AT se encuentra en sus conectores, que
suelen ser más (por ejemplo, con USB o con FireWire), están agrupados y tienen
el teclado y ratón en clavijas mini-DIN como ésta: . Además, reciben la
electricidad mediante un conector formado por una sola pieza.
LPX
Estas placas son de tamaño similar a las
Baby-AT, aunque con la peculiaridad de que
los puertos o conectores para las tarjetas de
expansión no se encuentran sobre la placa
base, sino en un conector especial en el
que están pinchadas, la riser card.
De esta forma, una vez montadas, las tarjetas quedan paralelas a la placa base,
en vez de perpendiculares como en las Baby-AT; es un diseño típico de
ordenadores de sobremesa con caja estrecha (menos de 15 cm de alto), y su
único problema viene de que la riser card no suele tener más de dos o tres slots,
contra cinco en una Baby-AT típica.
DISEÑOS PROPIETARIOS
Pese a la existencia de estos estándares, los grandes fabricantes de ordenadores
(IBM, Compaq, Hewlett-Packard...) suelen sacar al mercado placas de tamaños y
formas peculiares, bien porque estos diseños no se adaptan a sus necesidades o
por oscuros e ignotos motivos.
Si estamos utilizando un ordenador de una de estas marcas con el modelo
propietario y por lo que sea queremos cambiarle la placa a una estándar ATX,
seguramente nos encontramos con que el conector del teclado y del ratón no
encajan por pocos milímetros.
DIFERENTES CONEXIONES DE LA PLACA
En la placa podemos distinguir diferentes
conexiones. Bien la parte externa para conectar
periféricos al ordenador o bien conexiones
internas que nos ayudan a ampliar las
capacidades de nuestro PC.
Conexiones internas:
Normalmente en la propia placa se indica que
tipo de conexión es al lado de la conexión. Se pueden llamar también bahías de
expansión, zócalos, ranuras, puertos…
Hay que tener en cuenta que no todas las placas son iguales y que no tienen por
qué tener todas las conexiones.
En la caja de las placas suele venir un manual en el que se indican todos los
conectores que tiene y la ubicación que donde se encuentran dentro de la misma.
Las conexiones más habituales que nos podemos encontrar son:
IDE: Conexión para discos o DC/DVD
SATA: Conexión para discos o DC/DVD
DDR (II ó III): Conexiones para módulos de memoria RAM.
FDD (IDE pequeño): Conexión para disqueteras, se utiliza ya poco.
PCI: Conexión para tarjetas de ampliación de red, vídeo sonido…
PCIE_1: Conexión PCI expres para tarjetas de ampliación.
PCIE_16: Conexión PCI expres para tarjetas de ampliación, más grande
que PCIE_1 y con mayor ancho de banda para transferencia de
información.
AGP: Para conectar tarjetas de ampliación de gráficos, sus siglas significan
puerto de gráficos acelerado. Es el doble de rápido que los PCI, para estas
conexiones.
SYS_FAN y CPU_FAN: Para conectar los ventiladores
que van alimentados desde conectores en la placa
base. Pueden ser ventiladores de caja y el que se pone
encima del disipador del microprocesador
F_USB: Conector para unidades como lectores de
tarjetas, ampliaciones usb.., que suelen ir colocadas en la parte del frontal
del ordenador. Antiguamente estos conectores iban cable por cable y
podían dar lugar a confusión a la hora de colocarlos.
F_AUDIO: Conector que habilita las tomas de sonido,
normalmente delanteras en las cajas modernas. Es muy
parecido a los de los USB que hemos mencionado
antes, pueden tener varios colores y el que más puede predominar es el
verde.
ATX: Conector de corriente principal de la placa base al que se conecta el
cable de 24 ó 24 pines de la fuente de alimentación que vimos en otra
unidad.
ATX_12V: Conector de 12V, que suele utilizarse para alimentar al
microprocesador.
Socket: Lugar donde va emplazado el microprocesador.
Conexión para la pila: Es el lugar donde se alberga una pila de las
denominadas de botón. Su función es mantener la configuración básica
del sistema cuando el ordenador está apagado, como es la fecha y
hora.
CONEXIONES EXTERNAS:
Todas las placas tienen también unas conexiones externas que es donde
podemos conectar los diferentes periféricos, es decir, teclado, ratón, pantalla..
Suelen venir identificados por colores y a parte en algunas ocasiones puede tener
el dibujo de lo que se conecta en ellos al lado.
Conector PS/2 de teclado, en las placas modernas se ha
estandarizado con el color violeta.
Conector PS/2 de ratón, en las placas modernas se ha
estandarizado con el color verde.
Conector COM, sirve para conectar periféricos de
comunicaciones como por ejemplo un modem.
Conector LPT, o también conocido como
paralelo. Se suele utilizar para impresoras, aunque en la actualidad casi no
aparece en las nuevas placas debido al gran número de impresoras han
cambiado sus conexiones.
Conector VGA, sirve para conectar elemento de
imagen, comúnmente utilizado para los monitores o proyectores. Se ha
estandarizado en las placas con el color azul.
Conector USB. Se utiliza para conectar diferentes dispositivos,
con la peculiaridad de que pueden ser conectados y detectados sin apagar
el ordenador, como pueden ser, teclado, ratón, impresora, web cam…
Conector LAN (RJ45). Es el conector que sirve para el cableado
de red.
Conectores de audio. Sirven para conectar
diferentes dispositivos relacionados con el sonido, como el micrófono,
auriculares…
MONTAJE DE LA PLACA EN LA CAJA DEL ORDENADOR
Cuando tenemos que montar una placa base en un ordenador, hemos de
seguir los siguientes pasos.
Normalmente las placas traen en su caja
unos adaptadores de chapa para poder
poner en la parte posterior de la caja y que se adapten a los diferentes
formatos, es decir que los conectores de sonido estén más abajo, que tenga
los puertos USb en otro sitio distinto. Para ello tendremos que poner esta
chapa en la parte posterior del ordenador, entra a presión y se pone desde
dentro.
Pasamos a atornillar la placa a la caja. Como la caja
es de metal, la parte inferior de la placa no puede
estar en contacto directo con la caja, ya que como
vimos en electricidad, el metal es conductor y
podría hacer un cortocircuito que provocara que la
placa se quemara, para ello se utilizan unos
adaptadores que hacen que la placa quede elevada lo justo, estos pueden ser
metal o de plástico. Primero hay que presentar la placa en la caja para poder
ver en qué lugar tenemos que poner estos adaptadores, y que tienen que
coincidir con los huecos para los tornillos.
Una vez que se han puesto se procede a atornillar la
placa, pero siempre con los tornillos adecuados y no con
los primeros que pillemos.
Cuando la placa está fijada a nuestra caja, pasamos a ponerle el
microprocesador y el disipador con su ventilador, que normalmente vendrán a
parte, junto con los módulos de memoria y las diferentes conexiones
necesarias como los ID, SATA, eléctricos….
Uno de los puntos que nos falta es la conexión de
todos los cables que provienen del panel frontal del
ordenador, estos cables llevan una posición
determinada pero que
cambia dependiendo de
cada placa y cada caja. Para ello tenemos que mirar
en el propio conector que es lo que está escrito y leer
en la placa donde está ubicado su conector correspondiente. Este conjunto de
conectores suele estar ubicado en la parte inferior de la placa y agrupado.
Siempre tenemos que tener en cuenta que si tenemos dudas tenemos en la caja
de nuestra placa base un libro de instrucciones que nos pude guiar y orientar para
hacer una correcta instalación del producto y no provocar así el estropicio de un
componente o de la propia placa.
EL CHIPSET
Podemos definir al Chipset como un conjunto de microprocesadores
especialmente diseñados para funcionar como si fueran una única unidad y para
desempeñar una o varias funciones.
El "chipset" es el conjunto (set) de chips que se encargan de controlar
determinadas funciones del ordenador, como la forma
en que interacciona el microprocesador con la memoria
o la caché, o el control de los puertos, PCI, AGP, USB...
Antiguamente estas funciones eran relativamente
sencillas de realizar y el chipset apenas influía en el
rendimiento del ordenador, por lo que el chipset era el último elemento al que se
concedía importancia a la hora de comprar una placa base, si es que alguien se
molestaba siquiera en informarse sobre la naturaleza del mismo. Pero los nuevos
y muy complejos micros, junto con un muy amplio abanico de tecnologías en
materia de memorias, caché y periféricos que aparecen y desaparecen casi de
mes en mes, han hecho que la importancia del chipset crezca enormemente.
De la calidad y características del chipset dependerán:
Obtener o no el máximo rendimiento del microprocesador.
Las posibilidades de actualización del ordenador.
El uso de ciertas tecnologías más avanzadas de memorias y periféricos.
Debe destacarse el hecho de que el uso de un buen chipset no implica que la
placa base en conjunto sea de calidad.
El chipset esta divido en 2 circuitos:
El NorthBridge o puente norte: este componente del
chipset es quizás el de mayor importancia. Es de
reciente aparición, ya que no existía hasta la
aparición de las placas ATX, y debe su nombre a su
situación dentro de la placa, situado en la parte
superior (norte) de estas, cerca del slot del procesador y de los bancos de
memoria. Puede ser bastante habitual encontrarlo como en la foto, es decir tapado
por un disipador, ya que al ser cada vez más potentes, implica que cada vez
generen más calor en sus operaciones.
Es el encargado de gestionar la memoria RAM, los puertos gráficos (AGP) y el
acceso al resto de componentes del chipset, así como la comunicación entre estos
y el procesador.
El SouthBridge o puente sur controla lo relacionado con los puertos o conectores
donde podemos conectar nuestros periféricos, es decir se encarga de la entrada y
la salida de datos.,
Se suele comparar al Chipset con la médula espinal: una persona puede tener un
buen cerebro, pero si la médula falla, todo lo de abajo no sirve para nada.
En la actualidad los principales fabricantes de chipsets son AMD, ATI (comprada
en 2006 por AMD), Intel, NVIDIA, Silicon Integrated Systems y VIA Technologies.
LA ELECCIÓN DEL CHIPSET
Chipset y placa base forman un conjunto inseparable y de la máxima importancia,
por lo que su compra debe estar acompañada de una cierta reflexión. Lo primero
es recordar que un buen chipset sólo no hace una buena placa; si encontramos
dos placas con el mismo chipset pero una cuesta el doble que la otra, por algo
será (aunque a veces ese algo es simplemente la marca de la placa, por ejemplo
las placas Intel, que en general no son tan avanzadas como las Asus, Iwill o
Gigabyte pero que cuestan lo mismo o más que éstas...)
Así mismo, una placa debe ser comprada pensando en el futuro.
Estudiar bien la compra. Puede ser que el chipset admita mucha memoria, pero
que la placa tenga pocos zócalos para instalarla; o que estemos comprando una
placa base o un ordenador de segunda mano, y realmente nos importe más que la
memoria sea suficiente y fácilmente ampliable.
EPROM
EPROM son las siglas de Erasable Programmable Read-Only Memory (ROM
programable borrable de sólo lectura). Es un tipo de chip de memoria ROM no
volátil inventado por el ingeniero Dov Frohman.
Se programan mediante un dispositivo electrónico que proporciona voltajes
superiores a los normalmente utilizados en los circuitos electrónicos. Las celdas
que reciben carga se leen entonces como un 1.
Una vez programada, una EPROM se puede borrar
solamente mediante exposición a una fuerte luz
ultravioleta.
Las EPROMs se reconocen fácilmente por una
ventana transparente en la parte alta del encapsulado,
a través de la cual se puede ver el chip de silicio y que
admite la luz ultravioleta durante el borrado.
Una EPROM programada retiene sus datos durante
diez o veinte años, y se puede leer un número ilimitado de veces. Para evitar el
borrado accidental por la luz del sol, la ventana de borrado debe permanecer
cubierta. Los antiguos BIOS de los ordenadores personales eran frecuentemente
EPROMs y la ventana de borrado estaba habitualmente cubierta por una etiqueta
que contenía el nombre del productor del BIOS, su revisión y una advertencia de
copyright.
4.2. LAS MEJORAS EN LA EVOLUCIÓN DE LOS CHIPSETS.
Primera generación
Bus Backplane del PDP-11 junto con algunas tarjetas
Los primeros computadores tenían 2 sistemas de buses, uno para la
memoria y otro para los demás dispositivos. La CPU tenia que acceder a
dos sistemas con instrucciones para cada uno, protocolos y
sincronizaciones diferentes.
La empresa DEC notó que el uso de dos buses no era necesario si se combinaban
las direcciones de memoria con los de los periféricos en un solo espacio de
memoria (mapeo), de manera que la arquitectura se simplificaba ahorrando costos
de fabricación en equipos fabricados en masa, como eran los primeros
minicomputadores.
Segunda generación
Jerarquía de diversos buses en un equipo moderno: SATA, FSB, AGP, USB entre
otros. El hecho de que el bus fuera pasivo y que usara la CPU como control,
representaba varios problemas para la ampliación y modernización de cualquier
sistema con esa arquitectura.. Desde que los procesadores empezaron a
funcionar con frecuencias más altas, se hizo necesario jerararquizar los buses de
acuerdo a su frecuencia: se creó el concepto de bus de sistema (conexión entre el
procesador y la RAM) y de buses de expansión, haciendo necesario el uso de un
Chipset para conectar todo tipo de computadoras no se utiliza el circuito integrado.
Tercera generación
Los buses de tercera generación se caracterizan por tener conexiones punto a
punto, a diferencia de los buses arriba nombrados en los que se comparten
señales de reloj, y otras partes del bus. Esto se logra reduciendo fuertemente el
número de conexiones que presenta cada dispositivo usando interfaces seriales.
Entonces cada dispositivo puede negociar las características de enlace al inicio de
la conexión y en algunos casos de manera dinámica, al igual que sucede en las
redes de comunicaciones. Entre los ejemplos más notables, están los buses PCI-
Express, el Infiniband y el HyperTransport.
Bus Año Bus de
Dato
Velocidad del Bus Maximo
Rendimiento
PC and XT 1980-82 8 bit Synchronous with
CPU: 4.77 - 6 MHz 4-6 MBps
ISA (AT)
Simple bus.
1984 16 bit Synchronous: 8-10
MHz
8 MBps
MCA. Advanced,
intelligent bus by IBM.
1987 32 bit Asynchronous:
10.33 MHz
40 MBps
EISA.
Bus for servers.
1988 32 bit Synchronous:
max. 8 MHz
32 MBps
VL. High speed bus,
used in 486s.
1993 32 bit Synchronous:
33-50 MHz
100-160
MBps
PCI. Intelligent,
Advanced high speed bus
1993 32 bit Asynchronous:
33 MHz
132 MBps
USB. Modern, simple, and
intelligent bus.
1996 Serial 1.2 MBps
FireWire (IEEE1394).
High-speed I/O bus for
storage, video etc.
1999 Serial 80 MBps
USB 2.0 2001 Serial 12-40 MBps
4.3. LAS CARACTERÍSTICAS DE LOS CHIPSETS ACTUALES.
El Chipset es el que hace posible que la placa base funcione como eje del
sistema, dando soporte a varios componentes e interconectándolos de forma que
se comuniquen entre ellos haciendo uso de diversos buses. Es uno de los pocos
elementos que tiene conexión directa con el procesador, gestiona la mayor parte
de la información que entra y sale por el bus principal del procesador, del sistema
de vídeo y muchas veces de la memoria RAM.
En el caso de los computadores PC, es un esquema de arquitectura abierta que
establece modularidad: el Chipset debe tener interfaces estándar para los demás
dispositivos. Esto permite escoger entre varios dispositivos estándar, por ejemplo
en el caso de los buses de expansión, algunas tarjetas madre pueden tener
bus PCI-Express y soportar diversos tipos de tarjetas de distintos anchos de bus
(1x, 8x, 16x).
En el caso de equipos portátiles o de marca, el chipset puede ser diseñado a la
medida y aunque no soporte gran variedad de tecnologías, presentará alguna
interfaz de dispositivo.
La terminología de los integrados ha cambiado desde que se creó el concepto del
chipset a principio de los años 1990, pero todavía existe equivalencia haciendo
algunas aclaraciones:
El puente norte, northbridge, MCH (memory controller hub)
o GMCH (graphic MCH), se usa como puente de enlace entre
elmicroprocesador y la memoria. Controla las funciones de acceso hacia y
entre el microprocesador, la memoria RAM, el puerto gráfico AGP o el PCI-
Express de gráficos, y las comunicaciones con el puente sur. Al principio tenía
también el control de PCI, pero esa funcionalidad ha pasado al puente sur.
El puente sur, southbridge o ICH (input controller hub), controla los
dispositivos asociados como son la controladora de discosIDE,
puertos USB, FireWire, SATA, RAID, ranuras PCI, ranura AMR, ranura
CNR, puertos infrarrojos, disquetera, LAN, PCI-Express 1x y una larga lista
de todos los elementos que podamos imaginar integrados en la placa
madre. Es el encargado de comunicar el procesador con el resto de
los periféricos.
En la actualidad los principales fabricantes de chipsets son AMD, ATI
Technologies (comprada en 2006 por AMD), Intel, NVIDIA,Silicon Integrated
Systems y VIA Technologies
4.4. DESEMPEÑO DE LAS COMPUTADORAS ACTUALES.
1993: El Intel Pentium
El microprocesador de Pentium poseía una arquitectura capaz de ejecutar dos
operaciones a la vez, gracias a sus dos pipeline de datos de 32bits cada uno, uno
equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, estaba dotado
de un bus de datos de 64 bits, y permitía un acceso a memoria de 64 bits (aunque
el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones
internas, y los registros también eran de 32 bits). Las versiones que incluían
instrucciones MMX no sólo brindaban al usuario un más eficiente manejo de
aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino
que también se ofrecían en velocidades de hasta 233 MHz. Se incluyó una versión
de 200 MHz y la más básica trabajaba a alrededor de 166 MHz de frecuencia de
reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la
televisión a diario, en realidad se volvió una palabra muy popular poco después de
su introducción.
1994: EL PowerPC 620
En este año IBM y Motorola desarrollan el primer prototipo del procesador
PowerPC de 64 bit[2], la implementación más avanzada de la arquitectura
PowerPC, que estuvo disponible al año próximo. El 620 fue diseñado para su
utilización en servidores, y especialmente optimizado para usarlo en
configuraciones de cuatro y hasta ocho procesadores en servidores de
aplicaciones de base de datos y vídeo. Este procesador incorpora siete millones
de transistores y corre a 133 MHz. Es ofrecido como un puente de migración para
aquellos usuarios que quieren utilizar aplicaciones de 64 bits, sin tener que
renunciar a ejecutar aplicaciones de 32 bits.
1995: EL Intel Pentium Pro
Lanzado al mercado para el otoño de 1995, el procesador Pentium Pro
(profesional) se diseñó con una arquitectura de 32 bits. Se usó en servidores y los
programas y aplicaciones para estaciones de trabajo (de redes) impulsaron
rápidamente su integración en las computadoras. El rendimiento del código de 32
bits era excelente, pero el Pentium Pro a menudo era más lento que un Pentium
cuando ejecutaba código o sistemas operativos de 16 bits. El procesador Pentium
Pro estaba compuesto por alrededor de 5,5 millones de transistores.
1996: El AMD K5
Habiendo abandonado los clones, AMD fabricada con tecnologías análogas a
Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium.
La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel
Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con
una Unidad x86- decodificadora, transforma todos los comandos x86 (de la
aplicación en curso) en comandos RISC. Este principio se usa hasta hoy en todas
las CPU x86. En la mayoría de los aspectos era superior el K5 al Pentium, incluso
de inferior precio, sin embargo AMD tenía poca experiencia en el desarrollo de
microprocesadores y los diferentes hitos de producción marcados se fueron
superando con poco éxito, se retrasó 1 año de su salida al mercado, a razón de
ello sus frecuencias de trabajo eran inferiores a las de la competencia, y por tanto,
los fabricantes de PC dieron por sentado que era inferior.
1996: Los AMD K6 y AMD K6-2
Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a los
Pentium MMX de Intel, sino que además amargó lo que de otra forma hubiese sido
un plácido dominio del mercado, ofreciendo un procesador casi a la altura del
Pentium II pero por un precio muy inferior. En cálculos en coma flotante, el K6
también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del
Pro. El K6 contó con una gama que va desde los 166 hasta los más de 500 Mhz y
con el juego de instrucciones MMX, que ya se han convertido en estándares.
Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros, para
seguir compitiendo con los Pentium II, siendo éste último superior en tareas de
coma flotante, pero inferior en tareas de uso general. Se introduce un juego de
instrucciones SIMD denominado 3DNow!
1997: El Intel Pentium II
Un procesador de 7,5 millones de transistores, se busca entre los cambios
fundamentales con respecto a su predecesor, mejorar el rendimiento en la
ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar
la memoria caché de segundo nivel del núcleo del procesador, colocándola en una
tarjeta decircuito impreso junto a éste. Gracias al nuevo diseño de este
procesador, los usuarios de PC pueden capturar, revisar y compartir fotografías
digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros;
con una línea telefónica; el enviar vídeo a través de las líneas normales del
teléfono mediante Internet se convierte en algo cotidiano.
1998: El Intel Pentium II Xeon
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de
desempeño en computadoras de medio-rango, servidores más potentes y
estaciones de trabajo (workstations). Consistente con la estrategia de Intel para
diseñar productos de procesadores con el objetivo de llenar segmentos de los
mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas
diseñadas para las estaciones de trabajo y servidores que utilizan aplicaciones
comerciales exigentes, como servicios de Internet, almacenamiento de datos
corporativos, creaciones digitales y otros. Pueden configurarse sistemas basados
en este procesador para integrar de cuatro o ocho procesadores trabajando en
paralelo, también más allá de esa cantidad.
1999: El Intel Celeron
Continuando la estrategia, Intel, en el desarrollo de procesadores para los
segmentos del mercado específicos, el procesador Celeron es el nombre que lleva
la línea de de bajo costo de Intel. El objetivo fue poder, mediante ésta segunda
marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento
y precio. Se diseña para el añadir valor al segmento del mercado de los PC.
Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un
desempeño destacado para usos como juegos y el software educativo.
1999: El AMD Athlon K7 (Classic y Thunderbird)
Procesador totalmente compatible con la arquitectura x86. Internamente el Athlon
es un rediseño de su antecesor, pero se le mejoró substancialmente el sistema
de coma flotante (ahora con 3 unidades de coma flotante que pueden trabajar
simultáneamente) y se le incrementó la memoria caché de primer nivel (L1) a 128
KiB (64 KiB para datos y 64 KiB para instrucciones). Además incluye 512 KiB de
caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del
momento.
El procesador Athlon con núcleo Thunderbird apareció como la evolución del
Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86
y usa el bus EV6. El proceso de fabricación usado para todos estos
microprocesadores es de 180 nanómetros. El Athlon Thunderbird consolidó a AMD
como la segunda mayor compañía de fabricación de microprocesadores, ya que
gracias a su excelente rendimiento (superando siempre al Pentium III y a los
primeros Pentium IV de Intel a la misma frecuencia de reloj) y bajo precio, la
hicieron muy popular tanto entre los entendidos como en los iniciados en la
informática.
1999: El Intel Pentium III
El procesador Pentium III ofrece 70 nuevas instrucciones Internet Streaming, las
extensiones de SIMD que refuerzan dramáticamente el desempeño con imágenes
avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en
aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del
desempeño en el Internet, le permite a los usuarios hacer cosas, tales como,
navegar a través de páginas pesadas (con muchos gráficos), tiendas virtuales y
transmitir archivos video de alta calidad. El procesador se integra con 9,5 millones
de transistores, y se introdujo usando en él tecnología 250 nanómetros.
1999: El Intel Pentium III Xeon
El procesador Pentium III Xeon amplía las fortalezas de Intel en cuanto a las
estaciones de trabajo (workstation) y segmentos de mercado de servidores, y
añade una actuación mejorada en las aplicaciones del comercio electrónico e
informática comercial avanzada. Los procesadores incorporan mejoras que
refuerzan el procesamiento multimedia, particularmente las aplicaciones de vídeo.
La tecnología del procesador III Xeon acelera la transmisión de información a
través del bus del sistema al procesador, mejorando el desempeño
significativamente. Se diseña pensando principalmente en los sistemas con
configuraciones de multiprocesador.
2000: EL Intel Pentium 4
Este es un microprocesador de séptima generación basado en la arquitectura
x86 y fabricado por Intel. Es el primero con un diseño completamente nuevo desde
el Pentium Pro. Se estrenó la arquitectura NetBurst, la cual no daba mejoras
considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo
para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las
instrucciones SSE.
2001: El AMD Athlon XP
Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon
Thunderbird no estaba a su nivel. Además no era práctico para el overclocking,
entonces para seguir estando a la cabeza en cuanto a rendimiento de los
procesadores x86, AMD tuvo que diseñar un nuevo núcleo, y sacó el Athlon XP.
Este compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras
respecto al Thunderbird se puede mencionar la prerrecuperación de datos por
hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de
24 a 32.
2004: El Intel Pentium 4 (Prescott)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4
denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de
fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores
es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de caché L1 (el doble
que los Northwood), prevención de ejecución, SpeedStep, C1E State, un
HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64,
de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por
graves problemas de temperatura y consumo, resultaron un fracaso frente a los
Athlon 64.
2004: El AMD Athlon 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que
implementa el conjunto de instrucciones AMD64, que fueron introducidas con el
procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio
circuito integrado del microprocesador y otras mejoras de arquitectura que le dan
un mejor rendimiento que los anteriores Athlon y que el Athlon XP funcionando a
la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64
también presenta una tecnología de reducción de la velocidad del procesador
llamada Cool'n'Quiet,: cuando el usuario está ejecutando aplicaciones que
requieren poco uso del procesador, baja la velocidad del mismo y su tensión se
reduce.
2006: EL Intel Core Duo
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo
Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en
el la nueva arquitectura Core de Intel. Lamicroarquitectura Core regresó a
velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de
velocidad y energía comparados con anteriores NetBurst de los CPU Pentium
4/D2. La microarquitectura Core provee etapas de decodificación, unidades de
ejecución, caché y buses más eficientes, reduciendo el consumo de energía de
CPU Core 2, mientras se incrementa la capacidad de procesamiento. Los CPU de
Intel han variado muy bruscamente en consumo de energía de acuerdo a
velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en
las tablas de disipación de energía del CPU. Esta gama de procesadores fueron
fabricados de 65 a 45 nanómetros.
2007: El AMD Phenom
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera
generación de procesadores de tres y cuatro núcleos basados en la
microarquitectura K10. Como característica común todos los Phenom tienen
tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon
on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la
más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores
Phenom están diseñados para facilitar el uso inteligente de energía y recursos del
sistema, listos para la virtualización, generando un óptimo rendimiento por vatio.
Todas las CPU Phenom poseen características tales como controlador de
memoria DDR2 integrado, tecnología HyperTransport y unidades de coma
flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos
de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos
tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho
de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y
la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren
con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido
a los datos (y así no depende tanto del tiempo de latencia de la RAM), además de
compatibilidad de infraestructura de los zócalos AM2, AM2+ y AM3 para permitir
un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar
el rendimiento de la serie Core 2 Duo.
2008: El Intel Core Nehalem
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura
Intel x86-64. Los Core i7 son los primeros procesadores que usan la
microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB
es reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su
vez en i7, i5 e i3 (zócalo 1156) por el DMI eliminado el northBrige e
implementando puertos PCI Express directamente. Memoria de tres canales
(ancho de datos de 192 bits): cada canal puede soportar una o dos memorias
DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis
ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en
grupos de tres, no dos. El Hyperthreading fue reimplementado creando núcleos
lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de
transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a
contrapartida los consumos se dispararon.
2008: Los AMD Phenom II y Athlon II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o
CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom
original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los
45 nm, es que permitió aumentar la cantidad de caché L3. De hecho, ésta se
incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a
6 MiB.
Entre ellos, el Amd Phenom II X2 BE 555 de doble núcleo surge como el
procesador binúcleo del mercado. También se lanzan tres Athlon II con sólo
Caché L2, pero con buena relación precio/rendimiento. El Amd Athlon II X4 630
corre a 2,8 GHz. El Amd Athlon II X4 635 continua la misma línea.
AMD también lanza un triple núcleo, llamado Athlon II X3 440, así como un doble
núcleo Athlon II X2 255. También sale el Phenom X4 995, de cuatro núcleos, que
corre a más de 3,2GHz. También AMD lanza la familia Thurban con 6 núcleos
físicos dentro del encapsulado
2011: El Intel Core Sandy Bridge
Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e Intel
Core i7 serie 2000 y Pentium G.
Intel lanzó sus procesadores que se conocen con el nombre en clave Sandy
Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios en
arquitectura respecto a nehalem, pero si los necesarios para hacerlos más
eficientes y rápidos que los modelos anteriores. Es la segunda generación de los
Intel Core con nuevas instrucciones de 256 bits, duplicando el rendimiento,
mejorando el desempeño en 3D y todo lo que se relacione con operación en
multimedia. Llegaron la primera semana de Enero del 2011. Incluye nuevo
conjunto de instrucciones denominado AVX y una GPU integrada de hasta 12
unidades de ejecución
2011: El AMD Fusion
AMD Fusion es el nombre clave para un diseño futuro de microprocesadores
Turion, producto de la fusión entre AMD y ATI, combinando con la ejecución
general del procesador, el proceso de la geometría 3D y otras funciones de GPUs
actuales. La GPU (procesador gráfico) estará integrada en el propio
microprocesador. Se espera la salida progresiva de esta tecnología a lo largo del
2011; estando disponibles los primeros modelos (Ontaro y Zacate) para
ordenadores de bajo consumo entre últimos meses de 2010 y primeros de 2011,
dejando el legado de las gamas medias y altas (Llano, Brazos y Bulldozer para
mediados o finales del 2011).
2012: El Intel Core Ivy Bridge
Ivy Bridge es el nombre en clave de los procesadores conocidos como Intel Core
de tercera generación. Son por tanto sucesores de los micros que aparecieron a
principios de 2011, cuyo nombre en clave es Sandy Bridge. Pasamos de los 32
nanómetros de ancho de transistor en Sandy Bridge a los 22 de Ivy Bridge. Esto le
permite meter el doble de ellos en la misma área. Un mayor número de
transistores significa que puedes poner más bloques funcionales dentro del chip.
Es decir, este será capaz de hacer un mayor número de tareas al mismo tiempo.
CONCLUSIÓN
El chipset suele ser comparado con la médula espinal o el sistema nervioso del
cuerpo humano, debido a su notable importancia en el funcionamiento integral del
equipo, lo cierto es que por cuestiones comerciales no suele darse demasiada
importancia y difusión, y en general no es uno de los elementos mayormente
evaluados en el momento de adquirir una nueva tarjeta madre. Debido a que los
chipset se encuentran integrados a la tarjeta madre, y son los encargados de
comunicar a dicha placa con el resto de componentes y el procesador, son junto
con la CPU uno de los elementos imprescindibles para el funcionamiento de la
computadora.
BIBLIOGRAFÍA
http://es.wikipedia.org/wiki/Microprocesador#La_evoluci.C3.B3n_del_
microprocesador
http://www.taringa.net/posts/info/13095640/Lista-Procesadores-Intel-y-
AMD-de-Mayor-a-menor-rendimiento_.html
http://www.pchardware.org/index2.php
http://es.wikipedia.org/wiki/Circuito_integrado_auxiliar