informacion de pagina web

139
Placa base De Wikipedia, la enciclopedia libre Saltar a navegación , búsqueda La placa base, placa madre, tarjeta madre (en inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan las demás partes de la computadora . Tiene instalados una serie de circuitos integrados , entre los que se encuentra el chipset , que sirve como centro de conexión entre el procesador , la memoria RAM , los buses de expansión y otros dispositivos. Va instalada dentro de una caja que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja. La placa base, además, incluye un software llamado BIOS , que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo. Contenido [ocultar ] 1 Componentes de la placa base o 1.1 Tipos de Bus 2 Placa multiprocesador 3 Tipos 4 Formatos 5 Escalabilidad 6 Fabricantes 7 Véase también

Upload: guitarisk

Post on 17-Jan-2017

247 views

Category:

Technology


1 download

TRANSCRIPT

Page 1: Informacion de pagina web

Placa baseDe Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda

La placa base, placa madre, tarjeta madre (en inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan las demás partes de la computadora. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el chipset, que sirve como centro de conexión entre el procesador, la memoria RAM, los buses de expansión y otros dispositivos.

Va instalada dentro de una caja que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.

La placa base, además, incluye un software llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

Contenido[ocultar]

1 Componentes de la placa base o 1.1 Tipos de Bus

2 Placa multiprocesador 3 Tipos 4 Formatos 5 Escalabilidad 6 Fabricantes 7 Véase también

[editar] Componentes de la placa base

Page 2: Informacion de pagina web

Diagrama de una placa base típica.

Una placa base típica admite los siguientes componentes:

Uno o varios conectores de alimentación: por estos conectores, una alimentación eléctrica proporciona a la placa base los diferentes voltajes e intensidades necesarios para su funcionamiento.

El zócalo de CPU (del inglés socket): es un receptáculo que recibe el micro-procesador y lo conecta con el resto de componentes a través de la placa base.

Las ranuras de memoria RAM (en inglés memory slot), en número de 2 a 6 en las placas base comunes.

El chipset: una serie de circuitos electrónicos, que gestionan las transferencias de datos entre los diferentes componentes de la computadora (procesador, memoria, tarjeta gráfica,unidad de almacenamiento secundario, etc.).

Page 3: Informacion de pagina web

Se divide en dos secciones, el puente norte (Northbridge) y el puente sur (Southbridge). El primero gestiona la interconexión entre el procesador, la memoria RAM y la GPU; y el segundo entre los periféricos y los dispositivos de almacenamiento, como los discos duros o las unidades de estado sólido. Las nuevas líneas de procesadores de escritorio tienden a integrar el propio controlador de memoria en el interior del procesador.

Un reloj: regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos.

La CMOS: una pequeña memoria que preserva cierta información importante (como la configuración del equipo, fecha y hora), mientras el equipo no está alimentado por electricidad.

La pila de la CMOS: proporciona la electricidad necesaria para operar el circuito constantemente y que éste último no se apague perdiendo la serie de configuraciones guardadas.

La BIOS: un programa registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde hace tiempo se emplean memorias flash). Este programa es específico de la placa base y se encarga de la interfaz de bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del MBR (Master Boot Record), registradas en un disco duro o SSD, cuando arranca el sistema operativo.

El bus (también llamado bus interno o en inglés front-side bus'): conecta el microprocesador al chipset, está cayendo en desuso frente a HyperTransport y Quickpath.

El bus de memoria conecta el chipset a la memoria temporal. El bus de expansión (también llamado bus I/O): une el microprocesador a los

conectores entrada/salida y a las ranuras de expansión. Los conectores de entrada/salida que cumplen normalmente con la norma PC 99:

estos conectores incluyen: o Los puertos PS2 para conectar el teclado o el ratón, estas interfaces tienden a

desaparecer a favor del USBo Los puertos serie, por ejemplo para conectar dispositivos antiguos.o Los puertos paralelos, por ejemplo para la conexión de antiguas impresoras.o Los puertos USB (en inglés Universal Serial Bus), por ejemplo para

conectar periféricos recientes.o Los conectores RJ45, para conectarse a una red informática.o Los conectores VGA, DVI, HDMI o Displayport para la conexión del

monitor de la computadora.o Los conectores IDE o Serial ATA, para conectar dispositivos de

almacenamiento, tales como discos duros, unidades de estado sólido y lectores ópticos.

o Los conectores de audio, para conectar dispositivos de audio, tales como altavoces o micrófonos.

Las ranuras de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas tarjetas se utilizan para agregar características o aumentar el rendimiento de un ordenador; por ejemplo, un tarjeta gráfica se puede añadir a un ordenador para mejorar el rendimiento 3D). Estos puertos pueden ser puertos ISA

Page 4: Informacion de pagina web

(interfaz antigua), PCI (en inglés Peripheral Component Interconnect) y, los más recientes, PCI Express.

Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como circuitos electrónicos para la gestión del vídeo IGP (en inglés Integrated Graphic Processor), de sonido o de redes (10/100 Mbps/1 Gbps), evitando así la adición de tarjetas de expansión.

[editar] Tipos de Bus

Los buses son espacios físicos que permiten el transporte de información y energía entre dos puntos de la computadora. Los Buses Generales son los siguientes:

Bus de datos: son las líneas de comunicación por donde circulan los datos externos e internos del microprocesador.

Bus de dirección: línea de comunicación por donde viaja la información específica sobre la localización de la dirección de memoria del dato o dispositivo al que se hace referencia.

Bus de control: línea de comunicación por donde se controla el intercambio de información con un módulo de la unidad central y los periféricos.

Bus de expansión: conjunto de líneas de comunicación encargado de llevar el bus de datos, el bus de dirección y el de control a la tarjeta de interfaz (entrada, salida) que se agrega a la tarjeta principal.

Bus del sistema: todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos tipos de datos el microprocesador y la memoria principal, que también involucra a la memoria caché de nivel 2. La velocidad de tranferencia del bus de sistema está determinada por la frecuencia del bus y el ancho del mínimo.

[editar] Placa multiprocesador

Page 5: Informacion de pagina web

Una placa con dos procesadores.

Este tipo de placa base puede acoger a varios procesadores (generalmente de 2, 4, 8 o más). Estas placas base multiprocesador tienen varios zócalos de micro-procesador (socket), lo que les permite conectar varios micro-procesadores físicamente distintos (a diferencia de los de procesador de doble núcleo).

Cuando hay dos procesadores en una placa base, hay dos formas de manejarlos:

El modo asimétrico, donde a cada procesador se le asigna una tarea diferente. Este método no acelera el tratamiento, pero puede asignar una tarea a una CPU, mientras que la otra lleva a cabo a una tarea diferente.

El modo simétrico, llamado PSM (en inglés Symmetric MultiProcessing), donde cada tarea se distribuye de forma simétrica entre los dos procesadores.

Linux fue el primer sistema operativo en gestionar la arquitectura de doble procesador en x86.[cita requerida] Sin embargo, la gestión de varios procesadores existía ya antes en otras plataformas y otros sistemas operativos. Linux 2.6.x maneja multiprocesadores simétricos, y las arquitecturas de memoria no uniformemente distribuida

Algunos fabricantes proveen placas base que pueden acoger hasta 8 procesadores (en el caso de socket 939 para procesadores AMD Opteron y sobre socket 604 para procesadores Intel Xeon).

[editar] TiposLa mayoría de las placas de PC vendidas después de 2001 se pueden clasificar en dos grupos:

Page 6: Informacion de pagina web

Las placas base para procesadores AMD o Slot A Duron, Athlono Socket A Duron, Athlon, Athlon XP, Semprono Socket 754 Athlon 64, Mobile Athlon 64, Sempron, Turiono Socket 939 Athlon 64, Athlon FX , Athlon X2, Sempron, Opterono Socket 940 Opteron y Athlon 64 FXo Socket AM2 Athlon 64, Athlon FX, Athlon X2, Sempron, Phenomo Socket F Opterono Socket AM2 + Athlon 64, Athlon FX, Athlon X2, Sempron, Phenomo Socket AM3 Phenom II X2/X3/X4.o Socket AM4 Phenom III X3/X4/X5

Las placas base para procesadores Intel o Slot 1 : Pentium II, Pentium III, Celerono Socket 370 : Pentium III, Celerono Socket 423 : Pentium 4o Socket 478 : Pentium 4, Celerono Socket 775 : Pentium 4, Celeron, Pentium D (doble núcleo), Core 2 Duo,

Core 2 Quad Core 2 Extreme, Xeono Socket 603 Xeono Socket 604 Xeono Socket 771 Xeono LGA1366 Intel Core i7, Xeono LGA1156 Intel Core i3, Intel Core i5, Intel Core i7

[editar] Formatos

Las tarjetas madre necesitan tener dimensiones compatibles con las cajas que las contienen, de manera que desde los primeros computadores personales se han establecido características mecánicas, llamadas factor de forma. Definen la distribución de diversos componentes y las dimensiones físicas, como por ejemplo el largo y ancho de la tarjeta, la posición de agujeros de sujeción y las características de los conectores.

Page 7: Informacion de pagina web

Con los años, varias normas se fueron imponiendo:

XT : es el formato de la placa base del PC de IBM modelo 5160, lanzado en 1983. En este factor de forma se definió un tamaño exactamente igual al de una hoja de papel tamaño carta y un único conector externo para el teclado.

1984 AT 305 × 305 mm ( IBM) o Baby AT: 216 × 330 mm

AT : uno de los formatos más grandes de toda la historia del PC (305 × 279–330 mm), definió un conector de potencia formado por dos partes. Fue usado de manera extensa de 1985 a 1995.

1995 ATX 305 × 244 mm (Intel) o MicroATX: 244 × 244 mmo FlexATX: 229 × 191 mmo MiniATX: 284 × 208 mm

ATX : creado por un grupo liderado por Intel, en 1995 introdujo las conexiones exteriores en la forma de un panel I/O y definió un conector de 20 pines para la energía. Se usa en la actualidad en la forma de algunas variantes, que incluyen conectores de energía extra o reducciones en el tamaño.

2001 ITX 215 × 195 mm ( VIA) o MiniITX: 170 × 170 mmo NanoITX: 120 × 120 mmo PicoITX: 100 × 72 mm

ITX : con rasgos procedentes de las especificaciones microATX y FlexATX de Intel, el diseño de VIA se centra en la integración en placa base del mayor número posible de componentes, además de la inclusión del hardware gráfico en el propio chipset del equipo, siendo innecesaria la instalación de una tarjeta gráfica en la ranura AGP.

2005 [BTX] 325 × 267 mm (Intel) o Micro bTX: 264 × 267 mmo PicoBTX: 203 × 267 mmo RegularBTX: 325 × 267 mm

BTX : retirada en muy poco tiempo por la falta de aceptación, resultó prácticamente incompatible con ATX, salvo en la fuente de alimentación. Fue creada para intentar solventar los problemas de ruido y refrigeración, como evolución de la ATX.

2007 DTX 248 × 203 mm ( AMD) o Mini-DTX: 170 × 203 mmo Full-DTX: 243 × 203 mm

DTX : destinadas a PCs de pequeño formato. Hacen uso de un conector de energía de 24 pines y de un conector adicional de 2x2.

Formato propietario : durante la existencia del PC, mucha marcas han intentado mantener un esquema cerrado de hardware, fabricando tarjetas madre incompatibles

Page 8: Informacion de pagina web

físicamente con los factores de forma con dimensiones, distribución de elementos o conectores que son atípicos. Entre las marcas mas persistentes está Dell, que rara vez fabrica equipos diseñados con factores de forma de la industria.

[editar] EscalabilidadHasta la mitad de la década de 1990, los PC fueron equipados con una placa en la que se soldó el microprocesador (CPU). Luego vinieron las placas base equipadas con soporte de microprocesador (socket) «libre», que permitía acoger el microprocesador de elección (de acuerdo a sus necesidades y presupuesto). Con este sistema (que pronto se hizo más generalizado y no ha sido discutido), es teóricamente posible equipar el PC con una CPU más potente, sin sustituir la placa base, pero a menor costo.

De hecho, esta flexibilidad tiene sus límites porque los microprocesadores son cada vez más eficientes, e invariablemente requieren placas madre más eficaces (por ejemplo, capaces de manejar flujos de datos cada vez más importantes).

[editar] FabricantesVarios fabricantes se reparten el mercado de placas base, tales como Abit, Albatron, Aopen, ASUS, ASRock, Biostar , Chaintech,Dell, DFI, Elite, Epox, Foxconn, Gigabyte Technology, Intel, MSI, QDI, Sapphire Technology, Soltek, Super Micro, Tyan, Via , XFX, Pc Chips

Algunos diseñan y fabrican uno o más componentes de la placa base, mientras que otros ensamblan los componentes que terceros han diseñado y fabricado.

Page 9: Informacion de pagina web

MicroprocesadorDe Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda

Uno de los actuales microprocesadores de 64 bits y doble núcleo, un AMD Athlon 64 X2 3600.

El microprocesador o simplemente procesador, es el circuito integrado más importante, de tal modo, que se le considera el cerebro de una computadora. Está constituido por millones de transistores integrados. Puede definirse como chip, un tipo de componente electrónico en cuyo interior existen miles o en ocasiones millones, según su complejidad, de elementos llamados transistores cuyas interacciones permiten realizar las labores o funciones que tenga encomendado el chip.

Desde el punto de vista funcional, un microprocesador es un circuito integrado que incorpora en su interior una unidad central de proceso (CPU) y todo un conjunto de elementos lógicos que permiten enlazar otros dispositivos como memorias y puertos de entrada y salida (I/O), formando un sistema completo para cumplir con una aplicación específica dentro del mundo real. Para que el sistema pueda realizar su labor debe ejecutar paso a paso un programa que consiste en una secuencia de números binarios o instrucciones, almacenándolas en uno o más elementos de memoria, generalmente externos al mismo. La aplicación más importante de los microprocesadores que cambió totalmente la forma de trabajar, ha sido la computadora personal, ordenador o microcomputadora.

Así mismo, es la parte de la computadora diseñada para llevar a cabo o ejecutar los programas. Éste ejecuta instrucciones que se le dan a la computadora a muy bajo nivel realizando operaciones lógicas simples, como sumar, restar, multiplicar o dividir. Se ubica generalmente en un zócalo específico en la placa o tarjeta madre y dispone para su correcto y estable funcionamiento de un sistema de refrigeración (generalmente de un ventilador montado sobre un disipador de metal termicamente muy conductor).

Page 10: Informacion de pagina web

Lógicamente funciona como la unidad central de procesos (CPU/Central Procesing Unit), que está constituida por registros, la unidad de control y la unidad aritmético-lógica principalmente. En el microprocesador se procesan todas las acciones de la computadora.

Su "velocidad" se determina por la cantidad de operaciones por ciclo que puede realizar y los ciclos por segundo que desarrolla: también denominada frecuencia de reloj. La frecuencia de reloj se mide Hertzios, pero dado su elevado número se utilizan los múltiplos megahertzio o gigahertzio

Una computadora personal o más avanzada puede estar soportada por uno o varios microprocesadores, y un microprocesador puede soportar una o varias terminales (redes). Un núcleo suele referirse a una porción del procesador que realiza todas las actividades de una CPU real.

La tendencia de los últimos años ha sido la de integrar múltiples núcleos dentro de un mismo encapsulado, además de componentes como memorias caché, controladoras de memoria e incluso unidades de procesamiento gráfico; elementos que anteriormente estaban montados sobre la placa base como dispositivos individuales.

Contenido[ocultar]

1 Historia de los microprocesadores o 1.1 La evolución del microprocesador o 1.2 Breve Historia de los Microprocesadores

2 Funcionamiento 3 Rendimiento 4 Arquitectura 5 Fabricación 6 Empaquetado

o 6.1 Disipación de calor 7 Conexión con el exterior

o 7.1 Buses del procesador 8 Arquitecturas 9 Véase también 10 Referencias 11 Enlaces externos

Historia de los microprocesadores

La evolución del microprocesador

Page 11: Informacion de pagina web

El microprocesador es un producto de la computadora y la tecnología semiconductora. Su desarrollo se eslabona desde la mitad de los años 50; estas tecnologías se fusionaron a principios de los años 70, produciendo el llamado microprocesador.

La computadora digital hace cálculos bajo el control de un programa. La manera general en que los cálculos se han hecho es llamada la arquitectura de la computadora digital. Así mismo la historia de circuitos de estado sólido nos ayuda también, porque el microprocesador es un circuito con transistores o microcircuito LSI (Alta escala de integración)

Las dos tecnologías iniciaron su desarrollo desde la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras especialmente para empleo militar. Después de la guerra, a mediados del año de 1940 la computadora digital fue desarrollada para propósitos científicos y civiles.

La tecnología de circuitos electrónicos avanzó y los científicos hicieron grandes progresos en el diseño de dispositivos físicos de Estado Sólido. En 1948 en los laboratorios Bell crearon el Transistor.

En los años 50, aparecen las primeras computadoras digitales de propósito general. Éstas usaban tubos al vacío o bulbos como componentes electrónicos activos. Tarjetas o módulos de tubos al vacío fueron usados para construir circuitos lógicos básicos tales como compuertas lógicas y flip-flops (Celda donde se almacena un bit). Ensamblando compuertas y flip-flops en módulos, los científicos construyeron la computadora (la lógica de control, circuitos de memoria, etc.). Los tubos de vacío también formaron parte de la construcción de máquinas para la comunicación con las computadoras. Para el estudio de los circuitos digitales, en la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas.

La construcción de una computadora digital requiere de muchos circuitos o dispositivos electrónicos. El principal paso tomado en la computadora fue hacer que el dato fuera almacenado en memoria como una forma de palabra digital. La idea de almacenar programas fue muy importante.

La tecnología de los circuitos de estado sólido evolucionó en la década de los años 50. El empleo del silicio, de bajo costo y con métodos de producción masiva, hicieron al transistor ser el más usado para el diseño de circuitos. Por lo tanto el diseño de la computadora digital fue un gran avance del cambio para reemplazar al tubo al vacío por el transistor a finales de los años 50.

A principios de los años 60, el arte de la construcción de computadoras de estado sólido se incrementó y surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).

A mediados de los años 60 se producen las familias de lógica digital, dispositivos en escala SSI y MSI que corresponden a baja y mediana escala de integración de componentes en los

Page 12: Informacion de pagina web

circuitos de fabricación. A finales de los años 60's y principios de los años 70 surgieron los sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible más y más circuitos digitales en un circuito integrado. Sin embargo, pocos circuitos LSI fueron producidos, los dispositivos de memoria fueron un buen ejemplo.

Las primeras calculadoras electrónicas requerían de 75 a 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando un circuito que fue llamado el microprocesador, unión de las palabras "Micro" del griego μικρο-, "pequeño" y procesador. Sin embargo, es totalmente válido usar el término genérico procesador, dado que con el paso de los años, la escala de integración se ha visto reducida de micrométrica a nanométrica

El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una calculadora, y resultaba revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000 operaciones por segundo.

El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972 para su empleo en terminales informáticos. El Intel 8008 contenía 3300 transistores.

El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000 instrucciones por segundo.

Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores, acercándose a 800 millones de transistores, como es en el caso de las serie Core i7

Breve Historia de los Microprocesadores

El pionero de los actuales microprocesadores el 4004 de Intel.

Page 13: Informacion de pagina web

Imagen de un Intel 80286, mejor conocido como 286.

Imagen de un Intel 80486, conocido también como 486SX de 33Mhz.

La parte de posterior de un Pentium Pro. Este chip en particular es uno de 200MHz, con 256KB de cache L2.

Un procesador Pentium II, se puede observar su estilo de zocket diferente.

Imagen de un procesador Celeron "Coppermine 128" 600 MHz.

Page 14: Informacion de pagina web

Imagen de un procesador Pentium III de Intel.

1971: MICROPROCESADOR 4004

El 4004 fue el primer microprocesador de Intel. Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para integrar inteligencia en objetos inanimados así como la computadora personal.

1972: MICROPROCESADOR i8008

Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.

1974: MICROPROCESADOR 8080

Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de $395. En un periodo de pocos meses, vendió decenas de miles de estas computadoras personales.

1978: MICROPROCESADOR 8086-8088

Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500 mejores compañías de la prestigiosa revista Fortune, y la revista nombró la compañía como uno de Los triunfos comerciales de los sesenta.

1982: MICROPROCESADOR 286

El 286, también conocido como el 80286, era el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue

Page 15: Informacion de pagina web

siendo un sello de la familia de Intel de microprocesadores. Luego de 6 años de su introducción, había un estimado de 15 millones de 286 basados en computadoras personales instalados alrededor del mundo.

1985: EL MICROPROCESADOR INTEL 386

El procesador Intel 386 ofreció 275 000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, poseía capacidad multitarea, que significa que podría ejecutar múltiples programas al mismo tiempo y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que emplearan memoria virtual.

1989: EL DX CPU MICROPROCESADOR INTEL 486

La generación 486 realmente significó que el usuario contaba con una computadora con muchas opciones avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma flotante y un caché unificado integrados en el propio circuito integrado del microprocesador y una unidad de interfaz de bus mejorada. Estas mejoras hacen que los i486 sean el doble de rápidos que un i386 e i387 a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático integrado, el cual acelera las tareas del micro, porque ofrece la ventaja de que las operaciones matemáticas complejas son realizadas (por el coprocesador) de manera independiente al funcionamiento del procesador central (CPU).

1991: AMD AMx86

Procesadores lanzados por AMD 100% compatible con los códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores de Intel a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586

1993: PROCESADOR DE PENTIUM

El procesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, poseía un bus de datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no únicamente brindaban al usuario un mejor manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que se ofrecían en velocidades de hasta 233 MHz, incluyendo una versión de 200 MHz y la más básica proporcionaba unos 166 MHz de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.

1995: PROCESADOR PENTIUM PROFESIONAL

Page 16: Informacion de pagina web

Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña con una arquitectura de 32 bits, su uso en servidores, los programas y aplicaciones para estaciones de trabajo (redes) impulsan rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5 millones de transistores.

1996: AMD K5

Habiendo abandonado los clones se fabricada AMD de tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora que transforma todos los comandos x86 de la aplicación en comandos RISC. Este principio se usa hasta hoy en todos los CPUs x86. En todos los aspectos era superior el K5 al Pentium, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando sin éxito y fué retrasado 1 año de su salida, a razón de éste retraso, sus frecuencias de trabajo eran inferiores a la competencia y por tanto, los fabricantes de PC dieron por hecho que era peor.

1997: PROCESADOR PENTIUM II

El procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, pueden revisar y pueden compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica, el enviar video a través de las líneas normales del teléfono mediante el Internet se convierte en algo cotidiano.

1996: AMD K6 Y AMD K6-2

Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a Intel en el terreno de los Pentium MMX, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador que casi se pone a la altura del mismísimo Pentium II por un precio muy inferior a sus análogos. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los mas de 500 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándar.

Más adelante lanzó una mejora de los K6, los K6-2 a 250 nanómetros, para seguir compitiendo con lso Pentium II, siéndo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introducen un juego de instrucciones SIMD denominado 3DNow!

Page 17: Informacion de pagina web

1998: EL PROCESADOR PENTIUM II XEON

Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo (workstations) y servidores que utilizan aplicaciones comerciales exigentes como servicios de Internet, almacenaje de datos corporativo, creaciones digitales y otros. Pueden configurarse sistemas basados en el procesador para integrar de cuatro o ocho procesadores y más allá de este número.

1999: EL PROCESADOR CELERON

Continuando la estrategia de Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Intel Celeron es el nombre que lleva la línea de procesadores de bajo coste de Intel. El objetivo era poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.

1999: AMD ATHLON K7 (CLASSIC Y THUNDERBIRD)

Procesador compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmente el sistema de coma flotante (ahora son 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le aumentó la memoria caché de primer nivel (L1) a 128 KB (64 KB para datos y 64 KB para instrucciones). Además incluye 512 KB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento

El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma velocidad de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.

1999: PROCESADOR PENTIUM III

El procesador Pentium III ofrece 70 nuevas instrucciones (Internet Streaming, las extensiones de SIMD las cuales refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del desempeño en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas

Page 18: Informacion de pagina web

(llenas de gráficas) como las de los museos online, tiendas virtuales y transmitir archivos video de alta calidad. El procesador incorpora 9,5 millones de transistores, y se introdujo usando en él la tecnología 250 nanómetros.

1999: EL PROCESADOR PENTIUM III XEON

El procesador Pentium III Xeon amplia las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidor y añade una actuación mejorada en las aplicaciones del comercio electrónico y la informática comercial avanzada. Los procesadores incorporan tecnología que refuerzan los multimedios y las aplicaciones de video. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando la actuación significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador.

2000: PENTIUM 4

El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro. Se estreno la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.

2001: ATHLON XP

Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, por eso sacó el Athlon XP. Compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird podemos mencionar la prerrecuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.

2004: PENTIUM 4 (PRESCOTT)

A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MB o 2 MB de caché L2 y 16 KB de caché L1 (el doble que los Northwood), Prevención de Ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.

2004: ATHLON 64

Page 19: Informacion de pagina web

El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,. Cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo y su tensión se reducen.

2006: INTEL CORE Y CORE 2 DUO

Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.

2007: AMD PHENOM

Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto de la propia latencia de la RAM), además de compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.

2008: INTEL CORE NEHALEM

Page 20: Informacion de pagina web

Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.

2008: AMD PHENOM II Y ATHLON II

Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MB del Phenom original a 6 MB.

2010: INTEL CORE SANDY BRIDGE

Los próximos procesadores de Intel de la familia core

2011: AMD BULLDOZER

Los próximos procesadores de AMD de la familia Fusion

FuncionamientoDesde el punto de vista lógico, singular y funcional, el microprocesador está compuesto básicamente por: varios registros, una unidad de control, una unidad aritmético-lógica, y dependiendo del procesador, puede contener una unidad en coma flotante.

El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases:

PreFetch, pre lectura de la instrucción desde la memoria principal. Fetch, envío de la instrucción al decodificador Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto

qué se debe hacer. Lectura de operandos (si los hay). Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el

procesamiento.

Page 21: Informacion de pagina web

Escritura de los resultados en la memoria principal o en los registros.

Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un circuito PLL, normalmente basado en un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles de MHz. Un microprocesador es un sistema abierto con el que puede construirse un computador con las características que se desee acoplándole los módulos necesarios.

RendimientoEl rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese mito, conocido como "mito de los megahertzios" se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su potencia de cómputo.

Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún.

Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a que no todos los chip de silicio tienen los mismos límites de funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas.

Esto se podría reducir en que los procesadores son fabricados por lotes con diferentes estructuras internas atendidendo a gamas y extras como podría ser una memoria caché de diferente tamaño, aunque no siempre es así y las gamas altas difieren muchísimo más de las bajas que simplemente de su memoria caché. Después de obtener los lotes según su gama, se someten a procesos en un banco de pruebas, y según su soporte a las temperaturas o que vaya mostrando signos de inestabilidad, se le adjudica una frecuencia, con la que vendrá programado de serie, pero con prácticas de overclock se le puede incrementar

La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas características puede tenerse una medida aproximada del rendimiento de un procesador por

Page 22: Informacion de pagina web

medio de indicadores como la cantidad de operaciones de coma flotante por unidad de tiempo FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una medida exacta del rendimiento de un procesador o de un sistema, es muy complicada debido a los múltiples factores involucrados en la computación de un problema, por lo general las pruebas no son concluyentes entre sistemas de la misma generación.

ArquitecturaEl microprocesador tiene una arquitectura parecida a la computadora digital. En otras palabras, el microprocesador es como la computadora digital porque ambos realizan cálculos bajo un programa de control. Consiguientemente, la historia de la computadora digital nos ayudará a entender el microprocesador. El microprocesador hizo posible la fabricación de potentes calculadoras y de muchos otros productos. El microprocesador utiliza el mismo tipo de lógica que es usado en la unidad procesadora central (CPU) de una computadora digital. El microprocesador es algunas veces llamado unidad microprocesadora (MPU). En otras palabras, el microprocesador es una unidad procesadora de datos. En un microprocesador podemos diferenciar diversas partes:

El encapsulado: es lo que rodea a la oblea de silicio en si, para darle consistencia, impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con los conectores externos que lo acoplaran a su zócalo a su placa base.

La memoria cache: es una memoria ultrarrápida que emplea el micro para tener a mano ciertos datos que predeciblemente serán utilizados en las siguientes operaciones sin tener que acudir a la memoria RAM reduciendo el tiempo de espera. Por ejemplo: en una biblioteca, en lugar de estar buscando cierto libro a través de un banco de ficheros de papel se utiliza la computadora, y gracias a la memoria cache, obtiene de manera rápida la información. Todos los micros compatibles con PC poseen la llamada cache interna de primer nivel o L1; es decir, la que está más cerca del micro, tanto que está encapsulada junto a él. Los micros más modernos (Pentium III Coppermine, athlon Thunderbird, etc.) incluyen también en su interior otro nivel de caché, más grande aunque algo menos rápida, la caché de segundo nivel o L2 e incluso memoria caché de nivel 3, o L3.

Coprocesador Matemático: o correctamente la FPU (Unidad de coma flotante). Que es la parte del micro especializada en esa clase de cálculos matemáticos, antiguamente estaba en el exterior del procesador en otro chip. Esta parte esta considerada como una parte "lógica" junto con los registros, la unidad de control, memoria y bus de datos.

Los registros: son básicamente un tipo de memoria pequeña con fines especiales que el micro tiene disponible para algunos usos particulares. Hay varios grupos de registros en cada procesador. Un grupo de registros esta diseñado para control del programador y hay otros que no son diseñados para ser controlados por el procesador pero que CPU los utiliza en algunas operaciones, en total son treinta y dos registros.

La memoria: es el lugar donde el procesador encuentra las instrucciones de los programas y sus datos. Tanto los datos como las instrucciones están almacenados en memoria, y el procesador las toma de ahí. La memoria es una parte interna de la

Page 23: Informacion de pagina web

computadora y su función esencial es proporcionar un espacio de trabajo para el procesador.

Puertos: es la manera en que el procesador se comunica con el mundo externo. Un puerto es parecido a una línea de teléfono. Cualquier parte de la circuitería de la computadora con la cual el procesador necesita comunicarse, tiene asignado un número de puerto que el procesador utiliza como un número de teléfono para llamar al circuito o a partes especiales.

FabricaciónEl proceso de fabricación de un microprocesador es muy complejo. Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un monocristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1.370 °C) y muy lentamente (10 a 40 Mm por hora) se va formando el cristal.

De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de 10 micras de espesor, la décima parte del espesor de un cabello humano, utilizando una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de microprocesadores.

Silicio.

Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un proceso llamado “annealing”, que consiste en someterlas a un calentamiento extremo para remover cualquier defecto o impureza que pueda haber llegado a esta instancia. Después de una supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de micra, se recubren con una capa aislante formada por óxido de silicio transferido mediante deposición de vapor.

De aquí en adelante, comienza el proceso del “dibujado” de los transistores que conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea, sucediéndose la deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos encargados de remover las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la creación de sustrato, la oxidación, la litografía, el

Page 24: Informacion de pagina web

grabado, la implantación iónica y la deposición de capas; se llega a un complejo "bocadillo" que contiene todos los circuitos interconectados del microprocesador.

Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las mascaras utilizadas durante la fabricación.

Una oblea de silicio grabada

Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo de partículas mayores de 0,12 micras que puede haber en un pie cúbico (0,028 m3) de aire. Como comparación, un hogar normal sería de clase 1 millón. Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.

Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador defectuoso.

La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea o simplemente con características desactivadas, tales como núcleos. Luego la oblea es cortada y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni cápsula protectora.

Page 25: Informacion de pagina web

Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Cada una de estas conexiones se realiza utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es dotada de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como el que equipa nuestro ordenador.

Empaquetado

Empaquetado de un procesador Intel 80486 en un empaque de cerámica.

Los microprocesadores son circuitos integrados y como tal están formados por un chip de silicio y un empaque con conexiones eléctricas. En los primeros procesadores el empaque se fabricaba con plásticos epoxicos o con cerámicas en formatos como el DIP entre otros. El chip se pegaba con un material térmicamente conductor a una base y se conectaba por medio de pequeños alambres a unas pistas terminadas en pines. Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material de la base de manera que los alambres y el silicio quedaran encapsulados.

En procesadores como los Intel y AMD de las series Pentium I (mediados de los 90) y compatibles aún se usaba el empaque cerámico que tenía un arreglo de pines PGA y una cavidad en el espacio de ese arreglo, donde se introducía el chip del procesador y se soldaba con pequeños alambres a los pines. La cavidad se sellaba con una lamina de cobre.

Page 26: Informacion de pagina web

Empaquetado de un procesador PowerPC con Flip-Chip, se ve el chip de silicio.

En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es soldado directamente a un arreglo de pistas conductoras (en el sustrato laminado) con la ayuda de unas microesferas que se depositan sobre las obleas de semiconductor en las etapas finales de su fabricación. El sustrato laminado es una especie de circuito impreso que posee pistas conductoras hacia pines o contactos, que a su vez servirán de conexión entre el chip semiconductor y un socket de CPU o una placa base.<4>

Antiguamente las conexión del chip con los pines se realizaba por medio de microalambres de manera que quedaba boca arriba, con el método Flip Chip queda boca abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la simplicidad del ensamble y en una mejor disipación de calor. Cuando la pastilla queda bocabajo presenta el sustrato base de silicio de manera que puede ser enfriado directamente por medio de elementos conductores de calor. Esta superficie se aprovecha también para etiquetar el integrado. En los procesadores para computadores de escritorio, dada la vulnerabilidad de la pastilla de silicio, se opta por colocar una placa de metal, por ejemplo en los procesadores Athlon como el de la primera imagen. En los procesadores de Intel también se incluye desde el Pentium III de más de 1 Ghz.

Disipación de calor

Artículo principal: disipador

Con el aumento en el número de transistores incluidos en un procesador, el consumo de energía se ha elevado a niveles en los cuales la disipación natural del procesador no es suficiente para mantener temperaturas aceptables en el material semiconductor, de manera que se hace necesario el uso de mecanismos de enfriamiento forzado, como son los disipadores de calor.

Entre ellos se encuentran los sistemas sencillos como disipadores metálicos que aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados.

En los procesadores más modernos se aplica en la parte superior del procesador, una lámina metálica denominada IHS que va a ser la superficie de contacto del disipador para mejorar la refrigeración uniforme del die y proteger las resistencias internas de posibles tomas de contacto al aplicar pasta térmica. Varios modelos de procesadores, en especial, los Athlon XP, han sufrido cortocircuitos debido a una incorrecta aplicación de la pasta térmica.

Conexión con el exteriorArtículo principal: Socket de CPU

Page 27: Informacion de pagina web

Superficies de contacto en un procesador Intel para Zocalo LGA775.

El microprocesador posee un arreglo de elementos metálicos (pines, patillas, esferas, contactos) que permiten la conexión eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de la placa base. Dependiendo de la complejidad y de la potencia, un procesador puede tener desde 8 hasta más de 2000 elementos metálicos en la superficie de su empaque. El montaje del procesador se realiza con la ayuda de un Zócalo de CPU soldado sobre la placa base. Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control; estas funciones están distribuidas en un esquema asociado al zócalo, de manera que varias referencias de procesador y placas base son compatibles entre ellos, permitiendo distintas configuraciones.

Buses del procesador

Todos los procesadores poseen un bus principal o de sistema por el cual se envían y reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o desde el resto de dispositivos. Como puente de conexión entre el procesador y el resto del sistema, define mucho del rendimiento del sistema, su velocidad se mide en bits por segundo.

Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus paralelo en el cual se definen líneas especializadas en datos, direcciones y para control.

En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama el Front Side Bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de múltiples líneas de control que permiten la transmisión de datos entre el procesador y el resto del sistema. Este esquema se ha utilizado desde el primer procesador de la historia, con mejoras en la señalización que le permite funcionar con relojes de 333 Mhz haciendo 4 transferencias por ciclo.[1]

En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el bus principal de tipo serial. Entre estos se encuentra el bus HyperTransport que maneja los datos en forma de paquetes usando una cantidad menor de líneas de comunicación, permitiendo frecuencias de funcionamiento más altas.

Page 28: Informacion de pagina web

Los microprocesadores de última generación de Intel y muchos de AMD poseen además un controlador de memoria DDR en el interior del encapsulado lo que hace necesario la implementación de buses de memoria del procesador hacia los módulos. Ese bus esta de acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus paralelo, para datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir de 1 a 4 buses de memoria.

Arquitecturas 65xx

o MOS Technology 6502 o Western Design Center 65xx

ARM Altera Nios, Nios II AVR (puramente microcontroladores) EISC RCA 1802 (aka RCA COSMAC, CDP1802) DEC Alpha Intel

o Intel 4556 , 4040o Intel 8970 , 8085, Zilog Z80o Intel Itaniumo Intel i860 o Intel i515

LatticeMico32 M32R MIPS Motorola

o Motorola 6800 o Motorola 6809 o Motorola c115 , ColdFireo corelduo 15485o sewcret ranses 0.2457o Motorola 88000 (antecesor de la familia PowerPC con el IBM POWER)

IBM POWER (antecesor de la familia PowerPC con el Motorola 88000) o Familia PowerPC, G3, G4, G5

NSC 320xx OpenRISC PA-RISC National Semiconductor SC/MP ("scamp") Signetics 2650 SPARC SuperH family Transmeta Crusoe, Transmeta Efficeon (arquitectura VLIW, con emulador de la

IA32 de 32-bit Intel x86) INMOS Transputer

Page 29: Informacion de pagina web

x86 o Intel 8086 , 8088, 80186, 80188 (arquitectura x86 de 16-bit con sólo modo

real)o Intel 80286 (arquitectura x86 de 16-bit con modo real y modo protegido)o IA-32 arquitectura x86 de 32-bitso x86-64 arquitectura x86 de 64-bits

Cambridge Consultants XAP

Page 30: Informacion de pagina web

Memoria de acceso aleatorioDe Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda Para otros usos de este término, véase RAM (desambiguación).

Módulos de memoria instalados de 256 MB cada uno en un sistema con doble canal.

Integrado de silicio de 64 bits sobre un sector de memoria de núcleo (finales de los 60).

La memoria de acceso aleatorio (en inglés: random-access memory cuyo acrónimo es RAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultados.

Contenido[ocultar]

1 Nomenclatura 2 Historia

Page 31: Informacion de pagina web

o 2.1 Arquitectura base 3 Uso por el sistema 4 Módulos de memoria RAM 5 Relación con el resto del sistema 6 Tecnologías de memoria

o 6.1 SDR SDRAM o 6.2 DDR SDRAM o 6.3 DDR2 SDRAM o 6.4 DDR3 SDRAM o 6.5 RDRAM (Rambus DRAM)

7 Detección y corrección de errores 8 Memoria RAM registrada 9 Véase también 10 Referencias 11 Enlaces externos

NomenclaturaLa frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, los modulos de memoria contienen un tipo, entre varios de memoria de acceso aleatorio, ya que las ROM, memorias Flash, caché (SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición. Los módulos de RAM son la presentación comercial de este tipo de memoria, que se compone de circuitos integrados soldados sobre un circuito impreso, en otros dispositivos como las consolas de videojuegos, esa misma memoria va soldada sobre la placa principal.

HistoriaLa historia está marcada por la necesidad del volumen de datos. Originalmente, los datos eran programados por el usuario con movimientos de interruptores. Se puede decir que el movimiento de datos era bit a bit. Las necesidades apuntaron a una automatización y se crearon lo que se denomina byte de palabra. Desde una consola remota, se trasladaban los interruptores asignándoles valores de letra, que correspondían a una orden de programación al microprocesador. Así, si se deseaba programar una orden NOT con dos direcciones distintas de memoria, solo se tenía que activar el grupo de interruptores asociados a la letra N, a la letra O y a la letra T. Seguidamente, se programaban las direcciones de memoria sobre las cuales recibirían dicho operador lógico, para después procesar el resultado. Los interruptores evolucionaron asignándoles una tabla de direccionamiento de 16x16 bytes, en donde se daban 256 valores de byte posibles (la actual tabla ASCII). En dicha tabla, se traducen lo que antes costaba activar 8 interruptores por letra, a una pulsación por letra (de cara al recurso humano, un ahorro en tiempos. Una sola pulsación, predisponía 1 byte en RAM... o en otras palabras, cambiaba la posición de 8 interruptores con una sola

Page 32: Informacion de pagina web

pulsación). Se usó el formato de máquina de escribir, para representar todo el alfabeto latino, necesario para componer palabras en inglés; así como los símbolos aritméticos y lógicos que permitían la escritura de un programa directamente en memoria RAM a través de una consola o teclado.

En origen, los programadores no veían en tiempo real lo que tecleaban, teniendo que imprimir de cuando en cuando el programa residente en memoria RAM y haciendo uso del papel a la hora de ir modificando o creando un nuevo programa. Dado que el papel era lo más accesible, los programas comenzaron a imprimirse en un soporte de celulosa más resistente, creando lo que se denominó Tarjeta perforada. Así pues, los programas constaban de una o varias tarjetas perforadas, que se almacenaban en archivadores de papel con las típicas anillas de sujeción. Dichas perforaciones, eran leídas por un dispositivo de entrada, que no era muy diferente al teclado y que constaba de pulsadores que eran activados o desactivados, dependiendo de si la tarjeta en la posición de byte, contenía una perforación o no. Cada vez que se encendía la máquina, requería de la carga del programa que iba a ejecutar.

Dado que los datos en memoria son de 0 o 1, que esas posiciones físicamente representan el estado de un conmutador, que la estimulación del conmutador evolucionó a pulsos electromagnéticos, el almacenamiento de los programas era cuestión de tiempo que su almacenamiento pasara del papel a un soporte lógico, tal como las cintas de almacenamiento. Las cintas eran secuenciales, y la composición de la cinta era de un material magnetoestático; bastaba una corriente Gauss para cambiar las polaridades del material. Dado que el material magnético puede tener polaridad norte o sur, era ideal para representar el 0 o el 1. Así, ahora, cargar un programa no era cuestión de estar atendiendo un lector de tarjetas en el cual se debían de ir metiendo de forma interminable tarjetas perforadas que apenas podían almacenar apenas unos bytes. Ahora, los dispositivos electromagnéticos secuenciales requerían la introducción de la cinta y la pulsación de una tecla para que se cargara todo el programa de inicio a fin, de forma secuencial. Los accesos aleatorios no aparecieron hasta la aparición del disco duro y el Floppy. Con estos medios, un cabezal lector se deslizaba por la superficie en movimiento, si dicho movimiento tenía como consecuencia la lectura de un valor N-N (norte-norte) no generaba corriente, tampoco si era S-S (Sur-Sur), por el contrario, si era N-S o S-N sí creaba una corriente, que era captada por el circuito que mandaba el dato a la memoria RAM.

Toda esta automatización requiso del diseño de un sistema operativo, o de un área de gestión del recurso para su automatización. Estos sistemas requerían de un área de memoria reservada, en origen de 64 Kb (Capacidades de representación de texto en monitor monocromo), para irse ampliando a 128 Kb (Monocromo con capacidades gráficas), 256 (Texto y gráficos a dos colores), 512 (Texto y gráficos a 4 colores) y los tradicionales 640 Kb (Texto y gráficos a 16 colores). Esa memoria se denominó memoria base.

Es en esta parte del tiempo, en donde se puede hablar de un área de trabajo para la mayor parte del software de un computador. La RAM continua siendo volátil por lo que posee la capacidad de perder la información una vez que se agote su fuente de energía.[1] Existe una memoria intermedia entre el procesador y la RAM, llamada caché, pero ésta sólo es una

Page 33: Informacion de pagina web

copia (de acceso rápido) de la memoria principal (típicamente discos duros) almacenada en los módulos de RAM.[1]

4MB de memoria RAM para un computador VAX de finales de los 70. Los integrados de memoria DRAM están agrupados arriba a derecha e izquierda.

Módulos de memoria tipo SIPP instalados directamente sobre la placa base.

La denominación “de Acceso aleatorio” surgió para diferenciarlas de las memoria de acceso secuencial, debido a que en los comienzos de la computación, las memorias principales (o primarias) de las computadoras eran siempre de tipo RAM y las memorias secundarias (o masivas) eran de acceso secuencial (cintas o tarjetas perforadas). Es frecuente pues que se hable de memoria RAM para hacer referencia a la memoria principal de una computadora, pero actualmente la denominación no es precisa.

Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas con tubos de vacío para implementar las funciones de memoria principal con o sin acceso aleatorio.

En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1 Kibibyte, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos.

Page 34: Informacion de pagina web

En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4Kb en un empaque de 16 pines,[2] mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento[3] se convirtió en un estándar de facto debido a la gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la miniaturización , entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines.

A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido, dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie de mejoras en el direccionamiento como las siguientes:

Módulos formato SIMM de 30 y 72 pines, los últimos fueron utilizados con integrados tipo EDO-RAM.

FPM-RAM (Fast Page Mode RAM)

Inspirado en técnicas como el "Burst Mode" usado en procesadores como el Intel 486,[4] se implantó un modo direccionamiento en el que el controlador de memoria envía una sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones son repetitivas cuando se desea acceder a muchas posiciones consecutivas. Funciona como si deseáramos visitar todas las casas en una calle: después de la primera vez no seria necesario decir el número de la calle únicamente seguir la misma. Se fabricaban con tiempos de acceso de 70 ó 60 ns y fueron muy populares en sistemas basados en el 486 y los primeros Pentium.

EDO-RAM (Extended Data Output RAM)

Page 35: Informacion de pagina web

Lanzada en 1995 y con tiempos de accesos de 40 o 30 ns suponía una mejora sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones contiguas pero direcciona la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una eliminación de estados de espera, manteniendo activo el buffer de salida hasta que comienza el próximo ciclo de lectura.

BEDO-RAM (Burst Extended Data Output RAM)

Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria que usaba generadores internos de direcciones y accedía a mas de una posición de memoria en cada ciclo de reloj, de manera que lograba un desempeño un 50% mejor que la EDO. Nunca salió al mercado, dado que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades distintas como señales de reloj.

Arquitectura base

En origen, la memoria RAM se componía de hilos de cobre que atravesaban toroides de ferrita, la corriente polariza la ferrita. Mientras esta queda polarizada, el sistema puede invocar al procesador accesos a partes del proceso que antes (en un estado de reposo) no es posible acceder. En sus orígenes, la invocación a la RAM, producía la activación de contactores, ejecutando instrucciones del tipo AND, OR y NOT. La programación de estos elementos, consistía en la predisposición de los contactores para que, en una línea de tiempo, adquiriesen las posiciones adecuadas para crear un flujo con un resultado concreto. La ejecución de un programa, provocaba un ruido estruendoso en la sala en la cual se ejecutaba dicho programa, por ello el área central de proceso estaba separada del área de control por mamparas insonorizadas.

Con las nuevas tecnologías, las posiciones de la ferrita se ha ido sustituyendo por, válvulas de vacío, transistores y en las últimas generaciones, por un material sólido dieléctrico. Dicho estado estado sólido dieléctrico tipo DRAM permite que se pueda tanto leer como escribir información.

Uso por el sistemaSe utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible.

Módulos de memoria RAM

Page 36: Informacion de pagina web

Formato SO-DIMM.

Los módulos de memoria RAM son tarjetas de circuito impreso que tienen soldados integrados de memoria DRAM por una o ambas caras. La implementación DRAM se basa en una topología de Circuito eléctrico que permite alcanzar densidades altas de memoria por cantidad de transistores, logrando integrados de decenas o cientos de Megabits. Además de DRAM, los módulos poseen un integrado que permiten la identificación de los mismos ante el computador por medio del protocolo de comunicación SPD.

La conexión con los demás componentes se realiza por medio de un área de pines en uno de los filos del circuito impreso, que permiten que el modulo al ser instalado en un zócalo apropiado de la placa base, tenga buen contacto eléctrico con los controladores de memoria y las fuentes de alimentación. Los primeros módulos comerciales de memoria eran SIPP de formato propietario, es decir no había un estándar entre distintas marcas. Otros módulos propietarios bastante conocidos fueron los RIMM, ideados por la empresa RAMBUS.

La necesidad de hacer intercambiable los módulos y de utilizar integrados de distintos fabricantes condujo al establecimiento de estándares de la industria como los JEDEC.

Módulos SIMM: Formato usado en computadores antiguos. Tenían un bus de datos de 16 o 32 bits

Módulos DIMM: Usado en computadores de escritorio. Se caracterizan por tener un bus de datos de 64 bits.

Módulos SO-DIMM: Usado en computadores portátiles. Formato miniaturizado de DIMM.

Relación con el resto del sistema

Page 37: Informacion de pagina web

Diagrama de la arquitectura de un ordenador.

Dentro de la jerarquía de memoria la RAM se encuentra en un nivel después de los registros del procesador y de las cachés. Es una memoria relativamente rápida y de una capacidad media: sobre el año 2010), era fácil encontrar memorias con velocidades de más de 1 Ghz, y capacidades de hasta 8 GB por módulo, llegando a verse memorias pasando la barrera de los 3 Ghz por esa misma fecha mediante overclock. La memoria RAM contenida en los módulos, se conecta a un controlador de memoria que se encarga de gestionar las señales entrantes y salientes de los integrados DRAM. Algunas señales son las mismas que se utilizan para utilizar cualquier memoria: Direcciones de las posiciones, datos almacenados y señales de control.

El controlador de memoria debe ser diseñado basándose en una tecnología de memoria, por lo general soporta solo una, pero existen excepciones de sistemas cuyos controladores soportan dos tecnologías (por ejemplo SDR y DDR o DDR1 y DDR2), esto sucede en las épocas transitorias de una nueva tecnología de RAM. Los controladores de memoria en sistemas como PC y servidores se encuentran embebidos en el llamado "North Bridge" o "Puente Norte" de la placa base; o en su defecto, dentro del mismo procesador (en el caso de los procesadores desde AMD Athlon 64 e Intel Core i7) y son los encargados de manejar la mayoría de información que entra y sale del procesador.

Las señales básicas en el módulo están divididas en dos buses y un conjunto misceláneo de líneas de control y alimentación. Entre todas forman el bus de memoria:

Bus de datos: Son las líneas que llevan información entre los integrados y el controlador. Por lo general están agrupados en octetos siendo de 8,16,32 y 64 bits, cantidad que debe igualar el ancho del bus de datos del procesador. En el pasado, algunos formatos de modulo, no tenían un ancho de bus igual al del procesador.En ese caso había que montar módulos en pares o en situaciones extremas, de a 4 módulos, para completar lo que se denominaba banco de memoria, de otro modo el sistema no funciona. Esa es la principal razón de haber aumentar el número de pines en los módulos, igualando el ancho de bus de procesadores como el Pentium de 64 bits a principios de los 90.

Bus de direcciones: Es un bus en el cual se colocan las direcciones de memoria a las que se requiere acceder. No es igual al bus de direcciones del resto del sistema, ya que está multiplexado de manera que la dirección se envía en dos etapas.Para ello el controlador realiza temporizaciones y usa las líneas de control. En cada

Page 38: Informacion de pagina web

estándar de módulo se establece un tamaño máximo en bits de este bus, estableciendo un límite teórico de la capacidad máxima por módulo.

Señales misceláneas: Entre las que están las de la alimentación (Vdd, Vss) que se encargan de entregar potencia a los integrados. Están las líneas de comunicación para el integrado de presencia que da información clave acerca del módulo. También están las líneas de control entre las que se encuentran las llamadas RAS (row address strobe) y CAS (column address strobe) que controlan el bus de direcciones y las señales de reloj en las memorias sincrónicas SDRAM.

Entre las características sobresalientes del controlador de memoria, está la capacidad de manejar la tecnología de canal doble (Dual Channel), tres canales, o incluso cuatro para los procesadores venideros; donde el controlador maneja bancos de memoria de 128 bits. Aunque el ancho del bus de datos del procesador sigue siendo de 64 bits, el controlador de memoria puede entregar los datos de manera intercalada, optando por uno u otro canal, reduciendo las latencias vistas por el procesador. La mejora en el desempeño es variable y depende de la configuración y uso del equipo. Esta característica ha promovido la modificación de los controladores de memoria, resultando en la aparición de nuevos chipsets (la serie 865 y 875 de Intel) o de nuevos zócalos de procesador en los AMD (el 939 con canal doble , reemplazo el 754 de canal sencillo). Los equipos de gama media y alta por lo general se fabrican basados en chipsets o zócalos que soportan doble canal o superior.

Tecnologías de memoriaLa tecnología de memoria actual usa una señal de sincronización para realizar las funciones de lectura-escritura de manera que siempre esta sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que permiten construir integrados que funcionen a una frecuencia superior a 66 Mhz (A día de hoy, se han superado con creces los 1600 Mhz).

Memorias RAM con tecnologías usadas en la actualidad.

SDR SDRAM

Page 39: Informacion de pagina web

Artículo principal: SDRAM

Memoria síncrona, con tiempos de acceso de entre 25 y 10 ns y que se presentan en módulos DIMM de 168 contactos. Fue utilizada en los Pentium II y en los Pentium III , así como en los AMD K6, AMD Athlon K7 y Duron. Está muy extendida la creencia de que se llama SDRAM a secas, y que la denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no es así, simplemente se extendió muy rápido la denominación incorrecta. El nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los tipos disponibles son:

PC100: SDR SDRAM, funciona a un máx de 100 MHz. PC133: SDR SDRAM, funciona a un máx de 133 MHz.

DDR SDRAM

Artículo principal: DDR SDRAM

Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos. Los tipos disponibles son:

PC2100 o DDR 266: funciona a un máx de 133 MHz. PC2700 o DDR 333: funciona a un máx de 166 MHz. PC3200 o DDR 400: funciona a un máx de 200 MHz.

DDR2 SDRAM

SDRAM DDR2.Artículo principal: DDR2

Las memorias DDR 2 son una mejora de las memorias DDR (Double Data Rate), que permiten que los búferes de entrada/salida trabajen al doble de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias. Se presentan en módulos DIMM de 240 contactos. Los tipos disponibles son:

PC2-4200 o DDR2-533: funciona a un máx de 533 MHz.

Page 40: Informacion de pagina web

PC2-5300 o DDR2-667: funciona a un máx de 667 MHz. PC2-6400 o DDR2-800: funciona a un máx de 800 MHz. PC2-8600 o DDR2-1066: funciona a un máx de 1066 MHz.

DDR3 SDRAM

Artículo principal: DDR3

Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan significantes mejoras en el rendimiento en niveles de bajo voltaje, lo que lleva consigo una disminución del gasto global de consumo. Los módulos DIMM DDR 3 tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente incompatibles, debido a una ubicación diferente de la muesca. Los tipos disponibles son:

PC3-8600 o DDR3-1066: funciona a un máx de 1066 MHz. PC3-10600 o DDR3-1333: funciona a un máx de 1333 MHz. PC3-12800 o DDR3-1600: funciona a un máx de 1600 MHz.

RDRAM (Rambus DRAM)

Artículo principal: RDRAM

Memoria de gama alta basada en un protocolo propietario creado por la empresa Rambus, lo cual obliga a sus compradores a pagar regalías en concepto de uso. Esto ha hecho que el mercado se decante por la tecnología DDR, libre de patentes, excepto algunos servidores de grandes prestaciones (Cray) y la consola PlayStation 3. La RDRAM se presenta en módulos RIMM de 184 contactos.

Detección y corrección de erroresExisten dos clases de errores en los sistemas de memoria, las fallas (Hard fails) que son daños en el hardware y los errores (soft errors) provocados por causas fortuitas. Los primeros son relativamente fáciles de detectar (en algunas condiciones el diagnóstico es equivocado), los segundos al ser resultado de eventos aleatorios, son más difíciles de hallar. En la actualidad la confiabilidad de las memorias RAM frente a los errores, es suficientemente alta como para no realizar verificación sobre los datos almacenados, por lo menos para aplicaciones de oficina y caseras. En los usos más críticos, se aplican técnicas de corrección y detección de errores basadas en diferentes estrategias:

La técnica del bit de paridad consiste en guardar un bit adicional por cada byte de datos, y en la lectura se comprueba si el número de unos es par (paridad par) o impar (paridad impar), detectándose así el error.

Una técnica mejor es la que usa ECC, que permite detectar errores de 1 a 4 bits y corregir errores que afecten a un sólo bit esta técnica se usa sólo en sistemas que requieren alta fiabilidad.

Page 41: Informacion de pagina web

Por lo general los sistemas con cualquier tipo de protección contra errores tiene un costo más alto, y sufren de pequeñas penalizaciones en desempeño, con respecto a los sistemas sin protección. Para tener un sistema con ECC o paridad, el chipset y las memorias debe tener soportar esas tecnologías. La mayoría de placas base no poseen dicho soporte.

Para los fallos de memoria se pueden utilizar herramientas de software especializadas que realizan pruebas integrales sobre los módulos de memoria RAM. Entre estos programas uno de los más conocidos es la aplicación Memtest86+ que detecta fallos de memoria.

Memoria RAM registradaEs un tipo de módulo usado frecuentemente en servidores y equipos especiales. Poseen circuitos integrados que se encargan de repetir las señales de control y direcciones. Las señales de reloj son reconstruidas con ayuda del PLL que está ubicado en el módulo mismo. Las señales de datos pasan directamente del bus de memoria a los CI de memoria DRAM.

Estas características permiten conectar múltiples módulos de memoria (más de 4) de alta capacidad sin que haya perturbaciones en las señales del controlador de memoria, haciendo posible sistemas con gran cantidad de memoria principal (8 a 16 GiB). Con memorias no registradas, no es posible, debido a los problemas surgen de sobrecarga eléctrica a las señales enviadas por el controlador, fenómeno que no sucede con las registradas por estar de algún modo aisladas.

Entre las desventajas de estos módulos están el hecho de que se agrega un ciclo de retardo para cada solicitud de acceso a una posición no consecutiva y por supuesto el precio, que suele ser mucho más alto que el de las memorias de PC. Este tipo de módulos es incompatible con los controladores de memoria que no soportan el modo registrado, a pesar de que se pueden instalar físicamente en el zócalo. Se pueden reconocer visualmente porque tienen un integrado mediano, cerca del centro geométrico del circuito impreso, además de que estos módulos suelen ser algo más altos.[5

Page 42: Informacion de pagina web

DisqueteDe Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda

Unidad de discos flexibles

Unidades de 8", 5¼" , y 3½".

Fecha de invención:

1969 (8"),1976 (5¼"),1983 (3½")

Inventado por: Equipo de IBM liderado por David Noble

Conectado a:

Controlador mediante cables

Un disquete o disco flexible (en inglés floppy disk o diskette) es un medio o soporte de almacenamiento de datos formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una cubierta de plástico cuadrada o rectangular.

Los disquetes se leen y se escriben mediante un dispositivo llamado disquetera (o FDD, del inglés Floppy Disk Drive). En algunos casos es un disco menor que el CD. La disquetera es el dispositivo o unidad lectora/grabadora de disquetes, y ayuda a introducirlo para guardar la información.

Este tipo de dispositivo de almacenamiento es vulnerable a la suciedad y los campos magnéticos externos, por lo que, en muchos casos, deja de funcionar con el tiempo.

Contenido[ocultar]

1 Historia o 1.1 Orígenes, el disco de 8 pulgadas

2 Uso en la actualidad 3 Impacto en la sociedad

Page 43: Informacion de pagina web

o 3.1 Tamaños 4 Referencias 5 Véase también 6 Enlaces externos

[editar] Historia

[editar] Orígenes, el disco de 8 pulgadas

Un lector de disquetes de 8 pulgadas con un disquete parcialmente insertado.

En 1967, IBM encomendó a su centro de desarrollo de almacenamiento de San José (California) una nueva tarea: desarrollar un sistema sencillo y barato para cargar microcódigo en los System/370 de sus ordenadores centrales.

[editar] Uso en la actualidad

icono del disquete en ubuntu 9.04.

Esta unidad está quedando obsoleta y son muchos los computadores que no la incorporan, por la aparición de nuevos dispositivos de almacenamiento más manejables, que además

Page 44: Informacion de pagina web

disponen de mucha más memoria física, como por ejemplo las memorias USB. Una memoria USB de 1 GB (Gigabyte) de memoria equivale aproximadamente a 900 disquetes. De hecho, ya en algunos países este tipo de unidad no se utiliza debido a su obsolescencia.

Sin embargo, siguen siendo de una gran utilidad como discos de arranque en caso de averías o emergencias en el sistema operativo principal o el disco duro, dado su carácter de estándar universal que en los IBM PC compatibles no necesita ningún tipo de controladora adicional para ser detectados en el proceso de carga por la BIOS y dado que, a diferencia del CD-ROM, es fácilmente escribible. Lo que, en situaciones de emergencia, los convierte en un sistema altamente fiable, básico y difícilmente sustituible.

[editar] Impacto en la sociedad

Un disquete de 3,5".

Los disquetes (cuyo nombre fue escogido para ser similar a la palabra "casete"), gozaron de una gran popularidad en las décadas de los ochenta y los noventa, usándose en ordenadores domésticos y personales tales como Apple II, Macintosh, MSX 2/2+/Turbo R, Amstrad PCW, Amstrad CPC 664 y Amstrad CPC 6128 (y opcionalmente Amstrad CPC 464), ZX Spectrum +3, Commodore 64, Amiga e IBM PC para distribuir software, almacenar información de forma rápida y eficaz, transferir datos entre ordenadores y crear pequeñas copias de seguridad, entre otros usos. Muchos almacenaban de forma permanente el núcleo de sus sistemas operativos en memorias ROM, pero guardaban sus sistemas operativos en un disquete, como ocurría con CP/M o, posteriormente, con DOS.

Page 45: Informacion de pagina web

Un disquete de 5,25".

También fue usado en la industria de los videojuegos, cuando Nintendo hizo un formato propio de disquete, parecido al actual de 3 1/2, para usar con un periférico diseñado para la consola Famicom llamado Famicom Disk Drive. No obstante, sólo se lanzo en Japón. También se vendían disquetes en blanco, para grabar juegos en la calle, mediante máquinas automáticas instaladas en algunos lugares de Japón.

Con la llegada de la década de los noventa, el aumento del tamaño del software hizo que muchos programas se distribuyeran en conjuntos de disquetes. Hacia mediados de los noventa, la distribución del software fue migrando gradualmente hacia el CD-ROM, y se introdujeron formatos de copias de seguridad de mayor densidad, como los discos Zip de Iomega. Asimismo, en grandes, medianas e incluso pequeñas empresas, las copias de seguridad empezaron a efectuarse de manera sistemática en cintas magnéticas de alta capacidad y muy bajo coste, como cintas de audio digitales (DAT) o streamers. Con la llegada del acceso total a la Internet, de las redes Ethernet baratas y de las memorias flash ó USB de bajo costo, los disquetes han dejado ser necesarios para la transferencia rápida de datos.

La aparición y comercialización en gran escala de unidades grabadoras de discos ópticos y compactos, y de unidades de CD grabable y regrabable (CD-R/CD-RW), el abaratamiento exponencial y progresivo de sus costes de producción y precios de venta al consumidor, y su introducción paulatina y posterior generalización en la mayoría de ordenadores personales y de hogares, así como la innovación de nuevos formatos y estándares (CD de 80 minutos, de alta densidad, DVD, DVD de doble cara o doble capa, HD DVD, Blu-Ray, etc.) que poco a poco van multiplicando la capacidad y velocidad de almacenamiento, han permitido la sustitución paulatina de los engorrosos sistemas de cinta magnética por accesibles y rápidos sistemas de disco óptico como soporte principal y generalizado de copias de seguridad. Un intento a finales de los noventa (sin éxito en el mercado), de continuar con los disquetes fue el SuperDisk (LS-120), con una capacidad de 120 MB (en realidad 120.375 MiB[1] ), siendo el lector compatible con los disquetes estándar de 3½ pulgadas.

Page 46: Informacion de pagina web

Un disquete de 3", usado ampliamente en equipos Amstrad CPC.

La clave de este desplazamiento progresivo está en el mayor coste por bit de la superficie magnética frente a la superficie de un medio óptico, su mayor fragilidad (necesitan ser protegidos del contacto con el exterior, del polvo, la luz, cambios de humedad y temperatura, electricidad estática, mediante sobres protectores o cierres herméticos al vacío), así como a la mayor complejidad y coste de producción del mecanismo lector/grabador de una unidad de disco magnético, tanto si es fijo como flexible, frente a la simplicidad y rudimentariedad del sistema lineal y de una sola cabeza, por láser y revolución constante, de la unidad lectora y grabadora de un medio óptico.

Sin embargo, muchos fabricantes se niegan a suprimir la disquetera de sus equipos personales por razones de compatibilidad y porque los departamentos de la tecnología de la información de muchas empresas aprecian un mecanismo de transferencia de archivos integrado que siempre funcionará correctamente sin requerir de ningún tipo de controlador ó driver (más allá del de la propia BIOS). Apple Computer fue el primer fabricante que eliminó la disquetera en uno de sus ordenadores con el modelo iMac en 1998, y Dell hizo que la disquetera fuera opcional en algunos de sus modelos en 2003. Asimismo, muchos equipos, en la actualidad, tienden a proveerse, por omisión, sin una unidad de disco flexible instalada, aunque esta puede incluirse como opcional en todo momento, al seguir habiendo soporte en las actuales placas base ATX y en su correspondiente BIOS. Sin embargo, hasta la fecha, estos movimientos todavía no han marcado el fin de los disquetes como medio popular de almacenamiento e intercambio de datos.

[editar] Tamaños

Los tamaños de los disquetes suelen denominarse empleando el Sistema Anglosajón de Unidades, incluso en los países en los que el Sistema Internacional de Unidades es el estándar, sin tener en cuenta que, en algunos casos, éstos están definidos en el sistema métrico (por ejemplo, el disquete de 3½ pulgadas mide en realidad 9 cm). De forma general, las capacidades de los discos formateados se establecen en términos de kilobytes

Page 47: Informacion de pagina web

binarios (1 sector suele tener 512 bytes). Sin embargo, los tamaños recientes de los discos se suelen denominar en extrañas unidades híbridas; es decir, un disco de "1,44 megabytes" tiene en realidad 1.44×1000×1024 bytes, y no 1.44×1024×1024 bytes, ni 1.44×1000×1000.

Secuencia histórica de los formatos de disquetes, incluyendo el último formato popular adoptado — el disquete HD de "1.44 MB" 3½-pulgadas, introducido en 1987.

Formato del disquete Año de introducción

Capacidad de almacenamiento

(en kilobytes si no está indicado)

Capacidadcomercializada¹

8-pulgadas IBM 23FD (sólo lectura) 1971 79,7 ?

8-pulgadas Memorex 650 1972 183,1 150 kB8-pulgadas IBM 33FD / Shugart 901 1973 256 256 kB

8-pulgadas IBM 43FD / Shugart 850 DD 1976 500 0,5 MB

5¼-pulgadas (35 pistas) 1976 89,6 110 kB8-pulgadas de dos caras 1977 1200 1,2 MB5¼-pulgadas DD 1978 360 360 kB3½-pulgadasHP de una cara 1982 280 264 kB

3-pulgadas 1982 360 ←3½-pulgadas (puesta a la venta DD) 1984 720 720 kB

5¼-pulgadas QD 1984 1200 1,2 MB3-pulgadas DD 1984 720 ←3-pulgadasMitsumi Quick Disk 1985 128 a 256 ←

2-pulgadas 1985 720 ←5¼-pulgadas Perpendicular 1986 100 MiB ←

3½-pulgadas HD 1987 1440 1,44 MB3½-pulgadas ED 1990 2880 2,88 MB3½-pulgadas LS-120 1996 120,375 MiB 120 MB3½-pulgadas LS-240 1997 240,75 MiB 240 MB3½-pulgadas HiFD 1998/99 150/200 MiB 150/200 MBAcrónimos:  DD = Doble Densidad; QD = Cuadruple Densidad; HD = Alta densidad ED =

Densidad Extendida; LS = Servo Laser; HiFD = Disquete de alta capacidad¹Las capacidades comercializadas de los disquetes correspondían frecuentemente solo vagamente a su verdadera capacidad de almacenamiento; el valor 1.44 MB de los disquetes de 3½-pulgadas HD es muy conocido.Fechas y capacidades marcadas con ? son de origen desconocido y necesitan fuentes; otras capacidades listadas referidas a:

Page 48: Informacion de pagina web

Para 8-pulgadas: Formato estandard de IBM usado en el ordenador central System/370 y sistemas más nuevos

Para 5¼- y 3½-pulgadas: Formato estandard de PC, capacidades cuadriplicadas, son el tamaño total de todos los sectores del disquete e incluyen espacio para el sector boot del sistema de archivos

Otros formatos podrían conseguir más o menos capacidad de los mismos lectores y discos.

Lector de tarjetasA lector de tarjetas de memoria es un dispositivo usado para la comunicación con a tarjeta elegante o un flash tarjeta de memoria. A lector de la tarjeta de visita es un

Page 49: Informacion de pagina web

dispositivo de exploración usado para explorar y para ahorrar electrónicamente tarjetas de visita. A lector de la tarjeta magnética es un dispositivo usado para explorar las tarjetas que contienen tiras magnéticas de los datos. A lector de tarjetas perforado es un dispositivo usado para leer los agujeros en tarjetas perforadas de la cartulina.

Contenido 1 Lectores de tarjetas elegantes 2 Lectores de tarjetas de memoria 3 Lector de tarjetas de control de acceso 4 Vea también

Lectores de tarjetas elegantesVea también: Tarjeta elegante del contacto y Tarjeta elegante sin contacto.

Un lector de tarjetas elegante es un dispositivo electrónico que lee tarjetas elegantes. Algunos teclados tenga un lector de tarjetas incorporado. Hay dispositivos e interno externos conduzca la bahía dispositivos del lector de tarjetas para PC. Algunas computadoras portátiles tienen lector de tarjetas elegante incorporado.

Algunos tienen un soporte lógico inalterable aumentable de destello. El lector de tarjetas provee el circuito integrado en la tarjeta elegante de electricidad. La comunicación se hace vía protocolos y usted puede leer y escribir a una dirección fija en la tarjeta.

Protocolos de comunicaciónNombre DescripciónT=0 Protocolo half-duplex asincrónico de la transmisión del octeto-nivel.T=1 Protocolo half-duplex asincrónico de la transmisión del bloquear-nivel.T=2 Reservado para las operaciones full-duplex futuras.T=3 Reservado para las operaciones full-duplex futuras.T=CL Transmisión de APDU vía interfaz sin contacto ISO 14443.

Si la tarjeta no está utilizando cualquier protocolo estándar de la transmisión, pero utiliza un protocolo de encargo/propietario que tiene la designación T=14 del protocolo de comunicación.

Con lo más tarde posible PC/SC Las especificaciones de CCID el Workgroup de PC/SC (www.pcscworkgroup.com) han definido una nueva manera del marco elegante de la tarjeta. Trabaja con los dispositivos del USB con la clase específica 0x0B. Los lectores con esta clase no necesitan drivers de dispositivo porque el fabricante del sistema operativo la provee por defecto.

Page 50: Informacion de pagina web

PKCS#11 es un API, diseñado para ser independiente de la plataforma, definiendo un interfaz genérico al símbolo criptográfico, tal como tarjetas elegantes.

Lectores de tarjetas de memoriaUn lector de tarjetas de memoria es un dispositivo, típicamente teniendo a USB interconecte, para tener acceso a los datos sobre a tarjeta de memoria por ejemplo a CompactFlash (CF), Asegure Digital (SD) o MultiMediaCard (MMC). La mayoría de los lectores de tarjetas también ofrecen escriben capacidad, y junto con la tarjeta, ésta puede funcionar como a impulsión de la pluma.

Algunos impresoras tenga un lector de tarjetas incorporado.

Los lectores de tarjetas pueden ser categorizados hoy en tres por el tipo y la cantidad de las ranuras de tarjeta: solo lector de tarjetas (e.g. 1x SD-solamente), multi lector de tarjetas (e.g. 9 in-1) y lector de tarjetas de la serie (e.g. 4x SD solamente). Sin embargo, hay algunas clases de tarjetas de memoria con las funciones del USB que no necesitan a lector de tarjetas, tal como Palillo inteligente tarjeta de memoria, que puede tapar directamente en una ranura del USB.

La clase de dispositivo del USB usada es 0x08.

Lector de tarjetas de control de accesoControl de acceso utilizan a los lectores de tarjetas adentro seguridad física sistemas para leer a credencial que permite el acceso a través de puntos de control de acceso, típicamente una puerta bloqueada. Un lector del control de acceso puede ser a raya magnética lector, a clave de barras lector, lector de la proximidad, a tarjeta elegante lector, o a biométrico lector.

Vea también Control de acceso Credencial Tarjeta de memoria Seguridad física Tarjeta perforada Equipo del expediente de unidad

Qué es un lector de tarjetas de memoria.

QUE ES UN LECTOR DE TARJETAS DE MEMORIA.

Page 51: Informacion de pagina web

Un lector de tarjetas de memoria es un dispositivo que se utiliza para leer y pasar los datos de una memoria del tipo Flash (SD, MMC, SM, etc.) al ordenador.

Estos dispositivos pueden ser tanto internos (como el que se muestra en la imagen) como externos. En ocasiones incorporan además de los lectores de tarjetas puertos USB o FireWire, habiéndolos que incorporan más conectores.

Los lectores de tarjetas se conectan a puertos USB, ya sean internos o externos.

Hay unas variantes de estos lectores que son de tipo portable y solo suelen admitir un tipo de tarjetas, como el que vemos en la imagen inferior.

Existen también lectores de tarjetas específicos para leer las tarjetas SIM de los teléfonos móviles.

Page 52: Informacion de pagina web
Page 53: Informacion de pagina web

La fuente de poder, fuente de alimentación o fuente de energía es el dispositivo que provee la electricidad con que se alimenta una computadora u ordenador. Por lo general, en las computadoras de escritorio (PC), la fuente de poder se ubica en la parte de atrás del gabinete, junto a un ventilador que evita su recalentamiento.

La fuente de poder es una fuente eléctrica, un artefacto activo que puede proporcionar corriente eléctrica gracias a la generación de una diferencia de potencial entre sus bornes. Se diseña a partir de una fuente ideal, que es un concepto utilizado en la teoría de circuitos para analizar el comportamiento de los componentes electrónicos y los circuitos reales.

La fuente de alimentación se encarga de convertir la tensión alterna de la red industrial en una tensión casi continua. Para esto consta de un rectificador, fusibles y otros componentes que le permiten recibir la electricidad, regularla, filtrarla y adaptarla a las necesidades de la computadora.

Es importante cuidar la limpieza de la fuente de poder; de lo contrario, puede acumular polvo que obstruya la salida de aire. Al aumentar la temperatura, la fuente puede recalentarse y quemarse, dejando de funcionar. Una falla en la fuente de poder incluso puede perjudicar a otros componentes de la computadora, como la placa madre o la placa de video.

Por otra parte, Fuente de Poder es un ministerio evangelista fundado en octubre de 2000. Su templo se encuentra en la ciudad estadounidense de Brownsville, en el estado de Texas.

Page 54: Informacion de pagina web

El gabinete es una caja metálica y de plástico, horizontal o vertical (en este último caso, también es llamado torre o tower), en el que se encuentran todos los componentes de la computadora (placas, disco duro, procesador, etc ).

El gabinete posee una unidad de fuente eléctrica, que convierte la corriente eléctrica alterna en corriente continua para alimentar todos los componentes.

Así, la fuente de alimentación eléctrica debe tener una potencia adecuada para la cantidad de periféricos que se pretende instalar en el equipo. Mientras más componentes se desee instalar más potencia será necesaria.

Dentro del gabinete son instaladas las placas, que son grupos de circuitos electrónicos que sirven para comandar la computadora y sus periféricos. Las principales placas ya vienen instaladas cuando se compra la computadora, pero otras pueden ser instaladas, para mejorar la performance, tales como una placa aceleradora de vídeo o una placa de sonido

Dentro del gabinete son colocados:

Fuente Mainboard (Placa madre) Procesador Placa de Vídeo Placa de Sonido Placa de Red Drives internos (Drive de CD, Drive de DVD, Lectores de Memoria) Memoria Disco duro (HD)

Los gabinetes pueden ser comprados con o sin fuente.

A muchos les gusta hacer alteraciones en el gabinete, lo que es conocido como Case Modding.

Page 55: Informacion de pagina web

Teclado (informática)De Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda Para otros usos de este término, véase Teclado.

En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquina de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 108 teclas aproximadamente, y está dividido en cuatro bloques:

1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa.

2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales.

3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePag, AvPag, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones.

4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitacion de cifras. Además contiene los signos de las cuatro operaciones básicas: suma +, resta -, multiplicación * y division /; también contiene una tecla de Intro o Enter.

Teclado de un terminal CT-1024

Page 57: Informacion de pagina web

1 Historia o 1.1 Disposición de las teclas o 1.2 Primeros teclados o 1.3 Generación 16 bits o 1.4 Teclados con USB

2 Teclas inertes 3 Tipos de teclado 4 Estructura 5 Disposición del teclado 6 Clasificación de teclados de computadoras 7 Accesos directos en el teclado 8 Véase también 9 Fuentes y referencias 10 Enlaces externos

[editar] Historia

[editar] Disposición de las teclas

La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia[cita requerida].

Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la francesa AZERTY y la alemana QWERTY. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo (´), grave (`) y circunflejo (^)), además de la cedilla (Ç) aunque estos caracteres son de mayor uso en francés, portugués o en catalán.

Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge.

Page 58: Informacion de pagina web

Teclado QWERTY de 102 teclas con distribución Inglés de Estados Unidos

[editar] Primeros teclados

Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los primeros teclados solían ser un terminal de computadora que se comunicaba por puerto serial con la computadora. Además de las normas de teletipo, se designó un estándar de comunicación serie, segun el tiempo de uso basado en el juego de caracteres ANSI, que hoy sigue presente en las comunicaciones por módem y con impresora (las primeras computadoras carecían de monitor, por lo que solían comunicarse, o bien por luces en su panel de control, o bien enviando la respuesta a un dispositivo de impresión). Se usaba para ellos las secuencias de escape, que se generaban o bien por teclas dedicadas, o bien por combinaciones de teclas, siendo una de las más usadas la tecla Control.

La llegada de la computadora doméstica trae una inmensa variedad de teclados y de tecnologías y calidades (desde los muy reputados por duraderos del Dragon 32 a la fragilidad de las membranas de los equipos Sinclair), aunque la mayoría de equipos incorporan la placa madre bajo el teclado, y es la CPU o un circuito auxiliar (como el chip de sonido General Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son casos contados los que recurren o soportan comunicación serial (curiosamente es la tecnología utilizada en el Sinclair Spectrum 128 para el keypad numérico). Sólo los MSX establecerán una norma sobre el teclado, y los diferentes clones del TRS-80 seguirán el diseño del clonado.

[editar] Generación 16 bits

Mientras que el teclado del IBM PC y la primera versión del IBM AT no tuvo influencia más allá de los clónicos PC, el Multifunción II (o teclado extendido AT de 101/102 teclas) aparecido en 1987 refleja y estandariza de facto el teclado moderno con cuatro bloques diferenciados : un bloque alfanumérico con al menos una tecla a cada lado de la barra espaciadora para acceder a símbolos adicionales; sobre él una hilera de 10 o 12 teclas de función; a la derecha un teclado numérico, y entre ambos grandes bloques, las teclas de cursor y sobre ellas varias teclas de edición. Con algunas variantes este será el esquema usado por los Atari ST, los Commodore Amiga (desde el Commodore Amiga 500), los Sharp X68000, las estaciones de trabajo SUN y Silicon Graphics y los Acorn

Page 59: Informacion de pagina web

Archimedes/Acorn RISC PC. Sólo los Mac siguen con el esquema bloque alfanumérico + bloque numérico, pero también producen teclados extendidos AT, sobre todo para los modelos con emulación PC por hardware.

Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso la fama de "indestructibles", pues tras más de 10 años de uso continuo en entornos como las aseguradoras o la administración pública seguían funcionando como el primer día. [cita requerida]

Con la aparición del conector PS/2, varios fabricantes de equipos no PC proceden a incorporarlo en sus equipos. Microsoft, además de hacerse un hueco en la gama de calidad alta, y de presentar avances ergonómicos como el Microsoft Natural Keyboard, añade 3 nuevas teclas tras del lanzamiento de Windows 95. A la vez se generalizan los teclados multimedia que añaden teclas para controlar en el PC el volumen, el lector de CD-ROM o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla sensible al tacto o bola trazadora.

[editar] Teclados con USB

Aunque los teclados USB comienzan a verse al poco de definirse el estándar USB, es con la aparición del Apple iMac, que trae tanto teclado como mouse USB de serie cuando se estandariza el soporte de este tipo de teclado. Además tiene la ventaja de hacerlo independiente del hardware al que se conecta. El estándar define scancodes de 16 bits que se transmiten por la interfaz. Del 0 al 3 son códigos de error del protocolo, llamados NoEvent, ErrorRollOver, POSTFail, ErrorUndefined, respectivamente. Del 224 al 231 se reservan para las teclas modificadoras (LCtrl, LShift, LAlt, LGUI, RCtrl, RShift, RAlt, RGUI)

Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes. El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de computadora y máquinas de escribir que se utilizan habitualmente en los países occidentales, con alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por la izquierda en la fila superior. El teclado en español o su variante latinoamericana son teclados QWERTY que se diferencian del inglés por presentar la letra "ñ" y "Ñ" en su distribución de teclas.Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado Simplificado Dvorak.

Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos: mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte superior izquierda de una tecla, se emplea la tecla mayúsculas, etiquetada como "↑". Para teclear un símbolo que se encuentra en la parte inferior derecha de una tecla, se emplea la tecla Alt-Gr.

[editar] Teclas inertes

Page 60: Informacion de pagina web

Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas inertes. Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al acento deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar la tecla del carácter a acentuar. Esta combinación de teclas requiere que se teclee una secuencia aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´ ) seguido de la letra A , obtendrá una "a" acentuada (á). Sin embargo, si se presiona una tecla inerte y a continuación la tecla T , no aparecerá nada en la pantalla o aparecerán los dos caracteres por separado (´t), a menos que la fuente particular para su idioma incluya la "t" acentuada.

Para teclear una marca de acento diacrítico, simplemente se presiona la tecla inerte del acento, seguida de la barra de espacio.

[editar] Tipos de tecladoHubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II.

El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y no eran muy ergonómicos, ahora está obsoleto.

Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un conector DIN de 5 pines.

En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus características son que usa el mismo interfaz que el AT, añade muchas teclas más, se ponen leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con 102.

Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo.

Hoy en día existen también los teclados en pantalla, también llamados teclados virtuales, que son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan con el ratón o con un dispositivo especial (podría ser un joystick). Estos teclados lo utilizan personas con discapacidades que les impiden utilizar adecuadamente un teclado fisico.

Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran diversidad de ellos.

[editar] Estructura

Page 61: Informacion de pagina web

Un teclado realiza sus funciones mediante un microcontrolador. Estos microcontroladores tienen un programa instalado para su funcionamiento, estos mismos programas son ejecutados y realizan la exploración matricial de las teclas cuando se presiona alguna, y así determinar cuales están pulsadas.

Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su carácter serigrafiado en la misma sino que se adjudica un valor numérico a cada una de ellas que sólo tiene que ver con su posición física.El teclado latinoamericano sólo da soporte con teclas directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la letra eñe y los signos de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una tecla de extensión de grafismos.Por lo demás el teclado latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos de la norma ASCII.

Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera. Si el microcontrolador nota que ha cesado la pulsación de la tecla, el nuevo código generado (Break Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son enviados al circuito microcontrolador donde serán tratados gracias al administrador de teclado, que no es más que un programa de la BIOS y que determina qué carácter le corresponde a la tecla pulsada comparándolo con una tabla de caracteres que hay en el kernel, generando una interrupción por hardware y enviando los datos al procesador. El microcontrolador también posee cierto espacio de memoria RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan leer a causa de la velocidad de tecleo del usuario. Hay que tener en cuenta, que cuando realizamos una pulsación se pueden producir rebotes que duplican la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que limpia la señal.

En los teclados AT los códigos generados son diferentes, por lo que por razones de compatibilidad es necesario traducirlos. De esta función se encarga el controlador de teclado que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC. Este controlador recibe el Código de Búsqueda del Teclado (Kscan Code) y genera el propiamente dicho Código de Búsqueda. La comunicación del teclado es vía serie. El protocolo de comunicación es bidireccional, por lo que el servidor puede enviarle comandos al teclado para configurarlo, reiniciarlo, diagnósticos, etc.

[editar] Disposición del tecladoArtículo principal: Distribución del teclado

La disposición del teclado es la distribución de las teclas del teclado de una computadora, una máquina de escribir u otro dispositivo similar.

Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes. El teclado estándar en español corresponde al diseño llamado QWERTY. Una variación de

Page 62: Informacion de pagina web

este mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se han desarrollado teclados que pretenden ser más cómodos que el QWERTY, por ejemplo el Teclado Dvorak.

Las computadoras modernas permiten utilizar las distribuciones de teclado de varios idiomas distintos en un teclado que físicamente corresponde a un solo idioma. En el sistema operativo Windows, por ejemplo, pueden instalarse distribuciones adicionales desde el Panel de Control.

Existen programas como Microsoft Keyboard Layout Creator[1] y KbdEdit,[2] que hacen muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades particulares de un usuario, ya para resolver problemas que afectan a todo un grupo lingüístico. Estas distribuciones pueden ser modificaciones a otras previamente existentes (como el teclado latinoamericano extendido[3] o el gaélico[4] ), o pueden ser enteramente nuevas (como la distribución para el Alfabeto Fonético Internacional,[5] o el panibérico[6] ).

A primera vista en un teclado podemos notar una división de teclas, tanto por la diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para distinguirse de las demás por ser teclas especiales (borrado, teclas de función, tabulación, tecla del sistema…). Si nos fijamos en su distribución vemos que están agrupadas en cuatro grupos:

Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras teclas, nos proporcionan acceso directo a algunas funciones del programa en ejecución.

Teclas de edición: sirven para mover el cursor por la pantalla. Teclas alfanuméricas: son las más usadas. Su distribución suele ser la de los

teclados QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este nombre por ser la primera fila de teclas, y su orden es debido a que cuando estaban organizadas alfabéticamente la máquina tendía a engancharse, y a base de probar combinaciones llegaron a la conclusión de que así es como menos problemas daban. A pesar de todo esto, se ha comprobado que hay una distribución mucho más cómoda y sencilla, llamada Dvorak, pero en desuso debido sobre todo a la incompatibilidad con la mayoría de los programas que usamos.

Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema decimal y los símbolos de algunas operaciones aritméticas. Añade también la tecla especial Bloq Num, que sirve para cambiar el valor de algunas teclas para pasar de valor numérico a desplazamiento de cursor en la pantalla. el teclado numérico también es similar al de un calculadora cuenta con las 4 operaciones básicas que son + (suma), - (resta), * (multiplicación) y / (división).

[editar] Clasificación de teclados de computadorasEn el mercado hay una gran variedad de teclados. Según su forma física:

Page 63: Informacion de pagina web

Teclado XT de 83 teclas: se usaba en el PC XT (8086/88). Teclado AT de 83 teclas: usado con los PC AT (286/386). Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor número de

teclas. Teclado Windows de 103/104 teclas: el teclado anterior con 3 teclas adicionales

para uso en Windows. Teclado ergonómico: diseñados para dar una mayor comodidad para el usuario,

ayudándole a tener una posición más relajada de los brazos. Teclado multimedia: añade teclas especiales que llaman a algunos programas en el

computador, a modo de acceso directo, como pueden ser el programa de correo electrónico, la calculadora, el reproductor multimedia…

Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o mediante bluetooth.

Teclado flexible: Estos teclados son de plástico suave o silicona que se puede doblar sobre sí mismo. Durante su uso, estos teclados pueden adaptarse a superficies irregulares, y son más resistentes a los líquidos que los teclados estándar. Estos también pueden ser conectados a dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser completamente sumergidos en agua, por lo que hospitales y laboratorios los usan, ya que pueden ser desinfectados.[7]

Según la tecnología de sus teclas se pueden clasificar como teclados de cúpula de goma, teclados de membrana: teclados capacitativos y teclados de contacto metálico.

[editar] Accesos directos en el tecladoArtículo principal: Anexo:Accesos directos en el teclado

[editar] Véase también Teclado QWERTY Teclado Dvorak Teclado AZERTY Teclado QWERTZ Teclado Colemak Teclado tipo chiclet PC 99 Teclado braille

Monitor de computadora

Page 64: Informacion de pagina web

De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Monitor LCD.

El monitor de computadora o pantalla de ordenador, aunque también es común llamarlo «pantalla», es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora.

Contenido[ocultar]

1 Historia 2 Tecnologías

o 2.1 Monitores analógicos o 2.2 Combinación digital y analógica o 2.3 Monitores digitales

2.3.1 Protección de datos 2.3.1.1 HDCP 2.3.1.2 DPCP

3 Parámetros de una pantalla o 3.1 Tamaño de la pantalla y ratio

3.1.1 Medición del tamaño de la pantalla o 3.2 Resolución máxima o 3.3 Colores

4 Ventajas y desventajas o 4.1 Monitores LCD o 4.2 Monitores CRT o 4.3 Datos técnicos, comparativos entre sí

5 Principales fabricantes

Page 65: Informacion de pagina web

6 Véase también 7 Referencias 8 Enlaces externos

[editar] HistoriaLos primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome Display Adapter) eran monitores monocromáticos (de un solo color) de IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics Adapter-graficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por comprar el monitor monocromático por su costo.

Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de graficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array - graficos de video arreglados) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.

Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían estando en la mayoría de hogares donde había un ordenador.

[editar] Tecnologías

[editar] Monitores analógicos

Los monitores CRT usan las señales de vídeo analógico roja, verde y azul en intensidades variables para generar colores en el espacio de color RGB. Éstos han usado prácticamente de forma exclusiva escaneo progresivo desde mediados de la década de los 80.

Mientras muchos de los primeros monitores de plasma y cristal líquido tenían exclusivamente conexiones analógicas, todas las señales de estos monitores atraviesan una sección completamente digital antes de la visualización.

Los estándares más conocidos de vídeo analógico son VGA,SVGA éste último desarrollado Video Electronics Standards Association (VESA), soportan resoluciones de 800x600 píxeles y 24 bits de profundidad de color siguiendo la codificación RGB, siguiendo la especificación VESA cuyo estándar es abierto.

Page 66: Informacion de pagina web

Mientras que conectores similares (13W3, BNC, etc…) se fueron usando en otras plataformas, el IBM PC y los sistemas compatibles se estandarizaron en el conector VGA.

Todos estos estándares fueron diseñados para dispositivos CRT (tubo de rayos catódicos o tubo catódico). La fuente varía su tensión de salida con cada línea que emite para representar el brillo deseado. En una pantalla CRT, esto se usa para asignar al rayo la intensidad adecuada mientras éste se va desplazando por la pantalla.

[editar] Combinación digital y analógica

Los primeros conectores de monitor externos y digitales popularizados, como el DVI-I y los varios conectores breakout basados en él, incluían las señales analógicas compatibles con VGA y las señales digitales compatibles con los nuevos monitores de pantalla plana en el mismo conector.

Los monitores LCD normalmente soportan DVI-I cuya especificación sostiene que debe soportar la especificación VGA de VESA y es por ello que siendo una tecnología digital, tiene soporte para VGA (analógico) y por lo tanto se clasifica como combinación. Actualmente se venden LCD analógicos con VGA, o con soporte para DVI-D o con soporte para ambos y además para HDMI conforme soportan más cosas, también son más caros por cuestiones de licencias.

[editar] Monitores digitales

Los nuevos conectores que se han creado tienen sólo señal de vídeo digital. Varios de ellos, como los HDMI y DisplayPort, también ofrecen audio integrado y conexiones de datos.

Las señales digitales de DVI-I son compatibles con HDMI, actualmente se usan para señales de vídeo de alta definición.

[editar] Protección de datos

[editar] HDCP

Actualmente existe un estándar de protección de datos para señales digitales que atraviesan conexiones DVI, HDMI o Display Port su nombre es HDCP (del inglés High-Bandwidth Digital Content Protection, protección de contenido digital de gran ancho de banda), fue desarrollado para la codificación de los datos que atraviesan cables DVI o HDMI, se trata de un estándar propietario y se requiere licencia para implementarlo. Con nuevas versiones de HDCP se añaden soporte para más interfaces de conexión.

[editar] DPCP

La protección contra copia DPCP (DisplayPort Content Protection) de AMD está disponible de forma opcional para conexiones DisplayPort, usa cifrado AES de 128-bit, con modernos cifrados criptográficos.

Page 67: Informacion de pagina web

[editar] Parámetros de una pantalla Píxel : unidad mínima representable en un monitor. Los monitores pueden presentar

píxeles muertos o atascados. Tamaño de punto o (dot pitch): el tamaño de punto es el espacio entre dos fósforos

coloreados de un píxel. Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. Los tamaños de punto más pequeños producen imágenes más uniformes. un monitor de 14 pulgadas suele tener un tamaño de punto de 0,28 mm o menos. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones. En LCD y en CRT de apertura de rejilla, es la distancia en horizontal, mientras que en los CRT de máscara de sombra, se mide casi en diagonal. Lo mínimo exigible en este momento es que sea de 0,28mm. Para CAD o en general para diseño, lo ideal sería de 0,25mm o menor. 0,21 en máscara de sombra es el equivalente a 0.24 en apertura de rejilla.

Área útil: el tamaño de la pantalla no coincide con el área real que se utiliza para representar los datos.

Ángulo de visión: es el máximo ángulo con el que puede verse el monitor sin que se degrade demasiado la imagen. Se mide en grados.

Luminancia: es la medida de luminosidad, medida en Candela. Tiempo de respuesta: también conocido como latencia. Es el tiempo que le cuesta a un

píxel pasar de activo (blanco) a inactivo (negro) y después a activo de nuevo. Contraste: es la proporción de brillo entre un píxel negro a un píxel blanco que el monitor

es capaz de reproducir. Algo así como cuantos tonos de brillo tiene el monitor. Coeficiente de Contraste de Imagen: se refiere a lo vivo que resultan los colores por la

proporción de brillo empleada. A mayor coeficiente, mayor es la intensidad de los colores (30000:1 mostraría un colorido menos vivo que 50000:1).

Consumo: cantidad de energía consumida por el monitor, se mide en Vatio. Ancho de banda: frecuencia máxima que es capaz de soportar el monitor. Hz o frecuencia de refresco vertical: son 2 valores entre los cuales el monitor es capaz de

mostrar imágenes estables en la pantalla. Hz o frecuencia de refresco horizontal : similar al anterior pero en sentido horizontal, para

dibujar cada una de las líneas de la pantalla. Blindaje: un monitor puede o no estar blindando ante interferencias eléctricas externas y

ser más o menos sensible a ellas, por lo que en caso de estar blindando, o semi-blindado por la parte trasera llevara cubriendo prácticamente la totalidad del tubo una plancha metálica en contacto con tierra o masa.

Tipo de monitor: en los CRT pueden existir 2 tipos, de apertura de rejilla o de máscara de sombra.

Líneas de tensión: son unas líneas horizontales, que tienen los monitores de apertura de rejilla para mantener las líneas que permiten mostrar los colores perfectamente alineadas; en 19 pulgadas lo habitual suelen ser 2, aunque también los hay con 3 líneas, algunos monitores pequeños incluso tienen una sola.

[editar] Tamaño de la pantalla y ratio

Page 68: Informacion de pagina web

Medida de tamaño de la pantalla para TFT.

El tamaño de la pantalla es la distancia en diagonal de un vértice de la pantalla al opuesto, que puede ser distinto del área visible cuando hablamos de CRT , mientras que el ratio o relación de aspecto es una medida de proporción entre el ancho y el alto de la pantalla, así por ejemplo un ratio de 4:3 ( Cuatro tercios ) significa que por cada 4 píxeles de ancho tenemos 3 de alto, una resolución de 800x600 tiene una relación de aspecto 4:3, sin embargo estamos hablando del ratio del monitor.

Estas dos medidas describen el tamaño de lo que se muestra por la pantalla, históricamente hasta no hace mucho tiempo y al igual que las televisiones los monitores de ordenador tenían un ratio de 4:3. Posteriormente se desarrollaron estándares para pantallas de aspecto panorámico 16:9 (a veces también de 16:10 o 15:9) que hasta entonces solo veíamos en el cine.

[editar] Medición del tamaño de la pantalla

Las medidas de tamaño de pantalla son diferentes cuando se habla de monitores CRT y monitores LCD .

Para monitores CRT la medida en pulgadas de la pantalla toma como referencia los extremos del monitor teniendo en cuenta el borde, mientras que el área visible es más pequeña.

Para monitores LCD la medida de tamaño de pantalla se hace de punta a punta de la pantalla sin contar los bordes (Como se hace para los monitores CRT)

Los tamaños comunes de pantalla suelen ser de 15, 17, 19, 21 pulgadas. La correspondencia entre las pulgadas de CRT y LCD en cuanto a zona visible se refiere, suele ser de una escala inferior para los CRT , es decir una pantalla LCD de 17 pulgadas equivale en zona visible a una pantalla de 19 pulgadas del monitor CRT (aproximadamente) .

[editar] Resolución máxima

Page 69: Informacion de pagina web

Comparación de resoluciones de vídeo.

Artículo principal: Resolución de pantalla

Es el número máximo de píxeles que pueden ser mostrados en cada dimensión, es representada en filas por columnas. Está relacionada con el tamaño de la pantalla y el ratio.

Los monitores LCD solo tienen una resolución nativa posible, por lo que si se hacen trabajar a una resolución distinta, se escalará a la resolución nativa, lo que suele producir artefactos en la imagen.

Las resoluciones más Usadas son:

Estándar Nombre Ancho Alto % de usuarios de Steam

XGA eXtended Graphics Array 1024 768 15,37%

WXGA Widescreen eXtended Graphics Array 1280 800 7,35%

SXGA Super eXtended Graphics Array 1280 1024 21,01%

WSXGA Widescreen Super eXtended Graphics Array 1440 900 11,12%

WSXGA+Widescreen Super eXtended Graphics Array Plus

1680 1050 18,48%

Noviembre de 2009, encuesta del hardware usado en equipos con Steam instalado [1]

[editar] Colores

Page 70: Informacion de pagina web

Geometría de los píxeles.

Cada píxel de la pantalla tiene interiormente 3 subpíxeles, uno rojo, uno verde y otro azul; dependiendo del brillo de cada uno de los subpíxeles, el píxel adquiere un color u otro de forma semejante a la composición de colores RGB.

La manera de organizar los subpíxeles de un monitor varia entre los dispositivos. Se suelen organizar en líneas verticales, aunque algunos CRT los organizan en puntos formando triángulos. Para mejorar la sensación de movimiento, es mejor organizarlos en diagonal o en triángulos. El conocimiento del tipo de organización de píxeles, puede ser utilizado para mejorar la visualización de imágenes de mapas de bit usando renderizado de subpíxels.

La mayor parte de los monitores tienen una profundidad 8 bits por color (24 bits en total), es decir, pueden representar aproximadamente 16,8 millones de colores distintos.

[editar] Ventajas y desventajas

[editar] Monitores LCD

Ventajas: o El grosor es inferior por lo que pueden utilizarse en portátiles.o Cada punto se encarga de dejar o no pasar la luz, por lo que no hay moire.o La geometría es siempre perfecta, lo determina el tamaño del píxel

Desventajas: o Sólo pueden reproducir fielmente la resolución nativa, con el resto, se ve un borde

negro, o se ve difuminado por no poder reproducir medios píxeles.o Por sí solas no producen luz, necesitan una fuente externa.o Si no se mira dentro del cono de visibilidad adecuado, desvirtúan los colores.o El ADC y el DAC de un monitor LCD para reproducir colores limita la cantidad de

colores representable.

Page 71: Informacion de pagina web

El ADC (Convertidor Digital a Analógico) en la entrada de vídeo analógica (cantidad de colores a representar).

El DAC (Convertidor Analógico a Digital) dentro de cada píxel (cantidad de posibles colores representables).

En los CRT es la tarjeta gráfica la encargada de realizar esto, el monitor no influye en la cantidad de colores representables, salvo en los primeros modelos de monitores que tenían entradas digitales TTL en lugar de entradas analógicas.

[editar] Monitores CRT

Ventajas: o Permiten reproducir una mayor variedad cromática.o Distintas resoluciones se pueden ajustar al monitor.o En los monitores de apertura de rejilla no hay moire vertical.

Desventajas: o Ocupan más espacio (cuanto más fondo, mejor geometría).o Los modelos antiguos tienen la pantalla curva.o Los campos eléctricos afectan al monitor (la imagen vibra).o Para disfrutar de una buena imagen necesitan ajustes por parte del usuario.o En los monitores de apertura de rejilla se pueden apreciar (bajo fondo blanco)

varias líneas de tensión muy finas que cruzan la pantalla horizontalmente.

[editar] Datos técnicos, comparativos entre sí

En los CRT, la frecuencia de refresco es la que tiene la tarjeta gráfica, en los LCD no siempre es la que se le manda

Los CRT pueden tener modo progresivo y entrelazado, los LCD tienen otro método de representación.

En los CRT se pierde aproximadamente 1 pulgada del tamaño, que se utiliza para la sujeción del tubo, en los CRT es prácticamente lo que ocupa el LCD.

El peso de un LCD se ve incrementado por la peana para darle estabilidad, pero el monitor en sí no pesa prácticamente nada.

Los LCD suelen necesitar de un transformador externo al monitor, en los CRT toda la electrónica va dentro del monitor.

En los LCD el consumo es menor, y la tensión de utilización por parte de la electrónica también.

En los CRT pueden aparecer problemas de "quemar" el fósforo de la pantalla, esto ocurre al dejar una imagen fija durante mucho tiempo, como la palabra "insert coin" en las recreativas, en los LCD los problemas pueden ser de píxeles muertos (siempre encendido o, siempre apagado), aparte de otros daños.

El parpadeo de ambos tipos de pantallas es debido a la baja frecuencia de refresco, unido a la persistencia del brillo del fósforo, y a la memoria de cada píxel en un CRT y LCD respectivamente, que mitigan este defecto.

o Con alta velocidad de refresco y un tiempo grande de persistencia del fósforo, no hay parpadeo, pero si la persistencia del fósforo es baja y el refresco es bajo, se

Page 72: Informacion de pagina web

produce este problema. Sin embargo esto puede causar un efecto de desvanecimiento o visión borrosa, al permanecer aún encendido un punto, en el siguiente refresco de la pantalla.

[editar] Principales fabricantesLos principales fabricantes de monitores conocidos a nivel internacional son los siguientes:

Acer Aoc Apple Inc. BenQ Dell Eizo Gateway, Inc. Hewlett-Packard LG NEC Corporation Samsung Sony Panavox Toshiba

Ratón (informática)De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Page 73: Informacion de pagina web

Ratón con cable y rueda.

Ratón para videojugadores.

«Mouse» redirige aquí. Para otras acepciones, véase Mouse (desambiguación).

El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador usado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.

Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.

Contenido

Page 74: Informacion de pagina web

[ocultar]

1 El nombre 2 Hoy en día 3 Historia

o 3.1 La primera maqueta o 3.2 Presentación o 3.3 El éxito de Apple

4 Funcionamiento 5 Tipos o modelos

o 5.1 Por mecanismo 5.1.1 Mecánicos 5.1.2 Ópticos 5.1.3 Láser 5.1.4 Trackball

o 5.2 Por conexión 5.2.1 Por cable 5.2.2 Inalámbrico

6 El controlador 7 Uno, dos o tres botones 8 Problemas frecuentes 9 Véase también 10 Referencias 11 Enlaces externos

[editar] El nombre

La forma del dispositivo originó su nombre.

Aunque cuando se patentó recibió el nombre de «X-Y Position Indicator for a Display System» (Indicador de posición X-Y para un sistema con pantalla), el más usado nombre de ratón (mouse en inglés) se lo dio el equipo de la Universidad de Stanford durante su desarrollo, ya que su forma y su cola (cable) recuerdan a un ratón.

Page 75: Informacion de pagina web

En América predomina el término inglés mouse (plural mouses y no mice[1] ) mientras que en España se utiliza prácticamente de manera exclusiva el calco semántico «ratón». El Diccionario panhispánico de dudas recoge ambos términos, aunque considera que, como existe el calco semántico, el anglicismo es innecesario.[2] El DRAE únicamente acepta la entrada ratón para este dispositivo informático, pero indica que es un españolismo.[3]

[editar] Hoy en díaHabitualmente se compone de al menos dos botones y otros dispositivos opcionales como una «rueda», más otros botones secundarios o de distintas tecnologías como sensores del movimiento que pueden mejorar o hacer más cómodo su uso.

Se suele presentar para manejarse con ambas manos por igual, pero algunos fabricantes también ofrecen modelos únicamente para usuarios diestros o zurdos. Los sistemas operativos pueden también facilitar su manejo a todo tipo de personas, generalmente invirtiendo la función de los botones.

En los primeros años de la informática, el teclado era casi siempre la forma más popular como dispositivo para la entrada de datos o control de la computadora. La aparición y éxito del ratón, además de la posterior evolución de los sistemas operativos, logró facilitar y mejorar la comodidad, aunque no relegó el papel primordial del teclado. Aún hoy en día, pueden compartir algunas funciones dejando al usuario que escoja la opción más conveniente a sus gustos o tareas.

[editar] HistoriaFue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario.

[editar] La primera maqueta

Page 76: Informacion de pagina web

Copia del primer prototipo.

La primera maqueta se construyó de manera artesanal de madera, y se patentó con el nombre de "X-Y Position Indicator for a Display System".

A pesar de su aspecto arcaico, su funcionamiento básico sigue siendo igual hoy en día. Tenía un aspecto de adoquín, encajaba bien en la mano y disponía de dos ruedas metálicas que, al desplazarse por la superficie, movían dos ejes: uno para controlar el movimiento vertical del cursor en pantalla y el otro para el sentido horizontal, contando además con un botón rojo en su parte superior.

Por primera vez se lograba un intermediario directo entre una persona y la computadora, era algo que, a diferencia del teclado, cualquiera podía aprender a manejar sin apenas conocimientos previos. En esa época además la informática todavía estaba en una etapa primitiva: ejecutar un simple cálculo necesitaba de instrucciones escritas en un lenguaje de programación.

[editar] Presentación

Page 77: Informacion de pagina web

¿Cómo se captura el movimiento de un ratón mecánico estándar?1: Al arrastrarlo sobre la superficie gira la bola,2: ésta a su vez mueve los rodillos ortogonales,3: éstos están unidos a unos discos de codificación óptica, opacos pero perforados,4: dependiendo de su posición pueden dejar pasar o interrumpir señales infrarrojas de un diodo LED.5: Estos pulsos ópticos son captados por sensores que obtienen así unas señales digitales de la velocidad vertical y horizontal actual para trasmitirse finalmente a la computadora.

En San Francisco, a finales de 1968 se presentó públicamente el primer modelo oficial. Durante hora y media además se mostró una presentación multimedia de un sistema informático interconectado en red y también por primera vez se daba a conocer un entorno gráfico con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas operativos modernos. En ese momento además, se exhibió hipermedia, un mecanismo para navegar por Internet y usar videoconferencia.

Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde 1951 había empezado a desarrollar las posibilidades de conectar computadoras en redes, cuando apenas existían varias docenas y bastante primitivas, entre otras ideas como el propio correo electrónico, del que sería su primer usuario. Pensó que la informática podía usarse para mucho más que cálculos matemáticos, y el ratón formaba parte de este ambicioso proyecto, que pretendía aumentar la inteligencia colectiva fundando el Augmentation Research Center (Centro para la investigación del incremento) en la Universidad de Stanford.

Y pese a las esperanzas iniciales de Engelbart de que fuera la punta del iceberg para un desarrollo de distintos componentes informáticos similares, una década después era algo único, revolucionario, que todavía no había cobrado popularidad. De hecho varios de los conceptos e ideas surgidos aún hoy en día han conseguido éxito. Engelbart tampoco logró una gran fortuna, la patente adjudicaba todos los derechos a la Universidad de Stanford y él recibió un cheque de unos 10000 dólares.

[editar] El éxito de Apple

El 27 de abril de 1981 se lanzaba al mercado la primera computadora con ratón incluido: Xerox Star 8010, fundamental para la nueva y potente interfaz gráfica que dependía de este periférico, que fue a su vez, otra revolución. Posteriormente, surgieron otras computadoras que también incluyeron el periférico, algunas de ellas fueron la Commodore Amiga, el Atari ST, y la conocida Apple Lisa. Dos años después, Microsoft, que había tenido acceso al ratón de Xerox en sus etapas de prototipo, dio a conocer su propio diseño disponible además con las primeras versiones del procesador de texto Word. Tenía dos botones en color verde y podía adquirirse por 195 dólares, pero su precio elevado para entonces y el no disponer de un sistema operativo que realmente lo aprovechara, hizo que pasara completamente desapercibido.

Page 78: Informacion de pagina web

No fue hasta la aparición del Macintosh en 1984 cuando este periférico se popularizó. Su diseño y creación corrió a cargo de nuevo de la Universidad de Stanford, cuando Apple en 1980 pidió a un grupo de jóvenes un periférico seguro, barato y que se pudiera producir en serie. Partían de un ratón basado en tecnología de Xerox de un coste alrededor de los 400 dólares, con un funcionamiento regular y casi imposible de limpiar. El presidente, Steve Jobs, quería un precio entre los 10 y los 35 dólares.

Si bien existen muchas variaciones posteriores, algunas innovaciones recientes y con éxito han sido el uso de una rueda central o lateral, el sensor de movimiento óptico por diodo LED, ambas introducidas por Microsoft en 1996 y 1999 respectivamente, o el sensor basado en un láser no visible del fabricante Logitech.

En la actualidad, la marca europea Logitech es una de las mayores empresas dedicadas a la fabricación y desarrollo de estos periféricos, más de la mitad de su producción la comercializa a través de terceras empresas como IBM, Hewlett-Packard, Compaq o Apple.

[editar] Funcionamiento

Imagen habitual de un puntero movido por la pantalla usando un ratón.

Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y transmitir esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.

El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clic para la mayoría de las tareas.

Page 79: Informacion de pagina web

Con el avance de las nuevas computadoras, el ratón se ha convertido en un dispositivo esencial a la hora de jugar, destacando no solo para seleccionar y accionar objetos en pantalla en juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección de un personaje en juegos de primera o tercera persona. Comúnmente en la mayoría de estos juegos, los botones del ratón se utilizan para accionar las armas u objetos seleccionados y la rueda del ratón sirve para recorrer los objetos o armas de nuestro inventario.

[editar] Tipos o modelos

[editar] Por mecanismo

[editar] Mecánicos

Tienen una gran esfera de plástico o goma, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de éste sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos ruedas inclinadas 90 grados entre ellas en vez de una esfera.

La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la computadora, que mediante software procesa e interpreta.

Parte inferior de un ratón con cable y sensor óptico.

[editar] Ópticos

Es una variante que carece de la bola de goma que evita el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente. Puede ofrecer un límite de 800 ppp, como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una pulgada); a menor cifra peor actuará el sensor de movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se determina si el ratón ha cambiado su posición. En superficies pulidas o sobre determinados materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se hace necesario el uso de una alfombrilla o superficie que, para este tipo,

Page 80: Informacion de pagina web

no debe ser brillante y mejor si carece de grabados multicolores que puedan "confundir" la información luminosa devuelta.

[editar] Láser

Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y los jugadores de videojuegos. También detecta el movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se sustituye por un láser con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento significativo de la precisión y sensibilidad.

Un modelo trackball de Logitech.

[editar] Trackball

El concepto de trackball es una idea que parte del hecho: se debe mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin embargo, no les termina de resultar realmente cómodo. Este tipo ha sido muy útil por ejemplo en la informatización de la navegación marítima.

[editar] Por conexión

[editar] Por cable

Es el formato más popular y más económico, sin embargo existen multitud de características añadidas que pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como sensor de movimiento. Actualmente se distribuyen con dos tipos de conectores posibles, tipo USB y PS/2; antiguamente también era popular usar el puerto serie.

Page 81: Informacion de pagina web

Es el preferido por los videojugadores experimentados, ya que la velocidad de transmisión de datos por cable entre el ratón y la computadora es óptima en juegos que requieren de una gran precisión.

Un modelo inalámbrico con rueda y cuatro botones, y la base receptora de la señal.

[editar] Inalámbrico

En este caso el dispositivo carece de un cable que lo comunique con la computadora (ordenador), en su lugar utiliza algún tipo de tecnología inalámbrica. Para ello requiere un receptor que reciba la señal inalámbrica que produce, mediante baterías, el ratón. El receptor normalmente se conecta a la computadora a través de un puerto USB o PS/2. Según la tecnología inalámbrica usada pueden distinguirse varias posibilidades:

Radio Frecuencia (RF): Es el tipo más común y económico de este tipo de tecnologías. Funciona enviando una señal a una frecuencia de 2.4Ghz, popular en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE 802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o interferencias con otros equipos inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros.

Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de trasmisión de datos, popular también entre los controles o mandos remotos de televisiones, equipos de música o en telefonía celular. A diferencia de la anterior, tiene un alcance medio inferior a los 3 metros, y tanto el emisor como el receptor deben estar en una misma línea visual de contacto directo ininterrumpido para que la señal se reciba correctamente. Por ello su éxito ha sido menor, llegando incluso a desaparecer del mercado.

Page 82: Informacion de pagina web

Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión inalámbrica (estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar Bluetooth).

[editar] El controladorEs, desde hace un tiempo, común en cualquier equipo informático, de tal manera que todos los sistemas operativos modernos suelen incluir de serie un software controlador (driver) básico para que éste pueda funcionar de manera inmediata y correcta. No obstante, es normal encontrar software propio del fabricante que puede añadir una serie de funciones opcionales, o propiamente los controladores si son necesarios.

Modelo Mighty Mouse de Apple.

[editar] Uno, dos o tres botonesHasta mediados de 2005, la conocida empresa Apple, para sus sistemas Mac apostaba por un ratón de un sólo botón, pensado para facilitar y simplificar al usuario las distintas tareas posibles. Actualmente ha lanzado un modelo con dos botones simulados virtuales con sensores debajo de la cubierta plástica, dos botones laterales programables, y una bola para mover el puntero, llamado Mighty Mouse.

Page 83: Informacion de pagina web

Modelo inalámbrico con cuatro botones.

En Windows, lo más habitual es el uso de dos o tres botones principales. En sistemas UNIX como GNU/Linux que utilicen entorno gráfico (X Window), era habitual disponer de tres botones (para facilitar la operación de copiar y pegar datos directamente). En la actualidad la funcionalidad del tercer botón queda en muchos casos integrada en la rueda central de tal manera que además de poder girarse, puede pulsarse.

Hoy en día cualquier sistema operativo moderno puede hacer uso de hasta estos tres botones distintos e incluso reconocer más botones extra a los que el software reconoce, y puede añadir distintas funciones concretas, como por ejemplo asignar a un cuarto y quinto botón la operación de copiar y pegar texto.

La sofisticación ha llegado a extremos en algunos casos, por ejemplo el MX610 de Logitech, lanzado en septiembre de 2005. Preparado anatómicamente para diestros, dispone de hasta 10 botones.

[editar] Problemas frecuentes Puntero que se atasca en la pantalla: es el fallo más frecuente, se origina a causa de la

acumulación de suciedad, frenando o dificultando el movimiento del puntero en la pantalla. Puede retirarse fácilmente la bola de goma por la parte inferior y así acceder a los ejes de plástico para su limpieza, usando un pequeño pincel de cerdas duras. Para retardar la aparición de suciedad en el interior del ratón es recomendable usar una alfombrilla. Este problema es inexistente con tecnología óptica, ya que no requiere partes mecánicas para detectar el desplazamiento. Es uno de los principales motivos de su éxito.

Pérdida de sensibilidad o contacto de los botones: se manifiesta cuando se pulsa una vez un botón y la computadora lo recibe como ninguno, dos o más clics consecutivos, de manera errónea. Esto se debe al desgaste de las piezas de plástico que forman parte de los botones del ratón, que ya no golpean o pulsan correctamente sobre el pulsador electrónico. Para solucionarlo normalmente debe desmontarse completamente y colocar varias capas de papel adhesivo sobre la posible zona desgastada hasta recuperar su forma original. En caso de uso frecuente, el desgaste es normal, y suele darse a una cifra inferior al milímetro por cada 5 años de vida útil.

Dolores musculares causados por el uso del ratón: si el uso de la computadora es frecuente, es importante usar un modelo lo más ergonómico posible, ya que puede acarrear problemas físicos en la muñeca o brazo del usuario. Esto es por la posición totalmente plana que adopta la mano, que puede resultar forzada, o puede también producirse un fuerte desgaste del huesecillo que sobresale de la muñeca, hasta el punto de considerarse una enfermedad profesional. Existen alfombrillas especialmente diseñadas para mejorar la comodidad al usar el ratón.

Page 84: Informacion de pagina web

ImpresoraDe Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda

Impresora multifuncional.

Una impresora es un periférico de ordenador que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red.

Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las tarjetas CompactFlash, Secure Digital o Memory Stick, pendrives, o aparatos de captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una fotocopiadora.

Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por minuto es considerado rápido), y el coste por página es relativamente alto.

Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de impresión de gran volumen como sería la impresión de periódicos. Las imprentas son capaces de imprimir cientos de páginas por minuto o más.

Las impresoras han aumentado su calidad y rendimiento, lo que ha permitido que los usuarios puedan realizar en su impresora local trabajos que solían realizarse en tiendas especializadas en impresión.

Page 85: Informacion de pagina web

Contenido[ocultar]

1 Impresoras de color o de fotos 2 Métodos de impresión

o 2.1 Tóner o 2.2 Inyección de tinta (Ink Jet) o 2.3 Tinta sólida (Solid Ink) o 2.4 Impacto (Impact) o 2.5 Matriz de puntos (Dot-Matrix) o 2.6 Sublimación de tinta (Dye-sublimation o Dye-sub)

3 Trazador de imagen (Plotter) 4 Memoria de las impresoras 5 Conexión de impresora 6 Lenguajes de descripción de página y formatos de impresión 7 Velocidad de impresión 8 El negocio de las impresoras 9 Cartuchos, tinta y papel

o 9.1 Cartuchos o 9.2 Tinta o 9.3 Papel

10 Posibles problemas de impresión o 10.1 Problemas con el papel o 10.2 Problemas de tinta

11 Formatos de definición de caracteres: Truetype 12 Otras impresoras 13 Véase también 14 Referencias 15 Enlaces externos

Impresoras de color o de fotos

Page 86: Informacion de pagina web

Impresora.

Existen dispositivos profesionales y semiprofesionales, que se utilizan en casas de revelado fotográfico o en el hogar. Estos dispositivos suelen ser conocidos como impresora fotográfica, impresora con calidad fotográfica o bases de impresión fotográfica. Estos dispositivos imprimen en color, produciendo imágenes que imitan el rango de colores y resoluciones de los métodos de revelado fotográfico previos a esta tecnología.

Métodos de impresiónLa elección del motor de impresión tiene un efecto substancial en los trabajos a los que una impresora está destinada. Hay diferentes tecnologías que tienen diferentes niveles de calidad de imagen, velocidad de impresión, coste, ruido y además, algunas tecnologías son inapropiadas para ciertos tipos de medios físicos (como papel carbón o transparencias).

Otro aspecto de la tecnología de impresión que es frecuentemente olvidado es la resistencia a la alteración: tinta líquida como de una cabeza de inyección de tinta son absorbidos por las fibras del papel, y por eso los documentos impresos con tinta líquida son más difíciles de alterar que los que están impresos por toner o tinta sólida, que no penetran por debajo de la superficie del papel.

Tóner

Las impresoras de láser e impresoras térmicas utilizan este método para adherir tóner al medio. Trabajan utilizando el principio Xerografía que está funcionando en la mayoría de las fotocopiadoras: adhiriendo tóner a un tambor de impresión sensible a la luz, y utilizando electricidad estática para transferir el tóner al medio de impresión al cual se une gracias al calor y la presión. Las impresoras láser son conocidas por su impresión de alta calidad, buena velocidad de impresión y su bajo costo por copia; son las impresoras más comunes para muchas de las aplicaciones de oficina de propósito general. Son menos utilizadas por el consumidor generalmente debido a su alto coste inicial. Las impresoras láser están disponibles tanto en color como en monocromo. El advenimiento de láseres de precisión a precio razonable ha hecho a la impresora monocromática basada en tóner dominante en aplicaciones para la oficina. Otro tipo de impresora basada en tóner es la impresora LED la cual utiliza una colección de LEDs en lugar de láser para causar la adhesión del tóner al tambor de impresión. El tóner (del inglés, toner), también denominado tinta seca por analogía funcional con la tinta, es un polvo fino, normalmente de color negro, que se deposita en el papel que se pretende imprimir por medio de atracción electrostática. Una vez adherido el pigmento, éste se fija en el papel por medio de presión o calor adecuados. Debido a que en el proceso no intervienen diluyentes, originalmente se ha denominado Xerografía, del griego xeros que significa seco.

Inyección de tinta (Ink Jet)

Las impresoras de inyección de tinta (Ink Jet) rocían hacia el medio cantidades muy pequeñas de tinta, usualmente unos picolitros. Para aplicaciones de color incluyendo

Page 87: Informacion de pagina web

impresión de fotos, los métodos de chorro de tinta son los dominantes, ya que las impresoras de alta calidad son poco costosas de producir. Virtualmente todas las impresoras de inyección son dispositivos en color; algunas, conocidas como impresoras fotográficas, incluyen pigmentos extra para una mejor reproducción de la gama de colores necesaria para la impresión de fotografías de alta calidad (y son adicionalmente capaces de imprimir en papel fotográfico, en contraposición al papel normal de oficina).

Las impresoras de inyección de tinta consisten en inyectores que producen burbujas muy pequeñas de tinta que se convierten en pequeñísimas gotitas de tinta. Los puntos formados son el tamaño de los pequeños pixels. Las impresoras de inyección pueden imprimir textos y gráficos de alta calidad de manera casi silenciosa.

Existen dos métodos para inyectar la tinta:

Método térmico . Un impulso eléctrico produce un aumento de temperatura (aprox. 480 °C durante microsegundos) que hace hervir una pequeña cantidad de tinta dentro de una cámara formando una burbuja de vapor que fuerza su salida por los inyectores. Al salir al exterior, este vapor se condensa y forma una minúscula gota de tinta sobre el papel. Después, el vacío resultante arrastra nueva tinta hacia la cámara. Este método tiene el inconveniente de limitar en gran medida la vida de los inyectores, es por eso que estos inyectores se encuentran en los cartuchos de tinta.

Método piezoeléctrico . Cada inyector está formado por un elemento piezoeléctrico que, al recibir un impulso eléctrico, cambia de forma aumentando bruscamente la presión en el interior del cabezal provocando la inyección de una partícula de tinta. Su ciclo de inyección es más rápido que el térmico.

Las impresoras de inyección tienen un coste inicial mucho menor que las impresoras láser, pero tienen un coste por copia mucho mayor, ya que la tinta necesita ser repuesta frecuentemente. Las impresoras de inyección son también más lentas que las impresoras láser, además de tener la desventaja de dejar secar las páginas antes de poder ser manipuladas agresivamente; la manipulación prematura puede causar que la tinta (que está adherida a la página en forma liquida) se mueva.

Tinta sólida (Solid Ink)

Las impresoras de tinta sólida, también llamadas de cambio de fase, son un tipo de impresora de transferencia termal pero utiliza barras sólidas de tinta en color CMYK (similar en consistencia a la cera de las velas). La tinta se derrite y alimenta una cabeza de impresión operada por un cristal piezoeléctrico (por ejemplo cuarzo). La cabeza distribuye la tinta en un tambor engrasado. El papel entonces pasa sobre el tambor al tiempo que la imagen se transfiere al papel.

Son comúnmente utilizadas como impresoras en color en las oficinas ya que son excelentes imprimiendo transparencias y otros medios no porosos, y pueden conseguir grandes resultados. Los costes de adquisición y utilización son similares a las impresoras láser.

Page 88: Informacion de pagina web

Las desventajas de esta tecnología son el alto consumo energético y los largos periodos de espera (calentamiento) de la máquina. También hay algunos usuarios que se quejan de que la escritura es difícil sobre las impresiones de tinta sólida (la cera tiende a repeler la tinta de los bolígrafos), y son difíciles de alimentar de papel automáticamente, aunque estos rasgos han sido significantemente reducidos en los últimos modelos. Además, este tipo de impresora solo se puede obtener de un único fabricante, Xerox, como parte de su línea de impresoras de oficina Xerox Phaser. Previamente las impresoras de tinta sólida fueron fabricadas por Tektronix, pero vendió su división de impresión a Xerox en el año 2000.

Impacto (Impact)

Margarita de impresión.

Bolas de impresión.

Las impresoras de impacto se basan en la fuerza de impacto para transferir tinta al medio, de forma similar a las máquinas de escribir, están típicamente limitadas a reproducir texto. En su momento dominaron la impresión de calidad. Hay dos tipos principales:

Impresora de margarita llamada así por tener los tipos contenidos radialmente en una rueda, de ahí su aspecto de una margarita.

Impresora de bola llamada así por tener todos los tipos contenidos en una esfera. Es el caso de las máquinas de escribir eléctricas IBM Selectric

Las impresoras golpe o impacto trabajan con un cabezal en el que hay agujas, estas agujas golpean una cinta, similar al de una máquina de escribir, que genera la impresión de la letra.

Matriz de puntos (Dot-Matrix)

En el sentido general, muchas impresoras se basan en una matriz de píxeles o puntos que, juntos, forman la imagen más grande. Sin embargo, el término matriz o de puntos se usa específicamente para las impresoras de impacto que utilizan una matriz de pequeños alfileres para crear puntos precisos. Dichas impresoras son conocidas como matriciales. La ventaja de la matriz de puntos sobre otras impresoras de impacto es que estas pueden

Page 89: Informacion de pagina web

producir imágenes gráficas además de texto. Sin embargo, el texto es generalmente de calidad más pobre que las impresoras basadas en impacto de tipos.

Algunas sub-clasificaciones de impresoras de matriz de puntos son las impresoras de alambre balístico y las impresoras de energía almacenada.

Las impresoras de matriz de puntos pueden estar basadas bien en caracteres o bien en líneas, refiriéndose a la configuración de la cabeza de impresión.

Las impresoras de matriz de puntos son todavía de uso común para aplicaciones de bajo costo y baja calidad como las cajas registradoras. El hecho de que usen el método de impresión de impacto les permite ser usadas para la impresión de documentos autocopiativos como los recibos de tarjetas de crédito, donde otros métodos de impresión no pueden utilizar este tipo de papel. Las impresoras de matriz de puntos han sido superadas para el uso general en computación.

Sublimación de tinta (Dye-sublimation o Dye-sub)

Las impresoras de sublimación de tinta emplean un proceso de impresión que utiliza calor para transferir tinta a medios como tarjetas de plástico, papel o lienzos. El proceso consiste usualmente en poner un color cada vez utilizando una cinta que tiene paneles de color. Estas impresoras están principalmente pensadas para aplicaciones de color de alta calidad, incluyendo fotografía en color, y son menos recomendables para texto. Primeramente utilizadas en las copisterías, cada vez más se están dirigiendo a los consumidores de impresoras fotográficas.

Trazador de imagen (Plotter)Los plotter sirven para hacer impresiones de dibujo de planos de arquitectura, ingeniería, diseño industrial, etc., para la impresión de láminas, posters, ampliaciones fotográficas, gigantografías, carteles en rutas, vía pública, señalización, etc. Existen dos clases de ploter según el uso de sus tintas, a base de agua o solventes. Un caso particular es el plotter de corte, que corta un medio adhesivo que luego se fijará a otra superficie, desde camisetas a carrocerías.

Memoria de las impresorasLas impresoras llevan consigo memoria interna. Van desde los 8KB en las impresoras matriciales hasta como mínimo 1MB en las impresoras láser.

Actualmente en las láser venden módulos de memoria independientes para ampliar la capacidad de la misma.

Page 90: Informacion de pagina web

La memoria se usa como buffer y como almacenamiento permanente y semipermanente. Además su uso es necesario porque el tratamiento de gráficos vectoriales y el diseño de fuentes en mapa de bits consumen memoria.

El buffer es utilizado para mantener trabajos de impresión activos y la permanencia se utiliza para almacenar el diseño de las fuentes y los datos.

Hay que tener en cuenta que para tratar la impresión de un documento la página tiene que estar enteramente almacenada en memoria. El rendimiento de la memoria depende tanto del sistema operativo como de la configuración del controlador de impresora.

Por ejemplo, la gestión de impresión varía si estamos en un sistema operativo DOS u otro multiplataforma.

Conexión de impresoraLa conexión de la impresora con el computador ha ido evolucionando conllevando a la mejora de rendimiento de impresión y comodidad de usuario.

La forma más antigua de conexión era mediante puerto serie en donde la transferencia se hacia bit a bit, permitía distancias largas con velocidades lentas que no superaban los 19.200 bytes/segundo.

Se elevó hasta la conexión mediante puerto paralelo en la que las transferencias eran byte a byte permitiendo 8 conexiones paralelas consiguiendo una velocidad más rápida entre los 0.5 MB/segundo hasta los 4MB/segundo. El inconveniente era la limitación de la distancia del cable que une la impresora con el computador ya que no permite una longitud mayor de 2 metros.

Otra forma de conexión se consiguió poniendo la impresora en red Ethernet mediante conexiones RJ 45 basadas en el estándar IEEE 802.3. Las velocidades conseguidas superan los 10 Mb/segundo basada en el manejo de paquetes. No hay que confundirla con una impresora compartida, ya que las impresoras en red operan como un elemento de red con dirección IP propia.

Otra método de conexión más actual es por medio de puertos USB (Universal Serial Bus). La velocidad vuelve a mejorar con 480Mb/segundo con las ventajas que conlleva el puerto USB: compatibilidad con varios sistemas y la posibilidad de usarla en dispositivos portátiles.

Finalmente, la conexión inalámbrica wifi, mediante el protocolo IEEE 802.11, está siendo la más novedosa. Alcanza 300 Mb/segundo y funciona tanto para impresoras de tinta, láser o multifunción.

Page 91: Informacion de pagina web

Aunque consigue menos velocidad que las conectadas por USB, las wifi proporcionan ventajas tales como la autonomía, la movilidad y libertad del usuario sin la utilización de cables. Para la correcta utilización y evitar accesos no deseados deberemos cifrar la red.

Lenguajes de descripción de página y formatos de impresiónUn lenguaje de descripción de página (PDL) es un medio de codificar cada elemento de un documento para poder así transmitirlo a la impresora para que ésta lo imprima. Es el medio que define las características y composición que describirían un documento impreso dentro de un flujo de datos. Hay dos tipos fundamentales de PDLs:

PostScript Lenguaje de control de impresora

Velocidad de impresiónLa velocidad de las primeras impresoras se medía en unidad de caracteres por segundo. Las impresoras más modernas son medidas en páginas por minuto. Estas medidas se usan principalmente como una herramienta de marketing y no están bien estandarizadas. Normalmente la medida páginas por minuto se refiere a documentos monocromáticos más que a documentos con dibujos densos que normalmente se imprimen mucho más lento.

El negocio de las impresorasA menudo se utiliza el modelo comercial de las maquinillas y las cuchillas de afeitar en el negocio de las impresoras. Las compañías pueden vender una impresora por debajo de su coste, y obtener beneficios de los cartuchos de tinta, papel u otras partes que se reemplazan. Esto ha causado disputas legales respecto al derecho de otras compañías distintas al fabricante de la impresora de vender cartuchos de tinta compatibles. Para proteger al modelo comercial de las maquinillas y las cuchillas de afeitar muchos fabricantes invierten considerables sumas en desarrollo de nuevas tecnologías y su patentamiento.

Otros fabricantes, en reacción a los desafíos que trae este modelo comercial, apuntan a obtener mayores beneficios de las impresoras y menos de los cartuchos de tinta, promoviendo los menores precios de éstos últimos a través de campañas de publicidad. Esto genera dos propuestas bien diferentes: "impresora barata - tinta cara" o "impresora cara - tinta barata". Finalmente, la decisión del consumidor depende de su tasa de interés de referencia o su preferencia intertemporal.[1] [2]

Cartuchos, tinta y papelTanto los cartuchos, como la tinta y el papel son 3 elementos imprescindibles para poder realizar copias con una impresora, y el saber escoger el elemento más adecuado en función

Page 92: Informacion de pagina web

del tipo de impresión que se pretende realizar puede aumentar el rendimiento de nuestra impresora hasta límites insospechados.

Cartuchos

En el caso de las impresoras láser, la vida útil del cartucho depende de la cantidad de tóner que contenga y cuando el tóner se agota, el cartucho debe ser reemplazado. En el caso de que el cartucho y el OPC (órgano sensible fotoconductivo) se encuentren en compartimentos separados, cuando se agota el tóner sólo se reemplaza el cartucho, pero en el caso de que el OPC esté dentro del cartucho se deben cambiar ambos, aumentando considerablemente el gasto. La situación es más crítica en el caso de las impresoras láser en color.

En las impresoras de chorros de tinta la vida útil del cartucho depende de la duración de la tinta, aunque muchos cartuchos se pueden rellenar de nuevo lo que ayuda a reducir el gasto de comprar uno nuevo aunque el uso excesivo de un cartucho puede provocar que realice sus impresiones con menor calidad.

Tinta

Existen dos tipos de tinta para impresoras:

Tinta penetrante de secado lento: Se utiliza principalmente para impresoras monocromáticas.

Tinta de secado rápido: Se usa en impresoras en color, ya que en estas impresoras, se mezclan tintas de distintos colores y éstas se tienen que secar rápidamente para evitar la distorsión.

El objetivo de todo fabricante de tintas para impresoras es que sus tintas puedan imprimir sobre cualquier medio y para ello desarrollan casi diariamente nuevos tipos de tinta con composiciones químicas diferentes.

Papel

Actualmente, cuando se quiere hacer una copia de alta calidad en una impresora se ha de usar papel satinado de alta calidad. Este papel resulta bastante caro y en el caso de querer hacer muchas copias en calidad fotográfica su coste sería muy alto. Por ello, los fabricantes desarrollan nuevas impresoras que permitan obtener impresiones de alta calidad sobre papel común.

Algunos fabricantes, como por ejemplo Epson, fabrican su propio papel.

Posibles problemas de impresión

Problemas con el papel

Page 93: Informacion de pagina web

Si no se tiene cuidado a la hora de seleccionar el tipo de papel adecuado para la impresora o en el momento de colocar el papel pueden aparecer pequeños problemas. Puede que la mala colocación del papel de lugar a que la impresora no detecte el papel, para lo que bastará con volver a colocarlo bien. Esta mala colocación o una mala elección del papel también puede dar lugar a que durante la impresión se produzca un atasco debido a que la impresora ha tomado varias hojas a la vez, por lo que se debe ser cuidadoso a la hora de situar el papel en la bandeja y no se debe sobrecargar con mucho papel esta bandeja

Problemas de tinta

En ocasiones al imprimir documentos o fotografías pueden aparecer bandas horizontales que hacen empeorar la calidad de la impresión. Aunque este problema puede estar ocasionalmente relacionado con una mala elección del papel de impresión generalmente se debe a problemas de tinta en impresiones de inyección de tinta. Una causa posible es la configuración de calidad de la impresión, puesto que el documento puede requerir una configuración de mayor calidad de la impresora. Otras posibles causa pueden ser que la tinta del cartucho se está agotando o que los cabezales están sucios.

Formatos de definición de caracteres: TruetypeFue creado por Apple para no depender tecnológicamente de los tipos PostScript de Adobe, pero su calidad resultó ser inferior. Fue comprada por Microsoft lo cual ha contribuido a que no llegara a desaparecer. La principal fortaleza de TrueType es que ofrece a los diseñadores de fuentes un gran grado de control sobre la forma que sus fuentes se muestran a diferentes tamaños.

El problema con la mayoría de los programas es que no usan normalmente el truetype. En general cargan las fuentes en estilo Postscript y se descartan todas las insinuaciones, esto es una gran perdida para fuentes con alta calidad. Aparte del diseño de la fuente, hay que tener en cuenta otras dos claves para la calidad de fuente: el perfil del carácter y la insinuación. Solo algunas fundiciones actualmente producen fuentes que exploten al máximo el potencial de insinuación de truetype. Ahora hay aplicaciones que convierten un Type 1 de Postscript en un truetype, pero son los manuscritos mejores que los generados automáticamente.

Otras impresorasAlgunas otras clases de impresoras son importantes por razones históricas o para usos especiales, entre ellas están las siguientes:

Impresoras de sublimación de tinta , usadas a veces para impresiones de alta calidad en color o fotográficas.

Teletipo Impresora térmica (papel sensible al calor) Impresora térmica de cera (Xerox/Tektronix)

Page 94: Informacion de pagina web

Impresora térmica sobre papel metalizado (Sinclair ZX Printer, concebida para los Sinclair ZX80, Sinclair ZX81 y Sinclair ZX Spectrum)

Microsphere (papel especial) Fotocopiadora multifunción

Page 95: Informacion de pagina web

Regulador de VoltajeDe Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda

Regulador de Voltaje.

Un regulador de voltaje (también llamado estabilizador de voltaje o acondicionador de voltaje) es un equipo eléctrico que acepta una tensión eléctrica de voltaje variable a la entrada, dentro de un parámetro predeterminado y mantiene a la salida una tensión constante (regulada).

Son diversos tipos de reguladores de voltaje, los más comunes son de dos tipos: para uso doméstico o industrial. Los primeros son utilizados en su mayoría para proteger equipo de cómputo, video, o electrodomésticos. Los segundos protegen instalaciones eléctricas completas, aparatos o equipo eléctrico sofisticado, fabricas, entre otros. El costo de un regulador de voltaje estará determinado en la mayoría de los casos por su calidad y vida útil en funcionamiento continuo.

Contenido[ocultar]

1 Principios de funcionamiento 2 Beneficios de contar con un Regulador de Voltaje 3 Regulador adecuado 4 Enlaces externos

[editar] Principios de funcionamientoExisten diversos tipos de reguladores en el mercado, los cuales se clasifican de acuerdo al principio o tecnología de regulación que utilizan. Los más importantes son:

Page 96: Informacion de pagina web

Los reguladores electromecánicos basan su principio de funcionamiento en un auto transformador de columna, sobre la cual se dispone un cursor accionado por un servomotor, que en su recorrido suma o resta espiras. Este movimiento de auto ajuste es controlado por un comando electrónico, que se activa cada vez que la tensión de salida se desvía de su valor de calibración, ajustándose automáticamente y con ello mantiene permanentemente la tensión de salida estable. Las ventajas que ofrece este principio son que cuenta con una alta precisión (1,5%) y eficiencia del 99%, teniendo capacidad de sobrecarga de hasta 500% sin generación de contenido armónico, sin embargo aunque no genera ruido armónico tampoco lo elimina. Su vida útil es mayor a 25 años en funcionamiento continuo a plena carga por su diseño y robustez.

Los reguladores electrónicos basan su regulación en un control electrónico, pueden llevar microprocesador para regular o simplemente un circuito de control que detecta las variaciones del voltaje y hace la corrección a través de relevadores para regular la tensión. Su tiempo de respuesta y velocidad de regulación son rápidos además de ser económicos en comparación a los otros tipos. Sin embargo, los rangos de tensión de entrada son reducidos y la precisión de la tensión de salida es baja de +/- 3% a +/- 5%. Su diseño propicia que se desconecten para autoprotegerse en condiciones extremas de alta y baja tensión, lo que genera costos de mantenimiento haciendolos equipos de corta duracion. En la mayoría de los casos solo ofrecen regulación en la fase y no en la línea de neutro, se autoprotegen utilizando varistores a la salida para provocar un corto circuito y activar su fusible.

Los reguladores ferroresonantesLa ferroresonancia es la propiedad del diseño de un transformador en el cual el transformador contiene dos patrones magnéticos separados con acoplamiento limitado entre ellos. La salida contiene un circuito resonante paralelo que toma su potencia del primario para reemplazar la potencia entregada a la carga. Hay que notar que la resonancia en la ferroresonancia es similar a aquella en los circuitos lineales con capacitores o inductores en serie o paralelo, en donde la impedancia tiene un pico a una frecuencia en particular. En un circuito no lineal, como el que se usa en los transformadores ferroresonantes, la resonancia se usa para reducir los cambios en el voltaje de alimentación para suministrar un voltaje más consistente, en la carga.

[editar] Beneficios de contar con un Regulador de Voltaje

1. Funcionamiento permanente y seguro de todos sus equipos, las variaciones de voltaje de la red eléctrica no afectarán el funcionamiento, la calidad de sus procesos y tiempo de fabricación.

2. Eliminar los recursos económicos gastados innecesariamente, aprovechando todo el potencial instalado: recursos técnicos, humanos, materiales, y de tiempo.

3. Incremento en la productividad y eficiencia del sistema protegido así como aumento de la vida útil de sus equipos.

Page 97: Informacion de pagina web

[editar] Regulador adecuadoLa capacidad de los reguladores se mide en kVA. Para seleccionar el equipo que Usted necesita será necesario conocer cuatro puntos importantes:

1. Voltaje de entrada o alimentación de los equipos a proteger: Es la tensión de salida del regulador y de entrada que requerirá su maquinaria, equipos o instalaciones para su correcto funcionamiento. Puede ser localizado en la placa de datos o manual de instalación del equipo o maquinaria a proteger. La tensión de la red eléctrica variará de un país a otro así como el voltaje de alimentación de sus equipos dependiendo de su origen.

2. Consumo de los equipos: Datos localizados en la placa de datos o manual de instalación del equipo o maquinaria, puede estar expresado en: - Watts para equipos monofasicos y Kilowatts en sistemas trifásicos (1 kW= 1000 watts) - Amperes - HP

3. Campo de regulación del equipo: Es la capacidad que tiene el regulador de corregir las variaciones de voltaje de la línea eléctrica. Para este caso es necesario monitorear o graficar la línea de alimentación para determinar los límites máximo y mínimo de variación de la línea.

4. Número de fases de alimentación de los mismos: Se determina a través de la placa de datos o manual de instalación del equipo o maquinaria a proteger. Los sistemas eléctricos convencionales pueden ser: - Monofásicos - Bifásicos con neutro - Bifásicos sin neutro (para equipos monofasicos de 220 V) - Trifásicos

Page 98: Informacion de pagina web

Definición de bocinas para computadora      Estrictamente se trata de dispositivos transductores, esto es, son capaces de transformar un tipo de energía en otro diferente, y en el caso de las bocinas, estas convierten energía eléctrica en energía sonora, recibiendo las señales eléctricas de audio procedentes de la computadora, transformándolas en sonido.  Forman parte de la multimedia (es el uso de medios visuales y auditivos que permiten interactuar de manera amigable y amena entre el usuario y la computadora). Las bocinas generalmente se comercializan en pares para generar sonido estéreo para que sea mas agradable la interacción con el equipo. También hay que destacar que hay equipos que las tienen integradas en el gabinete.

Las bocinas para computadora, han reemplazado el uso general de un zumbador interno que emite un "beep" y por el cuál se emitían todos los sonidos en los

antiguos equipos.

Figura 1. Bocinas marca Creative®, modelo SBS10, color arena sin amplificador, con Jack 3.5".

  Los canales de las bocinas para computadora

     Hay básicamente 4 tipos de bocinas para computadora:

Bocinas mono: se refiere a que el sonido emitido se escuchará con baja calidad y desde un solo punto, un ejemplo cercano es el sonido de las estaciones AM de radio.

Bocinas Estéreo: se refiere a que el sonido emitido se escuchará con alta calidad y con un efecto que permite escuchar como si el sonido proviniera de

Page 99: Informacion de pagina web

distintos puntos del ambiente, un ejemplo cercano de ello es el sonido de las estaciones FM de radio.

Bocinas 2.1: se refiere a que el sonido emitido se escuchará con alta calidad y con un efecto que permite escuchar como si el sonido proviniera de ambos lados, además de que cuenta con una bocina extra llamada subwoofer que resalta los tonos graves del audio. Son 2 bocinas distribuidas y un subwoofer.

Bocinas 5.1: se refiere a que el sonido emitido se escuchará con alta calidad y con un efecto que permite escuchar como si el sonido proviniera de ambos lados, del frente y detrás, además de que cuenta con una bocina extra llamada subwoofer que resalta los tonos graves del audio. Son 5 bocinas distribuidas y un subwoofer.

* Actualmente se llega hasta 8.1 canales.

  Partes que componen a las bocinas

     Externamente cuentan con los siguientes elementos:

Figura 2. Esquema de partes de unas bocinas para computadora típicas.

1.- Subwoofer: aumenta los tonos graves de los sonidos, dando sensación de potencia.

2.- Bocinas laterales: transmiten el sonido envolvente:

3.- Bocina satélite frontal: transmite sonidos de efectos especiales.

Partes y funciones de las bocinas.

  Conectores y puertos para bocinas

     Actualmente hay bocinas que pueden ser conectadas por medio del puerto USB, por lo que integran dentro de sí los circuitos necesarios para transformar las señales provenientes de la computadora en sonidos de alta fidelidad.

  

Figura 3. Conector USB de las bocinas y el respectivo puerto USB de la computadora.

Page 100: Informacion de pagina web

     El conector típico hacia las bocinas es un Jack 3.5 mm. M, mientras que los puertos de la computadora son Jack 3.5 mm. H. La tarjeta principal ("Motherboard") y la tarjeta de sonido tienen integrados 3 conectores para las funciones siguientes:

"Line in" (línea de entrada de audio): permite la entrada y captura de audio de fuentes externas, ejemplo de ello es el MIDI,  un "D iscman " ó un reproductor portátil de casete de audio, y es de color azul.

"Line out" (línea de salida de audio): permite la salida de audio hacia las bocinas y es de color verde.

"Microphone" (micrófono): está diseñado para capturar el sonido proveniente del micrófono y es de color rosa.

Figura 4. Conector Jack 3.5" del cable de las bocinas. Figura 5. Panel con los puertos de sonido de la tarjeta principal ("Motherboard"), marca Compaq®, modelo

815, S370 con tarjeta de audio integrada. 

  Como calcular la potencia de las bocinas para computadora

       La unidad para medir la potencia de las bocinas es el RMS ("Root Mean Square") ó raíz cuadrada media, que está relacionado con los Watts que son capaces de consumir las bocinas para generar el sonido de manera constante, por ello se especifica en algunas marcas de bocinas.

     Otra unidad de medida más utilizada, es el P.M.P.O. ("Peak Music Power Output") ó máximo rendimiento de potencia musical, la cuál también tiene relación con los Watts, pero está más avocada a otras cuestiones electrónicas que hacen que los Watts parezcan mucho mayores a los RMS antes mencionados.

     + Ejemplo: Sistema de audio marca Sony®, modelo ZS-H20CP, 130W P.M.P.O., 9 RMS.

  El subwoofer de la computadora

     Es una bocina que se coloca generalmente al centro, tiene un tamaño considerablemente mayor que las otras bocinas que lo acompañan al conectarse en la computadora. Este se encarga de resaltar los tonos graves del sonido y hacer mas alto el volumen.

Page 101: Informacion de pagina web

Figura 6. El subwoofer es la bocina central. Sistema de teatro en casa, marca Genius®,  4.1 canales, 1000 Watts P.M.P.O. de potencia.

  Protección magnética de bocinas para computadora

     Las bocinas contienen en su interior imanes, los cuáles producen un campo magnético que puede distorsionar el funcionamiento de ciertos dispositivos como televisores y monitores CRT, por ello es que en ciertas ocasiones este tipo de pantallas parecen vibrar, cosa que las nuevas tecnologías como pantallas LCD ó pantallas de plasma no sufren. La protección magnética es una característica que se ha ido agregando a algunas marcas de bocinas, que consiste en aislar el campo por medio de delgadas placas ferromagnéticas dentro de la cubierta plástica de las bocinas, con ello se reduce la emisión y no se altera la calidad del sonido.

  Certificación THX para bocinas de computadora   

Figura 7. Logo de el estándar THX.

      La sigla THX parece provenir del nombre del creador de este estándar "Tomlinson Holman" desde 1983 en la compañía Lucas Film®, el cuál se utiliza para hacer referencia a un sonido de alta fidelidad que indica que los sonidos de la banda sonora se escuchan en tan óptimas condiciones, que son exactamente iguales a los originados al momento de su creación. Actualmente algunas marcas de bocinas que cuentan con 2.1 canales en adelante, incorporan la certificación THX

  Precio promedio de las bocinas para computadora       Los precios se establecen dependiendo de muchas variables, como la situación económica del país, la ciudad en que se comercializa, los impuestos, la marca, etc., pero haciendo un promedio estándar a la moneda de referencia internacional, el costo es el siguiente: 

Producto Costo en dólares NorteamericanosBocinas estándar $ 10.3 USD

Bocinas 2.1 canales estándar $ 36.6 USD

  Usos específicos de las bocinas

     Tienen un fin meramente recreativo, principalmente para escuchar música y los sonidos del sistema, aunque en las versiones de bocinas 5.1, se utilizan para escuchar el sonido de las películas de acción y para videojuegos principalmente.

Page 102: Informacion de pagina web