tele procesos

38
SDLC fue inventado por IBM para reemplazar el protocolo bisynchronous mayores para las conexiones de área amplia entre los equipos de IBM. Una variación de la ISO HDLC protocolo HDLC llama normal Modo de Respuesta (NRM) es esencialmente el mismo que SDLC. SDLC no es un protocolo entre iguales como HDLC, Frame Relay o X.25 . Una red SDLC se compone de una estación primaria que controla todas las comunicaciones, y una o másestaciones secundarias . Cuando múltiples secundarios están conectados a un único primario, esto se conoce como un multipunto o multipunto red. El principal es por lo general un ordenador central o de tonos medios en el centro, y los secundarios son los bornes o controladores que actúan como concentradores para los números de terminales locales. Los diferentes gotas se pueden arreglar por el proveedor de línea de transmisión para estar en diferentes lugares. Así, por ejemplo, una unidad central en Los Ángeles puede apoyar una línea multipunto con los controladores conectados a las caídas en las oficinas en Boston, Nueva York y Washington. SDLC utiliza el mismo formato de trama como se describe en nuestra sección síncrona y asíncrona Line Communications . El campo de dirección de cada HDLC trama se utiliza para distinguir las conversaciones entre el primario y cada uno de los secundarios, con la que cada secundaria una dirección diferente. Cada secundaria ve todas las transmisiones desde la primaria, pero sólo responde a tramas con su propia dirección. Tenga en cuenta que a diferencia de Frame Relay o X.25 , esta red se basa en líneas dedicadas arrendadas con conexiones físicas permanentes. SDLC es capaz de funcionamiento dúplex completo, pero casi todas las aplicaciones prácticas son estrictamente half duplex . Esto significa que ya sea el primario o uno de los secundarios pueden estar transmitiendo en un momento dado, pero nunca ambos. El secreto de la gestión de una línea multipunto es que sólo una secundaria puede estar transmitiendo en cualquier momento. Si dos o más secundarios transmiten al mismo tiempo, que interfieren, y los datos de las dos estaciones se pierde. Debido a esto, las transmisiones secundarias son controlados por el primario: secundario sólo puede transmitir cuando está dicho, y sólo puede transmitir un número limitado de marcos antes de pasar el control de nuevo a la primaria. Las estaciones secundarias tienen módems o DSU que son capaces de cambiar de portador dentro y fuera. Carrier es controlado por la señal de petición de envío (RTS) al módem. Cuando el secundario se le dice a transmitir por la primaria, se plantea RTS. El módem convierte en el portador. Puede haber un pequeño retraso de unos pocos milisegundos para el portador se estabilice, y luego el módem plantea Clear To Send (CTS). El secundario a continuación, transmite. Cuando la transmisión se ha completado, el secundario gotas de estrategia en tiempo real, y el módem gotas CTS y el soporte juntos. Ahora el siguiente secundaria puede transmitir. SDLC es compatible con dos tipos de codificación de línea. Codificación de línea estándar (o no NRZI codificación) es donde un 1 lógico está representado por un nivel de voltaje y un cero lógico por otro nivel de tensión. No retorno a cero invertido ( NRZI ) de codificación es donde un uno lógico está representado por la tensión restante de la misma como lo fue

Upload: itbrahim-josue-gb

Post on 14-Jul-2016

29 views

Category:

Documents


1 download

DESCRIPTION

redes

TRANSCRIPT

Page 1: Tele Procesos

SDLC fue inventado por IBM para reemplazar el protocolo bisynchronous mayores para las conexiones de área amplia entre

los equipos de IBM. Una variación de la ISO HDLC protocolo HDLC llama normal Modo de Respuesta (NRM) es

esencialmente el mismo que SDLC.

SDLC no es un protocolo entre iguales como HDLC, Frame Relay o X.25 . Una red SDLC se compone de una estación

primaria que controla todas las comunicaciones, y una o másestaciones secundarias . Cuando múltiples secundarios están

conectados a un único primario, esto se conoce como un multipunto o multipunto red.

El principal es por lo general un ordenador central o de tonos medios en el centro, y los secundarios son los bornes o

controladores que actúan como concentradores para los números de terminales locales. Los diferentes gotas se pueden

arreglar por el proveedor de línea de transmisión para estar en diferentes lugares. Así, por ejemplo, una unidad central en

Los Ángeles puede apoyar una línea multipunto con los controladores conectados a las caídas en las oficinas en Boston,

Nueva York y Washington.

SDLC utiliza el mismo formato de trama como se describe en nuestra sección síncrona y asíncrona Line

Communications . El campo de dirección de cada HDLC trama se utiliza para distinguir las conversaciones entre el primario

y cada uno de los secundarios, con la que cada secundaria una dirección diferente. Cada secundaria ve todas las

transmisiones desde la primaria, pero sólo responde a tramas con su propia dirección.

Tenga en cuenta que a diferencia de Frame Relay o X.25 , esta red se basa en líneas dedicadas arrendadas con conexiones

físicas permanentes.

SDLC es capaz de funcionamiento dúplex completo, pero casi todas las aplicaciones prácticas son estrictamente half

duplex . Esto significa que ya sea el primario o uno de los secundarios pueden estar transmitiendo en un momento dado,

pero nunca ambos.

El secreto de la gestión de una línea multipunto es que sólo una secundaria puede estar transmitiendo en cualquier

momento. Si dos o más secundarios transmiten al mismo tiempo, que interfieren, y los datos de las dos estaciones se

pierde. Debido a esto, las transmisiones secundarias son controlados por el primario: secundario sólo puede transmitir

cuando está dicho, y sólo puede transmitir un número limitado de marcos antes de pasar el control de nuevo a la primaria.

Las estaciones secundarias tienen módems o DSU que son capaces de cambiar de portador dentro y fuera. Carrier es

controlado por la señal de petición de envío (RTS) al módem. Cuando el secundario se le dice a transmitir por la primaria,

se plantea RTS. El módem convierte en el portador. Puede haber un pequeño retraso de unos pocos milisegundos para el

portador se estabilice, y luego el módem plantea Clear To Send (CTS). El secundario a continuación, transmite. Cuando la

transmisión se ha completado, el secundario gotas de estrategia en tiempo real, y el módem gotas CTS y el soporte

juntos. Ahora el siguiente secundaria puede transmitir.

SDLC es compatible con dos tipos de codificación de línea. Codificación de línea estándar (o no NRZI codificación) es

donde un 1 lógico está representado por un nivel de voltaje y un cero lógico por otro nivel de tensión. No retorno a cero

invertido ( NRZI ) de codificación es donde un uno lógico está representado por la tensión restante de la misma como lo fue

Page 2: Tele Procesos

para el tiempo de bit anterior, y un cero lógico está representado por un cambio de voltaje. La diferencia entre no NRZI y

codificación NRZI se muestra a continuación.

La ventaja de la codificación NRZI es que no se garantiza que sean suficientes transiciones parasincronizar los relojes de

transmisión y recepción en todas las circunstancias. Esto funciona de la siguiente manera:

En tramas HDLC "relleno de bits" se utiliza para introducir ceros adicionales en cualquier secuencia de más de 5

unidades. Esto se hace para que las secuencias de bandera 01111110 nunca pueden aparecer accidentalmente en el flujo de

datos. NRZI codificación asegura una transición para cada cero. El resultado es que en un SDLC flujo de datos NRZI uno se

garantiza una transición cada 5 tiempos de bit en un mínimo, y es en cada transición de que el reloj reajusta su

sincronización. Así NRZI datos codificados no, en principio, la necesidad de tener líneas de reloj separados, ya que la

sincronización se puede recuperar de forma fiable de la corriente de datos.

SDLC, como HDLC ABM , proporciona integridad del enlace. Todos los marcos terminan con comprobación de

redundancia cíclica (CRC) bytes que se utilizan para detectar cualquier error de datos. Tramas recibidas correctamente son

reconocidos por el receptor mientras que las tramas erróneas son ignorados. Una ventana de hasta 7 fotogramas se puede

enviar desde cualquier lado para que se solicite el reconocimiento. Acuse de recibo de las tramas recibidas se codifica en el

campo de control de tramas de datos, por lo que si los datos está fluyendo en ambas direcciones, no se necesitan marcos

adicionales para el reconocimiento del marco. Al igual que HDLC LAPB, SDLC no sólo proporciona error de

comunicación gratuita a través de la detección de errores y recuperación, sino que también proporciona control de flujo

automático.

La recuperación de errores en SDLC funciona de tal manera que un error de línea puede causar muchos marcos para ser

retransmitidos, por tanto, una línea ruidosa se manifiesta como el bajo rendimiento y los tiempos de respuesta largos.

SDLC es bastante eficiente para un protocolo semidúplex. Es una parte integral de la arquitectura de red del sistema de IBM

( SNA ) y ha sido estratégica para la red de área amplia desde 1976. Debido a que es half duplex, a menudo puede funcionar

a mucho más alta velocidades de línea en una plataforma de hardware determinada de lo que podría si se ejecuta una

protocolo de dúplex completo como HDLC LAPB .

PROTOCOLO FRAME RELAY Destacado

Fecha: 1988

Utilidad: Transmisión de voz y datos a alta velocidad entre redes de área local separadas geográficamente.

Inventor: ITU T (Union Internacional de Telecomunicaciones)

http://frame-relay.nireblog.com

Frame Relay es una técnica de comunicación mediante retransmisión de tramas para redes de circuito virtual, introducida

por la ITU-T a partir de la recomendación I.122 de 1988. Consiste en una forma simplificada de tecnología de conmutación

de paquetesque transmite una variedad de tamaños de tramas (“frames”) para datos, perfecto para la transmisión de grandes

cantidades de datos.

CARACTERISTICAS:

Es un Protocolo de Enlace mediante circuito virtual permanente (actualmente aún no se utiliza en modo de

conmutación aunque esta preparado para ello)

Page 3: Tele Procesos

Segun la recomendación Q.922 del ITU T se encuadra en el segundo nivel del comunicaciones (Enlace) del

sistema OSI(Organización de Estándares Internacionales), apoyandose en el protocolo núcleo LAP-F (recQ.922)

para las comunicaciones a nivel Físico.

La comunicación se realiza punto a punto en cada nodo,lo que permite prescindir de mecanismos de control de

errores a (el control de errores se llevvara a cabo por los niveles superiores), permitiendo que la red opere a altas

velocidades al no haber sobrecarga de procesamiento en cada nodo

Proporciona una velocidad de transmisión de hasta 2MBit/S

USOS:

Se ultiliza principalmente para la interconexión de redes de área local y extensas sobre redes públicas o privadas.

Presta el servicio de transporte de datos y voz el más usado mundialmente, el cual permite la conmutación de

tramas, garantizando un uso dinámico del ancho de banda.

Permite las aplicaciones de este servicio en la inteconexión LAN a LAN.

Usa una tranferencia de altos volúmenes de datos.

Acceso a sistemas de información centralizados desde localidades remotas.

Posibilidad de integrar voz y datos.

Redes Frame Relay

¿ Qué es Frame Relay ?

Frame Relay es una tecnología de conmutación rápida de tramas, basada en estándares internacionales, que puede

utilizarse como un protocolo de transporte y como un protocolo de acceso en redes públicas o privadas

proporcionando servicios de comunicaciones.

Frame Relay permite la transmisión de datos a altas velocidades basada en protocolos de conmutación de

paquetes. En Frame Relay los datos son divididos en paquetes de largo variable los cuales incluyen información

de direccionamiento. Los paquetes son entregados a la Red Frame Relay, la cual los transporta hasta su destino

específico sobre una conexión virtual asignada.

Frame relay permite compartir varias conexiones virtuales a través de una misma interface física con lo cual es

posible conectar múltiples localidades remotas entre sí, sin necesidad de equipo adicional ni costosos enlaces

dedicados punto a punto. Solamente es necesaria una conexión física entre cada localidad remota y la Red Frame

Relay.

La tecnología Frame Relay se beneficia de las ventajas estadísticas de la conmutación de paquetes y hace uso

eficiente del ancho de banda. Posee un mecanismo dinámico para proveer mayor capacidad de tranmisión cuando

así lo requiera el usuario, sin necesidad de haber comprado ancho de banda adicional.

Estas múltiples ventajas hacen de Frame Relay la tecnología ideal para sus necesidades de comunicaciones de

datos y voz por sus bajos costos de operación, altas velocidades de transmisión y utilización eficiente del ancho de

banda.

Es apróximadamente análoga a una versión reducida de X.25, con una interfaz conmutada por paquetes de

velocidad variable entre 56 Kbps y 45 Mbps. Como X.25, "Frame Relay" multiplexa estadísticamente paquetes o

tramas hacia destinos diferentes con una sola interfaz. Está orientada a la conexión, lo que significa que, para

proceder, un circuito virtual debe estar configurado para comunicaciones. Esto se hace típicamente mediante un

enlace de señalización en banda o en el mismo canal (aunque la señalización fuera de banda a través de, por

ejemplo, un canal D de ISDN, está incluida en los estándares). (RUIU).

¿ Cuál es su objetivo ?

Contrario a lo que se especulaba, el objetivo de frame relay no es reemplazar a X.25, sino dirigirse a las

necesidades de ciertas aplicaciones para las cuales X.25 no es efectivo. El principal objetivo de Frame Relay es la

interconexión de redes LAN.

Hagamos un pequeño paréntesis. El Frame Relay es una tecnología de corto plazo aunque estará con nosotros un

buen rato. Ya que la tecnología del futuro será sin duda el ATM tanto con servicios permanentes como

conmutados, a través de los denominados circuitos y trayectos virtuales (VC y VP respectivamente).

Frame Relay ofrece ventajas significativas para interconectar MAINFRAMEs, habitualmente realizada por líneas

arrendadas. Un computador central (Host) a menudo se comunica durante la noche con un sitio de apoyo, a través

de largas ráfagas intermitentes de tráfico para las cuales una conexión permanente es desperdiciada, pero Frame

Relay es la indicada.

Frame Relay (FR) es un protocolo estandarizado de acceso a la capa de enlace de datos orientado a conexión que

puede verse como una versión peso pluma del X.25. Opera con paquetes de longitud variable llamados tramas.

Las interfaces Frame Relay que proporcionan servicios de interconexión a LANs soportan una trama máxima de

Page 4: Tele Procesos

1600 octetos. FR garantiza que las tramas llegan libres de error y en el orden correcto, pero no informa sobre

tramas perdidas ni trata de recuperar tramas erróneas.

¿ Cuál es su historia ?

La convergencia de la informática y las telecomunicaciones está siendo una realidad desde hace tiempo. Las

nuevas aplicaciones hacen uso exhaustivo de gráficos y necesitan comunicaciones de alta velocidad con otros

ordenadores conectados a su misma red LAN, e incluso a redes LAN geográficamente dispersas.

Frame Relay surgió para satisfacer estos requisitos.

Ahora, el mercado demanda un mayor ahorro en los costes de comunicaciones mediante la integración de tráfico

de voz y datos.

Frame Relay ha evolucionado, proporcionando la integración en una única línea de los distintos tipos de tráfico de

datos y voz y su transporte por una única red que responde a las siguientes necesidades:

o Alta velocidad y bajo retardo

o Soporte eficiente para tráficos a ráfagas

o Flexibilidad

o Eficiencia

o Buena relación coste-prestaciones

o Transporte integrado de distintos protocolos de voz y datos

o Conectividad "todos con todos"

o Simplicidad en la gestión

o Interfaces estándares

Acuerdos de implementación

En 1988, el ITU-TS (antiguo CCITT) estableció un estándar (I.122), que describía la multiplexación de circuitos

virtuales en el nivel 2, conocido como el nivel de "frame" (trama). Esta recomendación fue denominada Frame

Relay.

ANSI tomó lo anterior como punto de partida y comenzó a definir estándares que iban siendo también adoptados

por el ITU-TSS (CCITT).

Estándares

ITU/TSS

ANSI

Descripción del Servicio 1.233 T1.606

Transferencia de Datos 0.922 T1.618

Señalización 0.933 T1.617

Congestión I.370 T1.606

Interworking I.555

Se constituyó un fórum del sector, el Frame Relay Forum (del que BT, Concert y BT Telecomunicaciones son miembros)

cuyo consenso se refleja en los siguientes "Implementation Agreements".

"Implementation Agreements"

* Acordados por el Frame Relay Forum

* Aprobados : * Trabajos Actuales :

* User to Network * SVC at NNI

* Network to Network * Switched Permanet Virtual Connection (SPVC)

* Switched Virtual Circuit * Voice over FR

* FR/ATM Interworking

Page 5: Tele Procesos

* FR Customer Network Management

* FR/PVC Multicast Service

* FR ATM/PVC Service Interworking

* Data Compression over FR

Comparación con X.25

Frame Relay puede entenderse mejor cuando se compara con el protocolo X.25. En la figura A se ilustran los siete niveles

OSI, indicando los niveles realizados por X.25 y Frame Relay.

Aplicación

Presentación

Sesión

Transporte

X.25

Red

Enlace

Frame

Relay Físico

Niveles utilizados por Frame Relay y X.25

En la figura B se proporciona una lista de las funciones suministradas por cada uno de los niveles OSI para X.25 y Frame

Relay. Gran parte de las funciones de X.25 se eliminan en Frame Relay. La función de direccionamiento se desplaza desde

la capa 3 en X .25 a la capa 2 en Frame Relay. Todas las demás funciones del nivel 3 de X.25 no están incorporadas en el

protocolo de Frame Relay.

X.25 Frame Relay

Establecimiento de circuito

Control de circuito

Control de flujo de circuito

Direccionamiento

Red

Control de enlace

Creación de tramas

Control de errores

Control de flujo de enlaces

Fiabilidad

Enlace

Direccionamiento

Creación de tramas

Control de errores

Gestión de interfaces

Conexión Física Físico Conexión Física

X.25, la tecnología de conmutación de paquetes más usada, fue introducida a principio de los años 70s en un ambiente

caracterizado por líneas análogas dentro de la red y en la periferia equipos de usuario (CPE: Customer Premises Equipment)

sin inteligencia. La red permitía altas tasas de error, y los CPE podían realizar solo funciones muy básicas. En tal entorno,

los nodos de red tenían la responsabilidad total de asegurar que la información del usuario se entregara fielmente a su

destino. Esto requería una gran cantidad de procesamiento en el nivel de red del modelo OSI, incluyendo funciones tales

como control de error y retransmisión.

Redes ATM

¿ Qué es ATM ?

Page 6: Tele Procesos

El Modo deTransferencia Asíncrono es una tecnología de conmutación que usa pequeñas celdas de tamaño

fijo. En 1988, el CCITT designó a ATM como el mecanismo de transporte planeado para el uso de futuros

servicios de banda ancha. ATM es asíncrono porque las celdas son transmitidas a través de una red sin tener

que ocupar fragmentos específicos de tiempo en alineación de paquete, como las tramas T1. Estas celdas son

pequeñas(53 bytes), comparadas con los paquetes LAN de longitud variable. Todos los tipos de información

son segmentados en campos de pequeños bloques de 48 bytes, los cinco restantes corresponden a un header

usado por la red para mover las celdas. ATM es una tecnología orientada a conexión, en contraste con los

protocolos de base LAN, que son sin conexión. Orientado a conexión significa que una conexión necesita ser

establecida entre dos puntos con un protocolo de señalización antes de cualquier transferencia de datos. Una

vez que la conexión está establecida, las celdas ATM se auto-rutean porque cada celda contiene campos que

identifican la conexión de la celda a la cual pertenecen.

Asynchronous Transfer Mode (ATM) es una tecnología de switching basada en unidades de datos de un

tamaño fijo de 53 bytes llamadas celdas. ATM opera en modo orientado a la conexión, esto significa que

cuando dos nodos desean transferir deben primero establecer un canal o conexión por medio de un protocolo

de llamada o señalización. Una vez establecida la conexión, las celdas de ATM incluyen información que

permite identificar la conexión a la cual pertenecen.

En una red ATM las comunicaciones se establecen a través de un conjunto de dispositivos intermedios

llamados switches.

Transmisiones de diferentes tipos, incluyendo video, voz y datos pueden ser mezcladas en una transmisión

ATM que puede tener rangos de155 Mbps a 2.5Gbps.Esta velocidad puede ser dirigida a un usuario, grupo de

trabajo o una red entera, porque ATM no reserva posiciones específicas en una celda para tipos específicos de

información. Su ancho de banda puede ser optimizado identificando el ancho de banda bajo demanda.

Conmutar las celdas de tamaño fijo significa incorporar algoritmos en chips de silicón eliminando retrasos

causados por software. Una ventaja de ATM es que es escalable. Varios switches pueden ser conectados en

cascada para formar redes más grandes.

¿ Qué interfaces permite manejar ATM ?

Existen dos interfases especificadas que son la interfase usuario-red UNI (user-network interface) y la de red a

red NNI (network-network interface). La UNI liga un dispositivo de usuario a un switch público o privado y la

NNI describe una conexión entre dos switches.

Hay dos interfases públicas UNI, una a 45 Mbps y otra a 155 Mbps. La interfase DS3 está definida en un

estándar T1 del comité ANSI, mientras que la interfase de 155 Mbps está definida por los grupos estándar del

CCITT y ANSI. Tres interfases han sido desarrolladas para UNIs privadas, una a 100 Mps y dos a 155 Mbps.

Es seguro que la interfase estándar internacional SDH/SONET de 155 Mbps sea la elegida porque permite

interoperabilidad en UNIs públicas y privadas.

Como ATM es una red orientada a conexión, un enlace entre dos puntos empieza cuando uno transmite una

solicitud a través de la UNI a la red. Un dispositivo responsable de señalización pasa la señal a través de la red

a su destino. Si el sistema indica que se acepta la conexión, un circuito virtual es establecido a través de la red

ATM entre los dos puntos. Ambas UNIs contienen mapas para que las celdas puedan ser ruteadas

correctamente. Cada celda contiene campos, un identificador de ruta virtual VPI (virtual path identifier) y un

identificador de circuito virtual VCI (virtual circuit identifier) que indican estos mapeos.

El uso de celdas para transmitir datos no significa que los protocolos de hoy no sean usados. ATM es

totalmente transparente a protocolo. La carga de cada celda es pasada por el switch sin ser "leida" a nivel

binario. ATM usa el concepto de control de error y flujo de "fin a fin" en contraste a la red convencional de

paquete conmutado que usa un control de error y flujo interno. Esto es que la red en sí no checa la carga de

datos para errores y lo deja al dispositivo terminal final (De hecho, el único chequeo de error en las celdas es

en el header, así la integridad de los VCI/VPI esta asegurada).

Page 7: Tele Procesos

ATM está diseñado para manejar los siguientes tipos de tráfico:

Clase A - Constant Bit Rate (CBR), orientado a conexión, tráfico síncrono (Ej. voz o video sin compresión)

Clase B - Variable Bit Traffic (VBR), orientado a conexión, tráfico sícrono (voz y video comprimidos).

Clase C - Variable Bit Rate, orientado a conexión, tráfico asíncrono (X.25, Frame Relay, etc).

Clase D - Información de paquete sin conexión (tráfico LAN, SMDS, etc).

Los switches que se utilizan en la actualidad son usados para formar terminales de trabajo de alto desempeño

en grupos de trabajo. El mayor mercado para los switches ATM será como columna vertebral de redes

corporativas. Uno de los mayores problemas que se enfrentan es el desarrollo de especificaciones para

emulación de LAN, una manera de ligar los switches ATM con las redes de área local. En la actualidad solo

existen soluciones de propietario.

¿ Cómo funciona ATM ?

El componente básico de una red ATM es un switch electrónico especialmente diseñado para transmitir datos

a muy alta velocidad. Un switch típico soporta la conexión de entre 16 y 32 nodos. Para permitir la

comunicación de datos a alta velocidad la conexión entre los nodos y el switch se realizan por medio de un par

de hilos de fibra óptica.

Aunque un switch ATM tiene una capacidad limitada, múltiples switches pueden interconectarse ente si para

formar una gran red. En particular, para conectar nodos que se encuentran en dos sitios diferentes es necesario

contar con un switch en cada uno de ellos y ambos a su vez deben estar conectados entre si.

Las conexiones entre nodos ATM se realizan en base a dos interfaces diferentes como ya mencionamos, la

User to Network Interfaces o UNI se emplea para vincular a un nodo final o «edge device» con un switch. La

Network to Network Interfaces o NNI define la comunicación entre dos switches.

Los diseñadores piensan en UNI como la interface para conectar equipos del cliente a la red del proveedor y a

NNI como una interface para conectar redes del diferentes proveedores.

Tipos de conexiones

ATM provee servicios orientados a la conexión. Para comunicarse con un nodo remoto, un host debe solicitar

a su switch local el establecimiento de una conexión con el destino. Estas conexiones pueden ser de dos

naturalezas: Switched Virtual Circuits (SVC) o Permanent Virtual Circuits (PVC).

Switched Virtual Circuits (SVC)

Un SVC opera del mismo modo que una llamada telefónica convencional. Un host se comunica con el switch

ATM local y requiere del mismo el establecimiento de un SVC. El host especifica la dirección completa del

nodo destino y la calidad del servicio requerido. Luego espera que la red ATM establezca el circuito.

El sistema de señalización de ATM se encarga de encontrar el path necesario desde el host origen al host

destino a lo largo de varios switches. El host remoto debe aceptar el establecimiento de la conexión.

Durante el proceso de señalización (toma este nombre por analogía con el usado en sistemas telefónicos de los

cuales deriva ATM) cada uno de los switches examina el tipo de servicio solicitado por el host de origen. Si

acuerda propagar información de dicho host registra información acerca el circuito solicitado y propaga el

requerimiento al siguiente switch de la red.

Este tipo de acuerdo reserva determinados recursos el switch para ser usados por el nuevo circuito. Cuando el

proceso de señalización concluye el switch local reporta la existencia del SVC al host local y al host remoto.

La interfase UNI identifica a cada uno de los SVC por medio de un número de 24 bits. Cuando un host acepta

un nuevo SVC, el switch ATM local asigna al mismo un nuevo identificador. Los paquetes transmitidos por la

red no llevan información de nodo origen ni nodo destino. El host marca a cada paquete enviado con el

identificador de circuito virtual necesario para llegar al nodo destino.

Nótese que se ha evitado hablar de los protocolos usados para el establecimiento de los SVC, para los procesos

de señalización y para comunicar a los hosts el establecimiento de un nuevo SVC. Además hay que tener en

cuenta que comunicaciones bidireccionales van a necesitar reservar recursos a lo largo del SVC para dos

sentidos de comunicación.

Permanent Virtual Circuits (PVC)

La alternativa al mecanismo de SVC descripto en el ítem anterior es evidente: el administrador de la red puede

configurar en forma manual los switches para definir circuitos permanentes. El administrador identifica el

nodo origen, el nodo destino, la calidad de servicio y los identificadores de 24 bits para que cada host pueda

acceder al circuito.

Paths, Circuitos e Identificadores

ATM asigna un entero único como identificador para cada path abierto por un host. Este identificador contiene

mucha menos información de la que fue necesaria para la creación del circuito. Además el identificador solo

es válido mientras que el circuito permanece abierto.

Page 8: Tele Procesos

Otro punto a tener en cuenta es que el identificador es valido para un solo sentido del circuito. Esto quiere

decir que los identificadores de circuito obtenidos por los dos hosts en los extremos del mismo usualmente son

diferentes.

Los identificadores usados por la interfase UNI están formados por 24 bits, divididos en dos campos, el

primero de 8 bits y el segundo de 16 bits. Los primeros 8 bits forman el llamado «Virtual Path Identifier» y los

16 restantes el «Virtual Circuit Identifier». Este conjunto de bits suele recibir el nombre de «VPI/VCI pair».

Esta división del identificador en dos campos persigue el mismo fin que la división de las direcciones IP en un

campo para identificar la red y un segundo campo para identificar el host. Si un conjunto de VCs sigue el

mismo path el administrador puede asignar a todos ellos un mismo VPI. El hardware de ATM usa entonces los

VPI para funciones de ruteo de tráfico.

Transporte de celdas

En cuanto al transporte de información, ATM usa tramas de tamaño fijo que reciben el nombre de celdas. El

hecho de que todas las celdas sean del mismo tamaño permite construir equipos de switching de muy alta

velocidad. Cada celda de ATM tiene una longitud de 53 bytes, reservándose los 5 primeros para el encabezado

y el resto para datos.

Dentro del encabezado se coloca el par VPI/VCI que identifica al circuito entre extremos, información de

control de flujo y un CRC .

La conexión final entre dos nodos recibe el nombre de Virtual Channel Connection o VCC. Una VCC se

encuentra formada por un conjunto de pares VPI/VCI.

Modelo de capas de ATM

Capa Física

Define la forma en que las celdas se transportan por la red

Es independiente de los medios físicos

Tiene dos subcapas

o TC (Transmission Convergence Sublayer)

o l PM (Physical Medium Sublayer)

Capa ATM

Provee un solo mecanismo de transporte para múltiples opciones de servicio

Es independiente del tipo de información que es transmitida (datos, gráficos, voz. audio, video) con

excepción del tipo de servicio (QOS) requerido

Existen dos tipos de header ATM

o UNI (User-Network Interface)

o NNI (Network-Network Interface)

ATM Adaptation Layer

o Provee las funciones orientadas al usuario no comprendidas en la Capa ATM

o Permite a la Capa ATM transportar diferentes protocolos y servicios de capas superiores

o Tiene dos subcapas

o CS (Convergence Sublayer)

o SAR (Segmentation and Reassembly Sublayer)

Si bien ATM se maneja con celdas a nivel de capas inferiores, las aplicaciones que generan la información a

ser transportada por ATM no trabajan con celdas. Estas aplicaciones interactuarán con ATM por medio de una

capa llamada «ATM Adaptation Layer». Esta capa realiza una serie de funciones entre las que se incluyen

detección de errores (celdas corruptas).

En el momento de establecer la conexión el host debe especificar el protocolo de capa de adaptación que va a

usar. Ambos extremos de la conexión deben acordar en el uso del mismo protocolo y este no puede ser

modificado durante la vida de la conexión.

Hasta el momento solo se han definido dos protocolos de capa de adaptación para ser usados por ATM. Uno

de ellos se encuentra orientado a la transmisión de información de audio y video y el otro para la transmisión

de datos tradicionales.

ATM Adaptation Layer 1 (AAL1) transmite información a una tasa de bits fija. Las conexiones creadas para

trabajar con video deben usar AAL1 dado que requieren un servicio de tasa constante para no tener errores de

parpadeo o «flicker» en la imagen.

La transmisión de datos tradicionales trabaja con la AAL5 para enviar paquetes de un nodo a otro. Ahora, si

bien ATM trabaja con tramas o celdas de tamaño fijo. Los protocolos de capa superior generalmente manejan

datagramas de longitud variable. Una de las funciones de la AAL5 consiste en adaptar estas tramas a celdas.

En particular la AAL5 puede recibir datagramas de hasta 64 Kb de longitud.

El paquete manejado por la AAL5 difiere estructuralmente de otros tipos de tramas existentes ya que la

información de control se inserta al final de la misma. La longitud de la misma es de 8 bytes.

Page 9: Tele Procesos

Cada una de las tramas de AAL5 deben ser fraccionadas en celdas para poder ser transportadas por la red para

luego ser recombinadas en el nodo remoto. Cuando el datagrama es un múltiplo de 48 bytes el resultado de la

división da un número entero de celdas. En caso contrario la última de las celdas no se encontrará completa.

Para poder manejar paquetes de longitud arbitraria, AAL5 permite que la celda final pueda contener entre 0 y

40 bytes de datos y coloca la información de control al final de la misma antecedida por los ceros de relleno

necesarios. En otras palabras, la información de control se coloca al final de la secuencia de celdas donde

puede ser encontrada y extraída sin necesidad de conocer la longitud del datagrama fraccionado.

Convergencia, Segmentación y Reensamblado

Cuando una aplicación envía datos sobre una conexión ATM usando AAL5, el host pasa los datos a la

interfase AAL5. Esta divide los datos en celdas, genera el «trailer» y transfiere a cada una de ellas a través de

la red ATM. En el nodo receptor AAL5 recibe las celdas y las reensambla en base a la información contenida

en el «trailer» para regenerar el datagrama original.

El nodo origen usa el byte menos significativo del campo «Payload Type» de la celda para indicar la celda

final de un datagrama. Podemos pensar que este bit funciona como un «end of packet bit».

En ATM el termino convergencia se usa para identificar el método usado para detectar el final de cada

datagrama fraccionado.

Otros capas de adaptación de ATM trabajan con métodos diferentes para resolver el problema de

convergencia.

¿ Porqué tanto interés por ATM ?

1.- ATM se ha originado por la necesidad de un standard mundial que permita el intercambio de información,

sin tener en cuenta el tipo de información transmitida. Con ATM la meta es obtener un standard internacional.

ATM es una tecnología que va creciendo y es controlada por un consenso internacional no por la simple vista

o estrategia de un vendedor.

2.- Desde siempre, se han usado métodos separados para la transmisión de información entre los usuarios de

una red de área local (LAN) y los de una red de gran tamaño(WAN). Esta situación traía una serie de

problemas a los usuarios de LAN's que querían conectarse a redes de área metropolitana, nacional y

finalmente mundial. ATM es un método de comunicación que se puede implantar tanto en LAN's como en

WAN's. Con el tiempo, ATM intentará que las diferencias existentes entre LAN y WAN vayan

desapareciendo.

3.- Actualmente se usan redes independientes para transportar voz, datos e imágenes de video debido a que

necesitan un ancho de banda diferente. Por ejemplo, el tráfico de datos tiende a ser "algo que estalla", es decir,

no necesita comunicar por un periodo extenso de tiempo sino transmitir grandes cantidades de información tan

rápido como sea posible. Voz y video, por otra parte, tienden a necesitar un trafico mas uniforme siendo muy

importante cuando y en el orden en que llega la información. Con ATM, redes separadas no serán necesarias.

ATM es el única tecnología basada en estándar que ha sido diseñada desde el comienzo para soportar

transmisiones simultaneas de datos, voz y video.

4.- ATM es un standard para comunicaciones que esta creciendo rápidamente debido a que es capaz de

transmitir a una velocidad de varios Megabits hasta llegar a Gigabits.

Tecnología ATM

1.- Cuando necesitamos enviar información, el emisor "negocia" un camino en la red para que su

comunicación circule por él hacia el destino. Una vez asignado el camino, el emisor especifica el tipo, la

velocidad y otros atributos de la comunicación.

2.- Otro concepto clave es que ATM está basado en el uso de conmutadores. Hacer la comunicación por medio

de un conmutador (en vez de un bus) tieneciertas ventajas:

o Reserva de ancho de banda para la conexión

o Mayor ancho de banda

o Procedimientos de conexión bien definidos

o Velocidades de acceso flexibles.

Si usamos ATM, la información a enviar es dividida en paquetes de longitud fija. Estos son mandados por la

red y el destinatario se encarga de poner los datos en su estado inicial. Los paquetes en ATM tienen una

longitud fija de 53 bytes. Siendo la longitud de los paquetes fija, permite que la información sea transportada

de una manera predecible. El hecho de que sea predecible permite diferentes tipos de trafico en la misma red.

Los paquetes están divididos en dos partes, la cabecera y payload. El payload (que ocupa 48 bytes) es la parte

del paquete donde viaja la información, ya sean datos, imágenes o voz. La cabecera (que ocupa 5 bytes) lleva

el mecanismo direccionamiento.

Beneficios

Page 10: Tele Procesos

1.- Una única red ATM dará cabida a todo tipo de tráfico (voz, datos y video). ATM mejora la eficiencia y

manejabilidad de la red.

2.- Capacita nuevas aplicaciones, debido a su alta velocidad y a la integración de los tipos de tráfico, ATM

capacita la creación y la expansión de nuevas aplicaciones como la multimedia.

3.- Compatibilidad, porque ATM no está basado en un tipo especifico de transporte físico, es compatible con

las actuales redes físicas que han sido desplegadas. ATM puede ser implementado sobre par trenzado, cable

coaxial y fibra óptica.

4.- Simplifica el control de la red. ATM está evolucionando hacia una tecnología standard para todo tipo de

comunicaciones. Esta uniformidad intenta simplificar el control de la red usando la misma tecnología para

todos los niveles de la red.

5.- Largo periodo de vida de la arquitectura. Los sistemas de información y las industrias de

telecomunicaciones se están centrando y están estandarizado el ATM. ATM ha sido diseñado desde el

comienzo para ser flexible en:

Distancias geográficas

Número de usuarios

Acceso y ancho de banda (hasta ahora, las velocidades varían de Megas a Gigas).

ATM

Asynchronous Transfer Mode. Es un modo de transferencia no síncrono que se hizo popular en 1988 cuando se decidió que

esta tecnología de conmutación seria la usada por las futuras redes ISDN en banda ancha. El tamaño ideal de las celdas de

este protocolo fue motivo de discusión decidiendo que serian de 53 (48 + 5) bytes, divididos en octetos.

ARQUITECTURA

Las redes ATM están orientadas a conexión, para que la comunicación exista entre dos terminales debe enviar primero un

paquete para establecer la conexión, llamadas Circuitos Virtuales, según recorre la subred todos los conmutadores en la ruta

crean una entrada en sus tablas internas tomando nota de la existencia de la conexión y así reservar cualquier recurso que la

misma necesitara.

Ya establecida la conexión, cada terminal puede empezar a transmitir datos. La idea básica en que se fundamenta ATM es

transmitir toda la información en paquetes pequeños, de tamaño fijo, llamados celdas. Las celdas tienen un tamaño de 53

bytes. Parte del encabezado es el identificador de la conexión, por lo que los hosts emisor y receptor y todos los

conmutadores intermedios pueden saber que celdas pertenecen a que conexiones, asi cada conmutador sabe como enviar

cada celda entrante.

Formato de Celdas ATM

Son estructuras de datos de 53 bytes compuestas por dos campos principales:

1. Encabezado (Header). Sus 5 bytes tienen tres funciones principales: identificación del canal, información para la

detección de errores y si la célula es o no utilizada. Eventualmente puede contener también corrección de errores y

un número de secuencia.

2. . Datos de Usuario (Payload). Tiene 48 bytes fundamentalmente con datos del usuario y protocolos AAL que

también son considerados como datos del usuario.

Dos de los conceptos más significativos del ATM, Canales Virtuales y Rutas Virtuales, están materializados en dos

identificadores en el header de cada celda (VCI y VPI) ambos determinan el enrutamiento entre nodos. El estándar define el

protocolo orientado a conexión que las transmite y dos tipos de formato de celda:

Page 11: Tele Procesos

NNI (Network to Network Interface o interfaz red a red) El cual se refiere a la conexión de conmutadores ATM en redes

privadas

UNI (User to Network Interface o interfaz usuario a red) este se refiere a la conexión de un conmutador ATM de una

empresa pública o privada con un terminal ATM de un usuario normal, siendo este último el más utilizado.

Celda UNI Celda NNI

Campos de la Celda ATM

GFC (Control de Flujo Genérico, Generic Flow Control, 4 bits): Labores de gestión de tráfico, pero en la práctica no es

utilizado. Las celdas NNI lo emplean para extender el campo VPI a 12 bits.

VPI (Identificador de Ruta Virtual, Virtual Path Identifier, 8 bits) y VCI (Identificador de Circuito Virtual, Virtual Circuit

Identifier, 16 bits): Se utilizan para indicar la ruta de destino o final de la celda.

PT (Tipo de Información de Usuario, Payload type, 3 bits): identifica el tipo de datos de la celda (de datos del usuario o de

control).

CLP (Prioridad, Cell Loss Priority, 1 bit): Nivel de prioridad de las celda, si este bit esta activo cuando la red ATM esta

congestionada la celda puede ser descartada.

HEC (Corrección de Error de Cabecera, Header Error Correction, 8 bits):contiene un código de detección de error que

sólo cubre la cabecera (no la información de usuario), y que permite detectar un buen número de errores múltiples y

corregir errores simples.

MODELO DE REFERENCIA ATM

Consta de 3 Capas:

1. Física: Relaciona todo el medio físico (voltajes, temporización de bits…). Esta capa se divide en dos subredes:

a. TC (Convergencia de Transmisión): Recibe una serie de bits de entrada de PMD, convierte este flujo de bits

en un flujo de celdas para la capa ATM. Hace el trabajo de la capa de enlace el modelo OSI.

b. PMD (Dependiente del Medio Físico): Es la que hace el trabajo. Interactúa con el cable real (Mueve los bits,

maneja temporización de bits…).

2. ATM: Se encarga de las celdas y su transporte (Significado de los campos, establecer o liberar circuitos virtuales…).

3. Adaptación ATM (AAL): Para que los usuarios envíen paquetes más grandes que una celda. AAL segmenta los paquetes,

transmite de forma individual las celdas y las reensambla al otro extremo.

a. SAR (Segmentacion y Reensamble): Fragmenta paquetes en celdas en el lado de transmisión y los une de

nuevo en el destino.

b. CS (Subcapa de Convergencia): Permite que los sistemas ATM ofrezcan diversos servicios a diferentes

aplicaciones.

Plano de Usuario: Transporte de datos, control de flujo, corrección de errores.

Plano de Control: Administración de la conexión.

Page 12: Tele Procesos

Capa OSI Capa ATM Subcapa ATM Funcionalidad

3/4 AAL CS Provision de la interfaz estándar (convergencia)

SAR

2/3 ATM Control de Flujo

Generacion/Extraccion de encabezado de

celda

Circuito Virtual/admon. De ruta

Multiplexion/desmultiplexion de celdas

2 Fisica TC Desacoplamiento de proporción de celdas.

Generacion y comprobación de la suma de

verificación de encabezados

Generacion de Celdas

Empaque/Desempaque de celdas a partir de

sobre contenedor

Generacion de tramas

1 PMD Temporizacion de bits

Acceso a la red física

CARACTERISTICAS PRINCIPALES

Transmitir la información en paquetes pequeños, de tamaño fijo, permite que cada conmutador sepa como enviar cada

celda entrante. Además cada recurso en la ruta del paquete pueden saber que celdas pertenecen a que conexiones.

Tener celdas de tamaño fijo permite que sea fácil construir conmutadores de hardware para manejarlas haciendo el

proceso un poco mas rápido.

El hardware puede configurarse para enviar una celda entrante a múltiples líneas de salida (multiplexacion), propiedad

necesaria para el manejo de programas de televisión.

ATM facilita la garantía en la calidad de servicio, esto se debe a que las celdas pequeñas no bloquean ninguna línea por

mucho tiempo.

Garantiza el orden de llegada de las celdas debido a que siguen la misma ruta destino.

Las velocidades mas comunes de las redes ATM son de 155 y 622 Mbps (aunque también soportan velocidades mas

altas).

ATM tan solo especifica que las celdas ATM se pueden enviar por cualquier medio de transporte. No prescribe un

conjunto particular de reglas. Esto significa que esta diseñado para ser independiente del medio de transmisión.

La Capa ATM es una combinación de capas de enlace de datos y de red del modelo OSI, no hay división en subcapas.

La entrega de celdas no está garantizada.

¿Qué significa TCP/IP?

TCP/IP es un conjunto de protocolos. La sigla TCP/IP significa "Protocolo de control de transmisión/Protocolo de Internet"

y se pronuncia "T-C-P-I-P". Proviene de los nombres de dos protocolos importantes del conjunto de protocolos, es decir, del

protocolo TCP y del protocolo IP.

En algunos aspectos, TCP/IP representa todas las reglas de comunicación para Internet y se basa en la noción de dirección IP,

es decir, en la idea de brindar una dirección IP a cada equipo de la red para poder enrutar paquetes de datos. Debido a que el

conjunto de protocolos TCP/IP originalmente se creó con fines militares, está diseñado para cumplir con una cierta cantidad

de criterios, entre ellos:

dividir mensajes en paquetes;

usar un sistema de direcciones;

enrutar datos por la red;

detectar errores en las transmisiones de datos.

El conocimiento del conjunto de protocolos TCP/IP no es esencial para un simple usuario, de la misma manera que un

espectador no necesita saber cómo funciona su red audiovisual o de televisión. Sin embargo, para las personas que desean

administrar o brindar soporte técnico a una red TCP/IP, su conocimiento es fundamental.

La diferencia entre estándar e implementación

En general, TCP/IP relaciona dos nociones:

la noción de estándar: TCP/IP representa la manera en la que se realizan las comunicaciones en una red;

Page 13: Tele Procesos

la noción de implementación: la designación TCP/IP generalmente se extiende a software basado en el protocolo

TCP/IP. En realidad, TCP/IP es un modelo cuya aplicación de red utilizan los desarrolladores. Las aplicaciones son, por

lo tanto, implementaciones del protocolo TCP/IP.

TCP/IP es un modelo de capas

Para poder aplicar el modelo TCP/IP en cualquier equipo, es decir, independientemente del sistema operativo, el sistema de

protocolos TCP/IP se ha dividido en diversos módulos. Cada uno de éstos realiza una tarea específica. Además, estos módulos

realizan sus tareas uno después del otro en un orden específico, es decir que existe un sistema estratificado. Ésta es la razón

por la cual se habla de modelo de capas.

El término capa se utiliza para reflejar el hecho de que los datos que viajan por la red atraviesan distintos niveles de protocolos.

Por lo tanto, cada capa procesa sucesivamente los datos (paquetes de información) que circulan por la red, les agrega un

elemento de información (llamado encabezado) y los envía a la capa siguiente.

El modelo TCP/IP es muy similar al modelo OSI (modelo de 7 capas) que fue desarrollado por la Organización Internacional

para la Estandarización (ISO) para estandarizar las comunicaciones entre equipos.

Presentación del modelo OSI

OSI significa Interconexión de sistemas abiertos. Este modelo fue establecido por ISO para implementar un estándar de

comunicación entre equipos de una red, esto es, las reglas que administran la comunicación entre equipos. De hecho, cuando

surgieron las redes,cada fabricante contaba con su propio sistema (hablamos de un sistema patentado), con lo cual coexistían

diversas redes incompatibles. Por esta razón, fue necesario establecer un estándar.

La función del modelo OSI es estandarizar la comunicación entre equipos para que diferentes fabricantes puedan desarrollar

productos (software o hardware) compatibles (siempre y cuando sigan estrictamente el modelo OSI).

La importancia de un sistema de capas

El objetivo de un sistema en capas es dividir el problema en diferentes partes (las capas), de acuerdo con su nivel de

abstracción.

Cada capa del modelo se comunica con un nivel adyacente (superior o inferior). Por lo tanto, cada capa utiliza los servicios

de las capas inferiores y se los proporciona a la capa superior.

El modelo OSI

El modelo OSI es un modelo que comprende 7 capas, mientras que el modelo TCP/IP tiene sólo 4. En realidad, el modelo

TCP/IP se desarrolló casi a la par que el modelo OSI. Es por ello que está influenciado por éste, pero no sigue todas las

especificaciones del modelo OSI. Las capas del modelo OSI son las siguientes:

<="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style:

normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start;

text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px;

background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit;

color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-

weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform:

none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255,

255);"><="" td="" style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family:

'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing:

normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal;

widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td=""

style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-

serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height:

21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing:

0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit;"><=""

td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style:

normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start;

text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px;

background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit;

color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-

weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform:

none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255,

255);"><="" td="" style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family:

'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing:

normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal;

widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td=""

style="box-sizing: inherit;">

Nivel Modelo antiguo Modelo nuevo

Page 14: Tele Procesos

Nivel 7

Nivel 6

Nivel 5

Nivel 4

Nivel 3

Nivel 2

Nivel 1

La capa física define la manera en la que los datos se convierten físicamente en señales digitales en los medios de

comunicación (pulsos eléctricos, modulación de luz, etc.).

La capa de enlace de datos define la interfaz con la tarjeta de interfaz de red y cómo se comparte el medio de

transmisión.

La capa de red permite administrar las direcciones y el enrutamiento de datos, es decir, su ruta a través de la red.

La capa de transporte se encarga del transporte de datos, su división en paquetes y la administración de potenciales

errores de transmisión.

La capa de sesión define el inicio y la finalización de las sesiones de comunicación entre los equipos de la red.

La capa de presentación define el formato de los datos que maneja la capa de aplicación (su representación y,

potencialmente, su compresión y cifrado) independientemente del sistema.

La capa de aplicación le brinda aplicaciones a la interfaz. Por lo tanto, es el nivel más cercano a los usuarios,

administrado directamente por el software.

El modelo TCP/IP

El modelo TCP/IP, influenciado por el modelo OSI, también utiliza el enfoque modular (utiliza módulos o capas), pero sólo

contiene cuatro:

<thmodèle tcp="" ip<="" th="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-

size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans:

auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-

text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><thmodèle osi<="" th="" style="box-sizing:

inherit;"></thmodèle></thmodèle><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans',

sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height:

21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing:

0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit; color:

rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight:

normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none;

white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255,

255);"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px;

font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-

align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-

width: 0px; background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-

family: 'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing:

normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal;

widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td=""

style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-

serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height:

21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing:

0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit;"><=""

td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style:

normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start;

text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px;

background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open

Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-

height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-

spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);">

Page 15: Tele Procesos

Capa de aplicación

Capa de acceso a la red

Como puede apreciarse, las capas del modelo TCP/IP tienen tareas mucho más diversas que las del modelo OSI, considerando

que ciertas capas del modelo TCP/IP se corresponden con varios niveles del modelo OSI.

Las funciones de las diferentes capas son las siguientes:

capa de acceso a la red: especifica la forma en la que los datos deben enrutarse, sea cual sea el tipo de red utilizado;

capa de Internet: es responsable de proporcionar el paquete de datos (datagrama);

capa de transporte: brinda los datos de enrutamiento, junto con los mecanismos que permiten conocer el estado de la

transmisión;

capa de aplicación: incorpora aplicaciones de red estándar (Telnet, SMTP, FTP, etc.).

A continuación se indican los principales protocolos que comprenden el conjunto TCP/IP:

<thmodèle tcp="" ip<="" th="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-

size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans:

auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-

text-stroke-width: 0px; background-color: rgb(255, 255, 255);"></thmodèle>

Aplicaciones de red

TCP o UDP

IP, ARP, RARP

FTS, FDDI, PPP, Ethernet, Red de anillos<="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open

Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-

height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-

spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);">

Encapsulación de datos

Durante una transmisión, los datos cruzan cada una de las capas en el nivel del equipo remitente. En cada capa, se le agrega

información al paquete de datos. Esto se llama encabezado, es decir, una recopilación de información que garantiza la

transmisión. En el nivel del equipo receptor, cuando se atraviesa cada capa, el encabezado se lee y después se elimina.

Entonces, cuando se recibe, el mensaje se encuentra en su estado original.

En cada nivel, el paquete de datos cambia su aspecto porque se le agrega un encabezado. Por lo tanto, las designaciones

cambian según las capas:

el paquete de datos se denomina mensaje en el nivel de la capa de aplicación;

el mensaje después se encapsula en forma de segmento en la capa de transporte;

una vez que se encapsula el segmento en la capa de Internet, toma el nombre de datagrama;

finalmente, se habla de trama en el nivel de capa de acceso a la red.

Page 16: Tele Procesos

Capa de acceso a la red

La capa de acceso a la red es la primera capa de la pila TCP/IP. Ofrece la capacidad de acceder a cualquier red física, es decir,

brinda los recursos que se deben implementar para transmitir datos a través de la red.

Por lo tanto, la capa de acceso a la red contiene especificaciones relacionadas con la transmisión de datos por una red física,

cuando es una red de área local (Red en anillo, Ethernet, FDDI), conectada mediante línea telefónica u otro tipo de conexión

a una red. Trata los siguientes conceptos:

enrutamiento de datos por la conexión;

coordinación de la transmisión de datos (sincronización);

formato de datos;

conversión de señal (análoga/digital);

detección de errores a su llegada.

...

Afortunadamente, todas estas especificaciones son invisibles al ojo del usuario, ya que en realidad es el sistema operativo el

que realiza estas tareas, mientras los drivers de hardware permiten la conexión a la red (por ejemplo, el driver de la tarjeta de

red).

La capa de Internet

La capa de Internet es la capa "más importante" (si bien todas son importantes a su manera), ya que es la que define los

datagramas y administra las nociones de direcciones IP.

Permite el enrutamiento de datagramas (paquetes de datos) a equipos remotos junto con la administración de su división y

ensamblaje cuando se reciben.

La capa de Internet contiene 5 protocolos:

el protocolo IP;

el protocolo ARP;

el protocolo ICMP;

el protocolo RARP;

el protocolo IGMP.

Los primeros tres protocolos son los más importantes para esta capa.

La capa de transporte

Los protocolos de las capas anteriores permiten enviar información de un equipo a otro. La capa de transporte permite que las

aplicaciones que se ejecutan en equipos remotos puedan comunicarse. El problema es identificar estas aplicaciones.

De hecho, según el equipo y su sistema operativo, la aplicación puede ser un programa, una tarea, un proceso, etc.

Además, el nombre de la aplicación puede variar de sistema en sistema. Es por ello que se ha implementado un sistema de

numeración para poder asociar un tipo de aplicación con un tipo de datos. Estos identificadores se denominan puertos.

La capa de transporte contiene dos protocolos que permiten que dos aplicaciones puedan intercambiar datos

independientemente del tipo de red (es decir, independientemente de las capas inferiores). Estos dos protocolos son los

siguientes:

TCP, un protocolo orientado a conexión que brinda detección de errores;

UDP, un protocolo no orientado a conexión en el que la detección de errores es obsoleta.

La capa de aplicación

La capa de aplicación se encuentra en la parte superior de las capas del protocolo TCP/IP. Contiene las aplicaciones de red

que permiten la comunicación mediante las capas inferiores.

Por lo tanto, el software en esta capa se comunica mediante uno o dos protocolos de la capa inferior (la capa de transporte),

es decir, TCP o UDP.

Existen diferentes tipos de aplicaciones para esta capa, pero la mayoría son servicios de red o aplicaciones brindadas al usuario

para proporcionar la interfaz con el sistema operativo. Se pueden clasificar según los servicios que brindan:

servicios de administración de archivos e impresión (transferencia);

servicios de conexión a la red;

servicios de conexión remota;

diversas utilidades de Internet.

Consulta este artículo sin tener que estar conectado, descárgalo gratis aquí en formato PDF:

El modelo TCP/IP

Actualizado: enero de 2005

Se aplica a: Windows Server 2003, Windows Server 2003 R2, Windows Server 2003 with SP1, Windows Server 2003 with

SP2

El modelo TCP/IP

TCP/IP está basado en un modelo de referencia de cuatro niveles. Todos los protocolos que pertenecen al conjunto de

protocolos TCP/IP se encuentran en los tres niveles superiores de este modelo.

Page 17: Tele Procesos

Tal como se muestra en la siguiente ilustración, cada nivel del modelo TCP/IP corresponde a uno o más niveles del modelo

de referencia Interconexión de sistemas abiertos (OSI, Open Systems Interconnection) de siete niveles, propuesto por la

Organización internacional de normalización (ISO, International Organization for Standardization).

Los tipos de servicios realizados y los protocolos utilizados en cada nivel del modelo TCP/IP se describen con más detalle

en la siguiente tabla.

Nivel Descripción Protocolos

Aplicación Define los protocolos de aplicación TCP/IP y cómo se conectan los

programas de host a los servicios del nivel de transporte para utilizar la red.

HTTP, Telnet, FTP, TFTP,

SNMP, DNS, SMTP,

X Windows y otros

protocolos de aplicación

Transporte Permite administrar las sesiones de comunicación entre equipos host.

Define el nivel de servicio y el estado de la conexión utilizada al

transportar datos.

TCP, UDP, RTP

Internet Empaqueta los datos en datagramas IP, que contienen información de las

direcciones de origen y destino utilizada para reenviar los datagramas entre

hosts y a través de redes. Realiza el enrutamiento de los datagramas IP.

IP, ICMP, ARP, RARP

Interfaz de

red

Especifica información detallada de cómo se envían físicamente los datos a

través de la red, que incluye cómo se realiza la señalización eléctrica de los

bits mediante los dispositivos de hardware que conectan directamente con

un medio de red, como un cable coaxial, un cable de fibra óptica o un cable

de cobre de par trenzado.

Ethernet, Token Ring,

FDDI, X.25, Frame Relay,

RS-232, v.35

Para obtener más información acerca de ARP, IP, ICMP, IGMP, UDP y TCP, vea Descripción de TCP/IP.

Nota

El modelo de referencia OSI no es específico de TCP/IP. Este modelo fue desarrollado por ISO a finales de los

años 70 como marco para describir todas las funciones necesarias en una red interconectada abierta. Es un modelo

de referencia muy conocido y aceptado en el campo de las comunicaciones de datos y se utiliza aquí sólo para

propósitos de comparación.

El protocolo UDP

El grupo de protocolos de Internet también maneja un protocolo de transporte sin conexiones, el UDP (User Data Protocol,

protocolo de datos de usuario). El UDP ofrece a las aplicaciones un mecanismo para enviar datagramas IP en bruto

encapsulados sin tener que establecer una conexión.

Muchas aplicaciones cliente-servidor que tienen una solicitud y una respuesta usan el UDP en lugar de tomarse la molestia

de establecer y luego liberar una conexión. El UDP se describe en el RFC 768. Un segmento UDP consiste en una cabecera

de 8 bytes seguida de los datos. La cabecera se muestra a continuación. Los dos puertos sirven para lo mismo que en el TCP:

para identificar los puntos terminales de las máquinas origen y destino. El campo de longitud UDP incluye la cabecera de 8

bytes y los datos. La suma de comprobación UDP incluye la misma pseudocabecera de formato, la cabecera UDP, y los

datos, rellenados con una cantidad par de bytes de ser necesario.

Esta suma es opcional, y se almacena como 0 si no se calcula. Inutilizarla seria absurdo, a menos que la cantidad de los datos

no importe, por ejemplo, voz digitalizada.

Page 18: Tele Procesos

UDP no admite numeración de los datagramas, factor que, sumado a que tampoco utiliza señales de confirmación de entrega,

hace que la garantía de que un paquete llegue a su destino sea mucho menor que si se usa TCP. Esto también origina que

los datagramas pueden llegar duplicados y/o desordenados a su destino. Por estos motivos el control de envío de datagramas,

si existe, debe ser implementado por las aplicaciones que usan UDP como medio de transporte de datos, al igual que el

reeensamble de los mensajes entrantes.

Es por ello un protocolo del tipo best-effort (máximo esfuerzo), porque hace lo que puede para transmitir los datagramas

hacia la aplicación, pero no puede garantizar que la aplicación los reciba.

Tampoco utiliza mecanismos de detección de errores. Cuando se detecta un error en un datagrama, en lugar de entregarlo a

la aplicación destino, se descarta.

Cuando una aplicación envía datos a través de UDP, éstos llegan al otro extremo como una unidad. Por ejemplo, si una

aplicación escribe 5 veces en el puerto UDP, la aplicación al otro extremo hará 5 lecturas del puerto UDP. Además, el

tamaño de cada escritura será igual que el tamaño de las lecturas.

Protocolo de Datagramas de Usuario (UDP)

UDP es un protocolo estándar con número 6 de STD. Este protocolo se describe en el RFC 768 - Protocolo de Datagrama de

Usuario. Este protocolo serecomienda, pero en la práctica cada implementación TCP/IP que no se use exclusivamente para

encaminamiento incluirán UDP.

UDP es básicamente una interfaz de aplicación para IP. No soporta confiabilidad, control de flujo o recuperación de errores

para IP. Simplemente sirve como "multiplexor/demultiplexor" para enviar y recibir datagramas, usando puertos para dirigir

los datagramas como se muestra en la figura adjunta. Se pueden encontrar más detalles sobre puertos en Puertos y Sockets.

UDP proporciona un mecanismo para que una aplicación envíe un datagrama a otra. La capa UDP es sumamente delgada por

lo que tiene pocas sobrecargas, pero requiere que la aplicación sea responsable de la recuperación de errores y demás

características no soportadas.

Puertos

El concepto de puerto se trató anteriormente en Puertos y Sockets.

Las aplicaciones que envían datagramas hacia un host necesitan identificar el destino, siendo éste más especiífico que la

dirección IP, ya que los datagramas están dirigidos normalmente a ciertos procesos y no al sistema completo. UDP

proporciona este mecanismo usando puertos.

Un puerto es un número de 16 bits que identifica qué proceso de un host está asociado con un cierto datagrama. Hay dos tipos

de puerto:

Page 19: Tele Procesos

bien-conocidos

Estos puertos pertenecen a servidores estándares, por ejemplo TELNET usa el puerto 23. El rango de este

tipo de puerto está comprendido entre 1 y 1023. Los números de puertos bien-conocidos son típicamente

impares porque los primeros sistemas usaban el concepto de puerto como una pareja de puertos impar/par

para operaciones duplex. La mayoría de los servidores requieren sólo un puerto. Una excepción es el

servidor BOOTP que usa dos: el 67 y el 68 (ver Protocolo BOOTstrap - BOOTP).

El motivo de la utilización de los puertos bien-conocidos es permitir a los clientes tener la capacidad de encontrar servidores

sin información de configuración. Los números de dichos puertos están definidos en STD 2 - Números de Internet Asignados.

efímeros

Los clientes no necesitan números de puertos bien-conocidos porque inician la comunicación con servidores

y el número de puerto que usan ya está contenido en los datagramas UDP enviados al servidor. Cada proceso

del cliente está localizado en un número de puerto mientras el host lo necesite y se esté ejecutando. Los

números de puerto efímeros tienen valores mayores que 1023, normalmente en el rango de 1024 a 5000. Un

cliente puede usar cualquier número localizado dentro de dicho rango, mientras que la combinación de

<protocolo de transporte, dirección IP, número de puerto> es única.

Nota: TCP también usa números de puerto con los mismos valores. Estos puertos son bastante independientes. Normalmente,

un servidor usará TCP o UDP, pero hay excepciones. Por ejemplo, los servidores de Nombres de Dominio (ver Sistema de

Nombre de Dominio (DNS)) usan ambos, puerto UDP 53 y puerto TCP 53.

Formato del Datagrama UDP

Cada datagrama UDP se envía con un único datagrama IP. Aunque el datagrama IP se puede fragmentar durante la

transmisión, la implementación de recepción IP lo re-ensamblará antes de presentarlo a la capa UDP. Todas

las implementaciones IP están preparadas para aceptar datagramas de 576 bytes, permitiendo un tamaño máximo de cabacera

IP de 60 bytes sabiendo que un datagrama UDP de 516 bytes lo aceptan todas las implementaciones. Muchas

implementaciones aceptarán datagramas mayores, aunque no se puede asegurar. El datagrama UDP tiene una cabecera de 16

bytes que se describe en la figura siguiente:

donde:

puerto de origen

Indica el puerto del proceso que envía. Este es el puerto que se direcciona en las respuestas.

puerto destino

Especifica el puerto del proceso destino en el host de destino.

longitud

Es el tamaño (en bytes) de este datagrama de usuario incluyendo la cabecera.

suma de comprobación (checksum)

Es un campo opcional de 16 bits en complemento a uno de la suma en complemento a uno de una cabecera

pseudo-IP, la cabecera UDP y los datos UDP. La cabecera pseudo-IP contiene la dirección IP fuente y

destino, el protocolo y la longitud UDP:

La cabecera pseudo-IP extiende efectivamente la suma de comprobación para incluir el datagrama IP original (defragmentado)

Interfaz de Programación de Aplicaciones UDP

La interfaz de aplicación que ofrece UDP se describe en el RFC 768. Dicha interfaz proporciona:

Page 20: Tele Procesos

La creación de nuevos puertos de recepción.

La recepción de operaciones que devuelven los bytes de datos y un indicador de puerto fuente y una

dirección fuente IP.

El envío de operaciones que tienen como parámetros los datos, los puertos fuente y destino y las direcciones.

La forma en la que está implementado depende de cada vendedor.

Hay que ser conscientes de que UDP e IP no proporcionan entrega garantizada, control de flujo o recuperación de errores, así

que estos mecanismos tienen que ser soportados por las aplicaciones.

Las aplicaciones estándares que utilizan UDP son:

Protocolo de Transferencia de Ficheros Trivial (TFTP)

Sistema de Nombres de Dominio (DNS) servidor de nombres

Llamada a Procedimiento Remoto (RPC), usado por el Sistema de Ficheros en Red (NFS)

Sistema de Computación de Redes (NCS)

Protocolo de Gestión Simple de Redes (SNMP)

Puertos y Sock

Introducción a IP/ATM

Actualizado: enero de 2005

Se aplica a: Windows Server 2003, Windows Server 2003 R2, Windows Server 2003 with SP1, Windows Server 2003 with

SP2

Introducción a IP/ATM

IP/ATM es un grupo de servicios para la comunicación en redes ATM que pueden usarse como alternativa a la emulación

de LAN. IP/ATM se controla mediante dos componentes principales: el cliente IP/ATM y el servidor IP/ATM. El servidor

IP/ATM incluye un servidor ARP de ATM y un servicio de resolución de direcciones de multidifusión (MARS). Los

componentes de red IP/ATM pueden residir en un servidor o en un conmutador ATM.

La ventaja principal de usar IP/ATM es que es más rápido que LANE. Con IP/ATM, no se agrega información adicional de

encabezado a los paquetes a medida se transmiten por la pila de protocolo. En cuanto el cliente IP/ATM ha establecido una

conexión, los datos pueden transferirse sin modificaciones.

IP/ATM admite el uso de un servidor DHCP (Protocolo de configuración dinámica de host) en la red ATM.

Modo de Transferencia Asíncrona (ATM)

Las redes basadas en ATM están tomando interés en las aplicaciones de área local y ancha. Hay disponibles ya algunos

productos para implementar redes físicas ATM. La arquitectura ATM es nueva, por lo tanto, diferente de las LAN estándar.

Por esta razón, se requieren cambios así que los productos de LAN tradicionales trabajarán en el entorno ATM. En el caso de

TCP/IP, el cambio principal a realizar es en la interfaz de red para proporcionar soporte a ATM.

Hay muchos enfoques disponibles en estos momentos, dos de los cuales son importantes para el transporte del tráfico de

TCP/IP. Estos se describen en IP clásico sobre ATM y emulación de LAN ATM. También se comparan IP clásico sobre ATM

contra la emulación de LAN.

Resolución de Direcciones

(ATMARP e InATMARP)

La resolución de direcciones en una subred IP lógica ATM se lleva a cabo mediante el Protocolo de Resolución de Direcciones

de ATM (ATMARP) basada en RFC 826 y el Protocolo de Resolución de Direcciones ATM Inverso. ATMARP es el mismo

protocolo que el ARP con extensiones necesarias para soportar ARP en un entorno servidor unicast ATM. InATMARP es el

mismo protocolo que el protocolo original InARP pero aplicado a redes ATM. El uso de estos protocolos depende de si

utilizamos PVCs o SVCs.

ATMARP y InATMARP se definen en el RFC 1577, que es un estándar propuesto pero próximamente aceptado.

La encapsulación de peticiones ATMARP y InATMARP se describe en IP clásico sobre ATM.

InATMARP

El protocolo ARP se usa para resolver una dirección hardware de un host una dirección IP conocida. El protocolo InATMARP

se usa para resolver una dirección IP de host por una dirección conocida de hardware. En un entorno conmutado primero se

establece una CV (Conexión Virtual) de cada CVP (Conexión Virtual Permanente) o CVC (Conexión Virtual Conmutada)

para comunicar con otra estación. Por tanto, se conoce la dirección exacta de hardware del partner by administration pero la

dirección IP se desconoce. InATMARP proporciona resolución de direcciones dinámica.

InARP usa el mismo formato de trama que el estándar ARP pero define dos nuevos códigos de operación:

petición InARP=8

respuesta InARP=9

Véase Generación de Paquetes ARP para más detalles.

El InATMARP básico opera esencialmente igual que ARP exceptuando que InATMARP no hace peticiones broadcast. Esto

es porque la dirección hardware de la estación de destino ya se sabe. Una estación de peticiones simplemente formatea una

petición insertando su hardware origen y dirección IP y la dirección hardware de destino conocida. Luego rellena con ceros

Page 21: Tele Procesos

el campo de dirección de protocolo de destino y lo envía directamente a la estación de destino. Para cada petición InATMARP,

la estación receptora formatea una respuesta usando la dirección de origen de la petición como la dirección origen de la

respuesta. Ambos lados actualizan sus tablas ARP. El valor del tipo de hardware para ATM es 19 en decimal y el

campo EtherType se pone a 0x806, lo que indica ARP según el RFC 1700.

Resolución de direcciones en un entorno CVP

En un entorno PVC cada estación usa el protocolo InATMARP para determinar las direcciones IP de las otras estaciones

conectadas. La resolución se hace para estos PVCs lo cuales se configuran para encapsulación LLC/SNAP. Esta es la

responsabilidad de cada estación IP soportando PVCs para volver a validar las entradas de la tabla ARP como parte del

proceso de envejecimiento.

Resolución de direcciones en un entorno CVC

Las CVCs requieren soporte para ATMARP en el entorno no-broadcast de ATM. Para encontrar esta necesidad, un sólo

servidor ATMARP debe localizarse en la Subred IP Lógica (LIS) (ver La Subred IP Lógica (LIS)). Este servidor tiene

responsabilidad autoritaria para resolver las peticiones ATMARP de todos los miembros IP con la LIS. Para explicaciones en

términos de ATM ir a IP clásico IP sobre ATM.

El propio servidor no establece activamente conexiones. Ello depende de los clientes en el LIS para iniciar el procedimiento

de registro ATMARP. Un cliente individual se conecta al servidor ATMARP usando un CV punto-a-punto. El servidor, en la

terminación de una llamada/conexión ATM de un nuevo CV especificando encapsulación LLC/SNAP, transmitirá una

petición InATMARP para determinar la dirección IP del cliente. La respuesta InATMARP del cliente contiene la información

necesaria para el servidor ATMARP para construir su tabla ATMARP.

Esta tabla consiste en:

La dirección IP

La dirección ATM

Timestamp

CV asociado

Esta información se utiliza para generar respuestas a las peticiones que ATMARP recibe.

Nota: El mecanismo del servidor ATMARP requiere que cada cliente sea configurado administrativamente con la dirección

ATM del servidor ATMARP.

Algoritmo añade/actualiza tabla ARP:

Si el servidor ATMARP recibe una nueva dirección IP en una respuesta InATMARP se añade a la tabla

ATMARP esa dirección IP.

Si la dirección IP InATMARP duplica una drección IP de entrada en la tabla y la dirección InATMARP

ATM no coincide con la dirección ATM de la entrada de la tabla y existe un CV asociado abierto con esa

entrada de la tabla, la información InATMARP se descarta y no se realiza modificación alguna a la tabla.

Cuando el servidor recibe una petición ATMARP sobre un CV, donde el IP de origen y la dirección ATM

coinciden the association already in the ATMARP table y the ATM address matches that associated with

the VC, the server updates the timeout on the source ATMARP table entry. For example, if the client is

sending ATMARP requests to the server over the same VC that it used to register its ATMARP entry, the

server notes that the client is still "alive" y updates the timeout on the client's ATMARP table entry.

When the server receives an ARP_REQUEST over a VC, it examines the souinformation. If there is no IP

address associated with the VC over which the ATMARP request was received y if the source IP address is

not associated with any other connection, then the server adds this station to its ATMARP table. This is not

the normal way because, as mentioned above, it is the responsibility of the client to register at the ATMARP

server.

Envejecimiento de la tabla ATMARP

Las entradas de la tabla ATMARP son válidas:

En clientes para un tiempo máximo de 15 minutos.

En servidores para un tiempo mínimo de 20 minutos.

Antes de que envejezca una entrada en la tabla ATMARP, el servidor ATMARP genera una petición InARP en un CV

asociado que esté abierto con esa entrada y decide qué hacer según las siguientes reglas:

Si se recibe una respuesta InARP esa entrada se actualiza y no se borra.

Si no existe CV asociado abierto con esa entrada se elimina.

Por tanto, si el cliente no mantiene un CV abierto al servidor, el cliente debe refrescar su información ATMARP con el

servidor al menos una vez cada 20 minutos. Esto se hace abriendo un CV al servidor y cambiando los paquetes iniciales

InATMARP.

El cliente hyles las actualizaciones de la tabla según lo siguiente:

Cuando una entrada de la tabla ATMARP envejece, el cliente ATMARP invalida esta entrada.

Si no hay un CV asociado con la entrada invalidada, esa entrada se borra.

Page 22: Tele Procesos

En el caso de una entrada invalidada y un CV abierto, el cliente ATMARP revalida la entrada prior to

transmitir alguna non-address resolution traffic en ese CV. Hay dos posibilidades:

o En el caso de un CVP, el cliente valida la entrada transmitiendo una petición InARP y actualizando

la entrada on receipt de una repuesta InARP.

o En el caso de un CVS, el clente valida la entrada transmitiendo una repuesta ARP al servidor

ATMARP y actualizando la entrada on receipt de una respuesta ARP.

Si un CV con una entrada de la tabla ATMARP invalidada asociada se cierra, esa entrada se elimina.

Como se mencionó anteriormente, cada cliente IP ATM que usa CVSs debe saber la dirección de su dirección ATM del

servidor ATMARP para el LIS particular. Esta dirección se debe referenciar en cada cliente durante la configuración.

Actualmente no hay direcciones de servidores ATMARP "conocidas".

IP Clásico sobre ATM

Las definiciones para realizaciones de IP clásico sobre ATM (Modo de Transferencia Asíncrona) se describen en el RFC 1577

which is a proposed estándar con un estado de elective según el RFC 1720 (STD 1). Este RFC considera sólo la aplicación de

ATM como un reemplazo directo del "cableado", segmentos locales LAN conectando estaciones-terminales IP ("miembros")

y routers operando en el paradigma basado en LAN "clásico". Issues raised by MAC level bridging y LAN emulation are not

covered.

Despliegue iniciales de ATM proporcionan un reemplazo de segmentos LAN para:

Redes Ethernets, token-rings o FDDI.

Local-area backbones entre LANs (no-ATM) existentes.

Circuitos dedicados de Frame Relay CVPs entre routers IP.

Este RFC también describe extensiones para el protocolo ARP (RFC 826) in order to trabajar sobre ATM. Esto se discute

separadamente en: Resolución de Direcciones (ATMARP y InATMARP).

Primero algo básico de ATM:

Celdas

Toda la información (voz, imágenes, vídeo, datos, etc.) se transporta a través de la red en unos bloques muy

pequeños llamados celdas (48 bytes de datos más una cabecera de 5 bytes).

Encaminamiento

El flujo de información se realiza a lo largo de trayectorias (llamadas "canales virtuales") configuradas

como una serie de punteros a través de la red. La cabecera de la celda contiene un identificador que enlaza

la celda a la trayectoria correcta que tomará hacia su destino.

Las celdas de un canal virtual particular siempre siguen la misma trayectoria a través de la red y son

transportadas al destino en el mismo orden en que fueron recibidas.

Conmutación basada en Hardware

ATM está diseñada para que elementos lógicos basados en hardware simple se deban emplear en cada nodo

para mejorar la conmutación. En un enlace de 1 Gbps llega una nueva celda y una celda se transmite cada

0.43 microsegundos. No hay mucho tiempo para decidir que hacer con un paquete que llega.

Conexión Virtual CV

ATM proporciona un entorno conmutado de Conexión Virtual. La configuración de la CV debe hacerse

tanto en una Conexión Virtual Permanente (CVP) o una Connexión Virtual Conmutada (CVC) dinámica

básica. El manejo de la llamada CVC se lleva a cabo vía implementaciones del protocol Q.93B.

Fin-Interfaz-Usuario

La única manera que tiene un protocolo for a higher layer protocol to communicate across an ATM network

is over the ATM AAL (ATM Adaptation Layer). The function of this layer is to perform the mapping of

PDUs (Protocol Data Units) into the information field of the ATM cell y vice versa. There are four different

AAL types defined, AAL1, AAL2, AAL3/4 y AAL5. These AALs offer different services for higher layer

protocols. Here are the characteristics of AAL5 which is used por TCP/IP:

Modo Mensaje y modo flujo.

Transporte Assured.

Transporte Non-assured (usado por TCP/IP).

Segmentación de datos.

Operación Multipunto.

AAL5 provides the same functions as a LAN at the MAC (Medium Access Control) layer. The AAL type

is known by the VC endpoints via the cell setup mechanism y is not carried in the ATM cell header. For

PVCs the AAL type is administratively configured at the endpoints when the Connection (circuit) is set up.

For SVCs, the AAL type is communicated along the VC path via Q.93B as part of call setup establishment

Page 23: Tele Procesos

y the endpoints use the signaled information for configuration. ATM switches generally do not care about

the AAL type of VCs. The AAL5 format specifies a packet format with a maximum size of 64KB - 1 byte

of user data. The "primitives" which the higher layer protocol has to use in order to interface with the AAL

layer (at the AAL service access point - SAP) are rigorously defined. When a high-layer protocol sends

data, that data is processed first by the adaptation layer, then by the ATM layer y then the physical layer

takes over to send the data to the ATM network. The cells are transported by the network y then received

on the other side first by the physical layer, then processed by the ATM layer y then by the receiving AAL.

When all this is complete, the information (data) is passed to the receiving higher layer protocol. The total

function performed by the ATM network has been the non-assured transport (it might have lost some) of

information from one side to the other. Looked at from a traditional data processing viewpoint all the ATM

network has done is to replace a physical link connection with another kind of physical connection - all the

"higher layer" network functions must still be performed (for example IEEE 802.2).

Direccionamiento

An ATM Forum endpoint address is either encoded as a 20-byte OSI NSAP-based address (used for private

network addressing, three formats possible) or is an E.164 Public UNI address (telephone number style

address used for public ATM networks). (5)

Broadcast, Multicast

No existe actualmente funciones broadcast similares a las que proporciona una LAN. Pero hay una función

multicast disponible. El término ATM para multicast es "conexión punto-a-multipunto".

Subred Lógica IP (LIS)

El término LIS se introdujo para hacer corresponder la estructura lógica IP a la red ATM. En un escenario LIS, cada entidad

administrativa configura por separado sus hosts y routers con una subred lógica cerrada (de la misma forma que un número

de red/subred IP y máscara de dirección). Cada LIS opera y se comunica independientemente de otros LISs de la misma red

ATM. Los hosts que se conectan a un red ATM se comunican directamente a otros hosts con el mismo the same LIS. Esto

implica que todos los miembros de una LIS están capacitados para comunicarse vía ATM con todos los miembtros restantes

del mismo LIS (la topología de CV está totalmente engranada). La comunicación a los hosts fuera del LIS local se proporciona

vía router IP. Este router es un punto terminal ATM conectado a la red ATM que se configura como miembro de uno o más

LISs. Esta configuración puede dar un número de LISs separados operando sobre la misma red ATM. Los hosts de diferentes

subredes IP deben comunicarse vía router IP intermedio incluso aunque sea posible abrir un CV directo entre los dos miembros

IP sobre la red ATM.

Encapsulación Multiprotocolo

Si se quiere usar más de un tipo de protocolo de red (IP, IPX, etc.) concurrentemente sobre una red física, se necesita un

método de multiplexación de los diferentes protocolos. Esto se puede realizar en el caso de ATM por multiplexación basada

en CV o encapsulación LLC. Si optamos por multiplexación basada en CV tenemos que tener un CV para cada protocolo

diferente entre los dos hosts. La encapsulación LLC proporciona la función de multiplexado en la capa LLC y por tanto

necesita un solo CV. TCP/IP utiliza, según el RFC 1577 y 1483, el segundo método porque este tipo de multiplexación estaba

ya definido en el RFC 1042 para todos los otros tipos de LAN tales como Ethernet, token-ring y FDDI. Con esta definición

IP usa ATM simplemente como sustituto de LAN. Todos los beneficios restantes que tiene que ofrecer ATM, tales como

transporte de tráfico síncrono, etc, no se usan. Existe un grupo de trabajo (IETF) con la misión de mejorar la implementación

y la interfaz con el foro de ATM a fin de representar los intereses de la comunidad de Internet para estándares futuros.

Para ser exactos, el PDU TCP/IP es encapsulado en una cabecera LLC IEEE 802.2 seguido de una cabecera SNAP IEEE

802.1a (Punto de Conexión a la Subred) y llevado con el campo de carga útil de un AAL5 CPCS-PDU (Subcapa de

Convergencia de la Parte Común). El formato AAL5 CPCS-PDU se muestra en Figura - Formato AAL5 CPCS-PDU.

Carga útil CPCS-PDU

La carga útil CPCS-PDU se muestra en la Figura - Formato de carga útil CPCS-PDU para PDUs IP.

Pad

El campo Pad rellena el CDCS-PDU para ajustarlo exactamente a las celdas ATM.

CPCS-UU

El campo CPCS-UU (Identificación Usuario-a-Usuario) se usa para transferencia transparente CPCS de

información usuario-a-usuario. Este campo no tiene función para la encapsulación y se le puede asignar

cualquier valor.

CPI

Page 24: Tele Procesos

El campo de CPI (Indicador de la Parte Común) alinea el CPCS-PDU trailer con 64 bits.

Longitud

El campo de Longitud indica la longitud, en bytes, del campo carga útil. El valor máximo es 65535 que es

64KB-1.

CRC

El campo CRC proteje todo el CPCS-PDU excepto a sí mismo.

El formato de carga útil para routed IP PDUs se muestra en la Figura - Formato de carga útil CPCS-PDU IP PDUs.

IP PDU

Normal IP datagram starting with the IP header.

LLC

3-byte LLC header with the format DSAP-SSAP-Ctrl. For IP data it is set to 0xAA-AA-03 to indicate the

presence of a SNAP header. The Ctrl field always has the value 0x03 specifying Unnumbered Information

Commy PDU.

OUI

The 3-byte OUI (Organizationally Unique Identifier) identifies an organization which administers the

meaning of the following 2-byte Protocol Identifier (PID). To specify an EtherType in PID the OUI has to

be set to 0x00-00-00.

PID

The Protocol Identifier (PID) field specifies the protocol type of the following PDU. For IP datagrams the

assigned EtherType or PID is 0x08-00.

The default MTU size for IP members in an ATM network is discussed in RFC 1626 y defined to be 9180 bytes. The

LLC/SNAP header is 8 bytes; therefore, the default ATM AAL5 PDU size is 9188 bytes. The possible values can be between

zero y 65535. You are allowed to change the MTU size but then all members of a LIS must be changed as well in order to

have the same value. RFC 1755 recommends that all implementations should support MTU sizes up to y including 64KB.

La resolución de direcciones en una red ATM se define como una extensión del protocolo ARP y se describe en Resolución

de Direcciones (ATMARP e InATMARP).

No existe una correspondencia entre IP broadcast or multicast addresses to ATM "broadcast" or multicast addresses available.

Pero no hay restricciones en la transmición o recepción de datagramas IP especificando cualquiera de los cuatro formas de

direccionar estándares de broadcast IP como se describen en el RFC 1122. Los miembros, después de recivir un broadcast IP

o broadcast de subred IP para sus LIS, deben procesar el paquete como si estuviese direccionado a esa estación.

Emulación de una LAN ATM

Otro enfoque para proporcionar un camino migratorio hacia una red ATM nativa es la emulación de una LAN ATM. Esta

emulación está todavía por construir por los grupos de trabajo ATM Forum. Para el enfoque IETF véase IP clásico sobre

ATM. No existe acuerdo de realización de ATM Forum disponible para cubrir las LAN virtuales sobre ATM pero hay algunos

acuerdos básicos sobre los diferentes propósitos realizados al ATM Forum. Las descripciones anteriores se basan en las

propuestas por IBM.

El concepto de emulación de LAN ATM es construir un sistema tal que el software de aplicación de una estación de trabajo

"piense" que es un miembro de una LAN real media compartida, como una token-ring por ejemplo. Este método maximiza la

reutilización de software existente para LAN y reduce significantivamente el costo de migrar hacia ATM. In PC LAN

environments for example the LAN emulation layer could be implemented under the NDIS/ODI-type interface. With such an

implementation all the higher layer protocols, such as IP, IPX, NetBIOS y SNA for example, could be run over ATM networks

without any change.

Referirse a la Figura - Ethernet y emulación de LAN Token-ring para la implementación de token-ring y Ethernet.

Capa de Emulación de LAN (Software de Estación de Trabajo)

Each workstation that performs the LE function needs to have software to provide the LE service. This software is called the

LAN emulation layer (LE layer). It provides the interface to existing protocol support (such as IP, IPX, IEEE 802.2 LLC,

NetBIOS, etc.) y emulates the functions of a real shared-medium LAN. This means that no changes are needed to existing

LAN application software to use ATM services. The LE layer interfaces to the ATM network through a hardware ATM

adapter.

The primary function of the LE layer is to transfer encapsulated LAN frames (arriving from higher layers) to their destination

either directly (over a ``direct VC'') or through the LE server. This is done by using AAL5 services provided by ATM.

Each LE layer has one or more LAN addresses as well as an ATM address.

Page 25: Tele Procesos

A separate instance (logical copy or LE client) of the LE layer is needed in each workstation for each different LAN or type

of LAN to be supported. For example, if both token-ring y Ethernet LAN types are to be emulated, then you need two LE

layers. In fact they will probably just be different threads within the same copy of the same code but they are logically separate

LE layers. Separate LE layers would also be used if one workstation needed to be part of two different emulated token-ring

LANs. Each separate LE layer needs a different MAC address but can share the same physical ATM connection (adapter).

2.13.3.2 LAN Emulation Server

The basic function of the LE server is to provide directory, multicast y address resolution services to the LE layers in the

workstations. It also provides a connectionless data transfer service to the LE layers in the workstations if needed.

Each emulated LAN must have an LE server. It would be possible to have multiple LE servers sharing the same hardware y

code (via multithreading) but the LE servers are logically separate entities. As for the LE layers, an emulated token-ring LAN

cannot have members that are emulating an Ethernet LAN. Thus an instance of an LE server is dedicated to a single type of

LAN emulation. The LE server may be physically internal to the ATM network or provided in an external device, but logically

it is always an external function which simply uses the services provided by ATM to do its job.

CVs por defecto

Un CV por defecto es una conexión entre una capa LE en una estación de trabajo y el servidor LE. Estas conexiones pueden

ser permanentes o conmutadas.

Todos los mensajes de control LE se transportan entre la capa LE y el servidor LE sobre el CV por defecto. Los marcos de

datos encapsulados pueden también enviarse sobre CVs por defecto.

La presencia tanto del servidor LE como de los CVs por defecto es necesario para la capa LE.

CVs directos

Los CVs directos son conexiones entre capas LE en los sistemas terminales. Son siempre conmutados y se establecen por

demanda. Si la red ATM no soporta conexiones conmutadas entonces no se puede tener CVs directos y todos los datos deben

enviarse a través del servidor LE sobre CVs por defecto. Si no existe CV directo alguno por alguna razón entonces la

transferencia de datos debe tener lugar a través del servidor LE (no hay otra forma).

Los CVs directos los establece la capa LE en la peticiones (el servidor no puede establecerlos ya que no existe una función

de configuración de llamada a terceros en ATM). The ATM address of a destination LE layer is provided to a requesting LE

layer by the LE server. Los CVs directos permanecen en su sitio hasta que uno de los socios de las capas LE decida finalizar

la conexión (porque no existen más datos).

Inicialización

Durante la inicialización la capa LE (estación de trabajo) establece el CV con el servidor LE. Ésta también averigua su propia

dirección ATM - esto es necesario si es después de establecer CVs directos.

Registro

En esta fase la capa LE (estación de trabajo) registra sus direcciones MAC con el servidor LE. Se pueden proporcionar otras

cosas como requerimientos de filtrado (opcional).

Gestión y Resolución

Este es el método utilizado por las estaciones terminales ATM para establecer CVs directos con otras estaciones terminales

(capas LE). Esta función incluye mecanismos para aprender la dirección ATM de una estación de destino, haciendo

corresponder la dirección MAC con una dirección ATM, almacenando la correspondencia en una tabla y gestionan dicha

tabla.

Para el servidor esta función proporciona los medios para suportar el uso de CVs directos por estaciones terminales. Esto

incluye un mecanismo para hacer corresponder la dirección MAC de un sistema terminal con su dirección ATM, almacenando

la información y proporcionándola a una estación terminal.

Esta estructura mantiene todas las funciones de una LAN y pueden soportar la mayoría de los protocolos de los niveles

superiores. Reliance on the server for data transfer is minimized by using switched VCs for the transport of most bulk data.

IP clásico sobre ATM vs emulación de LAN

Estos dos enfoques para proporcionar una vía más fácil para migrar a ATM se han realizado con distintos objetivos.

IP clásico sobre ATM define un método de resolución de direcciones y encapsulación. La definición se hace únicamente para

IP y no para usar con otros protocolos. Así que si se tiene aplicaciones que requieran otras pilas de protocolos (tales como

IPX o SNA por ejemplo) entonces IP sobre ATM no proporcionará una solución completa. Por otra parte, si se tiene

aplicaciones basadas sólo en TCP o UDP entonces esta puede ser la mejor solución, dado que esta adaptación especializada

del protocolo IP a la arquitectura ATM probablemente produce menos costos que una solución global y por lo tanto es más

eficiente. Otra de las ventajas de esta implementación es el uso de algunas funciones específicas de ATM, tales como grandes

tamaños de MTU, etc.

El objetivo más importante de los enfoques de los foros sobre ATM es ejecutar el nivel 3 y protocolos superiores sobre la red

ATM. Esto significa que los protocolos existentes, como TCP/IP, IPX, NetBIOS y SNA, por ejemplo, y sus aplicaciones

pueden usar los beneficios de la rápida red ATM sin tener que modificar nada. El mapping para todos los protocolos ya está

definido. El nivel de emulación de la LAN proporciona todos los servicios de una LAN clásica; por tanto, el nivel superior

no sabe de la existencia de ATM. Esto se debe a una ventaja y a una desventaja porque conocer la red internamente podría

utilizarse para proporcionar una implementación más efectiva.

Page 26: Tele Procesos

En un futuro cercano, ambos enfoques se usarán dependiendo de los requerimientos particulares. Con el tiempo, cuando el

mapping de las aplicaciones para ATM estén totalmente definida e implementada, el esquema de una implementación ATM

dedicada se podrá usar.

Protocolo TCP | Tabla de Contenidos | Comparativa TCP y OSI

INTEGRACIÓN DE IP SOBRE CANALES WDM

1. INTEGRACIÓN DE IP SOBRE CANALES WDM.

El estudio de la integración de IP sobre redes ópticas. Estudiando la encapsulación de los distintos niveles IP sobre los

distintos niveles WDM. Analizando la gestión, la funcionalidad y arquitectura de las redes ópticas.

En un principio lo que se quiere exponer el estado actual y el desarrollo futuro de equipos y redes IP, de cómo WDM

propone las medidas para implementar estas funciones y mejora la funcionabilidad de las redes.

Con este trabajo se pretende introducir aspectos importantes a tener en cuenta cuando se considera la posibilidad de IP

sobre WDM. Provee un buen fondo para cualquiera que trabaje en lo concerniente a la reducción de la cabecera

necesaria para el transporte de paquetes IP en canales ópticos. Uno de los aspectos a tratar es la de tener una perspectiva

de la capa IP. Mirar lo que está disponible en términos de funcionalidad, software y hardware en la capa IP.

IPv6 es probablemente la mejor elección en las futuras redes IP sobre WDM. Esta investigación, muestra también el

desarrollo al que tienden los routers y valorar los router Gigabit, así como estos forman la base para las redes de

transporte IP sobre WDM. Algunos cambios en configuraciones de hardware están también identificados, esto es

necesario a la hora de hacer routers capaces de manejar paquetes de velocidades de Gigabits, como usarswitch en vez de

buses. Esto muestra que para clasificar los paquetes IP dentro del flujo y conmutándolos en las capas inferiores en vez

de enrutarlos, mirando las tablas de enrutamiento en cada nodo puede reducir significativamente la latencia de la red.

Una técnica de la que hablaremos en particular es MPLS (Multi Protocol Label Switching) la cual fue propuesta por la

IETF (Internet Engineering Task Force) y ya esta implementada en muchos routers. MPLS tiene la ventaja de aliviar el

peso de las largas tablas de enrutamiento en los routers y al mismo tiempo soporta la realización de funcionalidades de

la red, como VPN (Virtual Private Network) y CoS (Class of Service). Las técnicas que se necesitan para la integración

de la capa IP sobre la capa WDM, dando una visión general de los diferentes métodos de encapsulamiento de los

paquetes IP preparándolos para ser transportados en una longitud de onda.

En la adaptación de los paquetes IP sobre WDM se evalúa los diferentes mecanismos de encapsulación de la cantidad de

cabecera necesaria para transportar los paquetes IP.

El trabajo muestra algunas de las posibilidades que WDM puede dar en términos de funcionalidad. Tres diferentes

posibilidades se puede dar para soportar CoS usando longitudes de onda:

Mejora en la capacidad de los nodos y por tanto CoS para sobre aprovisionamiento.

Paso por los routers a través de enrutamiento de longitud de onda así como el decremento del retraso en las

redes.

Uso de longitudes de onda como etiquetas para la clasificación de CoS.

También veremos las diferentes opciones de conexión cruzada y enrutado de los flujos IP la ayuda de las longitudes de

onda y por consiguiente obteniendo una menor latencia en la red. En este, se identifican las tendencias predominantes en

IP sobre WDM. Estas tendencias discutidas son:

Routers más rápidos à 2,5 Gb/s de hoy a los 10 Gb/s.

Aumento del número de longitudes de onda à 32 sistemas de longitudes de onda a 200 sistemas de canal.

Moviendo el enrutamiento a las capas inferiores y aminorando la latencia de las redes.

Nuevos protocolos dedicados a adaptar IP sobre WDM.

Menor conversión de protocolos entre las distintas partes de la red.

1.1. WDM (Múltiplexación por División de Onda).

La tecnología WDM permite transmitir múltiples longitudes de onda en una misma fibra óptica simultáneamente. El

rango de longitudes de onda utilizado en la fibra puede ser dividido en varias bandas, Cada uno de estos canales, a

distinta longitud de onda, puede transmitir señales de diferentes velocidades y formatos.

WDM, incrementa la capacidad de transmisión en el medio físico (fibra óptica), asignando a las señales ópticas de

entrada, específicas frecuencias de luz(longitudes de onda), dentro de una banda de frecuencias inconfundible. Una

manera de asemejar esta multiplexación es la transmisión de una estación de radio, en diferentes longitudes de onda sin

interferir una con otra (ver Figura # 1),

porque cada canal es transmitido a una frecuencia diferente, la que puede seleccionarse desde un sintonizador (Tuner).

Otra forma de verlo, es que cada canal corresponde a un diferente color, y varios canales forman un "arco iris".

Page 27: Tele Procesos

Figura # 1. Incremento de la capacidad con WDM.

En un sistema WDM, cada longitud de onda es enviada a la fibra y las señales son demultiplexadas en el receptor. En

este tipo de sistema, cada señal de entrada es independiente de las otras. De esta manera, cada canal tiene su propio

ancho de banda dedicado; llegando todas las señales a destino al mismo tiempo.

La gran potencia de transmisión requerida por las altas tasas de bit (Bit Rates) introduce efectos no-lineales que pueden

afectar la calidad de las formas de onda de las señales.

La diferencia entre WDM y Dense WDM (DWDM) es fundamentalmente el rango. DWDM espacia las longitudes de

onda más estrechamente que WDM, por lo tanto tiene una gran capacidad total. Para sistemas DWDM (Dense

Wavelength Division Multiplexing) el intervalo entre canales es igual o menor que 3.2 [nm]. La ITU (International

Telecommunication Union) ha estandarizado este espaciamiento, normalizando una mínima separación de longitudes de

onda de 100 [GHz] (o 0.8 [nm]), también esta la posibilidad de separación de 200 [GHz] (o 1.6 [nm]) y 400 [GHz] (3.2

[nm]).

Nota: WDM y DWDM utilizan fibra mono-modo para enviar múltiples Lightwaves de diferentes frecuencias. No

confundir con una transmisión multi-modo, en la cual la luz es introducida en una fibra a diferentes ángulos, resultando

diferentes "modos" de luz. Una sola longitud de onda es usada en transmisión multi-modo.

La principal ventaja de DWDM es que ofrece una capacidad de transmisión prácticamente ilimitada. Aparte del ancho

de banda, DWDM ofrece otras ventajas:

Transparencia. Debido a que DWDM es una arquitectura de capa física, puede soportar transparencia en el

formato de señal, tales como ATM, GbE (Gigabit Ethernet), ESCON, TDM, IP y Fibre Channel, con interfaces

abiertas sobre una capa física común. Por lo mismo, puede soportar distintos Bit Rates.

Escalabilidad. DWDM puede apalancar la abundancia de fibra oscura en redes metropolitanas y empresariales,

para rápidamente satisfacer la demanda de capacidad en enlaces punto-a-punto y en tramos de anillos ya

existentes.

Iniciación dinámica. Rápida, simple y abastecimiento dinámico en las conexiones de redes, dada la habilidad

de proveedores de proveer servicios de alto ancho de banda en días, antes que en meses.

El auge de la fibra óptica está estrechamente ligado al uso de una región específica del espectro óptico donde la

atenuación óptica es baja. Estas regiones, llamadas ventanas, se ubican en áreas de alta absorción. Los primeros sistemas

en ser desarrollados operan alrededor de los 850 [nm], la primera ventana en fibra óptica basada en Silica. Una segunda

ventana (Banda S), a 1310 [nm], se comprobó que era superior, por el hecho de tener menor atenuación. La tercera

ventana (Banda C), a 1550 [nm], posee la menor pérdida óptica de manera uniforme. Hoy en día, una cuarta ventana

(Banda L), cerca de los 1625 [nm], está en bajo desarrollo y en sus primeros usos. Estas cuatro ventanas se pueden

observar en el espectro electromagnético mostrado en la Figura C.2.

RESUMEN

Protocolo de reserva de recursos (RSVP) es una técnica de señalización utilizada para garantizar la calidad de servicio

(QoS) al reservar ancho de banda para flujos de datos compatibles con RSVP. Todos los nodos de la ruta de acceso de datos

deben ser compatible con RSVP para una calidad de servicio garantizada. Las reservas son iniciada por el receptor para el

tráfico de multidifusión y unidifusión.

MÁS INFORMACIÓN

Page 28: Tele Procesos

RSVP se especifica en RFC 2205. Se utiliza para reservar ancho de banda en cada nodo para un determinado flujo a lo largo

de una ruta de acceso de datos determinado. Los nodos a lo largo de la ruta de acceso deben admitir la funcionalidad

RSVP. RSVP puede utilizarse con el tráfico de multidifusión y unidifusión. RSVP no es un protocolo de enrutamiento, pero

utilizar protocolos de enrutamiento y consulta de las tablas de enrutamiento local para las rutas.

Se inicia un flujo típico de reserva enviando un mensaje de ruta de acceso posterior al receptor. Cada nodo en la ruta de

acceso de datos establece un estado de ruta de acceso, para mantener la calidad del servicio correspondiente. Un mensaje de

ruta de acceso indica el identificador de flujo, información de reserva y la dirección de origen y de destino. Una vez que el

mensaje PATH llega a su destino, el receptor pasa la solicitud al proceso RSVP local, que pasa la solicitud al control de

admisión y control de políticas. Control de admisión determina si el nodo tiene los recursos disponibles para satisfacer la

solicitud. Control de directiva determina si el usuario tiene permiso para solicitar la reserva. Si alguna de las siguientes no

es correcta, el proceso RSVP envía una respuesta de error al programa de envío. Si el control de admisión y control de la

directiva tiene éxito, los parámetros se establecen en el clasificador de paquetes y el programador de paquetes para

implementar la QoS adecuados.

Un mensaje RESV se envía de regreso desde el receptor a cada nodo de la ruta de acceso inversa. El mensaje RESV utiliza

la misma información de flujo utilizada en el mensaje PATH. Los enrutadores de la ruta confirman la reserva y, a

continuación, almacenarán la información en una tabla de flujo. Este proceso se repite hasta que el remitente obtiene el

mensaje RESV. A continuación, se establece la reserva. Una vez terminados el remitente y el receptor con el flujo

reservado, se envía un mensaje de PathTear para romper el flujo. A continuación, se liberan recursos para utilizarse en una

reserva posterior.

RSVP - ReSerVation Protocol

¿Qué es RSVP?

El protocolo de reservación de recursos (RSVP) es un protocolo de control de red que permite que algunas aplicaciones de

Internet o una red local puedan obtener diferentes calidades de servicio (QoS) para su flujo de datos. Por ello se conoce

como un protocolo señalización de QoS, y posibilita:

dar a las aplicaciones una modo uniforme para solicitar determinado nivel de QoS

encontrar una forma de garantizar cierto nivel de QoS

proveer autentificación

RSVP es un protocolo que se desarrolla entre los usuarios y la red, y entre los diferentes nodos (routers) de la red que

soportan este protocolo. Consiste en hacer "reservas" de recursos en dichos nodos para cada flujo de información de

usuario, con la consecuente ocupación de los mismos. Esto requiere, lógicamente, intercambio de mensajes RSVP entre

dichos entes funcionales, así como "mantener" estados de reserva en cada nodo RSVP. De manera que tanto la solicitud de

las reservas, como el mantenimiento de éstas durante la comunicación, y la posterior cancelación, implica el intercambio

de mensajes de señalización, lo que representa un tráfico considerable cuando de entornos como Internet se trata.

RSVP ofrece dos tipos de servicios, a saber: Servicio de carga controlada y servicio garantizado.

Servicio de carga controlada: aunque no está muy bien definido, se entiende en general que la pérdida de paquetes

debe ser muy baja o nula.

Servicio garantizado: se basa en solicitar determinado ancho de banda y cierta demora de tránsito máxima.

De los dos tipos de servicios que RSVP soporta, el más adecuado para aplicaciones con requerimientos de tiempo real es el

servicio garantizado, aunque es más complejo de implementar que el servicio de carga controlada.

Algunas características o aspectos fundamentales en el RSVP son:

Merging : En los diferentes nodos que se van atravesando en la red por el camino de datos, se va realizando un

proceso de concentración de los diferentes mensajes de petición de reservas

Estado de reserva en cada nodo: El estado soft RSVP se crea y refresca periódicamente por mensajes Path y Resv

.

Estilos de reserva: Una petición de reserva incluye un conjunto de opciones que se conocen como el estilo de

reserva. Las distintas combinaciones de estas opciones conforman los tres estilos de reserva en uso, Wildcar-Filter

(WF), Fixed-Filter (FF) y Shared-Explicit (SE).

Page 29: Tele Procesos

IPng

(Internet Protocol Next Generation)

Los aspectos más relevantes del Protocolo IP de Próxima Generación (IP next generation IPng) son:

En el aspecto del nuevo esquema de Direcciones, este permitiría un mayor número de direcciones, ya que se está

ampliando el tamaño de la dirección de 32 bits a 128 bits. Soporte de direcciones Jerárquicas Largas.

Uso de Direcciones en Cluster que le permiten el enrutamiento de acuerdo con políticas preestablecidas. Tiene previsto

además la multiemisión de direcciones (multicast adresses), incluyendo una dirección "anycast address", la cual permite

el envío de un "packet" a cualquiera de un número de nodos.

La estructura de direcciones fué también diseñada para soportar el manejo de direcciones de otros conjuntos de

protocolos de Internet. El beneficio de este aspecto radicaría en que facilitaría la migración desde otros protocolos al

nuevo IPng. Desde el punto de vista de la Red, habrían incorporadas características en la forma de encripción e

identificación de usuario. Manejaría además la configuración automática de redes.

En cuanto al manejo de tráfico, se incorporarían características que le permitirían manejar tráfico sensible a los retrasos.

IPng está propuesto como el nuevo Protocolo de Internet que reemplazará la versión de IP actual también conocida

como IPv4. El nuevo nombre previsto para la nueva versión del Protocolo IP sería IPv6, en donde el 6 corresponde al

número de la nueva versión.

La propuesta del nuevo IPpg proviene de los Directores de Area de la IETF (Internet Engineering Task Force), y fué

propuesta en la reunión de la IETF de Julio 25 de 1994, llevada a cabo en Toronto, Canadá.

IPng no se puede considerar como una actualización del actual protocolo IPv4, teniendo en cuenta que su

direccionamiento es totalmente diferente, que sus encabezamientos son mucho más especializados y adicionalmente más

ligeros, que provee más opciones incluyendo control de flujo y seguridad, que soporta mobilidad del Host, auto-

configuración, y algunas otras características, por todas estas razones, se puede considerar que efectivamente es un

nuevo protocolo.

Considerando la afirmación anterior de que IPng es un nuevo protocolo, su primer problema surge en la medidad en que

IPng, no sería compatible hacia atrás con el actual protocolo IP, lo cual entre otros problemas generaría:

Problemas de Migración: La migración hacia el nuevo protocolo IPng puede crear una vasta cantidad de problemas

alrededor de la interoperabilidad de TCP/IP.

Adicionalmente, las tecnologías en que IPng está basado eventualmente caerán víctimas de problemas similares a los

que hoy se presentan con el protocolo IPv4: particularmente, el esquema de direcciones de IPng no es suficientemente

flexible para acomodar futuros protocolos de enrutamiento.

Page 30: Tele Procesos

INSTRUCCIONES DE INSTALACIÓN Video Internet Protocol | 35 > PARA SISTEMAS VIP El sistema VIP va más allá

del antiguo concepto de un sistema cerrado, caracterizado por límites en la instalación característicos de la tecnología

analógica. Con el sistema VIP, es posible crear una red completamente digital que permita la máxima libertad del sistema.

El mismo sistema se puede crear mediante la conexión de edificios en cascada o por derivación. Se puede lograr una

ampliación o modificación con un simple conector. En cada punto de conexión, se pueden "conectar" todo tipo de

dispositivos, como unidades externas o internas, centralitas portero, etc. RED DEDICADA: TOPOLOGÍA LIBRE 8502 Kit

de unidad externa y software de control desde un PC remoto del sistema VIP. El Kit incluye una unidad Powercom, una

unidad de audio/vídeo en color 4662C, una fuente de alimentación 1395, una interfaz 1452 para su instalación en la red

LAN de la unidad externa mediante el enrutador de conexión de Internet y un software de gestión de llamadas de

intercomunicación de vídeo. La unidad externa y la interfaz 1452 pueden tener cables Ethernet dedicados o conectarse a una

red LAN ya existente. El kit se puede ampliar con otros productos del catálogo del sistema VIP. 8501 Kit de unidad externa

y software de control desde un PC local del sistema VIP. El kit incluye una unidad Powercom, una unidad de audio/cámara

en color 4662C, una fuente de alimentación 1395 y un software de gestión de llamadas de intercomunicación de vídeo. Se

puede instalar con cables Ethernet dedicados o conectarse a una red LAN existente. El kit se puede ampliar con otros

productos del catálogo del sistema VIP. KIT 2 2 2 2 1952 CAT. 5 CAT. 5 CAT. 5 CAT. 5 CAT. 5 1952 1952 1440

trama de red

En redes una trama es una unidad de envío de datos. Es una serie sucesiva de bits, organizados en forma cíclica, que

transportan información y que permiten en la recepción extraer esta información. Viene a ser el equivalente de paquete de

datos o Paquete de red, en el Nivel de enlace de datos del modelo OSI.

Normalmente una trama constará de cabecera, datos y cola. En la cola suele estar algún chequeo de errores. En la cabecera

habrá campos de control de protocolo. La parte de datos es la que quiera transmitir en nivel de comunicación superior,

típicamente el Nivel de red.

Para delimitar una trama se pueden emplear cuatro métodos, el tracker:

1. por conteo de caracteres: al principio de la trama se pone el número de bytes que representa el principio y fin de las

tramas. Habitualmente se emplean STX (Start of Transmission: ASCII #2) para empezar y ETX (End of

Transmission: ASCII #3) para terminar. Si se quieren transmitir datos arbitrarios se recurre a secuencias de escape

para distinguir los datos de los caracteres de control.

2. por secuencias de bits: en comunicaciones orientadas a bit, se puede emplear una secuencia de bits para indicar el

principio y fin de una trama. Se suele emplear el "guion", 01111110, en transmisión siempre que aparezcan cinco

unos seguidos se rellena con un cero; en recepción siempre que tras cinco unos aparezca un cero se elimina.

3. por violación del nivel físico: se trata de introducir una señal, o nivel de señal, que no se corresponda ni con un "1"

ni con un "0". Por ejemplo si la codificación física es bipolar se puede usar el nivel de 0 voltios, o en Codificación

Manchester se puede tener la señal a nivel alto o bajo durante todo el tiempo de bit (evitando la transición de

niveles característica de este sistema).

4. El estándar de facto evolucionó hacia varios estándares oficiales, como son:

1. FR Forum (Asociación de Fabricantes): Cisco, DEC, Stratacom y Nortel.

2. ANSI: fuente de normativas Frame-Relay.

3. ITU-T: también dispone de normativa técnica de la tecnología Frame-Relay.

vip

Un sistema de protocolo de Internet que aumenta el rendimiento de las intercomunicaciones de vídeo. La tecnología VIP

mejora el servicio de los productos de Comelit. Un completo sistema sencillo de instalar y versátil, que se adapta a todas

las necesidades. Perfecto para sistemas recién-creados o para la integración en sistemas de LAN existentes.

El sistema VIP ofrece ventajas en todos los entornos posibles de uso: residenciales, corporativos, comerciales, logísticos

e institucionales. Permite ofrecer servicio de conversaciones simultáneas a un número ilimitado de usuarios, sin estar

limitado a distancias concretas. Solo se requiere un distribuidor de alimentación eléctrica (dedicado o compatible con las

redes LAN existentes) al que se conectan los sistemas de intercomunicación de vídeo, alarma contra intrusos, vídeo

vigilancia, domótica y control de accesos mediante un conector RJ45. Este es también un sistema abierto al mundo de

Internet, que permite conexión remota, servicios de diagnóstico y otros servicios web.

Un sistema sencillo de utilizar y fácil de instalar. Gracias a la tecnología digital, el sistema VIP garantiza un óptimo

servicio y asegura la integración continua de funciones programadas por medio de un simple conector.

Un sistema, muchas funciones posibles. Gracias a su sistema de fácil uso, se pueden gestionar varias funciones e

integrarse en la misma red mediante el sistema VIP.

Gracias a la tecnología digital, el sistema VIP garantiza un excelente servicio de alta calidad para un número ilimitado

de usuarios, incluso a distancias considerables. El propio sistema se puede crear mediante la conexión de edificios en

cascada o por derivación.

Numerosas características adicionales sin necesidad de instalar nuevos sistemas. El sistema VIP mejora de manera

exponencial los servicios corporativos de intercomunicación de vídeo a través de la integración con las redes LAN

existentes, sin necesidad de la irritante tarea de tener que crear nuevos sistemas.

Page 31: Tele Procesos

escripción general de próxima generación IP

Robert M. Hinden

Resumen en línea: A medida que el espacio de direcciones IP (v4) está a punto de

asignación completa, encaminamiento y asignación de direcciones se están convirtiendo en

un reto. En el documento se describen las características importantes de la próxima

generación de protocolo, IPng (o IPv6), la mayor de las cuales es la capacidad de realizar

una transición suave desde el sistema actual al nuevo.

Visión General / Puntos principales

Nos estamos quedando sin espacio en el (IPv4) espacio de direcciones actual. Eso no

quiere decir que hay 2 32 hosts por ahí, pero no hubo concesiones hechas para hacer

más fácil el encaminamiento (clase A / B / C / ... direccionamiento) que causan

muchas direcciones para ser utilizada.

Como estamos apretando el resto del espacio de direcciones IPv4, enrutamiento es

cada vez más complicada, y las direcciones son más difíciles de

encontrar. Necesitamos más espacio, y lo necesitamos en los próximos años.

El más importante cuestión en el diseño de un reemplazo para IPv4 es que sea

interoperable con los sistemas actuales.

o `` No hay bandera días ''.

o Los sistemas actuales tendrán que hablar con sistemas habilitados para IPv6

para años después de IPv6 se introduce, si no más.

o Algunos sistemas, tales como impresoras, que sólo necesita hablar con un par

de máquinas nunca pueden necesitar cambiar a IPv6 en absoluto.

Los principales cambios con respecto a IPv4

o Enrutamiento y direccionamiento

direcciones de 128 bits en lugar de 32 bits

Unicast, anycast y multicast (multidifusión subsume emisión). Unicast

es básicamente lo que sabemos ahora. Multicast es como multidifusión

actual, pero tiene un campo `` alcance '' para mejorar la

escalabilidad. Anycast es como `` me envíe más cercana a la columna

vertebral MCI enrutador ''.

El apoyo a las direcciones de uso local, tanto del enlace local y el sitio

local. Las direcciones de enlace local de direcciones IP (no únicos a

nivel mundial, pero sólo únicos a, por ejemplo, un segmento de

Ethernet individual) hacen protocolos RARP parecido más

fácil. direcciones locales del sitio (direcciones IP únicas dentro de una

organización) facilitan la conexión a Internet sin renumeración.

formatos de dirección especiales para indicar las direcciones IPv4 para

la compatibilidad.

Page 32: Tele Procesos

Las direcciones tienen estructura jerárquica para facilitar el

enrutamiento. Hay un montón de espacio para que, en 128 bits.

o Los encabezados y Opciones

Eliminar o hacer pequeñas cabeceras-usado opcionales. El encabezado

IPv6 es sólo dos veces tan grande como la cabecera IPv4, aunque el

tamaño de la dirección es cuatro veces más grande.

Opciones ya no se aprietan en la cabecera principal. Las opciones se

colocan en las cabeceras de extensión separados. Una ventaja es que

mediante la colocación de las opciones de extremo a extremo después

de las opciones de enrutamiento, los saltos intermedios no tienen que

tratar con ellos.

o Calidad de servicio y los flujos

Los paquetes pueden tener unos 8 niveles de prioridad para el tráfico en

tiempo no real, y 8 para el tráfico en tiempo real. Estas prioridades

pueden ayudar a decidir el router de paquetes a caer en caso de

congestión.

Los paquetes se pueden agrupar en los flujos `` ''. Cada paquete en un

flujo debe tener los mismos valores para ciertas partes de la cabecera,

incluyendo direcciones de origen y de destino, prority, y algunas

opciones. Becuase de esto, los enrutadores pueden almacenar en caché

la información de enrutamiento basado en flujos, en lugar de tener que

analizar la información contenida en cada paquete.

o La autenticación y privacidad

Facility se ha hecho para el cifrado, la firma, y la autenticación de

datos. Algoritmos de diferentes potencias y velocidades se pueden

utilizar para diferentes propósitos. Todas las implementaciones IPv6

conformes DEBE apoyo para el cifrado DES. Poner eso en la pipa del

gobierno de Estados Unidos y fumarlo.

Pertinencia

A pesar del intento de hacer la transición fácil, la palabra de los operadores de red troncal es

que es poco probable que cambie durante el corto plazo. Los nuevos routers probable será

caro, y no hay incentivo para que lo hagan.

defectos

Nivel muy alto (pero eso es de esperar de CACM).

En el documento no se refiere a qué tan grande fueron los ensayos que se han

realizado. A medida que la escala de la Internet es la principal fuerza impulsora para

IPv6, es vital que las implementaciones (de los cuales hay unos cuantos) se escalan

bien.

Page 33: Tele Procesos

Apéndice C:

IPng (IPv6)

IP "next generation" ha sido el nombre con el que se ha bautizado a la versión seis del

protocolo Internet (IP). Se trata de la definición de un nuevo protocolo de red destinado a

sustituir a la actual versión IP, la cuatro.

¿Por qué se necesita un nuevo protocolo de red?. La respuesta es muy simple. Cuando IPv4

fue estandarizado, hace unos quince años, nadie podía imaginar que se convertiría en lo que

es hoy: una arquitectura de amplitud mundial, con un número de usuarios superior al

centenar de millones y que crece de forma exponencial. Aquella

primera "Internet" fundada, sobre todo, con fines experimentales, científico-técnicos y, por

supuesto, con objetivos militares, no se parece en nada a la actual. Cada día se advierte una

mayor tendencia hacia su comercialización, ya sea por el propio acceso en sí a la red

(empresas proveedoras) o por servicios accesibles desde ella.

Estos cambios de escala y orientación suponen varios problemas para

IPv4 [RFC1287] [RFC1338] [RFC1917]:

Escala:

Cada máquina presente en la red dispone de una dirección IP de 32 bits. Ello supone

más de cuatro mil millones de máquinas diferentes. Esa cifra, no obstante, es muy

engañosa. El número asignado a un ordenador no es arbitrario, sino que depende de

una estructura más o menos jerárquica (en especial, pertenece a una red), lo cual

ocasiona que se desperdicie una enorme cantidad de direcciones. La cuestión es que

en 1.993 fue claro que con el ritmo de crecimiento sostenido de Internet hasta aquel

momento (exponencial), el agotamiento del espacio de direcciones era casi

inminente.

Enrutado:

Otro de los grandes problemas del crecimiento de Internet es la capacidad de

almacenamiento necesaria en la pasarelas (routers) y el tráfico de gestión preciso

para mantener sus tablas de encaminamiento. Existe un límite tecnológico al número

de rutas que un nodo puede manejar, y como dado que Internet crece mucho más

rápidamente que la tecnología que la mantiene, se vió que las pasarelas pronto

alcanzarían su capacidad máxima y empezarían a desechar rutas, con lo que la red

comenzaría a fragmentarse en subredes sin acceso entre sí.

Dado lo grave de la situación se definió el CIDR (Classless Inter-Domain

Routing) [RFC1481] [RFC1517..1519], con el que las pasarelas reducían el tamaño de

Page 34: Tele Procesos

sus tablas colapsando juntas varias subredes con el mismo prefijo. Gracias a ello se

ha ganado un tiempo muy valioso, pero tan sólo se ha postergado lo inevitable.

En [RFC1797] y [RFC1879] se realiza el experimento de dividir una red A (la red 39)

en multitud de pequeñas subredes. Los resultados fueron alentadores, por lo que

dicha técnica podría utilizarse para ampliar de nuevo el tiempo de vida de IPv4.

Multiprotocolo:

Cada vez resulta más necesaria la convivencia de diversas familias de protocolos: IP,

OSI, IPX... Se necesitan mecanismos que permitan abstraer al usuario de la

tecnología subyacente para permitir que concentre su atención en los aspectos

realmente importantes de su trabajo. Se tiende, pues, hacia una red orientada a

aplicaciones, que es con lo que el usuario interacciona, más que a una red orientada a

protocolos (como hasta el momento) [RFC1560].

Seguridad:

El mundo IPv4 es el mundo académico, científico, técnico y de investigación. Un

ambiente, en general, que podría calificarse como "amigable", desde el punto de

vista de la gestión y la seguridad en la red. Con la aparición de servicios comerciales

y la conexión de numerosísimas empresas, el enorme incremento en el número de

usuarios y su distribución por todo el planeta, y la cantidad, cada vez mayor, de

sistemas que necesitan de Internet para su correcto funcionamiento, etc., es urgente

definir unos mecanismos de seguridad a nivel de red. Son necesarios esquemas de

autentificación y privacidad, tanto para proteger a los usuarios en sí como la misma

integridad de la red ante ataques malintencionados o

errores [RFC1281][RFC1636] [RFC1828..1829].

Tiempo Real:

IPv4 define una red pura orientada a datagramas y, como tal, no existe el concepto de

reserva de recursos. Cada datagrama debe competir con los demás y el tiempo de

tránsito en la red es muy variable y sujeto a congestión. A pesar de que en la

cabecera IP hay un campo destinado a fijar, entre otras cosas, la prioridad del

datagrama [RFC1349] [RFC1455], en la práctica ello no supone ninguna garantía. Se

necesita una extensión que posibilite el envío de tráfico de tiempo real, y así poder

hacer frente a las nuevas demandas en este campo [RFC1667].

Tarificación:

Con una red cada día más orientada hacia el mundo comercial hace falta dotar al

sistema de mecanismos que posibiliten el análisis detallado del tráfico, tanto por

Page 35: Tele Procesos

motivos de facturación como para poder dimensionar los recursos de forma

apropiada [RFC1272] [RFC1672].

Comunicaciones Móviles:

El campo de las comunicaciones móviles está en auge, y aún lo estará más en un

futuro inmediato. Se necesita una nueva arquitectura con mayor flexibilidad

topológica, capaz de afrontar el reto que supone la movilidad de sus usuarios. La

seguridad de las comunicaciones, en este tipo de sistemas, se ve, además,

especialmente comprometida [RFC1674] [RFC1688].

Facilidad de Gestión:

Con el volumen actual de usuarios y su crecimiento estimado, resulta más que obvio

que la gestión de la red va a ser una tarea ardua. Es preciso que la nueva arquitectura

facilite al máximo esta tarea. Un ejemplo de ello sería la autoconfiguración de los

equipos al conectarlos a la red [RFC1541].

Política de enrutado:

Tradicionalmente los datagramas se han encaminado atendiendo a criterios técnicos

tales como el minimizar el número de saltos a efectuar, el tiempo de permanencia en

la red, etc. Cuando la red pertenece a una única organización eso es lo ideal, pero en

el nuevo entorno económico en el que diferentes proveedores compiten por el

mercado las cosas no son tan simples. Es imprescindible que la fuente pueda definir

por qué redes desea que pasen sus datagramas, atendiendo a criterios de fiabilidad,

coste, retardo, privacidad, etc. [RFC1674..1675].

A lo largo de los años se han propuesto varios protocolos como sustitutos al IPv4. Los tres

más importantes han sido PIP ('P' Internet

Protocol) [RFC1621] [RFC1622], TUBA (TCP/UDP With Bigger

Addresses) [RFC1347] [RFC1526] y SIP/SIPP (Simple Internet Protocol/Simple Internet

Protocol Plus) [RFC1710]. En [RFC1454] se realiza una buena comparativa entre ellos.

En 1.993 se decidió solicitar opiniones sobre "cómo debería ser" el IP del futuro (IPng) a

través de [RFC1550]. Las respuestas recibidas fueron numerosas y provenientes de fuentes

muy diversas. En general todas coincidían en los puntos básicos mencionados previamente.

Tal vez los más interesantes hayan sido los que mostraban el punto de vista de varias

multinacionales [RFC1669][RFC1684].

Por fin se propuso un estándar en 1.995 [RFC1752], refinado a principios de 1.996

en [RFC1883]. Como puede verse se trata de un tema de máxima actualidad. De hecho

todavía faltan por publicar, al menos, dos funciones adicionales: configuración

dinámica y búsqueda de máquinas vecinas. Los datos de que dispongo son de finales de

Page 36: Tele Procesos

Abril de 1.996 así que es muy posible que ahora, Junio, se hayan publicado algunos

documentos adicionales.

Las principales características del nuevo IPv6, como diferencias respecto a IPv4,

son [RFC1883]:

Se trata de un protocolo diseñado para ser ampliado, de forma simple, con

funcionalidades adicionales, ya sea a través de nuevas cabeceras de extensión o bien

de opciones incluidas en las cabeceras ya existentes.

Los nuevos números IP constan de 128 bits, lo cual permitirá efectuar una división

muy jerárquica del espacio de direcciones para facilitar el enrutado. Adicionalmente

ello posibilitará incluir la dirección física de la interfaz de red de la máquina en la

propia dirección IP, facilitando de forma considerable el proceso de

autoconfiguración.

Se codifica directamente en el datagrama qué acción debe adoptar una máquina

cuando ésta no es capaz de reconocer alguna de las opciones del mismo.

Se incluyen cabeceras destinadas a la autentificación y la encriptación de los

datagramas.

Se permite que la fuente encamine directamente sus datagramas, como soporte a su

política o necesidades de rutado.

Los datagramas ya no tienen un límite de longitud de 65536 bytes.

El soporte de encapsulados es muy natural, dado su diseño de cabeceras

encadenadas.

La fragmentación, en caso de ser necesaria, la realiza la fuente. Para facilitar el

cálculo del MTU [RFC1191] [RFC1435] del camino hace falta el apoyo de la nueva

capa ICMP [RFC1885]. Ahora, cuando una pasarela genera un mensaje

ICMP "Datagram Too Big", indica cuál es el MTU de la red problemática.

La gestión

de Multicasting [RFC966] [RFC988] [RFC1112] y Anycasting [RFC1546] (IGMP) ha

pasado a formar parte del nuevo ICMP [RFC1886].

Para acelerar el cálculo de los enrutamientos y atender las necesidades de las

aplicaciones en tiempo real, cada datagrama puede contener un "identificador de

flujo". Esos identificadores son, en cierta medida, equivalentes al concepto de

circuitos virtuales, pero se trata de unos circuitos virtuales "suaves" que pueden ser

desde ignorados hasta completamente vinculantes, según el diseño del sistema. Ello

da un juego enorme. En mi opinión, éste es el concepto más novedoso e importante

de IPv6 [RFC1809].

IPv6 no incluye una suma de control en la cabecera. Para asegurar la validez de la

información la capa UDP está obligada a utilizar su opción de suma de control.

Adicionalmente el nuevo ICMP también incluye una suma de control, por razones

similares.

Page 37: Tele Procesos

Las nuevas direcciones IP, como ya se ha dicho, constan de 128 bits. Ello hace que la

notación "punto" común de IPv4 sea poco práctica. IPv6 utiliza notación hexadecimal en

grupos de 16 bits, separándolos por el carácter de dos puntos (":") [RFC1884].

En [RFC1920] se propone una codificación más compacta.

En [RFC1884] se realiza una asignación preliminar de direcciones, muy agresiva. Se reserva

una enorme cantidad de valores para determinados grupos de direcciones (por

ejemplo, multicasting, NSAP (OSI), etc.), pero aún así el espacio disponible para usos

todavía no especificados es del 85%. Las propias direcciones IPv4 están incluidas aquí. Hay

varias novedades interesantes, como el hecho de definir direcciones especificamente locales

a nivel de capa de enlace (MAC) u organización.

En definitiva, el IPv6 ya está aquí. Todavía queda un largo trecho hasta que se implante de

forma mayoritaria, pero sin duda incorpora numerosas características que lo hacen

atractivo, como el soporte de comunicaciones en tiempo real, la autoconfiguración de

sistemas, seguridad, etc. La mayoría de los detalles todavía se están ultimando y, hasta

donde sabe el autor, no se han propuesto aún plazos de implantación.

Page 38: Tele Procesos