tele procesos
DESCRIPTION
redesTRANSCRIPT
SDLC fue inventado por IBM para reemplazar el protocolo bisynchronous mayores para las conexiones de área amplia entre
los equipos de IBM. Una variación de la ISO HDLC protocolo HDLC llama normal Modo de Respuesta (NRM) es
esencialmente el mismo que SDLC.
SDLC no es un protocolo entre iguales como HDLC, Frame Relay o X.25 . Una red SDLC se compone de una estación
primaria que controla todas las comunicaciones, y una o másestaciones secundarias . Cuando múltiples secundarios están
conectados a un único primario, esto se conoce como un multipunto o multipunto red.
El principal es por lo general un ordenador central o de tonos medios en el centro, y los secundarios son los bornes o
controladores que actúan como concentradores para los números de terminales locales. Los diferentes gotas se pueden
arreglar por el proveedor de línea de transmisión para estar en diferentes lugares. Así, por ejemplo, una unidad central en
Los Ángeles puede apoyar una línea multipunto con los controladores conectados a las caídas en las oficinas en Boston,
Nueva York y Washington.
SDLC utiliza el mismo formato de trama como se describe en nuestra sección síncrona y asíncrona Line
Communications . El campo de dirección de cada HDLC trama se utiliza para distinguir las conversaciones entre el primario
y cada uno de los secundarios, con la que cada secundaria una dirección diferente. Cada secundaria ve todas las
transmisiones desde la primaria, pero sólo responde a tramas con su propia dirección.
Tenga en cuenta que a diferencia de Frame Relay o X.25 , esta red se basa en líneas dedicadas arrendadas con conexiones
físicas permanentes.
SDLC es capaz de funcionamiento dúplex completo, pero casi todas las aplicaciones prácticas son estrictamente half
duplex . Esto significa que ya sea el primario o uno de los secundarios pueden estar transmitiendo en un momento dado,
pero nunca ambos.
El secreto de la gestión de una línea multipunto es que sólo una secundaria puede estar transmitiendo en cualquier
momento. Si dos o más secundarios transmiten al mismo tiempo, que interfieren, y los datos de las dos estaciones se
pierde. Debido a esto, las transmisiones secundarias son controlados por el primario: secundario sólo puede transmitir
cuando está dicho, y sólo puede transmitir un número limitado de marcos antes de pasar el control de nuevo a la primaria.
Las estaciones secundarias tienen módems o DSU que son capaces de cambiar de portador dentro y fuera. Carrier es
controlado por la señal de petición de envío (RTS) al módem. Cuando el secundario se le dice a transmitir por la primaria,
se plantea RTS. El módem convierte en el portador. Puede haber un pequeño retraso de unos pocos milisegundos para el
portador se estabilice, y luego el módem plantea Clear To Send (CTS). El secundario a continuación, transmite. Cuando la
transmisión se ha completado, el secundario gotas de estrategia en tiempo real, y el módem gotas CTS y el soporte
juntos. Ahora el siguiente secundaria puede transmitir.
SDLC es compatible con dos tipos de codificación de línea. Codificación de línea estándar (o no NRZI codificación) es
donde un 1 lógico está representado por un nivel de voltaje y un cero lógico por otro nivel de tensión. No retorno a cero
invertido ( NRZI ) de codificación es donde un uno lógico está representado por la tensión restante de la misma como lo fue
para el tiempo de bit anterior, y un cero lógico está representado por un cambio de voltaje. La diferencia entre no NRZI y
codificación NRZI se muestra a continuación.
La ventaja de la codificación NRZI es que no se garantiza que sean suficientes transiciones parasincronizar los relojes de
transmisión y recepción en todas las circunstancias. Esto funciona de la siguiente manera:
En tramas HDLC "relleno de bits" se utiliza para introducir ceros adicionales en cualquier secuencia de más de 5
unidades. Esto se hace para que las secuencias de bandera 01111110 nunca pueden aparecer accidentalmente en el flujo de
datos. NRZI codificación asegura una transición para cada cero. El resultado es que en un SDLC flujo de datos NRZI uno se
garantiza una transición cada 5 tiempos de bit en un mínimo, y es en cada transición de que el reloj reajusta su
sincronización. Así NRZI datos codificados no, en principio, la necesidad de tener líneas de reloj separados, ya que la
sincronización se puede recuperar de forma fiable de la corriente de datos.
SDLC, como HDLC ABM , proporciona integridad del enlace. Todos los marcos terminan con comprobación de
redundancia cíclica (CRC) bytes que se utilizan para detectar cualquier error de datos. Tramas recibidas correctamente son
reconocidos por el receptor mientras que las tramas erróneas son ignorados. Una ventana de hasta 7 fotogramas se puede
enviar desde cualquier lado para que se solicite el reconocimiento. Acuse de recibo de las tramas recibidas se codifica en el
campo de control de tramas de datos, por lo que si los datos está fluyendo en ambas direcciones, no se necesitan marcos
adicionales para el reconocimiento del marco. Al igual que HDLC LAPB, SDLC no sólo proporciona error de
comunicación gratuita a través de la detección de errores y recuperación, sino que también proporciona control de flujo
automático.
La recuperación de errores en SDLC funciona de tal manera que un error de línea puede causar muchos marcos para ser
retransmitidos, por tanto, una línea ruidosa se manifiesta como el bajo rendimiento y los tiempos de respuesta largos.
SDLC es bastante eficiente para un protocolo semidúplex. Es una parte integral de la arquitectura de red del sistema de IBM
( SNA ) y ha sido estratégica para la red de área amplia desde 1976. Debido a que es half duplex, a menudo puede funcionar
a mucho más alta velocidades de línea en una plataforma de hardware determinada de lo que podría si se ejecuta una
protocolo de dúplex completo como HDLC LAPB .
PROTOCOLO FRAME RELAY Destacado
Fecha: 1988
Utilidad: Transmisión de voz y datos a alta velocidad entre redes de área local separadas geográficamente.
Inventor: ITU T (Union Internacional de Telecomunicaciones)
http://frame-relay.nireblog.com
Frame Relay es una técnica de comunicación mediante retransmisión de tramas para redes de circuito virtual, introducida
por la ITU-T a partir de la recomendación I.122 de 1988. Consiste en una forma simplificada de tecnología de conmutación
de paquetesque transmite una variedad de tamaños de tramas (“frames”) para datos, perfecto para la transmisión de grandes
cantidades de datos.
CARACTERISTICAS:
Es un Protocolo de Enlace mediante circuito virtual permanente (actualmente aún no se utiliza en modo de
conmutación aunque esta preparado para ello)
Segun la recomendación Q.922 del ITU T se encuadra en el segundo nivel del comunicaciones (Enlace) del
sistema OSI(Organización de Estándares Internacionales), apoyandose en el protocolo núcleo LAP-F (recQ.922)
para las comunicaciones a nivel Físico.
La comunicación se realiza punto a punto en cada nodo,lo que permite prescindir de mecanismos de control de
errores a (el control de errores se llevvara a cabo por los niveles superiores), permitiendo que la red opere a altas
velocidades al no haber sobrecarga de procesamiento en cada nodo
Proporciona una velocidad de transmisión de hasta 2MBit/S
USOS:
Se ultiliza principalmente para la interconexión de redes de área local y extensas sobre redes públicas o privadas.
Presta el servicio de transporte de datos y voz el más usado mundialmente, el cual permite la conmutación de
tramas, garantizando un uso dinámico del ancho de banda.
Permite las aplicaciones de este servicio en la inteconexión LAN a LAN.
Usa una tranferencia de altos volúmenes de datos.
Acceso a sistemas de información centralizados desde localidades remotas.
Posibilidad de integrar voz y datos.
Redes Frame Relay
¿ Qué es Frame Relay ?
Frame Relay es una tecnología de conmutación rápida de tramas, basada en estándares internacionales, que puede
utilizarse como un protocolo de transporte y como un protocolo de acceso en redes públicas o privadas
proporcionando servicios de comunicaciones.
Frame Relay permite la transmisión de datos a altas velocidades basada en protocolos de conmutación de
paquetes. En Frame Relay los datos son divididos en paquetes de largo variable los cuales incluyen información
de direccionamiento. Los paquetes son entregados a la Red Frame Relay, la cual los transporta hasta su destino
específico sobre una conexión virtual asignada.
Frame relay permite compartir varias conexiones virtuales a través de una misma interface física con lo cual es
posible conectar múltiples localidades remotas entre sí, sin necesidad de equipo adicional ni costosos enlaces
dedicados punto a punto. Solamente es necesaria una conexión física entre cada localidad remota y la Red Frame
Relay.
La tecnología Frame Relay se beneficia de las ventajas estadísticas de la conmutación de paquetes y hace uso
eficiente del ancho de banda. Posee un mecanismo dinámico para proveer mayor capacidad de tranmisión cuando
así lo requiera el usuario, sin necesidad de haber comprado ancho de banda adicional.
Estas múltiples ventajas hacen de Frame Relay la tecnología ideal para sus necesidades de comunicaciones de
datos y voz por sus bajos costos de operación, altas velocidades de transmisión y utilización eficiente del ancho de
banda.
Es apróximadamente análoga a una versión reducida de X.25, con una interfaz conmutada por paquetes de
velocidad variable entre 56 Kbps y 45 Mbps. Como X.25, "Frame Relay" multiplexa estadísticamente paquetes o
tramas hacia destinos diferentes con una sola interfaz. Está orientada a la conexión, lo que significa que, para
proceder, un circuito virtual debe estar configurado para comunicaciones. Esto se hace típicamente mediante un
enlace de señalización en banda o en el mismo canal (aunque la señalización fuera de banda a través de, por
ejemplo, un canal D de ISDN, está incluida en los estándares). (RUIU).
¿ Cuál es su objetivo ?
Contrario a lo que se especulaba, el objetivo de frame relay no es reemplazar a X.25, sino dirigirse a las
necesidades de ciertas aplicaciones para las cuales X.25 no es efectivo. El principal objetivo de Frame Relay es la
interconexión de redes LAN.
Hagamos un pequeño paréntesis. El Frame Relay es una tecnología de corto plazo aunque estará con nosotros un
buen rato. Ya que la tecnología del futuro será sin duda el ATM tanto con servicios permanentes como
conmutados, a través de los denominados circuitos y trayectos virtuales (VC y VP respectivamente).
Frame Relay ofrece ventajas significativas para interconectar MAINFRAMEs, habitualmente realizada por líneas
arrendadas. Un computador central (Host) a menudo se comunica durante la noche con un sitio de apoyo, a través
de largas ráfagas intermitentes de tráfico para las cuales una conexión permanente es desperdiciada, pero Frame
Relay es la indicada.
Frame Relay (FR) es un protocolo estandarizado de acceso a la capa de enlace de datos orientado a conexión que
puede verse como una versión peso pluma del X.25. Opera con paquetes de longitud variable llamados tramas.
Las interfaces Frame Relay que proporcionan servicios de interconexión a LANs soportan una trama máxima de
1600 octetos. FR garantiza que las tramas llegan libres de error y en el orden correcto, pero no informa sobre
tramas perdidas ni trata de recuperar tramas erróneas.
¿ Cuál es su historia ?
La convergencia de la informática y las telecomunicaciones está siendo una realidad desde hace tiempo. Las
nuevas aplicaciones hacen uso exhaustivo de gráficos y necesitan comunicaciones de alta velocidad con otros
ordenadores conectados a su misma red LAN, e incluso a redes LAN geográficamente dispersas.
Frame Relay surgió para satisfacer estos requisitos.
Ahora, el mercado demanda un mayor ahorro en los costes de comunicaciones mediante la integración de tráfico
de voz y datos.
Frame Relay ha evolucionado, proporcionando la integración en una única línea de los distintos tipos de tráfico de
datos y voz y su transporte por una única red que responde a las siguientes necesidades:
o Alta velocidad y bajo retardo
o Soporte eficiente para tráficos a ráfagas
o Flexibilidad
o Eficiencia
o Buena relación coste-prestaciones
o Transporte integrado de distintos protocolos de voz y datos
o Conectividad "todos con todos"
o Simplicidad en la gestión
o Interfaces estándares
Acuerdos de implementación
En 1988, el ITU-TS (antiguo CCITT) estableció un estándar (I.122), que describía la multiplexación de circuitos
virtuales en el nivel 2, conocido como el nivel de "frame" (trama). Esta recomendación fue denominada Frame
Relay.
ANSI tomó lo anterior como punto de partida y comenzó a definir estándares que iban siendo también adoptados
por el ITU-TSS (CCITT).
Estándares
ITU/TSS
ANSI
Descripción del Servicio 1.233 T1.606
Transferencia de Datos 0.922 T1.618
Señalización 0.933 T1.617
Congestión I.370 T1.606
Interworking I.555
Se constituyó un fórum del sector, el Frame Relay Forum (del que BT, Concert y BT Telecomunicaciones son miembros)
cuyo consenso se refleja en los siguientes "Implementation Agreements".
"Implementation Agreements"
* Acordados por el Frame Relay Forum
* Aprobados : * Trabajos Actuales :
* User to Network * SVC at NNI
* Network to Network * Switched Permanet Virtual Connection (SPVC)
* Switched Virtual Circuit * Voice over FR
* FR/ATM Interworking
* FR Customer Network Management
* FR/PVC Multicast Service
* FR ATM/PVC Service Interworking
* Data Compression over FR
Comparación con X.25
Frame Relay puede entenderse mejor cuando se compara con el protocolo X.25. En la figura A se ilustran los siete niveles
OSI, indicando los niveles realizados por X.25 y Frame Relay.
Aplicación
Presentación
Sesión
Transporte
X.25
Red
Enlace
Frame
Relay Físico
Niveles utilizados por Frame Relay y X.25
En la figura B se proporciona una lista de las funciones suministradas por cada uno de los niveles OSI para X.25 y Frame
Relay. Gran parte de las funciones de X.25 se eliminan en Frame Relay. La función de direccionamiento se desplaza desde
la capa 3 en X .25 a la capa 2 en Frame Relay. Todas las demás funciones del nivel 3 de X.25 no están incorporadas en el
protocolo de Frame Relay.
X.25 Frame Relay
Establecimiento de circuito
Control de circuito
Control de flujo de circuito
Direccionamiento
Red
Control de enlace
Creación de tramas
Control de errores
Control de flujo de enlaces
Fiabilidad
Enlace
Direccionamiento
Creación de tramas
Control de errores
Gestión de interfaces
Conexión Física Físico Conexión Física
X.25, la tecnología de conmutación de paquetes más usada, fue introducida a principio de los años 70s en un ambiente
caracterizado por líneas análogas dentro de la red y en la periferia equipos de usuario (CPE: Customer Premises Equipment)
sin inteligencia. La red permitía altas tasas de error, y los CPE podían realizar solo funciones muy básicas. En tal entorno,
los nodos de red tenían la responsabilidad total de asegurar que la información del usuario se entregara fielmente a su
destino. Esto requería una gran cantidad de procesamiento en el nivel de red del modelo OSI, incluyendo funciones tales
como control de error y retransmisión.
Redes ATM
¿ Qué es ATM ?
El Modo deTransferencia Asíncrono es una tecnología de conmutación que usa pequeñas celdas de tamaño
fijo. En 1988, el CCITT designó a ATM como el mecanismo de transporte planeado para el uso de futuros
servicios de banda ancha. ATM es asíncrono porque las celdas son transmitidas a través de una red sin tener
que ocupar fragmentos específicos de tiempo en alineación de paquete, como las tramas T1. Estas celdas son
pequeñas(53 bytes), comparadas con los paquetes LAN de longitud variable. Todos los tipos de información
son segmentados en campos de pequeños bloques de 48 bytes, los cinco restantes corresponden a un header
usado por la red para mover las celdas. ATM es una tecnología orientada a conexión, en contraste con los
protocolos de base LAN, que son sin conexión. Orientado a conexión significa que una conexión necesita ser
establecida entre dos puntos con un protocolo de señalización antes de cualquier transferencia de datos. Una
vez que la conexión está establecida, las celdas ATM se auto-rutean porque cada celda contiene campos que
identifican la conexión de la celda a la cual pertenecen.
Asynchronous Transfer Mode (ATM) es una tecnología de switching basada en unidades de datos de un
tamaño fijo de 53 bytes llamadas celdas. ATM opera en modo orientado a la conexión, esto significa que
cuando dos nodos desean transferir deben primero establecer un canal o conexión por medio de un protocolo
de llamada o señalización. Una vez establecida la conexión, las celdas de ATM incluyen información que
permite identificar la conexión a la cual pertenecen.
En una red ATM las comunicaciones se establecen a través de un conjunto de dispositivos intermedios
llamados switches.
Transmisiones de diferentes tipos, incluyendo video, voz y datos pueden ser mezcladas en una transmisión
ATM que puede tener rangos de155 Mbps a 2.5Gbps.Esta velocidad puede ser dirigida a un usuario, grupo de
trabajo o una red entera, porque ATM no reserva posiciones específicas en una celda para tipos específicos de
información. Su ancho de banda puede ser optimizado identificando el ancho de banda bajo demanda.
Conmutar las celdas de tamaño fijo significa incorporar algoritmos en chips de silicón eliminando retrasos
causados por software. Una ventaja de ATM es que es escalable. Varios switches pueden ser conectados en
cascada para formar redes más grandes.
¿ Qué interfaces permite manejar ATM ?
Existen dos interfases especificadas que son la interfase usuario-red UNI (user-network interface) y la de red a
red NNI (network-network interface). La UNI liga un dispositivo de usuario a un switch público o privado y la
NNI describe una conexión entre dos switches.
Hay dos interfases públicas UNI, una a 45 Mbps y otra a 155 Mbps. La interfase DS3 está definida en un
estándar T1 del comité ANSI, mientras que la interfase de 155 Mbps está definida por los grupos estándar del
CCITT y ANSI. Tres interfases han sido desarrolladas para UNIs privadas, una a 100 Mps y dos a 155 Mbps.
Es seguro que la interfase estándar internacional SDH/SONET de 155 Mbps sea la elegida porque permite
interoperabilidad en UNIs públicas y privadas.
Como ATM es una red orientada a conexión, un enlace entre dos puntos empieza cuando uno transmite una
solicitud a través de la UNI a la red. Un dispositivo responsable de señalización pasa la señal a través de la red
a su destino. Si el sistema indica que se acepta la conexión, un circuito virtual es establecido a través de la red
ATM entre los dos puntos. Ambas UNIs contienen mapas para que las celdas puedan ser ruteadas
correctamente. Cada celda contiene campos, un identificador de ruta virtual VPI (virtual path identifier) y un
identificador de circuito virtual VCI (virtual circuit identifier) que indican estos mapeos.
El uso de celdas para transmitir datos no significa que los protocolos de hoy no sean usados. ATM es
totalmente transparente a protocolo. La carga de cada celda es pasada por el switch sin ser "leida" a nivel
binario. ATM usa el concepto de control de error y flujo de "fin a fin" en contraste a la red convencional de
paquete conmutado que usa un control de error y flujo interno. Esto es que la red en sí no checa la carga de
datos para errores y lo deja al dispositivo terminal final (De hecho, el único chequeo de error en las celdas es
en el header, así la integridad de los VCI/VPI esta asegurada).
ATM está diseñado para manejar los siguientes tipos de tráfico:
Clase A - Constant Bit Rate (CBR), orientado a conexión, tráfico síncrono (Ej. voz o video sin compresión)
Clase B - Variable Bit Traffic (VBR), orientado a conexión, tráfico sícrono (voz y video comprimidos).
Clase C - Variable Bit Rate, orientado a conexión, tráfico asíncrono (X.25, Frame Relay, etc).
Clase D - Información de paquete sin conexión (tráfico LAN, SMDS, etc).
Los switches que se utilizan en la actualidad son usados para formar terminales de trabajo de alto desempeño
en grupos de trabajo. El mayor mercado para los switches ATM será como columna vertebral de redes
corporativas. Uno de los mayores problemas que se enfrentan es el desarrollo de especificaciones para
emulación de LAN, una manera de ligar los switches ATM con las redes de área local. En la actualidad solo
existen soluciones de propietario.
¿ Cómo funciona ATM ?
El componente básico de una red ATM es un switch electrónico especialmente diseñado para transmitir datos
a muy alta velocidad. Un switch típico soporta la conexión de entre 16 y 32 nodos. Para permitir la
comunicación de datos a alta velocidad la conexión entre los nodos y el switch se realizan por medio de un par
de hilos de fibra óptica.
Aunque un switch ATM tiene una capacidad limitada, múltiples switches pueden interconectarse ente si para
formar una gran red. En particular, para conectar nodos que se encuentran en dos sitios diferentes es necesario
contar con un switch en cada uno de ellos y ambos a su vez deben estar conectados entre si.
Las conexiones entre nodos ATM se realizan en base a dos interfaces diferentes como ya mencionamos, la
User to Network Interfaces o UNI se emplea para vincular a un nodo final o «edge device» con un switch. La
Network to Network Interfaces o NNI define la comunicación entre dos switches.
Los diseñadores piensan en UNI como la interface para conectar equipos del cliente a la red del proveedor y a
NNI como una interface para conectar redes del diferentes proveedores.
Tipos de conexiones
ATM provee servicios orientados a la conexión. Para comunicarse con un nodo remoto, un host debe solicitar
a su switch local el establecimiento de una conexión con el destino. Estas conexiones pueden ser de dos
naturalezas: Switched Virtual Circuits (SVC) o Permanent Virtual Circuits (PVC).
Switched Virtual Circuits (SVC)
Un SVC opera del mismo modo que una llamada telefónica convencional. Un host se comunica con el switch
ATM local y requiere del mismo el establecimiento de un SVC. El host especifica la dirección completa del
nodo destino y la calidad del servicio requerido. Luego espera que la red ATM establezca el circuito.
El sistema de señalización de ATM se encarga de encontrar el path necesario desde el host origen al host
destino a lo largo de varios switches. El host remoto debe aceptar el establecimiento de la conexión.
Durante el proceso de señalización (toma este nombre por analogía con el usado en sistemas telefónicos de los
cuales deriva ATM) cada uno de los switches examina el tipo de servicio solicitado por el host de origen. Si
acuerda propagar información de dicho host registra información acerca el circuito solicitado y propaga el
requerimiento al siguiente switch de la red.
Este tipo de acuerdo reserva determinados recursos el switch para ser usados por el nuevo circuito. Cuando el
proceso de señalización concluye el switch local reporta la existencia del SVC al host local y al host remoto.
La interfase UNI identifica a cada uno de los SVC por medio de un número de 24 bits. Cuando un host acepta
un nuevo SVC, el switch ATM local asigna al mismo un nuevo identificador. Los paquetes transmitidos por la
red no llevan información de nodo origen ni nodo destino. El host marca a cada paquete enviado con el
identificador de circuito virtual necesario para llegar al nodo destino.
Nótese que se ha evitado hablar de los protocolos usados para el establecimiento de los SVC, para los procesos
de señalización y para comunicar a los hosts el establecimiento de un nuevo SVC. Además hay que tener en
cuenta que comunicaciones bidireccionales van a necesitar reservar recursos a lo largo del SVC para dos
sentidos de comunicación.
Permanent Virtual Circuits (PVC)
La alternativa al mecanismo de SVC descripto en el ítem anterior es evidente: el administrador de la red puede
configurar en forma manual los switches para definir circuitos permanentes. El administrador identifica el
nodo origen, el nodo destino, la calidad de servicio y los identificadores de 24 bits para que cada host pueda
acceder al circuito.
Paths, Circuitos e Identificadores
ATM asigna un entero único como identificador para cada path abierto por un host. Este identificador contiene
mucha menos información de la que fue necesaria para la creación del circuito. Además el identificador solo
es válido mientras que el circuito permanece abierto.
Otro punto a tener en cuenta es que el identificador es valido para un solo sentido del circuito. Esto quiere
decir que los identificadores de circuito obtenidos por los dos hosts en los extremos del mismo usualmente son
diferentes.
Los identificadores usados por la interfase UNI están formados por 24 bits, divididos en dos campos, el
primero de 8 bits y el segundo de 16 bits. Los primeros 8 bits forman el llamado «Virtual Path Identifier» y los
16 restantes el «Virtual Circuit Identifier». Este conjunto de bits suele recibir el nombre de «VPI/VCI pair».
Esta división del identificador en dos campos persigue el mismo fin que la división de las direcciones IP en un
campo para identificar la red y un segundo campo para identificar el host. Si un conjunto de VCs sigue el
mismo path el administrador puede asignar a todos ellos un mismo VPI. El hardware de ATM usa entonces los
VPI para funciones de ruteo de tráfico.
Transporte de celdas
En cuanto al transporte de información, ATM usa tramas de tamaño fijo que reciben el nombre de celdas. El
hecho de que todas las celdas sean del mismo tamaño permite construir equipos de switching de muy alta
velocidad. Cada celda de ATM tiene una longitud de 53 bytes, reservándose los 5 primeros para el encabezado
y el resto para datos.
Dentro del encabezado se coloca el par VPI/VCI que identifica al circuito entre extremos, información de
control de flujo y un CRC .
La conexión final entre dos nodos recibe el nombre de Virtual Channel Connection o VCC. Una VCC se
encuentra formada por un conjunto de pares VPI/VCI.
Modelo de capas de ATM
Capa Física
Define la forma en que las celdas se transportan por la red
Es independiente de los medios físicos
Tiene dos subcapas
o TC (Transmission Convergence Sublayer)
o l PM (Physical Medium Sublayer)
Capa ATM
Provee un solo mecanismo de transporte para múltiples opciones de servicio
Es independiente del tipo de información que es transmitida (datos, gráficos, voz. audio, video) con
excepción del tipo de servicio (QOS) requerido
Existen dos tipos de header ATM
o UNI (User-Network Interface)
o NNI (Network-Network Interface)
ATM Adaptation Layer
o Provee las funciones orientadas al usuario no comprendidas en la Capa ATM
o Permite a la Capa ATM transportar diferentes protocolos y servicios de capas superiores
o Tiene dos subcapas
o CS (Convergence Sublayer)
o SAR (Segmentation and Reassembly Sublayer)
Si bien ATM se maneja con celdas a nivel de capas inferiores, las aplicaciones que generan la información a
ser transportada por ATM no trabajan con celdas. Estas aplicaciones interactuarán con ATM por medio de una
capa llamada «ATM Adaptation Layer». Esta capa realiza una serie de funciones entre las que se incluyen
detección de errores (celdas corruptas).
En el momento de establecer la conexión el host debe especificar el protocolo de capa de adaptación que va a
usar. Ambos extremos de la conexión deben acordar en el uso del mismo protocolo y este no puede ser
modificado durante la vida de la conexión.
Hasta el momento solo se han definido dos protocolos de capa de adaptación para ser usados por ATM. Uno
de ellos se encuentra orientado a la transmisión de información de audio y video y el otro para la transmisión
de datos tradicionales.
ATM Adaptation Layer 1 (AAL1) transmite información a una tasa de bits fija. Las conexiones creadas para
trabajar con video deben usar AAL1 dado que requieren un servicio de tasa constante para no tener errores de
parpadeo o «flicker» en la imagen.
La transmisión de datos tradicionales trabaja con la AAL5 para enviar paquetes de un nodo a otro. Ahora, si
bien ATM trabaja con tramas o celdas de tamaño fijo. Los protocolos de capa superior generalmente manejan
datagramas de longitud variable. Una de las funciones de la AAL5 consiste en adaptar estas tramas a celdas.
En particular la AAL5 puede recibir datagramas de hasta 64 Kb de longitud.
El paquete manejado por la AAL5 difiere estructuralmente de otros tipos de tramas existentes ya que la
información de control se inserta al final de la misma. La longitud de la misma es de 8 bytes.
Cada una de las tramas de AAL5 deben ser fraccionadas en celdas para poder ser transportadas por la red para
luego ser recombinadas en el nodo remoto. Cuando el datagrama es un múltiplo de 48 bytes el resultado de la
división da un número entero de celdas. En caso contrario la última de las celdas no se encontrará completa.
Para poder manejar paquetes de longitud arbitraria, AAL5 permite que la celda final pueda contener entre 0 y
40 bytes de datos y coloca la información de control al final de la misma antecedida por los ceros de relleno
necesarios. En otras palabras, la información de control se coloca al final de la secuencia de celdas donde
puede ser encontrada y extraída sin necesidad de conocer la longitud del datagrama fraccionado.
Convergencia, Segmentación y Reensamblado
Cuando una aplicación envía datos sobre una conexión ATM usando AAL5, el host pasa los datos a la
interfase AAL5. Esta divide los datos en celdas, genera el «trailer» y transfiere a cada una de ellas a través de
la red ATM. En el nodo receptor AAL5 recibe las celdas y las reensambla en base a la información contenida
en el «trailer» para regenerar el datagrama original.
El nodo origen usa el byte menos significativo del campo «Payload Type» de la celda para indicar la celda
final de un datagrama. Podemos pensar que este bit funciona como un «end of packet bit».
En ATM el termino convergencia se usa para identificar el método usado para detectar el final de cada
datagrama fraccionado.
Otros capas de adaptación de ATM trabajan con métodos diferentes para resolver el problema de
convergencia.
¿ Porqué tanto interés por ATM ?
1.- ATM se ha originado por la necesidad de un standard mundial que permita el intercambio de información,
sin tener en cuenta el tipo de información transmitida. Con ATM la meta es obtener un standard internacional.
ATM es una tecnología que va creciendo y es controlada por un consenso internacional no por la simple vista
o estrategia de un vendedor.
2.- Desde siempre, se han usado métodos separados para la transmisión de información entre los usuarios de
una red de área local (LAN) y los de una red de gran tamaño(WAN). Esta situación traía una serie de
problemas a los usuarios de LAN's que querían conectarse a redes de área metropolitana, nacional y
finalmente mundial. ATM es un método de comunicación que se puede implantar tanto en LAN's como en
WAN's. Con el tiempo, ATM intentará que las diferencias existentes entre LAN y WAN vayan
desapareciendo.
3.- Actualmente se usan redes independientes para transportar voz, datos e imágenes de video debido a que
necesitan un ancho de banda diferente. Por ejemplo, el tráfico de datos tiende a ser "algo que estalla", es decir,
no necesita comunicar por un periodo extenso de tiempo sino transmitir grandes cantidades de información tan
rápido como sea posible. Voz y video, por otra parte, tienden a necesitar un trafico mas uniforme siendo muy
importante cuando y en el orden en que llega la información. Con ATM, redes separadas no serán necesarias.
ATM es el única tecnología basada en estándar que ha sido diseñada desde el comienzo para soportar
transmisiones simultaneas de datos, voz y video.
4.- ATM es un standard para comunicaciones que esta creciendo rápidamente debido a que es capaz de
transmitir a una velocidad de varios Megabits hasta llegar a Gigabits.
Tecnología ATM
1.- Cuando necesitamos enviar información, el emisor "negocia" un camino en la red para que su
comunicación circule por él hacia el destino. Una vez asignado el camino, el emisor especifica el tipo, la
velocidad y otros atributos de la comunicación.
2.- Otro concepto clave es que ATM está basado en el uso de conmutadores. Hacer la comunicación por medio
de un conmutador (en vez de un bus) tieneciertas ventajas:
o Reserva de ancho de banda para la conexión
o Mayor ancho de banda
o Procedimientos de conexión bien definidos
o Velocidades de acceso flexibles.
Si usamos ATM, la información a enviar es dividida en paquetes de longitud fija. Estos son mandados por la
red y el destinatario se encarga de poner los datos en su estado inicial. Los paquetes en ATM tienen una
longitud fija de 53 bytes. Siendo la longitud de los paquetes fija, permite que la información sea transportada
de una manera predecible. El hecho de que sea predecible permite diferentes tipos de trafico en la misma red.
Los paquetes están divididos en dos partes, la cabecera y payload. El payload (que ocupa 48 bytes) es la parte
del paquete donde viaja la información, ya sean datos, imágenes o voz. La cabecera (que ocupa 5 bytes) lleva
el mecanismo direccionamiento.
Beneficios
1.- Una única red ATM dará cabida a todo tipo de tráfico (voz, datos y video). ATM mejora la eficiencia y
manejabilidad de la red.
2.- Capacita nuevas aplicaciones, debido a su alta velocidad y a la integración de los tipos de tráfico, ATM
capacita la creación y la expansión de nuevas aplicaciones como la multimedia.
3.- Compatibilidad, porque ATM no está basado en un tipo especifico de transporte físico, es compatible con
las actuales redes físicas que han sido desplegadas. ATM puede ser implementado sobre par trenzado, cable
coaxial y fibra óptica.
4.- Simplifica el control de la red. ATM está evolucionando hacia una tecnología standard para todo tipo de
comunicaciones. Esta uniformidad intenta simplificar el control de la red usando la misma tecnología para
todos los niveles de la red.
5.- Largo periodo de vida de la arquitectura. Los sistemas de información y las industrias de
telecomunicaciones se están centrando y están estandarizado el ATM. ATM ha sido diseñado desde el
comienzo para ser flexible en:
Distancias geográficas
Número de usuarios
Acceso y ancho de banda (hasta ahora, las velocidades varían de Megas a Gigas).
ATM
Asynchronous Transfer Mode. Es un modo de transferencia no síncrono que se hizo popular en 1988 cuando se decidió que
esta tecnología de conmutación seria la usada por las futuras redes ISDN en banda ancha. El tamaño ideal de las celdas de
este protocolo fue motivo de discusión decidiendo que serian de 53 (48 + 5) bytes, divididos en octetos.
ARQUITECTURA
Las redes ATM están orientadas a conexión, para que la comunicación exista entre dos terminales debe enviar primero un
paquete para establecer la conexión, llamadas Circuitos Virtuales, según recorre la subred todos los conmutadores en la ruta
crean una entrada en sus tablas internas tomando nota de la existencia de la conexión y así reservar cualquier recurso que la
misma necesitara.
Ya establecida la conexión, cada terminal puede empezar a transmitir datos. La idea básica en que se fundamenta ATM es
transmitir toda la información en paquetes pequeños, de tamaño fijo, llamados celdas. Las celdas tienen un tamaño de 53
bytes. Parte del encabezado es el identificador de la conexión, por lo que los hosts emisor y receptor y todos los
conmutadores intermedios pueden saber que celdas pertenecen a que conexiones, asi cada conmutador sabe como enviar
cada celda entrante.
Formato de Celdas ATM
Son estructuras de datos de 53 bytes compuestas por dos campos principales:
1. Encabezado (Header). Sus 5 bytes tienen tres funciones principales: identificación del canal, información para la
detección de errores y si la célula es o no utilizada. Eventualmente puede contener también corrección de errores y
un número de secuencia.
2. . Datos de Usuario (Payload). Tiene 48 bytes fundamentalmente con datos del usuario y protocolos AAL que
también son considerados como datos del usuario.
Dos de los conceptos más significativos del ATM, Canales Virtuales y Rutas Virtuales, están materializados en dos
identificadores en el header de cada celda (VCI y VPI) ambos determinan el enrutamiento entre nodos. El estándar define el
protocolo orientado a conexión que las transmite y dos tipos de formato de celda:
NNI (Network to Network Interface o interfaz red a red) El cual se refiere a la conexión de conmutadores ATM en redes
privadas
UNI (User to Network Interface o interfaz usuario a red) este se refiere a la conexión de un conmutador ATM de una
empresa pública o privada con un terminal ATM de un usuario normal, siendo este último el más utilizado.
Celda UNI Celda NNI
Campos de la Celda ATM
GFC (Control de Flujo Genérico, Generic Flow Control, 4 bits): Labores de gestión de tráfico, pero en la práctica no es
utilizado. Las celdas NNI lo emplean para extender el campo VPI a 12 bits.
VPI (Identificador de Ruta Virtual, Virtual Path Identifier, 8 bits) y VCI (Identificador de Circuito Virtual, Virtual Circuit
Identifier, 16 bits): Se utilizan para indicar la ruta de destino o final de la celda.
PT (Tipo de Información de Usuario, Payload type, 3 bits): identifica el tipo de datos de la celda (de datos del usuario o de
control).
CLP (Prioridad, Cell Loss Priority, 1 bit): Nivel de prioridad de las celda, si este bit esta activo cuando la red ATM esta
congestionada la celda puede ser descartada.
HEC (Corrección de Error de Cabecera, Header Error Correction, 8 bits):contiene un código de detección de error que
sólo cubre la cabecera (no la información de usuario), y que permite detectar un buen número de errores múltiples y
corregir errores simples.
MODELO DE REFERENCIA ATM
Consta de 3 Capas:
1. Física: Relaciona todo el medio físico (voltajes, temporización de bits…). Esta capa se divide en dos subredes:
a. TC (Convergencia de Transmisión): Recibe una serie de bits de entrada de PMD, convierte este flujo de bits
en un flujo de celdas para la capa ATM. Hace el trabajo de la capa de enlace el modelo OSI.
b. PMD (Dependiente del Medio Físico): Es la que hace el trabajo. Interactúa con el cable real (Mueve los bits,
maneja temporización de bits…).
2. ATM: Se encarga de las celdas y su transporte (Significado de los campos, establecer o liberar circuitos virtuales…).
3. Adaptación ATM (AAL): Para que los usuarios envíen paquetes más grandes que una celda. AAL segmenta los paquetes,
transmite de forma individual las celdas y las reensambla al otro extremo.
a. SAR (Segmentacion y Reensamble): Fragmenta paquetes en celdas en el lado de transmisión y los une de
nuevo en el destino.
b. CS (Subcapa de Convergencia): Permite que los sistemas ATM ofrezcan diversos servicios a diferentes
aplicaciones.
Plano de Usuario: Transporte de datos, control de flujo, corrección de errores.
Plano de Control: Administración de la conexión.
Capa OSI Capa ATM Subcapa ATM Funcionalidad
3/4 AAL CS Provision de la interfaz estándar (convergencia)
SAR
2/3 ATM Control de Flujo
Generacion/Extraccion de encabezado de
celda
Circuito Virtual/admon. De ruta
Multiplexion/desmultiplexion de celdas
2 Fisica TC Desacoplamiento de proporción de celdas.
Generacion y comprobación de la suma de
verificación de encabezados
Generacion de Celdas
Empaque/Desempaque de celdas a partir de
sobre contenedor
Generacion de tramas
1 PMD Temporizacion de bits
Acceso a la red física
CARACTERISTICAS PRINCIPALES
Transmitir la información en paquetes pequeños, de tamaño fijo, permite que cada conmutador sepa como enviar cada
celda entrante. Además cada recurso en la ruta del paquete pueden saber que celdas pertenecen a que conexiones.
Tener celdas de tamaño fijo permite que sea fácil construir conmutadores de hardware para manejarlas haciendo el
proceso un poco mas rápido.
El hardware puede configurarse para enviar una celda entrante a múltiples líneas de salida (multiplexacion), propiedad
necesaria para el manejo de programas de televisión.
ATM facilita la garantía en la calidad de servicio, esto se debe a que las celdas pequeñas no bloquean ninguna línea por
mucho tiempo.
Garantiza el orden de llegada de las celdas debido a que siguen la misma ruta destino.
Las velocidades mas comunes de las redes ATM son de 155 y 622 Mbps (aunque también soportan velocidades mas
altas).
ATM tan solo especifica que las celdas ATM se pueden enviar por cualquier medio de transporte. No prescribe un
conjunto particular de reglas. Esto significa que esta diseñado para ser independiente del medio de transmisión.
La Capa ATM es una combinación de capas de enlace de datos y de red del modelo OSI, no hay división en subcapas.
La entrega de celdas no está garantizada.
¿Qué significa TCP/IP?
TCP/IP es un conjunto de protocolos. La sigla TCP/IP significa "Protocolo de control de transmisión/Protocolo de Internet"
y se pronuncia "T-C-P-I-P". Proviene de los nombres de dos protocolos importantes del conjunto de protocolos, es decir, del
protocolo TCP y del protocolo IP.
En algunos aspectos, TCP/IP representa todas las reglas de comunicación para Internet y se basa en la noción de dirección IP,
es decir, en la idea de brindar una dirección IP a cada equipo de la red para poder enrutar paquetes de datos. Debido a que el
conjunto de protocolos TCP/IP originalmente se creó con fines militares, está diseñado para cumplir con una cierta cantidad
de criterios, entre ellos:
dividir mensajes en paquetes;
usar un sistema de direcciones;
enrutar datos por la red;
detectar errores en las transmisiones de datos.
El conocimiento del conjunto de protocolos TCP/IP no es esencial para un simple usuario, de la misma manera que un
espectador no necesita saber cómo funciona su red audiovisual o de televisión. Sin embargo, para las personas que desean
administrar o brindar soporte técnico a una red TCP/IP, su conocimiento es fundamental.
La diferencia entre estándar e implementación
En general, TCP/IP relaciona dos nociones:
la noción de estándar: TCP/IP representa la manera en la que se realizan las comunicaciones en una red;
la noción de implementación: la designación TCP/IP generalmente se extiende a software basado en el protocolo
TCP/IP. En realidad, TCP/IP es un modelo cuya aplicación de red utilizan los desarrolladores. Las aplicaciones son, por
lo tanto, implementaciones del protocolo TCP/IP.
TCP/IP es un modelo de capas
Para poder aplicar el modelo TCP/IP en cualquier equipo, es decir, independientemente del sistema operativo, el sistema de
protocolos TCP/IP se ha dividido en diversos módulos. Cada uno de éstos realiza una tarea específica. Además, estos módulos
realizan sus tareas uno después del otro en un orden específico, es decir que existe un sistema estratificado. Ésta es la razón
por la cual se habla de modelo de capas.
El término capa se utiliza para reflejar el hecho de que los datos que viajan por la red atraviesan distintos niveles de protocolos.
Por lo tanto, cada capa procesa sucesivamente los datos (paquetes de información) que circulan por la red, les agrega un
elemento de información (llamado encabezado) y los envía a la capa siguiente.
El modelo TCP/IP es muy similar al modelo OSI (modelo de 7 capas) que fue desarrollado por la Organización Internacional
para la Estandarización (ISO) para estandarizar las comunicaciones entre equipos.
Presentación del modelo OSI
OSI significa Interconexión de sistemas abiertos. Este modelo fue establecido por ISO para implementar un estándar de
comunicación entre equipos de una red, esto es, las reglas que administran la comunicación entre equipos. De hecho, cuando
surgieron las redes,cada fabricante contaba con su propio sistema (hablamos de un sistema patentado), con lo cual coexistían
diversas redes incompatibles. Por esta razón, fue necesario establecer un estándar.
La función del modelo OSI es estandarizar la comunicación entre equipos para que diferentes fabricantes puedan desarrollar
productos (software o hardware) compatibles (siempre y cuando sigan estrictamente el modelo OSI).
La importancia de un sistema de capas
El objetivo de un sistema en capas es dividir el problema en diferentes partes (las capas), de acuerdo con su nivel de
abstracción.
Cada capa del modelo se comunica con un nivel adyacente (superior o inferior). Por lo tanto, cada capa utiliza los servicios
de las capas inferiores y se los proporciona a la capa superior.
El modelo OSI
El modelo OSI es un modelo que comprende 7 capas, mientras que el modelo TCP/IP tiene sólo 4. En realidad, el modelo
TCP/IP se desarrolló casi a la par que el modelo OSI. Es por ello que está influenciado por éste, pero no sigue todas las
especificaciones del modelo OSI. Las capas del modelo OSI son las siguientes:
<="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style:
normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start;
text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px;
background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit;
color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-
weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform:
none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255,
255);"><="" td="" style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family:
'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing:
normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal;
widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td=""
style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-
serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height:
21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing:
0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit;"><=""
td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style:
normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start;
text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px;
background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit;
color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-
weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform:
none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255,
255);"><="" td="" style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family:
'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing:
normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal;
widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td=""
style="box-sizing: inherit;">
Nivel Modelo antiguo Modelo nuevo
Nivel 7
Nivel 6
Nivel 5
Nivel 4
Nivel 3
Nivel 2
Nivel 1
La capa física define la manera en la que los datos se convierten físicamente en señales digitales en los medios de
comunicación (pulsos eléctricos, modulación de luz, etc.).
La capa de enlace de datos define la interfaz con la tarjeta de interfaz de red y cómo se comparte el medio de
transmisión.
La capa de red permite administrar las direcciones y el enrutamiento de datos, es decir, su ruta a través de la red.
La capa de transporte se encarga del transporte de datos, su división en paquetes y la administración de potenciales
errores de transmisión.
La capa de sesión define el inicio y la finalización de las sesiones de comunicación entre los equipos de la red.
La capa de presentación define el formato de los datos que maneja la capa de aplicación (su representación y,
potencialmente, su compresión y cifrado) independientemente del sistema.
La capa de aplicación le brinda aplicaciones a la interfaz. Por lo tanto, es el nivel más cercano a los usuarios,
administrado directamente por el software.
El modelo TCP/IP
El modelo TCP/IP, influenciado por el modelo OSI, también utiliza el enfoque modular (utiliza módulos o capas), pero sólo
contiene cuatro:
<thmodèle tcp="" ip<="" th="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-
size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans:
auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-
text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><thmodèle osi<="" th="" style="box-sizing:
inherit;"></thmodèle></thmodèle><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans',
sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height:
21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing:
0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit; color:
rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight:
normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none;
white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255,
255);"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px;
font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-
align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-
width: 0px; background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-
family: 'Open Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing:
normal; line-height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal;
widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td=""
style="box-sizing: inherit;"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-
serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height:
21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing:
0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit;"><=""
td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-size: 14px; font-style:
normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans: auto; text-align: start;
text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-text-stroke-width: 0px;
background-color: rgb(255, 255, 255);"><="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open
Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-
height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-
spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);">
Capa de aplicación
Capa de acceso a la red
Como puede apreciarse, las capas del modelo TCP/IP tienen tareas mucho más diversas que las del modelo OSI, considerando
que ciertas capas del modelo TCP/IP se corresponden con varios niveles del modelo OSI.
Las funciones de las diferentes capas son las siguientes:
capa de acceso a la red: especifica la forma en la que los datos deben enrutarse, sea cual sea el tipo de red utilizado;
capa de Internet: es responsable de proporcionar el paquete de datos (datagrama);
capa de transporte: brinda los datos de enrutamiento, junto con los mecanismos que permiten conocer el estado de la
transmisión;
capa de aplicación: incorpora aplicaciones de red estándar (Telnet, SMTP, FTP, etc.).
A continuación se indican los principales protocolos que comprenden el conjunto TCP/IP:
<thmodèle tcp="" ip<="" th="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open Sans', sans-serif; font-
size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: 21px; orphans:
auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-spacing: 0px; -webkit-
text-stroke-width: 0px; background-color: rgb(255, 255, 255);"></thmodèle>
Aplicaciones de red
TCP o UDP
IP, ARP, RARP
FTS, FDDI, PPP, Ethernet, Red de anillos<="" td="" style="box-sizing: inherit; color: rgb(48, 48, 48); font-family: 'Open
Sans', sans-serif; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-
height: 21px; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 1; word-
spacing: 0px; -webkit-text-stroke-width: 0px; background-color: rgb(255, 255, 255);">
Encapsulación de datos
Durante una transmisión, los datos cruzan cada una de las capas en el nivel del equipo remitente. En cada capa, se le agrega
información al paquete de datos. Esto se llama encabezado, es decir, una recopilación de información que garantiza la
transmisión. En el nivel del equipo receptor, cuando se atraviesa cada capa, el encabezado se lee y después se elimina.
Entonces, cuando se recibe, el mensaje se encuentra en su estado original.
En cada nivel, el paquete de datos cambia su aspecto porque se le agrega un encabezado. Por lo tanto, las designaciones
cambian según las capas:
el paquete de datos se denomina mensaje en el nivel de la capa de aplicación;
el mensaje después se encapsula en forma de segmento en la capa de transporte;
una vez que se encapsula el segmento en la capa de Internet, toma el nombre de datagrama;
finalmente, se habla de trama en el nivel de capa de acceso a la red.
Capa de acceso a la red
La capa de acceso a la red es la primera capa de la pila TCP/IP. Ofrece la capacidad de acceder a cualquier red física, es decir,
brinda los recursos que se deben implementar para transmitir datos a través de la red.
Por lo tanto, la capa de acceso a la red contiene especificaciones relacionadas con la transmisión de datos por una red física,
cuando es una red de área local (Red en anillo, Ethernet, FDDI), conectada mediante línea telefónica u otro tipo de conexión
a una red. Trata los siguientes conceptos:
enrutamiento de datos por la conexión;
coordinación de la transmisión de datos (sincronización);
formato de datos;
conversión de señal (análoga/digital);
detección de errores a su llegada.
...
Afortunadamente, todas estas especificaciones son invisibles al ojo del usuario, ya que en realidad es el sistema operativo el
que realiza estas tareas, mientras los drivers de hardware permiten la conexión a la red (por ejemplo, el driver de la tarjeta de
red).
La capa de Internet
La capa de Internet es la capa "más importante" (si bien todas son importantes a su manera), ya que es la que define los
datagramas y administra las nociones de direcciones IP.
Permite el enrutamiento de datagramas (paquetes de datos) a equipos remotos junto con la administración de su división y
ensamblaje cuando se reciben.
La capa de Internet contiene 5 protocolos:
el protocolo IP;
el protocolo ARP;
el protocolo ICMP;
el protocolo RARP;
el protocolo IGMP.
Los primeros tres protocolos son los más importantes para esta capa.
La capa de transporte
Los protocolos de las capas anteriores permiten enviar información de un equipo a otro. La capa de transporte permite que las
aplicaciones que se ejecutan en equipos remotos puedan comunicarse. El problema es identificar estas aplicaciones.
De hecho, según el equipo y su sistema operativo, la aplicación puede ser un programa, una tarea, un proceso, etc.
Además, el nombre de la aplicación puede variar de sistema en sistema. Es por ello que se ha implementado un sistema de
numeración para poder asociar un tipo de aplicación con un tipo de datos. Estos identificadores se denominan puertos.
La capa de transporte contiene dos protocolos que permiten que dos aplicaciones puedan intercambiar datos
independientemente del tipo de red (es decir, independientemente de las capas inferiores). Estos dos protocolos son los
siguientes:
TCP, un protocolo orientado a conexión que brinda detección de errores;
UDP, un protocolo no orientado a conexión en el que la detección de errores es obsoleta.
La capa de aplicación
La capa de aplicación se encuentra en la parte superior de las capas del protocolo TCP/IP. Contiene las aplicaciones de red
que permiten la comunicación mediante las capas inferiores.
Por lo tanto, el software en esta capa se comunica mediante uno o dos protocolos de la capa inferior (la capa de transporte),
es decir, TCP o UDP.
Existen diferentes tipos de aplicaciones para esta capa, pero la mayoría son servicios de red o aplicaciones brindadas al usuario
para proporcionar la interfaz con el sistema operativo. Se pueden clasificar según los servicios que brindan:
servicios de administración de archivos e impresión (transferencia);
servicios de conexión a la red;
servicios de conexión remota;
diversas utilidades de Internet.
Consulta este artículo sin tener que estar conectado, descárgalo gratis aquí en formato PDF:
El modelo TCP/IP
Actualizado: enero de 2005
Se aplica a: Windows Server 2003, Windows Server 2003 R2, Windows Server 2003 with SP1, Windows Server 2003 with
SP2
El modelo TCP/IP
TCP/IP está basado en un modelo de referencia de cuatro niveles. Todos los protocolos que pertenecen al conjunto de
protocolos TCP/IP se encuentran en los tres niveles superiores de este modelo.
Tal como se muestra en la siguiente ilustración, cada nivel del modelo TCP/IP corresponde a uno o más niveles del modelo
de referencia Interconexión de sistemas abiertos (OSI, Open Systems Interconnection) de siete niveles, propuesto por la
Organización internacional de normalización (ISO, International Organization for Standardization).
Los tipos de servicios realizados y los protocolos utilizados en cada nivel del modelo TCP/IP se describen con más detalle
en la siguiente tabla.
Nivel Descripción Protocolos
Aplicación Define los protocolos de aplicación TCP/IP y cómo se conectan los
programas de host a los servicios del nivel de transporte para utilizar la red.
HTTP, Telnet, FTP, TFTP,
SNMP, DNS, SMTP,
X Windows y otros
protocolos de aplicación
Transporte Permite administrar las sesiones de comunicación entre equipos host.
Define el nivel de servicio y el estado de la conexión utilizada al
transportar datos.
TCP, UDP, RTP
Internet Empaqueta los datos en datagramas IP, que contienen información de las
direcciones de origen y destino utilizada para reenviar los datagramas entre
hosts y a través de redes. Realiza el enrutamiento de los datagramas IP.
IP, ICMP, ARP, RARP
Interfaz de
red
Especifica información detallada de cómo se envían físicamente los datos a
través de la red, que incluye cómo se realiza la señalización eléctrica de los
bits mediante los dispositivos de hardware que conectan directamente con
un medio de red, como un cable coaxial, un cable de fibra óptica o un cable
de cobre de par trenzado.
Ethernet, Token Ring,
FDDI, X.25, Frame Relay,
RS-232, v.35
Para obtener más información acerca de ARP, IP, ICMP, IGMP, UDP y TCP, vea Descripción de TCP/IP.
Nota
El modelo de referencia OSI no es específico de TCP/IP. Este modelo fue desarrollado por ISO a finales de los
años 70 como marco para describir todas las funciones necesarias en una red interconectada abierta. Es un modelo
de referencia muy conocido y aceptado en el campo de las comunicaciones de datos y se utiliza aquí sólo para
propósitos de comparación.
El protocolo UDP
El grupo de protocolos de Internet también maneja un protocolo de transporte sin conexiones, el UDP (User Data Protocol,
protocolo de datos de usuario). El UDP ofrece a las aplicaciones un mecanismo para enviar datagramas IP en bruto
encapsulados sin tener que establecer una conexión.
Muchas aplicaciones cliente-servidor que tienen una solicitud y una respuesta usan el UDP en lugar de tomarse la molestia
de establecer y luego liberar una conexión. El UDP se describe en el RFC 768. Un segmento UDP consiste en una cabecera
de 8 bytes seguida de los datos. La cabecera se muestra a continuación. Los dos puertos sirven para lo mismo que en el TCP:
para identificar los puntos terminales de las máquinas origen y destino. El campo de longitud UDP incluye la cabecera de 8
bytes y los datos. La suma de comprobación UDP incluye la misma pseudocabecera de formato, la cabecera UDP, y los
datos, rellenados con una cantidad par de bytes de ser necesario.
Esta suma es opcional, y se almacena como 0 si no se calcula. Inutilizarla seria absurdo, a menos que la cantidad de los datos
no importe, por ejemplo, voz digitalizada.
UDP no admite numeración de los datagramas, factor que, sumado a que tampoco utiliza señales de confirmación de entrega,
hace que la garantía de que un paquete llegue a su destino sea mucho menor que si se usa TCP. Esto también origina que
los datagramas pueden llegar duplicados y/o desordenados a su destino. Por estos motivos el control de envío de datagramas,
si existe, debe ser implementado por las aplicaciones que usan UDP como medio de transporte de datos, al igual que el
reeensamble de los mensajes entrantes.
Es por ello un protocolo del tipo best-effort (máximo esfuerzo), porque hace lo que puede para transmitir los datagramas
hacia la aplicación, pero no puede garantizar que la aplicación los reciba.
Tampoco utiliza mecanismos de detección de errores. Cuando se detecta un error en un datagrama, en lugar de entregarlo a
la aplicación destino, se descarta.
Cuando una aplicación envía datos a través de UDP, éstos llegan al otro extremo como una unidad. Por ejemplo, si una
aplicación escribe 5 veces en el puerto UDP, la aplicación al otro extremo hará 5 lecturas del puerto UDP. Además, el
tamaño de cada escritura será igual que el tamaño de las lecturas.
Protocolo de Datagramas de Usuario (UDP)
UDP es un protocolo estándar con número 6 de STD. Este protocolo se describe en el RFC 768 - Protocolo de Datagrama de
Usuario. Este protocolo serecomienda, pero en la práctica cada implementación TCP/IP que no se use exclusivamente para
encaminamiento incluirán UDP.
UDP es básicamente una interfaz de aplicación para IP. No soporta confiabilidad, control de flujo o recuperación de errores
para IP. Simplemente sirve como "multiplexor/demultiplexor" para enviar y recibir datagramas, usando puertos para dirigir
los datagramas como se muestra en la figura adjunta. Se pueden encontrar más detalles sobre puertos en Puertos y Sockets.
UDP proporciona un mecanismo para que una aplicación envíe un datagrama a otra. La capa UDP es sumamente delgada por
lo que tiene pocas sobrecargas, pero requiere que la aplicación sea responsable de la recuperación de errores y demás
características no soportadas.
Puertos
El concepto de puerto se trató anteriormente en Puertos y Sockets.
Las aplicaciones que envían datagramas hacia un host necesitan identificar el destino, siendo éste más especiífico que la
dirección IP, ya que los datagramas están dirigidos normalmente a ciertos procesos y no al sistema completo. UDP
proporciona este mecanismo usando puertos.
Un puerto es un número de 16 bits que identifica qué proceso de un host está asociado con un cierto datagrama. Hay dos tipos
de puerto:
bien-conocidos
Estos puertos pertenecen a servidores estándares, por ejemplo TELNET usa el puerto 23. El rango de este
tipo de puerto está comprendido entre 1 y 1023. Los números de puertos bien-conocidos son típicamente
impares porque los primeros sistemas usaban el concepto de puerto como una pareja de puertos impar/par
para operaciones duplex. La mayoría de los servidores requieren sólo un puerto. Una excepción es el
servidor BOOTP que usa dos: el 67 y el 68 (ver Protocolo BOOTstrap - BOOTP).
El motivo de la utilización de los puertos bien-conocidos es permitir a los clientes tener la capacidad de encontrar servidores
sin información de configuración. Los números de dichos puertos están definidos en STD 2 - Números de Internet Asignados.
efímeros
Los clientes no necesitan números de puertos bien-conocidos porque inician la comunicación con servidores
y el número de puerto que usan ya está contenido en los datagramas UDP enviados al servidor. Cada proceso
del cliente está localizado en un número de puerto mientras el host lo necesite y se esté ejecutando. Los
números de puerto efímeros tienen valores mayores que 1023, normalmente en el rango de 1024 a 5000. Un
cliente puede usar cualquier número localizado dentro de dicho rango, mientras que la combinación de
<protocolo de transporte, dirección IP, número de puerto> es única.
Nota: TCP también usa números de puerto con los mismos valores. Estos puertos son bastante independientes. Normalmente,
un servidor usará TCP o UDP, pero hay excepciones. Por ejemplo, los servidores de Nombres de Dominio (ver Sistema de
Nombre de Dominio (DNS)) usan ambos, puerto UDP 53 y puerto TCP 53.
Formato del Datagrama UDP
Cada datagrama UDP se envía con un único datagrama IP. Aunque el datagrama IP se puede fragmentar durante la
transmisión, la implementación de recepción IP lo re-ensamblará antes de presentarlo a la capa UDP. Todas
las implementaciones IP están preparadas para aceptar datagramas de 576 bytes, permitiendo un tamaño máximo de cabacera
IP de 60 bytes sabiendo que un datagrama UDP de 516 bytes lo aceptan todas las implementaciones. Muchas
implementaciones aceptarán datagramas mayores, aunque no se puede asegurar. El datagrama UDP tiene una cabecera de 16
bytes que se describe en la figura siguiente:
donde:
puerto de origen
Indica el puerto del proceso que envía. Este es el puerto que se direcciona en las respuestas.
puerto destino
Especifica el puerto del proceso destino en el host de destino.
longitud
Es el tamaño (en bytes) de este datagrama de usuario incluyendo la cabecera.
suma de comprobación (checksum)
Es un campo opcional de 16 bits en complemento a uno de la suma en complemento a uno de una cabecera
pseudo-IP, la cabecera UDP y los datos UDP. La cabecera pseudo-IP contiene la dirección IP fuente y
destino, el protocolo y la longitud UDP:
La cabecera pseudo-IP extiende efectivamente la suma de comprobación para incluir el datagrama IP original (defragmentado)
Interfaz de Programación de Aplicaciones UDP
La interfaz de aplicación que ofrece UDP se describe en el RFC 768. Dicha interfaz proporciona:
La creación de nuevos puertos de recepción.
La recepción de operaciones que devuelven los bytes de datos y un indicador de puerto fuente y una
dirección fuente IP.
El envío de operaciones que tienen como parámetros los datos, los puertos fuente y destino y las direcciones.
La forma en la que está implementado depende de cada vendedor.
Hay que ser conscientes de que UDP e IP no proporcionan entrega garantizada, control de flujo o recuperación de errores, así
que estos mecanismos tienen que ser soportados por las aplicaciones.
Las aplicaciones estándares que utilizan UDP son:
Protocolo de Transferencia de Ficheros Trivial (TFTP)
Sistema de Nombres de Dominio (DNS) servidor de nombres
Llamada a Procedimiento Remoto (RPC), usado por el Sistema de Ficheros en Red (NFS)
Sistema de Computación de Redes (NCS)
Protocolo de Gestión Simple de Redes (SNMP)
Puertos y Sock
Introducción a IP/ATM
Actualizado: enero de 2005
Se aplica a: Windows Server 2003, Windows Server 2003 R2, Windows Server 2003 with SP1, Windows Server 2003 with
SP2
Introducción a IP/ATM
IP/ATM es un grupo de servicios para la comunicación en redes ATM que pueden usarse como alternativa a la emulación
de LAN. IP/ATM se controla mediante dos componentes principales: el cliente IP/ATM y el servidor IP/ATM. El servidor
IP/ATM incluye un servidor ARP de ATM y un servicio de resolución de direcciones de multidifusión (MARS). Los
componentes de red IP/ATM pueden residir en un servidor o en un conmutador ATM.
La ventaja principal de usar IP/ATM es que es más rápido que LANE. Con IP/ATM, no se agrega información adicional de
encabezado a los paquetes a medida se transmiten por la pila de protocolo. En cuanto el cliente IP/ATM ha establecido una
conexión, los datos pueden transferirse sin modificaciones.
IP/ATM admite el uso de un servidor DHCP (Protocolo de configuración dinámica de host) en la red ATM.
Modo de Transferencia Asíncrona (ATM)
Las redes basadas en ATM están tomando interés en las aplicaciones de área local y ancha. Hay disponibles ya algunos
productos para implementar redes físicas ATM. La arquitectura ATM es nueva, por lo tanto, diferente de las LAN estándar.
Por esta razón, se requieren cambios así que los productos de LAN tradicionales trabajarán en el entorno ATM. En el caso de
TCP/IP, el cambio principal a realizar es en la interfaz de red para proporcionar soporte a ATM.
Hay muchos enfoques disponibles en estos momentos, dos de los cuales son importantes para el transporte del tráfico de
TCP/IP. Estos se describen en IP clásico sobre ATM y emulación de LAN ATM. También se comparan IP clásico sobre ATM
contra la emulación de LAN.
Resolución de Direcciones
(ATMARP e InATMARP)
La resolución de direcciones en una subred IP lógica ATM se lleva a cabo mediante el Protocolo de Resolución de Direcciones
de ATM (ATMARP) basada en RFC 826 y el Protocolo de Resolución de Direcciones ATM Inverso. ATMARP es el mismo
protocolo que el ARP con extensiones necesarias para soportar ARP en un entorno servidor unicast ATM. InATMARP es el
mismo protocolo que el protocolo original InARP pero aplicado a redes ATM. El uso de estos protocolos depende de si
utilizamos PVCs o SVCs.
ATMARP y InATMARP se definen en el RFC 1577, que es un estándar propuesto pero próximamente aceptado.
La encapsulación de peticiones ATMARP y InATMARP se describe en IP clásico sobre ATM.
InATMARP
El protocolo ARP se usa para resolver una dirección hardware de un host una dirección IP conocida. El protocolo InATMARP
se usa para resolver una dirección IP de host por una dirección conocida de hardware. En un entorno conmutado primero se
establece una CV (Conexión Virtual) de cada CVP (Conexión Virtual Permanente) o CVC (Conexión Virtual Conmutada)
para comunicar con otra estación. Por tanto, se conoce la dirección exacta de hardware del partner by administration pero la
dirección IP se desconoce. InATMARP proporciona resolución de direcciones dinámica.
InARP usa el mismo formato de trama que el estándar ARP pero define dos nuevos códigos de operación:
petición InARP=8
respuesta InARP=9
Véase Generación de Paquetes ARP para más detalles.
El InATMARP básico opera esencialmente igual que ARP exceptuando que InATMARP no hace peticiones broadcast. Esto
es porque la dirección hardware de la estación de destino ya se sabe. Una estación de peticiones simplemente formatea una
petición insertando su hardware origen y dirección IP y la dirección hardware de destino conocida. Luego rellena con ceros
el campo de dirección de protocolo de destino y lo envía directamente a la estación de destino. Para cada petición InATMARP,
la estación receptora formatea una respuesta usando la dirección de origen de la petición como la dirección origen de la
respuesta. Ambos lados actualizan sus tablas ARP. El valor del tipo de hardware para ATM es 19 en decimal y el
campo EtherType se pone a 0x806, lo que indica ARP según el RFC 1700.
Resolución de direcciones en un entorno CVP
En un entorno PVC cada estación usa el protocolo InATMARP para determinar las direcciones IP de las otras estaciones
conectadas. La resolución se hace para estos PVCs lo cuales se configuran para encapsulación LLC/SNAP. Esta es la
responsabilidad de cada estación IP soportando PVCs para volver a validar las entradas de la tabla ARP como parte del
proceso de envejecimiento.
Resolución de direcciones en un entorno CVC
Las CVCs requieren soporte para ATMARP en el entorno no-broadcast de ATM. Para encontrar esta necesidad, un sólo
servidor ATMARP debe localizarse en la Subred IP Lógica (LIS) (ver La Subred IP Lógica (LIS)). Este servidor tiene
responsabilidad autoritaria para resolver las peticiones ATMARP de todos los miembros IP con la LIS. Para explicaciones en
términos de ATM ir a IP clásico IP sobre ATM.
El propio servidor no establece activamente conexiones. Ello depende de los clientes en el LIS para iniciar el procedimiento
de registro ATMARP. Un cliente individual se conecta al servidor ATMARP usando un CV punto-a-punto. El servidor, en la
terminación de una llamada/conexión ATM de un nuevo CV especificando encapsulación LLC/SNAP, transmitirá una
petición InATMARP para determinar la dirección IP del cliente. La respuesta InATMARP del cliente contiene la información
necesaria para el servidor ATMARP para construir su tabla ATMARP.
Esta tabla consiste en:
La dirección IP
La dirección ATM
Timestamp
CV asociado
Esta información se utiliza para generar respuestas a las peticiones que ATMARP recibe.
Nota: El mecanismo del servidor ATMARP requiere que cada cliente sea configurado administrativamente con la dirección
ATM del servidor ATMARP.
Algoritmo añade/actualiza tabla ARP:
Si el servidor ATMARP recibe una nueva dirección IP en una respuesta InATMARP se añade a la tabla
ATMARP esa dirección IP.
Si la dirección IP InATMARP duplica una drección IP de entrada en la tabla y la dirección InATMARP
ATM no coincide con la dirección ATM de la entrada de la tabla y existe un CV asociado abierto con esa
entrada de la tabla, la información InATMARP se descarta y no se realiza modificación alguna a la tabla.
Cuando el servidor recibe una petición ATMARP sobre un CV, donde el IP de origen y la dirección ATM
coinciden the association already in the ATMARP table y the ATM address matches that associated with
the VC, the server updates the timeout on the source ATMARP table entry. For example, if the client is
sending ATMARP requests to the server over the same VC that it used to register its ATMARP entry, the
server notes that the client is still "alive" y updates the timeout on the client's ATMARP table entry.
When the server receives an ARP_REQUEST over a VC, it examines the souinformation. If there is no IP
address associated with the VC over which the ATMARP request was received y if the source IP address is
not associated with any other connection, then the server adds this station to its ATMARP table. This is not
the normal way because, as mentioned above, it is the responsibility of the client to register at the ATMARP
server.
Envejecimiento de la tabla ATMARP
Las entradas de la tabla ATMARP son válidas:
En clientes para un tiempo máximo de 15 minutos.
En servidores para un tiempo mínimo de 20 minutos.
Antes de que envejezca una entrada en la tabla ATMARP, el servidor ATMARP genera una petición InARP en un CV
asociado que esté abierto con esa entrada y decide qué hacer según las siguientes reglas:
Si se recibe una respuesta InARP esa entrada se actualiza y no se borra.
Si no existe CV asociado abierto con esa entrada se elimina.
Por tanto, si el cliente no mantiene un CV abierto al servidor, el cliente debe refrescar su información ATMARP con el
servidor al menos una vez cada 20 minutos. Esto se hace abriendo un CV al servidor y cambiando los paquetes iniciales
InATMARP.
El cliente hyles las actualizaciones de la tabla según lo siguiente:
Cuando una entrada de la tabla ATMARP envejece, el cliente ATMARP invalida esta entrada.
Si no hay un CV asociado con la entrada invalidada, esa entrada se borra.
En el caso de una entrada invalidada y un CV abierto, el cliente ATMARP revalida la entrada prior to
transmitir alguna non-address resolution traffic en ese CV. Hay dos posibilidades:
o En el caso de un CVP, el cliente valida la entrada transmitiendo una petición InARP y actualizando
la entrada on receipt de una repuesta InARP.
o En el caso de un CVS, el clente valida la entrada transmitiendo una repuesta ARP al servidor
ATMARP y actualizando la entrada on receipt de una respuesta ARP.
Si un CV con una entrada de la tabla ATMARP invalidada asociada se cierra, esa entrada se elimina.
Como se mencionó anteriormente, cada cliente IP ATM que usa CVSs debe saber la dirección de su dirección ATM del
servidor ATMARP para el LIS particular. Esta dirección se debe referenciar en cada cliente durante la configuración.
Actualmente no hay direcciones de servidores ATMARP "conocidas".
IP Clásico sobre ATM
Las definiciones para realizaciones de IP clásico sobre ATM (Modo de Transferencia Asíncrona) se describen en el RFC 1577
which is a proposed estándar con un estado de elective según el RFC 1720 (STD 1). Este RFC considera sólo la aplicación de
ATM como un reemplazo directo del "cableado", segmentos locales LAN conectando estaciones-terminales IP ("miembros")
y routers operando en el paradigma basado en LAN "clásico". Issues raised by MAC level bridging y LAN emulation are not
covered.
Despliegue iniciales de ATM proporcionan un reemplazo de segmentos LAN para:
Redes Ethernets, token-rings o FDDI.
Local-area backbones entre LANs (no-ATM) existentes.
Circuitos dedicados de Frame Relay CVPs entre routers IP.
Este RFC también describe extensiones para el protocolo ARP (RFC 826) in order to trabajar sobre ATM. Esto se discute
separadamente en: Resolución de Direcciones (ATMARP y InATMARP).
Primero algo básico de ATM:
Celdas
Toda la información (voz, imágenes, vídeo, datos, etc.) se transporta a través de la red en unos bloques muy
pequeños llamados celdas (48 bytes de datos más una cabecera de 5 bytes).
Encaminamiento
El flujo de información se realiza a lo largo de trayectorias (llamadas "canales virtuales") configuradas
como una serie de punteros a través de la red. La cabecera de la celda contiene un identificador que enlaza
la celda a la trayectoria correcta que tomará hacia su destino.
Las celdas de un canal virtual particular siempre siguen la misma trayectoria a través de la red y son
transportadas al destino en el mismo orden en que fueron recibidas.
Conmutación basada en Hardware
ATM está diseñada para que elementos lógicos basados en hardware simple se deban emplear en cada nodo
para mejorar la conmutación. En un enlace de 1 Gbps llega una nueva celda y una celda se transmite cada
0.43 microsegundos. No hay mucho tiempo para decidir que hacer con un paquete que llega.
Conexión Virtual CV
ATM proporciona un entorno conmutado de Conexión Virtual. La configuración de la CV debe hacerse
tanto en una Conexión Virtual Permanente (CVP) o una Connexión Virtual Conmutada (CVC) dinámica
básica. El manejo de la llamada CVC se lleva a cabo vía implementaciones del protocol Q.93B.
Fin-Interfaz-Usuario
La única manera que tiene un protocolo for a higher layer protocol to communicate across an ATM network
is over the ATM AAL (ATM Adaptation Layer). The function of this layer is to perform the mapping of
PDUs (Protocol Data Units) into the information field of the ATM cell y vice versa. There are four different
AAL types defined, AAL1, AAL2, AAL3/4 y AAL5. These AALs offer different services for higher layer
protocols. Here are the characteristics of AAL5 which is used por TCP/IP:
Modo Mensaje y modo flujo.
Transporte Assured.
Transporte Non-assured (usado por TCP/IP).
Segmentación de datos.
Operación Multipunto.
AAL5 provides the same functions as a LAN at the MAC (Medium Access Control) layer. The AAL type
is known by the VC endpoints via the cell setup mechanism y is not carried in the ATM cell header. For
PVCs the AAL type is administratively configured at the endpoints when the Connection (circuit) is set up.
For SVCs, the AAL type is communicated along the VC path via Q.93B as part of call setup establishment
y the endpoints use the signaled information for configuration. ATM switches generally do not care about
the AAL type of VCs. The AAL5 format specifies a packet format with a maximum size of 64KB - 1 byte
of user data. The "primitives" which the higher layer protocol has to use in order to interface with the AAL
layer (at the AAL service access point - SAP) are rigorously defined. When a high-layer protocol sends
data, that data is processed first by the adaptation layer, then by the ATM layer y then the physical layer
takes over to send the data to the ATM network. The cells are transported by the network y then received
on the other side first by the physical layer, then processed by the ATM layer y then by the receiving AAL.
When all this is complete, the information (data) is passed to the receiving higher layer protocol. The total
function performed by the ATM network has been the non-assured transport (it might have lost some) of
information from one side to the other. Looked at from a traditional data processing viewpoint all the ATM
network has done is to replace a physical link connection with another kind of physical connection - all the
"higher layer" network functions must still be performed (for example IEEE 802.2).
Direccionamiento
An ATM Forum endpoint address is either encoded as a 20-byte OSI NSAP-based address (used for private
network addressing, three formats possible) or is an E.164 Public UNI address (telephone number style
address used for public ATM networks). (5)
Broadcast, Multicast
No existe actualmente funciones broadcast similares a las que proporciona una LAN. Pero hay una función
multicast disponible. El término ATM para multicast es "conexión punto-a-multipunto".
Subred Lógica IP (LIS)
El término LIS se introdujo para hacer corresponder la estructura lógica IP a la red ATM. En un escenario LIS, cada entidad
administrativa configura por separado sus hosts y routers con una subred lógica cerrada (de la misma forma que un número
de red/subred IP y máscara de dirección). Cada LIS opera y se comunica independientemente de otros LISs de la misma red
ATM. Los hosts que se conectan a un red ATM se comunican directamente a otros hosts con el mismo the same LIS. Esto
implica que todos los miembros de una LIS están capacitados para comunicarse vía ATM con todos los miembtros restantes
del mismo LIS (la topología de CV está totalmente engranada). La comunicación a los hosts fuera del LIS local se proporciona
vía router IP. Este router es un punto terminal ATM conectado a la red ATM que se configura como miembro de uno o más
LISs. Esta configuración puede dar un número de LISs separados operando sobre la misma red ATM. Los hosts de diferentes
subredes IP deben comunicarse vía router IP intermedio incluso aunque sea posible abrir un CV directo entre los dos miembros
IP sobre la red ATM.
Encapsulación Multiprotocolo
Si se quiere usar más de un tipo de protocolo de red (IP, IPX, etc.) concurrentemente sobre una red física, se necesita un
método de multiplexación de los diferentes protocolos. Esto se puede realizar en el caso de ATM por multiplexación basada
en CV o encapsulación LLC. Si optamos por multiplexación basada en CV tenemos que tener un CV para cada protocolo
diferente entre los dos hosts. La encapsulación LLC proporciona la función de multiplexado en la capa LLC y por tanto
necesita un solo CV. TCP/IP utiliza, según el RFC 1577 y 1483, el segundo método porque este tipo de multiplexación estaba
ya definido en el RFC 1042 para todos los otros tipos de LAN tales como Ethernet, token-ring y FDDI. Con esta definición
IP usa ATM simplemente como sustituto de LAN. Todos los beneficios restantes que tiene que ofrecer ATM, tales como
transporte de tráfico síncrono, etc, no se usan. Existe un grupo de trabajo (IETF) con la misión de mejorar la implementación
y la interfaz con el foro de ATM a fin de representar los intereses de la comunidad de Internet para estándares futuros.
Para ser exactos, el PDU TCP/IP es encapsulado en una cabecera LLC IEEE 802.2 seguido de una cabecera SNAP IEEE
802.1a (Punto de Conexión a la Subred) y llevado con el campo de carga útil de un AAL5 CPCS-PDU (Subcapa de
Convergencia de la Parte Común). El formato AAL5 CPCS-PDU se muestra en Figura - Formato AAL5 CPCS-PDU.
Carga útil CPCS-PDU
La carga útil CPCS-PDU se muestra en la Figura - Formato de carga útil CPCS-PDU para PDUs IP.
Pad
El campo Pad rellena el CDCS-PDU para ajustarlo exactamente a las celdas ATM.
CPCS-UU
El campo CPCS-UU (Identificación Usuario-a-Usuario) se usa para transferencia transparente CPCS de
información usuario-a-usuario. Este campo no tiene función para la encapsulación y se le puede asignar
cualquier valor.
CPI
El campo de CPI (Indicador de la Parte Común) alinea el CPCS-PDU trailer con 64 bits.
Longitud
El campo de Longitud indica la longitud, en bytes, del campo carga útil. El valor máximo es 65535 que es
64KB-1.
CRC
El campo CRC proteje todo el CPCS-PDU excepto a sí mismo.
El formato de carga útil para routed IP PDUs se muestra en la Figura - Formato de carga útil CPCS-PDU IP PDUs.
IP PDU
Normal IP datagram starting with the IP header.
LLC
3-byte LLC header with the format DSAP-SSAP-Ctrl. For IP data it is set to 0xAA-AA-03 to indicate the
presence of a SNAP header. The Ctrl field always has the value 0x03 specifying Unnumbered Information
Commy PDU.
OUI
The 3-byte OUI (Organizationally Unique Identifier) identifies an organization which administers the
meaning of the following 2-byte Protocol Identifier (PID). To specify an EtherType in PID the OUI has to
be set to 0x00-00-00.
PID
The Protocol Identifier (PID) field specifies the protocol type of the following PDU. For IP datagrams the
assigned EtherType or PID is 0x08-00.
The default MTU size for IP members in an ATM network is discussed in RFC 1626 y defined to be 9180 bytes. The
LLC/SNAP header is 8 bytes; therefore, the default ATM AAL5 PDU size is 9188 bytes. The possible values can be between
zero y 65535. You are allowed to change the MTU size but then all members of a LIS must be changed as well in order to
have the same value. RFC 1755 recommends that all implementations should support MTU sizes up to y including 64KB.
La resolución de direcciones en una red ATM se define como una extensión del protocolo ARP y se describe en Resolución
de Direcciones (ATMARP e InATMARP).
No existe una correspondencia entre IP broadcast or multicast addresses to ATM "broadcast" or multicast addresses available.
Pero no hay restricciones en la transmición o recepción de datagramas IP especificando cualquiera de los cuatro formas de
direccionar estándares de broadcast IP como se describen en el RFC 1122. Los miembros, después de recivir un broadcast IP
o broadcast de subred IP para sus LIS, deben procesar el paquete como si estuviese direccionado a esa estación.
Emulación de una LAN ATM
Otro enfoque para proporcionar un camino migratorio hacia una red ATM nativa es la emulación de una LAN ATM. Esta
emulación está todavía por construir por los grupos de trabajo ATM Forum. Para el enfoque IETF véase IP clásico sobre
ATM. No existe acuerdo de realización de ATM Forum disponible para cubrir las LAN virtuales sobre ATM pero hay algunos
acuerdos básicos sobre los diferentes propósitos realizados al ATM Forum. Las descripciones anteriores se basan en las
propuestas por IBM.
El concepto de emulación de LAN ATM es construir un sistema tal que el software de aplicación de una estación de trabajo
"piense" que es un miembro de una LAN real media compartida, como una token-ring por ejemplo. Este método maximiza la
reutilización de software existente para LAN y reduce significantivamente el costo de migrar hacia ATM. In PC LAN
environments for example the LAN emulation layer could be implemented under the NDIS/ODI-type interface. With such an
implementation all the higher layer protocols, such as IP, IPX, NetBIOS y SNA for example, could be run over ATM networks
without any change.
Referirse a la Figura - Ethernet y emulación de LAN Token-ring para la implementación de token-ring y Ethernet.
Capa de Emulación de LAN (Software de Estación de Trabajo)
Each workstation that performs the LE function needs to have software to provide the LE service. This software is called the
LAN emulation layer (LE layer). It provides the interface to existing protocol support (such as IP, IPX, IEEE 802.2 LLC,
NetBIOS, etc.) y emulates the functions of a real shared-medium LAN. This means that no changes are needed to existing
LAN application software to use ATM services. The LE layer interfaces to the ATM network through a hardware ATM
adapter.
The primary function of the LE layer is to transfer encapsulated LAN frames (arriving from higher layers) to their destination
either directly (over a ``direct VC'') or through the LE server. This is done by using AAL5 services provided by ATM.
Each LE layer has one or more LAN addresses as well as an ATM address.
A separate instance (logical copy or LE client) of the LE layer is needed in each workstation for each different LAN or type
of LAN to be supported. For example, if both token-ring y Ethernet LAN types are to be emulated, then you need two LE
layers. In fact they will probably just be different threads within the same copy of the same code but they are logically separate
LE layers. Separate LE layers would also be used if one workstation needed to be part of two different emulated token-ring
LANs. Each separate LE layer needs a different MAC address but can share the same physical ATM connection (adapter).
2.13.3.2 LAN Emulation Server
The basic function of the LE server is to provide directory, multicast y address resolution services to the LE layers in the
workstations. It also provides a connectionless data transfer service to the LE layers in the workstations if needed.
Each emulated LAN must have an LE server. It would be possible to have multiple LE servers sharing the same hardware y
code (via multithreading) but the LE servers are logically separate entities. As for the LE layers, an emulated token-ring LAN
cannot have members that are emulating an Ethernet LAN. Thus an instance of an LE server is dedicated to a single type of
LAN emulation. The LE server may be physically internal to the ATM network or provided in an external device, but logically
it is always an external function which simply uses the services provided by ATM to do its job.
CVs por defecto
Un CV por defecto es una conexión entre una capa LE en una estación de trabajo y el servidor LE. Estas conexiones pueden
ser permanentes o conmutadas.
Todos los mensajes de control LE se transportan entre la capa LE y el servidor LE sobre el CV por defecto. Los marcos de
datos encapsulados pueden también enviarse sobre CVs por defecto.
La presencia tanto del servidor LE como de los CVs por defecto es necesario para la capa LE.
CVs directos
Los CVs directos son conexiones entre capas LE en los sistemas terminales. Son siempre conmutados y se establecen por
demanda. Si la red ATM no soporta conexiones conmutadas entonces no se puede tener CVs directos y todos los datos deben
enviarse a través del servidor LE sobre CVs por defecto. Si no existe CV directo alguno por alguna razón entonces la
transferencia de datos debe tener lugar a través del servidor LE (no hay otra forma).
Los CVs directos los establece la capa LE en la peticiones (el servidor no puede establecerlos ya que no existe una función
de configuración de llamada a terceros en ATM). The ATM address of a destination LE layer is provided to a requesting LE
layer by the LE server. Los CVs directos permanecen en su sitio hasta que uno de los socios de las capas LE decida finalizar
la conexión (porque no existen más datos).
Inicialización
Durante la inicialización la capa LE (estación de trabajo) establece el CV con el servidor LE. Ésta también averigua su propia
dirección ATM - esto es necesario si es después de establecer CVs directos.
Registro
En esta fase la capa LE (estación de trabajo) registra sus direcciones MAC con el servidor LE. Se pueden proporcionar otras
cosas como requerimientos de filtrado (opcional).
Gestión y Resolución
Este es el método utilizado por las estaciones terminales ATM para establecer CVs directos con otras estaciones terminales
(capas LE). Esta función incluye mecanismos para aprender la dirección ATM de una estación de destino, haciendo
corresponder la dirección MAC con una dirección ATM, almacenando la correspondencia en una tabla y gestionan dicha
tabla.
Para el servidor esta función proporciona los medios para suportar el uso de CVs directos por estaciones terminales. Esto
incluye un mecanismo para hacer corresponder la dirección MAC de un sistema terminal con su dirección ATM, almacenando
la información y proporcionándola a una estación terminal.
Esta estructura mantiene todas las funciones de una LAN y pueden soportar la mayoría de los protocolos de los niveles
superiores. Reliance on the server for data transfer is minimized by using switched VCs for the transport of most bulk data.
IP clásico sobre ATM vs emulación de LAN
Estos dos enfoques para proporcionar una vía más fácil para migrar a ATM se han realizado con distintos objetivos.
IP clásico sobre ATM define un método de resolución de direcciones y encapsulación. La definición se hace únicamente para
IP y no para usar con otros protocolos. Así que si se tiene aplicaciones que requieran otras pilas de protocolos (tales como
IPX o SNA por ejemplo) entonces IP sobre ATM no proporcionará una solución completa. Por otra parte, si se tiene
aplicaciones basadas sólo en TCP o UDP entonces esta puede ser la mejor solución, dado que esta adaptación especializada
del protocolo IP a la arquitectura ATM probablemente produce menos costos que una solución global y por lo tanto es más
eficiente. Otra de las ventajas de esta implementación es el uso de algunas funciones específicas de ATM, tales como grandes
tamaños de MTU, etc.
El objetivo más importante de los enfoques de los foros sobre ATM es ejecutar el nivel 3 y protocolos superiores sobre la red
ATM. Esto significa que los protocolos existentes, como TCP/IP, IPX, NetBIOS y SNA, por ejemplo, y sus aplicaciones
pueden usar los beneficios de la rápida red ATM sin tener que modificar nada. El mapping para todos los protocolos ya está
definido. El nivel de emulación de la LAN proporciona todos los servicios de una LAN clásica; por tanto, el nivel superior
no sabe de la existencia de ATM. Esto se debe a una ventaja y a una desventaja porque conocer la red internamente podría
utilizarse para proporcionar una implementación más efectiva.
En un futuro cercano, ambos enfoques se usarán dependiendo de los requerimientos particulares. Con el tiempo, cuando el
mapping de las aplicaciones para ATM estén totalmente definida e implementada, el esquema de una implementación ATM
dedicada se podrá usar.
Protocolo TCP | Tabla de Contenidos | Comparativa TCP y OSI
INTEGRACIÓN DE IP SOBRE CANALES WDM
1. INTEGRACIÓN DE IP SOBRE CANALES WDM.
El estudio de la integración de IP sobre redes ópticas. Estudiando la encapsulación de los distintos niveles IP sobre los
distintos niveles WDM. Analizando la gestión, la funcionalidad y arquitectura de las redes ópticas.
En un principio lo que se quiere exponer el estado actual y el desarrollo futuro de equipos y redes IP, de cómo WDM
propone las medidas para implementar estas funciones y mejora la funcionabilidad de las redes.
Con este trabajo se pretende introducir aspectos importantes a tener en cuenta cuando se considera la posibilidad de IP
sobre WDM. Provee un buen fondo para cualquiera que trabaje en lo concerniente a la reducción de la cabecera
necesaria para el transporte de paquetes IP en canales ópticos. Uno de los aspectos a tratar es la de tener una perspectiva
de la capa IP. Mirar lo que está disponible en términos de funcionalidad, software y hardware en la capa IP.
IPv6 es probablemente la mejor elección en las futuras redes IP sobre WDM. Esta investigación, muestra también el
desarrollo al que tienden los routers y valorar los router Gigabit, así como estos forman la base para las redes de
transporte IP sobre WDM. Algunos cambios en configuraciones de hardware están también identificados, esto es
necesario a la hora de hacer routers capaces de manejar paquetes de velocidades de Gigabits, como usarswitch en vez de
buses. Esto muestra que para clasificar los paquetes IP dentro del flujo y conmutándolos en las capas inferiores en vez
de enrutarlos, mirando las tablas de enrutamiento en cada nodo puede reducir significativamente la latencia de la red.
Una técnica de la que hablaremos en particular es MPLS (Multi Protocol Label Switching) la cual fue propuesta por la
IETF (Internet Engineering Task Force) y ya esta implementada en muchos routers. MPLS tiene la ventaja de aliviar el
peso de las largas tablas de enrutamiento en los routers y al mismo tiempo soporta la realización de funcionalidades de
la red, como VPN (Virtual Private Network) y CoS (Class of Service). Las técnicas que se necesitan para la integración
de la capa IP sobre la capa WDM, dando una visión general de los diferentes métodos de encapsulamiento de los
paquetes IP preparándolos para ser transportados en una longitud de onda.
En la adaptación de los paquetes IP sobre WDM se evalúa los diferentes mecanismos de encapsulación de la cantidad de
cabecera necesaria para transportar los paquetes IP.
El trabajo muestra algunas de las posibilidades que WDM puede dar en términos de funcionalidad. Tres diferentes
posibilidades se puede dar para soportar CoS usando longitudes de onda:
Mejora en la capacidad de los nodos y por tanto CoS para sobre aprovisionamiento.
Paso por los routers a través de enrutamiento de longitud de onda así como el decremento del retraso en las
redes.
Uso de longitudes de onda como etiquetas para la clasificación de CoS.
También veremos las diferentes opciones de conexión cruzada y enrutado de los flujos IP la ayuda de las longitudes de
onda y por consiguiente obteniendo una menor latencia en la red. En este, se identifican las tendencias predominantes en
IP sobre WDM. Estas tendencias discutidas son:
Routers más rápidos à 2,5 Gb/s de hoy a los 10 Gb/s.
Aumento del número de longitudes de onda à 32 sistemas de longitudes de onda a 200 sistemas de canal.
Moviendo el enrutamiento a las capas inferiores y aminorando la latencia de las redes.
Nuevos protocolos dedicados a adaptar IP sobre WDM.
Menor conversión de protocolos entre las distintas partes de la red.
1.1. WDM (Múltiplexación por División de Onda).
La tecnología WDM permite transmitir múltiples longitudes de onda en una misma fibra óptica simultáneamente. El
rango de longitudes de onda utilizado en la fibra puede ser dividido en varias bandas, Cada uno de estos canales, a
distinta longitud de onda, puede transmitir señales de diferentes velocidades y formatos.
WDM, incrementa la capacidad de transmisión en el medio físico (fibra óptica), asignando a las señales ópticas de
entrada, específicas frecuencias de luz(longitudes de onda), dentro de una banda de frecuencias inconfundible. Una
manera de asemejar esta multiplexación es la transmisión de una estación de radio, en diferentes longitudes de onda sin
interferir una con otra (ver Figura # 1),
porque cada canal es transmitido a una frecuencia diferente, la que puede seleccionarse desde un sintonizador (Tuner).
Otra forma de verlo, es que cada canal corresponde a un diferente color, y varios canales forman un "arco iris".
Figura # 1. Incremento de la capacidad con WDM.
En un sistema WDM, cada longitud de onda es enviada a la fibra y las señales son demultiplexadas en el receptor. En
este tipo de sistema, cada señal de entrada es independiente de las otras. De esta manera, cada canal tiene su propio
ancho de banda dedicado; llegando todas las señales a destino al mismo tiempo.
La gran potencia de transmisión requerida por las altas tasas de bit (Bit Rates) introduce efectos no-lineales que pueden
afectar la calidad de las formas de onda de las señales.
La diferencia entre WDM y Dense WDM (DWDM) es fundamentalmente el rango. DWDM espacia las longitudes de
onda más estrechamente que WDM, por lo tanto tiene una gran capacidad total. Para sistemas DWDM (Dense
Wavelength Division Multiplexing) el intervalo entre canales es igual o menor que 3.2 [nm]. La ITU (International
Telecommunication Union) ha estandarizado este espaciamiento, normalizando una mínima separación de longitudes de
onda de 100 [GHz] (o 0.8 [nm]), también esta la posibilidad de separación de 200 [GHz] (o 1.6 [nm]) y 400 [GHz] (3.2
[nm]).
Nota: WDM y DWDM utilizan fibra mono-modo para enviar múltiples Lightwaves de diferentes frecuencias. No
confundir con una transmisión multi-modo, en la cual la luz es introducida en una fibra a diferentes ángulos, resultando
diferentes "modos" de luz. Una sola longitud de onda es usada en transmisión multi-modo.
La principal ventaja de DWDM es que ofrece una capacidad de transmisión prácticamente ilimitada. Aparte del ancho
de banda, DWDM ofrece otras ventajas:
Transparencia. Debido a que DWDM es una arquitectura de capa física, puede soportar transparencia en el
formato de señal, tales como ATM, GbE (Gigabit Ethernet), ESCON, TDM, IP y Fibre Channel, con interfaces
abiertas sobre una capa física común. Por lo mismo, puede soportar distintos Bit Rates.
Escalabilidad. DWDM puede apalancar la abundancia de fibra oscura en redes metropolitanas y empresariales,
para rápidamente satisfacer la demanda de capacidad en enlaces punto-a-punto y en tramos de anillos ya
existentes.
Iniciación dinámica. Rápida, simple y abastecimiento dinámico en las conexiones de redes, dada la habilidad
de proveedores de proveer servicios de alto ancho de banda en días, antes que en meses.
El auge de la fibra óptica está estrechamente ligado al uso de una región específica del espectro óptico donde la
atenuación óptica es baja. Estas regiones, llamadas ventanas, se ubican en áreas de alta absorción. Los primeros sistemas
en ser desarrollados operan alrededor de los 850 [nm], la primera ventana en fibra óptica basada en Silica. Una segunda
ventana (Banda S), a 1310 [nm], se comprobó que era superior, por el hecho de tener menor atenuación. La tercera
ventana (Banda C), a 1550 [nm], posee la menor pérdida óptica de manera uniforme. Hoy en día, una cuarta ventana
(Banda L), cerca de los 1625 [nm], está en bajo desarrollo y en sus primeros usos. Estas cuatro ventanas se pueden
observar en el espectro electromagnético mostrado en la Figura C.2.
RESUMEN
Protocolo de reserva de recursos (RSVP) es una técnica de señalización utilizada para garantizar la calidad de servicio
(QoS) al reservar ancho de banda para flujos de datos compatibles con RSVP. Todos los nodos de la ruta de acceso de datos
deben ser compatible con RSVP para una calidad de servicio garantizada. Las reservas son iniciada por el receptor para el
tráfico de multidifusión y unidifusión.
MÁS INFORMACIÓN
RSVP se especifica en RFC 2205. Se utiliza para reservar ancho de banda en cada nodo para un determinado flujo a lo largo
de una ruta de acceso de datos determinado. Los nodos a lo largo de la ruta de acceso deben admitir la funcionalidad
RSVP. RSVP puede utilizarse con el tráfico de multidifusión y unidifusión. RSVP no es un protocolo de enrutamiento, pero
utilizar protocolos de enrutamiento y consulta de las tablas de enrutamiento local para las rutas.
Se inicia un flujo típico de reserva enviando un mensaje de ruta de acceso posterior al receptor. Cada nodo en la ruta de
acceso de datos establece un estado de ruta de acceso, para mantener la calidad del servicio correspondiente. Un mensaje de
ruta de acceso indica el identificador de flujo, información de reserva y la dirección de origen y de destino. Una vez que el
mensaje PATH llega a su destino, el receptor pasa la solicitud al proceso RSVP local, que pasa la solicitud al control de
admisión y control de políticas. Control de admisión determina si el nodo tiene los recursos disponibles para satisfacer la
solicitud. Control de directiva determina si el usuario tiene permiso para solicitar la reserva. Si alguna de las siguientes no
es correcta, el proceso RSVP envía una respuesta de error al programa de envío. Si el control de admisión y control de la
directiva tiene éxito, los parámetros se establecen en el clasificador de paquetes y el programador de paquetes para
implementar la QoS adecuados.
Un mensaje RESV se envía de regreso desde el receptor a cada nodo de la ruta de acceso inversa. El mensaje RESV utiliza
la misma información de flujo utilizada en el mensaje PATH. Los enrutadores de la ruta confirman la reserva y, a
continuación, almacenarán la información en una tabla de flujo. Este proceso se repite hasta que el remitente obtiene el
mensaje RESV. A continuación, se establece la reserva. Una vez terminados el remitente y el receptor con el flujo
reservado, se envía un mensaje de PathTear para romper el flujo. A continuación, se liberan recursos para utilizarse en una
reserva posterior.
RSVP - ReSerVation Protocol
¿Qué es RSVP?
El protocolo de reservación de recursos (RSVP) es un protocolo de control de red que permite que algunas aplicaciones de
Internet o una red local puedan obtener diferentes calidades de servicio (QoS) para su flujo de datos. Por ello se conoce
como un protocolo señalización de QoS, y posibilita:
dar a las aplicaciones una modo uniforme para solicitar determinado nivel de QoS
encontrar una forma de garantizar cierto nivel de QoS
proveer autentificación
RSVP es un protocolo que se desarrolla entre los usuarios y la red, y entre los diferentes nodos (routers) de la red que
soportan este protocolo. Consiste en hacer "reservas" de recursos en dichos nodos para cada flujo de información de
usuario, con la consecuente ocupación de los mismos. Esto requiere, lógicamente, intercambio de mensajes RSVP entre
dichos entes funcionales, así como "mantener" estados de reserva en cada nodo RSVP. De manera que tanto la solicitud de
las reservas, como el mantenimiento de éstas durante la comunicación, y la posterior cancelación, implica el intercambio
de mensajes de señalización, lo que representa un tráfico considerable cuando de entornos como Internet se trata.
RSVP ofrece dos tipos de servicios, a saber: Servicio de carga controlada y servicio garantizado.
Servicio de carga controlada: aunque no está muy bien definido, se entiende en general que la pérdida de paquetes
debe ser muy baja o nula.
Servicio garantizado: se basa en solicitar determinado ancho de banda y cierta demora de tránsito máxima.
De los dos tipos de servicios que RSVP soporta, el más adecuado para aplicaciones con requerimientos de tiempo real es el
servicio garantizado, aunque es más complejo de implementar que el servicio de carga controlada.
Algunas características o aspectos fundamentales en el RSVP son:
Merging : En los diferentes nodos que se van atravesando en la red por el camino de datos, se va realizando un
proceso de concentración de los diferentes mensajes de petición de reservas
Estado de reserva en cada nodo: El estado soft RSVP se crea y refresca periódicamente por mensajes Path y Resv
.
Estilos de reserva: Una petición de reserva incluye un conjunto de opciones que se conocen como el estilo de
reserva. Las distintas combinaciones de estas opciones conforman los tres estilos de reserva en uso, Wildcar-Filter
(WF), Fixed-Filter (FF) y Shared-Explicit (SE).
IPng
(Internet Protocol Next Generation)
Los aspectos más relevantes del Protocolo IP de Próxima Generación (IP next generation IPng) son:
En el aspecto del nuevo esquema de Direcciones, este permitiría un mayor número de direcciones, ya que se está
ampliando el tamaño de la dirección de 32 bits a 128 bits. Soporte de direcciones Jerárquicas Largas.
Uso de Direcciones en Cluster que le permiten el enrutamiento de acuerdo con políticas preestablecidas. Tiene previsto
además la multiemisión de direcciones (multicast adresses), incluyendo una dirección "anycast address", la cual permite
el envío de un "packet" a cualquiera de un número de nodos.
La estructura de direcciones fué también diseñada para soportar el manejo de direcciones de otros conjuntos de
protocolos de Internet. El beneficio de este aspecto radicaría en que facilitaría la migración desde otros protocolos al
nuevo IPng. Desde el punto de vista de la Red, habrían incorporadas características en la forma de encripción e
identificación de usuario. Manejaría además la configuración automática de redes.
En cuanto al manejo de tráfico, se incorporarían características que le permitirían manejar tráfico sensible a los retrasos.
IPng está propuesto como el nuevo Protocolo de Internet que reemplazará la versión de IP actual también conocida
como IPv4. El nuevo nombre previsto para la nueva versión del Protocolo IP sería IPv6, en donde el 6 corresponde al
número de la nueva versión.
La propuesta del nuevo IPpg proviene de los Directores de Area de la IETF (Internet Engineering Task Force), y fué
propuesta en la reunión de la IETF de Julio 25 de 1994, llevada a cabo en Toronto, Canadá.
IPng no se puede considerar como una actualización del actual protocolo IPv4, teniendo en cuenta que su
direccionamiento es totalmente diferente, que sus encabezamientos son mucho más especializados y adicionalmente más
ligeros, que provee más opciones incluyendo control de flujo y seguridad, que soporta mobilidad del Host, auto-
configuración, y algunas otras características, por todas estas razones, se puede considerar que efectivamente es un
nuevo protocolo.
Considerando la afirmación anterior de que IPng es un nuevo protocolo, su primer problema surge en la medidad en que
IPng, no sería compatible hacia atrás con el actual protocolo IP, lo cual entre otros problemas generaría:
Problemas de Migración: La migración hacia el nuevo protocolo IPng puede crear una vasta cantidad de problemas
alrededor de la interoperabilidad de TCP/IP.
Adicionalmente, las tecnologías en que IPng está basado eventualmente caerán víctimas de problemas similares a los
que hoy se presentan con el protocolo IPv4: particularmente, el esquema de direcciones de IPng no es suficientemente
flexible para acomodar futuros protocolos de enrutamiento.
INSTRUCCIONES DE INSTALACIÓN Video Internet Protocol | 35 > PARA SISTEMAS VIP El sistema VIP va más allá
del antiguo concepto de un sistema cerrado, caracterizado por límites en la instalación característicos de la tecnología
analógica. Con el sistema VIP, es posible crear una red completamente digital que permita la máxima libertad del sistema.
El mismo sistema se puede crear mediante la conexión de edificios en cascada o por derivación. Se puede lograr una
ampliación o modificación con un simple conector. En cada punto de conexión, se pueden "conectar" todo tipo de
dispositivos, como unidades externas o internas, centralitas portero, etc. RED DEDICADA: TOPOLOGÍA LIBRE 8502 Kit
de unidad externa y software de control desde un PC remoto del sistema VIP. El Kit incluye una unidad Powercom, una
unidad de audio/vídeo en color 4662C, una fuente de alimentación 1395, una interfaz 1452 para su instalación en la red
LAN de la unidad externa mediante el enrutador de conexión de Internet y un software de gestión de llamadas de
intercomunicación de vídeo. La unidad externa y la interfaz 1452 pueden tener cables Ethernet dedicados o conectarse a una
red LAN ya existente. El kit se puede ampliar con otros productos del catálogo del sistema VIP. 8501 Kit de unidad externa
y software de control desde un PC local del sistema VIP. El kit incluye una unidad Powercom, una unidad de audio/cámara
en color 4662C, una fuente de alimentación 1395 y un software de gestión de llamadas de intercomunicación de vídeo. Se
puede instalar con cables Ethernet dedicados o conectarse a una red LAN existente. El kit se puede ampliar con otros
productos del catálogo del sistema VIP. KIT 2 2 2 2 1952 CAT. 5 CAT. 5 CAT. 5 CAT. 5 CAT. 5 1952 1952 1440
trama de red
En redes una trama es una unidad de envío de datos. Es una serie sucesiva de bits, organizados en forma cíclica, que
transportan información y que permiten en la recepción extraer esta información. Viene a ser el equivalente de paquete de
datos o Paquete de red, en el Nivel de enlace de datos del modelo OSI.
Normalmente una trama constará de cabecera, datos y cola. En la cola suele estar algún chequeo de errores. En la cabecera
habrá campos de control de protocolo. La parte de datos es la que quiera transmitir en nivel de comunicación superior,
típicamente el Nivel de red.
Para delimitar una trama se pueden emplear cuatro métodos, el tracker:
1. por conteo de caracteres: al principio de la trama se pone el número de bytes que representa el principio y fin de las
tramas. Habitualmente se emplean STX (Start of Transmission: ASCII #2) para empezar y ETX (End of
Transmission: ASCII #3) para terminar. Si se quieren transmitir datos arbitrarios se recurre a secuencias de escape
para distinguir los datos de los caracteres de control.
2. por secuencias de bits: en comunicaciones orientadas a bit, se puede emplear una secuencia de bits para indicar el
principio y fin de una trama. Se suele emplear el "guion", 01111110, en transmisión siempre que aparezcan cinco
unos seguidos se rellena con un cero; en recepción siempre que tras cinco unos aparezca un cero se elimina.
3. por violación del nivel físico: se trata de introducir una señal, o nivel de señal, que no se corresponda ni con un "1"
ni con un "0". Por ejemplo si la codificación física es bipolar se puede usar el nivel de 0 voltios, o en Codificación
Manchester se puede tener la señal a nivel alto o bajo durante todo el tiempo de bit (evitando la transición de
niveles característica de este sistema).
4. El estándar de facto evolucionó hacia varios estándares oficiales, como son:
1. FR Forum (Asociación de Fabricantes): Cisco, DEC, Stratacom y Nortel.
2. ANSI: fuente de normativas Frame-Relay.
3. ITU-T: también dispone de normativa técnica de la tecnología Frame-Relay.
vip
Un sistema de protocolo de Internet que aumenta el rendimiento de las intercomunicaciones de vídeo. La tecnología VIP
mejora el servicio de los productos de Comelit. Un completo sistema sencillo de instalar y versátil, que se adapta a todas
las necesidades. Perfecto para sistemas recién-creados o para la integración en sistemas de LAN existentes.
El sistema VIP ofrece ventajas en todos los entornos posibles de uso: residenciales, corporativos, comerciales, logísticos
e institucionales. Permite ofrecer servicio de conversaciones simultáneas a un número ilimitado de usuarios, sin estar
limitado a distancias concretas. Solo se requiere un distribuidor de alimentación eléctrica (dedicado o compatible con las
redes LAN existentes) al que se conectan los sistemas de intercomunicación de vídeo, alarma contra intrusos, vídeo
vigilancia, domótica y control de accesos mediante un conector RJ45. Este es también un sistema abierto al mundo de
Internet, que permite conexión remota, servicios de diagnóstico y otros servicios web.
Un sistema sencillo de utilizar y fácil de instalar. Gracias a la tecnología digital, el sistema VIP garantiza un óptimo
servicio y asegura la integración continua de funciones programadas por medio de un simple conector.
Un sistema, muchas funciones posibles. Gracias a su sistema de fácil uso, se pueden gestionar varias funciones e
integrarse en la misma red mediante el sistema VIP.
Gracias a la tecnología digital, el sistema VIP garantiza un excelente servicio de alta calidad para un número ilimitado
de usuarios, incluso a distancias considerables. El propio sistema se puede crear mediante la conexión de edificios en
cascada o por derivación.
Numerosas características adicionales sin necesidad de instalar nuevos sistemas. El sistema VIP mejora de manera
exponencial los servicios corporativos de intercomunicación de vídeo a través de la integración con las redes LAN
existentes, sin necesidad de la irritante tarea de tener que crear nuevos sistemas.
escripción general de próxima generación IP
Robert M. Hinden
Resumen en línea: A medida que el espacio de direcciones IP (v4) está a punto de
asignación completa, encaminamiento y asignación de direcciones se están convirtiendo en
un reto. En el documento se describen las características importantes de la próxima
generación de protocolo, IPng (o IPv6), la mayor de las cuales es la capacidad de realizar
una transición suave desde el sistema actual al nuevo.
Visión General / Puntos principales
Nos estamos quedando sin espacio en el (IPv4) espacio de direcciones actual. Eso no
quiere decir que hay 2 32 hosts por ahí, pero no hubo concesiones hechas para hacer
más fácil el encaminamiento (clase A / B / C / ... direccionamiento) que causan
muchas direcciones para ser utilizada.
Como estamos apretando el resto del espacio de direcciones IPv4, enrutamiento es
cada vez más complicada, y las direcciones son más difíciles de
encontrar. Necesitamos más espacio, y lo necesitamos en los próximos años.
El más importante cuestión en el diseño de un reemplazo para IPv4 es que sea
interoperable con los sistemas actuales.
o `` No hay bandera días ''.
o Los sistemas actuales tendrán que hablar con sistemas habilitados para IPv6
para años después de IPv6 se introduce, si no más.
o Algunos sistemas, tales como impresoras, que sólo necesita hablar con un par
de máquinas nunca pueden necesitar cambiar a IPv6 en absoluto.
Los principales cambios con respecto a IPv4
o Enrutamiento y direccionamiento
direcciones de 128 bits en lugar de 32 bits
Unicast, anycast y multicast (multidifusión subsume emisión). Unicast
es básicamente lo que sabemos ahora. Multicast es como multidifusión
actual, pero tiene un campo `` alcance '' para mejorar la
escalabilidad. Anycast es como `` me envíe más cercana a la columna
vertebral MCI enrutador ''.
El apoyo a las direcciones de uso local, tanto del enlace local y el sitio
local. Las direcciones de enlace local de direcciones IP (no únicos a
nivel mundial, pero sólo únicos a, por ejemplo, un segmento de
Ethernet individual) hacen protocolos RARP parecido más
fácil. direcciones locales del sitio (direcciones IP únicas dentro de una
organización) facilitan la conexión a Internet sin renumeración.
formatos de dirección especiales para indicar las direcciones IPv4 para
la compatibilidad.
Las direcciones tienen estructura jerárquica para facilitar el
enrutamiento. Hay un montón de espacio para que, en 128 bits.
o Los encabezados y Opciones
Eliminar o hacer pequeñas cabeceras-usado opcionales. El encabezado
IPv6 es sólo dos veces tan grande como la cabecera IPv4, aunque el
tamaño de la dirección es cuatro veces más grande.
Opciones ya no se aprietan en la cabecera principal. Las opciones se
colocan en las cabeceras de extensión separados. Una ventaja es que
mediante la colocación de las opciones de extremo a extremo después
de las opciones de enrutamiento, los saltos intermedios no tienen que
tratar con ellos.
o Calidad de servicio y los flujos
Los paquetes pueden tener unos 8 niveles de prioridad para el tráfico en
tiempo no real, y 8 para el tráfico en tiempo real. Estas prioridades
pueden ayudar a decidir el router de paquetes a caer en caso de
congestión.
Los paquetes se pueden agrupar en los flujos `` ''. Cada paquete en un
flujo debe tener los mismos valores para ciertas partes de la cabecera,
incluyendo direcciones de origen y de destino, prority, y algunas
opciones. Becuase de esto, los enrutadores pueden almacenar en caché
la información de enrutamiento basado en flujos, en lugar de tener que
analizar la información contenida en cada paquete.
o La autenticación y privacidad
Facility se ha hecho para el cifrado, la firma, y la autenticación de
datos. Algoritmos de diferentes potencias y velocidades se pueden
utilizar para diferentes propósitos. Todas las implementaciones IPv6
conformes DEBE apoyo para el cifrado DES. Poner eso en la pipa del
gobierno de Estados Unidos y fumarlo.
Pertinencia
A pesar del intento de hacer la transición fácil, la palabra de los operadores de red troncal es
que es poco probable que cambie durante el corto plazo. Los nuevos routers probable será
caro, y no hay incentivo para que lo hagan.
defectos
Nivel muy alto (pero eso es de esperar de CACM).
En el documento no se refiere a qué tan grande fueron los ensayos que se han
realizado. A medida que la escala de la Internet es la principal fuerza impulsora para
IPv6, es vital que las implementaciones (de los cuales hay unos cuantos) se escalan
bien.
Apéndice C:
IPng (IPv6)
IP "next generation" ha sido el nombre con el que se ha bautizado a la versión seis del
protocolo Internet (IP). Se trata de la definición de un nuevo protocolo de red destinado a
sustituir a la actual versión IP, la cuatro.
¿Por qué se necesita un nuevo protocolo de red?. La respuesta es muy simple. Cuando IPv4
fue estandarizado, hace unos quince años, nadie podía imaginar que se convertiría en lo que
es hoy: una arquitectura de amplitud mundial, con un número de usuarios superior al
centenar de millones y que crece de forma exponencial. Aquella
primera "Internet" fundada, sobre todo, con fines experimentales, científico-técnicos y, por
supuesto, con objetivos militares, no se parece en nada a la actual. Cada día se advierte una
mayor tendencia hacia su comercialización, ya sea por el propio acceso en sí a la red
(empresas proveedoras) o por servicios accesibles desde ella.
Estos cambios de escala y orientación suponen varios problemas para
IPv4 [RFC1287] [RFC1338] [RFC1917]:
Escala:
Cada máquina presente en la red dispone de una dirección IP de 32 bits. Ello supone
más de cuatro mil millones de máquinas diferentes. Esa cifra, no obstante, es muy
engañosa. El número asignado a un ordenador no es arbitrario, sino que depende de
una estructura más o menos jerárquica (en especial, pertenece a una red), lo cual
ocasiona que se desperdicie una enorme cantidad de direcciones. La cuestión es que
en 1.993 fue claro que con el ritmo de crecimiento sostenido de Internet hasta aquel
momento (exponencial), el agotamiento del espacio de direcciones era casi
inminente.
Enrutado:
Otro de los grandes problemas del crecimiento de Internet es la capacidad de
almacenamiento necesaria en la pasarelas (routers) y el tráfico de gestión preciso
para mantener sus tablas de encaminamiento. Existe un límite tecnológico al número
de rutas que un nodo puede manejar, y como dado que Internet crece mucho más
rápidamente que la tecnología que la mantiene, se vió que las pasarelas pronto
alcanzarían su capacidad máxima y empezarían a desechar rutas, con lo que la red
comenzaría a fragmentarse en subredes sin acceso entre sí.
Dado lo grave de la situación se definió el CIDR (Classless Inter-Domain
Routing) [RFC1481] [RFC1517..1519], con el que las pasarelas reducían el tamaño de
sus tablas colapsando juntas varias subredes con el mismo prefijo. Gracias a ello se
ha ganado un tiempo muy valioso, pero tan sólo se ha postergado lo inevitable.
En [RFC1797] y [RFC1879] se realiza el experimento de dividir una red A (la red 39)
en multitud de pequeñas subredes. Los resultados fueron alentadores, por lo que
dicha técnica podría utilizarse para ampliar de nuevo el tiempo de vida de IPv4.
Multiprotocolo:
Cada vez resulta más necesaria la convivencia de diversas familias de protocolos: IP,
OSI, IPX... Se necesitan mecanismos que permitan abstraer al usuario de la
tecnología subyacente para permitir que concentre su atención en los aspectos
realmente importantes de su trabajo. Se tiende, pues, hacia una red orientada a
aplicaciones, que es con lo que el usuario interacciona, más que a una red orientada a
protocolos (como hasta el momento) [RFC1560].
Seguridad:
El mundo IPv4 es el mundo académico, científico, técnico y de investigación. Un
ambiente, en general, que podría calificarse como "amigable", desde el punto de
vista de la gestión y la seguridad en la red. Con la aparición de servicios comerciales
y la conexión de numerosísimas empresas, el enorme incremento en el número de
usuarios y su distribución por todo el planeta, y la cantidad, cada vez mayor, de
sistemas que necesitan de Internet para su correcto funcionamiento, etc., es urgente
definir unos mecanismos de seguridad a nivel de red. Son necesarios esquemas de
autentificación y privacidad, tanto para proteger a los usuarios en sí como la misma
integridad de la red ante ataques malintencionados o
errores [RFC1281][RFC1636] [RFC1828..1829].
Tiempo Real:
IPv4 define una red pura orientada a datagramas y, como tal, no existe el concepto de
reserva de recursos. Cada datagrama debe competir con los demás y el tiempo de
tránsito en la red es muy variable y sujeto a congestión. A pesar de que en la
cabecera IP hay un campo destinado a fijar, entre otras cosas, la prioridad del
datagrama [RFC1349] [RFC1455], en la práctica ello no supone ninguna garantía. Se
necesita una extensión que posibilite el envío de tráfico de tiempo real, y así poder
hacer frente a las nuevas demandas en este campo [RFC1667].
Tarificación:
Con una red cada día más orientada hacia el mundo comercial hace falta dotar al
sistema de mecanismos que posibiliten el análisis detallado del tráfico, tanto por
motivos de facturación como para poder dimensionar los recursos de forma
apropiada [RFC1272] [RFC1672].
Comunicaciones Móviles:
El campo de las comunicaciones móviles está en auge, y aún lo estará más en un
futuro inmediato. Se necesita una nueva arquitectura con mayor flexibilidad
topológica, capaz de afrontar el reto que supone la movilidad de sus usuarios. La
seguridad de las comunicaciones, en este tipo de sistemas, se ve, además,
especialmente comprometida [RFC1674] [RFC1688].
Facilidad de Gestión:
Con el volumen actual de usuarios y su crecimiento estimado, resulta más que obvio
que la gestión de la red va a ser una tarea ardua. Es preciso que la nueva arquitectura
facilite al máximo esta tarea. Un ejemplo de ello sería la autoconfiguración de los
equipos al conectarlos a la red [RFC1541].
Política de enrutado:
Tradicionalmente los datagramas se han encaminado atendiendo a criterios técnicos
tales como el minimizar el número de saltos a efectuar, el tiempo de permanencia en
la red, etc. Cuando la red pertenece a una única organización eso es lo ideal, pero en
el nuevo entorno económico en el que diferentes proveedores compiten por el
mercado las cosas no son tan simples. Es imprescindible que la fuente pueda definir
por qué redes desea que pasen sus datagramas, atendiendo a criterios de fiabilidad,
coste, retardo, privacidad, etc. [RFC1674..1675].
A lo largo de los años se han propuesto varios protocolos como sustitutos al IPv4. Los tres
más importantes han sido PIP ('P' Internet
Protocol) [RFC1621] [RFC1622], TUBA (TCP/UDP With Bigger
Addresses) [RFC1347] [RFC1526] y SIP/SIPP (Simple Internet Protocol/Simple Internet
Protocol Plus) [RFC1710]. En [RFC1454] se realiza una buena comparativa entre ellos.
En 1.993 se decidió solicitar opiniones sobre "cómo debería ser" el IP del futuro (IPng) a
través de [RFC1550]. Las respuestas recibidas fueron numerosas y provenientes de fuentes
muy diversas. En general todas coincidían en los puntos básicos mencionados previamente.
Tal vez los más interesantes hayan sido los que mostraban el punto de vista de varias
multinacionales [RFC1669][RFC1684].
Por fin se propuso un estándar en 1.995 [RFC1752], refinado a principios de 1.996
en [RFC1883]. Como puede verse se trata de un tema de máxima actualidad. De hecho
todavía faltan por publicar, al menos, dos funciones adicionales: configuración
dinámica y búsqueda de máquinas vecinas. Los datos de que dispongo son de finales de
Abril de 1.996 así que es muy posible que ahora, Junio, se hayan publicado algunos
documentos adicionales.
Las principales características del nuevo IPv6, como diferencias respecto a IPv4,
son [RFC1883]:
Se trata de un protocolo diseñado para ser ampliado, de forma simple, con
funcionalidades adicionales, ya sea a través de nuevas cabeceras de extensión o bien
de opciones incluidas en las cabeceras ya existentes.
Los nuevos números IP constan de 128 bits, lo cual permitirá efectuar una división
muy jerárquica del espacio de direcciones para facilitar el enrutado. Adicionalmente
ello posibilitará incluir la dirección física de la interfaz de red de la máquina en la
propia dirección IP, facilitando de forma considerable el proceso de
autoconfiguración.
Se codifica directamente en el datagrama qué acción debe adoptar una máquina
cuando ésta no es capaz de reconocer alguna de las opciones del mismo.
Se incluyen cabeceras destinadas a la autentificación y la encriptación de los
datagramas.
Se permite que la fuente encamine directamente sus datagramas, como soporte a su
política o necesidades de rutado.
Los datagramas ya no tienen un límite de longitud de 65536 bytes.
El soporte de encapsulados es muy natural, dado su diseño de cabeceras
encadenadas.
La fragmentación, en caso de ser necesaria, la realiza la fuente. Para facilitar el
cálculo del MTU [RFC1191] [RFC1435] del camino hace falta el apoyo de la nueva
capa ICMP [RFC1885]. Ahora, cuando una pasarela genera un mensaje
ICMP "Datagram Too Big", indica cuál es el MTU de la red problemática.
La gestión
de Multicasting [RFC966] [RFC988] [RFC1112] y Anycasting [RFC1546] (IGMP) ha
pasado a formar parte del nuevo ICMP [RFC1886].
Para acelerar el cálculo de los enrutamientos y atender las necesidades de las
aplicaciones en tiempo real, cada datagrama puede contener un "identificador de
flujo". Esos identificadores son, en cierta medida, equivalentes al concepto de
circuitos virtuales, pero se trata de unos circuitos virtuales "suaves" que pueden ser
desde ignorados hasta completamente vinculantes, según el diseño del sistema. Ello
da un juego enorme. En mi opinión, éste es el concepto más novedoso e importante
de IPv6 [RFC1809].
IPv6 no incluye una suma de control en la cabecera. Para asegurar la validez de la
información la capa UDP está obligada a utilizar su opción de suma de control.
Adicionalmente el nuevo ICMP también incluye una suma de control, por razones
similares.
Las nuevas direcciones IP, como ya se ha dicho, constan de 128 bits. Ello hace que la
notación "punto" común de IPv4 sea poco práctica. IPv6 utiliza notación hexadecimal en
grupos de 16 bits, separándolos por el carácter de dos puntos (":") [RFC1884].
En [RFC1920] se propone una codificación más compacta.
En [RFC1884] se realiza una asignación preliminar de direcciones, muy agresiva. Se reserva
una enorme cantidad de valores para determinados grupos de direcciones (por
ejemplo, multicasting, NSAP (OSI), etc.), pero aún así el espacio disponible para usos
todavía no especificados es del 85%. Las propias direcciones IPv4 están incluidas aquí. Hay
varias novedades interesantes, como el hecho de definir direcciones especificamente locales
a nivel de capa de enlace (MAC) u organización.
En definitiva, el IPv6 ya está aquí. Todavía queda un largo trecho hasta que se implante de
forma mayoritaria, pero sin duda incorpora numerosas características que lo hacen
atractivo, como el soporte de comunicaciones en tiempo real, la autoconfiguración de
sistemas, seguridad, etc. La mayoría de los detalles todavía se están ultimando y, hasta
donde sabe el autor, no se han propuesto aún plazos de implantación.