hacia un internet de nueva generación

64
1 Cátedra Telefónica en la UPM Internet de Nueva Generación Hacia una Internet de Nueva Generación (Versión 6, 2 de Enero de 2004) Juan Quemada Catedrático de la ETSI Telecomunicación - UPM y Director de la Cátedra Telefónica en la UPM para Internet de Nueva Generación

Upload: internetng-dit-upm

Post on 21-May-2015

1.418 views

Category:

Technology


1 download

DESCRIPTION

Hacia un Internet de NuevaGeneración, D. Juan Quemada (DIT-UPM). Enero de 2004

TRANSCRIPT

1

Cátedra Telefónica en la UPM Internet de Nueva Generación

Hacia una Internet de Nueva Generación

(Versión 6, 2 de Enero de 2004)

Juan Quemada Catedrático de la ETSI Telecomunicación - UPM y

Director de la Cátedra Telefónica en la UPM para Internet de Nueva Generación

2

3

PRESENTACION

INTERNET DE NUEVA GENERACION, UNA CÁTEDRA PIONERA Este libro ve la luz en un momento crucial para el desarrollo de la Sociedad de la Información en España. Si en años anteriores la crisis con la que comenzó el siglo XXI amenazaba el crecimiento de las Tecnologías de la Información y las Telecomunicaciones (TIC), en este momento los indicadores de referencia dejan ver la luz al final del túnel. El número de internautas, lejos de estancarse, sorprende con un fuerte tirón al alza gracias a la irrupción de la banda ancha, lo que convierte a España en uno de los países punteros de Europa en penetración de ADSL. La conjunción de la tecnología de Internet y la de las comunicaciones móviles augura un cambio trascendental tanto en los medios de producción como en los de ocio en cualquier entorno, sentando las bases de una nueva revolución tecnológica que cambia nuestra forma de relacionarnos, de trabajar, adquirir conocimientos y tratar con las Administraciones Públicas. De igual forma que el desarrollo del ferrocarril o el automóvil han supuesto hitos mesurables en la evolución de las naciones en el pasado siglo, así la inversión en TIC supone una vía segura y eficiente para aumentar el potencial de crecimiento de la economía. El ejemplo más cercano lo tenemos en EE.UU. en donde la apuesta por las TIC guarda un inseparable efecto multiplicador sobre el crecimiento de su economía y el bienestar de sus ciudadanos. En el hogar, la empresa o los centros educativos los usuarios pueden acceder al potencial de información que ponen a su disposición las nuevas tecnologías de la comunicación. La banda ancha no sólo permite navegar por Internet en un ejercicio que era hasta ahora casi privativo del ámbito científico o del mero entretenimiento. La irrupción de la oferta de servicios como la teleasistencia, domótica, educación virtual, vídeo bajo demanda, teleseguridad, telemedicina, etc., señalan ya el futuro del hogar, la escuela o el hospital digital. En un ámbito universitario como en el que nace este libro huelga comentar las ventajas que ofrece Internet para docentes y estudiantes, desde el acceso prácticamente universal a las fuentes del conocimiento a la revolución en los métodos de estudio tanto presenciales como on-line, cambiando el concepto de aulas de informática por el de informática en todas las aulas. Sin embargo, a pesar de que Internet ha irrumpido en las vidas cotidianas de cientos de millones de usuarios, es todavía un arcano para muchos, y lo es aún más la Internet del futuro, la Internet de Nueva Generación. En este libro, el profesor Juan Quemada contribuye a despejar este misterio que rodea a Internet con rigor técnico y claridad expositiva. Se trata de una obra muy útil tanto para el profano que tenga interés por conocer mejor el origen y el funcionamiento de Internet como para los ingenieros y científicos, presentes y futuros, que necesiten un libro de referencia sobre las últimas novedades en IPv6. A través del programa de Cátedras Telefónica del que es pionera la Cátedra de Estudios de Internet de Nueva Generación de la Universidad Politécnica de Madrid, bajo la dirección del profesor Juan Quemada, se fomenta el efecto palanca de la innovación tecnológica apoyando la generación y difusión del conocimiento mediante cursos de postgrado, convocatoria de becas y premios, participación en foros, edición de publicaciones, etc., potenciando en definitiva las relaciones entre la Universidad y la Empresa. La génesis de este libro en el ámbito del programa de Cátedras Telefónica refuerza el compromiso del líder español en telecomunicaciones apoyando la difusión del conocimiento, incentivando la investigación, el desarrollo y la innovación (I+D+I). En el marco de este esfuerzo, este año Telefónica ha favorecido la concesión de mil cien becas, al tiempo que incrementó su actividad como vehículo catalizador del conocimiento en el ámbito universitario a través del portal de la Fundación Telefónica CampusRed.net con más de un millón de visitas y doce millones de páginas vistas. José Maria Sanz-Magallón Subdirector General Relaciones Institucionales y Gestión de Conocimiento de Telefónica S.A.

4

5

PRÓLOGO Con gusto escribo unas líneas para prologar este libro, que bajo el título de Hacia una Internet de Nueva Generación recoge los antecedentes históricos de la creación de la red de redes, su evolución y las tendencias futuras. Aunque en la segunda mitad del siglo XX, se han producido numerosas innovaciones científicas y tecnológicas que han transformado nuestra sociedad, incidiendo directamente en la vida de las personas, entre ellas el desarrollo y despliegue de Internet, la multiplicación de sus aplicaciones, la generalización de su uso, al menos en los países del primer mundo, es, sin duda alguna, causa de una de las transformaciones mas importantes que ha permitido el desarrollo de la denominada Sociedad de la Información. Se ha escrito mucho sobre este fenómeno, sobre sus bases tecnológicas, sobre los servicios construidos sobre la red, sobre el ascenso y caída de las .com y el periodo de recuperación, que estamos viviendo en estos momentos, de algunas de las empresas supervivientes de la crisis de finales del siglo pasado. Sin embargo, nos encontramos con una tecnología y unos modelos de negocio en su explotación que están cambiando continuamente, en una fase en que no resulta fácil anticipar el futuro, ni si quiera a corto plazo. Por todas las razones apuntadas, este libro es oportuno y contribuye a clarificar la situación actual y algunas de las previsibles tendencias de futuro. El libro aborda los problemas y soluciones técnicas pasadas, presentes y futuras, y combina de forma equilibrada una visión profesional profunda y detallada con un lenguaje sencillo que permite su lectura a los no especialistas. Esta acertada orientación, unida al hecho de estar escrito en castellano hace de él una referencia obligada. Por otra parte, debo resaltar que el libro es el resultado del trabajo desarrollado por el Prof. Juan Quemada en el marco de la Cátedra Telefónica en la Universidad Politécnica de Madrid sobre Internet de Nueva Generación que tiene la vocación y así viene desarrollándose desde su creación, de convertirse en un foro donde se contribuya con diferentes iniciativas a la discusión promoción y desarrollo de la tecnología y aplicaciones de las versiones más avanzadas de Internet. Desde la universidad estamos muy satisfechos de esta fórmula de colaboración con la empresa en general y, de forma muy especial, con Telefónica. Para concluir, unirme a las palabras del autor, en el sentido de que Internet como red se comporta como un organismo en constante evolución y lo que en estos momentos recibe adecuadamente el calificativo de Nueva Generación, no será sino un escalón más en esa dinámica de cambio, en la que el éxito y la aceptación de los servicios desplegados, así como la seguridad en su uso, serán sin duda, elementos de referencia para poder explorar su futuro. Enhorabuena a su autor por la obra y sea bienvenida. Javier Uceda Antolín Vicerrector de Investigación y Relaciones Institucionales de la UPM

6

7

Hacia una Internet de Nueva Generación

Índice:

1. Introducción.....................................................................................................................................9 2. Las Redes de Comunicación............................................................................................................9 3. Las Redes de Datos........................................................................................................................11

3.1 Conmutación de circuitos y de paquetes .................................................................................12 4. La Primera Internet ........................................................................................................................14

4.1 La primera arquitectura de Internet: aplicaciones “extremo a extremo” sobre TCP/IP .........15 4.1.1 Creación de aplicaciones en la primera Internet...............................................................16

4.1.1.1 Las primeras aplicaciones y servicios: el modelo cliente-servidor............................17 4.1.2 La evolución de las tecnologías de red .............................................................................19 4.1.3 ISOC, IETF y las reglas que sirvieron para crear Internet ...............................................20

5. Los Noventa: Internet entra en la Encrucijada ..............................................................................22 5.1 La escasez de direcciones: NAT cambia la arquitectura de Internet .......................................23 5.2 La explosión de las aplicaciones..............................................................................................26

5.2.1 Colaboración, grupos y comunidades en la red: “Groupware”, P2P, GRID, etc. ............26 5.2.2 El primer Web: publicación de documentos en la red......................................................28 5.2.3 Servicios Web interactivos: acceso remoto a aplicaciones...............................................29 5.2.4 Búsqueda de información y conocimiento: la enciclopedia en la red ..............................31 5.2.5 Voz y Vídeo sobre IP........................................................................................................32

5.3 El difícil control de la seguridad: Los cortafuegos compartimentan la red.............................33 5.4 Los modelos de negocio de Internet. .......................................................................................35

6. El nuevo Milenio: Hacia una Internet de Nueva Generación ........................................................36 6.1 Los nuevos terminales y el acceso a Internet...........................................................................38

6.1.1 Banda Ancha.....................................................................................................................39 6.1.2 WIFI (IEEE 802.11): acceso móvil inalámbrico a red local ............................................40 6.1.3 Servicios de acceso a Internet a través de Teléfono Móvil ..............................................40 6.1.4 El crecimiento de Internet.................................................................................................42

6.2 Aplicaciones y servicios ..........................................................................................................42 6.2.1 La nueva arquitectura del Web .........................................................................................43

6.2.1.1 Web Services y el Web Semántico ............................................................................45 6.2.2 Completando la arquitectura de servicios multimedia: la señalización............................46 6.2.3 Otras aplicaciones.............................................................................................................47

6.3 Un nuevo marco de seguridad .................................................................................................48 6.3.1 La identidad digital ...........................................................................................................49 6.3.2 Los protocolos de seguridad .............................................................................................50

6.4 La evolución de la red y de la arquitectura TCP/IP.................................................................51 6.4.1 La transición de IPv4 a IPv6.............................................................................................52 6.4.2 La calidad del servicio TCP/IP .........................................................................................54 6.4.3 Difusión y comunicación de grupo: multi-envío (multicast)............................................55

8

6.4.4 Redes móviles...................................................................................................................56 6.4.4.1 Acceso inalámbrico en redes 2G y 3G: GPRS, UMTS, etc.......................................57

6.4.5 Movilidad personal y de terminal .....................................................................................57 6.4.6 La evolución de la conmutación y la transmisión ............................................................59

7. Concluyendo ..................................................................................................................................59 8. Agradecimientos ............................................................................................................................62 9. Bibliografía y Referencias .............................................................................................................62

9

1. Introducción La información tiene un papel tan esencial en la sociedad actual, que hemos pasado a denominarla “La Sociedad de la Información”. Todas las áreas relacionadas con la creación, almacenamiento, control, transporte y difusión de la información tienen una enorme importancia estratégica y son uno de los sectores económicos clave en los países más desarrollados. Un transporte rápido, seguro y fiable de información es vital en una sociedad basada en la información y por ello durante las últimas décadas ha habido un intenso proceso de mejora de las redes de telecomunicación, que parece haberse acelerado últimamente con el desarrollo espectacular de la telefonía móvil y de Internet. La evolución de las tecnologías de telecomunicación de las redes de datos y de Internet en particular, ha seguido unas pautas difícilmente predecibles, que vamos a tratar de analizar aquí desde diversas perspectivas, que tratan de abstraer las tendencias, decisiones y hechos más significativos de la historia de Internet. El libro trata de anticipar a partir de estas pautas cómo será la evolución de una Internet en los próximos años. El objetivo de este libro es tratar de ayudar a entender a las personas interesadas en el fenómeno Internet, los factores técnicos que han marcado su historia y que pueden condicionar su futuro. Para ello se da una panorámica que cubre desde los comienzos de la conmutación de paquetes hasta hoy, tratando siempre de simplificar las descripciones lo suficiente como para hacerlas comprensibles sin necesidad de conocimientos técnicos especializados. El primer capítulo sitúa las redes de datos en el contexto del conjunto de redes de telecomunicación, para entrar en el segundo capítulo en una breve descripción de las redes de datos y su evolución histórica. El tercer capítulo describe la primera Internet, su relación con otras propuestas que competían con ella y trata de identificar los factores que permitieron que Internet desbancara al resto de las redes de datos existentes en aquel momento. En el capítulo cuarto se describe la transformación que Internet sufrió durante los años noventa, que permitió satisfacer la enorme demanda de uso y servicios a que se vio sometida. El quinto capítulo describe las transformaciones y tendencias que está sufriendo la Internet actual. Además intenta definir y acotar la Internet de Nueva Generación que se está gestando en estos momentos. El libro termina con las conclusiones y los agradecimientos a todos los que han contribuido a su realización de una u otra forma.

2. Las Redes de Comunicación Los servicios ofrecidos por las redes actuales son mucho más avanzados que en el pasado. Además se encuentran en un proceso continuo de innovación. Sin embargo, actualmente seguimos teniendo los tres tipos de redes troncales en que se ha basado el transporte de información durante las últimas décadas:

♦ Las redes telefónicas ♦ Las redes de difusión de radio y televisión ♦ Las redes de datos

También existen otras redes más especializadas o de menor tamaño que ocupan nichos de mercado específicos.

10

La red telefónica, especializada en el transporte de voz, ha sido tradicionalmente una de las redes de mayor peso. Esta red está formada por la red fija y la red de telefonía móvil, que ha crecido espectacularmente en los últimos años, debido al avance que supone disponer del servicio telefónico móvil. Las redes de difusión de audio o de vídeo, es decir la radio y la televisión, forman otra de las grandes troncales de comunicación. Estas redes de difusión utilizan normalmente comunicaciones radio, ya sea a través de antenas terrestres o satélites. En algunos países un porcentaje alto de la difusión se realiza también a través de cable. La tercera troncal son las redes de datos, especializadas en transportar paquetes de datos entre ordenadores. Las redes de datos han tenido un desarrollo vertiginoso desde la aparición de Internet [1]. La gran expansión de Internet nunca hubiera sido posible sin la enorme convulsión tecnológica que supuso el desarrollo de la electrónica de estado sólido, que a su vez hizo posible el microprocesador y luego el ordenador personal. Después, la aparición de Internet permitió interconectar los ordenadores en red, convirtiendo el ordenador personal en un eficaz instrumento de ocio, de trabajo y de comunicación interpersonal. Desde hace bastantes años los procesadores permiten digitalizar señales de voz, vídeo o gráficos a un coste muy bajo. Esto hace tecnológicamente viable la unificación tanto de la representación de la información, como de las redes que transportan dicha información. Esta unificación se conoce por el nombre de multimedia. La unificación de la representación de la información multimedia en formato digital ha tenido un fuerte impacto, habiendo provocado la convergencia entre diversos sectores de la economía tales como el sector de los medios de comunicación, la industria cinematográfica, el sector de las telecomunicaciones o el sector informático. La aparición de la información multimedia también permite la unificación del transporte de información a través de una Internet de gran capacidad, aunque este proceso no se ha producido de momento. Es difícil asegurar si en algún momento llegaremos a tener una gran red unificada o no, pero lo que sí parece claro es que Internet ofrece cada vez más y mejores servicios multimedia, que el tráfico de voz y vídeo crece en Internet a medida que pasa el tiempo, y que es muy probable que este tráfico supere al que se cursa por la red telefónica en un futuro no muy lejano. Por otro lado, Internet se basa en un diseño arquitectónico realizado en los años 70 y posee algunas limitaciones que parece necesario eliminar antes de poder extraer todo el potencial que posee. La IETF (Internet Engineering Task Force) [5] y el W3C [12], las organizaciones con mayor influencia en Internet, así como el mundo investigador están trabajando intensamente en el desarrollo de una nueva arquitectura para Internet conocida como Internet de Nueva Generación. Estos desarrollos afectan tanto a la arquitectura de la red, como a las aplicaciones, y una vez desarrollada es muy probable que permita crear una red que mejore muy substancialmente tanto la capacidad de transporte de información de la actual Internet, como los servicios que conocemos. La Internet de Nueva Generación quizá permita crear también la gran red unificada. La nueva Internet aparecerá como evolución de la actual, por lo que es difícil entender el futuro de Internet sin conocer su pasado. Por lo tanto, vamos a revisar la historia de las redes de datos y de Internet para tratar de extrapolar a continuación su evolución futura.

11

3. Las Redes de Datos Las redes de datos pueden considerarse desde el punto de vista técnico como una evolución de las redes telegráficas. En un primer momento los protocolos telegráficos se adaptaron para la transmisión de bloques de información digital, desde los terminales hasta los grandes ordenadores de las primeras generaciones, para pasar a comunicar posteriormente ordenadores entre sí, tal y como ocurre actualmente. En el mundo de las comunicaciones se denomina protocolo al algoritmo que guía y ordena la comunicación entre dispositivos remotos. El nombre de protocolo se debe a que poseen una función similar a la de los protocolos sociales, ordenar las interacciones entre partes. En la sociedad ordenan la interacción entre personas y en las redes de datos ordenan la interacción entre ordenadores. Cuando se diseña una red de datos el primer paso consiste en definir los protocolos que deben seguir los ordenadores para comunicarse entre si, denominándose arquitectura de la red al conjunto de protocolos que utiliza. La comunicación de datos utilizaba inicialmente las redes existentes, fundamentalmente la red telefónica, hasta que durante los sesenta se propone una nueva técnica, denominada “Conmutación de Paquetes” [6] [10]. La conmutación de paquetes es significativamente más eficiente que la conmutación de circuitos para la mayoría de los servicios de telecomunicación actuales, por lo que su aparición inicia un proceso que ha cambiado profundamente el mundo de las telecomunicaciones. A finales de los sesenta y durante los setenta aparecen diferentes propuestas de arquitecturas de redes basadas en conmutación de paquetes, que aunque se utilizaban en entornos muy diferentes, también competían entre sí. Por ejemplo:

♦ Aparece ARPANET en 1968, promovida por el Departamento de Defensa de EEUU. En 1983 ARPANET cambia su arquitectura y se transforma en Internet al incorporar la arquitectura TCP/IP, empezando la expansión imparable que todos conocemos.

♦ Los operadores de telecomunicación empiezan a ofrecer servicios de conmutación de paquetes que venden a las grandes empresas, por ejemplo las del mundo financiero en España. Telefónica ofrece en 1972 uno de los primeros servicios de conmutación de paquetes comerciales a nivel mundial, denominado RSAN, que posteriormente pasó a llamarse IBERPAC al adoptar la norma X.25.

♦ En 1979 se crea USENET, la red de usuarios del sistema operativo UNIX basada en el programa UUCP (UNIX to UNIX Copy Program). En el marco de esta red se desarrollan también ideas y servicios de gran interés, como el servicio de news. En Europa USENET se denominó EUNET. USENET converge hacia Internet de forma natural, debido a que compartían muchos objetivos comunes con el grupo que desarrolló Internet, además de compartir el sistema operativo UNIX en sus desarrollos.

♦ Las operadoras de telecomunicación, especialmente las europeas, empiezan a ofrecer servicios de conmutación de paquetes basados en la norma X.25 publicada por el CCITT en 1976. X.25 evoluciona posteriormente hacia SMDS, FRAME-RELAY, ATM, etc.

♦ Los grandes fabricantes de ordenadores proponen arquitecturas de red que incluyen servicios de usuarios, tales como IBM (red SNA para aplicaciones corporativas o red BITNET para el mundo investigador), Digital Equipment (red DECNET), etc.

♦ El servicio MINITEL que fue enormemente exitoso en Francia.

12

Además, hay muchas otras iniciativas que no vamos a comentar aquí. Durante los 80 y principios de los 90 la industria realiza un enorme esfuerzo para definir un modelo de referencia que unifique la arquitectura de las redes de datos. Este modelo es conocido como el modelo OSI (Open Systems Interconnection) de la Organización ISO (International Organization for Stardardization). Casi nadie dudaba entonces sobre el éxito de dicha norma, que de haber triunfado hubiese ocupado el puesto de la Internet actual. Tanto es así que la mayoría de las organizaciones y empresas, incluido el DOD que había financiado el desarrollo de Internet, realizaron planes de implantación del modelo ISO – OSI a finales de la década de los ochenta. Durante ese periodo, Internet, que ya está operativa, se va introduciendo en el mundo universitario e investigador. A principios de los noventa la definición del modelo ISO - OSI está incompleta e Internet en cambio crece vertiginosamente, por lo que las empresas y organizaciones más innovadoras empiezan a introducir Internet. A finales de los años ochenta en algunos países, fundamentalmente europeos, existen ya servicios comerciales de redes de datos basados en la norma X.25, que se utilizaban fundamentalmente en el ámbito corporativo y financiero. Pero el éxito de Internet lleva a la creación de servicios comerciales basados en TCP/IP, conocidos como ISPs (Internet Service Providers). A partir de entonces Internet empieza a introducirse a un ritmo imparable tanto en las empresas como en los hogares. El DOD vuelve a alinear sus redes y desarrollos con Internet a principios de los 90.

3.1 Conmutación de circuitos y de paquetes Antes de la conmutación de paquetes, la mayoría de las redes se basaban en la “Conmutación de Circuitos”. En estas redes el intercambio de información sólo se puede realizar cuando se ha establecido el circuito. El funcionamiento del teléfono ilustra muy bien como funciona la conmutación de circuitos. Primero hay que establecer el circuito con una llamada. Sólo se puede intercambiar información, es decir hablar con nuestro interlocutor, cuando el circuito está establecido y nuestro interlocutor está en el otro extremo.

Figura 2.1. Conmutación de Circuitos

En cambio, la conmutación de paquetes funciona de un modo similar al correo postal. En este tipo de comunicación la información puede enviarse en cualquier momento sin necesidad de esperar a que el destinatario esté preparado para recibirla, tal y como se hace con el correo postal. Para enviar un bloque de información digital simplemente hay que introducirlo en un “Paquete” y enviarlo. Un “Paquete” es similar a una carta. Lleva una cabecera con información sobre el destinatario y el remitente. El paquete envuelve y delimita el bloque de información, como si fuese el sobre en un envío postal. Un paquete se denomina

13

también “Datagrama”, probablemente porque sus diseñadores lo consideraron una variante del telegrama, debido a la velocidad con que se transmiten los paquetes de datos. El paquete, la carta electrónica, también hay que enviarlo a una estafeta de correos digital, que en el caso de Internet es el “Router” o “Encaminador de Paquetes”. El router tiene como función clasificar los paquetes recibidos y enviar cada uno a la siguiente estafeta digital del camino hacia su destino, exactamente igual que en el servicio postal. Por lo tanto para enviar un mensaje de un ordenador a otro simplemente se empaqueta en uno o varios paquetes, que se envían al router más próximo para que este lo reenvíe hacia su destino.

Figura 2.2. Conmutación de Paquetes

La función básica de un router es almacenar y reenviar paquetes. Los paquetes llegan por las conexiones entrantes, para ser almacenados en la lista de espera de la conexión de salida por la que debe continuar. El paquete continúa cuando le llega su turno de reenvío, después de que los paquetes anteriores de la lista de espera hayan sido enviados. Por eso, la “conmutación de paquetes” recibe también el nombre de “almacenamiento y envío”.

Figura 2.3. Router o Conmutador de Paquetes

La conmutación de paquetes es mucho mas eficiente que la conmutación de circuitos en el envío de datos esporádicos dispersos en el tiempo, tal y como requieren la mayoría de los servicios de datos. Permite incluso un aprovechamiento más eficaz del ancho de banda en comunicaciones de voz utilizando técnicas de detección de silencios y codificadores de gran eficiencia. El modelo de conmutación de paquetes descrito anteriormente es el utilizado por el protocolo IP de Internet y corresponde a un servicio de conmutación de paquetes de tipo datagrama (sin conexión). También existe otro servicio de conmutación de paquetes, denominado orientado a conexión, que permite crear circuitos virtuales, combinando elementos de la conmutación de circuitos y de paquetes. El servicio orientado a conexión es más complejo, por lo que no vamos a describirlo aquí, aunque es utilizado por muchos otros protocolos como por ejemplo, X.25, FRAME RELAY, ATM, MPLS, en conmutación óptica, TCP, etc.

14

4. La Primera Internet Internet nace, financiada por DARPA (Defense Advanced Research Project Agency), durante la guerra fría. DARPA fue creada por el ejército norteamericano en 1957, a raíz del lanzamiento ruso del Sputnik, para asegurar la supremacía de EEUU en tecnologías de uso militar. Los gestores de DARPA trataron de involucrar a la comunidad investigadora de EEUU de forma abierta, en contraposición al secretismo imperante en la mayoría de los proyectos militares de la Unión Soviética y lo consiguieron plenamente. El modelo de gestión de proyectos utilizado por DARPA y por otros programas del DoD (Department of Defense) de EEUU ha tenido un enorme éxito a largo plazo, porque no sólo lleva al desarrollo de ARPAnet o de Internet, sino de muchas otras tecnologías clave para la sociedad de la información, tales como gran parte de la tecnología electrónica de estado sólido, del sistema operativo BSD UNIX (que tanta influencia ha ejercido en el mundo de la informática), etc. Todos estos proyectos han tenido una enorme influencia en el mundo de la tecnología y es muy probable que sin ellos el panorama actual fuese muy diferente. Los gestores de los programas y fondos de investigación deberían estudiar el modelo de financiación y gestión utilizado por DARPA, porque la eficacia de aquellos proyectos, así como el impacto conseguido, no han sido igualados por ningún otro programa de desarrollo tecnológico. El proyecto inicial [6] tuvo como objetivo el desarrollo de una red tolerante a fallos de sus nodos, que se denominó ARPAnet. Para conseguir este objetivo la red debía tener un control descentralizado y redundancia en rutas y nodos. En términos militares la nueva red debía ser capaz de sobrevivir a un ataque nuclear, un objetivo de capital importancia durante la guerra fría. Es curioso constatar como un requisito de carácter militar, la tolerancia a fallos en sus nodos, ha sido probablemente la principal razón de su éxito a largo plazo. Este requisito llevó a sus diseñadores a desarrollar técnicas de conmutación de paquetes con encaminamiento adaptativo, de forma que las redes resultantes fuesen capaces de reconfigurarse si algún nodo dejaba de operar. La arquitectura resultante, además de ser adaptativa, reduce el coste del transporte de información porque utiliza los recursos de la red más eficientemente que la conmutación de circuitos tradicional, especialmente cuando se envían bloques sueltos de información. En la década de los 70, estando ARPAnet y otras redes ya en uso, surgió la necesidad de interconectar las redes existentes entre sí. Es en este momento cuando comienza el desarrollo, de lo que hoy conocemos como Internet, por un grupo de investigadores liderados por Vinton Cerf y Robert Kahn [3, 10]. Su objetivo fue desarrollar una arquitectura y unos protocolos que permitiesen interconectar varias redes heterogéneas, transformándolas en una única red. Este proyecto lleva la desarrollo de la arquitectura TCP/IP en la que se basa Internet. En la base de esta arquitectura está el protocolo IP, abreviatura de “Internet Protocol”, que en castellano significa “protocolo entre redes”. La nueva red pasa a denominarse Internet debido al papel fundamental que este protocolo tiene en la nueva arquitectura. Los routers son los dispositivos encargados de encaminar paquetes entre redes y su comportamiento se rige por las reglas que marca el protocolo IP. Aunque la gestación de Internet empieza en los setenta, el nacimiento real de Internet se produce el 1 de Enero de 1983. Ese día muchas de las redes relacionadas fundamentalmente con ARPANET instalan en sus routers y ordenadores la arquitectura TCP/IP y “La Red” comienza a funcionar. A partir de entonces, Internet crece imparablemente.

15

Durante una década su crecimiento se centra en el mundo investigador, hasta que a finales de la década de los 80 Tim Berners-Lee propone un nuevo servicio: “The World Wide Web” [4]. La facilidad de uso del nuevo servicio dispara la introducción masiva de Internet en empresas y hogares, desbancando del mercado a las demás redes.

4.1 La primera arquitectura de Internet: aplicaciones “extremo a extremo” sobre TCP/IP La arquitectura IP tiene tres protocolos como componentes fundamentales: IP, TCP y UDP (figura 3.1). El protocolo IP da un servicio de datagramas y tiene como función principal encaminar paquetes desde su origen hasta su destino, a través de todas las redes que componen Internet. Para poder realizar esta función cada ordenador conectado a la red se identifica por una dirección única en la red, conocida como dirección IP. La dirección IP del destinatario va en todos los paquetes y sirve para que los routers puedan encaminar el paquete correctamente hasta su destino. Todo paquete incluye también la dirección del remitente que es utilizada para el envío de paquetes de respuesta. El protocolo IP se diseñó utilizando direcciones de 32 bits, que permiten identificar hasta unos 4.000.000.000 ordenadores diferentes. En los 70 parecía imposible que el mundo llegase a tener tal cantidad de ordenadores. La asignación de direcciones únicas es una tarea administrativa de vital importancia para el funcionamiento de Internet. Esta tarea fue realizada en un principio por ICCB (Internet Configuration Control Board), creada en 1979. A medida que crecía su importancia se fueron creando estructuras más representativas para su administración como IANA (Internet Assignment Number Authority) y finalmente ICANN (Internet Corporation for Assigned Names and Numbers)[18] que delega la asignación de direcciones IP en organizaciones de tipo regional y local. Las organizaciones que solicitaban direcciones recibían bloques de direcciones IP. Se asignaban 3 tipos de bloques de direcciones dependiendo del tamaño de la organización solicitante:

1. Asignación de Clase A: Bloque de unas 16.000.000 direcciones para grandes organizaciones.

2. Asignación de Clase B: Bloque de unas 65.000 direcciones para organizaciones medianas.

3. Asignación de Clase C: Bloque de 256 direcciones para organizaciones pequeñas.

Los usuarios que recibían un bloque de direcciones se comprometían a seguir unas normas de buen comportamiento en el uso de Internet, denominadas “Internet Code of Conduct” [30]. En caso de no seguir dichas normas, la asignación de direcciones podía ser retirada por el organismo administrador. Muchos de los males de la Internet actual se deben a la forma en que se asignaron las primeras direcciones. No se utilizó un plan jerárquico y además las asignaciones fueron muy generosas hasta principios de los noventa. Una gran cantidad de direcciones asignadas entonces nunca se han utilizado. En este momento se ha asignado aproximadamente la mitad del espacio de direcciones de IP y se están utilizando menos del 10% de las direcciones asignadas. Los diseñadores de Internet añadieron sobre el protocolo IP, el protocolo TCP (Transmission Control Protocol) encargado de garantizar la entrega íntegra de los mensajes en su destino. Además de TCP, también se añadió el protocolo UDP (User Datagram Protocol) para comunicaciones no fiables. Sobre estos dos protocolos se instalan las aplicaciones.

16

Internet necesita para su funcionamiento y gestión otros protocolos tales como ICMP (Internet Control Message Protocol), ARP (Address Resolution Protocol), etc. Pero son TCP e IP los que realmente la caracterizan, por lo que la arquitectura de Internet se conoce también como arquitectura TCP/IP [2]. Los protocolos TCP, UDP e IP forman la capa intermedia de la red tal y como se muestra en la Figura 3.1. Estos protocolos fueron diseñados para poder conectar, tanto con una gran variedad de tecnologías de red, como con una gran variedad de aplicaciones. Es decir, normalizan sólo lo estrictamente necesario para desacoplar las tecnologías de red, de las aplicaciones. IP hace de interfaz con las redes que se interconectan a Internet y se especializa en encaminar paquetes entre redes. TCP y UDP hacen de interfaz con las aplicaciones dando un interfaz de acceso normalizado.

Figura 3.1. Arquitectura “extremo a extremo” de las aplicaciones sobre TCP/IP

Las claves del éxito de Internet parecen ser tres:

♦ La facilidad de diseño y programación de nuevas aplicaciones que utilizan los protocolos TCP y UDP a través del interfaz de “socket”.

♦ La enorme capacidad de los órganos de gestión de Internet para innovar, adaptarse a situaciones cambiantes o de reaccionar frente a problemas.

♦ La capacidad de IP para incorporar nuevas tecnologías de red de forma incremental, sin afectar el funcionamiento de sus aplicaciones.

Pasemos a analizar los factores que han dado a Internet su gran capacidad para incorporar nuevas tecnologías de red, para soportar eficazmente el diseño de aplicaciones, así como para innovar y adaptarse a nuevas situaciones.

4.1.1 Creación de aplicaciones en la primera Internet Una de las razones principales del éxito de Internet fue su capacidad para soportar eficazmente el diseño de aplicaciones. La existencia del interfaz de “socket”, que permite programar aplicaciones con gran facilidad, es uno de los factores que facilitó el desarrollo de nuevas aplicaciones. El interfaz de “socket” TCP es muy similar al interfaz de comunicación entre procesos de UNIX basado en tuberías (pipes en inglés), por lo que el porte o la adaptación de aplicaciones UNIX a Internet fue bastante sencilla, al estar la mayoría de los programas en código abierto. Esto permitió que Internet dispusiese de aplicaciones operativas casi desde el primer momento, dándole una ventaja muy significativa sobre otras redes que tardaron mucho más en disponer de aplicaciones.

17

Otro factor factor importante fue la decisión de diseñar IP para ofrecer un servicio de datagrama y de añadir un nivel de transporte que ofrece a las aplicaciones tanto un servicio de datagramas, como un servicio orientado a conexión:

♦ El protocolo TCP ofrece un servicio orientado a conexión ♦ El protocolo UDP ofrece un servicio de datagramas

La utilización de un protocolo de red orientado a conexión, tal y como proponía X.25, no hubiese permitido ofrecer un servicio de datagramas eficaz a nivel de transporte. Su implementación hubiese sido muy ineficaz, porque obliga a establecer un circuito por cada datagrama a enviar. También contribuyó al éxito de Internet la naturaleza extremo a extremo de las aplicaciones de Internet, que residen solamente en los ordenadores de los extremos. Esto facilita y abarata el desarrollo y la puesta a punto de nuevas aplicaciones. La mayoría de las aplicaciones se pudieron desarrollar y probar con uno o dos ordenadores conectados a la red. Internet difiere radicalmente de la red telefónica en lo que a despliegue de nuevas aplicaciones se refiere. Las aplicaciones de la red telefónica se instalan normalmente dentro de la red, necesitando un costoso proceso de puesta a punto e instalación que involucra fundamentalmente a los operadores de la red. Esto facilita el despliegue de nuevos servicios y aplicaciones, porque evita que los usuarios deban realizar las instalaciones, ahorrándoles una gran cantidad de trabajo. Los primeros usuarios de Internet eran en su mayoría expertos informáticos que instalaban las nuevas aplicaciones y servicios sin problemas porque era parte de su actividad investigadora. El crecimiento de Internet ha incorporado una mayoría de usuarios que no tienen conocimientos informáticos, por lo que la facilidad de instalación de una aplicación ha pasado a ser hoy un factor crítico, habiendo aparecido el concepto de “conectar y usar” (Plug & Play en ingles). Todos estos factores convirtieron a Internet en un entorno excelente para experimentar con nuevas aplicaciones y servicios desde el primer momento. Cuando alguna aplicación se hacía popular, se desplegaba rápidamente a toda la red, debido a la facilidad con que los usuarios podían instalarlas.

4.1.1.1 Las primeras aplicaciones y servicios: el modelo cliente-servidor Las aplicaciones de Internet utilizan los protocolos TCP, UDP e IP a través de un interfaz de programación de aplicaciones que recibe el nombre de interfaz de “socket”. “Socket” significa enchufe en inglés y probablemente fue escogido por la similitud con la función que tiene un enchufe para la conexión de aparatos eléctricos a la red. El “socket” normaliza el acceso de las aplicaciones a la red, simplificando enormemente la realización de aplicaciones. TCP y UDP proporcionan servicios de transporte de datos radicalmente diferentes, teniendo cada uno su interfaz de “socket” propio. El protocolo TCP proporciona a la aplicación un servicio de transporte de datos orientado a conexión y fiable. Es un servicio que permite crear circuitos virtuales a través de los cuales dos aplicaciones en dos ordenadores diferentes pueden intercambiar datos entre sí. Los sockets TCP son el mecanismo de comunicación básico del modelo cliente-servidor, utilizado en la mayoría de las aplicaciones de Internet:

1. El cliente permite al usuario acceder a servicios de Internet. Los clientes acceden a los servicios estableciendo un circuito virtual con el

18

servidor que provee dicho servicio. A través de dicha conexión solicitan páginas Web, ficheros, ejecución de aplicaciones en otras maquinas, envío de mensajes, etc.

2. El servidor suministra el servicio a los clientes. Los servidores de aplicaciones poseen una dirección IP y un puerto conocidos a través de los cuales pueden dar servicio a muchos clientes simultáneamente.

Un último factor a resaltar de TCP, es su diseño como un protocolo capaz de adaptarse a situaciones de congestión de forma que tratase de evitar el colapso de la red. TCP introduce algoritmos de colaboración grupal, de forma que cuando detecta situaciones de congestión reduce progresivamente su cadencia de transferencia para ayudar a descongestionar la situación. Este algoritmo consigue que las aplicaciones basadas en TCP sigan funcionando en situaciones de congestión, aunque su tiempo de respuesta se ralentice. Esta característica ha permitido que Internet pudiese dar un servicio lento pero aceptable durante los primeros años en que la red estuvo muy congestionada. El protocolo UDP proporciona a una aplicación un servicio no fiable de envío de datagramas o bloques de datos. Es un servicio que inicialmente se utilizó menos en las aplicaciones debido a que no garantiza la entrega de los datos enviados. Su uso está aumentando actualmente, porque es más adecuado para el envío de señales de audio y vídeo. Como ya hemos comentado, las primeras aplicaciones fueron en muchos casos versiones adaptadas de aplicaciones o servicios que ya existían en los sistemas operativos UNIX, tales como, enviar correos electrónicos de un usuario a otro, copiar ficheros de un directorio a otro, acceso remoto desde terminales, etc. También se desarrollaron algunas aplicaciones que utilizaban las nuevas posibilidades que permitía la red. Así aparecieron servicios tales como:

♦ El servicio DNS (Domain Name System), que permite asignar nombres simbólicos a los ordenadores conectados a Internet y crear los identificadores/localizadores uniformes de servicios o URI/URL (Uniform Resource Identifiers/Locators).

♦ El correo electrónico, conocido como e-mail, soportado por múltiples protocolos tales como, SMTP, POP, IMAP, etc.

♦ La transferencia remota de ficheros, conocida por el nombre del protocolo (FTP - File Transfer Protocol), que se normalizó a tal efecto.

♦ El acceso remoto a un ordenador, que permitía trabajar como un usuario local desde otro ordenador situado en cualquier parte del mundo, conocido también por el nombre del protocolo (TELNET).

♦ El servicio de News que soportaba foros y grupos de discusión abiertos a todas las personas conectadas a la red.

El motor de la expansión de la primera Internet fue fundamentalmente el correo electrónico y también en menor grado la transferencia de ficheros. El correo electrónico facilitó enormemente la comunicación y la colaboración entre personas conectadas a la red. Aunque los primeros correos electrónicos sólo permitían enviar mensajes de texto, pronto se generalizaron para poder adjuntar ficheros, con lo que su utilidad aumentó muy significativamente. El desarrollo de nuevos servicios fue una prioridad desde el primer momento en Internet. La arquitectura extremo a extremo posibilitó la experimentación con nuevas ideas y servicios que maduraron en la década de los noventa. Los nuevos servicios abordaban temas tales como:

♦ Publicación electrónica de información en la red. ♦ Creación de comunidades y grupos de interés en la red. ♦ Automatización de procesos y flujos de trabajo. ♦ Realización de transacciones comerciales a través de la red.

19

♦ Búsqueda y localización de información en la red. ♦ Comunicación síncrona, tal como Chats, IRCs o voz y vídeo sobre IP. ♦ ...

4.1.2 La evolución de las tecnologías de red Otra clave del éxito de Internet parece estar en la capacidad de IP para incorporar nuevas tecnologías de red de forma incremental, permitiendo al mismo tiempo que las aplicaciones existentes sigan funcionando. Esta capacidad de evolución incremental ha permitido la convivencia en un único marco operativo de todo tipo de tecnologías de red. Así Internet empezó utilizando modems punto a punto de entre 1200 b/s y 19200 b/s. Luego incorporó modems más rápidos, diversas redes locales (Ethernet, token bus, Fast Ethernet, Gigabit Ethernet, etc.), enlaces SDH, redes ATM, acceso ADSL o xDSL, etc. IP permite ir añadiendo todas estas nuevas tecnologías de red. Los diseñadores de la arquitectura TCP-UDP/IP tomaron la decisión de diseñar IP para un servicio de datagramas con la misión exclusiva de encaminar paquetes entre los extremos, dejando el control de la comunicación extremo a extremo a los protocolos TCP y UDP. Esta decisión de diseño libera al router de tener que controlar elementos de las aplicaciones. El router sólo debe conmutar paquetes en función de sus tablas de direccionamiento, cuyo tamaño no depende de las aplicaciones de usuario, sino de parámetros dependientes de la topología de la red y de la asignación de direcciones realizada. Las conexiones de usuario se controlan sólo en los extremos, liberando a la red de esta función. Por lo tanto la capacidad de conmutación de un router no depende del número de aplicaciones o comunicaciones de usuario que soporta, sino de su capacidad genérica de conmutación de paquetes. Otras redes, tales como la red telefónica o la red X.25, están o estaban basadas en protocolos orientados a conexión y necesitan controlar el estado de cada conexión en cada uno de los nodos por donde pasa la conexión. Un servicio orientado a conexión necesita establecer la conexión antes de intercambiar datos, pudiendo realizar una reserva previa de recursos que permite una gestión más eficaz, pero que consume recursos en los nodos o conmutadores, haciéndolos más complejos y costosos. Por ejemplo, la central telefónica necesita controlar individualmente el estado de cada una de las conexiones de voz establecidas, además de controlar la conmutación de la voz. Muchas tecnologías de red usadas actualmente en Internet son orientadas a conexión y no de tipo datagrama. Por ejemplo, la conmutación óptica se hace con técnicas de conmutación de circuitos, asimismo ATM (Asynchronous Transfer Mode) o MPLS (Multi Protocol Label Switching), utilizan protocolos orientados a conexión. La reserva de recursos realizada permite optimizar algunas funciones de los protocolos en un entorno donde no existen los problemas de escalabilidad que aparecen en el nivel de red IP. Durante mucho tiempo los expertos estuvieron fuertemente divididos sobre la conveniencia de utilizar servicios de datagrama (sin conexión) o servicios orientados a conexión. La evolución tecnológica parece haber dado la razón a ambos, habiendo seleccionado en cada parte de la red el protocolo que mejor se adapta a las condiciones específicas de cada función. Un protocolo orientado a conexión parece más eficaz para grandes capacidades de conmutación entre grupos de usuarios de tamaño limitado, donde los circuitos virtuales quedan establecidos durante largos periodos de tiempo. En cambio, un protocolo de datagramas parece escalar mejor a grandes poblaciones de usuarios y aplicaciones, debido a que los nodos (routers) no deben controlar el estado de cada una de las conexiones establecidas, siendo su única función enrutar la información de acuerdo a la tabla de encaminamiento.

20

El protocolo IP y la arquitectura de Internet también fueron capaces de crear una estructura jerárquica cuando la red creció y hubo que dar cabida a todas las subredes que iban apareciendo. La nueva estructura jerárquica se basa en la partición de Internet en Sistemas Autónomos (AS – Autonomous Systems) a los que se asigna una nueva dirección de AS. El encaminamiento de paquetes entre sistemas autónomos se realiza con un protocolo de encaminamiento, BGP (Border Gateway Protocol), diferente del utilizado para encaminar paquetes dentro de un sistema autónomo. La Figura 3.2 describe la arquitectura actual de Internet compuesta por sistemas autónomos (AS) y puntos neutros (NAP – Network Access Point). En el primer nivel (Tier 1) están los proveedores de larga distancia, en el segundo nivel (Tier 2) los proveedores nacionales, etc. La asignación de direcciones inicial no tuvo en cuenta esta jerarquía porque todavía no existía. Los routers del núcleo de la red necesitan unas tablas de direccionamiento de gran tamaño para encaminar paquetes IP, debido a que las tablas deben contener todos los rangos de direcciones IP existentes dentro de cada sistema autónomo, que suelen ser muchos y estar dispersos. Si hubiese existido una asignación jerárquica, cada sistema autónomo tendría asignado un único prefijo y el tamaño de las tablas de encaminamiento se reduciría muy significativamente.

Figura 3.2. Jerarquía de Sistemas Autónomos

4.1.3 ISOC, IETF y las reglas que sirvieron para crear Internet El desarrollo de Internet nos permite obtener enseñanzas de gran interés sobre la forma en que se desarrollan actualmente las tecnologías de la información y de las comunicaciones. Probablemente su éxito se deba en gran medida a los métodos de trabajo utilizados por sus desarrolladores, que difieren muy significativamente de los métodos utilizados por los organismos de normalización tradicionales, como por ejemplo, ISO (International Standards Organisation), ITU (Internacional Telecomunication Union), IEEE, etc. El desarrollo de Internet siguió desde sus comienzos unos métodos de trabajo muy participativos, que se recogen en las reglas de funcionamiento de ISOC (Internet Society) [18] cuando se crea en 1986 para coordinar el desarrollo de Internet.

21

ISOC se gobierna por dos comités, IAB e IESG, cuyos miembros son elegidos por las personas afiliadas a ISOC. La asignación de direcciones IP adquiere una importancia muy grande y se delega en otras organizaciones, como ya hemos comentado anteriormente. El trabajo técnico lo realiza la IETF (Internet Engineering Task Force) [5] bajo la supervisión de IAB y IESG. IETF se estructura en grupos de trabajo (WGs), que se rigen por las siguientes normas de funcionamiento:

♦ Libertad de proponer soluciones: los grupos (WGs) se pueden proponer libremente por cualquier miembro. El trabajo de un WG debe abordar problemas técnicos pendientes de solución. La creación de nuevos grupos necesita el visto bueno del IESG.

♦ Funcionamiento abierto y democrático: cualquiera puede participar en los WGs y toda la información manejada por un WG es pública. Los miembros de la todos los comités, IAB, IESG, …, son elegidos por los miembros de ISOC.

♦ Soluciones consensuadas y validadas: las propuestas consensuadas por un WG se publican en RFCs (Requests for Comments). Un RFC debe ser validado en implementaciones reales antes de progresar como norma. Sólo se puede hacer una propuesta de norma (DS – Draft Standard) con un mínimo de dos implementaciones de referencia, realizadas por grupos diferentes y que interoperen.

♦ Competencia y necesidad: las RFCs pueden competir entre sí, dejando a los usuarios la labor de decidir entre propuestas competitivas.

♦ Uso de la red: aunque los grupos de trabajo se reúnen varias veces al año, utilizan la red como herramienta de comunicación permanente. Cada grupo tiene al menos una lista de distribución por donde deben circulan todos los mensajes relacionados con el trabajo del grupo y un repositorio de ficheros donde deben estar todos los documentos que maneja el grupo de trabajo.

Los desarrolladores de Internet también utilizaron algunas prácticas menos explícitas, pero que también contribuyeron significativamente a su éxito:

♦ Software libre: El uso de “software libre”, que aunque no fue un requisito, fue muy utilizado en los desarrollos de software relacionados con Internet. El uso de software libre permitió aglutinar rápidamente grandes grupos de usuarios que realizaban pruebas exhaustivas y proponían mejoras, acelerando los desarrollos.

♦ Uso del formato ASCII: El uso intensivo de texto ASCII, tanto en RFCs, como en las cabeceras y mensajes de la mayoría de los protocolos. Esto facilitaba la portabilidad entre máquinas, así como la depuración y el análisis de protocolos y aplicaciones, evitando costosos equipos de prueba.

♦ Uso del TELNET: El uso de texto ASCII en la mayoría de los formatos de mensaje de los protocolos de Internet permite probar y analizar estos protocolos y aplicaciones utilizando TELNET, el protocolo de emulación de terminal remoto. Los costosos analizadores y emuladores de protocolos que utilizan otras redes no fueron necesarios, abaratándose el desarrollo de nuevos servicios y aplicaciones.

♦ Conectividad extremo a extremo: La naturaleza “extremo a extremo” de las aplicaciones también es otro factor que contribuyó a abaratar el desarrollo y la puesta a punto de aplicaciones, sobre todo desde la aparición del PC. Uno o dos PCs conectados a Internet son suficientes para desarrollar y probar la mayoría de las aplicaciones.

Estas normas de funcionamiento hacen de Internet un sistema en evolución cuyas reglas crearon desde el principio una gran comunidad de usuarios que no sólo se benefició del uso de la red, sino que participó en la selección y prueba de los mejores protocolos y aplicaciones. Esta capacidad de evolución, adaptación e

22

innovación ha sido probablemente decisiva en el éxito de Internet frente a otras propuestas de redes de datos. Hoy en día los intereses comerciales ejercen una enorme presión sobre Internet y han transformado muy significativamente el espíritu inicial. Pero Internet es todavía uno de los entornos más abiertos, manteniendo una enorme vitalidad y capacidad de innovación. IETF sigue siendo un foro abierto donde cualquier investigador puede acudir, aunque le sea difícil competir con los enormes recursos que las grandes empresas de Internet dedican a IETF, mientras que el resto de organizaciones de normalización siguen restringiendo el acceso a representantes de países o empresas que deben desembolsar grandes cantidades de dinero para poder participar. No parece previsible que las reglas que han permitido evolucionar a Internet de una forma tan exitosa vayan a cambiar significativamente en un futuro próximo, por lo que es muy probable que la gran comunidad de empresas, usuarios e investigadores que han creado Internet siga haciendo evolucionar la red en los años futuros y desarrolle el potencial que todavía queda por desarrollar. Estas reglas de funcionamiento también se han utilizado en otros desarrollos de software libre, como por ejemplo en el sistema operativo Linux, que también ha entrado últimamente en una fase similar a Internet debido al interés que ha despertado en los últimos años como alternativa a Windows.

5. Los Noventa: Internet entra en la Encrucijada La década de los noventa se caracteriza por la enorme demanda de conexión de nuevos sistemas, que obligan a Internet a crecer muy por encima del tamaño para el que la red había sido diseñada. Durante esta década Internet deja de ser un servicio para el mundo investigador, transformándose en un servicio comercial para el que tampoco había sido diseñada. Los usuarios de Internet no solo crecen en número, sino también en diversidad, conectándose muchos usuarios sin conocimientos informáticos que demandan una instalación y un uso más sencillo de los nuevos servicios y aplicaciones. Internet se gestó en los años 70 cuando sólo existían ordenadores grandes (Mainframes) y medianos (Minis). Nadie pudo imaginar entonces, la enorme proliferación de ordenadores que iba a provocar la aparición del ordenador personal. Internet pudo crecer por encima de los límites para los que había sido diseñada y salir de esta encrucijada, pero a costa de romper uno de sus principios básicos, la arquitectura extremo a extremo de las aplicaciones. A principios de los noventa se empieza a detectar el agotamiento de las clases A y B, llevando a IANA a introducir un nuevo procedimiento de asignación de direcciones jerárquico y mucho más restrictivo. IETF trabaja en paralelo en la búsqueda de soluciones. La propuesta que realmente ahorra direcciones IP y se impone mayoritariamente, está basada en un nuevo tipo de dispositivo, denominado NAT (Network Address Translators). NAT permite conectar redes enteras a Internet a través de una única dirección IP, utilizando direcciones privadas en el interior. Esta solución permite satisfacer la enorme demanda de conectividad, pero rompe la conectividad extremo a extremo de las aplicaciones. La gran contribución de esta década son las múltiples aplicaciones que aparecen, que no solo crean nuevos servicios, sino que simplifican enormemente el uso de la red. Las nuevas aplicaciones dan un enorme valor añadido y son el auténtico motor del crecimiento. La estrella indiscutible es “The World Wide Web” [4] (abreviadamente Web o WWW), propuesto en 1989 por el investigador británico Tim Berners Lee y considerado el motor principal de la expansión de Internet en los

23

90. De hecho, los tres elementos que componen el Web, URLs, el protocolo HTTP y el lenguaje HTML, se consideran parte integrante de la arquitectura de Internet. Durante este periodo aparecen también otras aplicaciones muy significativas como las aplicaciones multimedia que permiten enviar voz y vídeo sobre IP, aplicaciones de mensajería instantánea, los buscadores de información o incluso aplicaciones que se basan en nuevos paradigmas como el paradigma de comunicación “igual a igual” (P2P - Peer to Peer) o la computación en malla (GRID computing). Son todas estas aplicaciones las que dan a la red su enorme potencial y atractivo. El fuerte crecimiento de Internet, así como la demanda de nuevos servicios y aplicaciones también ha creado nuevos retos y tensiones, por ejemplo:

♦ El control de la seguridad en la arquitectura TCP/IP con conectividad extremo a extremo entre todos los ordenadores de la red, donde cada usuario debe gestionar su propia seguridad.

♦ La dificultad en el cobro del acceso a Internet y sus contenidos por parte de los proveedores de acceso a la red.

♦ La dificultad de conseguir un acceso eficaz al enorme repositorio de información distribuida que empieza a estar accesible en la red, cuya catalogación es imposible por métodos tradicionales.

♦ La escasez de ancho de banda y el control de la congestión que no permiten un acceso ágil a Internet debido a la congestión que produce el enorme crecimiento de la demanda de transferencia de información. La naturaleza del protocolo IP (best-effort) no permite al usuario el control de la calidad del servicio, limitando las prestaciones de ciertas aplicaciones de tiempo real.

Pasemos a analizar todos estos factores, así como su impacto en la evolución de Internet.

5.1 La escasez de direcciones: NAT cambia la arquitectura de Internet El protocolo IP se diseñó imponiendo un límite, que entonces parecía inalcanzable, de aproximadamente 4000 millones de ordenadores en la red. A finales de los ochenta se dispararon las alarmas, porque el tamaño de la red se duplicaba cada año. Las direcciones IP se hubiesen agotado antes de acabar la década si no se hubiesen tomado medidas. La perspectiva de una escasez de direcciones IP que colapsase Internet, creó una gran preocupación y provocó la modificación de los procedimientos de asignación de direcciones, basada hasta entonces en la asignación de bloques de clase A, B y C. La asignación de bloques A, B o C era muy ineficaz. En los comienzos de Internet muchas organizaciones recibieron bloques de clase A o B, que han tenido una utilización real muy baja, en algunos casos menor del 1%. A partir de entonces se introduce CIDR (Classless Inter Domain Routing), también conocido como supernetting. En CIDR se puede asignar un bloque de cualquier tamaño. La asignación de direcciones empieza a realizarse de forma jerárquica, asignándose direcciones solamente a los proveedores de servicios Internet (ISPs), que a su vez deben reasignarlas a los niveles inferiores. La creciente escasez de direcciones provoca fuertes restricciones en las asignaciones de los usuarios finales que no pueden disponer de direcciones IP. También se controla el uso real de las direcciones asignadas, retirando la asignación en caso de no ser usadas en un plazo de tiempo razonable. Además aparecen nuevas técnicas de asignación de direcciones que se extienden rápidamente y que han distorsionado muy significativamente la arquitectura de Internet.

24

La primera técnica es el ya mencionado NAT (Network Address Translator). NAT sólo utiliza una dirección pública IP para conectar una red que puede tener miles de ordenadores y por eso consigue un enorme ahorro de direcciones IP. Un dispositivo NAT recibe las conexiones TCP o los paquetes IP que vienen de la red privada y los reencamina hacia la Internet pública como si fuesen suyos. Los paquetes de respuesta los recibe el dispositivo NAT, que los reencamina hacia el otro extremo de la comunicación dentro la red privada utilizando una tabla de encaminamiento donde figuran todas las comunicaciones en curso. La introducción de NAT obliga a renunciar al paradigma extremo a extremo de las aplicaciones de Internet, que pasan a tener un dispositivo intermediador entre los extremos. Desde dentro de una red privada, es decir desde detrás de un NAT, sólo se puede acceder como cliente a algunos servicios de la Internet pública, como Web o correo electrónico. Los servidores dan servicio a través de una dirección IP y de un puerto, que deben ser públicos. La instalación de servidores detrás de un NAT no es posible, salvo que el dispositivo NAT permita hacer traducciones permanentes de direcciones y puertos públicos a las que realmente posee el servidor en el dominio privado. Muchas de las aplicaciones que se desarrollan durante esta década no pueden desplegarse de forma generalizada debido a las dificultades que crean los dispositivos NAT.

Figura 4.1. Dispositivos NAT crean dominios de direccionamiento privado Además de NAT, aparecen protocolos de asignación dinámica de direcciones, que aunque en menor medida que NAT, también han permitido ahorrar direcciones. Los dos protocolos de asignación dinámica de direcciones más utilizados son: el protocolo DHCP (Dynamic Host Configuration Protocol) que asigna direcciones temporales a un ordenador en entornos de red de área local y el protocolo PPP (Point to Point Protocol) muy utilizado en el acceso a Internet a través de MODEM telefónico que también realiza asignación dinámica de direcciones. En paralelo con la introducción de las soluciones anteriores, que sólo paliaban el problema, se formaron grupos de trabajo en la IETF con el objetivo de buscar soluciones más duraderas, basadas en buscar alternativas al protocolo IP. Estos grupos convergieron en una única propuesta publicada en 1998, que se conoce como IPv6 (IP versión 6) [14], para diferenciarla de la versión de IP actual, conocida como IPv4 (IP versión 4). La aplicación de todas estas técnicas, especialmente de CIDR y de NAT, ha reducido muy significativamente las necesidades de direcciones IP. El coste

25

pagado ha sido la introducción masiva de dispositivos NAT en Internet, tal y como se muestra en la Figura 4.2. La Internet actual se compone de muchas redes con direcciones privadas, desde donde es posible acceder a los servicios internos de la red privada y a los servidores de la Internet pública. Los dispositivos NAT realizan una función de intermediación que rompe el principio “extremo a extremo” (Figura 4.2) con el que surgió Internet, por lo que los ordenadores que están dentro de la una red privada no son accesibles desde el exterior. Esta rotura del principio “extremo a extremo” está dificultando el despliegue de nuevas aplicaciones y servicios, tales como IPsec, Voz sobre IP, P2P o GRID que no pueden operar a través de NAT o necesitan una mayor complejidad arquitectónica para poder hacerlo.

Figura 4.2. Impacto de un dispositivo NAT en la conectividad “extremo a extremo” Solo las organizaciones que recibieron asignaciones antes de la introducción de CIDR tienen direcciones públicas en abundancia y las utilizan profusamente. Las demás organizaciones tienen escasez de direcciones públicas y suelen utilizar direcciones privadas a través de dispositivos NAT. Un problema significativo de la Internet actual es la enorme dispersión del espacio de direcciones que provoca un crecimiento constante del tamaño de las tablas de encaminamiento de los routers troncales de Internet. En el año 2000 estos routers necesitaron aumentar su capacidad de proceso en más de un 50%. Los nuevos servicios también pueden ser un motor importante para el despliegue de IPv6. Por ejemplo, los servicios multimedia en UMTS que deben usar IPv6 de acuerdo a las actuales recomendaciones. Por último, debemos resaltar que las reglas de asignación actuales imposibilitan el despliegue de Internet en el tercer mundo. Actualmente hay muchos países que tienen muy pocas direcciones públicas asignadas y nunca van a conseguir las suficientes. Países como China o la India tienen menos direcciones asignadas que algunas universidades norteamericanas. Un caso muy ilustrativo de la situación actual es la iniciativa de la Universidad de Stanford [25] en California para liberar las direcciones no utilizadas. Stanford decidió devolver su bloque de direcciones “Clase A” hacia finales de los noventa para ayudar a solucionar el problema de la escasez de direcciones. Un bloque “Clase A” tiene 16 millones de direcciones, de las cuales la universidad sólo utilizaba unas 56000, es decir, el 0,4% de las direcciones asignadas. La universidad tardó 2 años de trabajo intensivo en reconfigurar toda su red. Otras universidades norteamericanas también poseen asignaciones de “Clase A”, pero después de ver el enorme esfuerzo que supuso la reconfiguración en Stanford decidieron esperar a que se realice la transición a IPv6 para reorganizar sus direcciones.

26

Los datos facilitados por Brian Carpenter, presidente de IAB (Internet Architectural Board de ISOC) y responsable del programa de IBM sobre normas y tecnología de red, también son muy ilustrativos. Según sus palabras [25] actualmente hay 2000 millones de direcciones asignadas (la mitad del espacio disponible), pero sólo se están utilizando realmente unos 69 millones. Carpenter estima que IPv4 sólo permitirá llegar a un máximo de unos 160 millones de interfaces IP realmente conectados a Internet. Racionalizar el uso del espacio de direcciones es muy costoso y cada vez más organizaciones están analizando las implicaciones de migrar a IPv6. IPv6 está considerado actualmente de forma prácticamente unánime como la única forma de solucionar los problemas de crecimiento a largo plazo de Internet y la discusión se centra actualmente en cuándo se debe hacer la transición. Desde el punto de vista de productos, IPv6 es ya una realidad comercial. Prácticamente todos los fabricantes de routers, así como los de sistemas operativos, soportan IPv6. Incluso los proveedores de Internet (ISPs), que han sido los más reticentes, están empezando a dar servicios precomerciales.

5.2 La explosión de las aplicaciones Las aplicaciones son las grandes protagonistas de la década de los noventa. Las nuevas aplicaciones simplifican enormemente el uso de los servicios y facilitan el acceso a Internet de usuarios sin conocimientos informáticos. La gran estrella de las aplicaciones debido a su simplicidad de uso es el Web. Pero existen muchas otras que no alcanzan el mismo impacto, pero que también juegan un papel importante. Tratar de catalogar todas las aplicaciones existentes es prácticamente imposible, por lo que se ha optado por incluir sólo las aplicaciones o grupos de aplicaciones más representativas. Por ejemplo, no se han incluido las aplicaciones de uso restringido en entornos corporativos o privados. En primer lugar se han incluido las aplicaciones de soporte a la colaboración, grupos y comunidades porque fueron las primeras que aparecieron y soportan uno de los objetivos fundamentales de Internet: facilitar la colaboración de grupos dispersos geográficamente. Después se analiza el Web, diferenciándose el primer Web que permite publicar información en la red, del Web interactivo que permite acceso remoto a aplicaciones y bases de datos. También se analiza el problema que plantea la gestión de toda la información y el conocimiento que se está acumulando en la red. Por último se incluye la arquitectura de servicios multimedia de Internet, diseñada para soportar una nueva generación de servicios de audio y video.

5.2.1 Colaboración, grupos y comunidades en la red: “Groupware”, P2P, GRID, etc. Internet es una herramienta de comunicación muy eficaz, que se utilizó desde el primer momento para soportar la comunicación en grupos de personas dispersas geográficamente. La primera Internet fue ya una formidable herramienta de colaboración que aceleró muy notablemente el trabajo en equipo. El desarrollo de los protocolos de Internet a través de los grupos de trabajo de IETF es uno de los mejores ejemplos de colaboración a través de la red. La coordinación de los comités y de los grupos de trabajo se ha soportado desde los primeros momentos con dos herramientas de gran eficacia, que todavía se utilizan hoy profusamente:

• La lista de distribución de correo electrónico de un grupo, que permite distribuir correos electrónicos a todos los miembros del grupo.

27

• El repositorio de documentos del grupo, donde se almacenan todos los documentos de trabajo. Este repositorio ha sido tradicionalmente un servidor FTP donde los miembros pueden cargar y descargar documentos electrónicos a través de la red. Hoy en día los servidores FTP tienden a ser sustituidos por aplicaciones interactivas Web que dan soporte integrado a las necesidades de colaboración y comunicación.

Otro servicio que tuvo un enorme auge en los primeros años de Internet fue un servicio de foros y grupos de discusión denominado News. Las News eran un servicio global donde cualquiera podía participar, que funcionó muy bien mientras los grupos de usuarios eran pequeños y homogéneos. Cuando Internet creció el servicio se hizo inmanejable y cayó en desuso. En su lugar aparecieron servicios de creación de comunidades más cerrados que permiten comunicarse a grupos de personas con un interés común. Hoy en día se han incluido funciones similares en muchos portales de Internet, pero donde los gestores de los grupos pueden decidir quién puede acceder y quién no. Por ejemplo, está el servicio de grupos de YAHOO o los servicios que ofrece el Messenger de Microsoft asociados a MSN. El trabajo y la colaboración a través de la red ha creado un nuevo tipo de tecnologías destinadas a soportar la colaboración que reciben el nombre de “groupware”. Estas tecnologías automatizan de forma eficaz actividades tales como: uso de repositorios de documentos compartidos, gestión de flujos de trabajo e información, notificaciones al grupo, foros de discusión diferidos e interactivos, votaciones electrónicas, reuniones a través de la red con videoconferencia, gestión de agendas compartidas, etc. Hoy en día la mayoría de los portales, tanto corporativos como públicos, soportan la creación de servicios para grupos y comunidades. También debemos mencionar los servicios interactivos o síncronos, que permiten colaborar a un grupo de personas en tiempo real a través de la red. El servicio más antiguo de este tipo es el chat, que permite intercambiar mensajes de texto de forma interactiva a un grupo de personas. Una variante más actual es la mensajería instantánea, que enriquece el chat con detección de presencia que indica cuando un usuario está accesible en la red. La mensajería instantánea ofrece habitualmente la posibilidad de intercambio de gráficos y ficheros en tiempo real. También podemos incluir dentro de este apartado las aplicaciones de colaboración multipunto, que como la aplicación Isabel [37], permiten que los usuarios conectados interaccionen como si estuviesen reunidos, pudiendo hablar entre sí, verse, además de compartir aplicaciones, presentaciones u otras informaciones. La transmisión de audio y vídeo utiliza la arquitectura de servicios multimedia de Internet que veremos más adelante [23]. Últimamente han surgido dos modelos de aplicación alternativos a la estructura cliente-servidor tradicional, que despiertan un gran interés. Son el modelo de “igual a igual” (P2P - Peer to Peer) y la computación en red, también conocida como GRID. Ambos modelos son de reciente aparición y tienen gran parte de su potencial por desarrollar. Se han incluido en este apartado por su enorme capacidad para crear grupos y comunidades. Las aplicaciones P2P han surgido para dar soporte a comunidades de usuarios que comparten ficheros a través de la red. El primero fue NAPSTER [29]. NAPSTER mostró el potencial del modelo P2P, aglutinando rápidamente una gran comunidad de usuarios que intercambiaban libremente música y canciones en formato MP3. La dudosa legalidad de los intercambios ha llevado a NAPSTER a juicio con las casas discográficas. Su éxito ha llevado al desarrollo de nuevos servicios y aplicaciones [28] tales como Freenet, Gnutella, Kazaa, Groove, eDonkey, etc. P2P explota las ventajas económicas del almacenamiento distribuido. Hoy en día los discos duros de los PCs son muy baratos y tienen una gran capacidad de almacenamiento. Crear un gran repositorio distribuido utilizando P2P es mucho

28

más barato y fácil de gestionar, que centralizar todo el almacenamiento en un gran servidor. En el modelo P2P todos los componentes de una aplicación pasan a ser “iguales”. Los “iguales” (peers) pueden actuar como clientes o como servidores, según requiera la aplicación. Los servicios P2P existentes suelen incluir algún tipo de servidor central, que actúa como punto de acceso al servicio y pone en contacto entre sí a los “iguales”, debido a la falta de conectividad “extremo a extremo”. “GRID computing” [35], que podríamos traducir como computación en malla, es también otro paradigma grupal. Las aplicaciones GRID utilizan la red como el bus de un gran multi-computador de ámbito planetario donde ordenadores conectados a través de Internet se distribuyan tareas de gran complejidad de cálculo. GRID ha explotado hasta ahora las ventajas económicas del cálculo distribuido. Un gran supercomputador es mucho más caro que un grupo de PCs de potencia equivalente. Hoy en día los microprocesadores son muy baratos y tienen una enorme potencia, además están la mayor parte de su tiempo en estado de espera. GRID utiliza la potencia de cálculo no aprovechada de los PCs existentes para resolver problemas de gran complejidad. SETI@home [26] es quizá el ejemplo más exitoso y conocido, habiendo conseguido unir 3,3 millones de PCs, con una capacidad de cálculo equivalente a 31 Teraflops/s, que tratan de descifrar señales extraterrestres. La computación GRID está considerada como uno de los grandes retos para el futuro de la red y la comunidad investigadora se ha integrado actualmente en torno al Global GRID Forum [27]. Estos son ejemplos de algunos de los servicios de comunidades y grupos que se han desarrollado en Internet durante los últimos años. Este tipo de aplicaciones tienen un enorme potencial y su desarrollo parece que no ha hecho más que comenzar.

5.2.2 El primer Web: publicación de documentos en la red La propuesta en 1989 del Web [4] por el investigador británico Tim Berners-Lee tiene un enorme impacto en la evolución de Internet. Tim Berners-Lee propone el Web durante su estancia en el CERN, el gran laboratorio europeo de física de altas energías, para coordinar experimentos científicos en el mundo de la física de altas energías, aunque su autor era consciente del potencial de su propuesta en muchos otros ámbitos de Internet. Tim Berners-Lee concibió el Web como un vehículo de comunicación universal a través de Internet. La propuesta inicial de Web define un interfaz abierto muy eficaz para la publicación de documentos en la red, de forma que estén accesibles instantáneamente para cualquier otro usuario. Cada documento puede además enlazar otros documentos en la red utilizando hiperenlaces. El Web es el mejor ejemplo del enorme potencial de los interfaces abiertos, porque las ideas en que se basa ya se habían desarrollado en entornos cerrados o propietarios, pero es sólo cuando estos servicios se trasladan a un entorno abierto cuando se despliegan de forma masiva. Su creador, Tim Berners-Lee define el Web como un universo de mundos de información interconectados, donde cada página Web es el centro de uno de esos mundos. El autor de una página es el dueño y gestor del mundo que describe, decidiendo qué información quiere compartir con el resto de la red y con qué páginas quiere enlazar. El Web permite crear a cada usuario de la red el mismo modelo de relaciones que existe en la vida real, donde existe información privada, información compartida sólo con ciertos grupos e información pública, y donde los hiperenlaces definen las relaciones de cada uno de estos ámbitos de información con el resto del mundo. Web significa en inglés telaraña,

29

probablemente porque fue el mejor símil que Tim Berners-Lee encontró para representar esta enorme malla de enlaces entre páginas de información. Las características a las que el Web debe probablemente su éxito son:

1. Es un interfaz abierto que permite interconectar a todos los usuarios de la red.

2. La simplicidad de uso que permite navegar por toda la red haciendo uso sólo del ratón y ocasionalmente de un teclado.

3. La facilidad de instalación de servidores Web que pueden ser gestionados incluso por personas sin grandes conocimientos técnicos.

4. La naturaleza descentralizada, donde el autor de cada página decide qué información publicar y con quién enlazarla.

Desde el punto de vista técnico, el servicio Web tiene la estructura cliente-servidor típica de los servicios de Internet. El cliente que permite a un usuario solicitar un documento Web se denomina visor o navegador Web (“browser” en inglés) y envía peticiones de documentos Web al servidor con el protocolo HTTP. El servidor contesta enviando el documento Web solicitado en formato HTML, que el visor presenta al usuario correctamente formateado. La arquitectura de una aplicación Web se basa en estos tres elementos:

♦ El protocolo HTTP (Hyper Text Transfer Protocol) para transferir documentos Web del servidor al cliente.

♦ El lenguaje HTML (Hyper Text Mark-up Language) de representación de documentos Web, que incluye además del texto las reglas de formato y presentación visual.

♦ El URL (Uniform, Resource Locator) para referenciar unívocamente documentos Web en la red.

El elemento de mayor complejidad del servicio Web es el cliente, que debe interpretar y presentar al usuario de forma legible la información que recibe de los servidores. Pero como el cliente es el mismo para todos los usuarios, el diseño de un nuevo servicio sólo necesita crear nuevos servidores. Esto convierte el visor Web en el elemento de mayor importancia estratégica para controlar el acceso de los usuarios a Internet. Los servidores Web son de mayor simplicidad que los clientes ya que su función consiste en devolver páginas Web (ficheros) a los clientes que las solicitan. El gran interés despertado por el Web en el mundo empresarial y la rápida popularidad alcanzada, llevó en octubre de 1994 a la creación del WWW Consortium [12], conocido abreviadamente como W3C. Su objetivo fue, y sigue siendo, garantizar el desarrollo del Web como un vehículo de comunicación universal. Tanto Tim Berners-Lee, como una gran comunidad de miembros, velan por el mantenimiento del W3C como una organización neutra e independiente de los fabricantes, que trata de producir las normas que rigen el Web al ritmo que demanda la evolución de la tecnología actual. La estructura y forma de funcionamiento es diferente de ISOC, porque sólo pueden acceder organizaciones que deben afiliarse y pagar una cuota, pero su funcionamiento es muy abierto y ágil. El enorme impacto del Web ha hecho del W3C un foro de gran importancia, siendo junto con IETF, las asociaciones que mayor influencia ejercen en la evolución de Internet.

5.2.3 Servicios Web interactivos: acceso remoto a aplicaciones El servicio Web ha evolucionado desde sus comienzos, habiéndose transformado en un servicio de acceso remoto a aplicaciones que se ejecutan en servidores accesibles a través de Internet. Esta forma de acceso se popularizó muy rápidamente, porque permitió dar acceso a través de una Intranet corporativa o a

30

través de la Internet pública a las aplicaciones corporativas propietarias que existían antes de la popularización de Internet. El acceso a documentos Web es sólo uno de los usos posibles del Web actual. Los nuevos servicios Web se denominan interactivos y permiten crear tiendas electrónicas, servicios de acceso a bases de datos y repositorios de información, buscadores de información, de soporte a la educación, de administración electrónica, etc. La simplicidad de uso del Web unido a su capacidad de interacción con aplicaciones remotas ha llevado a utilizarlo para unificar el acceso a muchos otros servicios, utilizando pasarelas de Web a correo electrónico, a grupos de discusión y de noticias, a soporte a flujos de trabajo, transferencia de ficheros, etc. Hoy en día el acceso Web se ha convertido en parte de la arquitectura de Internet, debido a que es utilizado por la mayoría de las aplicaciones, aunque sólo sea como interfaz de acceso. Gran parte de los desarrollos de nuevos lenguajes de programación o de nuevos entornos de desarrollo de aplicaciones aparecidos durante los noventa han tenido como objetivo facilitar la programación de servicios Web interactivos, por ejemplo Java, Javascript, PHP, Perl, Pyton, Exchange, .COM, .NET, C#, etc. Como el navegador es el punto de acceso a la mayoría de los servicios de Internet, su control se convirtió desde el principio en uno de los objetivos más codiciados por las empresas de Internet. La primera gran batalla por el control del acceso a Internet se centró en el control del navegador de acceso a Web. Netscape fue la primera empresa que vislumbró la importancia del Web y desarrolló a principios de los noventa el primer visor de calidad, a partir del navegador "Mosaic", que fue el primero en incorporar gráficos. El nuevo navegador pasó a denominarse Netscape Navigator, luego Netscape Communicator, diseminándose masivamente entre los usuarios de Internet. Alcanzó cifras de penetración del 80 y 90 por ciento. El control del visor aseguraba a Netscape el control del acceso a Internet, convirtiéndose en una de las empresas que mayor interés despertó a mediados de los noventa. Durante algunos años se pensó que nadie sería capaz de desplazar a Netscape de su posición de dominio. Microsoft tardó bastante en descubrir la importancia que Internet, y especialmente el Web, iban a tener en el mundo de las aplicaciones. Pero cuando comprendió la importancia estratégica que suponía controlar el acceso a Web, concentró grandes recursos en el desarrollo de su navegador "Explorer", entablándose una fortísima batalla entre ambas empresas [11]. Finalmente Microsoft consiguió imponer "Explorer" a la mayoría de los usuarios de Internet hacia finales de los noventa, gracias a su distribución gratuita junto con el sistema operativo Windows. En este momento, el Web se halla en proceso de redefinición dentro del W3C. HTML es un lenguaje que ha cumplido muy bien su función como lenguaje de publicación de documentos en la red, pero no sirve como formato unificado de representación de datos en Internet, ni soporta adecuadamente la creación de los nuevos servicios que la red esta demandando. El proceso de redefinición empezó a finales de los noventa y se va realizando de forma incremental en el marco del W3C. La nueva arquitectura Web se construye sobre XML (eXtensible Markup Language) [12], que gracias a su extensibilidad permite ir creando paso a paso todos los componentes de la nueva arquitectura. El objetivo perseguido por el nuevo Web es seguir soportando la publicación de documentos y aplicaciones, pero permitiendo también la cooperación entre aplicaciones a través de Internet, que ahora no es posible. Además deberá incorporar capacidades multimedia y calidad tipográfica en la información publicada, junto con meta-datos semánticos que permitan buscar y clasificar la información en la red de una forma mucho más efectiva, tal y como se describe en el próximo capitulo.

31

5.2.4 Búsqueda de información y conocimiento: la enciclopedia en la red La sencillez de instalación de los servidores Web, así como la naturaleza descentralizada del servicio, produjo desde el primer momento un crecimiento enorme de la información disponible en la red, cuya catalogación es imposible siguiendo métodos tradicionales. La búsqueda de información y datos, o incluso el aprovechamiento de todo el conocimiento que existe en la red se ha convertido en uno de los objetivos principales de los desarrolladores de nuevas aplicaciones, que tratan de adaptar a Internet técnicas de minería de datos, búsqueda de información o gestión del conocimiento. El máximo avance en este área se ha dado con los robots buscadores de información encargados de catalogar toda la información disponible en la red. Los buscadores recorren continuamente la red catalogando en una base de datos todas las páginas encontradas. La base de datos puede ser consultada por cualquier usuario, permitiéndole encontrar en pocos segundos informaciones imposibles de encontrar por otros procedimientos. Yahoo [19] fue el primer buscador. Rápidamente fue seguido por otros tales como, Altavista, Lycos, Excite, etc. Pero ha sido “Google” [13], el último en aparecer, el que ha revolucionado la búsqueda de información en Internet debido a su extraordinaria eficacia. Google ha desplazado a los demás buscadores y se ha convertido en el buscador preferido de los usuarios. La eficacia de Google es tal que está creando una auténtica revolución en la gestión y almacenamiento de la información. Hay expertos que empiezan a considerar que la información sólo hay que producirla y ponerla disponible públicamente en el Web o en alguna red privada. Un buscador de la eficacia de Google localizará casi de forma instantánea cualquier información que necesitemos. Las enciclopedias tradicionales no pueden competir con la información en la red debido a la lentitud que su actualización conlleva. La búsqueda y producción de información y conocimiento es una tarea de capital importancia en la sociedad de la información, por lo que la publicación en la red y la búsqueda automatizada sustituyen cada vez más a los métodos tradicionales. El éxito de Google se debe en gran medida a su política de centrarse en la eficacia del proceso de búsqueda sin ningún tipo de condicionamiento basado en acuerdos económicos con los potenciales beneficiarios. Pero, este éxito ha situado a Google en una situación enormemente delicada porque sus algoritmos de búsqueda deciden el éxito o el fracaso de muchas empresas, que dependen de la forma en que Google ordene las informaciones que presenta a los usuarios. La mayor parte de la información que existe en la red sólo está accesible en formato HTML, siendo su análisis y catalogación muy difícil. Google sólo permite encontrar la información, pero el análisis o la integración automática de la información HTML encontrada no es posible. El uso eficiente de toda la información y el conocimiento que existe en la red, probablemente no sea posible hasta que el Web semántico se desarrolle y sea posible procesar la información existente en la red utilizando algoritmos que puedan analizar la información encontrada. También empieza a despuntar otra tendencia, denominada “open content” (contenido libre o abierto), que pretende dar una alternativa a la producción de contenidos tradicional basada en los derechos de autor. La producción de información, contenidos y conocimientos podría acelerarse mucho si se hiciese de forma libre y en colaboración a través de la red. El proceso sería muy similar al ocurrido en el mundo del software, donde la producción basada en derechos de propiedad con licencias de uso no ha podido competir en muchos casos con desarrollos basados en grupos de desarrolladores que colaboran a través de Internet en un proyecto de producción de software libre.

32

5.2.5 Voz y Vídeo sobre IP. Durante la década de los noventa maduran también las tecnologías de codificación digital. Primero la codificación de audio y hacia el final de la década la codificación de vídeo, integrándose los codificadores digitales de audio y video como periféricos habituales, incluso en PCs de bajo coste. En paralelo IETF desarrolla la arquitectura de servicios multimedia de Internet, que utiliza los protocolos RTP/RTCP [2] para enviar flujos de audio y de vídeo a través de Internet utilizando el protocolo de transporte UDP. Esto lleva al desarrollo de aplicaciones de telefonía y de videoconferencia IP que permiten realizar llamadas a un coste inferior al de la red telefónica, aunque con una calidad que depende del estado de congestión de la red. Por ejemplo aplicaciones como NetMeeting de Microsoft u otros videotelefónos permiten realizar llamadas de larga distancia, que tienen una calidad excelente cuando la red no está congestionada. Aunque la tecnología básica para envío de voz y vídeo en formato digital a través de Internet ha alcanzado una madurez notable, a finales de los noventa todavía hay carencias y factores que frenan el uso de Internet para la transmisión de voz y vídeo. Los mas importantes son:

♦ La incapacidad de garantizar una calidad de servicio en la transmisión, de forma que la voz y el vídeo lleguen sin cortes ni interrupciones en condiciones de congestión de la red.

♦ La dificultad de aplicar los modelos de negocio de telefonía de voz, al no ser fácil diferenciar las llamadas locales de las interurbanas o de larga distancia.

♦ La falta de mecanismos de señalización que permitan reproducir en Internet los servicios actuales de la red telefónica, tales como: red inteligente, Centrex, PABX, etc.

♦ La falta de conectividad extremo a extremo debida a la falta de direcciones IP.

♦ El mayor coste de los terminales telefónicos con conexión directa a Internet.

♦ La incapacidad de realizar una difusión eficaz de señales de audio y video a grandes audiencias, debido a la falta de protocolos de multicast en las redes comerciales.

La desviación del tráfico de voz de la red telefónica actual hacia Internet reduciría la facturación de los operadores de telefonía muy significativamente, desincentivando el desarrollo de servicios de voz a través de Internet en dichas operadoras. Por ejemplo un acceso ADSL o cable con tarifa plana permitiría hacer llamadas de duración ilimitada a cualquier parte del mundo, sin coste adicional para el usuario. Hoy en día sólo se han desarrollado de forma significativa, aunque no masiva, los servicios de “streaming” (flujos), que permiten difundir audio y vídeo a través de Internet. La radio por Internet es hoy una realidad existiendo bastantes emisoras que realizan emisiones de radio a través de la red. También se realizan de forma más esporádica emisiones de vídeo, aunque necesitan un mayor ancho de banda, especialmente para vídeos de buena calidad. También han aparecido servidores de video “streaming” que permiten servir a múltiples usuarios video bajo demanda. Las técnicas de “streaming” sirven para la difusión de señales porque los protocolos utilizados para garantizar calidad de audio y vídeo recibido introducen retardos muy altos. Los fuertes retardos introducidos no permiten conversaciones telefónicas o videoconferencias interactivas.

33

La señalización es el mecanismo utilizado en las redes de telefonía para establecer los circuitos de voz o video entre los terminales de usuario. Los protocolos de señalización negocian con la red y los terminales las características del circuito a establecer, para pasar a establecerlo una vez que todos están de acuerdo. Las redes telefónicas no podrían crear la mayoría de los servicios que tienen sin unos protocolos de señalización adecuados. La introducción masiva de servicios de audio y vídeo a través de Internet no parece posible sin utilizar técnicas de señalización sobre IP que posean una funcionalidad similar a la señalización telefónica actual. IETF está desarrollando en estos momentos una familia de protocolos de señalización basados en los protocolos SIP/SDP [2]. Al acabar la década gran parte de los protocolos de la arquitectura de servicios multimedia de Internet están todavía en vías de desarrollo.

5.3 El difícil control de la seguridad: Los cortafuegos compartimentan la red Los diseñadores y los primeros usuarios de Internet, que en muchos casos eran las mismas personas, pusieron todo su énfasis en hacer de Internet un foro abierto donde poder experimentar, comunicarse y colaborar. Aunque la seguridad fue una preocupación importante de los diseñadores de Internet, y en IAB existió desde sus comienzos en 1983 un grupo de trabajo en seguridad, los grandes problemas de seguridad no aparecen hasta el uso masivo de Internet durante los 90. Es en estos años cuando comienza el comercio electrónico, cuando las redes corporativas se conectan a Internet y cuando la red se convierte en un vehículo de propaganda y diseminación de información global. Estos cambios hacen que la comunidad de usuarios se haga cada vez más heterogénea y que las reglas establecidas por el “Internet Code of Conduct” dejen de ser eficaces. La nueva situación y los grandes intereses económicos que afloran en la red llevan a la necesidad de cambiar la política de seguridad en base a nuevas soluciones para proteger a los usuarios de forma efectiva. A medida que pasa el tiempo aparecen diversas soluciones a los problemas de seguridad. Por ejemplo:

♦ PGP (Pretty Good Privacy). Protocolo que permite autenticar usuarios y cifrar mensajes. Generó muchas expectativas, pero su uso ha decaído, probablemente debido, tanto a la persecución que sufrió por el Gobierno de EEUU, como a la falta de infraestructuras de autenticación efectiva de usuarios.

♦ SSH y SCP. Protocolos seguros y muy utilizados de terminal remoto y de copia de ficheros.

♦ SSL/TLS y HTTPS. Protocolo de seguridad para transacciones Web que permite cifrar toda la información intercambiada en una transacción. La simplicidad de su instalación ha propiciado un uso masivo. La seguridad que introduce no es muy alta con las claves de 40 bits utilizadas habitualmente, pero se considera suficiente para aplicaciones de comercio electrónico.

♦ Cortafuegos (Firewalls). Es el dispositivo de seguridad más ampliamente difundido en la red. Permite aislar una subred del resto de Internet limitando los accesos indeseados desde el exterior.

♦ IPsec. Protocolo que permite autenticar extremos y cifrar la información a nivel de paquetes IP. Se considera la solución más eficaz para introducir seguridad en Internet aunque su despliegue masivo requiere crear un marco de seguridad que todavía está por hacer. En el siguiente capítulo analizamos en detalle las implicaciones del despliegue masivo de IPsec.

El cortafuegos (firewall en inglés) es un dispositivo de seguridad que ha tenido un fuerte impacto en la arquitectura de la red y por eso vamos a analizarlo con

34

mayor detalle. El cortafuegos es el punto de interconexión de la red de una organización, denominada Intranet, con la Internet pública. Su misión es proteger la Intranet de los peligros que acechan en la Internet pública, tales como virus, hackers, gusanos, espías, etc. La Internet actual está formada por muchas Intranets que se conectan entre sí a través de la Internet pública, tal y como se representa en la Figura 4.3. El control de la seguridad dentro de la Intranet de la mayoría de las organizaciones se realiza en base a garantizar que el grupo que usa la Intranet realizará un buen uso de la misma. En la red corporativa, la empresa sólo deja acceder a sus empleados, presuponiendo que van a hacer un uso “correcto” de la red, debido al contrato que les une con la empresa. Internet era en sus comienzos algo muy parecido a una gran Intranet, que utilizaban casi exclusivamente los miembros de la comunidad investigadora y académica siguiendo mayoritariamente unas reglas de buen comportamiento, que garantizaban un uso correcto y eficaz de la red.

Figura 4.3. Los cortafuegos aíslan Intranets de Internet Existen diversos tipos de cortafuegos. Habitualmente son filtros de paquetes, de nivel 2 o 3, que analizan todos los paquetes que se intercambian entre Internet y la Intranet, dejando pasar sólo los que los gestores de seguridad permiten en la política de seguridad de la organización. También existen cortafuegos basados en pasarelas de nivel 4 o de aplicación. En una Intranet se establecen habitualmente varios niveles de acceso para garantizar la seguridad. Los tres niveles habituales son:

♦ Accesos internos. Son los accesos de usuarios de la Intranet a servicios internos, que normalmente tienen pocas restricciones.

♦ Accesos desde el exterior. Son los accesos de usuarios desde la Internet pública a los servicios dentro de la Intranet. Habitualmente estos accesos están prohibidos.

♦ Accesos al exterior. Son los accesos de usuarios de la Intranet a servicios de la Internet pública. Normalmente se da acceso solamente a un conjunto limitado de servicios, tales como Web o correo electrónico.

35

Figura 4.4. Impacto de un cortafuegos en la conectividad “extremo a extremo”

La mayoría de los cortafuegos son de tipo filtro de paquetes y no rompen la conectividad extremo a extremo. Los servicios permitidos tienen conectividad extremo a extremo, mientras que los servicios no permitidos simplemente no tienen conectividad. La función de estos cortafuegos es solamente evitar el uso de aplicaciones que la política de seguridad establecida no permite. En cambio, los cortafuegos de tipo pasarela sí rompen la conectividad extremo a extremo.

5.4 Los modelos de negocio de Internet. Muy pocos fueron capaces de predecir el enorme impacto que Internet iba a tener. Por eso la evolución de Internet ha sido controlada en muchos casos por pequeñas empresas que apostaron en el momento adecuado por Internet y crecieron después vertiginosamente hasta convertirse en pocos años en enormes multinacionales. El caso de la empresa CISCO es paradigmático en este sentido. Internet ha generado grandes volúmenes de negocio para los productores de los equipos y las aplicaciones necesarios para desplegar la red, los servicios, los servidores y los portales. Las empresas relacionadas con este sector se han convertido en muchos casos en líderes del mercado, por ejemplo CISCO, SUN Microsystems, Oracle, Microsoft, etc. Los servicios asociados a Internet también han generado un volumen considerable de negocio. Otro componente de negocio importante de las empresas de Internet es la venta a través de la red. Este modelo de negocio generó excesivas expectativas y fue una de las principales causas de la burbuja especulativa de la nueva economía a finales de los noventa. Muchas empresas de la nueva economía se crearon con inversiones de tipo especulativo sin tener un modelo de negocio real y no fueron capaces de sobrevivir a la crisis de finales de los noventa. En cambio se están consolidando empresas que se crearon con modelos de negocio basados en ingresos por ventas, servicios, publicidad, etc. Como modelo de negocio original y exitoso que muestra las oportunidades que da la red, podemos poner el utilizado por el buscador Google. Google [13] se especializó desde el momento de su creación en ser un buscador eficaz, evitando cualquier compromiso que comprometiese este objetivo, tal como publicidad, acuerdos con proveedores de contenidos para dar preferencia en las búsquedas, etc. Así despreciaron las fuentes de ingreso que habitualmente financian otros buscadores, pero a cambio consiguieron un buscador de gran eficacia y enormemente exitoso que tiene como principales fuentes de ingreso la venta de servicios y la venta de software para entornos corporativos. En cambio, Internet ha generado menor volumen de negocio, sobre todo en Europa, a las operadoras que dan servicio de acceso a Internet, denominadas ISPs (Internet Service Providers). Un ISP da acceso a sus usuarios normalmente a través de un “portal” de acceso a la red. Un portal unifica el punto de acceso a

36

Internet y permite crear una economía de escala mayor al concentrar diversas fuentes de ingreso, tales como cuotas de acceso, cobro de servicios, publicidad, etc. Internet no se diseñó como una red comercial, sino que fue diseñada por investigadores, que muy habitualmente eran también usuarios de la red. La red se creó durante los ochenta siguiendo un principio de asociación voluntaria, donde cada organización ponía los recursos necesarios para conectarse, sin que nadie estuviera encargado de dar el servicio comercialmente. Había organizaciones que operaban los nodos centrales de la red por motivos filantrópicos, de imagen, de prestigio, etc. Durante muchos años la red se financió con proyectos de investigación y los usuarios la mantenían y la usaban. Probablemente por ello la arquitectura de Internet no tiene mecanismos que permitan medir de forma eficaz los tipos de tráfico. Por ejemplo, las direcciones IP no permiten clasificar el tráfico en urbano, interurbano y larga distancia como se hace en telefonía. Esto hace que no sea posible cobrar más por un paquete que vaya al otro extremo del mundo, que por otro que vaya a la misma ciudad. El cobro del servicio de acceso a Internet se realiza en la mayoría de los casos o bien por una tarifa plana mensual o en función del tiempo de conexión. Además, la naturaleza “extremo a extremo” de las aplicaciones de Internet rompe también el modelo de negocio tradicional de las operadoras al permitir que los usuarios se puedan instalar nuevas aplicaciones sin su intervención. Dentro de este esquema las operadoras deben centrar su negocio en transportar paquetes, donde además no se puede cobrar en función de la distancia. La provisión de aplicaciones, servicios y contenidos está completamente diferenciada del transporte. En cambio, en telefonía fija y móvil, que es donde las operadoras obtienen la mayor parte de sus ingresos, son las operadoras las que instalan los servicios, y por supuesto, cobran por ellos. También hay defensores de la eliminación de la arquitectura extremo a extremo de las aplicaciones de Internet [16, 17]. El argumento principal es que el tamaño de Internet es tal, que no puede ser gestionada por usuarios no profesionales. Su propuesta es que la gestión de las aplicaciones debería profesionalizarse, devolviendo el control a los gestores de la red o a gestores profesionales. De hecho tienen su parte de razón, pero devolver el control de la instalación de aplicaciones a los operadores de red no parece fácilmente viable con la tecnología actual y su impacto es muy impredecible. Por último, debemos resaltar que el proceso de concentración de proveedores ha introducido modificaciones en la arquitectura “extremo a extremo” al introducir dispositivos concentradores de tráfico, tales como “proxies” y “caches”. Estos dispositivos hacen de intermediarios entre cliente y servidor, permitiendo reducir significativamente el tráfico en las troncales de red. La introducción de intermediarios que rompan la arquitectura “extremo a extremo” ha generado una fuerte polémica [16] entre los pioneros de Internet y los ISPs.

6. El nuevo Milenio: Hacia una Internet de Nueva Generación Al empezar el nuevo milenio, a pesar del estancamiento producido por la crisis de la nueva economía, Internet se ha convertido sin ningún lugar a dudas en un factor de competitividad económica, especialmente en EEUU y en otros países desarrollados. Pero incluso en países menos desarrollados, Internet se utiliza en múltiples procesos críticos como por ejemplo, para organizar la comunicación y los procesos en las empresas, en la administración pública o incluso por los particulares para buscar o intercambiar grandes cantidades de información.

37

Internet se ha introducido en todos los ámbitos de la sociedad y debe ser usada por personas sin conocimientos informáticos, habiéndose creado un entorno de uso mucho mas exigente. Los usuarios demandan que la conexión a la red sea automática (Plug & Play), tanto para la conexión de los nuevos terminales, como de nuevas aplicaciones y servicios. Todo esto hace que el papel de Internet en el crecimiento económico sea cada vez más importante, por lo que la capacidad de Internet para crecer, tal y como lo hizo en el pasado, puede ser vital para soportar el crecimiento económico en los próximos años. La experiencia acumulada durante la última década indica que Internet puede tener problemas para soportar un crecimiento similar al de los años 90 sin una puesta al día de su arquitectura, que dé respuesta a los retos y problemas todavía sin resolver. La nueva arquitectura debe permitir un fuerte crecimiento, tanto del número de terminales conectados a la red, como del número de aplicaciones y servicios soportados por la red, además de facilitar al máximo la accesibilidad y la usabilidad de los nuevos servicios. Esta puesta al día es lo que habitualmente se denomina Internet de Nueva Generación, porque aunque es sólo un paso más en la evolución de la red, es la primera redefinición significativa de la arquitectura de Internet que se realiza y que cambia sus componentes más importantes, tales como el protocolo IP o el lenguaje HTML. La única forma de predecir como será la Internet de Nueva Generación es sobre la base de las propuestas que se están debatiendo en IETF y W3C, las dos organizaciones con mayor influencia en el desarrollo de Internet. Las propuestas de protocolos o de componentes básicos de Internet tardan mucho tiempo en madurar y pasan por distintas fases de definición, validación y mejora. Sólo se despliegan de forma masiva, si después de pasar por estas fases son ampliamente aceptadas. Aunque existe alguna excepción, la mayoría de los protocolos y demás componentes de Internet sólo se han desplegado después de haber sido discutidos y evaluados durante suficiente tiempo en estas organizaciones. En este momento existen una serie de propuestas de cambios arquitecturales importantes, que ya han pasado por este proceso y que se encuentran a punto de comenzar su despliegue, existiendo incluso soporte en productos comerciales. Todo parece indicar que las siguientes propuestas van a ser los componentes fundamentales de la arquitectura de Internet de Nueva Generación:

♦ La definición por el W3C de una nueva arquitectura de aplicaciones, basada en XML, RDF, Web Services, el Web Semántico, etc.

♦ La arquitectura de servicios multimedia definida por IETF y basada en los protocolos RTP/RTCP [2] para envío de flujos y en los protocolos SIP/SDP para señalización, mensajería instantánea o presencia.

♦ La puesta al día de la arquitectura TCP/IP, que incluye el protocolo IPv6 con su enorme espacio de direcciones IP y su extensibilidad, además de una serie de protocolos adicionales tales como IPsec para seguridad, auto-configuración, movilidad en IP, calidad o clases de servicios, multicast, anycast, etc.

♦ La creación de una arquitectura de seguridad basada en una identidad digital verificable que permita autenticación de interlocutores remotos y cifrado de flujos de información, basada en una infraestructura de claves públicas (PKI, ..), IPsec, etc.

El grado de madurez técnica y la aceptación de estas propuestas es lo suficientemente grande como para poder vaticinar con poco margen de error su despliegue futuro, aunque como todo en Internet, su rechazo o sustitución por otras propuestas alternativas es posible, si bien poco probable.

38

Además, la nueva Internet incorporará otros elementos, como acceso móvil, nuevos tipos de dispositivos y terminales, nuevas aplicaciones o nuevos paradigmas como P2P o GRID, que no parece vayan a introducir cambios arquitecturales significativos. P2P y GRID son dos propuestas con un enorme potencial y han generado una enorme expectación, pero su desarrollo no es todavía suficiente como para saber su impacto real sobre la arquitectura de Internet. La nueva Internet incluirá todos estos elementos de una forma u otra, pero son las propuestas anteriores las que parece que están definiendo la arquitectura que muy probablemente será utilizada por la mayoría de las aplicaciones y servicios durante las próximas décadas.

6.1 Los nuevos terminales y el acceso a Internet Tradicionalmente cada red de telecomunicación ha tenido un terminal de acceso diferente. Así por ejemplo

♦ El PC o una estación de trabajo ha sido tradicionalmente el terminal de acceso a Internet.

♦ El teléfono ha sido tradicionalmente el terminal de acceso a la red telefónica, incorporándose durante los noventa el teléfono móvil.

♦ La radio y el televisor han sido tradicionalmente los terminales de recepción de las emisiones de radio y televisión.

La irrupción de las tecnologías multimedia y la consiguiente convergencia entre sectores económicos antes claramente separados, como radio-televisión, cine, telefonía, medios de comunicación, .., ha iniciado un proceso de convergencia en los terminales de acceso a las diferentes redes de telecomunicación, que presiona para unificar el terminal de acceso, de forma que un único terminal permita acceder a más de una red. Durante los últimos años ha habido múltiples intentos de integración, como por ejemplo la integración del acceso a Internet en teléfonos fijos, teléfonos móviles o en el televisor. El enorme éxito de la telefonía móvil de segunda generación GSM [42] en la década de los noventa ha mostrado las enormes posibilidades del acceso móvil, por lo que el acceso móvil se ha convertido también en uno de los grandes retos de la nueva Internet. En estos momentos la integración del acceso a Internet desde teléfonos móviles, PDAs u otros terminales portátiles es una de las máximas prioridades de fabricantes y operadores. También se están invirtiendo grandes recursos para desarrollar el acceso a Internet a través del televisor, aunque no tiene gran aceptación de momento. La introducción reciente de la televisión digital o de la televisión interactiva quizá consiga una mayor penetración del televisor como terminal de acceso a Internet, porque su potencial de servicios es muy grande. Los terminales tradicionales han evolucionado mucho en los últimos años. Tienden a reducir su tamaño, a funcionar con baterías para permitir su uso en cualquier lugar y a incorporar acceso inalámbrico, como ocurre por ejemplo en las agendas personales digitales (PDAs), los ordenadores portátiles, el “tablet PC” o los teléfonos móviles con acceso a Internet. Incluso las consolas de videojuegos están empezando a tener acceso a Internet y quizá se conviertan en algún momento en terminales de acceso a Internet. Aunque el PC mejora sus prestaciones continuamente y todavía es el terminal más habitual de acceso a Internet, los nuevos terminales empiezan a disputarle esta posición de dominio. Los nuevos terminales tienen normalmente pantallas táctiles más pequeñas que las de un PC, además de teclados especiales y otros periféricos específicos, por lo que la mayoría de las aplicaciones deben adaptarse a sus características. Entre

39

los periféricos destaca el crecimiento del número de cámaras fotográficas incorporadas últimamente en los teléfonos móviles. Los interfaces de acceso a las nuevas aplicaciones deben ser independientes de dispositivo, permitiendo acceder a los servicios, tanto desde las grandes pantallas de los PCs, como desde las pequeñas pantallas de un teléfono móvil. Además deben manejar formatos de entrada/salida especiales, tales como gráficos, voz, sonido, etc. La integración en las aplicaciones de la independencia de dispositivo y de las características específicas de los nuevos terminales es uno de los grandes retos del futuro. El W3C tiene como uno de sus grandes líneas de trabajo el soporte a la “independencia de dispositivos” en la nueva arquitectura del Web. Por último, existe un nuevo tipo de dispositivos con conexión a Internet que no están pensados para conectar personas, sino dispositivos de almacenamiento de información o de control remoto, sensores de información, localizadores de posición, maquinas expendedoras, etc. El potencial de estos dispositivos conectados a la red es muy alto, especialmente si se usa acceso inalámbrico, que simplifica mucho su instalación. Este tipo de dispositivos están empezando a conectarse a Internet y se espera que proliferen en el futuro, por ejemplo en televisores, equipos de alta fidelidad, reproductores de música, lavadoras, neveras, aire acondicionado, cocinas, microondas, ascensores, sistemas de riego en jardines, controladores de máquinas expendedoras, cámaras de seguridad y control, coches, detectores de incendios, aviones, barcos, etc. Dentro de este apartado el hogar digital [15.45] es una de las áreas donde antes se espera el desarrollo de nuevos servicios conectados a la red, por ejemplo para la obtención, almacenamiento y reproducción de música o películas de video, o para controlar el estado de los múltiples aparatos de una vivienda. La lista de dispositivos capaces de conectarse a Internet es muy grande y el potencial de crecimiento en este segmento es enorme.

6.1.1 Banda Ancha Los terminales deben conectarse a Internet a través de una conexión de acceso que conecta el terminal a la red. Existen dos tipos básicos de conexiones de acceso a Internet, acceso inalámbrico y acceso cableado. El acceso inalámbrico utiliza normalmente un enlace radioeléctrico, donde el ancho de banda es un recurso escaso, que además debe ser compartido por múltiples usuarios y servicios. El acceso cableado utiliza diversas variantes, tales como, cables de par trenzado, cable coaxial o fibra óptica. En todas las variantes de acceso cableado el ancho de banda es un recurso abundante y mucho más barato que en el caso inalámbrico, por lo que el acceso cableado siempre dará mayor ancho de banda que el móvil. El ancho de banda de una conexión determina la velocidad a la que el usuario puede enviar información. Esta velocidad determina en gran medida la velocidad de acceso a Internet. Un ancho de banda mayor permitirá una respuesta más rápida en los accesos a Internet, por ejemplo en la descarga de páginas Web, películas, canciones, correos electrónicos, etc. Hay servicios que no pueden funcionar si no disponen de un ancho de banda mínimo, por ejemplo la voz o el vídeo sobre IP. Tradicionalmente se ha denominado banda ancha, al ancho de banda necesario para poder acceder a alta velocidad a todos los servicios que Internet nos puede ofrecer. Los algoritmos de compresión de audio y video han aumentado muy significativamente su eficiencia durante los últimos años habiéndose llegado a excelentes calidades de video en el rango de los centenares de Kb/s e incluso por debajo. Esta reducción ha paliado la necesidad de los grandes anchos de banda previstos inicialmente en el acceso de usuario, haciendo que el concepto

40

de “Banda Ancha” [36] haya sido redefinido a la baja en varias ocasiones, pasando de los 155 Mbit/s planteados inicialmente, hasta los 256 kbit/s no garantizados de que disponen actualmente la mayor parte de los usuarios de xDSL y módem de cable. Es decir, se ha dividido por 600 el objetivo establecido por ITU en 1989. En algunos estudios sobre banda ancha [36] se da la cifra de 10 Mbit/s como la “verdadera” banda ancha en las condiciones tecnológicas actuales, indicando que su disponibilidad, podría tener un importante efecto multiplicador sobre la economía. El acceso cableado ha sufrido una fuerte evolución durante los últimos años con el despliegue de las tecnologías xDSL y cable en el entorno residencial aunque a pesar de haber aumentado significativamente el ancho de banda de usuario, todavía está lejos de ser auténtica banda ancha. En entornos corporativos, el acceso Ethernet conmutado a 10Mb/s, 100Mb/s o 1000Mb/s en redes de área local, permite crear redes de banda ancha en edificios o zonas conectadas a través de fibra óptica. Es en el acceso a las redes públicas o al proveedor de acceso a Internet donde suele estar el cuello de botella. Una tecnología que ha madurado en los últimos años y que puede tener un fuerte impacto en el acceso a Internet es la tecnología PLC (Power Line Connection) que permite crear accesos de características muy similares a las de la conexión xDSL a través de la red de suministro de energía eléctrica. Su uso parece tener un enorme potencial tanto para el despliegue de Internet en el tercer mundo, como para los operadores que no tienen una red telefónica desplegada. En cualquier caso, la “verdadera” banda ancha parece que se basará en enlaces de fibra óptica. Los países más desarrollados muestran una fuerte tendencia a desplegar enlaces de fibra hasta el domicilio del abonado, tanto por razones de proporcionar ancho de banda, como por coste de operaciones. Incluso algunos países como Suecia han declarado la fibra un bien de interés público, donde el estado debe garantizar por ley acceso a la fibra a cada ciudadano.

6.1.2 WIFI (IEEE 802.11): acceso móvil inalámbrico a red local El acceso inalámbrico WIFI es ya una realidad en la Intranet de muchas organizaciones utilizando la norma IEEE 802.11, que opera en una banda de uso libre del espectro radioeléctrico. Este acceso se utiliza para conectar ordenadores portátiles a Intranet, normalmente dentro de los edificios de una organización. El protocolo IEEE 802.11 está evolucionando rápidamente. En un principio los enlaces eran de 2 Mb/s, habiendo pasado a ser actualmente de 11Mb/s. Ya empiezan a estar disponibles accesos a 56Mb/s. Existen incluso teléfonos móviles que utilizan acceso inalámbrico IEEE 802.11 y permiten comunicar a través de voz sobre IP en fase experimental. WIFI se ha utilizado para intentar crear servicios comerciales de acceso a Internet en cafeterías, cabinas telefónicas, aeropuertos, hoteles, etc. Pero estas iniciativas tienen que demostrar todavía su viabilidad económica. Una red WIFI basada en la norma IEEE 802.11 es solamente una tecnología de acceso, que no incluye las funcionalidades necesarias de un servicio completo, tales como autenticación de usuarios, cobro, etc. Su éxito es indiscutible como tecnología de acceso inalámbrico en redes corporativas, pero su capacidad para dar un servicio de acceso universal está todavía por demostrar.

6.1.3 Servicios de acceso a Internet a través de Teléfono Móvil El acceso a Internet a través de las redes de telefonía móvil de segunda y tercera generación es una alternativa de gran cobertura geográfica y de enormes posibilidades. El potencial de este tipo de acceso despertó un enorme interés desde el principio, pero no fue hasta el enorme éxito del servicio i-mode [43]

41

en Japón, lanzado en 1999 por NTT Docomo, cuando estas expectativas se hicieron realidad. i-mode no ha parado de crecer desde su lanzamiento, teniendo actualmente unos 50 millones de usuarios. i-mode ha convertido el teléfono móvil con acceso a Internet en el terminal más extendido en Japón y sobre todo ha demostrado la viabilidad de los servicios de acceso masivo a Internet a través de las pequeñas pantallas de estos teléfonos. Aunque en el éxito de i-mode también parecen haber influido factores culturales y sociales propios de Japón, la realidad es que ha abierto un nuevo camino que parece que va a marcar la pauta del crecimiento a corto plazo de Internet en los países desarrollados. En cualquier caso, el éxito de i-mode se debe no solo a factores culturales, sino también a su buen diseño técnico, así como al modelo de negocio utilizado. El servicio se diseñó dando primacía a la calidad de los contenidos frente a la tecnología. Desde el punto de vista técnico utilizó un diseño bastante conservador basado en una simplificación de los protocolos de acceso a Internet (HTTP e iHTML, un subconjunto recomendado de HTML). Además se normalizó la arquitectura del terminal con la finalidad de acelerar el desarrollo de aplicaciones. Esta estrategia tuvo un éxito notable, consiguiendo no solo un gran número de usuarios, sino multitud de proveedores de servicios y aplicaciones en su primer despliegue en Japón. El servicio ha incorporado recientemente nuevas facilidades, tales como descarga de videos o de aplicaciones interactivas en java, soportando actualmente correo electrónico, multitud de proveedores Web, servicios dependientes del lugar donde se encuentra el terminal, así como descarga de juegos, melodías, logos, videos o aplicaciones interactivas en java. WAP (Wireles Application Protocol) [44] fue una de las primeras normas existentes para el despliegue de servicios a través de las infraestructuras de telefonía móvil, aunque ha tenido escaso éxito. WAP 1.0 definía una nueva arquitectura de aplicaciones incompatible con Web, que estaba muy optimizada desde el punto de vista técnico, pero que no permitía contenidos de buena calidad. Aunque WAP fue apoyada por la mayoría de las operadoras móviles europeas, no tuvo apenas éxito debido probablemente a la falta de contenidos atractivos, a la incompatibilidad con el Web, así como al cuello de botella que creaban los proxies de acceso a Internet. La versión 2 de WAP ha corregido gran parte de los problemas de incompatibilidad con Internet y de calidad de los contenidos al incorporar colores, gráficos, fotos, sonidos de calidad, etc. Recientemente se ha desplegado el servicio GPRS (General Packet Radio Service) [2] de acceso IP con un ancho de banda de entre 10Kb/s y 50Kb/s sobre la infraestructura existente de red GSM, permitiendo a la mayoría de los operadores dar servicios de acceso a Internet a través del teléfono móvil. GPRS ha permitido que muchos operadores redefinan sus estrategias de despliegue de servicios siguiendo la pauta que marco i-mode en su momento: dando conectividad IP con Internet, primando la calidad de los contenidos y utilizando modelos de negocio que aseguran la existencia de proveedores de contenidos. Incluso hay operadores en Europa que han incorporado i-mode a la oferta de servicios que dan a través de GPRS, bajo licencia de NTT Docomo. La gran apuesta futura de la telefonía móvil es UMTS (Universal Mobile Telecommunication System) [40], actualmente en fase de despliegue piloto en bastantes países. UMTS dará acceso a servicios de voz, así como a IP con un ancho de banda sustancialmente mayor que GPRS, permitiendo el acceso a todos los servicios disponibles actualmente a través de teléfonos móviles de segunda generación, además de los nuevos que aparezcan. Existen analistas han expresado sus dudas respecto a la idoneidad de las tecnologías de acceso móvil anteriores y proponen pasar directamente a las redes

42

móviles de cuarta generación (4G) que están siendo diseñadas en este momento con requisitos mucho más exigentes de velocidad, número de usuarios, ubicuidad o accesibilidad.

6.1.4 El crecimiento de Internet El teléfono móvil unifica en un único terminal el acceso a la red telefónica y a Internet dando al usuario un enorme valor añadido, por lo que es muy probable que estos teléfonos se conviertan en un futuro bastante próximo en el terminal predominante de acceso a Internet, tal y como ya ha ocurrido en Japón a raíz del enorme éxito del servicio i-mode lanzado en 1999. Aunque el número de terminales tipo PC, PDA o teléfono móvil (especialmente este último) se espera que crezca significativamente en un futuro próximo, su número nunca podrá alcanzar el mismo volumen que los dispositivos de control remoto o sensores que potencialmente pueden existir. Cada habitante del planeta podría llegar a tener hasta 2, 3 o 4 terminales de acceso a Internet. En cambio, el número de sensores y dispositivos de control por habitante que puede llegar a existir a largo plazo es mucho mayor. El acceso a Internet desde el televisor es una gran incógnita. El potencial de servicios de esta integración es muy grande. Además el televisor es uno de los terminales más numerosos en la actualidad. Por lo que si algún día este acceso llega a popularizarse su relevancia en el acceso a Internet también puede ser significativa. De momento no parece que sea una opción muy demandada. Quizá por la falta de nuevos servicios plenamente desarrollados. O quizá por que el televisor es un terminal de uso compartido por toda la familia y su uso para acceder a Internet podría generar más conflictos de los que ya genera el gran número de canales existentes. El despliegue de Internet en los países que todavía no tiene una penetración significativa también será un motor de crecimiento en el futuro próximo. Actualmente posee acceso a Internet menos de un 15% de la población mundial y este porcentaje debe aumentar de forma muy significativa en los próximos años.

6.2 Aplicaciones y servicios Las aplicaciones y los servicios actuales ofrecen unas posibilidades de acceso a información y de colaboración difícilmente imaginables hace unos años. Pero a pesar de este avance el potencial de Internet para generar nuevos servicios es mucho mayor, porque los servicios actuales están muy fragmentados y no han sido diseñados para cooperar entre sí. El mayor reto de la futura Internet es la integración efectiva de los servicios, aplicaciones y repositorios de información de la red en un marco de uso unificado y esto es lo que la nueva arquitectura de aplicaciones de Internet debe permitir. El mundo de las aplicaciones y servicios actuales tienen cada vez más componentes, por ejemplo:

♦ Los nuevos tipos de terminales y dispositivos empotrados con sus nuevos interfaces de acceso, incluyendo conexiones inalámbricas.

♦ El Web, que aunque todavía está basado mayoritariamente en HTML/HTTP, está en proceso de redefinición (XML y Web Services, Web Semántico, etc).

♦ La nueva arquitectura de servicios multimedia, basada en RTP/UDP, complementada por la señalización SIP/SDP

♦ Los nuevos paradigmas P2P y GRID con su enorme potencial. ♦ Las nuevas aplicaciones que la reposición del paradigma extremo a extremo

permitirá desplegar.

43

♦ Las aplicaciones primitivas que han sobrevivido sin muchos cambios, como el correo electrónico y el FTP.

♦ El nuevo marco de seguridad que servirá para autenticar usuarios de forma eficaz.

Todos estos desarrollos, la nueva arquitectura Web (Web Services y el Web Semántico), los nuevos terminales, interfaces independientes de dispositivo, el nuevo marco de seguridad, movilidad, SIP/SDP, P2P, GRID o los nuevos servicios multimedia podrán integrarse y cooperar entre sí. Probablemente no tardemos mucho en ver los primeros desarrollos que ya empiezan a salir de los laboratorios al mundo empresarial y muy probablemente volveremos a asombrarnos con la aparición de servicios que nunca hubiésemos podido imaginar. Pasemos a analizar en detalle los componentes más importantes de las aplicaciones del futuro.

6.2.1 La nueva arquitectura del Web El Web es el interfaz de acceso a la mayoría de las aplicaciones y servicios que tiene Internet, por lo que juega un papel de enorme importancia. La arquitectura del Web está siendo redefinida en el W3C con el objetivo de permitir el desarrollo de aplicaciones y servicios de mayores capacidades que las permitidas por el Web actual. El Web creó en su momento un interfaz abierto que ha permitido un acceso universal a los usuarios de Internet, tanto a información, como a aplicaciones remotas. Pero el Web actual no soporta bien la cooperación entre aplicaciones a través de la red. El Web actual tampoco soporta bien la catalogación y análisis de la información almacenada en la red. El nuevo Web permite definir interfaces abiertos entre repositorios de información, aplicaciones y servicios. Se prevé que la definición de la nueva arquitectura abierta permita crear una ola de nuevos servicios similar a la que el Web creó en su momento. El W3C lleva varios años trabajando en la redefinición de la arquitectura del Web [12], habiendo definido bastantes de sus elementos. Los elementos más importantes son:

1. Formato abierto de definición de lenguajes y datos: creación de un marco genérico y extensible de definición de lenguajes de marcado de datos basado en XML.

2. Publicación de documentos: sustitución de HTML por una familia de nuevos lenguajes de publicación electrónica definidos en XML, que permitan publicar documentos electrónicos de calidad.

3. Universalización del acceso a Web: conjunto de actividades orientadas a universalizar el acceso a Web, tales como la Internacionalización de aplicaciones, aspectos de Seguridad y Privacidad, la Iniciativa de Accesibilidad Web, la creación de Interfaces Independientes de Dispositivo o el visor de voz para invidentes.

4. Web Services: creación de un marco arquitectónico con interfaces abiertos para la colaboración entre aplicaciones conectadas a través de Internet.

5. El Web Semántico: creación de un marco de gestión de la información en Internet que permita el proceso automático por aplicaciones como si toda la información y el conocimiento disponible en Internet fuese una gran base de datos relacional.

El primer elemento de la nueva arquitectura es el formato de definición de nuevos lenguajes y datos, que está basado en XML (eXtensible Markup Language) [12] y XML Schema. XML es un metalenguaje genérico y extensible de marcado de

44

datos que ha sido diseñado para ser procesado automáticamente por las aplicaciones y cuya función es ser el vehículo con el que se definan los nuevos lenguajes y formatos que el Web utilice en el futuro. Los nuevos lenguajes y formatos de datos deben definirse con XML Schema, que es un lenguaje definido en XML y diseñado específicamente para esta función. Existen herramientas genéricas que simplifican mucho el diseño de aplicaciones basadas en lenguajes definidos con XML y XML Schema. Por ejemplo, hay herramientas que permiten construir automáticamente analizadores de sintaxis y de semántica estática a partir de un XML Schema, herramientas de transformación de datos XML, herramientas de formateo y presentación de datos en XML, etc. También existe un lenguaje alternativo de mayor sencillez y menor potencia denominado DTD, aunque se recomienda el uso de XML Schema cuando se quiere hacer una definición rigurosa de un nuevo lenguaje. El segundo elemento de la nueva arquitectura es el nuevo marco de publicación de documentos en la red. Este marco prevé sustituir HTML, el lenguaje de representación de información actual, por el siguiente conjunto de lenguajes (todos definidos en XML):

♦ XHTML es el lenguaje que redefine HTML en XML, eliminando algunas ambigüedades de la definición actual de HTML. XHTML puede ser procesado, tanto por los viejos visores Web basados en HTML como por los nuevos visores Web basados en XML.

♦ MathML para definición de fórmulas matemáticas. ♦ SVG para definir gráficos de tipo vectorial de calidad. ♦ SMIL para definir animaciones y elementos multimedia. ♦ XFORM para definir formularios generalizados para servicios de comercio

electrónico y otras aplicaciones distribuidas. ♦ Hojas de estilo CCS (Cascading Style Sheets) para definición del formato

de presentación de un documento independientemente de su contenido. CCS posee 3 versiones. Las 2 primeras versiones se vienen utilizando desde hace tiempo, incluso con HTML. XSL y XSLT son dos lenguajes de transformación de documentos XML que pueden ser utilizados para definir formatos de presentación, pero tienen una aplicabilidad mucho mayor como transformadores de definiciones XML.

La migración de la arquitectura actual a la nueva arquitectura es compleja, por lo que el W3C ha diseñado cuidadosamente la forma en que debe realizarse la transición. La clave está en el lenguaje XHTML que permite migrar los servicios Web actuales a la nueva arquitectura sin que dejen de funcionar los servicios existentes. Un proveedor de servicios Web que desee migrar sus repositorios de información Web a la nueva arquitectura, deberá utilizar solo XHTML en todos sus repositorios y servicios, permitiendo así acceso a los usuarios que todavía no hayan migrado a la nueva arquitectura, como a los que ya hayan migrado. La migración de los clientes a la nueva arquitectura es mucho más sencilla, porque simplemente deberán instalar un visor Web que dé soporte a los nuevos lenguajes. La mayoría de los visores Web (Explorer, Mozilla, Conqueror, etc.) soportan ya de forma experimental muchos de estos nuevos lenguajes. Un documento en XHTML dará acceso a los clientes que hayan migrado al nuevo Web a una mayor riqueza de contenidos y dará una calidad tipográfica en los documentos que incorporen las nuevas posibilidades, porque la publicación de documentos electrónicos de calidad que incorporen dibujos, formulas, elementos multimedia o interactividad está contemplada en el nuevo Web sin necesidad de utilizar extensiones propietarias como ocurre actualmente. Otro avance importante en la nueva arquitectura es la separación entre la definición del “formato de presentación” de la definición de la “estructura y

45

contenido” del documento. El formato de presentación se define en CCS, mientras que la definición de la estructura y contenido se realiza con los lenguajes arriba indicados. CCS define la forma en que debe visualizarse el documento y permite adaptar la presentación a los diversos terminales que existen actualmente a través de perfiles que adaptan la información a presentar a los diferentes tipos de dispositivos: PC, teléfono móvil, PDA, etc. Esta es la solución que da la nueva arquitectura Web para las aplicaciones que tengan que implementar interfaces multi-modales accesibles desde diversos dispositivos. CCS ya se utiliza en HTML actualmente. El W3C incluye también actividades que tienen como objetivo desarrollar toda la potencialidad del Web como vehículo de comunicación universal. Las actividades más importantes dentro de este capítulo son:

♦ La iniciativa de accesibilidad (WAI – Web Accesibility Initiative) realiza desarrollos de tecnología básica, revisión de normas, instrucciones, herramientas, investigación y educación en todas las normas relacionadas con universalización del acceso, acceso de personas mayores o acceso de discapacitados a Web, siendo sus documentos la referencia más importante en estos temas.

♦ La actividad de internacionalización define convenios, instrucciones, códigos de caracteres y demás componentes necesarios para que cualquier lengua o cultura pueda ser utilizada en el Web.

♦ La actividad de independencia de dispositivo tiene como objetivo hacer el Web accesible a través de cualquier dispositivo y no sólo a través de los visores convencionales, como por ejemplo teléfonos móviles, televisión, cámaras digitales, ordenadores embarcados o PDAs.

♦ La actividad de visores de voz tiene como objetivo desarrollar visores Web donde todo el intercambio de información entre el usuario y la red sea posible utilizando sólo la voz.

La seguridad tampoco se ha olvidado en la nueva arquitectura. El W3C ha desarrollado XML Signature, XML Encryption y XML Key management para gestión de seguridad, acceso seguro a servicios, firma electrónica y control de integridad de documentos XML, etc.

6.2.1.1 Web Services y el Web Semántico El conjunto de recomendaciones conocidas como Web Services [34] está despertando actualmente un enorme interés. Su objetivo es definir un marco arquitectural abierto donde las aplicaciones Web puedan colaborar entre sí y reutilizar sus recursos en áreas de aplicación tales como, comercio electrónico, consulta a bases de datos, automatización de procesos, etc. Las aplicaciones actuales son cerradas y difícilmente cooperan entre sí. El marco abierto de Web Services permitirá publicar aplicaciones en Internet y no sólo páginas de información como se hace hoy día. Por ejemplo, hoy una compañía de transporte publica sus horarios a través de páginas Web en HTML y esto dificulta el diseño de una aplicación que extraiga los horarios de varias compañías de transporte y los integre en una única hoja Web o permita reservar plazas y comprar billetes de forma unificada. Esto sí será posible utilizando Web Services, que permitirán diseñar aplicaciones que integren otras aplicaciones de forma sencilla, segura y eficaz. El protocolo SOAP (Simple Object Access Protocol) [34] es el protocolo normalizado por el W3C para el intercambio descentralizado y distribuido de información entre aplicaciones. SOAP implementa un servicio de llamada a procedimiento remoto sobre HTTP, donde los argumentos utilizan formato XML. Otros componentes importantes de Web services son WSDL (Web Services Description Language), que permite publicar un servicio en Internet para que otras

46

aplicaciones puedan acceder a él y WS Choreography que está todavía en un estado incipiente, pero que debe permitir definir composiciones de servicios. El proyecto más ambicioso del W3C es el Web Semántico [32, 33], cuyo objetivo es definir un marco de gestión de la información en Internet para permitir su clasificación automática por aplicaciones, como si toda la información disponible en Internet fuese una gran base de datos relacional. El Web Semántico proporcionará un interfaz abierto de acceso uniforme a repositorios de información y bases de datos conectadas a la red. El Web semántico está todavía en fase de definición y puede sufrir modificaciones. Sus dos componentes más emblemáticos son RDF (Resource Description Framework) y OWL (Ontology Web Language). RDF es el lenguaje de definición de metadatos que den un significado preciso a los recursos Web tales como documentos HTML y XML, o información proporcionada por bases de datos. Los metadatos en RDF definen propiedades semánticas de los recursos Web. OWL es el lenguaje de definición de las ontologías asociadas a los metadatos, que servirán de marco para clasificar la información en las aplicaciones de gestión de la información. El Web Semántico tiene como objetivo transformar el Web de documentos actual en un Web de datos estructurados que permita una nueva generación de herramientas de análisis y búsqueda de información, de gestión de conocimiento o de minería de datos, capaces de acceder a la información Web, tanto en Internet, como en las Intranets corporativas. Los buscadores actuales, a pesar de su potencia, sólo pueden devolver una lista poco estructurada de punteros a páginas de texto que pueden estar relacionadas con el objetivo de nuestra búsqueda, debido a la falta de estructura de la información accesible en el Web. La información existente necesita ser estructurada para poder ser procesada de forma eficaz y esto es lo que nos deberá dar el Web Semántico.

6.2.2 Completando la arquitectura de servicios multimedia: la señalización Durante estos últimos años IETF ha desarrollado la arquitectura de servicios multimedia para Internet con el objetivo de permitir la creación de servicios de telefonía, videoconferencia, así como otros tipos de servicios interactivos. Esta arquitectura no solo debe soportar los servicios de voz y video dados tradicionalmente sobre otras redes, sino muchos otros nuevos servicios que combinen el acceso Web, la seguridad, así como el envío de información multimedia (voz, video, mensajes, fotos, etc) en tiempo real. IETF desarrolló en primer lugar los protocolos RTP/RTCP de envío de flujos multimedia de audio y vídeo basados en el protocolo UDP. Pronto se detecto la necesidad de un protocolo de señalización similar al que poseen las redes telefónicas. La señalización es el mecanismo utilizado en las redes de telefonía para establecer los circuitos de voz o video entre los terminales de usuario. Los protocolos de señalización negocian con la red y los terminales las características del circuito a establecer, para pasar a establecerlo una vez que todos están de acuerdo. Las redes telefónicas no podrían crear la mayoría de los servicios que tienen sin unos protocolos de señalización adecuados. La introducción masiva de servicios de audio y vídeo a través de Internet no parece posible sin utilizar técnicas de señalización sobre IP que posean una funcionalidad similar a la señalización telefónica actual. El primer intento de definir un protocolo de señalización sobre IP se realizó en ITU (International Telecommunications Union) [38], donde se desarrolló la norma H.323 para audio y videoconferencia sobre IP. Los protocolos de señalización de la norma H.323 se inspiran en las normas de señalización telefónica tradicional y poseen una gran complejidad, por lo que en el seno de IETF [5] se ha

47

desarrollado una propuesta alternativa de mayor sencillez y flexibilidad, basada en los protocolos SIP (Session Initiation Protocol) y SDP (Session Description Protocol), que ha conseguido mucho mayor apoyo. El conjunto de grupos de trabajo relacionados con SIP es una de las mayores áreas de actividad dentro de IETF. SIP/SDP también ha sido recomendado para la creación de nuevos servicios multimedia en terminales móviles de tercera generación de UMTS en IMS (IP Multimedia System) por el 3GPP (3rd Generation Partnership Project) [39]. Por otro lado SIP hereda la mayoría de las ideas básicas de Web, habiendo adoptado incluso los formatos de mensajes de HTTP de forma que, tanto los entornos de desarrollo de servicios Web, como los propios desarrolladores puedan reconvertirse fácilmente para desarrollar servicios basados en SIP/SDP. La arquitectura multimedia de Internet se basa por lo tanto en el uso conjunto de ambos protocolos RTP/RTCP y SIP/SDP [2]. RTP/RTCP es el protocolo de envío de flujos multimedia (audio, vídeo, etc.) a través de la red utilizando paquetes UDP. Mientras que la creación y liberación de sesiones RTP/RTCP se debe realizar con los protocolos de señalización SIP (Session Initiation Protocol) y SDP (Session Description Protocol). SIP es un protocolo extensible y ha sido enriquecido últimamente con otras facilidades, tales como mensajería instantánea, detección de presencia, etc. El potencial de SIP/SDP es muy grande, por lo que está consolidándose como el mecanismo de señalización de Internet. Ya se han desarrollado múltiples aplicaciones basadas en SIP, como por ejemplo el servicio MSN de Microsoft o los múltiples teléfonos y videófonos SIP. Además, SIP y SDP han sido diseñados para permitir una integración fácil de servicios Web con aplicaciones de voz y vídeo sobre IP, detección de presencia, mensajería instantánea, etc. Es muy probable que en un plazo no muy lejano veamos una explosión de nuevos servicios que integren servicios Web con voz y vídeo sobre IP. SIP y SDP han sido diseñados también para ser capaces de crear sobre Internet los servicios que actualmente da la red telefónica convencional, así como para interoperar con ellos. Por ejemplo, red inteligente, PABX, Centrex, multi-conferencia, etc. Una de las grandes incógnitas de la evolución de Internet es si desplazará algún día a la red telefónica convencional o si ambas permanecerán como dos redes separadas. La respuesta a esta pregunta depende de muchos factores, uno de los cuales es la capacidad de RTP/RTCP y de SIP/SDP para crear en Internet unos servicios telefónicos que tengan como mínimo la fiabilidad, el tamaño y la funcionalidad de la red telefónica actual. Y por supuesto el factor determinante será la viabilidad económica de estos nuevos servicios de forma que permitan un crecimiento sostenible de la red.

6.2.3 Otras aplicaciones Entre las aplicaciones debemos destacar también las que dan soporte a grupos y comunidades en la red. Igual que en el mundo de los seres vivos la agrupación en manadas, enjambres o bandadas crea conjuntos muy eficaces, la red ofrece la posibilidad de crear nuevos tipos de grupos donde usuarios, programas o agentes colaboren de forma eficaz. Es en este tipo de aplicaciones donde la red desarrolla el objetivo para la que fue creada y las aplicaciones de comunidades y grupos han florecido y florecerán siempre en Internet. De hecho, la mayoría de las aplicaciones actuales pueden ser consideradas dentro de este apartado desde una cierta perspectiva. Por ejemplo, el Web es una aplicación para crear comunidades que intercambian información y conocimiento o los servicios de

48

portales tales como Yahoo, Terra-Lycos o MSN de Microsoft, dan soporte a grupos de amigos, familias o incluso grupos de actividades y trabajos. Las aplicaciones grupales basadas en P2P y GRID merecen un puesto especial. Ambos son paradigmas aparecidos últimamente como alternativas al modelo cliente-servidor tradicional. P2P y GRID han sido muy eficaces en la explotación distribuida de la capacidad de almacenamiento y de computación, respectivamente. De hecho, las aplicaciones P2P de intercambio de canciones y videos son uno de los motores principales del crecimiento actual del tráfico en Internet. Los modelos en que se basan P2P y GRID son modelos simétricos que necesitan interacción extremo a extremo, por lo que la existencia de NAT y Firewalls obliga a utilizar servidores que hacen de dispositivos intermediadores entre los “iguales” o los elementos de un “GRID”. La creación de aplicaciones puramente P2P o GRID requiere conectividad directa entre agentes, es decir la conectividad extremo a extremo que no podremos tener hasta el despliegue de IPv6. Por último volvemos a recordar la necesidad de desplegar IPv6, porque sin suficientes direcciones IP, muchos de los servicios y dispositivos anteriores o son inviables o necesitan un rediseño muy significativo. De hecho, la escasez de direcciones IPv4 públicas está impactando muy negativamente el despliegue de nuevas aplicaciones, porque sólo se pueden desplegar las que funcionan a través de NAT. Por ejemplo:

• La transmisión de audio y vídeo sobre IP a través de NAT requiere arquitecturas de complejidad significativamente mayor.

• El despliegue de servicios multimedia IMS de 3GPP en UMTS requiere IPv6. • Las verdaderas aplicaciones P2P y GRID, o los nuevos dispositivos móviles,

dispositivos empotrados en domótica, automoción, sensores o aviónica necesitan direcciones IP que IPv4 no puede suministrar.

6.3 Un nuevo marco de seguridad La seguridad en la red no es muy diferente de la seguridad en otros ámbitos de la sociedad. Hacen falta leyes e instrumentos que la regulen y la administren, complementadas con una infraestructura de soporte. La legislación sobre seguridad deberá identificar los actos delictivos en la red y estos deberán ser perseguidos por los órganos judiciales y policiales pertinentes. Un componente fundamental es la creación de una identidad digital que permita identificar a los usuarios en sus accesos a la red. Muchos países han empezado a dar los primeros pasos para la creación de una identidad digital. Por ejemplo, en España, el Ministerio de Hacienda emite a través de la Casa de la Moneda certificados válidos para realizar la declaración de la renta, así como otras operaciones con la Administración. El desarrollo de un sistema de identidad digital válido de forma general en la red está todavía en vías de construcción. La identidad digital se deberá poder asignar también a ordenadores, routers, empresas, organismos públicos, etc. Incluso deberán poder existir varias identidades digitales para un mismo usuario, por ejemplo una identidad personal y otra como representante de una empresa o institución. Los componentes más importantes de un marco de seguridad en Internet son:

♦ Las leyes e instrumentos sociales que regulan y administran la seguridad en la red

♦ Una identidad digital de los usuarios, verificable durante el uso de la red

♦ Protocolos que permitan identificar usuarios y proteger la información

49

Aquí sólo vamos a analizar el impacto que la introducción de seguridad va a tener sobre la arquitectura de Internet, incluyendo los elementos que la red necesita para administrar la identidad digital, así como los protocolos que permiten autenticar usuarios y proteger sus operaciones a través de la red.

6.3.1 La identidad digital El primer gran reto técnico de la seguridad en Internet es la creación de la identidad digital. La identidad digital utiliza un sistema de doble clave asimétrica, donde los documentos cifrados con una de las claves sólo pueden ser descifrados con la otra clave. Es decir, sin poseer las dos claves sólo se puede hacer uno de los pasos del proceso, o bien cifrar un documento para que sea descifrado con la otra clave, o bien, descifrar un documento cifrado con la otra clave. Las claves pública y privada se deben utilizar de la siguiente forma:

♦ La clave privada identifica a su dueño y sólo debe ser conocida por él. Ninguna otra persona o programa puede tener acceso a la clave privada porque podrían suplantar su identidad digital, firmando documentos en su nombre o descifrando documentos secretos.

♦ La clave pública es pública (valga la redundancia) para que cualquiera pueda verificar la firma y la integridad de los documentos emitidos por el dueño de la identidad digital.

La autenticidad de la identidad digital debe estar garantizada, de forma que sea verificable que la clave pública pertenece realmente a la persona, institución o entidad jurídica a la que declara pertenecer. Es decir, cada usuario con identidad digital tiene asociadas una clave privada y otra pública, cuya autenticidad debe estar garantizada. La clave privada debe ser secreta, en cambio la clave pública debe ser conocida universalmente. La autenticidad de la identidad digital solo se puede garantizar a través de un tercero fiable, que suele ser una autoridad certificadora independiente que posea la confianza de los usuarios. Es esta autoridad la que emite las claves pública y privada de un usuario, además de emitir un certificado de identidad digital cuya autenticidad queda garantizada por su firma. Un certificado de identidad digital sigue la norma X.509v3 de ITU y contiene la identidad real del usuario, su clave pública, además de la firma de la autoridad certificadora que garantiza su autenticidad. La función de un certificado es poner a disposición de terceros la clave pública de un usuario. La confianza en dicho certificado depende enteramente de la confianza en la autoridad certificadora (trusted third party), que en nuestro entorno suele ser algún organismo con autoridad legal para esta función, como ocurre en el caso del carnet de identidad. También existen empresas que emiten y garantizan certificados de identidad digital. La autoridad certificadora utiliza una infraestructura de claves públicas, conocida como PKI (Public Key Infrastructure), para publicar en la red las claves públicas que permiten verificar la identidad digital de los usuarios, además de informar sobre las incidencias y problemas que hayan podido ocurrir. Si todas estas premisas se cumpliesen, cualquier usuario con una identidad digital podría utilizar la red de forma mucho más segura, pudiendo firmar documentos, garantizar la integridad de los documentos, ser autenticado (identificado) en las operaciones en la red, así como enviar información cifrada a cualquier destinatario. Estas operaciones se realizan de la siguiente forma:

50

♦ Autenticación de la identidad digital. La identidad de un usuario se describe con su certificado de identidad digital, donde además se publica su clave pública. La veracidad de los datos del certificado deben ir avalados por la autoridad certificadora.

♦ Firma digital. Un usuario puede firmar un documento electrónico generando una firma digital con su clave privada, cuya autenticidad podrá ser comprobada por un tercero con la clave pública que se obtiene de su certificado.

♦ Comprobación de la integridad de un documento. La firma digital puede realizarse de forma que si un documento se modifica, la comprobación de autenticidad utilizando la clave pública fallará.

♦ Envío de documentos cifrados. Cualquier documento puede ser cifrado con la clave pública del destinatario. El documento sólo podrá ser descifrado con la clave privada, por lo que sólo podrá ser leído por el destinatario que es el único que conoce su clave privada.

Por otro lado, aunque la asignación de identidades digitales a todos los usuarios de Internet es técnicamente factible, su despliegue requiere una enorme infraestructura PKI donde se registren todas las identidades digitales garantizadas por los organismos competentes en el tema. La creación y organización efectiva de esta gran infraestructura PKI es uno de los grandes retos de la creación de un marco de seguridad. El despliegue plantea complejos problemas organizativos. Existen varias posibilidades para la creación de la infraestructura PKI. Por ejemplo, en el caso español, al existir un carnet de identidad es factible asignar una identidad digital a cada ciudadano junto con su carnet de identidad. La administración española podrá mantener en este caso una PKI, donde se pueda verificar la identidad digital de cada ciudadano. También se está investigando asociar la gestión de la identidad digital con la gestión de nombres de dominios y máquinas de Internet, en el marco de un DNS seguro, conocido como DNSSEC. Esta propuesta asociaría funciones de PKI a los servidores de DNS y parece muy razonable para asignar identidades digitales a las máquinas de la red, en las empresas, etc. También existen empresas que emiten certificados de identidad para su uso en entornos comerciales, tales como Verisign.

6.3.2 Los protocolos de seguridad Otro componente importante de la seguridad en la red son los protocolos de seguridad, que utilizan la identidad digital para realizar operaciones seguras. Los dos protocolos más importantes son SSL/TLS e IPsec [2]. SSL/TLS es el protocolo en que se basan las transacciones Web seguras. SSL/TLS es muy sencillo de utilizar debido a que sólo requiere que el servidor posea identidad digital, aunque también puede exigir la identidad a los clientes. La utilización de la identidad digital en transacciones SSL/TLS aumenta la seguridad de las transacciones y es la base de la mayoría de las transacciones en comercio electrónico, así como de los intercambios de información donde se quiere mantener un mayor nivel de privacidad. IPsec es el protocolo propuesto por IETF para realizar comunicaciones seguras a nivel de red. El uso de este protocolo aumentará significativamente la seguridad de todas las operaciones. El protocolo IPsec permite realizar las siguientes funciones

1. Intercambiar información cifrada entre dos interlocutores a través de la red, evitando que la información pueda ser conocida por terceros no autorizados. Este protocolo puede hacer uso de la clave pública de cada parte para enviarle información cifrada.

51

2. Identificar de forma efectiva a cada interlocutor con el que se comunique a través de la red. Esto permitirá identificar a los autores de delitos en caso necesario, permitir el acceso sólo a usuarios autorizados, etc. Para esta función se deben utilizar certificados de identidad digitales y PKI.

IPsec es utilizable con IPv4 en la Internet actual, pero necesita direcciones IP públicas. Se han realizado propuestas de extensiones, conocidas como “NAT Traversal”, que permiten utilizar IPsec atravesando NAT, pero presentan múltiples problemas y no puede ser utilizado para realizar una comunicación segura desde un ordenador en una Intranet a un ordenador de Internet. Esto limita su uso significativamente en la Internet actual. Además, el protocolo IPsec no está instalado en la mayoría de las implementaciones actuales del protocolo IP, porque su desarrollo es muy reciente. Instalarlo en todos los ordenadores de la red puede ser enormemente costoso. Como IPv6 se diseñó pensando en la seguridad desde el primer momento, IPsec es obligatorio en todas las implementaciones de IPv6, por lo que es muy probable que el despliegue de IPsec vaya asociado al despliegue de IPv6. La creación de un nuevo marco de seguridad ilustra muy bien la interdependencia de unos problemas con otros, porque el despliegue masivo de IPsec está fuertemente ligado a la disponibilidad de direcciones IP. Como conclusión podemos decir que el control de la seguridad en la red es un problema de gran importancia, pero también de gran complejidad. El control de la seguridad que se realiza actualmente en Internet es rudimentario, introduciendo mucha rigidez e inseguridad en la red. El nuevo marco de seguridad es muy necesario y su desarrollo está en marcha, aunque su despliegue será necesariamente lento debido al gran número de cambios necesarios. El primer paso dará una identidad digital a los usuarios de la red y el segundo llevará al uso masivo de protocolos cómo SSL/TLS e IPsec.

6.4 La evolución de la red y de la arquitectura TCP/IP La red de acceso conecta los terminales de los usuarios con el núcleo troncal de la red, que es el que concentra los grandes volúmenes de tráfico IP que circulan por Internet. Tanto el acceso, como la red troncal utilizan el marco arquitectural común que crea TCP/IP. La red de acceso, la red troncal y la arquitectura TCP/IP tienen retos importantes y se encuentran en permanente evolución como todo en Internet. Vamos a describir de forma muy simplificada en este apartado la evolución de las tecnologías de la red troncal, así cómo de su arquitectura, complementando las reflexiones ya realizadas sobre la evolución del acceso o de la seguridad. Como ya hemos analizado la función principal de la arquitectura TCP/IP es desacoplar la red de las aplicaciones, de forma que ambas puedan evolucionar de forma independiente. Esto ha permitido que Internet incorpore nuevas tecnologías de red a medida que aparecen, mientras la red sigue funcionando. La nueva Internet debe seguir manteniendo este principio de funcionamiento, que es una característica común a todas las arquitecturas de redes de telecomunicación estructuradas por niveles y no solo de Internet. La arquitectura de Internet tiene plateados varios retos importantes que limitan sus posibilidades y que irán haciendo evolucionar las tecnologías de red durante los próximos años. Los más importantes son:

♦ Introducir un direccionamiento jerárquico que simplifique y haga mas eficiente el encaminamiento de paquetes IP a través de la red.

♦ Solucionar la escasez de direcciones de la versión actual del protocolo IP, conocida como IPv4 por ser la versión 4 de dicho protocolo.

52

♦ Introducir calidades de servicio adecuadas para transmitir voz y vídeo de buena calidad sin perder la eficacia de IP en los servicios de datos.

♦ Soportar de forma eficaz difusión de contenidos en tiempo real a toda la red y comunicación interactiva de grupos en tiempo real.

♦ Soportar acceso inalámbrico, movilidad de terminal y movilidad personal. ♦ Introducir mecanismos de señalización que permitan crear servicios

similares a los existentes en las redes telefónicas actuales, tal y como ya se ha analizado en el capítulo de aplicación.

♦ Incorporar protocolos de seguridad en la arquitectura TCP/IP que permitan proteger la información y las actividades que se realizan a través de Internet, tal y como ya se ha analizado en el capítulo de seguridad.

La solución a todos estos problemas pasa por un rediseño muy significativo de la arquitectura TCP/IP. Durante los últimos años se han desarrollado múltiples propuestas de protocolos que solucionen o palien estos problemas. Pasamos a describir algunas de las propuestas que han alcanzado un alto grado de consenso y que parece van a ser los componentes fundamentales de la nueva arquitectura TCP/IP.

6.4.1 La transición de IPv4 a IPv6 La escasez de direcciones IP públicas, así como la introducción de un direccionamiento jerárquico en Internet son dos problemas cuya solución parece estar asociada a la sustitución del protocolo IP actual (IPv4) de la arquitectura TCP/IP, por la versión 6 de IP (IPv6). IPv6 está considerado actualmente cómo la única vía posible para seguir desarrollando la arquitectura de Internet de acuerdo a los principios de diseño con los que fue concebida. La introducción de IPv6 será un proceso complejo y costoso, pero creará una arquitectura de Internet mucho más adaptada a los requerimientos de uso actual y sobre todo futuro. IPv6 facilita también la introducción de protocolos que den solución a los otros retos de la arquitectura TCP/IP, tales como seguridad, movilidad, calidad de servicio, comunicación de grupo en tiempo real, etc. IPv6 es además extensible y permitirá incorporar nuevos protocolos en el futuro a medida que sean demandados. La introducción de los protocolos que implementan los nuevos servicios necesita reconfigurar y modificar todos los routers e implementaciones de IP existentes en Internet, por lo que es muy probable que la introducción masiva de estos nuevos servicios se realice asociada al despliegue de IPv6. Una Internet basada en IPv4 puede sobrevivir todavía por algún tiempo a base de parches, suponiendo que el crecimiento de la red sea limitado. Pero a medida que pase el tiempo, el coste real y de oportunidad de mantener la arquitectura actual será cada vez mayor. A pesar de que algunos de los nuevos servicios pueden ser desplegados en IPv4, su despliegue requerirá cambios que pueden llegar a tener costes similares a los de la introducción de IPv6, pero sin obtener los beneficios de una nueva arquitectura adaptada al uso masivo que ha alcanzado Internet. La transición a IPv6 parece haber comenzado ya, tanto en el mundo de la investigación, como en los países del sudeste asiático o en organismos que han comprendido que la transición va a ser compleja y es conveniente empezar a realizarla ya:

• La mayoría de las redes académicas europeas, norteamericanas, así como de otros países desarrollados ya han instalado en sus routers doble pila IPv6/IPv4, para soportar tanto el envío de paquetes IPv6 como IPv4. Por ejemplo, RedIris en España, GEANT en Europa, Internet2 en EEUU, además de muchas otras redes de países desarrollados.

53

• El Departamento de Defensa de EEUU obliga a que cualquier equipo adquirido después de octubre del 2003 soporte IPv6 y todas las redes del DoD deben haber incorporado IPv6 para el 2008.

• Los países con economías más desarrolladas de la región Asia-Pacífico, así como los que no poseen suficientes direcciones IPv4 ya han comenzado la transición acelerada a IPv6. Por ejemplo, Japón, Corea, Taiwan, China, etc.

• La Comisión Europea, así como la mayoría de los países desarrollados han creado “IPv6 Task Forces” con la finalidad de promover y estudiar la mejor forma de realizar la transición en cada uno de esos países.

• Cada vez más ISPs ofrecen servicios precomerciales IPv6 en Europa y Norteamérica.

• La introducción de servicios multimedia en UMTS también debe crear una gran demanda direcciones IPv6. Actualmente existen 800 millones de abonados GSM en el mundo y este número crece rápidamente. Todos estos abonados deberán pasar a UMTS en un futuro no muy lejano y necesitarán direcciones IPv6 para los servicios multimedia IMS de 3GPP.

El primer gran cambio introducido por IPv6 es por supuesto una nueva dirección de mayor tamaño (128 bits) que permite dar aproximadamente 1038 direcciones públicas diferentes, es decir

340.000.000.000.000.000.000.000.000.000.000.000.000 direcciones públicas. El número es tan grande que parece imposible agotarlo, aunque es muy probable que la tecnología del futuro necesite muchas más direcciones de las que podamos imaginar hoy y este espacio también se agote algún día. En 1970 las aproximadamente 4.000.000.000 direcciones del protocolo IPv4 parecían totalmente suficientes. La introducción de IPv6 permitirá solucionar o mejorar otros problemas de Internet, tales como

1. La asignación jerárquica del espacio de direcciones que permita una red más eficaz, escalable y robusta. Las tablas de direccionamiento de los routers son actualmente de gran tamaño debido a las asignaciones de clases A, B y C realizadas durante los primeros años en Internet. Una asignación jerarquizada reduciría mucho el tamaño de las tablas de encaminamiento, haciendo la conmutación mucho más eficaz. Esto no es en realidad un mérito de IPv6, sino de los organismos que asignen direcciones. IPv4 también podía haber tenido un espacio de direccionamiento jerárquico, si las direcciones se hubiesen asignado de otra forma. Hoy en día ya es imposible reordenar el espacio de direcciones de IPv4, por lo que la introducción de un espacio de direccionamiento jerarquizado en Internet solo parece posible en IPv6 donde se están siguiendo unos procedimientos de asignación de bloques de direcciones muy rigurosos.

2. Simplifica la gestión de los ordenadores conectados a la red, soportando de forma automática la conexión de nuevos ordenadores (plug and play) sin necesidad de configurarlos explícitamente. La renumeración de redes se simplifica significativamente.

3. Elimina más de la mitad de sus campos de la cabecera del paquete IP para simplificar el diseño de los routers. También ha eliminado las funciones más costosas de procesar, tales como fragmentación, opciones, etc.

4. IPv6 incluye como componente obligatorio el protocolo de seguridad IPsec e integra más eficazmente que IPv4 facilidades tales como distintos grados de calidad de servicio (QoS), movilidad IP, multicast o anycast.

El mayor problema para la introducción de IPv6 en Internet está en cómo realizar la transición de IPv4 a IPv6 de forma que no se interrumpa el servicio. Durante los últimos años IETF ha desarrollado múltiples mecanismos de transición y coexistencia entre IPv4 e IPv6 [9]. Estos mecanismos están siendo evaluados

54

exhaustivamente por los fabricantes de routers y ordenadores, así como por grandes proyectos de investigación (en Europa por ejemplo LONG [21], Euro6IX [20] o 6net [22]), además de por múltiples laboratorios de investigación, tal y como se hace con todos los protocolos importantes de Internet. Estas evaluaciones están mostrando que IPv6, así como los mecanismos de transición han alcanzando un alto grado de madurez. El mecanismo de transición más importante es la doble pila IPv6/IPv4. Los ordenadores que instalen doble pila podrán comunicar con ordenadores de la vieja (IPv4) y la nueva (IPv6) Internet. Ya se han realizado múltiples experimentos que han validado completamente la posibilidad de convivencia de ambos protocolos. Además hay muchos otros mecanismos de transición [9], basados en traductores entre IPv6 e IPv4 o en túneles, que permitirán la interoperabilidad de los nuevos sistemas que sólo tengan IPv6 con el mundo IPv4. Curiosamente uno de los mecanismos, denominado NAT-PT, está basado en NAT. Igual que NAT permite acceder a servicios IPv4 desde una red privada, NAT-PT permite acceder a servicios IPv4 desde una red IPv6. Otro problema, probablemente de mayor envergadura que el anterior, es la migración de aplicaciones a IPv6 [31]. Las aplicaciones IPv6 también utilizan TCP, UDP y el interfaz de sockets, pero sobre IPv6 o doble pila (IPv4/IPv6), en vez de sobre IPv4. El interfaz de sockets ha sido adaptado en sus múltiples versiones para utilizar IPv4, IPv6 o doble pila. Su uso es muy similar al que se hacía en IPv4 [31], pero incluye pequeñas diferencias que obligan a realizar nuevas versiones de las aplicaciones existentes, para poder migrar a IPv6. La migración de aplicaciones de IPv4 a IPv6 no es difícil si éstas se han diseñado haciendo un uso adecuado de este interfaz. Incluso, algunos lenguajes como Java hacen que la migración sea prácticamente transparente al pasar a una versión del lenguaje que soporte IPv6, como Java 1.4. La migración de todas las aplicaciones existentes necesitará un enorme volumen de trabajo, la mayor dificultad está en el porte de las aplicaciones que hicieron mal uso de las direcciones IPv4 y del interfaz de sockets, que requieren un rediseño muy significativo de la aplicación.

6.4.2 La calidad del servicio TCP/IP La calidad de servicio de una comunicación a través de una red de transporte se mide por la velocidad máxima de envío de información, las perdidas de bloques de información en la transmisión, así como por el retardo introducido por la transmisión. La enorme eficiencia de Internet se debe a que el protocolo IP se diseño para dar un servicio que no garantiza la calidad de servicio, ni la entrega de los paquetes a su destinatario, conocido en inglés como servicio “Best Effort”. La enorme ventaja de este servicio es su simplicidad, porque los routers pueden tirar paquetes en situaciones de congestión. Cuando no hay congestión la transmisión es de buena calidad, pero cuando los paquetes pasan por un router congestionado la calidad se degrada y se producen pérdidas y retrasos muy significativos. A pesar de que el ancho de banda en Internet ha aumentado muy significativamente, sigue habiendo congestión en muchos puntos de la red. Los puntos de congestión degradan la calidad del transporte aunque exista exceso de ancho de banda en todo el resto de la ruta. La mayoría de las aplicaciones de Internet utilizan el protocolo TCP para proteger frente a las perdidas de paquetes que ocurren en situaciones de congestión, por lo que la existencia de perdidas de paquetes en la red nunca ha sido un problema importante. En cambio, los protocolos de la arquitectura multimedia de Internet envían los flujos de audio y de vídeo como paquetes UDP

55

que no van protegidos frente a las perdidas en la red, por lo que las situaciones de congestión pueden degradar la calidad del audio y vídeo hasta hacerlo ininteligible. La razón de utilizar UDP es que introduce menor retardo que TCP, siendo esto un requisito importante de la transmisión de audio y vídeo. Por estas razones, tanto IETF, como el mundo investigador, llevan tiempo trabajando en el desarrollo de técnicas que permitan controlar la calidad de servicio directamente a nivel del protocolo IP, de forma que las aplicaciones de envío de audio y vídeo pueden disponer de calidades de servicio IP sin pérdidas ni retrasos significativos. IETF ha desarrollado dos propuestas de control de la calidad del servicio de transporte de información para la transmisión de voz y vídeo con calidad a través de Internet, que han alcanzado un apoyo considerable y son conocidas como IntServ (Integral Services) y DiffServ (Differentiated Services) [2]. IntServ fue la primera propuesta en aparecer. IntServ proponía en sus primeras versiones utilizar el protocolo de señalización RSVP como un protocolo extremo a extremo de reserva de admisión y recursos que garantizasen la calidad de servicio para cada flujo de tráfico individualmente. IntServ necesita reservar recursos en cada router de forma individualizada para cada flujo, por lo que presenta problemas de escalabilidad. Actualmente ha pasado a ser considerado solamente como un protocolo de señalización para solicitar calidad de servicio en terminales y aplicaciones de usuario. Su función tiene grandes paralelismos con la función de señalización que SIP desempeña por lo que no es descartable que exista una cierta convergencia entre ambos. DiffServ no es un protocolo de calidad de servicio extremo a extremo, sino que propone marcar los paquetes cuando entran en un dominio DiffServ con una marca de tipo de tráfico que es utilizada por los routers para hacer un reenvío diferenciado de los paquetes. Esto permite que los paquetes de voz y vídeo se marquen como prioritarios para que adelanten a los paquetes no prioritarios de datos (Web, correo, etc) en los routers, minimizando de esta forma el retardo y las perdidas. El bajo coste computacional de esta técnica permite una eficaz integración en los routers IP, por lo que se considera uno de los componentes clave para la integración de voz y datos en Internet. La tendencia actual es a utilizar una combinación de InteServ y DiffServ, donde el núcleo central de la red implementa DiffServ, mientras que IntServ y RSVP se utilizan para que las aplicaciones soliciten la calidad de servicio requerida en el acceso así como a los routers del borde de la zona DiffServ, que serían los encargados de marcar los paquetes. También existen defensores de otra estrategia de control de la calidad de servicio, denominada “throw bandwidth”, que propone simplemente aumentar el ancho de banda disponible lo suficiente como para evitar situaciones de congestión en la red. Aunque a primera vista esta propuesta puede parecer carente de lógica, la relación capacidad/coste en los enlaces cableados y en los conmutadores de alta velocidad ha aumentado tanto que quizá la estrategia de tener redes sobredimensionadas sin control de calidad de servicio acabe siendo la solución más económica. Por supuesto esta estrategia no es aplicable en los accesos inalámbricos donde la integración del envío de voz con servicios de datos solo podrá realizarse utilizando alguno de los mecanismos anteriores de control de la calidad de servicio, dada la escasez de ancho de banda de los enlaces inalámbricos.

6.4.3 Difusión y comunicación de grupo: multi-envío (multicast) La disponibilidad de protocolos de comunicación de grupo que permitan que un número grande de usuarios se intercambien información en tiempo real ha sido una de las áreas de investigación de Internet desde sus comienzos. Ya en los años 70

56

se introdujo en las direcciones IPv4 un bloque reservado a direcciones multi-envío (multicast en inglés), que debían permitir el desarrollo de servicios de comunicación de grupo en tiempo real. Actualmente existen protocolos de multi-énvio bastante maduros ya integrados en los routers comerciales que pueden empezar a desplegarse en las redes IP. Un protocolo de multi-envío es necesario para permitir que Internet soporte eficazmente el envío de información a múltiples destinatarios, como es el caso en la difusión de radio o de televisión, audio-conferencias o video-conferencias multipunto, etc. Sin un protocolo de multi-envío la difusión masiva de información en tiempo real a través de Internet puede realizarse pero es enormemente ineficaz. Los protocolos de multi-envío se han desplegado fundamentalmente en redes de investigación donde se está experimentando con nuevos servicios, con el objetivo de adquirir experiencia sobre como gestionar este servicio, así como permitir el desarrollo de nuevas aplicaciones. La falta de experiencia suficiente sobre la gestión mas adecuada del tráfico de multi-envío, así como la carencia de un modelo de negocio que rentabilice su uso ha llevado a que muchas redes comerciales y corporativas lo deshabilitan. Como conclusión podemos decir que las técnicas de multi-envío parecen haber alcanzado bastante madurez, pero su despliegue masivo parece estar esperando el desarrollo de un modelo de negocio que lo rentabilice.

6.4.4 Redes móviles El acceso móvil a Internet se ha convertido en uno de los grandes retos de la Internet del futuro. Cada vez es mayor la demanda de acceso a Internet desde cualquier lugar y a través de dispositivos fácilmente transportables, tal y como ocurrió en la década de los noventa con la telefonía móvil de segunda generación GSM [42]. La movilidad en Internet necesita múltiples componentes para permitir que los terminales y los usuarios se desplacen por la red estando siempre localizables y pudiendo incluso acceder a los servicios cuando están en movimiento. Los componentes más importantes son:

♦ Los enlaces inalámbricos en la conexión de acceso a la red, que normalmente son de tipo radio. Una conexión inalámbrica permite desplazamientos de usuario sin pérdida de la conectividad dentro del área de cobertura de la conexión inalámbrica, denominada habitualmente celda. El acceso inalámbrico ya ha sido analizado con bastante detalle en el capítulo dedicado a los terminales, por lo que en esta sección solo vamos a analizar someramente la red de acceso inalámbrico en GSM/GPRS y UMTS.

♦ Protocolos de movilidad terminal que permiten a un terminal desplazarse de un lugar a otro de la red sin perder la conectividad ni el acceso a las aplicaciones y servicios.

♦ Los protocolos de movilidad personal que permiten a un usuario cambiar de terminal y de punto de conexión a la red sin perder la conectividad, el acceso a las aplicaciones y servicios o la configuración de sus perfiles de usuario.

El ancho de banda disponible en un acceso inalámbrico siempre será menor que en los accesos cableados, porque el espectro radioeléctrico a través del que se realizan dichas conexiones es un recurso escaso, pero a cambio nos ofrece el enorme valor añadido de la movilidad. Como ya hemos comentado hay dos tipos de tecnologías de conexión inalámbrica que están teniendo un fuerte impacto en Internet. Las redes locales inalámbricas WIFI, que son una tecnología de acceso muy exitosa para dar movilidad en redes

57

de área local, pero cuyo impacto en la arquitectura de la red es mínimo, porque se insertan como cualquier otra tecnología de enlace en la red. En cambio el acceso a Internet a través de las redes de telefonía móvil de segunda y tercera generación está teniendo un fuerte impacto en la red. Está parte de la red puede ser el lugar donde se produzca la convergencia de voz y datos sobre IP, por lo que vamos a analizar brevemente su arquitectura y evolución.

6.4.4.1 Acceso inalámbrico en redes 2G y 3G: GPRS, UMTS, etc. El acceso inalámbrico a Internet a través de servicios desplegados sobre las redes de telefonía móvil de segunda generación es la alternativa actual de mayor cobertura geográfica. El servicio i-mode [43] introducido por NTT Docomo en Japón en 1999 supuso el primer gran despliegue comercial de acceso móvil a Internet. En Europa se ha desplegado recientemente el servicio GPRS (General Packet Radio Service) [2] de acceso IP móvil con un ancho de banda de entre 10Kb/s y 50Kb/s sobre la infraestructura de la red GSM. El próximo paso es la telefonía móvil es UMTS (Universal Mobile Telecommunication System) [40], que dará un ancho de banda sustancialmente mayor que GPRS. 3GPP (3rd Generation Partnership Project) [39] es el organismo que define actualmente las normas para el despliegue de UMTS, así como para GSM y GPRS. Las sucesivas definiciones del servicio UMTS realizadas por el 3GPP ilustran la evolución que esta teniendo lugar en las arquitecturas de transporte de voz y datos. UMTS utiliza una red de acceso denominada UTRAN (UMTS Terrestrial Radio Access Network) para dar conectividad desde los teléfonos móviles al núcleo de la red. Esta conectividad se da a través de la UTRAN, tanto en las comunicaciones de voz, como en el acceso a Internet, usando ATM para transportar ambos tipos de tráfico. En el diseño inicial de UMTS, el núcleo de la red tiene dos dominios separados: conmutación de circuitos para la voz y conmutación de paquetes para el acceso a Internet. Las versiones más recientes de UMTS han ido extendiendo gradualmente el uso de IP en el núcleo de la red y en la UTRAN. Así, la Release 4 de UMTS realizada por el 3GPP permite sustituir la parte de circuitos del núcleo por una arquitectura de voz sobre IP con los elementos (pasarelas y controladores) y protocolos de control. La Release 5 de UMTS da un paso más en la convergencia e introduce el sistema IMS (IP Multimedia System), que se basa en la arquitectura de servicios multimedia de Internet (SIP/SDP y RTP/RTCP de IETF), y permite usar transporte sobre IP incluso en la UTRAN. Cuando se despliegue la Release 5 serán los operadores los que deban decidir si apuestan o no por la convergencia de voz y datos sobre una única red IP, tanto en la UTRAN, como en el núcleo troncal de la red. El sistema IMS (IP Multimedia System) permite el despliegue de todo tipo de servicios multimedia en UMTS y otro escenario posible es que no se llegue a la convergencia de acceso a Internet y telefonía, pero que IMS se desarrolle como un sistema de creación de servicios multimedia asociado solo al acceso a Internet.

6.4.5 Movilidad personal y de terminal La movilidad, tanto de terminal, como personal, crea un escenario de gran complejidad en el que se involucran muchos servicios de Internet, además del tipo de identificación de usuario y de terminal utilizado. Internet ha utilizado tradicionalmente el DNS (Domain Name System) para identificar terminales, dando un nombre simbólico (de dominio) a un terminal y asociando a dicho nombre una dirección IP, que identifica dicho terminal en la red. El DNS permite determinar la dirección IP asociada a un nombre simbólico y viceversa. El protocolo MIP (Mobile IP), en desarrollo en IETF (solo está estable la RFC de MIP para IPv4), está pensado para establecer conectividad con

58

terminales que se desplazan de un punto a otro de la red y son identificados a través de su dirección IP, que se obtiene a partir de la dirección de dominio. El protocolo MIP actúa a nivel IP, independizando las aplicaciones de la movilidad. Las aplicaciones siguen funcionando, aunque el usuario se haya desplazado de un lugar a otro de la red, incluso funcionan cuando está en movimiento aunque puede sufrir interrupciones temporales significativas de conectividad. La movilidad a nivel de IP se denomina macro-movilidad y permite el cambio de la dirección IP cuando el terminal pasa de una red a otra. El protocolo MIP soporta solamente movilidad de terminal. Además están los protocolos de micro-movilidad que son complementarios de los de macro-movilidad. Un protocolo de micro-movilidad gestiona desplazamientos dentro de un mismo dominio de celdas de acceso inalámbrico, con el objetivo de minimizar la perdida de información durante el paso de una celda a otra. Existen diversas propuestas para micro-movilidad en desarrollo. HMIP (Hierarchical Mobile IP) es la propuesta en desarrollo en IETF. La gestión de movilidad proporcionada por SIP [23] da un paso más y permite movilidad personal, es decir que una persona pase a recibir llamadas de un terminal a otro, por ejemplo de su ordenador personal al móvil. Por eso las direcciones SIP identifican usuarios y no terminales. Una dirección SIP tiene forma de URL e identifica a un usuario, por ejemplo “sip:[email protected]”. La estructura del URL es muy similar a la del correo electrónico. SIP ha sido diseñado para que los usuarios no estén asociados a una posición física en la red, sino a un servicio de localización. Cada usuario registra en dicho servicio, cuando se desplaza, su nueva localización o su nuevo terminal. La creación de una sesión SIP empieza con una solicitud de creación de sesión, enviada por el usuario llamante al servicio de localización de usuarios. Este intenta localizar al usuario llamado en el último terminal registrado. Si la localización funciona correctamente, llamante y llamado se ponen en contacto y establecen la sesión. Cuando un usuario se desplaza de un lugar a otro de la red, debe notificar dicho desplazamiento al servicio de localización de usuarios. El soporte a movilidad personal de SIP es complementario de la macro o la micro movilidad, pudiéndose utilizar los tres conjuntamente. La gestión de movilidad proporcionada por SIP es enormemente flexible y permite incluso interoperabilidad con la red telefónica. Internet y la red telefónica van a coexistir durante bastante tiempo y hace falta un marco de interoperabilidad entre ambas. Los grupos de trabajo de IETF llevan desarrollando este marco con el objetivo de integrar ambas redes en un marco de uso común, de forma que desde Internet exista acceso a los servicios y usuarios de la red telefónica. Es previsible que en esta área se desarrollen múltiples servicios en el futuro. Por ejemplo, en telefonía cada usuario se identifica con un número de teléfono, que aunque es una forma poco amigable de identificar usuarios, está tan extendida, que SIP también permite identificar usuarios a través de un número telefónico. Se están creando algunos servicios muy ambiciosos en esta dirección que integran el acceso a través de teléfono con el acceso a través de Internet. Por ejemplo ENUM es un servicio de acceso a través de DNS a perfiles de usuario identificados por números de telefónicos, donde los registros en DNS pueden guardar perfiles y datos de usuarios asociados a sus múltiples formas de acceso (teléfono fijo y móvil, fax, ordenador, etc.), facilitando la localización de las diversas formas de contacto de un usuario determinado.

59

6.4.6 La evolución de la conmutación y la transmisión Las tecnologías de transporte y de conmutación de paquetes IP del núcleo troncal de la red también están evolucionando y aumentando fuertemente sus capacidades. Los nuevos desarrollos se van incorporando gradualmente a la red gracias a la capacidad de IP para incorporar nuevas tecnologías de red de forma incremental sin afectar al funcionamiento de las aplicaciones. Actualmente las grandes troncales de comunicación suelen utilizar fibra óptica, a través de la cual se transportan los paquetes IP. La capacidad de transporte de paquetes de las troncales crece incesantemente. La mayoría de las troncales transportan hoy los paquetes de datos sobre enlaces SDH (Synchronous Digital Hierarchy) o WDM (Wavelength Division Multiplexing), pero también se está experimentando con otro tipo de redes ópticas de mayor ancho de banda y capacidades. Es en el área de la conmutación donde está en estos momentos el cuello de botella en el núcleo de la red y donde es más necesario aumentar las prestaciones y la funcionalidad, por lo que actualmente se están introduciendo protocolos que permiten alcanzar altas velocidades de conmutación, junto con soporte a la creación de nuevos servicios. Por ejemplo un protocolo en auge es MPLS (Multi Protocol Label Switching) que conmuta paquetes a nivel 2 de forma muy eficaz y permite transportar no solo paquetes IP. MPLS también puede ser utilizado para transportar los paquetes de otros protocolos o servicios, tales como Ethernet, ATM, Frame Relay o paquetes de voz directamente, pudiéndose utilizar incluso para crear redes privadas virtuales. MPLS también permite hacer ingeniería de tráfico con MPLS-TE, por lo que muchas operadoras están basando los núcleos troncales de sus redes multi-servicio en conmutación MPLS. La conmutación de paquetes IP directamente a nivel óptico también es otro campo que está generando mucho interés aunque actualmente está en una fase de desarrollo menos avanzada que MPLS.

7. Concluyendo Internet se gestó en los años 70 en un contexto muy diferente y desde entonces ha estado evolucionando continuamente como si fuese un organismo vivo. Si hubiese que destacar la característica más significativa de Internet, ésta es su enorme capacidad de adaptación, de innovación y sobre todo de reacción frente a problemas. Durante esta evolución Internet ha desplazado a muchas otras redes de datos que han competido con ella. Los factores a los que Internet debe su éxito son: esa enorme capacidad de adaptación; la enorme eficacia de la arquitectura TCP/IP, tanto para desacoplar las aplicaciones de las tecnologías de red, como para facilitar el diseño de nuevas aplicaciones utilizando el interfaz de “sockets”; la decisión de diseñar IP como un protocolo no orientado a conexión dando a nivel de transporte el servicio TCP orientado a conexión y el servicio UDP de datagramas. La naturaleza no orientada a conexión de IP libera al router de tener que controlar elementos de las aplicaciones, que con IP sólo debe conmutar paquetes en función de sus tablas de direccionamiento, mientras que las aplicaciones deben ser “extremo a extremo” y residir solamente en los terminales. La introducción masiva de dispositivos NAT durante la década de los noventa rompe la conectividad “extremo a extremo” existente en Internet hasta entonces. La razón de esta enorme capacidad de adaptación se debe probablemente a la estructura participativa de las organizaciones que rigen la evolución de Internet, ISOC-IETF y W3C. Ambas aglutinaron desde el primer momento una gran comunidad de investigadores y de usuarios fuertemente involucrados en mejorar la red y en adaptarla a sus necesidades. La estrecha relación que investigadores y

60

usuarios han mantenido siempre a través de la red, permitió alinear desde un principio los desarrollos de aplicaciones y servicios con las necesidades de uso, acelerando el despliegue y la consolidación de servicios en la red. La creación de una Internet de Nueva Generación hay que verla en este contexto y es un paso más en esta evolución que todavía no sabemos donde acabará. Aunque la red esté creciendo en este momento más lentamente que en el pasado, esto no quiere decir que no esté evolucionando. Internet está sufriendo en estos momentos un proceso de transformación interna que está sentando los cimientos tecnológicos de una nueva generación de aplicaciones que aumentarán todavía más su importancia como gran troncal de la Sociedad de la Información. La importancia creciente de Internet está demandando nuevas formas de acceso y nuevos terminales que faciliten y potencien su uso. Tal y como ha mostrado el enorme éxito de la telefonía móvil, parece que el PC ira cediendo su hegemonía como terminal de acceso a los nuevos dispositivos móviles, especialmente a los teléfonos móviles con acceso a Internet, que serán el motor del crecimiento de Internet en los próximos años. En una fase posterior serán los dispositivos empotrados en vehículos, eletrodomésticos y otros sistemas los que con alta probabilidad tomen el relevo y pasen a ser el motor del crecimiento futuro de la red. La Internet de Nueva Generación debe adaptarse a estas demandas de uso futuro, tomando en consideración las lecciones aprendidas durante los últimos 20 años, que parecen indicar que el gran potencial de crecimiento e innovación Internet sólo podrá desarrollarse después de una renovación de su arquitectura, que según todos los indicadores debe incluir los siguientes componentes

♦ La nueva arquitectura del Web (XML, Web Services, Web Semántico, etc.) que se está definiendo en W3C.

♦ La arquitectura de servicios multimedia de Internet basada en RTP/RTCP y SIP/SDP

♦ El nuevo marco de seguridad basado en una identidad digital conocida en la red, basada en PKI y en el protocolo IPsec.

♦ El protocolo IPv6 con su enorme espacio de direcciones y los nuevos servicios asociados.

El despliegue de la nueva arquitectura llevará tiempo, pero sentará las bases de una nueva Internet capaz de soportar otra vez décadas de crecimiento e innovación. El mundo de las aplicaciones está consolidando en estos momentos los cimientos de su crecimiento futuro. El W3C está desarrollando una nueva arquitectura basada en XML (eXtensible Markup Language) [12], que gracias a su extensibilidad permite ir creando paso a paso todos los componentes de la nueva arquitectura. El nuevo Web seguirá soportando la publicación de documentos y aplicaciones, pero permitiendo también la cooperación entre aplicaciones a través de Internet en el marco de Web Services. También incorpora capacidades multimedia y calidad tipográfica en la información publicada, soportando el acceso a través de toda la variedad de terminales que están apareciendo. Por último incorpora meta-datos semánticos que permitirán buscar y clasificar la información en la red de una forma mucho más efectiva en el marco de lo que se conoce como el Web semántico. La transición a la nueva arquitectura del Web se realizará de forma gradual y necesitará un largo periodo de tiempo hasta que se migre toda la información y todos los servicios de la Internet actual. La arquitectura de servicios multimedia de Internet también se va consolidando, desplegándose cada vez más aplicaciones multimedia basadas en SIP/SDP y RTP/RTCP. El mejor ejemplo es la enorme popularidad adquirida por el Messenger de Microsoft, que es uno de los primeros despliegues a gran escala de estos

61

protocolos. Las aplicaciones P2P son ya muy populares y se espera que la computación en malla (GRID) se consolide en algún momento. El gran reto de introducir un marco de seguridad basado en una identidad digital también progresa a un ritmo adecuado, a pesar de la complejidad de su despliegue que requiere tanto soluciones técnicas, como cambios legales o nuevos servicios que la administren. Su importancia para el futuro de Internet está llevando a que la mayoría de los países estén desarrollando a buen ritmo el nuevo marco de seguridad en todos sus frentes. Por otro lado, Internet se encuentra ante lo que probablemente es el reto de mayor dificultad de su historia, la sustitución del protocolo IP en toda la red. La sustitución de IP empezó a prepararse en ISOC-IETF hace 10 años cuando se detectaron los primeros signos de escasez de direcciones, llevando a la propuesta de sustitución de IPv4 por IPv6 [16] en 1998. Desde entonces, prácticamente todos los fabricantes de routers y de sistemas operativos han introducido IPv6 en sus productos, preparando una transición lenta y compleja, que parece haber empezado ya y en la que IPv6 coexistirá con IPv4 durante un largo periodo de tiempo. Por supuesto, la red no puede parar y el cambio debe hacerse de forma que los servicios y aplicaciones sigan funcionando durante toda la transición independientemente del uso de IPv6 o IPv4. La transición se espera que sea lenta y difícil pero los beneficios se espera que sean grandes. Con IPv6, la arquitectura TCP/IP será un nexo de unión todavía más eficaz entre unas tecnologías de red y unas aplicaciones que seguirán evolucionando, mejorando y consolidándose. Las aplicaciones tendrán acceso con IPv6 a nuevas facilidades que las tecnologías de red pueden ofrecer y que IPv4 hace difíciles de usar, por ejemplo QoS, movilidad, seguridad, etc. Esto permitirá crear nuevos servicios y aplicaciones. La gran incógnita es la unificación de las troncales de red en que se basa el transporte de la información en nuestra sociedad, incluyendo voz, datos, radio, televisión, etc. Internet ha tenido un impacto enorme en los usuarios, pero por otro lado no ha generado demasiado volumen de negocio en las operadoras tradicionales, sobre todo en las europeas, que siguen teniendo sus principales fuentes de ingreso en la telefonía, tanto móvil como fija. La unificación de las redes debe ser viable no solo desde el punto de vista técnico, sino también económico. Pero todavía no se han desarrollado los modelos de negocio que permitan un crecimiento sostenible de la gran red unificada. De momento las operadoras están apostando en sus redes troncales terrestres por redes multi-servicio basadas en MPLS, sobre las cuales pueden gestionar redes y protocolos de muy diverso tipo, que incluyen IP pero no se limitan solo a él. En cambio, es en UMTS (Release 5 del 3GPP) donde la posible convergencia de voz y datos ha sido incluida como una opción a decidir por los operadores, tanto en la UTRAN como en el núcleo de red. Son las operadoras las que deberán decidir si seguir utilizando los protocolos tradicionales de conmutación de circuitos para dar servicios de telefonía, o si utilizan protocolos de voz sobre IP. El despliegue masivo de UMTS será una importante prueba para determinar si la convergencia de voz y datos en la red se llegará a producir. Hasta ahora, cada década ha consolidado Internet en algún aspecto importante. Durante los 70 se diseñó y validó Internet. Durante los 80 nace Internet como una red operativa y comienza su despliegue en universidades y centros de investigación. Durante los 90 Internet supera con éxito su adaptación a un uso masivo a través de proveedores comerciales y además florecen las aplicaciones. Si hubiese que predecir la evolución de Internet en esta década apostaría por que Internet se consolide como la troncal hegemónica de la Sociedad de la Información, a través de la que se unifique y se facilite el acceso a prácticamente todos los servicios relacionados con la información. También es muy probable que las grandes troncales IP acaben desplazando de forma

62

significativa a las demás redes de telecomunicación y absorban la mayoría del tráfico que ahora se cursa por la red telefónica y quizá también una parte significativa del tráfico de radio y de televisión. El potencial sin desarrollar de Internet es todavía muy grande y probablemente la evolución de Internet, de sus aplicaciones y de sus servicios seguirá sorprendiéndonos por su capacidad de innovación y de adaptación en las situaciones más difíciles, tal y como ha sucedido hasta ahora. Para terminar, me gustaría resaltar la importancia y la necesidad de la investigación a medio y largo plazo para el desarrollo de tecnologías revolucionarias, frente a la tendencia a hacer sólo investigación aplicada orientada a corto plazo que impera actualmente. Creo que el largo proceso de gestación de Internet es la mejor ilustración de esta necesidad. La implantación social de Internet, que comenzó a mediados de los 90, se produjo después de más de 30 años de investigación, desarrollo y uso piloto dentro de la comunidad investigadora. Internet nunca habría sido posible sin el enorme esfuerzo investigador realizado durante esos 30 años.

8. Agradecimientos Este libro es el resultado de un proceso de reflexión en el que han intervenido muchas personas, foros o instituciones a los que deseo agradecer sus contribuciones. En primer lugar, quiero agradecer a Telefónica S.A. la creación de la Cátedra Telefónica en la UPM para Internet de Nueva Generación que como es lógico ha sido un marco muy efectivo para reflexionar sobre este tema. Además están todas las personas que han contribuido directamente con sus ideas, reflexiones o revisiones tales como, Tomás de Miguel, David Fernández, Joaquín Salvachúa, Pedro Lizcano, Encarna Pastor, Antonio Gómez Skarmeta, Víctor Villagrá, Azucena Hernández, Enrique Vázquez, Luis Galindo, Eva Castro, Jordi Palet, Pedro Ruiz, Santiago Pavón, Julio Berrocal, Tomas Robles, Gabriel Huecas, Gregorio Martínez, Juan Antonio Sánchez, Javier Sedano, Juan Viñas, Alejandro Alonso. También quiero agradecer a los participantes de los proyectos de investigación LONG, Euro6IX, UNIVERSAL, ELENA, SABA, SABA2 e ISAIAS, donde se han gestado muchas de estas ideas, así como a los miembros del Capítulo Español de la IPv6 Task Force no incluidos anteriormente (Julio Alba, Guillermo Cajigas, Carlos Cebrián, Johnny Choque, Jordi Domingo, Carlos García Braschi, Rosa García Ontoso, Eduardo Jacob, Carlos Ralli, Alfredo Reino, Raul Rivero, José Luis Sasástegui) cuyos comentarios han servido para clarificar muchas de las ideas aquí expuestas. Por último debo incluir a los miembros del IPv6 Forum liderado por Latif Ladid, cuya lista de distribución ha sido una importante fuente de información.

9. Bibliografía y Referencias [1] “La Galaxia Internet”, Manuel Castells. Editorial Areté, 2001, ISBN 84-01-341571. [2] “Computer Networking: A Top-Down Approach Featuring the Internet (Second Edition)”, J. Kurose and K. Ross. Addison Wesley, 2003, ISBN 0-201-97699-4. [3] “The Design Philosophy of the DARPA Internet Protocols”, David D. Clarke. ACM Computer Communication Review, Volume 18, Number 4, August 1988. [4] “The World Wide Web”. T. Berners-Lee, R. Cailliau, H. Friestyk Nielsen and A Secret. Communications of the ACM, Vol. 37, No. 8 (Aug-94), pp 76-82.

63

[5] “IETF (Internet Engineering Task Force) Web page”, http://www.ietf.org [6] “The Beginnings of Packet Switching: Some Underlying Concepts”, P. Baran. IEEE Communications Magazine, July 2002, Vol. 40, No.7, pp. 42-48. [7] “Predicting the Unpredictable: Future Directions in Internetworking and their Implications”, D. Farber. IEEE Communications Magazine, July 2002, Vol. 40, No.7, pp. 67-71 [8] “Evolving toward the Next-Generation Internet: Challenges in the Path Forward”. IEEE Communications Magazine, July 2002, Vol. 40, No.7, pp. 72-76 [9] “Realizing the Transition to IPv6”, D. Waddington and F. Chang. IEEE Communications Magazine, June 2002, Vol. 40, No.6, pp. 138-148. [10] “A Brief History of the Internet”, B. Leiner, V. Cerf, D. Clark, R. Kahn, L. Kleinrock, D. Lynch, J. Postel, L. Roberts, S. Wolf. Internet Society (ISOC), http://www.isoc.org, All About the Internet. [11] “Judo Strategy”, D. Yoffie and M. Cusumano. Harward Business Review, January February 1999. [12] “W3C (The World Wide Web Consortium) Web page”, http://www.w3.org [13] “Google Web page”, http://www.google.com [14] “Internet Protocol Version 6 Specification”, S. Deering, R. Hinden. RFC 2460, ISOC-IETF 1998. [15] “Digital Hubbub”, P. Wallich. IEEE Spectrum, July 2002, pp. 26-30. [16] “Rethinking the Design of the Internet: The End to End Arguments vs. the brave new World”, M. Blumenthal and D. Clark. ACM Transactions on Internet Technology, Vol. 1, No. 1, August 2001, pp 70-109. [17] “The Middleware Muddle”, G. Huston. The Internet Protocol Journal, June 2001, http://www.cisco.com/ipj [18] “Internet Society Web page”, http://www.isoc.org [19] “Yahoo Web page”, http://www.yahoo.com [20] “Euro6IX project Web page”, http://www.euro6ix.org. [21] “LONG project Web page”, http://long.ccaba.upc.es/ [22] “6net project Web page”, http://www.6net.org/ [23] “Internet Communications using SIP”, H. Sinnreich, A. Johnston. John Wiley & Sons, Inc, 2001, ISBN: 0-471-41399-2. [24] “End to End Arguments in Systems design”, J. Salzer, D. Reed, D. Clark. ACM TOCS, Vol 2, No. 4, November 1984, pp. 277-288. [25] “Stanford move rekindles Net address debate”, By Carolyn Duffy, Network World, 01/24/2000, http://www.nwfusion.com/news/2000/0124ipv4.html [26] “SETI@home”, http://setiathome.ssl.berkeley.edu/ [27] “Global GRID Forum”, http://www.ggf.org/

64

[28] “P2P Networking: An Information Sharing Alternative”, M. Parmeswaran, A. Susarla y A. Whiston. IEEE Computer, Julio 2001. [29] “NAPSTER”, http://www.napster.com/ [30] “Internet Code of Conduct”, http://www.isoc.org/internet/conduct/ [31] “Programming guidelines on transition to IPv6”, Tomás De Miguel and Eva Castro, LONG Project Research Report, January 2003. [32] “The Semantic Web: A new form of Web content that is meaningful to computers will unleash a revolution of new possibilities”, Tim Berners-Lee, James Hendler and Ora Lassila”, Scientific American, Mayo 2001. [33] “Semantic Web”, Página de coordinación del Web Semántico en el W3C, http://www.w3.org/2001/sw/ [34] “Web Services”, Página de coordinación de Web Services en el W3C, http://www.w3.org/2002/ws/ [35] “The Anatomy of the Grid: Enabling Scalable Virtual Organizations”. I. Foster, C. Kesselman, S. Tuecke. International J. Supercomputer Applications, 15(3), 2001 (http://www.globus.org/research/papers/anatomy.pdf). [36] “Redes de Acceso de Banda Ancha: Arquitectura, Prestaciones, Servicios y Evolución”. J. Berrocal, E. Vázquez, F. González, M. Álvarez-Campana, J. Vinyes, G. Medinabeitia, V. García, Ministerio de Ciencia y Tecnología, 2003. [37] “La Aplicación Isabel”. http://isabel.dit.upm.es. [38] “The International Telecommunication Union”. http://www.itu.int/home/. [39] “3GPP - 3rd Generation Partnership Project”. http://www.3gpp.org/. [40] "UMTS (Universal Mobile Telecommunications System) Forum". http://www.umts-forum.org. [41] “GPRS (General Packet Radio Service) ”. http://www.gsmworld.com/technology/gprs/intro.shtml. [42] “GSM (Global Mobile System) World”. http://www.gsmworld.com. [43] “i-mode”. http://www.eurotechnology.com/imode/. [44] “WAP (Wireless Application Protocol) Forum”. http://www.wapforum.org/. [45] “Las Telecomunicaciones Multimedia”. Elaborado por Telefónica I+D, 2003, ISBN 84-89900-31-0.