sistema de multiconferencia basado en software libre.pdf
TRANSCRIPT
1
Sede Renca
SISTEMA DE MULTICONFERENCIA BASADO EN SOFTWARE LIBRE.
“Trabajo de seminario para optar al título de
Ingeniero en Telecomunicaciones, Conectividad y Redes”
Profesor guía: Roberto Peña Faúndez
Autores:
Erick Alejandro Arellano Muñoz.
Víctor Eduardo Dureaux Silva.
Matias Ignacio Núñez Leiva
Julio de 2014
2
Sede Renca
SISTEMA DE MULTICONFERENCIA BASADO EN SOFTWARE LIBRE.
Trabajo de seminario presentado por
Erick Alejandro Arellano Muñoz.
Víctor Eduardo Dureaux Silva.
Matias Ignacio Núñez Leiva
Como requisito para optar al título de
Ingeniero en Telecomunicaciones, Conectividad y Redes
Profesor Guía
Roberto Peña Faúndez
Julio de 2014
3
TITULO DEL TRABAJO DE SEMINARIO:
Sistema de Multiconferencia basado en software libre
AUTORES
Erick Alejandro Arellano Muñoz
Victor Eduardo Dureaux Silva
Matias Ignacio Núñez Leiva
TRABAJO DE SEMINARIO, presentado en cumplimiento parcial de los requisitos
para optar al título de Ingeniero en Informática de la Universidad Tecnológica de
Chile INACAP, sede Renca.
Comisión Examinadora:
Director de Carrera ...................................................................
Docente 1 .....................................................................
Docente 2 .....................................................................
Docente 3 .....................................................................
Docente 4 .....................................................................
NOTA OBTENIDA: .........................
4
Tabla de contenido
Abstract. ................................................................................................................ 11
CAPÍTULO I: introducción ..................................................................................... 12
1.1 Objetivo General. ......................................................................................... 13
1.2 Objetivos Específicos. .................................................................................. 13
1.3 Origen y Necesidad. ..................................................................................... 13
1.4 Motivación. ................................................................................................... 14
1.5 Estado del Arte. ............................................................................................ 14
1.6 Desarrollo y Alcance. ................................................................................... 16
CAPÍTULO II: ........................................................................................................ 17
Fundamentos teóricos y estándares de la Videoconferencia. ............................... 17
2.1 Videoconferencia. ........................................................................................ 17
2.1.1 Sistemas de videoconferencias. ............................................................ 17
2.1.2 Streaming. ............................................................................................. 18
2.1.3 Elementos de la videoconferencia ......................................................... 20
2.2 Tecnologías de transporte y comunicación .................................................. 22
2.2.1 ISDN (Red Digital de Servicios Integrados). .......................................... 22
2.2.2 Acceso Básico. ...................................................................................... 23
2.2.3 Acceso Primario. .................................................................................... 24
2.2.4 Servicios. ............................................................................................... 24
2.2.5 Interfaz Usuario-Red .............................................................................. 26
2.2.6 Numeración (Servicios) .......................................................................... 30
2.3 Videoconferencia Basada en IP. .................................................................. 31
2.3.1 Una red de videoconferencia IP incluye. ................................................ 32
2.3.2 H.323. .................................................................................................... 34
2.3.3 Entidad ................................................................................................... 34
2.3.4 Extremo ................................................................................................. 34
2.3.5 Terminal ................................................................................................. 34
2.3.6 Gatekeeper ............................................................................................ 35
5
2.3.7 Gateway. ................................................................................................ 37
2.3.8 MCU (Multipoint Control Units). ............................................................. 37
2.4 Protocolo de Señalización. ........................................................................... 38
2.4.1 Características y Recomendaciones del Protocolo H.323 ..................... 40
2.4.2 Arquitectura del Protocolo H.323 ........................................................... 43
2.4.3 Protocolo SIP (Protocolo de Inicio de Sesiones) ................................... 45
2.4.3 Elementos de una red SIP. .................................................................... 47
2.5 Codec. .......................................................................................................... 53
2.5.1 Tipología de Codecs .............................................................................. 55
2.6 Estándares. .................................................................................................. 56
2.6.1 Codificación de Video. ........................................................................... 56
2.6.2 Definición. .............................................................................................. 56
2.6.3 Estándares. ............................................................................................ 57
2.7 Formatos intermedios CIF Y QCIF. .............................................................. 62
2.7.1 Estándares de Video H.32X y Familia. .................................................. 64
2.8 Estándares de audio G.72X y Familia. ......................................................... 67
CAPÍTULO III: Factibilidad Técnica y Económica ................................................. 70
3.1 Factibilidad Técnica. .................................................................................... 70
3.1.1 Topología ............................................................................................... 71
3.1.2 Hardware y Software. ............................................................................ 72
3.1.3 Diagrama. .............................................................................................. 73
3.1.4 Decisión Final. ....................................................................................... 74
3.2 Factibilidad Económica. ........................................................................... 76
3.2.1 Introducción. .......................................................................................... 76
3.2.2 Análisis previo a la situación actual. ...................................................... 77
3.2.3 Principales Ventajas. ............................................................................. 78
3.2.4 Diferencias entre Software libre y Pagado. ............................................ 79
3.2.5 Evolución de la videoconferencia en Chile ............................................ 80
3.2.6 Servicio de otros proveedores. .............................................................. 81
3.2.7 FODA. .................................................................................................... 82
3.2.8 Definición de los objetivos. .................................................................... 83
6
3.3 Propuesta Económica. ................................................................................. 84
3.3.1 Segmentación. ....................................................................................... 84
3.3.2 Antecedentes del Proyecto. ................................................................... 85
3.3.3 Presentación de los Especialistas.......................................................... 86
3.3.4 Costos de Funcionamiento. ................................................................... 86
3.3.5 Costos de Implementación. ................................................................... 86
3.3.6 Costos de Operación. ............................................................................ 87
3.3.7 PRI Y FLUJO DE CAJA. ........................................................................ 87
3.3.8 VAN. ...................................................................................................... 88
3.3.9 TIR. ........................................................................................................ 88
CAPÍTULO IV: Desarrollo del prototipo ................................................................. 88
4. Búsqueda de la plataforma adecuada ............................................................... 89
4.1 Elección de la MCU. ..................................................................................... 89
4.2 Selección Distribución de Linux de acuerdo a la compatibilidad .................. 91
4.2.1 Instalación Ubuntu 12.04 ....................................................................... 91
4.3.- Usando la Shell (Terminal de comandos) ................................................ 102
4.4.- OpenMCU ................................................................................................ 104
4.4.1.- Descarga e Instalación de OpenMCU ............................................... 104
4.4.2.- Descarga y compilación Códec de Audio y Video ............................. 106
4.5.- Conociendo la MCU ................................................................................ 110
4.6.- Selección de Aplicaciones para dispositivos terminales. ......................... 115
4.6.1.- Aplicación para Tablet y Smartphone ................................................ 115
4.6.2.- Aplicación para Equipos de escritorio y Laptops ............................... 116
4.6.3.- Equipos terminales reales ................................................................. 120
4.7.- Probando la Unidad de Control Multipunto “OpenMCU” ......................... 122
4.8.- Equipos utilizados en la prueba multipunto con 4 sitios ........................... 124
CAPÍTULO V: Conclusión. .................................................................................. 128
Conclusión........................................................................................................... 128
Referencias ......................................................................................................... 132
7
Indice de Tablas
Tabla 2. 1 Configuración conector RJ-45 .............................................................. 30
Tabla 2. 2 resolución de video ............................................................................... 63
Tabla 2. 3 Relación entre códec de audio. ............................................................ 69
Tabla 3. 1 Comparativa de compatibilidad ............................................................ 72
Tabla 3. 2 Foda ..................................................................................................... 83
Tabla 3. 3 Costos implementación ........................................................................ 86
Tabla 3. 4 Costos operacionales ........................................................................... 87
Tabla 3. 5 Costos operacionales ........................................................................... 87
Tabla 3. 6 Van Elegido .......................................................................................... 88
Tabla 3. 7 Porcentaje de TIR resultante ................................................................ 88
8
Indice de Figuras
Figura 2. 1 Componentes de una Red H.323 ............................................................................ 34
Figura 2. 2 Señalización de llamada ........................................................................................... 39
Figura 2. 3 Paquete en una llamada H.323 ................................................................................ 41
Figura 2. 4 Topología de una Red IP .......................................................................................... 43
Figura 2. 5 Arquitectura H.323 ..................................................................................................... 44
Figura 2. 6 Paquete H.323 ............................................................................................................ 44
Figura 2. 7 Paquete SIP ................................................................................................................ 45
Figura 2. 8 Señalización en llamada SIP con servidor Proxy .................................................. 50
Figura 2. 9 Señalización de llamada SIP con servidor de redirección ................................... 51
Figura 2. 10 Sistema de codificación .......................................................................................... 58
Figura 2. 11 Bloques y formas de video ..................................................................................... 67
Figura 2. 12 Frame reconstruido a partir de la predicción ....................................................... 67
Figura 3. 1 Topología a Implementar .......................................................................................... 71
Figura 3. 2 Diagrama de arquitectura implementada ............................................................... 73
Figura 3. 3 ventas en millones vs años ....................................................................................... 80
Figura 3. 4 Participación de empresas en el mercado de la videoconferencia .................... 81
Figura 4. 1 Selección de idioma ................................................................................................... 92
Figura 4. 2 Instalación de códec .................................................................................................. 92
Figura 4. 3 Instalación de códec .................................................................................................. 93
Figura 4. 4 Selección de partición................................................................................................ 94
Figura 4. 5 Creando Partición ....................................................................................................... 94
Figura 4. 6 Creando segunda partición ....................................................................................... 95
Figura 4. 7 Creando partición HOME .......................................................................................... 95
Figura 4. 8 Swap ............................................................................................................................. 96
Figura 4. 9 Área de Intercambio ................................................................................................... 96
Figura 4. 10 Partición automática disco completo..................................................................... 97
Figura 4. 11 Partición automática ................................................................................................ 97
9
Figura 4. 12 Zona horaria .............................................................................................................. 98
Figura 4. 13 Distribución de Teclado ........................................................................................... 98
Figura 4. 14 Usuario ....................................................................................................................... 99
Figura 4. 15 Reiniciando ............................................................................................................. 100
Figura 4. 16 Inicio de sesión ....................................................................................................... 100
Figura 4. 17 Funcionamiento Ubuntu ........................................................................................ 101
Figura 4. 18 Consola .................................................................................................................... 102
Figura 4. 19 Página de inicio MCU ............................................................................................ 110
Figura 4. 20 Estatus de llamadas .............................................................................................. 111
Figura 4. 21 Creando reunión ..................................................................................................... 112
Figura 4. 22 Respaldo de grabaciones ..................................................................................... 112
Figura 4. 23 Ayuda ....................................................................................................................... 113
Figura 4. 24 Parámetros H.323 .................................................................................................. 114
Figura 4. 25 Parámetros SIP ...................................................................................................... 114
Figura 4. 26 Aplicación para equipos móviles ......................................................................... 115
Figura 4. 27 Instalación de Myphone ........................................................................................ 116
Figura 4. 28 Inicio de instalación................................................................................................ 117
Figura 4. 29 Selección de locación de instalación .................................................................. 117
Figura 4. 30 Complementos de Myphone ................................................................................ 118
Figura 4. 31 Proceso de inicio de instalación .......................................................................... 118
Figura 4. 32 Instalando Myphone .............................................................................................. 119
Figura 4. 33 Primer inicio Myphone ........................................................................................... 119
Figura 4. 34 configuración Myphone ......................................................................................... 120
Figura 4. 35 Equipo QDX-6000 .................................................................................................. 121
Figura 4. 36 LG LifeSize .............................................................................................................. 121
Figura 4. 37 TE-30 ....................................................................................................................... 122
Figura 4. 38 Agregando equipos ................................................................................................ 123
Figura 4. 39 Control de reunión.................................................................................................. 124
Figura 4. 40 Huawei TE-30 ......................................................................................................... 124
Figura 4. 41 4 llamadas a la vez ................................................................................................ 125
Figura 4. 42 LG LifeSize .............................................................................................................. 125
Figura 4. 43 LifeSize con 4 sitios ............................................................................................... 126
10
Figura 4. 44 Tableta Samsung ................................................................................................... 126
Figura 4. 45 Celular con llamada en curso ............................................................................... 127
11
Abstract.
Today, one of the primary tools of an institution or company is a video call or video
conference, thanks to the benefits it offers: a low cost and convenience.
We can see the high costs of travel and stays to conduct a meeting in another city
or country. Thanks to videoconferencing, this is possible at a low cost, emulating a
meeting face to face over the Internet. There are many vendors who sell video
conferencing services to large companies, but our project aims to provide a
solution to small and medium enterprises, a flexible, standardized and low-cost
platform as free software systems – opensource – are used. With these platforms,
we can provide our customers with a differentiated and tailored service.
The evolution of economical and secure videoconferences lies with our platform.
12
Resumen Ejecutivo
Hoy en día, una de las herramientas primordiales de una institución o empresa es
un video llamado o videoconferencia, esto gracias a los beneficios que tiene, un
bajo costo y comodidad.
Podemos observar los elevados costos de viajes y estadías para poder realizar
una reunión en otra ciudad o país, gracias a la videoconferencia todo esto es
posible a un bajo costo, emulando una reunión cara a cara por medio de internet.
Existen muchos proveedores que venden servicios de videoconferencia a grandes
empresas, pero nuestro proyecto, orienta a darle una solución a pequeñas y
medianas empresas, una plataforma flexible, estandarizada y a un bajo costo ya
que se utilizan sistemas de software libre, opensource.
Gracias a estas plataformas, podemos entregar a nuestros clientes un servicio
diferenciado y a la medida. La evolución de las videoconferencias económicas y
seguras, son con nuestra plataforma.
13
CAPÍTULO I: introducción
1.1 Objetivo General.
Proveer un sistema de interacción a distancia a través de equipos de
videoconferencia basado en software libre, permitiendo la interconexión entre
usuarios tales como; alumnos, docentes o reuniones de trabajo. Todo esto entre
grupos de personas con motivaciones de compartir algo y/o desarrollar algún tema
en específico.
1.2 Objetivos Específicos.
Montar una plataforma para la administración del servicio a través de
servidores utilizando el recurso de software libre (Linux).
Buscar una solución estandarizada, escalable, y económica para Pymes,
medianas empresas e instituciones educacionales como alternativa a los
servicios de Videoconferencia existentes ya que poseen un valor muy
elevado en el mercado actual.
Potenciar y fomentar la interacción a distancia desde la comodidad de una
oficina, sala de clases o del hogar entre los usuarios del servicio.
Implementar un servicio de multivideoconferencia para la comunicación a
distancia
Utilizar Software, aplicaciones y equipos terminales para la interacción de
video entre usuarios del servicio.
1.3 Origen y Necesidad.
La video conferencia nace debido al aumento de las necesidades de las
empresas por contar con un servicio en sus salas de reuniones para establecer
14
comunicación a distancia con distintas sucursales y así evitar largos y constantes
viajes que se traduce en grandes gastos como pasajes de avión, alojamiento y
viáticos.
La video conferencia garantiza el retorno de la inversión en
aproximadamente 6 meses si se estiman viajes de 2 personas para reuniones por
lo menos 2 veces al mes. Aun así considerando que los costos para implementar
una plataforma completa para el servicio bordean los $30.000 dólares adquiriendo
marcas pagadas como Polycom o Cisco que son las más solicitadas.
¿Imaginas una plataforma de videoconferencia con características
similares a las de pago pero implementada en Software libre?
Considerando el gasto en Hardware, mantención y soporte para la
instalación del servicio ahorraríamos casi un 60% en comparación a un servicio de
pago. Entonces estudiamos la viabilidad de montar un sistema completo de
videoconferencia que pueda satisfacer las necesidades que se expusieron al
principio y completamente basado en software libre.
1.4 Motivación.
Establecer una plataforma de videoconferencia desarrollada netamente con
software libre, personalizada y de bajo costo, accesible para pequeñas y medianas
empresas, ya que esto posibilita entregar este servicio no solo a empresas
grandes. Estas plataformas serán rigurosamente estudiadas e implementadas con
el propósito de entregar un servicio de calidad, flexible y a costos reducidas.
1.5 Estado del Arte.
Hace un par de décadas la comunicación audiovisual en tiempo real se
podría haber imaginado solo en una película de ciencia ficción. Gracias a los
15
grandes avances de la tecnología, desde hace un par de años hasta ahora, se ha
convertido en una realidad cada vez más inmersa entre los usuarios.
Desde sus inicios, la tecnología de videoconferencia ha evolucionado
constantemente. Erik Torreiter, Gerente General de Latin Telecom (Compañía
pionera de servicios de Video conferencia en Chile), señala que la video-
conferencia es una tendencia que está evolucionando fuertemente, adquiriendo
cada vez mayor performance. "Estamos ante la presencia de nuevos estándares y
tecnologías que entregan una calidad aún mejor de audio (14kHz) y video (gracias
a H.264). Asimismo, se ha vuelto necesaria una integración más completa de la
videoconferencia, insertándola como un componente dentro de un conjunto de
tecnologías existentes, como son la audio-conferencia y el trabajo colaborativo o
conference web, entre otras", indica.
En este sentido, Peter Krisam, Product Manager de Video tecnología y
Nuevas Aplicaciones de Adexus, explica que a nivel mundial ya no se entenderá la
videoconferencia tal como se conoce, porque ha ingresado en una fase de
integración con plataformas más poderosas en la transmisión de contenido, lo que
se denomina actualmente como «Rich Media Confe-rencing». "Esto crea una
plataforma mucho más rica en la comunicación virtual, además de permitir el
acceso desde diversos dispositivos como las tradicionales salas de
videoconferencia, sistemas de videoteléfonos, usuarios móviles con notebooks,
webcams, PDAs, celulares 3G y a través de la web", precisa.
Actualmente las plataformas de video conferencia disponibles están
encarecidas en sus servicios ya que los elementos constituyentes son de alto
costo, sin embargo existe la posibilidad de desarrollar dichas plataformas con
tecnologías abiertas, específicamente Software Libre, que abarataría los gastos de
implementación y finalmente el servicio. Para ello se pretende trabajar con
sistemas basados en Linux para montar servidores en base a protocolo Sip que
permitan el registro de los equipos terminales de video conferencia lo que
16
posibilitaría la interconexión punto a punto, asimilando una llamada telefónica pero
con la gran ventaja de contar con la interacción de video.
Se pretende además montar un servidor multi-conferencia (MCU) con la
finalidad de realizar llamadas de video que implique la participación de más de dos
usuarios por llamada.
Creemos que esta situación particular, refiriéndose a los costos asociados
utilizando marcas como Polycom, Huawei o Cisco, da espacio para promover un
proyecto de esta naturaleza, un proyecto basado netamente en OpenSource.
1.6 Desarrollo y Alcance.
En primera instancia se pretende implementar un servicio de video
conferencia basada en software libre que permita mantener comunicados a
usuarios situados a grandes distancias generando la sensación de estar reunidos
en un mismo lugar. El desplazarse hacia un sector determinado para efectuar una
reunión implica un gasto que en el transcurso del tiempo justifica con creses la
implementación de un servicio con estas características.
Como alcance es importante mencionar que nuestro proyecto implica todo lo que
tenga que ver con la plataforma de Video conferencia, ya sea equipos terminales,
software simuladores de video, aplicaciones, servidores de registro y multi-
conferencia. A lo que excluye cualquier intervención en las redes y equipos de
comunicaciones de clientes, solo se le harán las recomendaciones necesarias
para garantizar un correcto funcionamiento del servicio en cuestión.
17
CAPÍTULO II:
Fundamentos teóricos y estándares de la Videoconferencia.
A continuación detallamos y profundizamos todos los aspectos teóricos de nuestro
proyecto de videoconferencias los cuales fueron primordiales para la ejecución y
planteamiento del mismo.
2.1 Videoconferencia.
Plataforma interactiva que permite una comunicación en tiempo real a
través de internet, utilizando video, sonido y texto a varias personas ubicadas en
distintos lugares, ya sea a nivel regional o mundial.
Básicamente, una plataforma de video conferencia está enfocada a
reuniones a distancias, demostración de productor o capacitaciones. Hoy en día
esto representa una necesidad para las instituciones. En el eje tecnológico se le
llama Compresión digital de los flujos y video en tiempo real.
En la actualidad, estas plataformas ofrecen soluciones que dependerán de
las necesidades del usuario final y, en estos días, se refleja en los sistemas el
buen desempeño de transmitir y recibir información visual y sonora entre distintos
lugares, sin importar distancias.
2.1.1 Sistemas de videoconferencias.
Videoconferencias individuales: Equipos portátiles individualizado para cada
usuario, la cámara, micrófono y altavoces se encuentran integrados en el equipo.
Videoconferencia para pequeños grupos: Equipos pequeños y con un costo más
bajo, estos son principalmente utilizados para sala de reuniones con un grupo de
personas reducido.
18
Videoconferencia para grandes instituciones: Dispositivos más costosos, de gama
alta que ofrece una interfaz gráfica amigable al usuario final, cámara de alta
calidad y micrófonos separados, todo esto controlado por un control remoto u otro
dispositivo de comodidad que ofrezca la empresa que venderá este servicio.
Sistemas de videoconferencia para escritorio:
Computador (PC) el cual tendrá un software de videoconferencia. De esta manera
se transformara a un equipo de videoconferencia, el cual utilizará la tarjeta de red
del PC, tarjeta de sonido y video. La mayoría de los sistemas de escritorios
trabajan estándar H.323. Las Videoconferencias realizadas a través de
ordenadores dispersos son también conocidas como e-meetings o conferencias
web.
En la actualidad se ofrecen muchos softwares que hacen posibles la
videoconferencia a distancia, tales como Skype, Facebook, Gmail, Asterisk, unos
de los más famosos.
Nosotros nos enfocaremos al protocolo IP, el cual utilizamos en nuestro proyecto
de videoconferencia.
2.1.2 Streaming.
Se utiliza para optimizar la descarga y reproducción de archivos de audio y
video que suelen tener un cierto peso y se encuentran almacenados en servidores
streaming.
El streaming funciona de la siguiente forma:
Conexión con el servidor. El reproductor cliente conecta con el servidor remoto y
éste comienza a enviarle el archivo.
Buffer: El cliente comienza a recibir el fichero y construye un buffer o almacén
donde empieza a guardarlo.
19
Inicio de la reproducción: Cuando el buffer se ha llenado con una pequeña fracción
inicial del archivo original, el reproductor cliente comienza a mostrarlo mientras
continúa en segundo plano con el resto de la descarga.
Caídas de la velocidad de conexión: Si la conexión experimenta ligeros descensos
de velocidad durante la reproducción, el cliente podría seguir mostrando el
contenido consumiendo la información almacenada en el buffer. Si llega a
consumir todo el buffer se detendría hasta que se volviera a llenar.
El streaming puede ser de dos tipos dependiendo de la tecnología instalada en el
servidor:
Descarga progresiva: Se produce en servidores web que disponen de Internet
Information Server (IIS), Apache, Tomcat, etc. El archivo de vídeo o audio
solicitado por el cliente es liberado por el servidor como cualquier otro archivo
utilizando el protocolo HTTP. Sin embargo, si el archivo ha sido especialmente
empaquetado para streaming, al ser leído por el reproductor cliente, se iniciará en
streaming en cuanto se llene el buffer.
Transmisión por secuencias: Se produce en servidores multimedia que disponen
de un software especial para gestionar más óptimamente el streaming de audio y
vídeo: Windows Media Server, Flash Communication Server, etc. La utilización de
un servidor multimedia ofrece múltiples ventajas frente al servidor web. Las más
destacadas son:
La comunicación entre servidor/cliente se puede realizar por protocolos
alternativos al HTTP. Tiene el inconveniente del bloqueo impuesto por Firewalls
pero tiene la ventaja de una mayor rapidez, mejor gestión del procesador y ancho
de banda de la máquina del servidor ante peticiones simultáneas de varios clientes
del mismo archivo de audio o vídeo.
Control predefinido sobre la descarga que pueden realizar los clientes:
autentificada, filtrada por IP, sin almacenarla en la caché del cliente, etc.
20
Mayor garantía de una reproducción ininterrumpida gracias al establecimiento de
una conexión de control inteligente entre servidor y cliente.
Posibilidad de distribución de transmisiones de audio y vídeo en directo.
2.1.3 Elementos de la videoconferencia
Monitores, cámaras, micrófonos, altavoces, el compresor Codec, Red de
Comunicaciones y Sala de Videoconferencia, componen los sistemas de
Video-conferencia, elementos que suelen estar integrados en las terminales de
videoconferencia más comunes.
Monitor: Dependiendo de las necesidades del usuario pueden tener
medidas de 15",17",27",29", y 35".
Cámara: Encargadas de capturar la imagen de los conferencistas para
transmitirla al otro punto, pueden ser fijas o motorizadas.
Micrófono: Para mantener una videoconferencia, cualquier micrófono es
útil, incluso los incorporados en monitores, pueden ser de sobremesa, de
mano, sin hilos, etc. Los más utilizados son omnidireccionales.
Codec: Es la unidad de codificación/decodificación. Se responsabiliza de
comprimir/descomprimir la señal analógica que va a ser transmitida a través
de la red digital.
Aplicaciones: Los equipos de videoconferencia también pueden compartir
aplicaciones tales como, Hojas de cálculo, Procesadores de texto, etc. Esto
quiere decir que a la vez que se comparte audio y vídeo, se puede estar
21
trabajando a la vez con un mismo documento, realizar modificaciones sobre
él, alterar campos, obtener notas, etc.
Red de comunicaciones: Es una conexión de diferentes computadoras
que pueden comunicarse e intercambiar información, utilizando sus propios
recursos o recursos ajenos.
Las redes de la comunicación definen los canales por los cuales fluye la
información. Los canales de una organización pueden ser formales es decir
siguen una cadena de autoridad en beneficio de la empresa o informales se
saltan los niveles de autoridad para satisfacer necesidades individuales de
los miembros de la empresa.
Sala de videoconferencia: Cualquier espacio puede acondicionarse como
sala de videoconferencia, desde una sala de juntas, pasando por un salón
de clase, hasta un auditorio. Cada uno de estos espacios ofrece distintas
características, y la selección final depende del uso que se le pretenda
otorgar.
La sala de videoconferencia debe ubicarse en un lugar de poco tránsito de
personas y/o vehículos, esto con el fin de que el ruido ambiental externo
sea mínimo. Deben evitarse al máximo las fuentes de ruido eléctrico (como
elevadores, motores, etc.) y mecánico (vibraciones) que pueden degradar la
calidad de la comunicación. Además de lo mencionado se deben tomar en
cuenta otros aspectos importantes como son la instalación eléctrica, la
acústica, la iluminación, la ubicación del equipo de videoconferencia, el
inmobiliario y la ventilación
22
2.2 Tecnologías de transporte y comunicación
2.2.1 ISDN (Red Digital de Servicios Integrados).
ISDN corresponde a las siglas en idioma inglés para Integrated Services
Digital Network, que traducido al español significa Red Digital de servicios
Integrados, por lo que se abreviaría RDSI. Estas siglas responden a la
denominación de un sistema para las conexiones de teléfonos digitales,
especialmente creado para proveer servicios como el envío de voz, de video, así
como también, líneas telefónicas digitales o normales que surgen del excedente
de los datos simultáneamente. Es común para algunos proveedores el ofrecer
Internet usando este sistema.
Una de las ventajas de este sistema es su considerable rapidez y alto nivel
de calidad si se le compara con un sistema análogo. El sistema ISDN es capaz de
alcanzar una velocidad de transferencia de hasta 128.000 bps, aunque en la
realidad, lo más común es que funcione a una velocidad de entre 56.000 y 64.000
bps. La utilidad práctica de saber la velocidad, está por ejemplo, al visitar un sitio
de Internet en donde se ofrece video en tiempo real, donde es común que se
pregunte al usuario el tipo de conexión con la que cuenta, y se da entre las
opciones la ISDN.
A grandes rasgos, corresponde a un sistema de protocolo con el que es
posible establecer conexiones, y también romperlas, con un conmutador de
circuito, así como también, puede otorgar características avanzadas para las
llamadas a los clientes. A través de las conexiones con que cuenta este sistema
se envían señales, que no son análogas, sino digitales. Es gracias a esto último
que la velocidad de transferencia aumenta con este tipo de sistema, pero si
además de contar con el sistema ISDN en la central telefónica, es posible adquirir
un software adecuado capaz de soportarlo, entonces las ventajas que el usuario
podrá disfrutar serán mucho mayores.
23
Como vemos, el uso de sistema ISDN es frecuente en oficinas relacionadas
a los más diversos rubros. Para su implementación, como ya se ha esbozado, es
necesario contar con equipamiento especial entre lo que es necesario contar con
una línea ISDN, así como también con un modem ISDN, los que se utilizan a fin
de enviar y recibir información. En su mayoría, las oficinas, utilizan este sistema ya
contando con una red local y necesitan tener un acceso a Internet más rápido, lo
que se puede lograr con un router o modem de esta tecnología; asimismo, como
ya mencionamos algunos proveedores para hogares ofrecen este servicio, que
puede ser conveniente en cuanto a precios y velocidad.
Para la realización de videoconferencias RDSI (ISDN) es necesario contar
con líneas de este tipo lo cual no es algo habitual. Al ser líneas dedicadas al tráfico
de la videoconferencia y ser un canal directo entre los participantes, la velocidad
de conexión una vez establecida la videoconferencia es fija y no suele fluctuar, lo
que garantiza un mínimo de calidad durante todo el desarrollo del evento. Es
recomendable contar con al menos 3 líneas RDSI (128Kb*3 -> 384Kb de ancho de
banda) para tener una buena experiencia de usuario. Hoy en día son muy pocas
las videoconferencias en las que recurre a este tipo de conexión debido a su
coste, baja calidad y a la necesidad de contar con dichas líneas RDSI. La sala de
reuniones por videoconferencia ubicada en el Servicio de Informática cuenta con
este tipo de líneas RDSI así como con el equipamiento necesario para realizar
videoconferencias de este tipo si fuera necesario.
Como dato importante a lo que sabemos, para establecer una comunicación
de calidad, era necesario contar con 6 canales de 128 Kb, lo que se traduce en un
costo elevado, estamos hablando de una llamada de video con un valor
aproximado de $4.000 pesos por minuto.
2.2.2 Acceso Básico.
El acceso básico, conocido también por las siglas inglesas BRI (Basic Rate
Interface), consiste en dos canales B full-duplex de 64 kbit/s y un canal D full-
24
duplex de 16 kbit/s. Luego, la división en tramas, la sincronización, y otros bits
adicionales dan una velocidad total a un punto de acceso básico de 192 kbit/s.
2B+D+señalización+framing
2.2.3 Acceso Primario.
El acceso primario, también conocido por las siglas inglesas PRI (Primary
Rate Interface) está destinado a usuarios con requisitos de capacidad mayores,
tales como oficinas, empresas con PBX digital o red local. Debido a las diferencias
en las jerarquías de transmisión digital usadas en distintos países, no es posible
lograr un acuerdo en una única velocidad de los datos.
Estados Unidos, Japón y Canadá usan una estructura de transmisión
basada en 1,544 Mbit/s, mientras que en Europa la velocidad estándar es 2,048
Mbit/s. Típicamente, la estructura para el canal de 1,544 Mbit/ses 23 canales B
más un canal D de 64 kbit/s y, para velocidades de 2,048 Mbit/s, 30 canales B
más un canal D de 64 kbit/s:
30B (64)+D (64)+señalización+framing(64) - 2 048 kbit/s - Europa.
24B (64)+D (64)+señalización+framing(8) - 1 544 kbit/s - Estados Unidos, Japón y
Canadá.
2.2.4 Servicios.
Portadores
Modo Circuito: son las funciones que se necesitan para establecer,
mantener, y cerrar una conexión de circuito conmutado en un canal de
usuario. Esta función corresponde al control de una llamada en redes de
telecomunicaciones de conmutación de circuitos existentes.
25
Modo Paquete: son las funciones que se necesitan para establecer una
conexión de circuito conmutado en un nodo de conmutación de paquetes
RDSI.
Servicio Portador de Llamada Virtual.
Servicio Portador de Circuito Virtual Permanente.
Tele servicios
Telefonía a 7 kHz
Facsímil Grupos 2 y 3 Facsímil Grupo 4
Teletex, Videotex, Videotelefonía.
Suplementarios
Grupo Cerrado de usuarios.
Identificación del usuario llamante.
Restricción de la identificación del usuario llamante.
Identificación de usuario conectado.
Restricción de la identificación de usuario conectado.
Identificación de llamada en espera.
Marcación directa de extensiones.
Múltiples números de abonado.
Marcación abreviada.
Conferencia a tres.
Desvío de llamadas.
26
Transferencia de llamadas dentro del bus pasivo.
Información de Tarificación.
Adaptación de Terminales
Para conectar dispositivos no-RDSI a la red se utilizan adaptadores de
Terminal (AT) que realizan las siguientes funciones.
Adaptación de Velocidad (AV)
Conversión de Señalización (CS)
Conversión X.25 (AV +CS )
Conversión de Interfaz física.
Digitalización.
2.2.5 Interfaz Usuario-Red
Para definir los requisitos de acceso del usuario a RDSI, es muy importante
comprender la configuración anticipada de los equipos del usuario y de las
interfaces normalizadas necesarias. El primer paso es agrupar las funciones que
pueden existir en el equipo del usuario.
Puntos de Referencia: puntos conceptuales usados para separar grupos de
funciones.
Agrupaciones funcionales: ciertas disposiciones finitas de equipos físicos o
combinaciones de equipos.
El equipo terminal es el equipo de abonado que usa RDSI. Se definen dos
tipos. El equipo terminal de tipo 1 (ET1) son dispositivos que soportan la interfaz
RDSI normalizada. Por ejemplo: teléfonos digitales, terminales de voz/datos
integrados y equipos de fax digitales. El equipo terminal de tipo 2 (ET2) contempla
la existencia de equipos no RDSI. Por ejemplo, ordenadores huésped con una
27
interfaz X.25. Tal equipo requiere un adaptador de terminal (AT) para conectarse a
la interfaz RDSI.
Soporte de los Servicios
Puntos 1 o 2: (T y S) Servicios Básicos.
Punto 4: (R) acceso a otros servicios estandarizados. (Interfaces X y V).
Puntos 3 y 5: Acceso a Tele servicios.
3 Terminales RDSI.
5 Terminales RDSI.
El punto de referencia T (terminal) corresponde a la mínima terminación de red
RDSI del equipo cliente. Separa el equipo del proveedor de red del equipo de
usuario.
El punto de referencia S (sistema) corresponde a la interfaz de terminales
individuales RDSI. Separa el equipo terminal del usuario de las funciones de
comunicación relacionadas con la red.
El punto de referencia R (razón o rate) proporciona una interfaz no RDSI entre
el equipo del usuario que no es RDSI compatible y el equipo adaptador.
Arquitectura de Protocolos
Desde el punto de vista del estándar OSI, una pila RDSI consta de tres
protocolos:
Capa física
Capa de enlace, o data link layer (DLL)
Capa de red, o network layer (el protocolo RDSI, propiamente dicho)
28
Desde el punto de vista de la interfaz con el usuario, se incluyen sobre la capa
de red protocolos para Interacción Usuario - Red y protocolos para interacción
Usuario - Usuario.
En el contexto del modelo OSI, los protocolos que se definen o a los que se
hace referencia en RDSI. Como RDSI es esencialmente indiferente a las capas de
usuario de la 4 a la 7, el acceso concierne únicamente a las capas de la 1 a la 3.
La capa 1, definida en I.430 e I.431, especifica la interfaz física tanto para el
acceso básico como el primario.
Las diferencias con el modelo OSI son:
Múltiples protocolos interrelacionados.
Llamadas Multimedia.
Conexiones Multipunto.
Para el canal D, se ha definido una nueva normalización de capa de enlace de
datos, LAPD (protocolo de la capa de enlace RDSI que proviene del LAP-B (Link
access procedure, balanced), Link Access Procedure on the D channel). Esta
normalización se basa en HDLC, modificado para cumplir los requisitos de RDSI.
Toda transmisión en el canal D se da en forma de tramas LAPD que se
incrementan entre el equipo abonado y un elemento de conmutación RDSI. Se
consideran tres aplicaciones: señalización de control, conmutación de paquetes, y
telemetría.
El canal B se puede usar para conmutación de circuitos, circuitos
semipermanentes, y conmutación de paquetes. Para conmutación de circuitos, se
construye un circuito en el canal B bajo demanda.
Un circuito semipermanente es un circuito canal B que se ha establecido previo
acuerdo entre los usuarios conectados y la red. Tanto la conexión de circuito
conmutado como con circuito semipermanente, las estaciones conectadas
29
intercambian información como si se hubiese establecido un enlace directo full
duplex.
En el caso de conmutación de paquetes, se establece una conexión de circuito
conmutado en un canal B entre el usuario y el nodo del paquete conmutado
usando el protocolo del canal D.
Conexiones ISDN / RSDN
RDSI proporciona tres tipos de servicios para comunicaciones extremo a extremo.
1. Circuitos conmutados sobre el canal B: la configuración de red y protocolos
para conmutación de circuitos implican usuario y la red de establecimiento y
cierre de llamadas, y para acceso a las instalaciones de la red
2. Conexiones permanentes sobre canal B: un periodo de tiempo indefinido
después de la suscripción. No existe establecimiento y liberación de
llamada sobre canal D.
3. Conmutación de paquetes proporcionado por RDSI.
Conector RJ-45 Norma EIA/TIA-568B (la TIA-568A se conecta
diferente)
pin Color Uso
1 Naranja y blanco Tierra (Power Sink) 3-
2 Naranja Alimentación (Power Source) 3+
3 Verde y blanco Positivo de Recepción
4 Azul Positivo de Transmisión
5 Azul y blanco Negativo de Transmisión
6 Verde Negativo de Recepción
30
7 Marrón y blanco Tierra (Power Sink) 2-
8 Marrón Alimentación (Power Source) 2+
Tabla 2. 1 Configuración conector RJ-45
La configuración arriba indicado, es la conexión utilizada entre el TR1 y el
dispositivo RDSI que se vaya a comunicar. Al TR1, llega un par de hilos desde la
central telefónica, que es por donde viaja la señal digital de comunicación y la
alimentación al propio TR1.
Numeración
Una dirección RDSI puede utilizarse para:
Identificar un terminal específico dentro de una línea digital RDSI.
Identificar un punto de acceso al servicio de red en un entorno OSI.
Identificar un punto de acceso al servicio de red en un entorno no conforme
al modelo OSI.
2.2.6 Numeración (Servicios)
Múltiples números de abonados.
Permite que terminales conectados a las redes existentes alcancen terminales
compatibles conectados a un acceso básico en una configuración tipo bus pasivo.
Requisitos mínimos:
Se asignará un número a todos los terminales pertenecientes al mismo
servicio.
Se asignará un número distinto a los terminales de los siguientes servicios:
31
Telefónico
Facsímil
Datos serie V
Datos en modo paquete
La instalación de un usuario de acceso básico a la RDSI se caracteriza por la
existencia de un equipo de transmisión de red (TR o TR1), que hace de
separación entre la transmisión a dos hilos de TR1 a central telefónica, la
transmisión a cuatro hilos entre TR1 y los equipos terminales (ET o TR2)
Configuraciones de Cableado
Punto a punto (1 ET)
Bus pasivo corto (hasta 8 ET's)
Bus pasivo extendido (hasta 4 ET's)
2.3 Videoconferencia Basada en IP.
La implementación de sistemas de videoconferencia IP resulta más sencilla
que la de los sistemas convencionales basados en IP. Sin embargo, los
responsables de redes se han de asegurar de que cuentan con toda la
infraestructura necesaria para soportar la comunicación.
Al igual que los sistemas de videoconferencia RDSI, la videoconferencia
basada en IP ofrece voz, vídeo y datos multimedia en tiempo real, con la única
diferencia de que para ello se apoya en redes IP de conmutación de paquetes.
Pero para que todos los participantes en una sesión puedan comunicarse a través
de una red de IP, todos los dispositivos y equipos han de ser interoperativos; es
decir, han de basarse en estándares.
32
H.323 fue la primera norma de videoconferencia IP desarrollada por la
Unión Internacional de Telecomunicaciones (UTI) para permitir la comunicación en
tiempo real sobre redes IP basadas en paquetes, y actualmente es la más
desplegada en el mercado. Por su parte, Session Initiation Protocol (SIP),
introducido por IETF (Internet Engineering Task Force), aunque relativamente
nueva, cada vez es más popular. Mientras que H.323 fue diseñado inicialmente
para establecer comunicaciones interactivas multimedia, SIP fue ideado de origen
para soportar aplicaciones de voz sobre IP (VoIP).
En paralelo, Media Gateway Control Protocol (MGCP), de IETF, y
MEGACO/H.248, de IETF y UIT, complementan tanto a H.323 como a SIP, y
trabajan como interfaz entre los controladores de gateways de medios
“inteligentes” y los gateways de medios “tontos”. Un punto clave para asegurar la
futura expansión de la videoconferencia IP es el interfuncionamiento de todos
estos protocolos, a fin de asegurar una conectividad integrada de extremo a
extremo entre todos los distintos dispositivos de red y terminales.
2.3.1 Una red de videoconferencia IP incluye.
Arquitectura y Gestión.
Las redes IP son fundamentalmente diferentes de las redes RDSI. En
primer lugar, disponen de una arquitectura flexible y distribuida que abarca la LAN,
la WAN e Internet. Además, la infraestructura IP no depende de ningún proveedor
de servicios en concreto ni de la localización geográfica. La escalabilidad
inherente de IP permite, finalmente, incrementar el ancho de banda, añadir
equipamiento y mejorar los servicios sin tener que efectuar cambios
fundamentales en la infraestructura.
Un factor crítico para el éxito de la videoconferencia IP consiste en disponer
del suficiente ancho de banda para garantizar niveles satisfactorios de transmisión
de voz, vídeo y datos. Otro importante factor para el éxito de la conferencia es la
calidad de servicio (QoS), la calidad garantizada de los medios que están siendo
suministrados. En redes de paquetes, QoS depende de un conjunto de parámetros
33
de transmisión tales como retardo, jitter y ancho de banda asignado utilizados para
seleccionar tráficos.
Las redes IP presentan sus propias características y requerimientos de
gestión y administración. Así, precisan de funciones de gestión que permitan
configurar los servicios y propiedades de cualquier videoconferencia. Estas
funciones incluyen cuestiones como la asignación de ancho de banda, balanceo
de cargas, efecto cascada, codificadores/decodificadores soportados, prioridades
de trans-codificación, presencia continua, conmutación de vídeo, control remoto de
cámara y reserva e iniciación de sesión instantánea. Y es de esperar que, a
medida que la videoconferencia IP se integre más estrechamente con las
tecnologías y aplicaciones Web, vayan apareciendo herramientas de gestión
basadas en Web que ofrezcan una visión única del sistema en su conjunto,
abarcando a todos los usuarios, sitios, equipos, características y servicios.
34
2.3.2 H.323.
Este estándar define un amplio conjunto de características y funciones.
Algunas son necesarias y otras opcionales. El H.323 define mucho más que los
terminales. El estándar define los siguientes componentes más relevantes como
se muestra en la siguiente figura:
Figura 2. 1 Componentes de una Red H.323
2.3.3 Entidad
La especificación H.323 define el término genérico entidad como cualquier
componente que cumpla con el estándar.
2.3.4 Extremo
Un extremo H.323 es un componente de la red que puede enviar y recibir
llamadas. Puede generar y/o recibir secuencias de información.
2.3.5 Terminal
35
Un terminal H.323 es un extremo de la red que proporciona comunicaciones
bidireccionales en tiempo real con otro terminal H.323, gateway o unidad de
control multipunto (MCU). Esta comunicación consta de señales de control,
indicaciones, audio, imagen en color en movimiento y /o datos entre los dos
terminales. Conforme a la especificación, un terminal H.323 puede proporcionar
sólo voz, voz y datos, voz y vídeo, o voz, datos y vídeo.
Las funciones de control que realizan los terminales son las siguientes:
H.245 para negociación del canal.
H.225.0 (Q.931) para señalización y control de llamada.
H.225.0 (RAS) para comunicación con el gatekeeper.
También implementan los protocolos RTP/RTCP para el manejo de los flujos de
audio y video.
2.3.6 Gatekeeper
El gatekeeper (GK) es una entidad que proporciona la traducción de
direcciones y el control de acceso a la red de los terminales H.323, gateways y
MCUs. El GK puede también ofrecer otros servicios a los terminales, gateways y
MCUs, tales como gestión del ancho de banda y localización de los gateways o
pasarelas. El Gatekeeper realiza dos funciones de control de llamadas que
preservan la integridad de la red corporativa de datos. La primera es la traslación
de direcciones de los terminales de la LAN a las correspondientes IP o IPX, tal y
como se describe en la especificación RAS. La segunda es la gestión del ancho
de banda, fijando el número de conferencias que pueden estar dándose
simultáneamente en la LAN y rechazando las nuevas peticiones por encima del
nivel establecido, de manera tal que se garantice ancho de banda suficiente para
las aplicaciones de datos sobre la LAN. El Gatekeeper proporciona todas las
funciones anteriores para los terminales, Gateways y MCUs, que están registrados
dentro de la denominada Zona de control H.323.
36
Las funciones que debe desarrollar un gatekeeper son las siguientes:
• Control de la señalización.
• Control de acceso y administración de recursos, autorización de llamadas.
• Traducción de direcciones de transporte entre direcciones IP y alias.
• Gestión del ancho de banda.
• Gestión de llamadas (concesión de permisos...)
• Gestión del ancho de banda.
Para desarrollar estas funciones, entre el gatekeeper y el endpoint se
emplea el protocolo RAS (Registration /Admission /Status) sobre UDP.
Un gatekeeper y sus endpoints definen una zona H.323, de manera que en
entornos LAN's es suficiente un gatekeeper, pero en entornos como Internet, son
necesarios varios de ellos, cada uno definiendo una zona H.323.
Lógicamente, entre gatekeepers se requerirá comunicación, por lo que
actúa como el punto central para todas las llamadas en una zona, comportándose
como un conmutador virtual.
Si bien el gatekeeper no es obligatorio, su empleo en un entorno H.323 sí
posibilita emplear más eficientemente la plataforma, por ejemplo mediante el
enrutamiento de llamadas a través de él.
Los gatekeepers son entidades funcionales separadas de los end points
H.323, pero es posible incluir funcionalidades gatekeepers en los gateways y las
MCU's.
37
2.3.7 Gateway.
Un gateway H.323 (GW) es un extremo que proporciona comunicaciones
bidireccionales en tiempo real entre terminales H.323 en la red IP y otros
terminales o gateways en una red conmutada. En general, el propósito del
gateway es reflejar transparentemente las características de un extremo en la red
IP a otro en una red conmutada y viceversa. Los gateways, son los sistemas
encargados de permitir que los equipos H.323 puedan operar con otras redes.
Desarrollan la traducción de la señalización, información de control e información
de usuario, posibilitando así interoperabilidad entre redes, terminales y servicios,
haciendo viable la integración de servicios aún con plataformas dispares, llámese
PSTN y redes IP.
Una diferencia respecto a los gatekeepers, es que los gateways sí cursan
información de usuario, soportada en RTP/UDP/IP.
Funciones del Gateway:
Trans-codificación de audio y vídeo.
Traducción de procedimientos de comunicación.
Traducción de formatos de transmisión.
Evidentemente, dada su funcionalidad, los gateways son elementos opcionales
en entornos H.323, y sólo son necesarios cuando se requiere una interconexión
entre entornos H.323 y entornos no H.323.
2.3.8 MCU (Multipoint Control Units).
La Unidad de Control Multipunto está diseñada para soportar la conferencia
entre tres o más puntos, bajo el estándar H.323, llevando la negociación entre
terminales para determinar las capacidades comunes para el proceso de audio y
vídeo y controlar la multidifusión.
38
La comunicación bajo H.323 contempla las señales de audio y vídeo. La
señal de audio se digitaliza y se comprime bajo uno de los algoritmos soportados,
tales como el G.711 o G.723, y la señal de vídeo (opcional) se trata con la norma
H.261 o H.263. Los datos (opcional) se manejan bajo el estándar T.120 que
permite la compartición de aplicaciones en conferencias punto a punto y
multipunto.
Dado el jitter, que sufren los paquetes IP en la red, y las consecuencias
negativas de esto para el tráfico de audio y vídeo, en el terminal H.323 se requiere
un buffer de recepción para absorber, en la medida de lo posible, estas
fluctuaciones en la demora de los paquetes IP, anulando o reduciendo el efecto
negativo que el jitter puede producir en flujos de información de usuario con
requerimientos de tiempo real.
Los protocolos de control comprendidos en H.323, unos se encapsulan en
UDP (protocolos H.225.0 (RAS, Registration Admisión Status), que se desarrolla
entre el gatekeeper y los endpoints) y otros en TCP (H.225.0 (Q.931), para el
control de la llamada y H.245 para el control del canal.
2.4 Protocolo de Señalización.
Establecer la llamada en H.323 se lleva a cabo en tres fases:
Fase RAS: intercambio de mensajes entre el gatekeeper y el endpoint.,
para la traducción de direcciones, autorización de llamadas y gestión del
ancho de banda.
Fase Q.931: intercambio de mensajes entre equipos terminales para el
establecimiento de conexiones lógicas.
Fase H.245: intercambio de mensajes entre equipos terminales para
acordar en intercambio de información de usuario.
39
Dependiendo del papel que juegue el gatekeeper en las llamadas H.323
podremos hablar de dos modelos:
modelo de llamada H.323 directa (direct routed model)
modelo de llamada H.323 indirecta (gatekker routed model)
A continuación de estas tres fases de establecimiento de llamada, se lleva a
cabo la transferencia de información de usuario por medio de los protocolos
RTP/RTCP, según lo acordado en la fase H.245, previa apertura de los canales
lógicos en los endpoints. Estos canales lógicos son unidireccionales, por lo que
para una comunicación bidireccional se requiere abrir uno en cada dirección de
transmisión. En la transferencia de medios no interviene el gatekeeper, pues es
solo una entidad de señalización, sino que se lleva a cabo directamente entre os
endpoints.
Hasta la fecha, el estandar H.323 ha evolucionado desde la primera versión
H.323v1, hasta la última versión H323v4, mejorando la primera versión en
cuestiones como seguridad, servicios suplementarios, identificación de llamadas,
conexión rápida......etc.
Figura 2. 2 Señalización de llamada
40
2.4.1 Características y Recomendaciones del Protocolo H.323
El estándar H.323 especifica los componentes, protocolos y procedimientos
que proveen los servicios de comunicación multimedia sobre redes de paquetes
sin garantía de calidad de servicio, tanto para sesiones multipunto como punto a
punto. La tecnología de red más común en la que se están implementando H.323
es IP (Internet Protocol). Además, H.323 también define la señalización necesaria
para comunicaciones multimedia sobre redes IP (entre otras). Para el transporte
de medios utiliza los protocolos RTP/RTCP. Los terminales y equipos H.323
soportan aplicaciones con requerimientos de tiempo real (voz y vídeo), así como
aplicaciones de datos y combinaciones de ellas (videotelefonía, etc). Los
terminales H.323 pueden ser terminales explícitamente diseñados a este fin o
pueden estar integrados en PC's.
El estándar H.323 incluye entre otras las siguientes recomendaciones:
H.225.0: paquetización, sincronización y señalización.
H.245: control del canal.
G.711, G.722, G.723.1, G.728, G.729: codificación audio.
Además también define recomendaciones sobre conferencias de datos en
tiempo real y seguridad.
H.323 define una serie de entidades en una red H.323 con una serie de
funcionalidades:
Direccionamiento:
1. RAS (Registration, Admission and Status). Protocolo de comunicaciones
que permite a una estación H.323 localizar otra estación H.323 a través del
Gatekeeper.
41
2. DNS (Domain Name Service). Servicio de resolución de nombres en
direcciones IP con el mismo fin que el protocolo RAS pero a través de un
servidor DNS.
Señalización:
1. Q.931 Señalización inicial de llamada
2. H.225 Control de llamada: señalización, registro y admisión, y paquetización /
sincronización del stream (flujo) de voz
3. H.245 Protocolo de control para especificar mensajes de apertura y cierre de
canales para streams de voz
Compresión de voz:
1. Requerido: G.711
2. Opcionales: G.728, G.729 y G.723
Transmisión de voz:
1. UDP. La transmisión se realiza sobre paquetes UDP, pues aunque UDP no
ofrece integridad en los datos, el rendimiento del ancho de banda es mayor que
con TCP. UDP provee a los usuarios acceso a los servicios IP. Los paquetes
UDP son entregados como paquetes IP no orientados a conexión, los cuales
pueden ser descartados antes de alcanzar su objetivo.
Figura 2. 3 Paquete en una llamada H.323
42
2. RTP (Real Time Protocol). Maneja los aspectos relativos a la temporización,
marcando los paquetes UDP con la información necesaria para la correcta entrega
de los mismos en recepción.
Control de la transmisión:
1. RTCP (Real Time Control Protocol). Se utiliza principalmente para detectar
situaciones de congestión de la red y tomar, en su caso, acciones correctoras.
Actualmente se puede partir de una serie de elementos ya disponibles en el
mercado y que, según diferentes diseños, permitirán construir las aplicaciones
VoIP. Estos elementos son:
Teléfonos IP.
Adaptadores para PC.
Hubs telefónicos.
Gateways (pasarelas RTC / IP).
Gatekeeper.
Unidades de audioconferencia múltiple. (MCU voz)
Servicios de directorio.
43
Figura 2. 4 Topología de una Red IP
2.4.2 Arquitectura del Protocolo H.323
En una arquitectura H.323 (como la que se muestra en la Figura 1) se
integran como componentes básicos los Terminales, Gateways (para
interconexión con recursos PSTN/IN), Gatekeepers (Control de admisión, registro
y ancho de banda) y MCUs (Multiconference Control Units).
Dentro de H.323 se incluyen todo un conjunto de protocolos perfectamente
integrados (en la Figura 2 se ilustra la pila de protocolos H.323) que toman parte
en el establecimiento y mantenimiento de conferencias multimedia: Q.931 para el
establecimiento de llamada, H.225 para la señalización, H.245 para la negociación
de capacidades y el establecimiento de canales, H.450.x para la definición de
servicios suplementarios (Call Park, Call Pickup, Call Hold, Call Transfer, Call
Diversión, MWI, ...), RAS para el registro de terminales y el control de admisión,
RTP/RTCP para el transporte y secuenciación de los flujos multimedia,
G.711/G.712 para la especificación de los códecs, T.120 para colaboración y "data
conferencia"... Esto da una idea muy clara de una de las características menos
agradables de este protocolo, y que siempre han argumentado sus detractores: su
44
excesiva complejidad, frente a la sencillez del modelo Internet en que se basa SIP.
De hecho SIP se podría comparar, grosso modo, con las partes de Q.931 y H.225
de H.323.
Figura 2. 5 Arquitectura H.323
Figura 2. 6 Paquete H.323
45
2.4.3 Protocolo SIP (Protocolo de Inicio de Sesiones)
SIP (RFC 2543) es un protocolo de control de nivel de aplicación, creado
para la señalización y el control de llamadas, En resumen, para el control del
establecimiento, modificación y terminación de sesiones o llamadas multimedia.
Ubicación en la pila de protocolos de telefonía IP:
Figura 2. 7 Paquete SIP
SIP forma parte de las especificaciones del IETF para comunicaciones
multimedia, conjuntamente con otros protocolos como RSVP (Resource
reServation Protocol), RTP (Real Time Protocol), SDP (Session Description
Protocol), etc.
La funcionalidad de dicho protocolo no depende de ninguno de éstos.
Soporta comunicaciones entre usuarios de redes IP, y también, con el empleo de
pasarelas, con usuarios de otras redes, por ejemplo, con terminales de las redes
telefónicas convencionales.
El protocolo SIP no tiene dependencias con los protocolos de las capas
inferiores, por lo que puede soportarse sobre TCP (Transmission Control Protocol)
o UDP (User Datagram Protocol), igualmente sobre IP, ATM (Asynchronous
Transfer Mode), F-R (Frame Relay) o X.25.
46
En cambio, un simple datagrama UDP solo lleva un mensaje SIP. Los
datagramas UDP, incluyendo todas las cabeceras, no deben ser mayores que la
MTU (Media Transmisión Unit), si es que ésta se conoce, o no mayores de 1500
bytes si no se conoce.
SIP es un protocolo basado en texto, utiliza el juego de caracteres ISO
10646 con codificación UTF-8 (RFC 2279), lo que posibilita una fácil
implementación y depuración, lo hace flexible y extensible.
El sobre encabezamiento que implica usar un protocolo basado en texto no
tiene mayor trascendencia, pues SIP es un protocolo de señalización, no es un
protocolo para el transporte de datos entre usuarios como puede ser FTP (File
Transfer Protocol).
SIP soporta, entre otras cosas:
Correspondencia (“mapping”) de nombres y servicios de re
direccionamiento,
Movilidad de usuarios y de terminales,
Llamadas con múltiples interlocutores a través de MCU´s(Multipoint Control
Unit).
Servicios suplementarios y de red inteligente,
Identificación de usuarios con URI´s (Uniform Resource Identifier),
posibilitando a éstos iniciar una llamada haciendo un simple “click” sobre un
enlace Web.
Operación stateless o stateful,
Cualquier sintaxis en el cuerpo de sus mensajes,
Ser utilizado conjuntamente con otros protocolos de señalización,
Sus propios mecanismos de seguridad.
Generalmente, las comunicaciones multimedia con el protocolo SIP comprenden:
Localización del usuario,
Determinación de la disponibilidad del usuario para la comunicación,
47
Determinación de los medios para la comunicación, esto es, las
capacidades de usuario,
Establecimiento de los parámetros de la comunicación entre las partes
involucradas,
Manipulación de las llamadas, es decir, establecimiento, modificación y
terminación de llamadas.
2.4.3 Elementos de una red SIP.
Los elementos en la arquitectura SIP son:
Agentes de Usuario (User Agent, UA).
Servidores de red.
Los Agentes de Usuario son aplicaciones que residen en las estaciones
terminales SIP, y contienen dos componentes:
Agentes de Usuario Clientes (User Agent Client, UAC).
Agentes de Usuario Servidores (UserAgent Server, UAS).
Los UAC originan las solicitudes SIP (asociados al extremo que origina la
llamada), y los UAS responden a estas solicitudes, es decir, originan respuestas
SIP (asociados al extremo que recibe la llamada). Los UA´s deben implementar el
transporte tanto sobre TCP como sobre UDP, y quizás también sobre SCTP.
Los UAC´s y UAS´s pueden, por si solos y sin los servidores de red, ser
capaces de soportar una comunicación básica (modelo de llamada básico,
directamente entre endpoints). No obstante, la potencialidad de SIP se aprovecha
con el empleo de los servidores de red.
Los servidores de red se clasifican de la manera siguiente:
Servidores de redirección
48
Servidores proxy
Servidores de registro
Servidores de redirección (Redirect Server):
Procesan mensajes INVITE, que son solicitudes SIP, y retornan la dirección
(o direcciones) de la parte llamada. El SIP – URL (Uniform Resource Locator) de
la parte llamada o cómo contactar con ella (respuesta 3xx).
En caso contrario rechaza la llamada, enviando una respuesta de error
(error de cliente 4xx o error de servidor 5xx).
Servidores proxy (proxy server):
Ejecutan un programa “intermediario” que actúa como servidor y como
cliente, respecto al llamante se comporta como servidor, y respecto al llamado
como cliente.
Un servidor proxy puede reenviar solicitudes hasta el destino final sin efectuar
cambio alguno en ellas o cambiar alguno de sus parámetros si es necesario. Los
servidores proxy desarrollan el “routing” de los mensajes de solicitudes y
respuestas SIP que pueden ser de dos formas:
Stateful.
Stateless.
Los servidores proxy stateful retienen información de la llamada durante el
tiempo que dure el establecimiento de ésta.
Los servidores proxy stateless, son los que procesan un mensaje SIP y
entonces “olvidan” todo lo referente a la llamada hasta que vuelven a recibir otro
mensaje SIP asociado a la misma. Esto se refiere al “estado” de la llamada, sin
embargo, pueden mantener un “estado” para una simple transacción SIP, lo que
es denominado “minimal state”. La implementación stateless provee buena
49
escalabilidad, pues los servidores no requieren mantener información referente al
estado de la llamada una vez que la transacción ha sido procesada.
No todas las funcionalidades pueden ser implementadas en un servidor proxy
stateless, por ejemplo, las funcionalidades relativas a la contabilización y
facturación de las llamadas puede requerir funcionalidades proxy stateful, de
manera que se le pueda “seguir el rastro” a todos los mensajes y estados de una
comunicación.
Servidores de registro (Registrar Server):
Registran las direcciones SIP (SIP – URL) y sus direcciones IP asociadas,
es decir, garantizan el “mapping” entre direcciones SIP y direcciones IP.
Típicamente están localizados con servidores proxy o servidores de redirección.
Es un servidor que acepta solo mensajes de solicitud REGISTER,
posibilitando el registro correspondiente a la localización actual de los usuarios,
esto es, “seguir el rastro” de los usuarios, pues por diferentes razones (conexión
vía ISP, usuarios móviles, conexión vía LAN con DHCP) las direcciones IP de
éstos puede cambiar.
También se les denomina servidores de localización (Location Server), pues
son utilizados por los servidores proxy y de redirección para obtener información
respecto a la localización o localizaciones posibles de la parte llamada.
El registro del mapping de direcciones SIP correspondiente a un usuario, no
es permanente, requiere ser “refrescado” periódicamente, de lo contrario, vencido
un “time out” (por defecto, una hora), el registro correspondiente será borrado.
Este valor por defecto del “time out” puede ser modificado según valor que se
especifique en la cabecera “Expires” de un mensaje de solicitud REGISTER.
En consecuencia, para mantener la información de registro, el terminal (o el
usuario) necesita refrescarlo periódicamente. Igualmente, un registro vigente
puede ser cancelado y/o renovado por el usuario.
50
Normalmente un servidor SIP se implementa con la combinación de varios tipos:
Servidor proxy + servidor de registro
Servidor de redirección + servidor de registro
En cualquier caso deben implementar el transporte sobre TCP y UDP.
Funcionamiento del protocolo SIP
Resumen del funcionamiento según utilicemos un servidor Proxy o un servidor de
redirección:
Un UAC emite una solicitud,
Un servidor proxy interviene en la localización de la parte llamada,
Un UAS acepta (o rechaza) la llamada
Figura 2. 8 Señalización en llamada SIP con servidor Proxy
Un UAC emite una solicitud,
Un servidor de redirección notifica la dirección de la parte llamada,
Un UAS acepta (o rechaza) la llamada,
51
Figura 2. 9 Señalización de llamada SIP con servidor de redirección
Explicaremos mejor el funcionamiento detallado comentando los elementos y
eventos que intervienen y de qué manera. Que serán los siguientes:
Direcciones
Localización del servidor
Transacciones
Invitaciones
Localización de usuarios
Registro
Direcciones: Los usuarios ubicados en sus host respectivos se identifican
mediante una dirección SIP (SIP – URL’s) del tipo user@host, donde:
User : nombre de usuario o número telefónico
Host : nombre de dominio o dirección numérica de red
52
Localización de un servidor
Cuando un cliente SIP desea enviar una solicitud, en primer lugar ha de
enviar esta solicitud a un servidor Proxy configurado localmente o la dirección IP y
puerto correspondiente del destinatario.
Evidentemente, el software cliente debe disponer de las direcciones de uno
o de varios servidores SIP.
Transacciones
Una vez efectuada la localización de un servidor SIP, tienen lugar las
transacciones. Entendemos por transacciones el conjunto de solicitudes o solicitud
enviadas por el cliente y las repuestas o respuesta retornadas por el mismo
cliente. Se trata de solicitudes y respuestas relacionadas, o lo que es lo mismo,
con determinados parámetros iguales.
En caso de usar TCP como protocolo de transporte, las solicitudes y respuestas
de la transacción, usan la misma conexión TCP.
Varias solicitudes desde el mismo cliente y al mismo servidor pueden emplear la
misma conexión TCP, o para cada transacción una conexión TCP diferente. Esto
quiere decir que una conexión TCP puede soportar una o varias transacciones
entre un cliente y un servidor.
Invitaciones
Una invitación SIP consta de dos solicitudes, por tanto corre a cargo de un cliente.
Estas parejas de solicitudes son INVITE y ACK, o INVITE y BYE, según el caso.
La solicitud INVITE normalmente contiene la descripción de la sesión, descrita con
formato SDP. Esta descripción informa a la parte llamada qué tipo de medio el
solicitante puede aceptar, y dónde éste desea le sean enviados los datos.
53
Localización de usuarios
Dado que el usuario llamado puede desplazarse entre diferentes terminales, con
un Servidor de Localización estas localizaciones pueden registrarse
dinámicamente. Para esto puede usarse uno de diferentes protocolos, por
ejemplo, finger, LDAP, etc.
Un Servidor de Localización puede retornar varias localizaciones, bien porque el
usuario esté “loggeado” en diferentes hosts al mismo tiempo, o porque el Servidor
de Localización tenga temporalmente información no actualizada.
Con todo esto que hemos visto, dependiendo del tipo de servidor usado en la
transacción SIP, se actuará así:
El servidor de redirección le vuelve a enviar la información al cliente que lo solicite
y direcciona la llamada.
El servidor proxy, a la vez o secuencialmente, direcciona a la parte llamada.
Servicio de registro SIP
Posibilita que el cliente, mediante una solicitud REGISTER, notifique a un
servidor, proxy o de redirección, su ubicación. Hemos comentado anteriormente
que usualmente en la práctica, un servidor de localización o registro acompaña a
los servidores proxy y redirección. Tan en un caso como en otro, debe consultar a
un servidor de localización.
2.5 Codec.
Un códec es un “plugin” o pequeño añadido instalado en el sistema para
poder reproducir audio o video, el que ha sido previamente codificado o reducido.
El término códec proviene de la unión de dos palabras: Compresor-Decompresor.
54
Un códec es aquella pequeña unidad de software que describe cierta
especificación de un software o hardware a fin de trasformar un archivo con un
stream o flujo de datos, así como también una señal. De este modo, un códec es
capaz de codificar este flujo de información o señal para luego recuperarlo o
decodificarlo en un formato adecuado para su reproducción o manipulación. De
este modo, un códec se configura como un aparato que permite disminuir los
problemas que se producen cuando se requiere de un gran espacio para el
almacenamiento de cierto tipo de archivos, como lo son los de audio y video, ya
que son capaces de comprimirlos a fin de utilizar la menor cantidad de espacio
posible, y de descomprimirlos cuando el usuario decida reproducirlos.
No sólo ventajas poseen estos dispositivos. Existe un problema de este tipo
de programas y guarda relación con la pérdida de información. Es usual que
durante el proceso de codificación y decodificación se pierda un poco de
información. Sin embargo, gracias a los avances tecnológicos, ha sido posible la
creación de códecs más sofisticados que no cuentan con este problema.
Existen dos tipos de códecs, los que se dividen según el cómo realizan su
función. De este modo, existen los códecs transformadores, los que basan su
funcionamiento en la organización eficiente de la información, y de este modo,
poder ahorrar espacio para un mejor almacenaje. En segundo lugar, existen los
códecs predictores, los que operan en base a la eliminación de información
innecesaria para la codificación. Sin embargo, existe un tercer tipo, que resulta de
la combinación de los otros dos, lo que reduce de forma considerable los
riesgos.En todo caso no hay que asustarse. Como usuario, uno solo necesita
saber que el códecs es necesario para muchas aplicaciones multimedia, y si
tenemos problemas al intentar reproducir un determinado formato de archivo, es
posible encontrar en la red los codecs necesarios; lo que si se recomienda es
siempre buscar en las páginas oficiales de los desarrolladores de estos, para no
encontrarse con sorpresas desagradables.
55
2.5.1 Tipología de Códecs
Dentro de las tipologías es importante mencionar el PCM (Modulación por
codificación de pulsos), es una técnica para convertir señales analógicas a
digitales y viceversa. Mediante la PCM, las señales de voz, o cualquier otra señal
analógica, se transforman en una secuencia de pulsos binarios, dicho de otra
manera, en el mismo tipo de onda eléctrica que se maneja en los sistemas de
transmisión de datos. Para esto, la PCM debe llevar a cabo tres tareas sobre la
señal analógica: el muestreo, la cuantificación y la codificación.
Con el muestreo la señal analógica se discretiza en tiempo, es decir, solo
se consideran los valores de amplitud de la onda analógica que corresponden a
valores discretos del tiempo. Con la cuantificación, se le asigna la amplitud, que
corresponde a cada instante de muestreo y según su magnitud, un valor numérico.
Con la codificación, de acuerdo con el equivalente binario del número asignado, se
genera la onda eléctrica digital que corresponde a cada muestra de la señal
analógica, así la salida de un sistema PCM es una secuencia de muestras
digitalizadas dicho de otra manera una secuencia de pulsos con codificación
binaria. Esta señal se envía por el medio de transmisión hasta el receptor, en
donde la onda eléctrica original se recupera mediante la conversión, de nuevo a la
forma analógica de la señal digital que se recibe (Tecnologías y redes de
transmisión de datos, 2003).
Otra modulación que es importante mencionar es DPCM (Modulación
Diferencial de Pulsos Codificados) esta infiere el valor de la muestra futura a partir
del valor de las muestras pasadas, proceso denominado de predicción. Con un
predictor idéntico al emisor, la señal recuperada será la muestra más un ruido de
cuantificación. Como la señal tiene menos margen de variación dinámica que la
señal cuantificada requiere menos bits por segundo para transmitir la misma
información que por un sistema PCM donde se transmiten directamente los
valores codificados. De ahí que el DPCM sea más eficiente que PCM, gracias a lo
cual puede transmitirse una misma información por un canal con el ancho de
56
banda menor (Procesado digital de señales, Fundamentos para comunicaciones y
control – I, 2006).
La ADPCM (Modulación Diferencial de Pulsos Codificados Adaptativo) se
adapta dinámicamente a los diferentes tipos de señal aumentando o disminuyendo
la resolución de la misma (Universidad de Valencia, 2010).
2.6 Estándares.
Los estándares especificados por la ITU-T para la codificación de audio son
G.711, G.722, G.723, G.728 y G.729 (esta información puede consultarse en el
tema 2.2.6.5 Estándares de audio G.711 y Familia).
2.6.1 Codificación de Video.
La transmisión de imágenes con o sin movimiento, es una de las
aplicaciones que consume más ancho de banda en la actualidad. El video, como
caso particular, se transmite casi invariablemente en forma comprimida. La
esencia del proceso de compresión es intentar alcanzar una representación más
compacta de la señal digital, mediante la eliminación de redundancias presentes
en la misma, para minimizar el caudal de bits necesarios para su transmisión o
almacenamiento, intentando mantener la calidad. Los estudios de comprensión de
imágenes van orientados, generalmente, a analizar la calidad de la reconstrucción
de la imagen comprimida, el factor de comprensión alcanzado, la complejidad y
velocidad del algoritmo en si (Tendencias en redes de altas prestaciones, 1999).
2.6.2 Definición.
Una imagen, una secuencia de video o las señales de audio se pueden
comprimir dados los siguientes factores:
Hay una considerable redundancia estadística en la señal
57
Hay bastante información en la señal, que es irrelevante desde el punto de vista
perceptual humano
Para una aplicación dada, los esquemas de compresión, pueden explotar uno o
todos los factores anteriores, para alcanzar el factor de compresión de datos
deseado.
Por la necesidad de establecer normas internacionales para estos
esquemas de compresión, los organismos mundiales de estandarización han
desarrollado diferentes estándares para el almacenamiento, transmisión de video
y su audio asociado.
Algunos de estos estándares son: JBIG, JPEG, MJPEG, ITU H.261, MPEG-1,
MPEG-2, MPEG-4, MPEG-7, ITU H.263, GA HDTV, DVB, CMTT (Tendencias en
redes de altas prestaciones, 1999).
2.6.3 Estándares.
Hay dos estándares aceptados actualmente para compresión de imágenes
estáticas y en movimiento, son JPEG (Joint Pictures Expert Group) y MPEG
(Moving Pictures Expert Group). Estos esquemas, proporcionan altos factores de
compresión con buena calidad en la imagen reconstruida (Tendencias en redes de
altas prestaciones, 1999).
JPEG
El estándar ISO/IEC 10918 surge para responder a las necesidades de una
norma internacional para la compresión de imágenes estáticas multinivel.
Su objetivo fue desarrollar un método general para la compresión de imágenes
que reuniese una serie de requisitos. Incluye dos métodos de compresión básicos:
un método de compresión con pérdidas basado en la DCT2, y un método
predictivo para compresión sin pérdidas. La codificación de imágenes basada en
DCT es la base de todos los estándares de compresión de imágenes y video.
58
Un sistema de codificación genérico basado en DCT se muestra en la figura
Figura 2. 10 Sistema de codificación
Especifica cuatro modos de operación: secuencial basado en DCT, progresivo
basado en DCT, sin perdidas y jerárquico.
Además de las imágenes estáticas, pueden codificarse también datos de
video usando Moving JPEG, que no emplea ninguna técnica de reducción de
redundancia entre imágenes (Tendencias en redes de altas prestaciones, 1999).
MPEG
La idea básica detrás de la codificación MPEG es, explotar la localidad
temporal, exceptuando ciertos tipos de vídeos, como los videos musicales, en
donde las imágenes no cambian mucho durante pequeños intervalos de tiempo.
MPEG, toma ventaja de esto, codificando una imagen con relación a otras
imágenes temporalmente cercanas a ellas.
Todos los estándares MPEG son genéricos, es decir, independientes de la
aplicación. No especifican las operaciones del codificador. En cambio, puntualizan
la sintaxis del flujo de bits codificado y el proceso de decodificación. Así
proporcionan bastante flexibilidad en las especificaciones, para que distintos
59
fabricantes puedan incluir elementos de optimización específicos (Tendencias en
redes de altas prestaciones, 1999).
El estándar MPEG es uno de los más populares estándares de compresión
de video y audio, debido a que no es un simple estándar. En vez de eso, es un
rango de estándares disponibles para diferentes aplicaciones, pero basados en
principios similares. MPEG es el acrónimo de Moving Pictures Experts Group,
establecido por la ISO para trabajar en compresión de video.
MPEG-1
Es el primer Codec (codificador/decodificador) desarrollado por MPEG y
dirigido a aplicaciones que requieren calidad media y una codificación de video y
audio a un caudal de bits medio (sobre 1.5 Mbps).
El algoritmo de codificación MPEG-1, es un esquema de compresión con pérdidas,
que puede aplicarse a un amplio rango de formatos de entrada y de aplicaciones.
MPEG-1 no reconoce fuentes entrelazadas. El video entrelazado, tal como el
generado por una cámara de TV, debe convertirse a código no entrelazado antes
de la codificación. Este proceso de conversión no está especificado en el
estándar.
Una fuente de video es una secuencia de frames numerados, F1, F2, F3,…, Fn.
Cada frame es una imagen estática. Un reproductor de video muestra las
imágenes consecutivas, frame tras frame (Tendencias en redes de altas
prestaciones, 1999).
MPEG-2
Apareció en el año 1994 y es idéntica a la normativa del ITU H.262. Se
diseñó para mantener la compatibilidad con MPEG-1. Incorpora nuevas
características de codificación para tratar con imágenes de video entrelazadas.
El MPGE-1 es una normativa muy amplia, que para la mayoría de las
aplicaciones no necesita ser implementada de forma completa. Por ello introduce
60
los conceptos de perfiles y niveles, los cuales permiten establecer las
compatibilidades entre diversos equipos MPEG-2, puesto que establecen que
subconjuntos de MPEG-2 soporta un equipo. Como regla general, cada perfil
define un nuevo conjunto de algoritmos a añadir a los del perfil inmediatamente
inferior. En cambio, el nivel especifica el margen de valores que puede soportar
cada uno de los parámetros, por ejemplo el tamaño de imagen o la tasa de bits
(Tratamiento digital de voz e imagen y aplicación a la multimedia, 2000).
MPEG-4
La clave tecnológica que representa la diferencia fundamental de MPEG-4
es la habilidad de codificar objetos visuales de formas arbitrarias, ya que los
objetos visuales de MPEG-2 están limitados a tener formas rectangulares. En
MPEG-4 es posible componer escenas en donde diferentes personas (imágenes
en 2D) pueden estar juntas alrededor de una mesa en la misma escena, siendo
cada una, un objeto audiovisual definido y tratado en forma completamente
diferente.
El estándar MPEG-4 ofrece una serie de tecnologías que definen:
La representación codificada de unidades con contenido de audio, de video,
llamados objetos audiovisuales (AVO)
La forma en que los diversos AVO están compuestos en una escena.
La manera en la que los AVO’s son multiplexados y sincronizados, para que
puedan ser transportados sobre canales de una red ofreciendo calidad de servicio
apropiada para la naturaleza de los mismos o requerimientos del usuario final
Una interfaz genérica entre la aplicación y los mecanismos de transporte
La manera en la que el usuario final interactúa con la escena, por ejemplo
cambiando el punto de vista, o con un objeto individual en la escena, es decir,
61
haciendo click en el objeto para obtener información acerca de las características
de éste
La proyección de la escena audiovisual compuesta sobre el equipo terminal
de audio y/o video deseado (MPEG-4, 2001)
MPEG-7
Es una representación estándar de la información audiovisual que permite
la descripción de contenidos por palabras clave y por significado semántico (quién,
qué, cuándo, dónde) y estructural (formas, colores, texturas, movimientos,
sonidos). El formato MPEG-7 se asocia de forma natural a los contenidos
audiovisuales comprimidos por los codificadores MPEG-1 (almacena y descarga
archivos audiovisuales), MPEG-2 (televisión digital) y MPEG-4 (codifica audio y
vídeo en forma de objetos), pero se ha diseñado para que sea independiente del
formato del contenido.
Este estándar se usa para que sea posible desarrollar sistemas capaces de
indexar grandes bases de material audiovisual (imágenes fijas, gráficos, modelos
tridimensionales, audio, discursos, vídeo e información sobre cómo esos
elementos están combinados en una presentación multimedia) y buscar en estas
bases de materiales en forma manual o automática (El estándar MPEG-7,2005).
Formatos de Video
Existen diferentes formatos de video en los que se puede representar la
señal de video estos formatos pueden ser de color, muestreo y tamaño
(Codificación y transmisión robusta de señales de video MPEG-2 de caudal
variable sobre redes de transmisión asíncrona, 1999).
62
Formatos de color
El formato de colores RGB parte de la idea de que cualquier color puede
ser representado a través de una combinación de los tres colores primarios los
cuales son rojo, verde y azul.
En la representación digital de estándar RGB, los componentes se codifican
cada uno con ocho bits, arrojando un total de 24 bits por pixel. Este es el formato
básico en el que trabajan la mayoría de componentes de obtención de imágenes y
video, como el escáner y las cámaras. Si la idea es la de comprimir la señal, se
puede obtener algún ahorro del ancho de banda si se trabaja con luminancias y
crominancias, la razón es que el ojo humano es más sensible al brillo (luminancia)
para percibir los detalles, y no tanto a la diferencia de color (crominancias) para las
que se necesita mucho menos resolución. Si el ojo no puede resolver el color muy
bien, no hay ninguna razón para malgastar el ancho de banda para representar
señales de color de alta resolución (Codificación y transmisión robusta de señales
de video MPEG-2 de caudal variable sobre redes de transmisión asíncrona, 1999).
2.7 Formatos intermedios CIF Y QCIF.
En la norma H.261 se especifican dos formatos que tienen relación con la
resolución de la imagen:
CIF (Common Intermediate Format – Formato Intermedio Común), con una
resolución de 352 x 288 pixeles
Sus parámetros se muestran en la tabla 2.1. Su resolución es adecuada
para conferencias de grupo, donde cada participante ocupa sólo una pequeña
fracción del área visible. Pero si la velocidad de transmisión es baja, podría
manifestarse un movimiento robotizado. Para los gráficos, el CIF puede usarse
para transmitir imágenes de gráficos de texto con 15 o menos líneas de texto. Este
formato se recomienda para todos los codecs que operan a velocidades de 384
Kbps o más.
63
Tabla 2. 2 Resolución de video
QCIF (Quarter Common Intermediate Format - Formato Intermedio Común de un
Cuarto), con resolución de 176 x 144 pixeles
Este formato de menor calidad tiene la mitad de resolución del CIF en cada
dimensión, tiene la cuarta parte de número de pixeles del CIF. Esta resolución es
notablemente más pobre que una imagen de televisión comercial, pero, adecuada
para conferencia de una sola persona, donde sólo se muestre la cabeza y los
hombros (talking heads). El QCIF sólo puede usarse para gráficos muy simples
con 7 líneas de texto como máximo. Todos los codecs bajo norma H.261 requieren
el QCIF para operar, como modo de respaldo. Aún si un codec tiene capacidad
CIF, éste podría, por sus características, forzar su operación a QCIF si se desea
mejorar la velocidad de cuadros o economizar en la velocidad de transmisión.
Para asegurar la compatibilidad de las transmisiones, se hace un intercambio
previo de parámetros entre los terminales, especificando la resolución que se
usará durante la videoconferencia. Los equipos de calidad superior degradan su
resolución al nivel del equipo de menor calidad, las características y parámetros
de estos formatos se muestran en la tabla 2.2 (Videoconferencia sobre redes
WAN, 2007).
Tabla 2.2. Parámetros del formato QCIF.
64
2.7.1 Estándares de Video H.32X y Familia.
En el campo técnico la estandarización es el proceso por el cual se
establecen normas comúnmente aceptadas que permiten la cooperación de
diferentes empresas o instituciones sin disminuir su posibilidad de competir. Un
estándar proporciona ventajas no sólo a las empresas, sino también al usuario, sin
verse limitada su capacidad de elección a un determinado proveedor, sino a todos
aquellos que cumplen con los requerimientos necesarios y que, por tanto, crean
productos que son compatibles.
H.320
El estándar H.320 fue propuesto por la ITU-T y está diseñado para enlaces
ISDN (Red Digital de Servicios Integrados), se ha ido adaptando para usarse en la
tecnología WAN. El estándar recoge todos los subestándares tales como H.261
(vídeo), G.7XX (audio), H.320 (control) y T.120 (datos) y transmite 128 Kbps.
Una versión de H.320 está diseñada para multipunto, la MCU (Unidad de
Multiconferencia) permite 3 o más terminales para compartir información de audio
y vídeo. Una simple red multipunto debe ser considerada como una conferencia
punto a punto excepto porque 2 o más terminales están presentes.
H.323
El estándar H.323 es muy importante para la comunicación de audio, video
y datos, este estándar define videoconferencias basadas en LAN y permite una
interoperabilidad entre los diferentes vendedores; define videoconferencias
usando líneas de viejos sistemas telefónicos.
Estándar totalmente compatibles de aplicaciones de redes multimedia
pueden expandirse a través de los múltiples "carriers backbone" (Redes privadas
LAN/WAN e Internet) y viajar a través de muchos dispositivos hechos por
diferentes vendedores, permite a estos seguir los mismos lineamientos para el
65
desarrollo de equipos, software de red y software de aplicaciones para facilitar o
eliminar los problemas de incompatibilidad encontrados hoy en día en las redes de
múltiples vendedores incluyendo Internet.
H.323 soporta diversos protocolos como H.225 y H.245 para una variedad
de aplicaciones multimedia y una correcta transmisión de audio, vídeo y datos a
través de múltiples ambientes de red. Los protocolos H.225 y H.245 son los más
importantes dentro del estándar H.323 y se usan para la configuración,
administración y terminación de llamadas. H.225 realiza el control de la llamada y
H.245 la administración de la misma (Protocolos en videoconferencia H.323,
2009).
H.324
El estándar H.324 sirve para transmisión de videoconferencia trabaja sobre
líneas telefónicas regulares a velocidades de 28.8 Kbps ó 33.6 Kbps puede dar 5 ó
7 cuadros/se, la transmisión de imágenes es de muy baja calidad, similar a fotos
una detrás de otra (Manual de Prácticas para el Laboratorio de Administración de
Redes, 2008).
H.261
El estándar H.261 se utiliza para comunicaciones audiovisuales, es una
recomendación de la ITU-T para la compresión de vídeo para ser usado en
canales que vayan de 64 Kbits a 2 Mbits; también llamado px64 donde p es un
rango comprendido entre 1 y 30 (los múltiplos que puede tener un canal B),
diseñada para asegurar compatibilidad entre países con distintas normas de
vídeo, soporta dos tamaños de imagen: CIF (Common Intermediate Format) con
una resolución de 352 x 288 y QCIF (Quarter CIF) con una resolución de 176 x
144 (Videoconferencia, 2003).
66
H.264
MPEG-4 Parte 10 (H.264/AVC) - El H.264 (también llamando MPEG-4 parte
10), es un codec de vídeo digital utilizado para alcanzar una alta compresión de
datos. Fue realizado por la ITU-T Video Coding Experts Group (VCEG) junto con
la ISO/IEC Moving Picture Experts Group (MPEG) como el producto de un
esfuerzo de sociedad colectiva conocida como el Joint Video Team (JVT).
También es conocido como MPEG-4 AVC (Advanced Video Coding, Codificación
Video Avanzada), ofrece una compresión perceptiblemente mayor que sus
precursores.
Puede proporcionar vídeo de calidad DVD con una tasa binaria 40% inferior
a la de MPEG-2. Se considera prometedor para vídeo a imagen completa
terrestre, satélite y conexiones de banda ancha en Internet. Es también uno de los
codecs de video que se han elegido para el Blu-ray y el HD-DVD.
H.264 hace uso las redundancias espaciales, temporales, y psico-visuales
para mejorar la eficiencia de la codificación de video.
Como novedad frente a las normas anteriores, H.264 propone nuevas
formas de partición de bloques. De este modo, se proporciona una mayor
exactitud en la estimación de movimiento, a lo que se suma una precisión que
puede llegar hasta un cuarto de píxel
Antes, se realizaban particiones de 8x8. En el H.264, de cada a disminuir
información residual y el número de vectores de movimiento, se asignan bloques
de diferentes tamaños según sea la cantidad de movimiento que exista entre los
distintos frames. A las zonas que cambian menos se le asignan los macrobloques
de mayor tamaño (16x16 píxeles), mientras que las zonas con más movimiento
estos bloques pueden ser descompuestos en sub-bloques de 16x8, 8x16 ó 8x8
píxeles. En este último caso, es posible descomponer a su vez cada sub-bloque
de 8x8 píxeles en particiones de 8x4, 4x8 ó 4x4 píxeles.
67
Figura 2. 11 Bloques y formas de video
Aquí podemos ver el proceso de compensación de movimiento en la codificación
inter-frame. Cuanto mejor sea la predicción, menos información contendrá el
residuo.
Figura 2. 12 Frame reconstruido a partir de la predicción
2.8 Estándares de audio G.72X y Familia.
G.711: Es un estándar de la ITU-T que utiliza la codificación PCM5
proporcionando calidad de audio a 64 Kbits en el tramo de 3 KHz
(Videoconferencia, 2003).
G.722: El estándar G.722 utiliza la codificación PCM proporcionando calidad de
audio a 64 Kbits en el tramo de 7 Khz (Videoconferencia, 2003).
G.723: El estándar G.723 se encarga de comprimir las frecuencias comprendidas
entre 50 Hz y 7KHz pero lo hace a canales de 48, 56 y 64 Kbps, consiguiendo así
68
mayor disponibilidad y mayor calidad en la transmisión y recepción (Universidad
de Valencia, 2010).
G.728: El estándar G.728 la codificación PCM proporcionando calidad de audio a
16 Kbits en el tramo de 3Khz. H.221 define la estructura de las tramas para
comunicaciones sobre canales de 64 a 2 Mbits, es el protocolo que define el
transporte del resto de protocolos sobre la red, define frames de un tamaño fijo de
80 bytes (Videoconferencia, 2003).
G.729: El estándar G.729 también utiliza la codificación PCM proporcionando
calidad de audio a 8 Kbits en el tramo de 3Khz, al igual que G.728, H.221 define la
estructura de las tramas para comunicaciones sobre canales de 64 a 2 Mbits,
permitiendo comprimir así los 64 Kbps.
69
Tabla 2. 3 Relación entre códec de audio.
70
CAPÍTULO III: Factibilidad Técnica y Económica
3.1 Factibilidad Técnica.
Cuando escuchamos la palabra videoconferencia inmediatamente la
asociamos a grandes empresas, reuniones de poderosas compañías discutiendo
un gran proyecto y millones de pesos. Gracias a un estudio de mercado realizado
se comprobó que la demanda por adquirir servicios de comunicación a distancia
ha ido incrementando en los últimos años, el principal motivo es que, al poseer
una plataforma que nos permita estar conectados de manera presencial, es decir
oír y observar a la persona con la cual estamos hablando a cientos de kilómetros,
asegura un retorno de la inversión en un periodo aproximado de 6 meses. Esto
debido a que al hacer viajes de negocio se desembolsan grandes sumas de dinero
en pasajes de aviones, reservaciones de hoteles y gastos en viáticos, sumado a
los eventuales traslados en taxis, trenes o cualquier factor que implique
movilización dentro de una determinada ciudad al momento de la reunión.
Como consecuencia a lo anterior se tomó como desafío implementar un
servicio de videoconferencia que cubra las necesidades que se mencionaron al
principio reduciendo costos pero no la calidad, de manera que sea muy atractiva
para los clientes.
Se realizaron estudios para comprobar si es factible desde el punto de vista
técnico y económico implementar un servicio como se pretende.
A continuación se menciona y detalla cada paso que implica llevar a la
realidad un servicio de videoconferencia que será de mucha utilidad para
empresas y organizaciones educacionales que no cuentan con el presupuesto
para invertir en una plataforma propietaria y todo esto gracias a las bondades que
nos ofrece el “Software Libre” y su extensa lista de aplicaciones gratis.
71
3.1.1 Topología
La topología que se muestra a continuación, presenta una prototipo de una
plataforma que funciona producto de los beneficios que nos ofrece el “Open
Source”, más conocido como software desarrollado y distribuido libremente, junto
a aplicaciones para dispositivos móviles y computadores que funcionen con OS
Windows como es el caso de la aplicación MyPhone 3, que se encuentran
disponibles en la Web para su descarga gratuita. Además incorpora la posibilidad
de utilizar equipos terminales de marcas propietarias como es el caso de Polycom,
Cisco y Huawei.
3. Sala Reuniones
3. Desarrollo
2. MCU OpenSourceCentos 6.5
4. Tablet con Adroid & RealPresence.apk
6. Smartphone con Android & RealPresence.apk
5. Aplicación MyPhone para PC
1. Aplicación MyPhone para PC
7. Access Point
Figura 3. 1 Topología a Implementar
72
3.1.2 Hardware y Software.
El siguiente cuadro arroja los resultados de las aplicaciones y sistemas
operativos de GNU/Linux probados, donde resalta la plataforma que mejor se
comportó en las pruebas realizadas.
SISTEMA OPERATIVO GNU/LINUX
Plataforma
Centos
6.5
Debian
6 Ubuntu 12.04 Fedora
Red
Hat H.323 SIP
Medooze
X
x x
OpenMCU X
x
x x
Asterisk X
x
Kamailio X
x
Tabla 3. 1 Comparativa de compatibilidad
Medooze: MCU creada por Sergio Murillo, desarrollador español, la cual se
descarga y compila sobre distintas distribuciones de Linux, requiere de
paquetes de Audio y Video adicionales que deben ser compilados para
permitir la realización de multi-conferencias. Solo fue posible montarla en
Debian sin obtener resultados óptimos. Se descartó su utilización.
OpenMCU: Implementada por un grupo de desarrolladores Rusos, con el
mismo propósito del punto anterior, se obtuvieron buenos resultados en
todas las distribuciones de Linux en prueba, por lo que se definió utilizarla
en el Proyecto de Título.
Asterisk: Siguiendo con el propósito de utilizar como alternativa el estándar
SIP, Asterisk se impuso como la solución más robusta para la utilización de
registros de equipos terminales en internet, compatible con OpenMCU y
elegida para formar parte de la Plataforma final del Proyecto de Título.
Kamailio: A pesar de que se hizo el intento de investigar dicha solución
como alternativa a Asterisk, no existe mucha documentación clara para
realizar la integración con la plataforma muticonferencia. Se descartó.
73
La ventaja del software escogido es que no requiere de grandes recursos de
Hardware, por lo que se implementa bajo un Computador con procesador Intel
core i5 de 2,6 Ghz, con 6 GB de Ram y 64 MB de Video.
3.1.3 Diagrama.
OPENMCUPort 1420
ASTERISKNOWRegistro SIP Port 5060
CENTOS 6.5 HTTP
ADMINISTRACIÓN WEB
H.323/SIP
H.323/SIP
H.323/SIP
Telefono Polycom VVX 1500
SmartPhone Con Android RelaPresence Polycom
QDX6000 Polycom
H.323Port 1720
SIPPort 5060
localhost:1420 OpenMCU Administration
localhost PBX Administration
Figura 3. 2 Diagrama de arquitectura implementada
74
3.1.4 Decisión Final.
Para realizar la factibilidad técnica fue necesario estudiar una plataforma de
videoconferencia propietaria, en este caso el estudio se centró en la marca
Polycom, pionero mundial en sistemas de Teleconferencia y Videoconferencia de
origen Estado Unidense, fundada en el año 1990.
La elección de la marca estudiada se debió principalmente en la robustez y
calidad de las videoconferencias efectuadas, en cuanto a los equipos que
componen una solución completa, desde servidores a nivel de infraestructura y
equipos terminales que trabajan bajo la norma H.323 de la ITU-T, la cual define los
protocolos para proveer sesiones de comunicación audiovisual sobre paquetes de
datos.
El funcionamiento principal se basa en equipos terminales que se
componen de una CPU encargada de procesar el video y el audio capturados
producto de una cámara y un micrófono, la cual se conecta a la red de datos
donde por intermedio de la dirección IP asignada logra establecer sesiones con
otro punto terminal bajo la norma que se mencionó al principio (H.323).
Una red H.323 no solo se compone de equipos terminales sino que también
de un Gatekeeper, el cual se encarga de administrar sesiones, definir políticas de
funcionamiento y además, actuar como un servidor de registro para que las
llamadas de videoconferencia se realicen a través de una extensión asignada.
También encontramos un Firewall H.323 que cumple la función de permitir
llamadas desde una red privada hacia internet filtrando en este caso flujos H.323 a
diferencia de un cortafuego tradicional.
En esta misma línea aparecen equipos encargados de permitir la
interacción entre normas distintas, en este caso permite la conversación entre
H.323 y el protocolo SIP (Protocolo de Inicio de Sesión), los llamados Media
Gateway hacen posible este proceso.
75
Finalmente, para hacer posible el establecimiento de videoconferencia de
dos a más sitios de manera simultánea, aparece la MCU, quizás el equipo de valor
más elevado dentro de los que compone la plataforma debido a sus características
técnicas. Es en éste donde se concentra el estudio de la factibilidad para llevar a
cabo nuestro proyecto.
De este modo se estudió el completo funcionamiento y la posibilidad de
encontrar una aplicación que sea capaz de actuar prácticamente de la misma
forma pero reduciendo los costos de implementación, un factor crítico lo cual hace
que marcas como Polycom o Cisco apunten hacia un segmento del mercado
específico debido al alto valor económico de sus productos.
Es así como se pensó en el Software Libre y en sistemas que no dependan
de licencias de pago, para no tener dificultades con el uso ilegal de aplicaciones
propietarias. Aparece en este escenario el OpenSource, GNU/Linux y todo su
variado itinerario de Softwares y Plataformas desarrolladas por miles de personas
por todo el mundo dispuestas a compartir sus conocimientos y códigos fuentes de
aplicaciones que podrían ser útil en la búsqueda del sistema más apropiado en
este caso.
Las investigaciones se centraron en foros y blogs de personas que
desarrollan aplicaciones de videoconferencia en código abierto, de esta manera
aparecen conceptos como Medooze y OpenMCU, plataformas capaces de
procesar multiconferencias estables y de calidad.
Además se pensó en la alternativa de incluir una solución de
Videoconferencia SIP, lo que permite, debido a las estrictas políticas de seguridad
de H.323, el registro de dispositivos terminales hacia una URL o Servidor SIP
situado en internet, que hará posible una llamada de audio y video sin la
necesidad de abrir puertos como es el caso de H.323.
76
3.2 Factibilidad Económica.
3.2.1 Introducción.
La tecnología avanza a pasos muy agigantados y cada día el ser humano
necesita estar mucho más conectado, hoy a través de las redes sociales, como
Facebook, Whatsapp, Twiteer o Skype y es precisamente esta última la que más
llama la atención ya que nos posibilita interactuar cara a cara a través de audio y
video o video conferencia.
La video conferencia llega a Chile a finales de la década de los 90 gracias a
la empresa Latín Telecomunicaciones que comienza a incursionar en esta
llamativa tecnología introduciendo equipos terminales que posibilitan las video
llamadas. Obviamente al ser una tecnología nueva en nuestro país tendría
limitantes como el ancho de banda reducido disponible en esos entonces que
hacía que la transmisión de audio y video no fuera optima, es por ello que se
usaron tecnologías alternativas como las líneas ISDN que tendrían una capacidad
limitada pero asegurarían una comunicación sin interrupciones a cambio de un
costo muy elevado.
La evolución de la video conferencia en nuestro país se vio beneficiada por
el mejoramiento de las redes de internet y la capacidad de transmisiones por
sobre los 2 Mbps. Las comunicaciones comenzaban a ser más fluidas y la calidad
de imagen presentaba un mejoramiento notorio, ya el concepto comenzaba a
evolucionar a Telepresencia ya que daba la sensación que los participantes de las
sesiones de video conferencia compartieran en una misma sala u oficina.
Desafortunadamente el costos de los equipos encargados de generar la
comunicación no se fueron abaratando, si no que se han mantenido hasta el día
de hoy, salvo a que algunas marcas como por ejemplo Huawei o LG han ofrecido
productos alternativos pero aun así bordeando los $ 5000 dólares lo que ha
provocado que solo instituciones y empresas que poseen grandes recursos
económicos opten a estas soluciones de video conferencia.
77
Gracias al Software libre esta realidad puede cambiar ya que los costos se
reducen considerablemente tanto en hardware como software ofreciendo
soluciones similares con grandes prestaciones, comunicaciones efectivas y de
calidad, pensando principalmente en instituciones, pymes y empresas pequeñas
que requieran de la comunicación a distancia lo que se ve reflejado como
beneficio en un lapsus de 6 meses, recuperando la inversión de traslados,
hospedajes, viáticos y todo gasto que tenga que ver con la movilización para
efectuar esas reuniones o capacitaciones tan importantes que ayudan al desarrollo
de las instituciones.
Es por lo anterior que nuestro estudio se basara en desarrollar una
tecnología basada en Software Libre que permita el establecimiento de llamadas
en video a costos muy inferiores respecto a nuestros competidores.
3.2.2 Análisis previo a la situación actual.
El elevado costo de soluciones de Video Conferencia, la alta disponibilidad
de ancho de banda en redes de comunicaciones y la emergente variedad de
Softwares Libres que nacen como alternativa a las Video Conferencias de pago
sumado a la constante necesidad de estar comunicados de forma presencial, nos
hacen mirar hacia el futuro apuntando al usuario común que no cuenta con la
posibilidad de adquirir soluciones de tan alto valor económico.
Como estudiantes de último semestre en la Carrera de Ingeniería en
Telecomunicaciones, Conectividad y Redes, nos vemos enfrentados al desafío de
implementar una solución de Video Conferencia basada en Software libre,
contamos con el conocimiento y las herramientas para indagar y encontrar el
software que más se adecue al desarrollo de este proyecto, así como también la
situación actual del mercado en cuanto a tecnologías pagadas y que más
repercusión poseen sobre los clientes.
Laptops y máquinas virtuales de nuestra propiedad hacen de infraestructura
posible para la investigación y ejecución de las tecnologías disponibles como por
ejemplo Medooze basado en Linux, software libre el cual permite la realización de
78
una llamada multiconferencia, Asterisk u OpenSips, que actúan como servidores
dentro de la plataforma que dará vida al servicio de Video Conferencia que
pretendemos implementar.
Las variables externas que podrían interferir en la realización de este
proyecto podría ser la poca disponibilidad de los Softwares a utilizar, en cuanto a
descarga o eliminación de estos en los servidores que se encuentran alojados.
Con respecto al ámbito Legal no debiera existir ningún tipo de problema ya que se
trabaja netamente con Softwares Libres de Licencias y de pago.
Según la página oficial de Tecnología pyme, en el año 2013, la empresa
Arkadin proveedora de este tipo de servicios tuvo un aumento de demanda en el
año 2012 del 90% con respecto a los años anteriores.
Cada día las empresas están dispuestas al uso de nuevas tecnologías con
el fin de abaratar costos, comodidad y flexibilidad.
3.2.3 Principales Ventajas.
Las principales ventajas que aporta la videoconferencia al entorno empresarial
son:
Ahorro de tiempo: No es necesario dedicar varias horas a viajar, para
mantener una reunión.
Ahorro de costes: Evita el uso de aviones, hoteles, desplazamientos por
carretera u otros medios de comunicación.
Mejora en la conciliación de la vida personal y familiar: Permiten mantener
reuniones y conversaciones desde cualquier lugar, y ser utilizado como
herramienta de comunicación para facilitar el teletrabajo.
79
Beneficio ecológico: ya que se reduce la necesidad de viajes, y en
consecuencia la reducción de consumo energético y emisión de CO2.
En cuanto a las oportunidades que ofrece un sistema de videoconferencia a
una pequeña empresa o instituciones podemos destacar la posibilidad de
mantener reuniones y conversaciones cara a cara con personas y empresas en
cualquier lugar del mundo, y todo lo que eso supone en cuanto a posibilidades de
negocio, colaboraciones o expansión del negocio.
3.2.4 Diferencias entre Software libre y Pagado.
Las principales diferencias entre las tecnologías pagadas y libres es que las
tecnologías libres son aquellas que pueden ser distribuidas, modificadas, copiadas
y usadas; por lo tanto, debe venir acompañado del código fuente para hacer
efectivas las libertades que lo caracterizan.
Mientras que la tecnología pagadas limitan a los usuarios a las
posibilidades de usarla, modificarla o redistribuirla (con o sin modificaciones), o
que su código fuente no esté disponible o el acceso a éste se encuentra
restringido.
En el mundo de video conferencias las tecnologías pagadas están
apuntadas hacia la distribución a las grandes compañías, mientras que la video
conferencia libre se orienta al usuario básico, que puede incluir además a
compañías pequeñas o medianas empresas.
80
3.2.5 Evolución de la videoconferencia en Chile
En Chile, la videoconferencia se introdujo a fines de la década de los años 90’ y
su explosión en cuanto a implementaciones realizadas se inició a mediados del
año 2003, a continuación se expresa mediante un gráfico de barras la evolución
de los últimos años.
Figura 3. 3 ventas en millones vs años
Ganancias en miles de millones de pesos. Facturación anual estimada de la
empresa Latín Telecomunicaciones S.A. pionera en Chile en la implementación de
las Video conferencias, lo que demuestra un aumento en los requerimientos del
servicio entre los años 2003 a 2010.
Si bien desde el año 2011 hacia adelante la empresa Latín
Telecomunicaciones vio mermada sus ganancias se debió principalmente a la
incursión en el mercado de otras compañías que vieron con buenos ojos la venta
de la implementación del servicio de video conferencias.
81
Figura 3. 4 Participación de empresas en el mercado de la videoconferencia
3.2.6 Servicio de otros proveedores.
LifeSize: Es una empresa de videoconferencia que ha desarrollado una de las
soluciones más avanzadas dentro de la industria. El uso de los codificadores
LifeSize permite de una manera simple lo que otros logran de forma compleja y
costosa, esto es la óptima utilización del ancho de banda para realizar la
transmisión de audio y video en tiempo real y con excelente calidad con sólo una
tercera parte de lo requerido por la competencia para lograrlo.
LifeSize está a la vanguardia de la tecnología en soluciones High Definition y Full
High Definition.
Latin Telecomunicaciones: Latín Telecom es la empresa número uno en la
entrega de soluciones para la realización de videoconferencias y audio
conferencias. Con más de 15 años en el mercado de la colaboración a distancia y
de la comunicación en tiempo real.
5% 3%
12%
80%
2008
82
El trabajo de Latín Telecomunicaciones se encuentra avalado por un amplio
y cabal conocimiento de la colaboración virtual, área en la que han asesorado a
las más importantes empresas nacionales y extranjeras con más de 1000 clientes
y una presencia en el mercado superior al 80%.
De este modo, las soluciones que entregan ayudan a las empresas a
mejorar e integrar cada una de las áreas que la componen, optimizando recursos -
por ejemplo - en gastos de viajes y capacitaciones, además potenciando la
integración de nuevos estamentos o sucursales, facilitando las comunicaciones
tanto internas como externas, o simplemente renovando la imagen de su negocio
ante sus clientes.
En definitiva los actuales proveedores nacionales están orientados a brindar
servicios de conectividad bajo la colaboración de tecnologías de videoconferencia
cada vez más modernas con el motivo principal de hacer la experiencia lo más
cercana a la realidad. El servicio ofrecido es el mismo pero con distintas marcas
de fabricantes como Polycom, Cisco, Huawei, LifeSize, LG, etc. Tecnologías aún
muy costosas solamente alcanzables para grandes compañías.
3.2.7 FODA.
Para poder estudiar con mayor profundidad un posible negocio, realizamos
un estudio con una herramienta que nos ayudó a comprender (factores críticos
positivos con los que se cuenta), Oportunidades, (aspectos positivos que podemos
aprovechar utilizando nuestras fortalezas), Debilidades, (factores críticos negativos
que se deben eliminar o reducir) y Amenazas, (aspectos negativos externos que
podrían obstaculizar el logro de nuestros objetivos).
83
A continuación las detallamos:
3.2.8 Definición de los objetivos.
Debido a los altos costos de la videoconferencia, y el incremento de la
necesidad de contar con el servicio en las compañías pequeñas, se pretende
apuntar hacia aquellos sectores que requieran de una solución accesible
económicamente hablando.
Según lo anterior, se pretende:
Buscar una solución estandarizada, escalable, y económica para Pymes,
medianas empresas e instituciones educacionales como alternativa a los
servicios de Videoconferencia existentes ya que poseen un valor muy
elevado en el mercado actual.
Potenciar y fomentar la interacción a distancia desde la comodidad de una
oficina, sala de clases o del hogar entre los usuarios del servicio.
Fortalezas Debilidades
Producto Diferenciado Bajo Capital de trabajo
Calidad de servicio Dificultad de entrar al mercado
Producto a medida Fuerte Barrera de Entrada
Libre disposición de los recursos para el desarrollo del proyecto. Poco reconocimiento de marcas
Oportunidades FO DO
Mercado en Crecimiento Flexibilidad de plataformas para los clientes Desventaja de ser primerizos en el mercado
Mercado concentrado por pocos proveedores la oportunidad de pocos proveedores, mejora la calidad de servicio a menores costos Empresas pioneras con control del mercado
Sistemas libres Acondicionado a la necesidad del cliente Confianza con plataformas propias
Menores costos a la competencia Software libres abaratan costos No ser considerados por poca experiencia en el mercado
Amenazas FA DA
Crecimiento de clientes El cliente prefiere calidad y prestigio Optarán por la empresa más experimentada
Sensibilidad al precio El cliente puede pensar que al ser menos costoso, no tiene calidad de servicio Bajo capital para una plataforma más estricta
Acceso a información total El cliente puede tener información de todas las plataformas Pueden copiar idea por fácil acceso a información
Clientes con poder negociación Puede existir competencia con mejores opciones de mercado. Menos probabilidad de aprobación
Tabla 3. 2 Foda
84
Implementar un servicio de Videoconferencia para la comunicación a
distancia
Montar una plataforma para la administración del servicio a través de
servidores con la utilización de software libre (Linux).
Utilizar Software, aplicaciones y equipos terminales para la interacción de
video entre usuarios del servicio.
Adquirir conocimientos, habilidades para potenciar el negocio, tener una
demanda creciente y un servicio de primera calidad.
3.3 Propuesta Económica.
3.3.1 Segmentación.
Para realizar nuestra propuesta económica se consideró la estadística
oficial de empresas por tamaño según ventas y región publicada en la página
oficial de Servicios de Impuestos Internos.
El tamaño de una empresa se clasifica en los siguientes rangos, en base al
cálculo de las ventas anuales:
MICRO 1 0,01 UF a 200 UF.
MICRO 2 200,01 UF a 600 UF.
MICRO 3 600,01 UF a 2.400 UF.
PEQUEÑA 1 2.400,01 UF a 5.000 UF.
PEQUEÑA 2 5.000,01 UF a 10.000 UF.
PEQUEÑA 3 10.000,01 UF a 25.000 UF.
MEDIANA 1 25.000,01 UF a 50.000 UF.
85
MEDIANA 2 50.000,01 UF a 100.000 UF.
GRANDE 1 100.000,01 UF a 200.000 UF.
GRANDE 2 200.000,01 UF a 600.000 UF.
GRANDE 3 600.000,01 UF a 1.000.000 UF.
GRANDE 4 Más de 1.000.000 UF.
La mejor opción para nuestro proyecto fue calcular el total de empresas de
la Región Metropolitana, Mediana 1, Mediana 2 y Grande 1, con un total ventas
mensuales que bordean los 100 y 400 millones de pesos.
El total de empresas fue de 18.586 empresas. Calculando el 1% de
potenciales clientes nos dio un total de 18 empresas, en nuestro caso por ser
innovación y tomando en cuenta una decisión conservadora, optamos por realizar
nuestro estudio de mercado con 10 empresas seguras.
Para entender debemos tener en claro que se trabajaran principalmente dos
partidas para la evaluación económica:
Implementación plataforma de videoconferencia, y puesta en
marcha.
Soporte de este servicio de forma mensual, con una validez de 36
meses a contar de la fecha de implementación.
3.3.2 Antecedentes del Proyecto.
En base a la actualidad y el rápido crecimiento de las tecnologías
estudiadas a lo largo de este proyecto, hoy en día es importante un sistema de
videoconferencias en una institución que se encuentra en vías de desarrollo, de
86
este modo y tomando en cuenta tanto factores económicos como técnicos, nos
aseguramos de un negocio rentable en el tiempo.
3.3.3 Presentación de los Especialistas.
El equipo humano que llevará a cabo el proyecto, es un equipo con amplia
experiencia en el sector de las nuevas tecnologías. Dentro del equipo contamos
con futuros ingenieros en Telecomunicaciones, conectividad y redes, quienes
estarán a cargo del desarrollo y la implementación.
3.3.4 Costos de Funcionamiento.
Son aquellos costos que están en relación con la implementación de los
servicios de videoconferencia, es decir, aquellos en que se incurre al entregar los
servicios de video conferencia.
3.3.5 Costos de Implementación.
Son aquellos costos que están incluidos la iniciación del emprendimiento,
incluyen los gatos principalmente de equipos e insumos que se utilizaran.
Tabla 3. 3 Costos implementación
Los equipos terminales, que utilizará el cliente no serán incluidos en los
costos de implementación, deben correr por parte del cliente. En cuanto a
Item Descripcion Detalles Tecnicos Precio Unitario Cantidad Total
1 Cable Electricos Spektra® Cable Poder 220v para PC 900 10 9.000
2 Cable Red Cable UTP CAT6 305m 40.000 1 40.000
3 Equipo de Respaldo WD® Servidor NAS 4TB My Book Live Duo 2-Bay 239.000 1 239.000
4 Monitor-Teclado-Mouse Monitor 19", Teclado, Mouse 100.000 1 100.000
5 Rack de 19 pulgada Rack Modular 19 - 44u - 800mm Nacional 395.000 1 395.000
6 Servidor HP® Server ProLiant DL320e G8 Xeon Quad Core E3-1220v2 3.1Ghz 4Gb 500.000 1 500.000
7 switch Air802® Switch 24b GigaLan Administrable WebSmart SW24MGSFP 10/100/1000 169.000 1 169.000
8 Tableto Electrico Gabinete metálico 600 x 400 x 230 (32 Amp) 250.000 1 250.000
9 Ups PC® UPS 900VA Power-Saving Back Pro (BR900GI) 105.000 1 105.000
10 Servicios tecnicos y de ingenieria Levantamiento, Instalacion y configuracion 1.200.000 1 1.200.000
11 Movilizacion Valor Presupuestado 10.000 15 150.000
12 Alimentacion Valor Presupuestado 10.000 15 150.000
13 Varios Utilizacion de Herramientas 239.500 1 239.500
Total 3.546.500
Costos de Implantacion
87
funcionamiento, cualquier marca servirá gracias a la estandarización de protocolos
de la videoconferencia.
3.3.6 Costos de Operación.
Son aquellos costos que están ligados en directa relación con el
funcionamiento de los servicios de video conferencia, es decir, el costo mensual
directo que tendrá el sistema.
Tabla 3. 4 Costos operacionales
El valor estimado a cobrar será de $453.000 pesos. Aplicando un margen de
ganancia de un 50% sobre los gastos operacionales.
3.3.7 PRI Y FLUJO DE CAJA.
Descripción estimativa de utilidad con respecto a 10 clientes
Tras este año inicial, hemos considerado que la evolución más probable de los
ingresos será la mostrada en la siguiente tabla.
Tabla 3. 5 Costos operacionales
Item Descripcion Detalles Tecnicos Precio Unitario Cantidad Total Total Anual
1 Mantencion de Equipo mensual Mantencion Fisica y mantencion preventiva Software (1 x semana) (precio Visita) 30.000 4 120.000 1.440.000
2 Provision de Falla Porcentaje mensual que se mantendra en caso de problemas en equipos 50.000 1 50.000 600.000
3 Backup Mensual informacion Realizacion Mensuales de respaldo de informacion contenida para las grabaciones de video 50.000 1 50.000 600.000
4 Sueldos a trabajadores administrador del sistema 600.000 3 1.800.000 21.600.000
5 Electricidad Alimentacion de oficina de equipos 105.000 1 105.000 1.260.000
6 Enlace dedicado Conexión nacional de 100 Mbps 300.000 1 300.000 3.600.000
7 Oficina de administración Centro de operación 220.000 1 220.000 2.640.000
222
Total Mensual 2.645.000
Total Anual 31.740.000
Costos de Operación
Año 1 Año 2 Año 3
Nº Clientes 5 8 10
Gastos 36.231.500,00 32.685.000 31.740.000
Ingresos 27.173.625,00 43.477.800 54.347.250
Utilidad 9.057.875,00 - 10.792.800 22.607.250
Utilidad Total 24.342.175
88
Teniendo en consideración los flujos de caja (Tabla), nuestro periodo de
recuperación de la inversión da un plazo de aproximadamente 15 meses.
3.3.8 VAN.
La Tasa de descuento para realizar el emprendimiento elegido es de un
25%, ya que al ser un emprendimiento, se incurre en bastante riesgo de pérdida.
Este valor fue tomado principalmente, por la razón que cuando se hace el
estudio de un emprendimiento se considera un valor entre un 25-40%, como este
incurre en un desarrollo de tecnología, pero no es completamente una idea nueva,
consideramos el valor de base.
Tabla 3. 6 Van Elegido
3.3.9 TIR.
Se entiende que la tasa interna de retorno no es un indicador decisivo para
la evaluación de un proyecto, pero si es un buen indicador si este se asemeja al
van y es superior a la tasa de referencia dada por el mercado financiero, nos da a
entender que el negocio es rentable según los números.
Tir 25,9%
Tabla 3. 7 Porcentaje de TIR resultante
Van (Millones de Pesos) %
12.839.908,31 10
10.089.241,89 15
7.902.641,78 20
6.151.603,20 25
4.740.177,43 30
3.595.908,60 35
2.663.509,74 40
1.900.388,50 45
89
CAPÍTULO IV: Desarrollo del prototipo
4. Búsqueda de la plataforma adecuada
Ya es sabido que las llamadas de videoconferencia punto a punto son de suma
importancia para organizaciones y compañías al momento de realizar una reunión
con algún socio o sucursal geográficamente lejana. Pero, ¿Qué sucede cuando es
imprescindible establecer comunicación con más de dos sitios al mismo tiempo?
Las grandes compañías dedicadas al negocio de la Videoconferencia, tanto en la
fabricación y distribución de productos como en la colaboración del mismo,
cuentan con una variada gama de equipos y servidores que conforman una
plataforma de Videoconferencia. Entre ellos existe el equipo responsable de
enlazar video llamadas entre tres o más puntos terminales de acuerdo a sus
capacidades, nos referimos a la Unidad de Control Multipunto (MCU, Multipoint
Control Unit).
Si bien existe la posibilidad de adquirir una MCU, se definió que se trabajaría en
una alternativa producto de las facilidades que nos brinda el software libre.
4.1 Elección de la MCU.
Internet es la fuente de búsqueda escogida para adentrarnos en la investigación
de alternativas disponibles en lo que se refiere a “MCU alternativa libre de pago”.
Si hablamos de software libre, inmediatamente lo asociamos a OpenSource o
GNU/Linux. Es por ello que los potenciales focos de fuentes de información se
redireccionan automáticamente a Foros, Blogs y Comunidades donde se comparta
conocimiento de acuerdo a lo que mencionamos al principio.
La búsqueda nos lleva a “Medooze” como primera alternativa.
90
Medooze: Es una MCU creada por Sergio García Murillo, Ingeniero y
Desarrollador Español. Dentro de las características principales como Unidad de
Control Multipunto destaca la posibilidad de poder descargar su código fuente y
compilarlo bajo ciertas distribuciones de Linux como Red Hat, Centos o Debian.
Además cuenta con una interfaz gráfica la cual permite la administración del
servidor y el control sobre el establecimiento de las llamadas.
Puntos en contra y responsable de desechar Medooze como opción, fue la
limitancia de poder contar con H.323 para el establecimiento de llamadas ya que
solo se orienta al uso de SIP.
Por otro lado requiere de Asterisk y Sailfin, como servidores de registro de
usuarios, además de un Servidor externo para el procesamiento de los códecs de
Audio y Video.
Es una alternativa válida, robusta pero compleja tanto en su compilación como en
su manejo.
El proceso de investigación de alternativas nos lleva hacia el prototipo definitivo,
en este caso OpenMCU.
OpenMCU: En la búsqueda del prototipo adecuado, aparece OpenMCU, de
OpenSource, una plataforma sencilla pero muy completa, disponible en versiones
para Windows y Linux, que solamente requiere del conocimiento necesario de
administrador. Brinda posibilidades de trabajo bajo los estándares SIP y H.323. Es
importante mencionar que no los hace interactuar entre ellos pero si permite la
función de registro hacia un Gatekeeper como es H.323 y Un servidor de Registro
para el caso de SIP, además de ser completamente compatible ante la
eventualidad de requerir intercambio de sesiones de estándares por intermedio del
estándar h.248 o MEGACO (Media Gateway Control)
91
Para la compilación de OpenMCU es necesario conocer sobre Linux y algunos
comandos fundamentales, lo que hará posible un correcto funcionamiento de la
plataforma. A continuación una breve especificación.
4.2 Selección Distribución de Linux de acuerdo a la compatibilidad
Bajo el escenario de la elección de OpenMCU como plataforma a implementar,
viene el paso de la elección de la distribución de Linux que mejor se adecúe a los
requerimientos de la MCU para que las funciones de multi sesiones no tengan
inconvenientes y las llamadas se realicen de manera fluida.
De acuerdo a las experiencias de usuarios que ya probaron OpenMcu aparecen
distribuciones como Centos, Debian, Red Hat y Ubuntu, siendo esta ultima la
alternativa escogida en su versión 12.04 para realizar pruebas
4.2.1 Instalación Ubuntu 12.04
La imagen de Ubuntu 12.04 se encuentra disponible en su sitio oficial
www.ubuntu.com, una vez descargada se debe quemar en un CD o bien montar
en un dispositivo de almacenamiento USB.
Configuramos nuestro ordenador para que arranque desde el lector de disco o
USB según hayamos escogido el paso anterior.
Tras unos breves instantes aparece la pantalla inicial y desde ella
seleccionaremos “instalar Ubuntu”:
92
Figura 4. 1 Selección de idioma
Aparece un mensaje informativo y desde ahí podemos marcar la opción “instalar
software de terceros” para que durante el proceso de instalación se descarguen e
instalen códecs.
Figura 4. 2 Instalación de códec
En la siguiente pantalla aparecerán algunas opciones de instalación. Por ejemplo
se puede seleccionar “Borrar disco duro e instalar Ubuntu” si se quiere instalar
93
Ubuntu en todo el disco duro (opción no recomendable si ya se ha instalado otro
Sistema operativo y se quiere conservar). También es posible instalar Ubuntu
conviviendo con otro Sistema o incluso seleccionar “Algo más” y definir de manera
manual las particiones que se van a utilizar.
Figura 4. 3 Instalación de códec
Luego aparece en las opciones la ruta del disco duro. Se debe seleccionar y
pulsar “Añadir” para crear una nueva partición. Entonces se abre una nueva
ventana donde se puede indicar el tamaño que se quiere asignar y el tipo de
partición. Por lo general se deben crear 3 particiones: Una para /, otra para /home
y otra para swap. / Se utilizará para almacenar las aplicaciones que iinstaladas,
/home generalmente será usada para los datos (ficheros e imagenes) y swap es
un espacio temporal de intercambio.
94
Figura 4. 4 Selección de partición
En este caso, se selecciona “crear una partición de 3 GB para “ / ” el cual será el
punto de montaje.
Figura 4. 5 Creando Partición
Al pulsar sobre aceptar, se puede ver como se distribuye ésta partición sobre el
dispositivo actual. Seleccionar ahora el espacio libre restante y pulsar en “Añadir”
para crear la segunda partición.
95
Figura 4. 6 Creando segunda partición
En éste caso dar espacio de 5 Gb y como punto de montaje /home.
Figura 4. 7 Creando partición HOME
Al volver a la pantalla principal, de nuevo se puede observar cómo se distribuye el
espacio. Seleccionar el espacio libre restante y crear la última partición.
96
Figura 4. 8 Swap
En éste caso se debe seleccionar el espacio que queda y se debe definir la
partición como “área de intercambio”.
Figura 4. 9 Área de Intercambio
Al volver a la pantalla principal, podemos observar la distribución de particiones,
pulsar sobre el botón “Instalar ahora”. Únicamente se muestra como ejemplo
orientativo y en función del espacio que haya disponible en el disco duro habrá
que definir otros tamaños, pero se aconseja dar más tamaño a la partición /home
que es la que se usará para guardar los archivos, y un tamaño de 1 o 2 Gb para la
97
partición de swap, que se utilizará únicamente como espacio temporal de
intercambio cuando se agote la memoria RAM.
Figura 4. 10 Partición automática disco completo
En su defecto es posible escoger la opción de utilizar todo el disco duro o la
opción de compartir espacio con otro sistema operativo y dejar que Ubuntu cree
las particiones de manera automática.
Figura 4. 11 Partición automática
98
Tras ello comienza el proceso de instalación (copia de archivos) y podemos
seleccionar la zona horaria.
Figura 4. 12 Zona horaria
La distribución de teclado se puede seleccionar de acuerdo al idioma en el cual se
va a trabajar.
Figura 4. 13 Distribución de Teclado
99
Y por último indicar el nombre de la máquina, un nombre de usuario y password
de acceso que se usará para entrar en el escritorio, una vez que haya finalizado la
instalación.
Figura 4. 14 Usuario
Tras ello, continúa el proceso de copia de archivos y se muestran una serie de
pantallas que van informando sobre las características de Ubuntu.
Cuando se completa la instalación, nos pide reiniciar nuestra máquina. Es
recomendable desmontar el dispositivo USB, o quitar el CD de Ubuntu. Pulsar en
“reiniciar ahora”.
100
Figura 4. 15 Reiniciando
Tras reiniciar, se debe ingresar el password que se configuró en el proceso de
instalación.
Figura 4. 16 Inicio de sesión
101
Finalmente esta lista la distribución de Linux Ubuntu 12.04 para comenzar con el
proceso de instalación de la MCU.
Figura 4. 17 Funcionamiento Ubuntu
102
4.3.- Usando la Shell (Terminal de comandos)
Una vez Ubuntu este instalado, es necesario conocer la Shell o Terminal de
comandos. Para acceder a ella desde nuestra distribución presionamos la
combinación de teclas CTRL + ALT + T. A continuación se despliega una ventana
donde podemos ingresar comandos para ejecutar cualquier acción sobre nuestro
sistema operativo.
Figura 4. 18 Consola
La cantidad de comandos existentes son muchos, pero en este caso nos
centraremos solamente en los que se utilizarán para poder descargar y compilar
OpenMCU desde la Web y los códecs necesarios para hacer posible la
comunicación.
Como primer paso es importante acceder a nuestra terminal como usuario Root,
por lo que antes de ejecutar cualquier comando en la Shell ingresaremos lo
siguiente:
ubuntu@ubuntu:~$ sudo su
103
Luego nos pedirá ingresar nuestra password de súper usuario que comúnmente
es la utilizamos para iniciar sesión como administrador.
En este modo estamos en condiciones de realizar cualquier tipo de cambio en
nuestro sistema operativo, hasta es posible eliminar archivos esenciales para el
funcionamiento de nuestra distribución por lo que es recomendable ser muy
cuidadoso al momento de usar el terminal de comandos.
A continuación se describen los comandos que se utilizarán para la descarga y
compilación de los datos necesarios para instalar OpenMCU:
apt-get : es la herramienta que utiliza Debian y sus derivadas (Ubuntu incluida),
para gestionar los paquetes instalables disponibles en los repositorios.
update : Comando para actualizar el listado de paquetes disponibles.
install : instala los paquetes que necesitamos.
echo : Se encarga de repetir o desplegar en la salida estándar cualquier
argumento que se le indique (inclusive comodines), para posteriormente saltar una
línea
mkdir : El comando mkdir, sirve para crear nuevos directorios y por lo tanto
agrandar y mantener el orden en la estructura del sistema de archivos de Linux.
cd : Este comando sirve para salir desde un subdirectorio.
wget : Está considerado como el descargador (downloader) más potente que
existe, soporta http, https y ftp.
tar : El comando “tar” permite empaquetar varios archivos en un archivo único, no
los comprime.
svn : Este comando se utiliza para hacernos directamente con un árbol de un
directorio del repositorio que estemos buscando.
104
git : Git es un sistema de control de versiones muy versátil, rápido y eficaz, su
función es similar a la de “svn”.
make : Nos ayuda a compilar nuestros programas. Es capaz de saber qué cosas
hay que recompilar. Nos guarda los comandos de compilación con todos sus
parámetros para encontrar librerías, ficheros de cabecera, etc.
./configure : sirve para comprobar las características del sistema que afectan a la
compilación, configurando la compilación según estos valores, y crear el archivo
makefile.
export : El comando “export” se utiliza para transferir el valor de una variable para
que pueda ser accesible a todos los subshells (subprocesos).
sync : El comando “sync” sirve para forzar la grabación de los datos de la cache.
También es recomendado para hacer antes de desmontar un dispositivo más
storage, como una cámara fotográfica digital, un pendrive, o una pda. O bien si
hubo modificaciones y movimiento de información ( cp y mv por ejemplo ) entre
particiones, antes de desmontar.
Ya que conocemos algunos comandos necesarios para la instalación de
OpenMCU, el siguiente paso es entrar de lleno la Unidad de Control Multipunto.
4.4.- OpenMCU
A continuación se describen todos los pasos necesarios para instalar y operar la
Unidad de Control Multipunto OpenSource.
4.4.1.- Descarga e Instalación de OpenMCU
La MCU y su código se encuentran alojados en el siguiente enlace:
105
http://openmcu.ru/wiki/en/install/bin_linux
Ejecutar el terminal como usuario Root e ingresar los siguientes comandos, los
cuales agregaran los repositorios de OpenMCU a nuestra distribución de Linux:
add-apt-repository ppa:rayanayar/openmcu-ru
Una vez agregado los repositorios, se deben actualizar los paquetes disponibles
para Ubuntu 12.04 de la siguiente manera:
apt-get update
Ya que nuestros repositorios se encuentran descargados y los paquetes
disponibles actualizados. Procedemos con la descarga e instalación de
OpenMCU:
apt-get install openmcu-ru
Es importante conocer todos los subdirectorios donde se alojan los archivos de
OpenMCU para poder realizar cualquier cambio que consideremos necesario a la
hora de configurar nuestro servidor de Multiconferencias.
Service launch config: /etc/default/openmcu-ru
Service configs: /etc/openmcu-ru/*
Service runs as an unprivileged user 'mcu
Finalmente para arrancar o detener el servicio hacemos lo siguiente:
Service control: /etc/init.d/openmcu-ru (start|stop)
Service openmcu-ru restart
La MCU se encuentra instalada y corriendo en nuestra distribución.
106
4.4.2.- Descarga y compilación Códec de Audio y Video
Ya que OpenMCU se encuentra ejecutándose en nuestra distribución de Linux es
de suma importancia contar con los códecs de Audio y Video compatibles y
necesarios para poder ejecutar las llamadas con nuestros equipos terminales. A
continuación se describe la descarga y compilación de los Códecs que se usaran:
Al igual que la instalación de OpenMCU, es necesario actualizar paquetes y
repositorios en nuestro Sistema Operativo:
apt-get install libgsm1-dev g++ make libtool subversion git automake subversion
autoconf libgcrypt11-dev libjpeg8-dev libssl-dev
echo "/usr/local/lib" > /etc/ld.so.conf.d/local.conf
ldconfig
mkdir -p /usr/local/src
cd /usr/local/src
wget http://downloads.xiph.org/releases/speex/speex-1.2rc1.tar.gz
tar xvzf speex-1.2rc1.tar.gz
wget http://downloads.xiph.org/releases/opus/opus-1.0.2.tar.gz
tar xvzf opus-1.0.2.tar.gz
wget http://www.tortall.net/projects/yasm/releases/yasm-1.2.0.tar.gz
tar xvzf yasm-1.2.0.tar.gz
svn checkout http://mp4v2.googlecode.com/svn/trunk/ mp4v2
git clone git://git.videolan.org/ffmpeg.git
git clone git://git.videolan.org/x264.git
git clone http://git.chromium.org/webm/libvpx.git
git clone https://github.com/cisco/libsrtp
107
Los paquetes y repositorios se se encuentran actualizados, ahora comienza la
descarga y compilación de códecs:
x264 library
#
# Compiling yasm 1.2
#
cd yasm-1.2.0
./configure
make
make install
cd ..
#
# Compiling X264
#
cd /usr/local/src/x264
./configure --enable-debug --enable-shared --enable-pic
make
make install
cd ..
FFMPEG
#
# Compiling FFMPEG
#
cd /usr/local/src/ffmpeg
./configure --enable-shared --enable-gpl --enable-nonfree --disable-stripping --
enable-zlib --enable-avresample --enable-decoder=png
make
make install
cd ..
108
Mp4v2 library
#
# Compiling mp4v2
#
cd /usr/local/src/mp4v2
autoreconf -fiv
./configure
make
make install
VP8
#
# Compiling Speex
#
cd /usr/local/src/libvpx
./configure --enable-shared
make
make install
Speex library
#
# Compiling Speex
#
cd /usr/local/src/speex-1.2rc1
./configure
make
make install
109
Opus library
#
# Compiling Opus
#
cd /usr/local/src/opus-1.0.2
./configure
make
make install
SRTP library
#
# Compiling libsrtp
#
cd /usr/local/src/libsrtp
./configure
make
make install
Ya se encuentran instalados y listos para ser utilizados los códecs de audio tales
como G.711, G721, G729 entre los más importantes y para video los códecs
H.261, H.263, H263+, H.264.
110
4.5.- Conociendo la MCU
OpenMCU cuenta con una interfaz web de administración y es posible acceder a
ella a través de nuestro browser ingresando la dirección http://localhost:1420,
donde ingresamos inmediatamente a la página de bienvenida.
Figura 4. 19 Página de inicio MCU
111
Si damos un paseo por la MCU nos encontramos con la pestaña “Status” donde se
puede observar lo que esta ocurriendo en la Unidad de Control Multipunto, como
por ejemplo las últimas conferencias realizadas o Meeting Rooms creados.
Figura 4. 20 Estatus de llamadas
La pestaña de “Control”, es donde se crean las “Rooms” o sesiones Multipunto. Es
posible cambiar el nombre que aparece en el recuadro por el que deseemos y
seguidos de esto pinchar en “Create room”.
112
Figura 4. 21 Creando reunión
En la pestaña “Records”, encontraremos todas las grabaciones que hayamos
realizado, también tiene la opción de descargar el archivo a nuestros ordenadores.
Figura 4. 22 Respaldo de grabaciones
“Settings” es la pestaña en donde se realizan todas las configuraciones, se
pueden crear usuarios con permisos de administrador u operador, además se
agregan los participantes que realicen llamadas bajo protocolo H.323 o SIP.
113
A este nivel se pueden realizar configuraciones avanzadas, como por ejemplo
registrar la MCU a un servidor SIP o bien realizar cambios a nivel de códec y
protocolos.
Finalmente la pestaña “Help” nos redirecciona a foros donde se comparte
información de OpenMCU para discutir fallas y mejoras.
Figura 4. 23 Ayuda
114
Figura 4. 24 Parámetros H.323
Figura 4. 25 Parámetros SIP
115
4.6.- Selección de Aplicaciones para dispositivos terminales.
Al estar utilizando una plataforma de software libre, lo más indicado es contar con
una aplicación, la cual permita realizar video llamadas libre de pago, para
dispositivos terminales tales como Smartphone y Tablets, así como estaciones de
trabajo que cuenten con Cámara Web como Laptops y equipos de escritorio.
4.6.1.- Aplicación para Tablet y Smartphone
Si bien Polycom se caracteriza por ser un gigante de la videoconferencia y por
contar con una extensa gama de productos y servicios de pago, esta vez nos
brinda una aplicación totalmente gratuita y que se alza como la mejor y más
estable para dispositivos Móviles y Tablets. RealPresence Mobile es la aplicación
escogida y que se encuentra disponible para su descarga en versiones para
Android y iOS en Google Play y App Store respectivamente.
Figura 4. 26 Aplicación para equipos móviles
116
4.6.2.- Aplicación para Equipos de escritorio y Laptops
Como la mayoría de usuarios utiliza como plataforma preferida Windows de
Microsoft, esta vez se utilizó una aplicación pensada en ellos y que al igual que
RealPresence Mobile es totalmente gratuita.
Myphone en su versión para Windows se caracteriza por ser una aplicación muy
estable y capaz de realizar llamadas por SIP y H.323. Su instalación es sencilla y
al ser gratuita no requiere de Licencias.
Su descarga se encuentra disponible en el siguiente Link y su instalación es muy
sencilla.
http://openmcu.ru/public/myphone3/
Descargar la aplicación desde: http://openmcu.ru/public/myphone3/
Ejecutar la myphone3.exe
Figura 4. 27 Instalación de Myphone
117
El proceso de Instalación es muy fácil le damos click en “Accept”.
Figura 4. 28 Inicio de instalación
A continuación nos consulta la ruta donde quedarán alojados nuestros archivos de
programa, hacer click en “Next” para continuar.
Figura 4. 29 Selección de locación de instalación
118
Luego el programa consulta si queremos instalar Visual C ++. La casilla debe estar
seleccionada y le damos click en “Next”.
Figura 4. 30 Complementos de Myphone
En seguida comienza el proceso de instalación.
Figura 4. 31 Proceso de inicio de instalación
119
Figura 4. 32 Instalando Myphone
Ahora toca hacer Click en Finish, ya que el progragar se ha instalado
correctamente.
Figura 4. 33 Primer inicio Myphone
120
Myphone se encuentra instalado por lo que queda un acceso directo en nuestro
escritorio. Se debe ejecutar para comenzar a utilizar el programa.
El funcionamiento es intuitivo. Para realizar llamadas por h.323 solo es necesario
ingresar la dirección IP de nuestro sitio remoto y pinchar en “call” para establecer
conexión. Ahora bien, si se necesita realizar llamadas a través de SIP basta con
ingresar la dirección de nuestro servidor de registro y los datos de anexo que
asigna la centra, en este caso Asterisk.
Figura 4. 34 Configuración Myphone
4.6.3.- Equipos terminales reales
Es un punto a favor mencionar que OpenMCU es compatible con la mayoría de los
equipos terminales existentes en el mercado, como por ejemplo Huawei, Polycom,
LG, Tandberg de Cisco y Lifesizes entre otros. Prácticamente se podría decir que
se adecúa a cualquier equipo terminal que trabaje bajo los estándares SIP y
H.323.
Una muestra de ello es la utilización del equipo QDX-6000 de Polycom utilizado en
el desarrollo del funcionamiento y pruebas de este prototipo.
121
QDX-6000: De la Marca Polycom, el QDX-6000 es un equipo potente que trabaja
bajo estándares H.323 y SIP óptimo para ser utilizado en salas de reuniones de
hasta 10 participantes. Cuenta con dos micrófonos para ser distribuidos en la
mesa de reuniones. Solo alcanza resoluciones a nivel SD.
Figura 4. 35 Equipo QDX-6000
LG LifeSize: El LG Executive es un equipo de Videoconferencia desarrollado por
LifeSize, con 24” se inclina como equipo ideal de escritorio alcanzando
resoluciones de hasta 720p a 30 cuadros por segundo. También trabaja bajo los
estándares SIP y H.323.
Figura 4. 36 LG LifeSize
122
TE-30: Por último otro de los equipos utilizados en la prueba del prototipo
OpenMCU OpenSource es el poderoso y sorprendente Huawei TE30. Un equipo
compacto, es decir Códec, cámara y micrófonos en un solo equipo capaz de
alcanzar resoluciones de 1080p a 60 cuadros por segundo, ideal para salas de
reuniones de hasta 8 participantes. Trabaja bajo estándar H.323 como también
con el estándar SIP.
Figura 4. 37 TE-30
4.7.- Probando la Unidad de Control Multipunto “OpenMCU”
Finalmente corresponde mostrar el Prototipo en su máximo esplendor. Para ello se
describirá el paso a paso para agregar participantes a OpenMCU y cómo es
posible levantar una sesión de 4 usuarios en este caso para H.323 (para SIP el
procedimiento es el mismo).
Una vez adentro de nuestra MCU debemos dirigirnos a Settings > H.323 > H.323
Endpoints. Y podemos comenzar a ingresar uno por uno a los participantes que
serán agregados a la multiconferencia. En esta sección se deben configurar los
códecs de audio y video tanto de entrada como de salida, además se debe
configurar el ancho de banda para la llamada y el puerto de comunicación 1719
para H.323 (Para el caso de SIP configurar puerto 5060).
123
Figura 4. 38 Agregando equipos
Una vez que tengamos creados a los participantes, lo que queda es levantar la
sesión de Multiconferencia. Para ello no dirigimos a “Control”, le asignamos un
nombre a la nueva “Room” y le damos click en “Create room” .
Desde “Address book” se debe pinchar el ícono en forma de teléfono para agregar
a los participantes, con lo cual automáticamente comenzará a marcar al usuario
llamante. Acto seguido el participante ya conectado se reflejará en la lista de
“Room” como indica el costado derecho de la Figura 4.39 y simultáneamente se
verá en modo picture-in-picture al centro de la interfaz Web de “OpenMCU”.
Además como se mencionó anteriormente existe la opción de grabación de
sesiones, lo cual se hace posible al presionar el símbolo rojo redondo que se
encuentra arriba del video que se logra apreciar de la llamada en curso. Para
detener la grabación se vuelve a presionar el mismo icono que cambio su forma
de círculo rojo a cuadrado gris. La grabación queda alojada en la ruja que se
indica en la Figura 4.24.
124
Figura 4. 39 Control de reunión
4.8.- Equipos utilizados en la prueba multipunto con 4 sitios
Huawei TE-30
Figura 4. 40 Huawei TE-30
125
Figura 4. 41 4 llamadas a la vez
LG LifeSize
Figura 4. 42 LG LifeSize
126
Figura 4. 43 LifeSize con 4 sitios
Tablet Samsung Galaxy II
Figura 4. 44 Tableta Samsung
127
Celular Motorola Moto “G”
Figura 4. 45 Celular con llamada en curso
128
CAPÍTULO V: Conclusión.
Conclusión.
La multiconferencia es la comunicación vía imagen, audio y voz, es por ello
que podemos decir que ésta misma es la base de una interacción con mayor
calidad, confiabilidad y sobre todo un modo de intercambio de información entre
varias personas, ya que esto posibilita una experiencia muy similar a la
comunicación de una persona cara a cara con otra.
Las videoconferencias hoy en día pueden ser la solución definitiva para
acercar a las personas que se encuentran remotamente, dígase en reuniones
sociales, reuniones de trabajo, entretenimiento, así ayudando en este proceso a
ahorrar costos que incluyen viajes en avión, hoteles, tiempo, entre otros.
Ya teniendo en consideración el problema referente a la videoconferencia
se puede dar una solución al elevado coste, de los equipos participantes en este
sistema. Con la utilización de software libre, se benefician todos por el bajo costo
ya que no se incurre en gasto en licencias, también el cliente final puede adquirir
un servicio a la medida y a un precio inferior de los grandes proveedores, esto nos
da una tecnología más incluyente y existencia de menos segregación como con
las grandes marcas.
Como en todo desarrollo de sistemas siempre existen factores que pueden
complicar las cosas o sentir que no se está cumpliendo con el objetivo. En la
ejecución del proyecto de la multiconferencia también existieron problemas.
Las principales barreras encontradas dentro de este proyecto fue la
elección del software que cumpliera con la tarea encomendada, claro que es cierto
que existen varias alternativas que realizan una multiconferencia, las cuales no
muchas son libres, ya en la mayoría de los casos existe la dependencia a una
marca, como Polycom, Huawei, Cisco, Etc.
129
Después de encontrar un software que cumpliera con nuestro requerimiento
de ser estándar, estable y open source, se continuó con la siguiente necesidad de
que compartiera las tecnologías de H.323 y SIP.
Finalmente se dio con dos alternativas, las que son descritas mejor en el
capítulo de implementación Medooze y OpenMCU-ru, las cuales comparten
iguales características, como soporte para G.711, familia G.72X, H.261, H.263,
H.263+, VP8 y H.264 y lo más importante que ambas funcionan con H.323 y
protocolo SIP.
Si bien ambas como se detalla comparten la misma tecnología, no son igual
de compatibles con sistemas operativos base (Windows, Linux, Mac Osx). Por
esta razón se optó por usar el código fuente de la MCU de origen ruso OpenMcu-
ru, ya que utiliza un interfaz de administración mucho más amigable e intuitiva.
Esta MCU nos permite realizar todas las opciones de equipos de costos
elevados, utilización de tecnologías de video HD como h.264 (dependiendo al
hardware que se utiliza en la reunión), grabaciones de las reuniones, pero el
atractivo principal y que le da continuidad a este sistema, el cual puede ser
trabajado por otro grupo que se desempeñen en el área de informática o diseño
web, es la personalización de la web de administración, ya que como se menciona
en reiteradas ocasiones es software libre y puede ser modificado a gusto de quien
quiera.
Si ya se entiende que tecnológicamente existe símil para un sistema de
multiconferencia pagado en open source hay que saber de qué manera esto
afecta los costos de la implementación y funcionamiento del sistema.
Incluyendo el gasto en Hardware, mantención y soporte para la instalación
del servicio se ahorraría casi un 60% en comparación a un servicio de pago.
Entonces estudiando la viabilidad de montar un sistema completo de
videoconferencia que puede satisfacer las necesidades que se expusieron al
principio y tomando en consideración, la evaluación económica realizada y siendo
mkprecavido principalmente con los indicadores TIR (25,9%) y VAN (25%), los
130
cuales recomiendan realizar el proyecto. Ya que se aprecia que existe un VAN
positivo y la TIR muy cercana a la tasa de descuento y de que el periodo de
recuperación de la inversión es inferior a los 3 años (aproximadamente 15 meses),
para el escenario estudiado, esto da claras tendencias de que económicamente
es factible con la condición estudiada.
Como se describe, tecnológicamente y económicamente, la realización de
una multiconferencia a base de software libre si puede ser ejecutada con
resultados positivos, se puede lograr todo lo deseado respecto a lo tecnológico y
evidentemente existe una reducción notable de los costos (el cual fue siempre el
principal problema), tomando el lado positivo, la multiconferencia puede ser
utilizada sin ningún problema con cualquier equipo o software que soporte SIP o
H323, tales como Tablet, Smartphones, computadores portátiles, pero si se quiere
realizar una multiconferencia con calidad en la cual se logre distinguir nítidamente
al sitio del otro extremo y en donde el movimiento no tienda al ser robótico,
entonces hablamos de una calidad como 4CIF, si solo si debe generarse un gasto
sustantivo en la compra del equipo terminal, esto puede afectar obviamente en el
ahorro mencionado pero aun así sigue siendo de menos costoso que otro sistema
de video conferencia de alguna marca líder.
Se entiende que para poder realizar llamadas a otros sitios o a larga
distancia con la calidad mencionada, primero que todo en la red a trabajar hay que
sugerir que contenga por lo menos un enlace dedicado de 4 megas en donde
debe contener una calidad de servicio respecto a los servicios Rtp (Protocolo de
Transporte de Tiempo real), ya que en ambientes de laboratorio o local no existe
mayor pérdida de paquetes o colisiones, porque la red está siendo utilizada
exclusivamente con ese fin. Pero como se sabe que internet no es gobernado por
nadie y los paquetes pueden tomar cualquier rumbo, al existir esta condición tanto
la voz o video se ven afectadas en su calidad produciendo por el lado de video un
pixelamiento de imagen y en el sonido intermitencia o grandes retrasos con
respecto al video.
131
Por último es muy bien sabido que la utilización de H.323 puede generar
más de algún tipo de dolor de cabeza por ser un protocolo que utiliza mucho
ancho de banda y es menos ligero y complejo a la hora de su funcionamiento, aun
así se cree que es la decisión correcta a utilizar en el mercado chileno, ya que la
gran mayoría de los terminales de los usuarios finales trabajan mejor con esa
tecnología que con SIP, que indudablemente es mucho más a la hora de ser
transportada por la red.
Tomando en cuenta otros factores como el uso de H.323 está en la mayoría
de los sistemas implementados en Chile y además de considerar el mercado,
H.323 sobre SIP tiene ventajas de funcionalidades, ya que SIP en su estándar
tiene mucho menos, lo que imposibilita a tener mejores funciones como la
compartición de contenidos, ya que si se requiere Sip con más funciones se cae
en un protocolo propietario, entonces por esas razones se principalmente se
privilegió H.323 sobre Sip.
Entregar una tecnología de multiconferencia, que se pueda adaptar a los
distintos cambios de protocolos y estándares en estos tiempos, es factible,
mezclando distintos tipos de tecnologías y marcas estandarizadas podemos
proveer un servicio de calidad a un menor costo y escalable para todas las
instituciones, acercándolos más a los pasos de la evolución tecnológica que crece
constantemente día a día.
132
Referencias
[1] Arena, Héctor Facundo. (2010). Linux “La guía definitiva”, Buenos Aires, 1ra
Editorial.
[2] Luque, Javier. (2010).Videoconferencia “Tecnología, sistemas y aplicación”,
Ciudad de México, México, Alfaomega Grupo Editor, S.A.
[3] Serrat, Manuel David. (2011). “Ubuntu Linux”, Madrid, España, Editorial
Alfaomega.
[4] Murillo, Sergio. [2013], Medooze, medooze.com, Recuperado de,
http://www.medooze.com/products/media-mixer-server/installation.aspx