estudio comparativo entre el protocolo p2p bittorrent y el paradigma de computación en la nube.docx
TRANSCRIPT
estudio comparativo entre el protocolo P2P BitTorrent y el paradigma de computación en la nube (Cloud Computing)
ALUMNO: VILLARROEL CRUZADO, JOSÉ WILSON HELÍ
26 DE SEPTIEMBRE DE 2015
ContenidoProtocolo BitTorrent
Breve evolución histórica...........................................................................................3
Propiedades características........................................................................................4
Modelos físico, arquitectónico y fundamental............................................................5
Estructura Física......................................................................................................5
Estructura Lógica....................................................................................................6
Aspectos de BitTorrent...............................................................................................7
Deficiencias.............................................................................................................7
Mejoras del protocolo..............................................................................................7
Protocolo Cloud Computing
Breve evolución histórica.........................................................................................10
Propiedades características......................................................................................11
Modelos físico, arquitectónico y fundamental..........................................................12
Modelo físico.........................................................................................................12
Modelo arquitectónico...........................................................................................12
Aspectos de Cloud Computing..................................................................................13
Virtualización en la nube:......................................................................................13
Comunicación a través de la red...........................................................................13
Sincronización.......................................................................................................14
Transparencia de nombrados................................................................................14
Tolerancia a fallos.................................................................................................14
Seguridad..............................................................................................................15
Comparativa de ambos sistemas.............................................................................16
Evolución futura.......................................................................................................17
Conclusiones BitTorrent............................................................................................18
Conclusiones Cloud Computing................................................................................19
pág. 2
Protocolo BitTorrentBreve evolución histórica
El popular protocolo de intercambio de archivos P2P nació en el año 2001 de la
mano del programador Bram Cohen. Él, frustrado por la lentitud de las descargas
peer-to-peer en Internet, comenzó a desarrollar un nuevo protocolo. Fue así como
nació BitTorrent un servicio de descarga P2P que hace uso del ancho de banda de
sus usuarios para ofrecer un rendimiento balanceado y por tanto una mayor
velocidad de descarga para todos sin saturar ningún servidor externo como sucedía
previamente con P2P.
La llegada de BitTorrent al mercado de las descargas P2P supuso un gran cambio en
la mentalidad de Internet y es que, para 2004, ya existían multitud de páginas web
que ofrecían búsquedas de archivos Torrents y multitud de trackers. De hecho
actualmente es uno de los modos más eficientes de repartir archivos, léase por
ejemplo el lanzamiento de Ubuntu, mientras que los servidores oficiales estaban
saturados, las descargas mediante BitTorrent seguían actuvas y a un buen
rendimiento.
El protocolo BitTorrent es uno de los más eficientes en cuanto a recursos para
transferencias P2P y aún sigue siendo muy popular 9 años después de su creación
disfrutando de casi la mitad del tráfico en Internet según ocasiones. Es otra de las
palabras que han cobrado vida propia en Internet, Torrent.
pág. 3
Propiedades características
HETEROGENEIDAD
Los peers, clientes, se conectan al tracker, servidor especial que contiene
la información necesaria para que los peers se conecten unos con otros. El
número de peers es variable, y por definición al estar basado BitTorrent en
P2P los peers se conectan entre sí de igual a igual.
SISTEMA ABIERTOPuede ser extendido a nivel de hardware ya que se pueden añadir nuevas
computadoras (peers) a la red.
ESCALABILIDAD
Es escalable, cuantos más usuarios hayan conectados entre sí mejor
funciona. A diferencia de un servidor normal, con el protocolo de BitTorrent
se consigue un balanceo de carga debido a que el recurso objetivo está
distribuido, separado por piezas (entre los distintos peers).
SEGURIDAD
La seguridad tiene tres componentes: confidencialidad, integridad y
disponibilidad.
BitTorrent verifica la integridad de la pieza una vez descargada
comparando su código hash con el que aparecía en la metainformación del
torrent.
Bitorrent flaquea en confidencialidad ya que es posible obtener las Ips de
los peers conectados a la red y de ese modo poder monitorizar todo el
tráfico.
La disponibilidad de un recurso depende en gran medida de los propios
usuarios. Suele suceder que los usuarios al terminar la descarga se
desconectan de la red. Ello conlleva a la no compartición del archivo lo cual
genera la no disponibilidad del mismo.
TOLERANCIA A FALLOS
BitTorrent es tolerante a fallos, cuando se produce un error de red la
descarga no se cancela, si no que se pausa. Los recursos están replicados,
el mismo recuso está almacenado en varias computadoras personales.
CONCURRENCIA
No hay ningún problema de concurrencia de acceso al mismo recurso, la
carga está balanceada entre los distintos usuarios que comparten el
recurso.
pág. 4
TRANSPARENCIA
El usuario percibe que descarga el archivo desde un servidor global en vez
de desde varias computadoras a la vez, es decir, el conjunto de
computadoras desde las que se obtiene un recurso actúan como si sólo
fuese una. No importa la localización física del recurso.
Modelos físico, arquitectónico y fundamental
Estructura Física
El sistema distribuido BitTorrent, es una red de ordenadores interconectados entre
sí físicamente por mediación de redes como Internet o redes cerradas de más de 1
equipo, cuya distribución geográfica es de gran escala, en el que se implementa un
modelo híbrido de comunicación, es decir, la red se compone de uno o varios
servidores centrales que actúan como controlador general de todos los clientes
(nodos), pero cuya función no es la de distribuir contenidos, sino de proveer
información de la localización de las partes de cada fichero compartido en la red de
clientes.
El ordenador o servidor central se encarga del balanceo de carga de la red, de
interconectar los clientes entre sí pero sin guardar información de quién es cada
cliente. La caída de la red del servidor central no implica que toda la red caiga en su
conjunto, ya que los clientes también guarda información de los equipos vecinos
con los que están compartiendo información. Incluso se podrían tener varios nodos
que actuasen como servidores centrales de la red, con motivos de redundancia o
también que alguno de los clientas tomase configuración de servidor central. La
compartición de información no implica que esta tenga que pasar por el servidor
central, sino que puede los clientes pueden interconectarse entre sí para compartir
datos directamente. De este modelo cabe destacar las siguientes características:
La red se compone de uno o varios nodos centrales que guardan información
de las partes de información o partes de ficheros repartidos por todos los
nodos clientes de la red. También se encargan de distribuir dicha información
entre aquellos clientes que la soliciten.
Los nodos o clientes, son los equipos de la red que hospedan la información
y/o archivos que permite al servidor central reconocer los recursos que se
pág. 5
desean compartir, y para poder descargar esos recursos compartidos a los
usuarios que lo solicitan.
Las terminales de enrutamiento son direcciones usadas por el servidor, que
son administradas por un sistema de índices para obtener una dirección
absoluta.
Estructura Lógica
Una red de ordenadores que se estructura siguiendo el modelo distribuido de
Bittorrent se compondrá de los siguientes elementos lógicos:
Peers (pares): Se denomina así a todos los usuarios que están en la red.
Leechers (sanguijuelas): Se denomina así a todos los usuarios que están en
la red descargando el archivo pero que todavía no tienen el archivo
completo.
Seeders(semillas): Son los usuarios de la red que poseen el archivo
completo. Sólo suben partes a los demás peers, pero no bajan nada.
Tracker: Un tracker de BitTorrent es un servidor especial que contiene la
información necesaria para que los peers se conecten unos con otros.
Inicialmente es la única forma de localizar qué usuarios contienen el archivo
que se quiere descargar.
Ficheros torrent: Son ficheros que guardan información sobre la
localización del Tracker. También guardan información del 1º nodo o cliente
que comenzará a compartir partes con el resto de nodos de la red.
Servidor Web: su función principal es la proveer ficheros bittorrent a los
posibles usuarios de la red, para que puedan unirse a dicha red, conocer
quién es el tracker y comenzar a transferir y compartir ficheros entre sí.
Enjambre: son los usuarios en general (nodos cliente) junto con el servidor
que actúa de tracker. Se usa esta definición, debido a la similitud con el panal
de abejas
pág. 6
Aspectos de BitTorrent
Deficiencias
Este modelo BitTorrent presenta ciertos problemas estructurales como son:
El tracker provoca un cuello de botella que consume el 0.001 del tráfico total
de la red. Teniendo en cuenta el volumen de datos que circulan por ese tipo
de red, es una cantidad de datos que debemos tener en cuenta. Además, la
caída del tracker implica que nuevos peers no se puedan conectar y que
aquellos que ya están conectados no puedan descubrir otros.
Conceptualmente se forman pequeñas islas desorganizadas, donde en
realidad todos los nodos están conectados entre sí a través de vecinos pero
no hay comunicación entre esas islas (la comunicación entre ellas la
gestionaba el tracker) y por tanto influye muy negativamente en la descarga.
Es un sistema distribuido poco eficiente en transferencias de archivos
pequeños (unos cuantos kb) ya que el ancho de banda usado en mensajes
del protocolo es comparativamente alto.
Se carece de un buscador de contenidos.
Sin medidas de seguridad, no está preparado para clientes maliciosos
Vulnerable a los siguientes ataques:
Denegación de servicio
Subida de Archivos Corrupto
Mejoras del protocolo
El protocolo Bittorrent puede ser mejorado a partir de la inclusión de nuevas
modificaciones que optimizan su rendimiento. Algunas de estas mejoras son las que
vemos a continuación.
pág. 7
ILUSTRACIÓN 1. ESTRUCUTURA LÓGICA BITTORRENT
DHT
En caso de que el tracker caiga, dependemos de los nodos clientes que se
encuentren aun conectados para la finalización de las descargas en proceso. Esta
acción no es siempre posible ya que cuando sucede, algunos de los clientes
conectados se desconecta a la par del tracker lo que deja a los clientes conectados
a este sin poder seguir descargando los paquetes que necesitan y que dan lugar a
la pérdida o corrupción del archivo que se estaba descargando. La tecnología del
DHT es una extensión que mejora el protocolo de BitTorrent al incluir en cada nodo
la información de los nodos vecinos. Con ello conseguimos eliminar el cuello de
botella que se produce en el tracker, y repartimos la responsabilidad del mismo
entre el conjunto de clientes conectados a esta red. Eso aumenta
considerablemente la disponibilidad de la información para los clientes. En
definitiva supone una descentralización del tracker en los clientes, con lo que los
clientes adquieren estructura primaria de cliente-servidor.
Aunque se incluya esta mejora, los nodos clientes del tracker siguen siendo
dependientes de este para descargarse la información del torren y empezar a
linkarse a los primeros nodos.
El uso de esta modificación puede no interesar en infraestructuras en las que se
quiera mantener la privacidad de los datos para una comunidad de usuarios y
equipos en concreto. A veces se requiere que los usuarios se conecten al tracker
mediante el uso de credenciales para restringir el acceso de usuarios indeseados,
como son aquellos que solo consumen recursos y no aportan nada a la red a la que
se conectan.
Web Seeding
Otra de las modificaciones que mejoran el funcionamiento del protocolo Bittorrent
es la inclusión de un buscador de torrents dentro del propio software, lo que
permite descargar archivos tanto forma directa (a través de protocolos HTTP como
de FTPs) como a través de protocolo P2P.
Superseeding
El superseeding es una modificación aplicada al seeder (nodos que suben datos)
que permite camuflarlos como un peer, para evitar que esta semilla sea avasalladla
por los miles de nodos que solo quieren descargar. Esta técnica, muestra solo
algunas partes a los diferentes nodos que quieren partes y de esta manera racionar
su contenido de una forma más democrática.
pág. 8
Esto evita la inanición de algunos nodos frente a otros y permite un reparto más
equitativo de las partes entre todos los nodos solicitantes de estas.
Rare First Algorithm
Este algoritmo define la estrategia a seguir para seleccionar la siguiente pieza del
archivo a descargar. Cada cliente mantiene una lista del número de partes
descargadas de cada bloque de información y usa dicha información para definir su
conjunto de piezas que deberían descargarse en primer lugar para completar unos
bloques frente a otros.
Algoritmo de bloqueo
Este algoritmo define la estrategia usada por el protocolo para seleccionar cual será
el siguiente peer (nodo consumidor) en descargar partes. Se usa para obtener un
buen ratio de relación subida/bajada. Lo que permite incluso definir una política
para eliminar a los nodos menos colaborativos con la red, es decir, los que menos
aporten, serán desechados frente a otros que si suban datos.
pág. 9
Paradigma Cloud ComputingBreve evolución históricaEl término "nube" se utiliza como una metáfora de Internet, como la abstracción de
la infraestructura subyacente que representa. La computación en la nube consiste
en ofrecer al usuario una serie de servicios a través de Internet.
El concepto básico de la computación en nube se remonta a la década de 1960,
cuando John McCarthy opinó que algún día, el cómputo e incluso aplicaciones
específicas podían ser organizados como un servicios.
En 1996, Douglas Parkhill con su libro llamado “El desafío de la utilidad de la
computadora” exploró a fondo muchas de las características actuales de la
computación en nube.
Uno de los pioneros en la computación en nube fue Salesforce.com, que en 1999
introdujo el concepto de entrega de aplicaciones empresariales a través de una
sencilla página web. Amazon era el siguiente en el tren, al lanzar Amazon Web
Service en 2002. Entonces llegó Google Docs en 2006, que realmente trajo el cloud
computing a la vanguardia de la conciencia del público. 2006 también vio la
introducción de Elastic Compute Cloud de Amazon (EC2) como un servicio web
comercial que permitió a las empresas pequeñas y particulares alquilar equipos en
los que pudieran ejecutar sus propias aplicaciones informáticas.
Esto fue seguido por una colaboración de toda la industria en 2007 entre Google,
IBM y una serie de universidades de los Estados Unidos. Luego vino Eucalyptus en
2008, como la primera plataforma de código abierto compatible con el API-AWS
para el despliegue de clouds privados, seguido por OpenNebula, el primer software
de código abierto para la implementación de nubes privadas e híbridas. Microsoft
entraría hasta el 2009 con el lanzamiento de Windows Azure. Luego en 2010
proliferaron servicios en distintas capas de servicio: Cliente, Aplicación, Plataforma,
Infraestructura y Servidor. En 2011, Apple lanzó su servicio iCloud, un sistema de
almacenamiento en la nube - para documentos, música, videos, fotografías,
aplicaciones y calendarios – que prometía cambiar la forma en que usamos la
computadora.
pág. 10
Propiedades características
HETEROGENEIDAD
El número de recursos es variable. Las aplicaciones ofrecidas son
accedidas por diferentes tipos de clientes (diferentes sistemas operativos,
teléfonos móviles, PDAs, tablets, portátiles, etc).
SISTEMA ABIERTOLa evolución del sistema es abstracta al usuario, es decir, no se da cuenta
del cambio de funcionalidad.
ESCALABILIDAD
Es escalable, cuantos más usuarios hayan conectados entre sí mejor
funciona. A diferencia de un servidor normal, con el protocolo de BitTorrent
se consigue un balanceo de carga debido a que el recurso objetivo está
distribuido, separado por piezas (entre los distintos peers).
SEGURIDAD
El sistema está creado de tal forma que permite a diferentes clientes
compartir la infraestructura sin preocuparse de ello y sin comprometer su
seguridad y privacidad; de esto se ocupa el sistema proveedor que se
encarga de cifrar los datos.
TOLERANCIA A FALLOS
Está pensado que hay una “granja de servidores”, conjunto de servidores,
usados para ejecutar tareas que van más allá de la capacidad de una sola
máquina de escritorio, como alternativa a un superordenador, el cual tiene
un costo mayor. Con ese conjunto de servidores es posible tener tolerancia
a fallos, ya que si un servidor no funciona el sistema continúa trabajando
como si no hubiese habido fallo.
CONCURRENCIA
El acceso concurrente a un recurso. Si está mal escalado se puede producir
cuello de botellas y por consiguiente una disminución en el rendimiento. El
balanceo de carga evita estos problemas.
TRANSPARENCIA
En Cloud Computing la infraestructura sobre la que se sostienen las
aplicaciones queda totalmente abstraída por internet, el usuario no se da
cuenta de la complejidad de lo subyacente a la aplicación. Es
independiente de la localización física de los servidores de la aplicación.
Los cambios no afectan a la funcionalidad de la aplicación.
DISPONIBILIDAD DE INFORMACIÓN
No se hace necesario guardar los documentos editados por el usuario en su
computadora o en medios físicos propios ya que la información radicará en
Internet permitiendo su acceso desde cualquier dispositivo conectado a la
red (con autorización requerida).
pág. 11
Modelos físico, arquitectónico y fundamental
Modelo físico
Comprende el conjunto de hardware que conforma el servicio. Los servicios están
almacenados en servidores. La arquitectura es heterogénea. Se tiene acceso a los
servicios a través de internet.
Modelo arquitectónico
La computación en la nube basa su arquitectura haciendo una separación entre
hardware, plataforma y aplicaciones quedando las siguientes capas:
Software como Servicio (SaaS) Plataforma como Servicio (PaaS) Infraestructura como Servicio (IaaS)
Modelo fundamental
El rendimiento del canal de comunicación es bueno ya que la escalabilidad del cloud
computing es bajo demanda, es decir, cuanto mayor sea la demanda mayor es el
número de servidores para poder abastecer de forma eficiente a los clientes.
Mientras se mantenga una escalabilidad coherente las latencias de comunicación
serán aceptables.
La computación en la nube es asíncrona ya que los componentes están contados
por la red.
Respecto al modelo de fallos, el principal problema es el canal de comunicación
(internet) ya que puede haber pérdida de paquetes, corrupción de los mismos,
fallos de conexión, etc. Los servicios se encuentran en un “enjambre” de servidores.
Si falla un servidor el servicio ofrecido sigue ejecutando (tolerancia a fallos).
El sistema está creado de tal forma que permite a diferentes clientes compartir la
infraestructura sin preocuparse de ello y sin comprometer su seguridad y
privacidad; de esto se ocupa el sistema proveedor que se encarga de cifrar los
datos. Además el proveedor gestión el control de acceso a recurso para cada
cliente. Al ser la comunicación a través de la red, entonces el sistema también está
supeditado a la seguridad web.
pág. 12
Aspectos de Cloud Computing
Virtualización en la nube:
La virtualización es un elemento fundamental en el desarrollo óptimo de la
computación en la nube, y se enfoca principalmente a la plataforma. Puede
considerarse como una abstracción de los recursos tecnológicos que permite a los
servidores crear dispositivos virtuales los cuales pueden ser usados para aumentar
dichos recursos más que como sistemas separados. Mediante la virtualización se
permite tratar a un servidor como muchos servidores. Gracias a la virtualización se
consigue mejorar la disponibilidad del servicio, por tanto mejor rendimiento de
escalabilidad.
Además permite un mejor aprovechamiento de los recursos físicos, esto es, no se
satura el acceso a un recurso físico al estar virtualizado.
Algunas mejoras de la virtualización:
Reducción de los costes de espacio y consumo.
Rápida incorporación de nuevos recursos para los servidores virtualizados.
Administración global centralizada y simplificada.
Facilidad para la creación de entornos de test que permiten poner en marcha
nuevas aplicaciones sin detener el desarrollo, agilizando el proceso de las
pruebas.
Aislamiento: un fallo en una máquina virtual no afecta al resto de máquinas
virtuales.
Comunicación a través de la red
La comunicación a través de la red implica una conexión fiable mediante el
protocolo TCP. Muchos servicios usan conexión TCP.
El protocolo HTTP usado para la comunicación entre el navegador y el servidor web
que contiene los servicios.
Sincronización
El sistema es asíncrono ya que los servicios ofertados son a través de internet.
Conlleva tiempos de espera arbitrarios a la hora de acceder a la aplicación.
pág. 13
La computación en la nube es descentralizada, es posible sincronizar peticiones
simultáneas de clientes en consecuencia de dicha descentralización.
La computación en la nube también ofrece sincronización de archivos de tal forma
que un mismo archivo sea actualizado en todas las computadores en las que esté
hospedado. Cualquier modificación hecha en un archivo tendrá efecto en todas las
copias del mismo.
Transparencia de nombrados
Para obtener acceso a un servicio por un cliente a través de la red se necesita
conocer su dirección. Mediante el DNS se consigue tener acceso a los servicios,
toda dirección web tiene su equivalencia en dirección IP. El servidor DNS usa una
base de datos distribuida y jerárquica. DNS proporciona un espacio de nombres
global y homogéneo en el que cierto nombre se refiere a la misma entidad
independientemente de qué proceso, en qué computador busque dicho nombre. Por
el contrario, algunos servicios de nombres permiten distintos espacios de nombres
(algunas veces espacios de nombres heterogéneos) incluidos en ellos; también
algunos servicios de nombres permiten personalizar el espacio de nombres para
acomodarse a las necesidades de usuarios.
La resolución de nombres puede ser iterativa o recursiva.
Tolerancia a fallos
Las aplicaciones ofrecidas en forma de servicios están almacenadas en un conjunto
de servidores. El sistema es tolerante a fallos ya que si uno de los servidores falla el
servicio se sigue ejecutando. En el peor de los casos puede ocasionar una pérdida
de rendimiento.
La conexión es cliente servidor, puede haber fallos en RPC. Si el cliente no localiza
el servidor se lanza una excepción. Ante caídas del servidor se replica la petición
por parte del cliente. Replicaciones de mensajes entre cliente y servidor ante
pérdidas de los mismos.
pág. 14
Seguridad
Los principios de la seguridad son mantener la integridad de datos y la
confidencialidad de información. Se pueden llevar a cabo ciertos mecanismos para
mantener dichos principios.
Encriptación de los datos enviados entre cliente y servidor para acceso a un
servicio. Con ello se mantiene la integridad de la información dondequiera que
pueda estar expuesta a ataques. La criptografía también se emplea para autenticar
la comunicación entre pares. Verificación de la identidad del emisor.
Política de control de acceso a recursos. Cuando un usuario se autentica para tener
acceso a recursos, se crea un dominio de protección que viene a ser como el
conjunto de recursos al que el usuario tiene acceso.
Uso de protocolo HTTPS para conexión fiable entre cliente-servidor.
pág. 15
Comparativa razonada entre BitTorrent y Cloud ComputingComparativa de ambos sistemasLos dos protocolos son modelos de sistemas distribuidos cuyo principal objetivo son
la compartición de información y datos con los nodos clientes.
El BitTorrent, se diferencia del Cloud, en que los clientes se reparten la información
y los datos entre todos los nodos que componen dicha red, mientras que en los
sistemas tipo cloud, la información se guarda de forma centralizada en uno o varios
centros de datos, a los cuales se conectan los clientes.
Ambos dependen de un ISP o proveedor de servicios, para establecer interconexión
con los otros nodos, pero en el peor de los casos, se podría montar una
infraestructura P2P con arquitectura BitTorrent en una red de ámbito local.
Una diferencia importante entre los sistemas Cloud y los BitTorrent, es que los
sistemas p2p, no necesitan de un gran ancho de banda, para poder funcionar, como
es el caso de los sistemas cloud, que los hacen altamente dependientes de la
calidad de servicio que ofrezcan los ISP’s.
La solución Bittorrent es muy barata en comparación a una infraestructura cloud, ya
que la tecnología P2p es software en su mayoría a coste 0 porque son gratuitos
mientras que para disponer de un entorno cloud, se necesita hacer una gran
inversión en infraestructura y comunicacioes
Los sistemas cloud, tienen la ventaja de que al mantener la información
centralizada, tienen menos posibilidades de perder dicha información que los
sistemas como BitTorrent. Los sistemas BitTorrent no tienen un punto donde se
guarda la información al completo, sino que se encuentra repartida entre todos los
nodos de la red, por lo que la caída de uno de ellos, provocaría, si no se replica, la
pérdida de un gran volumen de datos.
pág. 16
Evolución futuraSegún investigaciones recientes en este campo, los expertos opinan que ninguna
de las tecnologías citadas en este trabajo, tiende a extinguirse por imposición de
una sobre la otra, sino que paulatinamente se integraran en una sola
aprovechándose las ventajas de ambas.
Se vaticina que con el paso del tiempo los sistemas tipo Cloud, dejarán de
plantearse como arquitecturas centralizadas sobre mega-centros de cálculo para
dar lugar a otro tipo de sistemas distribuidos de menor escala, menos potentes en
cálculo, repartidos entre varios nodos y con un coste mucho más reducido que los
Data Centers actuales.
Este cambio de mentalidad dará lugar al surgimiento de un amplio abanico de
mejoras técnicas, como el aumento de la disponibilidad de los servicios basados en
Cloud, ya que la información se encontrará replicada en varios nodos, y ante una
falla, no se verá afectada su disponibilidad porque los nodos replicados darán
soporte al nodo caído.
Al haber más nodos que compongan dicha red, disminuirá también la dependencia
de los sistemas Cloud de los Proveedores de Servicios de Internet o ISP’s, ya que los
usuarios que necesiten de los servicios y recursos de estos nodos accederán al
nodo que se encuentre más cercano y por tanto no necesitarán de grandes anchos
de banda que les de soporte.
Otra de las mejoras nace de la distribución geográfica de los nodos, en la que se
mejoraran los tiempos de acceso o como técnicamente se denomina latencia, ya
que habrá nodos de distribución y clientes más cercanos unos de otros.
También surgirán mejoras importantes a las que dará lugar la fusión de ambas
tecnologías es la reducción de los cuellos de botella generados por la afluencia
masiva de clientes a ciertos puntos de la red.
Por último también darán lugar a nuevas aplicaciones basadas en red (como juegos
multiusuario) que requieran de una alta potencia de cálculo, como por ejemplo para
tareas de postproducción de video y de procesado de grandes volúmenes de datos,
como los procedentes de investigaciones científicas.
En definitiva, aprovechar ambas tecnologías para dar lugar a otro nueva es lo que
apuntan todas las teorías.
pág. 17
ConclusionesConclusiones BitTorrentEl sistema BitTorrent, ha resultado con el paso del tiempo y de su uso a nivel
mundial, como un sistema bastante versátil, fiable y robusto para el intercambio
masivo de archivos. De cara a otro tipo de tecnologías existentes en el mercado, su
uso ha sido multitudinario, claro está debido en gran medida a su bajo coste, ya que
es gratis para el usuario, pero destacando por la facilidad de uso que daba a los
usuarios para compartir sus archivos. Su uso ha llegado a aplicarse incluso sobre
Sistemas Operativos tipo UNIX para la gestión de actualizaciones, por lo que hasta
en entornos profesionales ha sido utilizado. De ello podemos deducir que es un
buen sistema.
De nuestra experiencia personal con este tipo de sistemas, las pegas que le
podemos sacar a esta tecnología es su falta de redundancia en los servidores tipo
Tracker, que ante la caída de uno de ellos, se provocaba la caída de toda la red
debido a que los clientes ya no podían obtener información de los fragmentos de los
archivos repartidos por toda la red. Por otro lado, cabría destacar su falta de
seguridad en los protocolos, que lo hacían vulnerable frente a multitud de ataques.
Pero claro que dejando a un lado estas deficiencias, como sistema para distribuir
información entre miles de usuarios, es uno de los mejores, ya que la información
compartida, estaba replicada en miles de localizaciones, porque está fragmentada y
distribuida, lo que hacía que en caso de que fallara un nodo, se recuperarse con
otros que tenían esa misma parte completa. Por otro sus costes mínimos, hacían
que su uso fuera a gran escala, ya que no requería de infraestructura previa, salvo
una conexión a Internet
En resumen, podemos afirmar que es un buen sistema distribuido de información,
que con unas cuantas mejoras, llegaría incluso a ser mejor, pero que dado, a que su
desarrollo ha sido sobre todo gracias a la colaboración de miles de desarrolladores,
llegamos a la conclusión de que es una tecnología que recomendaríamos usar a
todos.
pág. 18
Conclusiones Cloud ComputingLa computación en la nube supone un gran avance en cuanto a eficiencia y
rendimiento a la hora de usar aplicaciones. Permite una alta flexibilidad ofrecer las
aplicaciones a través de la nube. No es necesario tener instalado nada más que un
navegar web en los equipos informáticos. Esto hace que la aplicación no dependa
del equipo que se use, es decir, la carga de la aplicación ofrecida como servicio se
encuentra en el servidor.
Respecto a una empresa, facilita el no tener que preocuparse de instalar software,
sólo tienen que estar pendientes de hacer su trabajo. Se consigue un ahorro de
costes (por mantenimiento de una infraestructura) y tiempo. A las nuevas
incorporaciones a la empresa no hará falta instalarles software en sus equipos
informáticos ya que ya lo tienen todo en la nube. Todo esto tiene ventajas de
movilidad, pudiendo realizar el trabajo correspondiente en cualquier lugar e incluso,
cuando una empresa tenga que cambiar de ubicación o de equipos las aplicaciones
siguen allí sin tener que instalar nada en una nueva ubicación o nuevos equipos.
Otra ventajas es que los archivos, los datos siempre permanecen en los servidores
de ese modo no hace falta preocuparse del almacenamiento de la información
guardada ni siquiera de la actualización de los archivos.
Pero no son todo ventajas, el servicio es perfecto mientras se tenga conexión a la
red, sin embargo, cuando se carezca de ella todo el trabajo se parará en seco.
Cualquier problema de red afecta al acceso de servicios, eso conlleva una
limitación. Del mismo modo el rendimiento de la aplicación queda supeditada al
rendimiento de la red que haya subcontratada. Si la conexión es lenta se pierde
eficiencia del servicio. La seguridad de la web es la seguridad del servicio, estamos
expuestos a ataques de internet (denegación de servicio, phishing, etc).
pág. 19
Bibliografía1. http://es.wikipedia.org/wiki/BitTorrent
2. http://www.izt.uam.mx/contactos/n80ne/nube.pdf
3. http://es.wikipedia.org/wiki/Computaci%C3%B3n_en_nube
4. http://es.wikipedia.org/wiki/Historia_de_las_aplicaciones_P2P
5. http://berkeleyclouds.blogspot.com/2009/06/clouds-and-peer-to-peer.html
6. http://www.muycomputer.com/2010/05/02/actualidadnoticiashistoria-de-
bittorrent_we9erk2xxddn9ba-
nkfqdbrc8ogwa4s5pspexy5mz2nfuewfljabtyaznrsifi5s
7. Temas 7 y 9 “Sistemas Distribuidos, conceptos y diseño” Colouris, ED
Addison Wesley 3ª edición.
pág. 20