miércoles, 7 de diciembre de 2016

Créditos

Elaborado por: Andrea Ariza Diaz

Conclusiones


La tecnología WIMAX ofrece grandes posibilidades de conexión para áreas suburbanas y rurales, lugares en donde podría solventar la carencia de acceso de banda ancha; debido a los costos elevados que la conexión tradicional representa.

Además gracias a su gran capacidad portadora se transforma en excelente plataforma para otras tecnologías como lo es por ejemplo: “video call”.

En cuanto a la relación entre WIMAX y WIFI podemos expresar que ambas tecnologías juegan un papel complementario, pues la primera está diseñada para operar en áreas metropolitanas, mientras que WIFI está diseñado para operar en rangos de pocos metros cuadrados; por lo tanto, WIMAX se proyecta como un medio idóneo para la interconexión de redes inalámbricas de área local (redes de malla) ofreciendo mecanismos para garantizar niveles de transferencia óptimos (QoS).

Finalmente, cabe destacar que esta es una tecnología que se ha demorado en despegar, pero que ofrece grandes posibilidades para los desafíos que se presentan, sobre todo dada la creciente necesidad de un “ancho de banda” mayor.

Las redes de sensores pueden utilizar distintas tecnologías de sin cable, incluyendo IEEE 802.11, LANS sin cable, Bluetooth e identificación de la frecuencia de radio. Actualmente se trabaja con radios de baja frecuencia con un alcance de hasta 80 metros y velocidades de hasta 300 Kb/segundo.
Las últimas investigaciones apuntan hacia una eventual proliferación de redes de sensores inteligentes, redes que recogerán enormes cantidades de información hasta ahora no registrada que contribuirá de forma favorable al buen funcionamiento de fábricas, al cuidado de cultivos, a tareas domésticas, a la organización del trabajo y a la predicción de desastres naturales como los terremotos. En este sentido, la computación que penetra en todas las facetas de la vida diaria de los seres humanos está a punto de convertirse en realidad.

Aunque la tecnología relacionada con las redes de sensores sin cable está todavía en su primera fase, equipos de investigación en la Universidad de California Berkeley ya han fabricado una caja que se puede adaptar a muchos tipos de sensores. Los científicos utilizan los sensores sin cable para encontrar y controlar microclimas y plagas en plantaciones de uva, para estudiar los hábitos de aves y para controlar sistemas de ventilación y calefacción. En la Universidad de California Los Angeles, investigadores utilizan las redes de sensores sin cable para recibir información detallada sobre el efecto de los movimientos sísmicos en los edificios.

Si los avances tecnológicos en este campo siguen a la misma velocidad que han hecho en los últimos 2 años, las redes de sensores sin cable revolucionará la capacidad de interacción de los seres humanos con el mundo. 
 


6.3 Transporte

Las características particulares que poseen las redes de sensores inalámbricas establecen nuevos retos de diseño como son el uso eficiente de la energía, la fiabilidad, el control de congestión y la calidad de servicio. Estos factores deben ser satisfechos para cumplir con los requerimientos que demandan las aplicaciones en este tipo de redes.

En este sentido, uno de los retos que cada vez cobra mayor importancia es la necesidad de implementar mecanismos que proporcionen fiabilidad en la entrega de los datos extremos a extremo, reduzcan la congestión y la pérdida de paquetes, además de proveer justicia en la asignación de ancho de banda. Esto aunado a la tendencia de interconectar las redes de sensores inalámbricas a otro tipo de redes como Internet, redes de área local o intranets para la recepción de forma remota de los datos generados por los sensores, hacen que la elección del protocolo de transporte adecuado sea un aspecto esencial en el desarrollo de aplicaciones para este tipo de redes.

Limitaciones de los protocolos de transporte tradicionales

Los protocolos de transporte tradicionales utilizados en Internet como lo son UDP y TCP presentan varios inconvenientes para ser implementados en las redes de sensores. En el caso del protocolo UDP, por ejemplo, este no provee fiabilidad en la entrega de datos, que en la mayoría de los casos es un requisito de las aplicaciones en este tipo de redes, ni tampoco proporciona  mecanismos de control de flujo ni de congestión lo que puede conducir a la pérdida de paquetes y el gasto innecesario.

Por otro lado, si analizamos el sistema de comunicación fiable extremo a extremo proporcionado tradicionalmente por TCP encontramos que este tiene serios problemas de rendimiento en las redes inalámbricas, tanto en términos de tasas de transferencia como de eficiencia energética.

Los principales problemas que presenta el protocolo TCP en las WSN se describen a continuación de energía de los nodos sensores:

Pérdida de paquetes no debida a la congestión: se refiere a que TCP utiliza como mecanismo de detección de congestión la pérdida de paquetes lo que conlleva a que TCP reduzca la tasa de transferencia con la finalidad de no colapsar aún más los enlaces. Sin embargo, en una WSN las pérdidas de paquetes ocurren generalmente por errores de transmisión del medio inalámbrico de manera que la reducción de la tasa de transferencia lo que trae consigo es una reducción innecesaria de la utilización del ancho de banda del enlace y por ende a una degradación en el throughput y un retardo mayor en la comunicación. Una posible solución es la utilización de mecanismos (implícitos o explícitos) de retroalimentación entre los nodos que ayuden a detectar las diferentes causas por las cuales la pérdida de paquetes ha ocurrido (calidad del enlace inalámbrico, fallos en el nodo sensor, y/o congestión) y de acuerdo a esto tomar la decisión más conveniente.

Retransmisiones costosas: TCP confía en las retransmisiones extremo a extremo para proveer una entrega de datos fiable, sin embargo teniendo en cuenta las limitaciones de energía de los sensores y las rutas multi-salto, este mecanismo conllevaría a un mayor consumo de energía y ancho de banda en las WSN. Además el mecanismo de control de congestión extremo a extremo utilizado por TCP ocasiona que se responda muy tarde a una situación de congestión lo que resulta en una gran cantidad de paquetes perdidos lo que se convierte en un gasto de energía adicional en retransmisiones y los tiempos de respuestas tan largos ocasionan un bajo throughput y baja utilización del enlace inalámbrico.

Topología Dinámica de la red: los cambios de topología que caracterizan a las WSN debido a las condiciones del entorno (baja calidad del enlace inalámbrico, interferencias de señal producidas por agentes externos) y a la propia situación del nodo sensor (el nivel de energía que posea) conllevan a que en un momento dado la ruta entre dos puntos extremos de la red se vea interrumpida. Tal comportamiento no es compatible con el funcionamiento de TCP el cual considera una conectividad permanente extremo a extremo.

Red asimétrica: Se define como aquella en la que el camino utilizado para transportar datos hacia el destino es diferente del camino utilizado para retornarlos hacia el origen tanto en términos topológicos como de latencia, ancho de banda o tasa de pérdida de paquetes. Las WSN son asimétricas en la mayoría de los casos, aspecto que afecta directamente a la transmisión de los ACK‟s del protocolo TCP, cuyo rendimiento puede verse afectado.

Grandes variaciones del RTT: Debido a la variabilidad de la calidad de los enlaces, la movilidad o la carga de tráfico, las rutas de encaminamiento se ven modificadas a lo largo del despliegue de las redes de sensores. Esto puede generar variaciones en el RTT, degradando el rendimiento de TCP.


Transmisión en tiempo real: Junto a UDP, en las redes de sensores deben implementarse protocolos semejantes a RCP (Rate Control Protocol), de forma que éstas puedan soportar la transmisión extremo a extremo del tráfico en tiempo real.


Protocolos de transporte existentes en WSN.

Los mecanismos de transporte que existen para redes de sensores inalámbricas se pueden dividir en aquellos que proporcionan en alguno o en ambos sentidos (sea ascendente o descendente) y una o la combinación de las siguientes funciones:

  • Fiabilidad en la entrega de mensajes (incluyendo la recuperación de errores)
  • Control de congestión
  • Conservación de la energía


Además también pueden ser clasificados en:
  • Protocolos no basados en TCP
  • Protocolos basados en TCP



6.2 Enrutamiento

PROTOCOLOS DE ENRUTAMIENTO

Principales objetivos de diseño:

  • Mantener una tabla de enrutamiento razonablemente pequeña.
  • Elegir la mejor ruta para un destino dado (ya sea el más rápido, confiable, de mejor capacidad o la ruta de menos coste)
  • Mantener la tabla regularmente para actualizar la caída de nodos, su cambio de posición o su aparición
  • Requerir una pequeña cantidad de mensajes y tiempo para converger 




Diagrama ilustrativo de los componentes que usa el protocolo de enrutamiento en las WSN (Alec Woo. Universidad de Berkeley)



Modelos (topología):

One-hop model: tenemos una base station desde donde cuelgan todos los nodos, sólo un salto de distancia.

Multihop model: todos los nodos transmiten siguiendo diferentes rutas hasta el nodo base, las diferentes rutas de grado uno cuelgan del nodo base

Cluster-based Hierachical Model: se parte la red en clústeres con diferentes niveles. Los nodos se agrupan alrededor de un nodo cabeza que tiene la responsabilidad de hacer el routing con otros nodos cabeza o con el nodo base. Los datos pasan de las capas inferiores a las superiores. 



Ejemplo de modelo de topología.
Red basada en clústeres. Se observan tres motas base, y varios clústeres.






6.1 Ejemplos de redes de sensores


APLICACIONES ACTUALES Y USOS

Donde se requiera recoger lecturas. Estas pueden ser en un entorno inaccesible u hostil como también en empresas, fabricas, oficinas u el propio hogar, durante un período de tiempo, para así detectar cambios, tendencias y datos suficientes para poder generar algún cambio o intervención.

Como por ejemplo:

  1. Control de parámetros en la agricultura.
  2. En casas domo.
  3. Tecnología militar.
  4. Tecnología civil (bomberos).
  5. Detección de incendios, terremotos o inundaciones.
  6. Sensorización de edificios “inteligentes”.
  7. Control de tráfico.
  8. Asistencia militar o civil.
  9. Control de inventario.
  10. Control médico.
  11. Detección acústica.
  12. Cadenas de montaje, etc.













6 Redes inalámbricas de sensores

¿Que son las redes de sensores inalámbricas?

Una gran cantidad de pequeños dispositivos, autónomos, distribuidos físicamente, llamados nodos de sensores, instalados alrededor de un fenómeno para ser monitoreado, con la capacidad de almacenar y comunicar datos en una red en forma inalámbrica.

SENSORES: De distintos tipos y tecnologías los cuales toman del medio la infamación y la convierten en señales eléctricas.

NODOS DE SENSOR: Toman los datos del sensor a través de sus puertas de datos, y envían la información a la estación base.

GATEWAY: Elementos para la interconexión entre la red de sensores y una red TCP/IP.

ESTACIÓN BASE: Recolector de datos.

RED INALÁMBRICA: Típicamente basada en el estándar 802.15.4 ZigBee.

CARACTERISTICAS

  • Integración con otras tecnologías. Agricultura, biología, medicina, minería, etc.
  • Posibilita aplicaciones impensadas. Interacción de los seres humanos con el medio. Redes vehiculares, etc.
  • Menor uso de recursos.


VENTAJAS Y DESVENTAJAS

  • TIEMPO DE VIDA
  • COVERTURA
  • COSTOS Y FACILIDAD DE INSTALACIÓN
  • TIEMPO DE RESPUESTA
  • BAJO CONSUMO DE POPTENCIA
  • PRECISIÓN Y FRECUENCIA DE LAS MEDICIONES
  • SEGURIDAD


Algunas restricciones las encontramos en: ENERGÍA, CAPACIDAD DE CÓMPUTO, MEMORIA

Redes desatendidas (sin intervención humana), con alta probabilidad de fallo, lo cual se desea aminorar con el MONITOREO de estas.






5.4.5 Estudio de varias propuestas para mejorar el comportamiento de TCP en redes móviles.

Se puede afirmar que una propuesta de mejora al TCP existente, sobre enlaces wireless, debe reunir el siguiente conjunto de características deseables.

 End-to-end: los segmentos son reconocidos solamente luego de haber sido recibidos por el destinatario final.

Local: implementa cambios solamente sobre los componentes de red wireless, como puede ser en las estaciones base y en las estaciones móviles.

Two-Way: está diseñada para tráfico en ambas direcciones, desde la red cableada hacia el host móvil y viceversa, suponiendo que el mismo tiene intensidades similares.

Intermediate-Link: el algoritmo no asume una ubicación predeterminada del enlace 

wireless. Es decir, el mismo puede estar en cualquier lugar de la conexión, si está al principio será un enlace first-hop, si está al final será last-hop y también puede estar en algún lugar intermedio, como se da por ejemplo en el caso de enlaces satelitales.

Transparent: no necesita leer información del encabezado TCP en algún nodo intermedio.

Signaling: detecta y reporta la causa de la pérdida de los segmentos a las capas superiores, para tomar las acciones de recuperación apropiadas para evitar retransmisiones indeseables. En el caso que las acciones sean tomadas por la capa de Transporte, se deberán hacer modificaciones en el código del TCP existente, lo cual puede llegar a ser un inconveniente.

En contraposición a lo anterior, cabe señalar que algunas implementaciones contienen otro conjunto de características que no son deseables para nuestro caso de estudio y que corresponde hacer una descripción de las mismas para poder entender el motivo por el cual no son tenidas en cuenta en el presente análisis:

Split (Indirect-TCP) [32]: cuando el camino completo de la conexión es dividido en una conexión cableada y una wireless y se corre TCP en forma independiente en cada conexión. Cuando la transmisión de un segmento se completa en una conexión, se le envía un ACK a la fuente y se transmite a la otra conexión. Podemos señalar como principales desventajas de esta implementación lassiguientes: los ACKs recibidos por la fuente no significan que los segmentos hallan sido recibidos por el supuesto destinatario, la transmisión de datos no es confiable y por último, al correr TCP en forma independiente en ambas conexiones y a diferentes ritmos, el buffer de la BS puede incurrir en overflow.
Global: si implementa cambios fuera de la red wireless.

One-Way: si está diseñada preferentemente para el tráfico en una dirección. Last-Hop: si el algoritmo asume que el enlace Wireless esta ubicado en el extremo final de la conexión TCP.

Snooping: si se necesita leer en algún nodo intermedio información del encabezado TCP.
Hiding: si presupone que existe un servicio de capa de enlace confiable y que sus protocolos de retransmisión resuelven el problema de la pérdida de tramas, ocultando el carácter lossy del enlace, hacia las capas superiores. La principal desventaja de las mejoras que usan esta característica es que, no obstante se oculten las posibles pérdidas, pueden llegar a existir retransmisiones en ambas capas, capa de enlace y de transporte tratando de responder a los mismos eventos de pérdidas, causando interacciones muy indeseables.


5.4.4 Control de flujo en TCP

TCP permite que el tamaño de la ventana varíe en el tiempo. Cada reconocimiento, que especifica cuántos bytes han sido recibidos, contiene un campo llamado ventana_receptor (WINDOW), que especifica cuántos bytes adicionales el receptor puede recibir (especifica el tamaño del buffer del receptor).

Un aumento en el valor del campo ventana_receptor el emisor incrementa el tamaño de su ventana, por lo que transmite un mayor número de bytes.

Una disminución en el valor del campo ventana_receptor el emisor decrementa el tamaño de su ventana, disminuyendo así , el número de bytes a transmitir.

TCP provee un mecanismo de Control de Flujo punto a punto. Si el buffer del receptor comienza a llenarse, enví a un tamaño de ventana menor. En el caso extremo, un tamaño de ventana = 0 detiene la transmisión. No controla explí citamente problemas de congestión.

Una buena implementación de TCP (en particular, el esquema de ReTx) puede detectar y recuperarse de problemas de congestión, mientras que una mala lo empeora.








5.4.3 Control de congestión en TCP

El método utilizado por TCP para control de la congestión es el basado en la regulación del tráfico inyectado a la red. Esto supone que implementa funciones que le permiten estudiar cuándo es posible enviar más tráfico por el enlace, y cuándo se ha superado la capacidad del mismo y se debe disminuir la carga.


TCP emplea 4 algoritmos relacionados entre sí a los efectos de efectuar el control de congestión [2, 5, 7, 8]. Ellos son conocidos con slow start, congestion avoidance, fast retransmit y fast recovery.




Los algoritmos slow start y congestion avoidance, deben ser utilizados por la fuente TCP a los efectos de controlar la cantidad de tráfico inyectado en la red.

Para esto se cuenta con tres variables de estado delprotocolo. Estas son cwnd (congestion window), que controla del lado de la fuente la cantidad de datos que se puede enviar sin haber recibido un ACK, rwnd (receiver’s advertised window) que indica la cantidad de datos que puede recibir el destino y ssthresh (slow start threshold) que indica en que fase de control de congestión se encuentra el transmisor (slow start si es mayor que cwnd o congestion avoidance si es menor; de ser iguales, se puede utilizar cualquiera de los dos algoritmos). El mínimo de cwnd y rwnd gobierna la transmisión. El algoritmo slow start es utilizado al comienzo de una transmisión a los efectos de que TCP pueda testear la red y conocer su capacidad evitando congestionarla. También es utilizado en el momento de recuperación ante la pérdida de algún segmento, indicada por timeout. Luego del three-way handshake, el tamaño de la ventana inicial de envío (IW: initial window) debe ser menor o igual que2 x SMSS1 bytes y no mayor a dos segmentos. El valor de ssthresh debería ser lo más alto posible al comienzo (por ejemplo, igual a rwnd) y deberá reducirse en caso de congestión. Durante la fase slow start se aumenta cwnd en a lo sumo SMSS bytes por cada ACK recibido de datos nuevos entregados al receptor. Esta fase culmina cuando cwnd alcanza a ssthresh o cuando se detecta congestión.

A partir de allí se inicia la fase de congestion avoidance donde cwnd se incrementa en un segmento por round-triptime (tiempo que transcurre entre que sale un segmento y llega el ACK asociado). Esta fase continua hasta que se alcanza la congestión nuevamente.

5.4.2 El problema de movilidad con TCP

Los protocolos de Internet fueron diseñados asumiendo nodos fijos:
En los primeros tiempos, solo enlaces cableados.

Nuevas tecnologías cambian esto:

WLANs y WPANs: 802.11, Bluetooth, HiperLAN..
Redes de amplia cobertura: microondas, satélite.
Dispositivos móviles: laptops, PDAs, teléfonos.

Uso de DHCP:
  • Obtención dinámica de dirección IP
  • Problemas con direcciones dinámicas :

¿cómo pueden contactar al nodo móvil los demas nodos?
¿cómo mantener la comunicación cuando hay conexiones abiertas?

Solución parcial:

Mapeo de nombre a dirección, contactar por nombre y cambiar el mapeo dinámicamente
Solución al problema de contactar el móvil pero no resuelve el de las conexiones abiertas

Problema general de movilidad sobre IP:

TCP usa cuadrupla para describir una conexión.

Si uno de los elementos de la tupla cambia, la conexión se pierde.


Los problemas existentes se basan en la incapacidad de TCP de discriminar cuándo la performance de la conexión ha disminuido debido a pérdidas en el enlace, común en las tecnologías wireless, y cuándo es debida a congestión en la red. El problema radica en que el transmisor no puede determinar con cierto grado de certeza qué ha motivado la pérdida de un segmento. Cuatro aspectos inherentes a redes wireless pueden afectar decisivamente la performance de TCP [46]. Por un lado, la bit error rate (BER) del medio físico, que como ya mencionamos, puede ser del orden de 1x10-6 o peor. En segundo lugar debemos considerar que el ancho de banda disponible es en general menor al disponible en medio cableados. Una tercer componente es la posible movilidad de los componentes de la red lo que puede implicar cambios importantes en los tiempos de entrega de los segmentos. Finalmente, es común que el protocolo de capa de Enlace y en particular de la sub-capa MAC así como el protocolo de enrutamiento utilizado implique necesariamente tener un overhead asociado a la movilidad y al aumento en la probabilidad de pérdida de tramas o paquetes.



A los efectos de fijar ideas podemos considerar como ejemplo de protocolo de sub-capa MAC a la familia de estándares de IEEE para Wireless Local Area Network (WLAN) [26, 27, 28, 29, 30]. En ellos se especifica que para el envío de cada trama de datos en el modo de operación Distributed Coordination Function (DCF) se emplee un método de control de acceso al medio denominado carrier sense multiple access with collision avoidance (CSMA/CA), protocolo que busca reducir la probabilidad de colisiones entre múltiples estaciones a través del evitado de las mismas. A los efectos de detectar portadora, además del mecanismo clásico de “escucha del medio” (detección física de portadora) se realiza una detección virtual de portadora utilizando four-way handshake, donde con dos tramas de control (RTS:Request To Send y CTS: Clear To Send) se reserva el medio, luego se envía la trama conteniendo los datos y posteriormente se espera una trama de control ACK que confirma su recepción. Lo anterior es una muestra clara del overhead involucrado, pero hasta aquí no hemos considerado la movilidad de las estaciones. Durante la misma, una estación móvil puede estar asociada a una estación base (BS) a través de la cual recibe las tramas que provienen por ejemplo de la red cableada y unos milisegundos después, deberá estar asociada a otra estación base a la cual la primera deberá enviar las tramas que tuviera almacenadas para dicha estación.


5.4.1 El protocolo TCP/IP

El protocolo TCP/IP, es un conjunto de reglas o normas que determinan cómo se realiza el intercambio de datos entre dos ordenadores. Es quien se encarga de que los equipos puedan “hablar” en un lenguaje común, independientemente del tipo que sea o del sistema operativo que utilice (Windows NT, 95, 98 ó 2000, DOS, OS/2, Unix, etc.). El protocolo que se usa en Internet desde sus propios orígenes es el TCP/IP (Tranmission Control Protocol/Internet Protocol).


Este protocolo, funciona de la siguiente forma, cuando se transfiere información de un ordenador a otro, por ejemplo un fichero, un mensaje de correo electrónico o cualquier otro tipo de datos, ésta no es transmitida de una sola vez, sino que se divide en paquetes pequeños.




Esta técnica por paquetes, posibilita que los recursos de la red no sean monopolizados por un sólo usuario durante un intervalo de tiempo excesivo, siendo usual que por la red viajen paquetes de información provenientes de diferentes ordenadores y con destinos también diferentes.

El protocolo TCP se encarga de dividir las informaciones en paquetes de tamaño adecuado, numerar estos paquetes para que puedan volver a unirse en el lugar correcto y añadir cierta información para la transmisión y posterior decodificación del paquete y detectar posibles errores en la transmisión. Por su parte el protocolo IP atiende todas las operaciones relacionadas con el encaminamiento de los paquetes del origen al destino, encargándose de etiquetar cada paquete de información con la dirección apropiada.
Este sistema de comunicación, hace necesario que cada ordenador conectado a Internet tenga una dirección de Internet (IP address) única y exclusiva que lo distingue de cualquier otro ordenador en el mundo. Esta dirección o número IP se representa con cuatro números separados por puntos, cada uno de los cuales puede tomar valores entre 0 y 255. Por ejemplo, la dirección IP del servidor web de la Red Telemática Educativa "Averroes" es la siguiente: 150.214.90.20.
Por lo tanto, toda aplicación de Internet necesita conocer la IP del ordenador con el que comunicarse, nosotros, como usuarios no necesitamos disponer de esa información. Hay un sistema de nombres más sencillo para referirse a una dirección, el sistema de nombres por Dominio o DNS. Este sistema, consigue simplificar la identificación de los recursos en la red, sin tener que memorizar las direcciones numéricas. Por ejemplo el nombre de dominio del servidor web citado anteriormente es el siguiente: averroes.cec.junta-andalucia.es






La identificación de cada uno de los grupos de números es la siguiente:





5.4-- 4G (micro movilidad)


WiFi 4G multiplica por seis el ancho de banda de las redes de tercera generación y por cinco el número de usuarios por punto de acceso Según Gartner Group, a finales de 2011 el 70 por ciento de los adaptadores y servicios de red serán Inalámbricos. Asimismo, la cifra de negocio del mercado WLAN  para redes corporativas superará los 3.200 millones de dólares este año, de los que el 35 por ciento corresponderán a la zona EMEA.

En este contexto, aparece una nueva tecnología WiFi bautizada por Gartner como ‘WiFi de Cuarta Generación’, la cual supone un salto hacia adelante en el despliegue de redes inalámbricas y ofrece una respuesta altamente eficientes en entornos complejos como son las grandes corporaciones, Universidades y Escuelas, Aeropuertos, grandes Hospitales, administraciones públicas, Industria, etc.  

Los nuevos sistemas, que mantienen su compatibilidad con las redes WiFi existentes y están certificados por la WIFI Alliance, se basan en una arquitectura de celda única (single cell), que permite anchos de banda de hasta 300 Mbps, un número prácticamente ilimitado de usuarios, mayor cobertura y el acceso eficiente a aplicaciones que reclaman elevadas capacidades de tráfico como son las transmisiones multimedia y la Voz sobre IP.


WiFi 4GEl sistema single cell mantiene estable la conexión a la red incluso en situaciones de alta movilidad, elimina cualquier tipo de interferencias y requiere menos dispositivos de acceso para ofrecer una, incluso, mayor cobertura.




Lo que aporta

Entre las novedades de WiFi 4G destaca su soporte mejorado a todo tipo de dispositivos y aplicaciones: Smart PDA, Móvil, Voz, Vídeo y Datos. Asimismo, garantiza el suministro de gran ancho de banda para aplicaciones sensibles en tiempo real y la más Alta Calidad de Servicio (QoS) para usuarios con tráfico pesado, entornos de gran densidad (muchos usuarios accediendo a la red) y necesidades de alta movilidad. La nueva arquitectura ofrece seguridad punto a punto en entornos distribuidos, facilita la gestión simplificada para el control RF impredecible, garantiza la disponibilidad total de aplicaciones WLAN de misión crítica y cuenta con Soporte y Servicios 24x7x365.
Desde el punto de vista del usuario, WiFi 4G ofrece una experiencia interactiva independientemente del dispositivo, aplicación, densidad y movilidad. Y desde el punto de vista de las TI, se consigue una Infraestructura WLAN predecible, efectiva, segura y de alto rendimiento; una gestión RF simplificada, resolución de problemas acelerada, WiFi 4Gmenos inversión y mayor rentabilidad y escalabilidad sin límites.

Las claves

Frente a la arquitectura basada en micro celdas del WiFi de tercera generación, donde el dispositivo va conectándose y desconectándose a los distintos ‘hot spots’, el nuevo WiFi, como hemos dicho, utiliza una arquitectura ‘single cell’, donde todos esos  puntos de acceso trabajan en el mismo canal, de manera que el terminal no pierde nunca la conexión y, además, se eliminan las interferencias que producen los distintos puntos entre sí. La nueva arquitectura aumenta radicalmente el rendimiento –throughput-  y  permite conseguir densidades extremas.

“En una red WiFi 4G, añadir un punto de acceso es tan fácil como instalar una bombilla –aseguran los portavoces de Meru Networks-; gracias a la arquitectura single channel la red ofrece máxima potencia, mejor cobertura y movilidad total. Además, la red suministra una conexión dedicada por cada dispositivo, garantiza a cada usuario el servicio necesario y la Calidad de Servicio (QoS) por tipo de aplicación.  El WiFi 4G multiplica por seis el ancho de banda de las redes de tercera generación y por cinco el número de usuarios por punto de acceso, reduciendo radicalmente los costes de infraestructura.








5.3.4 Clases de servicio

ATM ha sido concebido como una tecnología multiservicio. Debido a la presencia de una variedad de tipos de tráfico y a la necesidad de asignar adecuadamente los recursos de la red para cada componente de tráfico, es que han sido definidas las categorías de servicio dentro de la capa ATM.

La introducción de nuevas categorías de servicio ATM tiene como finalidad el incrementar los beneficios de ATM, permitiendo que ésta tecnología sea adecuada para una gama de aplicaciones ilimitada. Una red ATM puede proveer VPCs y VCCs con diferentes niveles de servicio. La idea de negociar, para cada conexión, el comportamiento esperado por la capa ATM en términos de tráfico y desempeño, permite a los usuarios optimizar los requerimientos de la aplicación versus las capacidades de la red. En otras palabras, las Categorías de Servicio permiten al usuario el seleccionar combinaciones específicas de parámetros de tráfico y de desempeño.

Funciones tales como CAC, UPC, Controles de Feedback, Asignación de Recursos, etc., disponibles dentro de los equipos ATM, son generalmente estructurados de forma diferente de acuerdo con cada Categoría de Servicio.

Las categorías de servicio ATM han sido definidas por las organizaciones de estandarización ITU-T y por el ATM Forum. La arquitectura de servicios provista en la capa ATM consiste de cinco categorías de servicios, en donde cada categoría de servicio está designada para un grupo particular de aplicaciones:

·         Constant Bit Rate (CBR)
·         Variable Bit Rate (VBR)
·         Variable Bit Rate-Real Time (rt-VBR)
·         Variable Bit Rate-Non Real Time (nrt-VBR)
·         (rt-VBR y nrt-VBR son definidas en el ATM Forum Traffic Management Specification versión 4)
·         Available Bit Rate (ABR)
·         Unspecified Bit Rate (UBR)
·         Guaranteed Frame Rate (GFR)



Estas categorías se empleadas para diferenciar entre diferentes tipos específicos de conexiones, en donde cada una de las mismas posee unas características de tráfico y de parámetros QoS particulares. En otras palabras, para conexiones CBR solo PCR y CDVT están definidos.

A pesar de que ATM ofrece altos estándares de calidad de servicio, diversas funcionalidades de acuerdo a las necesidades del cliente y la mayoría de empresas de telecomunicaciones o transmisiones de datos del medio la tienen en su implementación. Las redes ATM han ido perdiendo presencia en el mercado a tal punto que la mayoría las está cambiando hacia aplicaciones IP, obviamente los costos han tenido mucho que ver en ese tema. Y a pesar que en este diseño se planteó el uso de ATM en backbone por ventajas ya explicadas, se recomienda considerar estudios económicos para migrar a las tendencias actuales, todo sobre IP o a su vez redes MPLS.

Se recomienda ampliar este servicio a todos los nodos que constituyen la infraestructura del carrier extendiendo el servicio hacia una mayor cantidad de usuarios y zonas interconectándose a través del anillo de fibra, en lo cual dependiendo de la ubicación del usuario se escogerá la mejor ruta.

Para este fin se recomienda analizar la distribución de los servidores, determinando si se incorporan más equipos en un solo nodo o se decide usar arquitectura distribuida, para evitar la saturación de tráfico en el backbone.

5.3.3 Arquitectura de un conmutador ATM

Los conmutadores ATM incorporan técnicas de enrutamientos para todas las funciones de relevo de celdas en la red. Cada celda ATM encuentra su camino a través de la estructura de conmutación de la red usando información de enrutamiento que está en el encabezado de la celda.

Un conmutador ATM acepta una celda desde el medio de transmisión, realiza un chequeo de validación en el dato del encabezado de la celda, lee la dirección , envía hacia el próximo enlace en la red. Los conmutadores inmediatamente aceptan otra celda que puede ser parte de la anterior y repiten el proceso.

El encabezado de la celda suministra información de control a la capa de arquitectura ATM quien en combinación con la capa física, provee servicios esenciales de comunicaciones en una red ATM. Los conmutadores en ATM están sincronizados y se entrega una celda a la salida en cada pulso de reloj.

Es preciso mantener la tasa de perdidas de celdas baja. El orden de las celdas no se puede cambiar en un circuito virtual. Si dos celdas quieren salir por la misma línea de salida en el mismo ciclo, teniendo en cuenta que las celdas no se pueden descartar podemos emplear una cola por cada línea de entrada o una cola por cada línea de salida
Algunos de los enfoques para cumplir estos requisitos son:

Conmutador Eliminatorio. Tiene un bus de broadcast para cada línea de entrada. La activación de las intersecciones determinan las líneas de salida, cada línea de salida tiene una cola virtual. Un Concentrador escoge las celdas a descartar si llegan demasiadas.
Conmutador Banyan. Conmutador multietapa, que emplea microconmutadores para asignar a cada celda su puerto de salida en función del valor binario de la salida.

Conmutador Batcher-Banyan. Es un conmutador de etapas múltiples para las celdas. El conmutador Batcher ordena las celdas que le van llegando según su destino final, emplea un módulo hardware especial denominado “trap” para evitar que a un mismo conmutador Banyan pasen celdas duplicadas (celdas con mismo destino), asegurando que solo una celda pase por pulso para un destino .

Conectando múltiples conmutadores podemos formar una gran red. Las conexiones entre nodos se realiza en base a dos interfaces que son:

User t o Network Interface (UNI).
Network to Network Interface(NNI).

Para establecer una conexión el host local a de solicitar a su switch local que establezca una conexión con el destino, esta conexión puede ser de dos naturalezas:

Circuitos Virtuales Conmutados (SVC).

Circuitos Virtuales Permanentes (PVC).

5.3.2 Circuitos virtuales

ATM provee servicios orientados a la conexión. Para comunicarse con un nodo remoto, un host debe solicitar a su switch local el establecimiento de una conexión con el destino. Estas conexiones pueden ser de dos naturalezas: Switched Virtual Circuits (SVC) o Permanent Virtual Circuits (PVC).

Switched Virtual Circuits (SVC)

Un SVC opera del mismo modo que una llamada telefónica convencional. Un host se comunica con el switch ATM local y requiere del mismo el establecimiento de un SVC. El host especifica la dirección completa del nodo destino y la calidad del servicio requerido. Luego espera que la red ATM establezca el circuito.

El sistema de señalización de ATM se encarga de encontrar el path necesario desde el host origen al host destino a lo largo de varios switches. El host remoto debe aceptar el establecimiento de la conexión.

Durante el proceso de señalización (toma este nombre por analogía con el usado en sistemas telefónicos de los cuales deriva ATM) cada uno de los switches examina el tipo de servicio solicitado por el host de origen. Si acuerda propagar información de dicho host registra información acerca el circuito solicitado y propaga el requerimiento al siguiente switch de la red.

Este tipo de acuerdo reserva determinados recursos el switch para ser usados por el nuevo circuito. Cuando el proceso de señalización concluye el switch local reporta la existencia del SVC al host local y al host remoto.

La interfase UNI identifica a cada uno de los SVC por medio de un número de 24 bits. Cuando un host acepta un nuevo SVC, el switch ATM local asigna al mismo un nuevo identificador. Los paquetes transmitidos por la red no llevan información de nodo origen ni nodo destino. El host marca a cada paquete enviado con el identificador de circuito virtual necesario para llegar al nodo destino.

Nótese que se ha evitado hablar de los protocolos usados para el establecimiento de los SVC, para los procesos de señalización y para comunicar a los hosts el establecimiento de un nuevo SVC. Además hay que tener en cuenta que comunicaciones bidireccionales van a necesitar reservar recursos a lo largo del SVC para dos sentidos de comunicación.


Permanent Virtual Circuits (PVC)


La alternativa al mecanismo de SVC descripto en el ítem anterior es evidente: el administrador de la red puede configurar en forma manual los switches para definir circuitos permanentes. El administrador identifica el nodo origen, el nodo destino, la calidad de servicio y los identificadores de 24 bits para que cada host pueda acceder al circuito.










5.3.1 Celdas ATM

El Modo de Transferencia Asíncrono, un método de transporte flexible que puede adaptarse a la voz, al vídeo y a los datos. Al igual que X.25 y frame relay, ATM dispone de un mecanismo para conmutar unidades de datos a través de las redes. A diferencia de estos protocolos de conmutación de paquetes, que transmiten unidades de datos de tamaño variable, ATM opera con una unidad de datos de tamaño fijo denominada celda. Al estandarizar el tamaño de la unidad de datos, la eficiencia de los conmutadores aumenta significativamente. ATM es el protocolo de transmisión de la RDSI-B (Red Digital de Servicios Integrados de Banda Ancha) o B-ISDN. Es capaz de alcanzar velocidades de 155 Mbps, e incluso de 600 Mbps.




Las redes de tecnología ATM proporcionan tanto un transporte con Tasa de Bit Constante (ej. para voz), como un transporte con Tasa de Bit Variable (p.ej. para datos), utilizando de una forma eficiente el Ancho de Banda de la red. 
ATM se basa en la Conmutación Rápida de Paquetes o Fast Packed Switching (FPS)


Campos de una celda ATM
Una celda ATM está formada por 53 bytes: 5 bytes de cabecera y 48 bytes de datos. La cabecera de la celda ATM tiene los siguientes campos: 

CFG (4 bits)
Control de flujo. Sólo tiene sentido en el enlace de acceso Usuario-Red. Se utiliza para asignar prioridades a las distintas celdas, según la información que transporten. 

VPI (8bits) / VCI (16 bits)
Identificador de conexión virtual. Permite identificar los enlaces que debe atravesar una celda hasta llegar a su destino. Sólo tiene significado a nivel de enlace local, y cambia a cada paso por un nodo de la red.
Asociado a cada puerto entrante de un conmutador ATM hay una tabla de traducción o Header Translation Table (HTT) que relaciona un puerto de salida y una celda entrante mediante un nuevo identificador de conexión. Como resultado, las celdas de cada línea pueden ser conmutadas independientemente a gran velocidad.
El VPI (Virtual Path Identifier) etiqueta segmentos de Trayectos Virtuales (VP). Un trayecto virtual es un canal de comunicación entre un origen y un destino a través de una red ATM. Sobre un VP se pueden multiplexar los Canales Virtuales o Virtual Channels (VC), que vienen identificados por el Identificador de Canal Virtual o Virtual Channel Identifier (VCI).


PT (2 bits)
Permite diferenciar entre la información de usuario, la de control y la de gestión. 

Res. (1 bit)
Reservado para implementaciones futuras. 

CLP (1 bit)
Es un campo de prioridad de pérdida. Si CLP=0 la prioridad es alta, y si CLP=1 es baja. 

HEC (8 bits)
Control de error de la cabecera.