miércoles, 7 de diciembre de 2016
Conclusiones
La tecnología WIMAX ofrece
grandes posibilidades de conexión para áreas suburbanas y rurales, lugares en
donde podría solventar la carencia de acceso de banda ancha; debido a los
costos elevados que la conexión tradicional representa.
Además gracias a su gran
capacidad portadora se transforma en excelente plataforma para otras
tecnologías como lo es por ejemplo: “video call”.
En
cuanto a la relación entre WIMAX y WIFI podemos expresar que ambas tecnologías
juegan un papel complementario, pues la primera está diseñada para operar en
áreas metropolitanas, mientras que WIFI está diseñado para operar en rangos de
pocos metros cuadrados; por lo tanto, WIMAX se proyecta como un medio idóneo
para la interconexión de redes inalámbricas de área local (redes de malla)
ofreciendo mecanismos para garantizar niveles de transferencia óptimos (QoS).
Finalmente,
cabe destacar que esta es una tecnología que se ha demorado en despegar, pero
que ofrece grandes posibilidades para los desafíos que se presentan, sobre todo
dada la creciente necesidad de un “ancho de banda” mayor.
Las redes de sensores pueden
utilizar distintas tecnologías de sin cable, incluyendo IEEE 802.11, LANS sin
cable, Bluetooth e identificación de la frecuencia de radio. Actualmente se
trabaja con radios de baja frecuencia con un alcance de hasta 80 metros y velocidades
de hasta 300 Kb/segundo.
Las últimas investigaciones
apuntan hacia una eventual proliferación de redes de sensores inteligentes,
redes que recogerán enormes cantidades de información hasta ahora no registrada
que contribuirá de forma favorable al buen funcionamiento de fábricas, al
cuidado de cultivos, a tareas domésticas, a la organización del trabajo y a la
predicción de desastres naturales como los terremotos. En este sentido, la
computación que penetra en todas las facetas de la vida diaria de los seres
humanos está a punto de convertirse en realidad.
Aunque la tecnología
relacionada con las redes de sensores sin cable está todavía en su primera
fase, equipos de investigación en la Universidad de California Berkeley ya han
fabricado una caja que se puede adaptar a muchos tipos de sensores. Los
científicos utilizan los sensores sin cable para encontrar y controlar
microclimas y plagas en plantaciones de uva, para estudiar los hábitos de aves
y para controlar sistemas de ventilación y calefacción. En la Universidad de
California Los Angeles, investigadores utilizan las redes de sensores sin cable
para recibir información detallada sobre el efecto de los movimientos sísmicos
en los edificios.
Si los avances tecnológicos en
este campo siguen a la misma velocidad que han hecho en los últimos 2 años, las
redes de sensores sin cable revolucionará la capacidad de interacción de los
seres humanos con el mundo.
6.3 Transporte
Las características
particulares que poseen las redes de sensores inalámbricas establecen nuevos
retos de diseño como son el uso eficiente de la energía, la fiabilidad, el
control de congestión y la calidad de servicio. Estos factores deben ser
satisfechos para cumplir con los requerimientos que demandan las aplicaciones
en este tipo de redes.
En este sentido, uno de los
retos que cada vez cobra mayor importancia es la necesidad de implementar
mecanismos que proporcionen fiabilidad en la entrega de los datos extremos a
extremo, reduzcan la congestión y la pérdida de paquetes, además de proveer
justicia en la asignación de ancho de banda. Esto aunado a la tendencia de
interconectar las redes de sensores inalámbricas a otro tipo de redes como
Internet, redes de área local o intranets para la recepción de forma remota de
los datos generados por los sensores, hacen que la elección del protocolo de
transporte adecuado sea un aspecto esencial en el desarrollo de aplicaciones
para este tipo de redes.
Limitaciones de los protocolos de transporte tradicionales
Los protocolos de transporte
tradicionales utilizados en Internet como lo son UDP y TCP presentan varios
inconvenientes para ser implementados en las redes de sensores. En el caso del
protocolo UDP, por ejemplo, este no provee fiabilidad en la entrega de datos,
que en la mayoría de los casos es un requisito de las aplicaciones en este tipo
de redes, ni tampoco proporciona mecanismos de control de flujo ni de
congestión lo que puede conducir a la pérdida de paquetes y el gasto
innecesario.
Por otro lado, si analizamos
el sistema de comunicación fiable extremo a extremo proporcionado
tradicionalmente por TCP encontramos que este tiene serios problemas de
rendimiento en las redes inalámbricas, tanto en términos de tasas de
transferencia como de eficiencia energética.
Los principales problemas que
presenta el protocolo TCP en las WSN se describen a continuación de energía de
los nodos sensores:
Pérdida de paquetes no debida
a la congestión: se refiere a que TCP utiliza como mecanismo de detección de
congestión la pérdida de paquetes lo que conlleva a que TCP reduzca la tasa de
transferencia con la finalidad de no colapsar aún más los enlaces. Sin embargo,
en una WSN las pérdidas de paquetes ocurren generalmente por errores de transmisión
del medio inalámbrico de manera que la reducción de la tasa de transferencia lo
que trae consigo es una reducción innecesaria de la utilización del ancho de
banda del enlace y por ende a una degradación en el throughput y un retardo
mayor en la comunicación. Una posible solución es la utilización de mecanismos
(implícitos o explícitos) de retroalimentación entre los nodos que ayuden a
detectar las diferentes causas por las cuales la pérdida de paquetes ha
ocurrido (calidad del enlace inalámbrico, fallos en el nodo sensor, y/o
congestión) y de acuerdo a esto tomar la decisión más conveniente.
Retransmisiones costosas: TCP
confía en las retransmisiones extremo a extremo para proveer una entrega de
datos fiable, sin embargo teniendo en cuenta las limitaciones de energía de los
sensores y las rutas multi-salto, este mecanismo conllevaría a un mayor consumo
de energía y ancho de banda en las WSN. Además el mecanismo de control de
congestión extremo a extremo utilizado por TCP ocasiona que se responda muy tarde
a una situación de congestión lo que resulta en una gran cantidad de paquetes
perdidos lo que se convierte en un gasto de energía adicional en
retransmisiones y los tiempos de respuestas tan largos ocasionan un bajo
throughput y baja utilización del enlace inalámbrico.
Topología Dinámica de la red:
los cambios de topología que caracterizan a las WSN debido a las condiciones
del entorno (baja calidad del enlace inalámbrico, interferencias de señal
producidas por agentes externos) y a la propia situación del nodo sensor (el
nivel de energía que posea) conllevan a que en un momento dado la ruta entre
dos puntos extremos de la red se vea interrumpida. Tal comportamiento no es
compatible con el funcionamiento de TCP el cual considera una conectividad
permanente extremo a extremo.
Red asimétrica: Se define como
aquella en la que el camino utilizado para transportar datos hacia el destino
es diferente del camino utilizado para retornarlos hacia el origen tanto en
términos topológicos como de latencia, ancho de banda o tasa de pérdida de
paquetes. Las WSN son asimétricas en la mayoría de los casos, aspecto que
afecta directamente a la transmisión de los ACK‟s del protocolo TCP, cuyo rendimiento
puede verse afectado.
Grandes variaciones del RTT:
Debido a la variabilidad de la calidad de los enlaces, la movilidad o la carga
de tráfico, las rutas de encaminamiento se ven modificadas a lo largo del
despliegue de las redes de sensores. Esto puede generar variaciones en el RTT,
degradando el rendimiento de TCP.
Transmisión en tiempo real:
Junto a UDP, en las redes de sensores deben implementarse protocolos semejantes
a RCP (Rate Control Protocol), de forma que éstas puedan soportar la
transmisión extremo a extremo del tráfico en tiempo real.
Protocolos de transporte
existentes en WSN.
Los mecanismos de transporte que existen para
redes de sensores inalámbricas se pueden dividir en aquellos que proporcionan
en alguno o en ambos sentidos (sea ascendente o descendente) y una o la
combinación de las siguientes funciones:
- Fiabilidad en la entrega de mensajes (incluyendo la recuperación de errores)
- Control de congestión
- Conservación de la energía
Además también pueden ser
clasificados en:
- Protocolos no basados en TCP
- Protocolos basados en TCP
6.2 Enrutamiento
PROTOCOLOS DE ENRUTAMIENTO
Principales objetivos de diseño:
- Mantener una tabla de enrutamiento razonablemente pequeña.
- Elegir la mejor ruta para un destino dado (ya sea el más rápido, confiable, de mejor capacidad o la ruta de menos coste)
- Mantener la tabla regularmente para actualizar la caída de nodos, su cambio de posición o su aparición
- Requerir una pequeña cantidad de mensajes y tiempo para converger
Diagrama ilustrativo de los componentes que usa el protocolo de
enrutamiento en las WSN (Alec Woo. Universidad de Berkeley)
Modelos (topología):
One-hop model: tenemos una
base station desde donde cuelgan todos los nodos, sólo un salto de distancia.
Multihop model: todos los
nodos transmiten siguiendo diferentes rutas hasta el nodo base, las diferentes
rutas de grado uno cuelgan del nodo base
Cluster-based Hierachical
Model: se parte la red en clústeres con diferentes niveles. Los nodos se
agrupan alrededor de un nodo cabeza que tiene la responsabilidad de
hacer el routing con otros nodos cabeza o con el nodo base. Los datos pasan de
las capas inferiores a las superiores.
Ejemplo de modelo de topología.
Red basada en clústeres. Se observan tres motas base, y varios
clústeres.
6.1 Ejemplos de redes de sensores
APLICACIONES ACTUALES Y USOS
Donde se requiera recoger
lecturas. Estas pueden ser en un entorno inaccesible u hostil como también en
empresas, fabricas, oficinas u el propio hogar, durante un período de tiempo,
para así detectar cambios, tendencias y datos suficientes para poder generar
algún cambio o intervención.
Como por ejemplo:
- Control de parámetros en la agricultura.
- En casas domo.
- Tecnología militar.
- Tecnología civil (bomberos).
- Detección de incendios, terremotos o inundaciones.
- Sensorización de edificios “inteligentes”.
- Control de tráfico.
- Asistencia militar o civil.
- Control de inventario.
- Control médico.
- Detección acústica.
- Cadenas de montaje, etc.
6 Redes inalámbricas de sensores
¿Que son las redes de sensores inalámbricas?
Una gran cantidad de pequeños
dispositivos, autónomos, distribuidos físicamente, llamados nodos de sensores,
instalados alrededor de un fenómeno para ser monitoreado, con la capacidad de
almacenar y comunicar datos en una red en forma inalámbrica.
SENSORES: De distintos tipos y
tecnologías los cuales toman del medio la infamación y la convierten en señales
eléctricas.
NODOS DE SENSOR: Toman los
datos del sensor a través de sus puertas de datos, y envían la información a la
estación base.
GATEWAY: Elementos para la
interconexión entre la red de sensores y una red TCP/IP.
ESTACIÓN BASE: Recolector de
datos.
RED INALÁMBRICA: Típicamente
basada en el estándar 802.15.4 ZigBee.
CARACTERISTICAS
- Integración con otras tecnologías. Agricultura, biología, medicina, minería, etc.
- Posibilita aplicaciones impensadas. Interacción de los seres humanos con el medio. Redes vehiculares, etc.
- Menor uso de recursos.
VENTAJAS Y DESVENTAJAS
- TIEMPO DE VIDA
- COVERTURA
- COSTOS Y FACILIDAD DE INSTALACIÓN
- TIEMPO DE RESPUESTA
- BAJO CONSUMO DE POPTENCIA
- PRECISIÓN Y FRECUENCIA DE LAS MEDICIONES
- SEGURIDAD
Algunas restricciones las encontramos
en: ENERGÍA, CAPACIDAD DE CÓMPUTO, MEMORIA
Redes desatendidas (sin
intervención humana), con alta probabilidad de fallo, lo cual se desea aminorar
con el MONITOREO de estas.
5.4.5 Estudio de varias propuestas para mejorar el comportamiento de TCP en redes móviles.
Se puede afirmar que una
propuesta de mejora al TCP existente, sobre enlaces wireless, debe reunir el
siguiente conjunto de características deseables.
End-to-end: los
segmentos son reconocidos solamente luego de haber sido recibidos por el
destinatario final.
Local: implementa cambios
solamente sobre los componentes de red wireless, como puede ser en las
estaciones base y en las estaciones móviles.
Two-Way: está diseñada para
tráfico en ambas direcciones, desde la red cableada hacia el host móvil y
viceversa, suponiendo que el mismo tiene intensidades similares.
Intermediate-Link: el
algoritmo no asume una ubicación predeterminada del enlace
wireless. Es decir, el mismo
puede estar en cualquier lugar de la conexión, si está al principio será un
enlace first-hop, si está al final será last-hop y también puede estar en algún
lugar intermedio, como se da por ejemplo en el caso de enlaces satelitales.
Transparent: no necesita leer
información del encabezado TCP en algún nodo intermedio.
Signaling: detecta y reporta
la causa de la pérdida de los segmentos a las capas superiores, para tomar las
acciones de recuperación apropiadas para evitar retransmisiones indeseables. En
el caso que las acciones sean tomadas por la capa de Transporte, se deberán
hacer modificaciones en el código del TCP existente, lo cual puede llegar a ser
un inconveniente.
En contraposición a lo
anterior, cabe señalar que algunas implementaciones contienen otro conjunto de
características que no son deseables para nuestro caso de estudio y que
corresponde hacer una descripción de las mismas para poder entender el motivo
por el cual no son tenidas en cuenta en el presente análisis:
Split (Indirect-TCP) [32]:
cuando el camino completo de la conexión es dividido en una conexión cableada y
una wireless y se corre TCP en forma independiente en cada conexión. Cuando la
transmisión de un segmento se completa en una conexión, se le envía un ACK a la
fuente y se transmite a la otra conexión. Podemos señalar como principales
desventajas de esta implementación lassiguientes: los ACKs recibidos por la
fuente no significan que los segmentos hallan sido recibidos por el supuesto
destinatario, la transmisión de datos no es confiable y por último, al correr
TCP en forma independiente en ambas conexiones y a diferentes ritmos, el buffer
de la BS puede incurrir en overflow.
Global: si implementa cambios
fuera de la red wireless.
One-Way: si está diseñada
preferentemente para el tráfico en una dirección. Last-Hop: si el algoritmo
asume que el enlace Wireless esta ubicado en el extremo final de la conexión
TCP.
Snooping: si se necesita leer
en algún nodo intermedio información del encabezado TCP.
Hiding: si presupone que
existe un servicio de capa de enlace confiable y que sus protocolos de
retransmisión resuelven el problema de la pérdida de tramas, ocultando el
carácter lossy del enlace, hacia las capas superiores. La principal desventaja
de las mejoras que usan esta característica es que, no obstante se oculten las
posibles pérdidas, pueden llegar a existir retransmisiones en ambas capas, capa
de enlace y de transporte tratando de responder a los mismos eventos de
pérdidas, causando interacciones muy indeseables.
5.4.4 Control de flujo en TCP
TCP permite que el tamaño de
la ventana varíe en el tiempo. Cada reconocimiento, que especifica cuántos
bytes han sido recibidos, contiene un campo llamado ventana_receptor (WINDOW),
que especifica cuántos bytes adicionales el receptor puede recibir (especifica
el tamaño del buffer del receptor).
Un aumento en el valor del
campo ventana_receptor el emisor incrementa el tamaño de su ventana, por lo que
transmite un mayor número de bytes.
Una disminución en el valor
del campo ventana_receptor el emisor decrementa el tamaño de su ventana,
disminuyendo así , el número de bytes a transmitir.
TCP provee un mecanismo de
Control de Flujo punto a punto. Si el buffer del receptor comienza a llenarse,
enví a un tamaño de ventana menor. En el caso extremo, un tamaño de ventana = 0
detiene la transmisión. No controla explí citamente problemas de congestión.
Una buena implementación de
TCP (en particular, el esquema de ReTx) puede detectar y recuperarse de
problemas de congestión, mientras que una mala lo empeora.
5.4.3 Control de congestión en TCP
El método utilizado por TCP
para control de la congestión es el basado en la regulación del tráfico inyectado
a la red. Esto supone que implementa funciones que le permiten estudiar cuándo
es posible enviar más tráfico por el enlace, y cuándo se ha superado la capacidad
del mismo y se debe disminuir la carga.
TCP emplea 4 algoritmos
relacionados entre sí a los efectos de efectuar el control de congestión [2, 5,
7, 8]. Ellos son conocidos con slow start, congestion avoidance, fast
retransmit y fast recovery.
Los algoritmos slow start y
congestion avoidance, deben ser utilizados por la fuente TCP a los efectos de controlar
la cantidad de tráfico inyectado en la red.
Para esto se cuenta con tres
variables de estado delprotocolo. Estas son cwnd (congestion window), que controla
del lado de la fuente la cantidad de datos que se puede enviar sin haber
recibido un ACK, rwnd (receiver’s advertised window) que indica la cantidad de
datos que puede recibir el destino y ssthresh (slow start threshold) que indica
en que fase de control de congestión se encuentra el transmisor (slow start si
es mayor que cwnd o congestion avoidance si es menor; de ser iguales, se puede
utilizar cualquiera de los dos algoritmos). El mínimo de cwnd y rwnd gobierna
la transmisión. El algoritmo slow start es utilizado al comienzo de una transmisión
a los efectos de que TCP pueda testear la red y conocer su capacidad evitando
congestionarla. También es utilizado en el momento de recuperación ante la pérdida
de algún segmento, indicada por timeout. Luego del three-way handshake, el
tamaño de la ventana inicial de envío (IW: initial window) debe ser menor o
igual que2 x SMSS1 bytes y no mayor a dos segmentos. El valor de ssthresh
debería ser lo más alto posible al comienzo (por ejemplo, igual a rwnd) y
deberá reducirse en caso de congestión. Durante la fase slow start se aumenta
cwnd en a lo sumo SMSS bytes por cada ACK recibido de datos nuevos entregados
al receptor. Esta fase culmina cuando cwnd alcanza a ssthresh o cuando se
detecta congestión.
A partir de allí se inicia la
fase de congestion avoidance donde cwnd se incrementa en un segmento por
round-triptime (tiempo que transcurre entre que sale un segmento y llega el ACK
asociado). Esta fase continua hasta que se alcanza la congestión nuevamente.
5.4.2 El problema de movilidad con TCP
Los protocolos de Internet
fueron diseñados asumiendo nodos fijos:
En los primeros tiempos, solo
enlaces cableados.
Nuevas tecnologías cambian
esto:
WLANs y WPANs: 802.11,
Bluetooth, HiperLAN..
Redes de amplia cobertura: microondas,
satélite.
Dispositivos móviles: laptops,
PDAs, teléfonos.
Uso de DHCP:
- Obtención dinámica de dirección IP
- Problemas con direcciones dinámicas :
¿cómo pueden contactar al nodo
móvil los demas nodos?
¿cómo mantener la comunicación cuando hay conexiones
abiertas?
Solución parcial:
Mapeo de nombre a dirección,
contactar por nombre y cambiar el mapeo dinámicamente
Solución al problema de
contactar el móvil pero no resuelve el de las conexiones abiertas
Problema general de movilidad
sobre IP:
TCP usa cuadrupla para
describir una conexión.
Si uno de los elementos de la
tupla cambia, la conexión se pierde.
Los problemas existentes se
basan en la incapacidad de TCP de discriminar cuándo la performance de la
conexión ha disminuido debido a pérdidas en el enlace, común en las tecnologías
wireless, y cuándo es debida a congestión en la red. El problema radica en que
el transmisor no puede determinar con cierto grado de certeza qué ha motivado
la pérdida de un segmento. Cuatro aspectos inherentes a redes wireless pueden afectar
decisivamente la performance de TCP [46]. Por un lado, la bit error rate (BER)
del medio físico, que como ya mencionamos, puede ser del orden de 1x10-6 o
peor. En segundo lugar debemos considerar que el ancho de banda disponible es
en general menor al disponible en medio cableados. Una tercer componente es la
posible movilidad de los componentes de la red lo que puede implicar cambios
importantes en los tiempos de entrega de los segmentos. Finalmente, es común
que el protocolo de capa de Enlace y en particular de la sub-capa MAC así como
el protocolo de enrutamiento utilizado implique necesariamente tener un
overhead asociado a la movilidad y al aumento en la probabilidad de pérdida de
tramas o paquetes.
A los efectos de fijar ideas
podemos considerar como ejemplo de protocolo de sub-capa MAC a la familia de
estándares de IEEE para Wireless Local Area Network (WLAN) [26, 27, 28, 29,
30]. En ellos se especifica que para el envío de cada trama de datos en el modo
de operación Distributed Coordination Function (DCF) se emplee un método de
control de acceso al medio denominado carrier sense multiple access with
collision avoidance (CSMA/CA), protocolo que busca reducir la probabilidad de
colisiones entre múltiples estaciones a través del evitado de las mismas. A los
efectos de detectar portadora, además del mecanismo clásico de “escucha del
medio” (detección física de portadora) se realiza una detección virtual de
portadora utilizando four-way handshake, donde con dos tramas de control
(RTS:Request To Send y CTS: Clear To Send) se reserva el medio, luego se envía
la trama conteniendo los datos y posteriormente se espera una trama de control
ACK que confirma su recepción. Lo anterior es una muestra clara del overhead
involucrado, pero hasta aquí no hemos considerado la movilidad de las
estaciones. Durante la misma, una estación móvil puede estar asociada a una
estación base (BS) a través de la cual recibe las tramas que provienen por
ejemplo de la red cableada y unos milisegundos después, deberá estar asociada a
otra estación base a la cual la primera deberá enviar las tramas que tuviera
almacenadas para dicha estación.
5.4.1 El protocolo TCP/IP
El protocolo TCP/IP, es un
conjunto de reglas o normas que determinan cómo se realiza el intercambio de
datos entre dos ordenadores. Es quien se encarga de que los equipos puedan
“hablar” en un lenguaje común, independientemente del tipo que sea o del
sistema operativo que utilice (Windows NT, 95, 98 ó 2000, DOS, OS/2, Unix,
etc.). El protocolo que se usa en Internet desde sus propios orígenes es el
TCP/IP (Tranmission Control Protocol/Internet Protocol).
Este protocolo, funciona de la
siguiente forma, cuando se transfiere información de un ordenador a otro, por
ejemplo un fichero, un mensaje de correo electrónico o cualquier otro tipo de
datos, ésta no es transmitida de una sola vez, sino que se divide en paquetes
pequeños.
Esta técnica por paquetes,
posibilita que los recursos de la red no sean monopolizados por un sólo usuario
durante un intervalo de tiempo excesivo, siendo usual que por la red viajen
paquetes de información provenientes de diferentes ordenadores y con destinos
también diferentes.
El protocolo TCP se encarga de
dividir las informaciones en paquetes de tamaño adecuado, numerar estos
paquetes para que puedan volver a unirse en el lugar correcto y añadir cierta
información para la transmisión y posterior decodificación del paquete y
detectar posibles errores en la transmisión. Por su parte el protocolo IP
atiende todas las operaciones relacionadas con el encaminamiento de los
paquetes del origen al destino, encargándose de etiquetar cada paquete de
información con la dirección apropiada.
Este sistema de comunicación,
hace necesario que cada ordenador conectado a Internet tenga una dirección de
Internet (IP address) única y exclusiva que lo distingue de cualquier otro
ordenador en el mundo. Esta dirección o número IP se representa con cuatro
números separados por puntos, cada uno de los cuales puede tomar valores entre
0 y 255. Por ejemplo, la dirección IP del servidor web de la Red Telemática
Educativa "Averroes" es la siguiente: 150.214.90.20.
Por lo tanto, toda aplicación
de Internet necesita conocer la IP del ordenador con el que comunicarse,
nosotros, como usuarios no necesitamos disponer de esa información. Hay un
sistema de nombres más sencillo para referirse a una dirección, el sistema de
nombres por Dominio o DNS. Este sistema, consigue simplificar la identificación
de los recursos en la red, sin tener que memorizar las direcciones numéricas.
Por ejemplo el nombre de dominio del servidor web citado anteriormente es el
siguiente: averroes.cec.junta-andalucia.es
La identificación de cada uno
de los grupos de números es la siguiente:
5.4-- 4G (micro movilidad)
WiFi 4G multiplica por seis el
ancho de banda de las redes de tercera generación y por cinco el número de
usuarios por punto de acceso Según Gartner Group, a finales de 2011 el 70 por
ciento de los adaptadores y servicios de red serán Inalámbricos. Asimismo, la
cifra de negocio del mercado WLAN para redes corporativas superará los
3.200 millones de dólares este año, de los que el 35 por ciento corresponderán
a la zona EMEA.
En este contexto, aparece una
nueva tecnología WiFi bautizada por Gartner como ‘WiFi de Cuarta Generación’,
la cual supone un salto hacia adelante en el despliegue de redes inalámbricas y
ofrece una respuesta altamente eficientes en entornos complejos como son las
grandes corporaciones, Universidades y Escuelas, Aeropuertos, grandes
Hospitales, administraciones públicas, Industria, etc.
Los nuevos sistemas, que
mantienen su compatibilidad con las redes WiFi existentes y están certificados
por la WIFI Alliance, se basan en una arquitectura de celda única (single
cell), que permite anchos de banda de hasta 300 Mbps, un número prácticamente
ilimitado de usuarios, mayor cobertura y el acceso eficiente a aplicaciones que
reclaman elevadas capacidades de tráfico como son las transmisiones multimedia
y la Voz sobre IP.
WiFi 4GEl sistema single cell
mantiene estable la conexión a la red incluso en situaciones de alta movilidad,
elimina cualquier tipo de interferencias y requiere menos dispositivos de
acceso para ofrecer una, incluso, mayor cobertura.
Lo que aporta
Entre las novedades de WiFi 4G
destaca su soporte mejorado a todo tipo de dispositivos y aplicaciones: Smart
PDA, Móvil, Voz, Vídeo y Datos. Asimismo, garantiza el suministro de gran ancho
de banda para aplicaciones sensibles en tiempo real y la más Alta Calidad de
Servicio (QoS) para usuarios con tráfico pesado, entornos de gran densidad
(muchos usuarios accediendo a la red) y necesidades de alta movilidad. La nueva
arquitectura ofrece seguridad punto a punto en entornos distribuidos, facilita
la gestión simplificada para el control RF impredecible, garantiza la
disponibilidad total de aplicaciones WLAN de misión crítica y cuenta con
Soporte y Servicios 24x7x365.
Desde el punto de vista del
usuario, WiFi 4G ofrece una experiencia interactiva independientemente del
dispositivo, aplicación, densidad y movilidad. Y desde el punto de vista de las
TI, se consigue una Infraestructura WLAN predecible, efectiva, segura y de alto
rendimiento; una gestión RF simplificada, resolución de problemas acelerada,
WiFi 4Gmenos inversión y mayor rentabilidad y escalabilidad sin límites.
Las claves
Frente a la arquitectura
basada en micro celdas del WiFi de tercera generación, donde el dispositivo va
conectándose y desconectándose a los distintos ‘hot spots’, el nuevo WiFi, como
hemos dicho, utiliza una arquitectura ‘single cell’, donde todos esos
puntos de acceso trabajan en el mismo canal, de manera que el terminal no
pierde nunca la conexión y, además, se eliminan las interferencias que producen
los distintos puntos entre sí. La nueva arquitectura aumenta radicalmente el
rendimiento –throughput- y permite conseguir densidades extremas.
“En una red WiFi 4G, añadir un
punto de acceso es tan fácil como instalar una bombilla –aseguran los
portavoces de Meru Networks-; gracias a la arquitectura single channel la red
ofrece máxima potencia, mejor cobertura y movilidad total. Además, la red
suministra una conexión dedicada por cada dispositivo, garantiza a cada usuario
el servicio necesario y la Calidad de Servicio (QoS) por tipo de aplicación.
El WiFi 4G multiplica por seis el ancho de banda de las redes de tercera
generación y por cinco el número de usuarios por punto de acceso, reduciendo
radicalmente los costes de infraestructura.
5.3.4 Clases de servicio
ATM ha sido concebido como una
tecnología multiservicio. Debido a la presencia de una variedad de tipos de
tráfico y a la necesidad de asignar adecuadamente los recursos de la red para
cada componente de tráfico, es que han sido definidas las categorías de
servicio dentro de la capa ATM.
La introducción de nuevas
categorías de servicio ATM tiene como finalidad el incrementar los beneficios
de ATM, permitiendo que ésta tecnología sea adecuada para una gama de aplicaciones
ilimitada. Una red ATM puede proveer VPCs y VCCs con diferentes niveles de
servicio. La idea de negociar, para cada conexión, el comportamiento esperado
por la capa ATM en términos de tráfico y desempeño, permite a los
usuarios optimizar los requerimientos de la aplicación versus las capacidades
de la red. En otras palabras, las Categorías de Servicio permiten al
usuario el seleccionar combinaciones específicas de parámetros de tráfico y de
desempeño.
Las categorías de servicio ATM
han sido definidas por las organizaciones de estandarización ITU-T y
por el ATM Forum. La arquitectura de servicios provista en la capa ATM
consiste de cinco categorías de servicios, en donde cada categoría de servicio
está designada para un grupo particular de aplicaciones:
·
Constant Bit Rate (CBR)
·
Variable Bit Rate (VBR)
·
Variable Bit Rate-Real Time (rt-VBR)
·
Variable Bit Rate-Non Real Time (nrt-VBR)
·
(rt-VBR y nrt-VBR son definidas en el ATM Forum
Traffic Management Specification versión 4)
·
Available Bit Rate (ABR)
·
Unspecified Bit Rate (UBR)
·
Guaranteed Frame Rate (GFR)
Estas categorías se empleadas
para diferenciar entre diferentes tipos específicos de conexiones, en donde
cada una de las mismas posee unas características de tráfico y de parámetros
QoS particulares. En otras palabras, para conexiones CBR solo PCR y CDVT están
definidos.
A pesar de que ATM ofrece
altos estándares de calidad de servicio, diversas funcionalidades de acuerdo a
las necesidades del cliente y la mayoría de empresas de telecomunicaciones o
transmisiones de datos del medio la tienen en su implementación. Las redes ATM
han ido perdiendo presencia en el mercado a tal punto que la mayoría
las está cambiando hacia aplicaciones IP, obviamente los costos han
tenido mucho que ver en ese tema. Y a pesar que en este diseño se planteó
el uso de ATM en backbone por ventajas ya explicadas, se recomienda considerar
estudios económicos para migrar a las tendencias actuales, todo sobre IP o a su
vez redes MPLS.
Se recomienda ampliar este
servicio a todos los nodos que constituyen la infraestructura del carrier
extendiendo el servicio hacia una mayor cantidad de usuarios y zonas
interconectándose a través del anillo de fibra, en lo cual dependiendo de la
ubicación del usuario se escogerá la mejor ruta.
Para este fin se recomienda
analizar la distribución de los servidores, determinando si se
incorporan más equipos en un solo nodo o se decide usar arquitectura
distribuida, para evitar la saturación de tráfico en el backbone.
5.3.3 Arquitectura de un conmutador ATM
Los conmutadores ATM
incorporan técnicas de enrutamientos para todas las funciones de relevo de
celdas en la red. Cada celda ATM encuentra su camino a través de la estructura
de conmutación de la red usando información de enrutamiento que está en el
encabezado de la celda.
Un conmutador ATM acepta una
celda desde el medio de transmisión, realiza un chequeo de validación en el
dato del encabezado de la celda, lee la dirección , envía hacia el próximo
enlace en la red. Los conmutadores inmediatamente aceptan otra celda que puede
ser parte de la anterior y repiten el proceso.
El encabezado de la celda
suministra información de control a la capa de arquitectura ATM quien en
combinación con la capa física, provee servicios esenciales de comunicaciones
en una red ATM. Los conmutadores en ATM están sincronizados y se entrega una
celda a la salida en cada pulso de reloj.
Es preciso mantener la tasa de
perdidas de celdas baja. El orden de las celdas no se puede cambiar en un
circuito virtual. Si dos celdas quieren salir por la misma línea de salida en
el mismo ciclo, teniendo en cuenta que las celdas no se pueden descartar
podemos emplear una cola por cada línea de entrada o una cola por cada línea de
salida
Algunos de los enfoques para cumplir
estos requisitos son:
Conmutador Eliminatorio. Tiene
un bus de broadcast para cada línea de entrada. La activación de las
intersecciones determinan las líneas de salida, cada línea de salida tiene una
cola virtual. Un Concentrador escoge las celdas a descartar si llegan
demasiadas.
Conmutador Banyan. Conmutador
multietapa, que emplea microconmutadores para asignar a cada celda su puerto de
salida en función del valor binario de la salida.
Conmutador Batcher-Banyan. Es
un conmutador de etapas múltiples para las celdas. El conmutador Batcher ordena
las celdas que le van llegando según su destino final, emplea un módulo
hardware especial denominado “trap” para evitar que a un mismo conmutador
Banyan pasen celdas duplicadas (celdas con mismo destino), asegurando que solo
una celda pase por pulso para un destino .
Conectando múltiples
conmutadores podemos formar una gran red. Las conexiones entre nodos se realiza
en base a dos interfaces que son:
User t o Network Interface
(UNI).
Network to Network
Interface(NNI).
Para establecer una conexión
el host local a de solicitar a su switch local que establezca una conexión con
el destino, esta conexión puede ser de dos naturalezas:
Circuitos Virtuales Conmutados
(SVC).
Circuitos Virtuales
Permanentes (PVC).
5.3.2 Circuitos virtuales
ATM provee servicios orientados a la conexión. Para comunicarse
con un nodo remoto, un host debe solicitar a su switch local el establecimiento
de una conexión con el destino. Estas conexiones pueden ser de dos naturalezas:
Switched Virtual Circuits (SVC) o Permanent Virtual Circuits (PVC).
Switched Virtual Circuits (SVC)
Un
SVC opera del mismo modo que una llamada telefónica convencional. Un host se
comunica con el switch ATM local y requiere del mismo el establecimiento de un
SVC. El host especifica la dirección completa del nodo destino y la calidad del
servicio requerido. Luego espera que la red ATM establezca el circuito.
El
sistema de señalización de ATM se encarga de encontrar el path necesario desde
el host origen al host destino a lo largo de varios switches. El host remoto
debe aceptar el establecimiento de la conexión.
Durante
el proceso de señalización (toma este nombre por analogía con el usado en
sistemas telefónicos de los cuales deriva ATM) cada uno de los switches examina
el tipo de servicio solicitado por el host de origen. Si acuerda propagar
información de dicho host registra información acerca el circuito solicitado y
propaga el requerimiento al siguiente switch de la red.
Este
tipo de acuerdo reserva determinados recursos el switch para ser usados por el
nuevo circuito. Cuando el proceso de señalización concluye el switch local
reporta la existencia del SVC al host local y al host remoto.
La
interfase UNI identifica a cada uno de los SVC por medio de un número de 24
bits. Cuando un host acepta un nuevo SVC, el switch ATM local asigna al mismo
un nuevo identificador. Los paquetes transmitidos por la red no llevan
información de nodo origen ni nodo destino. El host marca a cada paquete
enviado con el identificador de circuito virtual necesario para llegar al nodo
destino.
Nótese
que se ha evitado hablar de los protocolos usados para el establecimiento de
los SVC, para los procesos de señalización y para comunicar a los hosts el
establecimiento de un nuevo SVC. Además hay que tener en cuenta que
comunicaciones bidireccionales van a necesitar reservar recursos a lo largo del
SVC para dos sentidos de comunicación.
Permanent Virtual Circuits (PVC)
La
alternativa al mecanismo de SVC descripto en el ítem anterior es evidente: el
administrador de la red puede configurar en forma manual los switches para
definir circuitos permanentes. El administrador identifica el nodo origen, el
nodo destino, la calidad de servicio y los identificadores de 24 bits para que
cada host pueda acceder al circuito.
5.3.1 Celdas ATM
El Modo de
Transferencia Asíncrono, un método de transporte flexible que puede adaptarse a
la voz, al vídeo y a los datos. Al igual que X.25 y frame relay, ATM dispone de
un mecanismo para conmutar unidades de datos a través de las redes. A
diferencia de estos protocolos de conmutación de paquetes, que transmiten
unidades de datos de tamaño variable, ATM opera con una unidad de datos de tamaño
fijo denominada celda. Al estandarizar el tamaño de la unidad de datos, la
eficiencia de los conmutadores aumenta significativamente. ATM es el
protocolo de transmisión de la RDSI-B (Red Digital de Servicios Integrados de
Banda Ancha) o B-ISDN. Es capaz de alcanzar velocidades de 155 Mbps, e incluso
de 600 Mbps.
Las redes de
tecnología ATM proporcionan tanto un transporte con Tasa de
Bit Constante (ej. para voz), como un transporte con Tasa de Bit Variable
(p.ej. para datos), utilizando de una forma eficiente el Ancho de Banda de la
red.
ATM se
basa en la Conmutación Rápida de Paquetes o Fast Packed Switching (FPS).
Campos de una
celda ATM
Una
celda ATM está formada por 53 bytes: 5 bytes de cabecera y 48 bytes de datos.
La cabecera de la celda ATM tiene los siguientes campos:
CFG (4 bits)
Control de
flujo. Sólo tiene sentido en el enlace de acceso Usuario-Red. Se utiliza para
asignar prioridades a las distintas celdas, según la información que
transporten.
VPI (8bits) /
VCI (16 bits)
Identificador de
conexión virtual. Permite identificar los enlaces que debe atravesar una celda
hasta llegar a su destino. Sólo tiene significado a nivel de enlace local, y
cambia a cada paso por un nodo de la red.
Asociado a
cada puerto entrante de un conmutador ATM hay una tabla de traducción o Header
Translation Table (HTT) que relaciona un puerto de salida y una celda entrante
mediante un nuevo identificador de conexión. Como resultado, las celdas de cada
línea pueden ser conmutadas independientemente a gran velocidad.
El VPI
(Virtual Path Identifier) etiqueta segmentos de Trayectos Virtuales (VP). Un
trayecto virtual es un canal de comunicación entre un origen y un destino a
través de una red ATM. Sobre un VP se pueden multiplexar los Canales Virtuales
o Virtual Channels (VC), que vienen identificados por el Identificador de Canal
Virtual o Virtual Channel Identifier (VCI).
PT (2 bits)
Permite
diferenciar entre la información de usuario, la de control y la de gestión.
Res. (1 bit)
Reservado para
implementaciones futuras.
CLP (1 bit)
Es un campo de
prioridad de pérdida. Si CLP=0 la prioridad es alta, y si CLP=1 es baja.
HEC (8 bits)
Control de error
de la cabecera.
Suscribirse a:
Entradas (Atom)