Cisco CCNA 92

Clasificado en Informática

Escrito el en español con un tamaño de 37,9 KB

9.4.1 Control de Acceso al Medio en Ethernet

En un entorno de medios compartidos, todos los dispositivos tienen acceso garantizado al medio, pero no tienen ninguna prioridad en dicho medio. Si más de un dispositivo realiza una transmisión simultáneamente, las señales físicas colisionan y la red debe recuperarse para que pueda continuar la comunicación.

Ethernet utiliza el acceso múltiple por detección de portadora y detección de colisiones (CSMA/CD) para detectar y manejar colisiones y para administrar la reanudación de las comunicaciones.

Cuando un dispositivo detecta que ninguna otra computadora está enviando una trama o una señal portadora, el dispositivo transmitirá en caso de que tenga algo para enviar.







  1. Detección de portadora

En el método de acceso CSMA/CD, todos los dispositivos de red que tienen mensajes para enviar deben escuchar antes de transmitir,si un dispositivo detecta una señal de otro dispositivo, esperará durante un período especificado antes de intentar transmitir.

Cuando no se detecte tráfico, un dispositivo transmitirá su mensaje. Mientras se lleva a cabo la transmisión, el dispositivo continúa escuchando para detectar tráfico o colisiones en la LAN. Una vez que se envía el mensaje, el dispositivo regresa a su modo de escucha predeterminado.


  1. Multiacceso

Como los medios son compartidos, puede ocurrir, que debido a la latencia 2 dispositivos transmitan a la vez, las señales se propagan por los medios hasta que se encuentran y se mezclan y el mensaje se destruye (colision de datos), pero la la señal sigue propagandose por los medios.


  1. Detección de colisiones

La detección de una colisión es posible porque todos los dispositivos pueden detectar un aumento de la amplitud de la señal por encima del nivel normal.

Una vez detectada la colisión, todos los dispositivos transmisores continuarán transmitiendo para garantizar que todos los dispositivos de la red detecten la colisión.


  1. Señal de congestión y postergación aleatoria

Cuando los dispositivos de transmisión detectan la colisión, envían una señal de congestión. Esta señal interferente se utiliza para notificar a los demás dispositivos sobre una colisión, de manera que éstos invocarán un algoritmo de postergación. Este algoritmo de postergación hace que todos los dispositivos dejen de transmitir durante un período aleatorio, lo que permite que las señales de colisión disminuyan. Una vez que finaliza el retraso asignado a un dispositivo, dicho dispositivo regresa al modo "escuchar antes de transmitir". El período de postergación aleatoria garantiza que los dispositivos involucrados en la colisión no intenten enviar su tráfico nuevamente al mismo tiempo, lo que provocaría que se repita todo el proceso.


Hub y dominios de colisiones

Los hubs, que también se conocen como repetidores multipuerto, retransmiten las señales de datos recibidas a todos los dispositivos conectados, excepto a aquél desde el cual se reciben las señales. Los hubs no desempeñan funciones de red tales como dirigir los datos según las direcciones.

Los hubs y los repetidores son dispositivos intermediarios que extienden la distancia que pueden alcanzar los cables de Ethernet. Debido a que los hubs operan en la capa física, ocupándose únicamente de las señales en los medios, pueden producirse colisiones entre los dispositivos que conectan y dentro de los mismos hubs.

Además, la utilización de hubs para proporcionar acceso a la red a una mayor cantidad de usuarios reduce el rendimiento para cada usuario, ya que debe compartirse la capacidad fija de los medios entre cada vez más dispositivos.

Dominio de colisiones o Segmento de Red

Los dispositivos conectados que tienen acceso a medios comunes a través de un hub o una serie de hubs conectados directamente.Por lo tanto, los hubs y repetidores tienen el efecto de aumentar el tamaño del dominio de colisiones. Es la zona de la red donde se ve la colision , en esta zona de la red se para la red, mientras que en el resto de dominios de colision la red sigue funcionando.






9.4.3 Temporizacion de Ethernet


  1. Latencia

El es tiempo que requiere una señal electrica para propagarse de un dispositivo a otro. Cada dispositivo intermediario (hub o repetidor) en la ruta de la señal agrega latencia a medida que envía los bits desde un puerto al siguiente.

Este retardo acumulado aumenta la probabilidad de que se produzcan colisiones.


  1. Temporización y sincronización

En modo half-duplex, si no se produce una colisión, el dispositivo emisor transmitirá 64 bits de información de sincronización de temporización, lo que se conoce como el Preámbulo. El dispositivo emisor transmitirá a continuación la trama completa.

La Ethernet con velocidades de transmisión (throughput) de 10 Mbps y menos es asíncrona. Una comunicación asíncrona en este contexto significa que cada dispositivo receptor utilizará los 8 bytes de información de temporización para sincronizar el circuito receptor con los datos entrantes y a continuación descartará los 8 bytes.

Las implementaciones de Ethernet con velocidades de transmisión (throughput) de

100 Mbps y más son síncronas (utilizan los cliclos del reloj para la sincronizacion). La comunicación síncrona significa que la información de temporización no es necesaria. Sin embargo, por razones de compatibilidad, los campos Preámbulo y Delimitador de inicio de trama (SFD) todavía están presentes.


  1. Tiempo de bit


Es el tiempo que esta presente un bit (es el tiempo para que un bit pueda colocarse y detectarse en el medio).

En Ethernet de 10 Mbps, un bit requiere de 100 nanosegundos (ns) para ser transmitido.

A 100 Mbps, ese mismo bit requiere de 10 ns para ser transmitido.

Y a 1000 Mbps, sólo se requiere 1 ns para transmitir un bit.

A 1000 Mbps, ajustes especiales son necesarios porque se suele transmitir una trama completa del tamaño mínimo antes de que el primer bit alcance el extremo de los primeros 100 metros de cable UTP. Por este motivo, no se permite el modo half-duplex en la Ethernet de 10 Gigabits.


Estas consideraciones de temporización deben aplicarse al espacio entre las tramas y a los tiempos de postergación para asegurar que cuando un dispositivo transmita su próxima trama, se ha reducido al mínimo el riesgo de que se produzca una colisión.


  1. Intervalo de tiempo

Es tl tiempo que le lleva a un impulso electrico recorrer la longitud de la distancia maxima teorica entre dos nodos.Tambien es el tiempo que espera un dispositivo antes de volver a transmitir despues de una colision.

En Ethernet half-duplex, donde los datos sólo pueden viajar en una dirección a la vez, el intervalo de tiempo se convierte en un parámetro importante para determinar cuántos dispositivos pueden compartir una red.

Para todas las velocidades de transmisión de Ethernet de o por debajo de 1000 Mbps, el estándar describe cómo una transmisión individual no puede ser menor que el intervalo de tiempo.


La determinación del intervalo de tiempo es una compensación entre la necesidad de reducir el impacto de la recuperación en caso de colisión (tiempos de postergación y retransmisión) y la necesidad de que las distancias de red sean lo suficientemente grandes como para adaptarse a tamaños razonables de red.

El compromiso fue elegir un diámetro de red máximo (2500 metros aproximadamente) para después establecer la longitud mínima de una trama que fuera suficiente como para garantizar la detección de todas las peores colisiones.


El intervalo de tiempo para Ethernet de 10 y 100 Mbps es de 512 tiempos de bit o 64 octetos. El intervalo de tiempo para Ethernet de 1000 Mbps es de 4096 tiempos de bit o 512 octetos.


  • El intervalo de tiempo es un parámetro importante por las siguientes razones:

El intervalo de tiempo de 512 bits establece el tamaño mínimo de una trama de Ethernet en 64 bytes. Cualquier trama con menos de 64 bytes de longitud se considera un "fragmento de colisión" o "runt frame" y las estaciones receptoras la descartan automáticamente.

  • El intervalo de tiempo determina un límite para el tamaño máximo de los segmentos

de una red. Si la red crece demasiado, pueden producirse colisiones tardías. La colisiones tardías se consideran una falla en la red, porque un dispositivo detecta la colisión demasiado tarde durante la transmisión de tramas y será manejada automáticamente mediante CSMA/CD.

El intervalo de tiempo real calculado es apenas mayor que la cantidad de tiempo teórica necesaria para realizar una transmisión entre los puntos de máxima separación de un dominio de colisión, colisionar con otra transmisión en el último instante posible y luego permitir que los fragmentos de la colisión regresen a la estación transmisora y sean detectados. Ver la figura.

Para que el sistema funcione correctamente, el primer dispositivo debe estar al tanto de la colisión antes de que termine de enviar la trama legal de menor tamaño.

Para que una Ethernet de 1000 Mbps pueda operar en modo half-duplex, se agregó a la trama el campo de extensión cuando se envían tramas pequeñas, con el sólo fin de mantener ocupado al transmisor durante el tiempo que sea necesario para que vuelva un fragmento de colisión. Este campo sólo se incluye en los enlaces en half-duplex de 1000 Mbps y permite que las tramas de menor tamaño duren el tiempo suficiente para satisfacer los requisitos del intervalo de tiempo. El dispositivo receptor descarta los bits de extensión.


9.4.4 Espacio entre tramas y postergacion


  1. Espacio entre tramas y postergacion

Es el espacio minimo entre dos tramas que no hayan sufrido una colision, esto otorga al medio tiempo para estabilizarse antes de la transmisión de la trama anterior y tiempo a los dispositivos para que procesen la trama.Se mide desde el último bit del campo FCS de una trama hasta el primer bit del Preámbulo de la próxima trama.

Una vez enviada la trama, todos los dispositivos de una red Ethernet deben esperar un mínimo de 96 tiempos de bit antes de que cualquier dispositivo pueda transmitir la siguiente trama.









  1. Señal de congestion

Tan pronto como se detecta una colisión, los dispositivos transmisores envían una señal de congestión de 32 bits que la impone. Esto garantiza que todos los dispositivos de la LAN detectarán la colisión.


Es importante que la señal de congestión no se detecte como una trama válida; de lo contrario, no podría identificarse la colisión.

Los mensajes corrompidos, transmitidos de forma parcial, generalmente se conocen como fragmentos de colisión o runts. Las colisiones normales tienen menos de 64 octetos de longitud y, por lo tanto, reprueban tanto la prueba de longitud mínima como la FCS, lo que facilita su identificación.


  1. Temporizacion de postergacion

Una vez producida la colisión y que todos los dispositivos permitan que el cable quede inactivo (cada uno espera que se cumpla el espacio completo entre tramas), los dispositivos cuyas transmisiones sufrieron la colisión deben esperar un período adicional, y cada vez potencialmente mayor, antes de intentar la retransmisión de la trama que sufrió la colisión.

El período de espera está intencionalmente diseñado para que sea aleatorio de modo que dos estaciones no demoren la misma cantidad de tiempo antes de efectuar la retransmisión, lo que causaría colisiones adicionales. El período de espera se mide en incrementos del intervalo de tiempo del parámetro.

Si la congestión en los medios provoca que la capa MAC no pueda enviar la trama después de 16 intentos, abandona el intento y genera un error en la capa de Red, aunque es raro que suceda esto.


9.5.1 Descripcion general de la capa fisica de Ethernet

Las diferencias que existen entre Ethernet estándar, Fast Ethernet, Gigabit Ethernet y 10 Gigabit Ethernet tienen lugar en la capa física, generalmente denominada Ethernet PHY.


Actualmente, se definen cuatro velocidades de datos para el funcionamiento con cables de fibra óptica y de par trenzado:

  • 10 Mbps - Ethernet 10Base-T

  • 100 Mbps - Fast Ethernet

  • 1000 Mbps - Gigabit Ethernet

  • 10 Gbps - 10 Gigabit Ethernet

as principales implementaciones de 10 Mbps de Ethernet incluyen:

10BASE5 con cable coaxial Thicknet

10BASE2 con cable coaxial Thinnet

10BASE-T con cable de par trenzado no blindado Cat3/Cat5


Las primeras implementaciones de Ethernet, 10BASE5 y 10BASE2 utilizaban cable coaxial en un bus físico. Dichas implementaciones ya no se utilizan y los más recientes estándares 802.3 no las admiten.


  1. Ethernet de 10 Mbps - 10BASE-T

La 10BASE-T utiliza la codificación Manchester para dos cables de par trenzado no blindado.

Utiliza el cableado Cat5 o superior , utiliza una topología en estrella física y puede tener hasta 100 metros de longitud antes de que requieran un hub o repetidor, puede admitir half-duplex y full-duplex

La 10BASE-T utiliza dos pares de cables de cuatro pares y finaliza en cada extremo con un conector RJ-45 de 8 pins. El par conectado a los pins 1 y 2 se utiliza para transmitir y el par conectado a los pins 3 y 6 se utiliza para recibir.


  1. 100 Mbps - Fast Ethernet


  • 100BASE-TX con UTP Cat5 o mayor

Utiliza la codificacion 4B5B, puede ir sobre dos hilos de cable de cobre de Cat 5 o superior, se conecta como estrella física, aunque a diferencia de la 10-BASE-T, las redes 100BASE-TX utilizan generalmente un switch en el centro de la estrella en vez de un hub. Según el medio puede ser half-duplex o full-duplex.


  • 100BASE-FX con cable de fibra óptica

Utiliza la codificacion 4B5B, utiliza el medio de fibra óptica en vez de cobre UTP. Si bien los procedimientos de codificación, decodificación y recuperación de reloj son los mismos para ambos medios, la transmisión de señales es diferente: pulsos eléctricos en cobre y pulsos de luz en fibra óptica. Las implementaciones de fibra son conexiones punto a punto, es decir, se utilizan para interconectar dos dispositivos.


  1. 1000 Mbps - Gigabit Ethernet

Los bits se vuelven mas susceptibles al ruido, la cuestion del rendimiento se basa en la velocidad de la interfaz NIC.A estas mayores velocidades, la codificación y decodificación de datos es más compleja, por eso utiliza dos distintos pasos de codificación. La transmisión de datos es más eficiente cuando se utilizan códigos para representar el stream binario de bits. La codificación de datos permite la sincronización, el uso eficiente del ancho de banda y características mejoradas de relación entre señal y ruido.


  • Ethernet 1000BASE-T

A mayor velocidad mayor susceptibilidad al ruido.

La Ethernet 1000BASE-T brinda una transmisión full-duplex utilizando los cuatro pares de cable UTP Categoría 5 o superior. La Gigabit Ethernet por cables de cobre permite un aumento de 100 Mbps por par de cable a 125 Mbps por par de cable o 500 Mbps para los cuatro pares. Cada par de cable origina señales en full-duplex, lo que duplica los 500 Mbps a 1000 Mbps.


La 1000BASE-T utiliza codificación de línea 4D-PAM5 para obtener un throughput de datos de 1 Gbps. Este esquema de codificación permite señales de transmisión en cuatro pares de cables simultáneamente.

La 1000BASE-T permite la transmisión y recepción de datos en ambas direcciones (en el mismo cable y al mismo tiempo). Este flujo de tráfico crea colisiones permanentes en los pares de cables. Los circuitos híbridos que detectan las señales utilizan técnicas sofisticadas tales como la cancelación de eco, la corrección del error de envío de Capa 1 (FEC) y una prudente selección de los niveles de voltaje. Al utilizar dichas técnicas, el sistema alcanza un throughput de 1 Gigabit.


A diferencia de la mayoría de las señales digitales, en las que generalmente se encuentra un par de niveles de voltaje discretos, la 1000BASE-T utiliza muchos niveles de voltaje ( En una transmision se pueden encontrar hasta 17 niveles de voltaje en el cable)









  • Ethernet 1000BASE-SX y 1000BASE-LX por fibra óptica


Las versiones de fibra óptica de la Gigabit Ethernet (1000BASE-SX y 1000BASE-LX) ofrecen las siguientes ventajas sobre el UTP: inmunidad al ruido, tamaño físico pequeño y distancias y ancho de banda aumentados y sin repeticiones, admiten la transmisión binaria full-duplex a 1250 Mbps en dos hebras de fibra óptica. La codificación de la transmisión se basa en el esquema de codificación 8B/10B. Debido al gasto de esta codificación, la velocidad de transferencia de datos sigue siendo 1000 Mbps. Las principales diferencias entre las versiones de fibra de 1000BASE-SX y 1000BASE-LX son los medios de enlace, los conectores y la longitud de onda de la señal óptica.

Ethernet de 10 Gigabits (10GbE) está evolucionando para poder utilizarse no sólo en LAN sino también en WAN y MAN.



9.6.1 Utilizacion del Hub (redes Antiguas)

En Ethernet clasica, se utilizaba hubs para interconectar nodos al segmento de LAN, como en ethern debido a que los hub no realizan ningun tipo de filtro (reembian todos los bits que le llegan a todos los dispositivos ).

En secciones anteriores, vimos cómo la Ethernet clásica utiliza medios compartidos y control de acceso al medio basado en contenciones esto origina a menudo grandes niveles de colisiones en la LAN. Las implementaciones de Ethernet con hubs se utilizan generalmente en la actualidad en LAN pequeñas o LAN con pocos requisitos de ancho de banda.


  • Escalabilidad

En una red con hubs, existe un límite para la cantidad de ancho de banda que los dispositivos pueden compartir. Con cada dispositivo que se agrega al medio compartido, el ancho de banda promedio disponible para cada dispositivo disminuye.


  • Latencia

La latencia de la red es la cantidad de tiempo que le lleva a una señal llegar a todos los destinos del medio. La latencia puede aumentar notablemente a medida que la distancia entre los nodos se extiende. La latencia también se ve afectada por un retardo de la señal en los medios, como así también por el retardo añadido por el procesamiento de las señales mediante hubs y repetidores. El aumento de la longitud de los medios o de la cantidad de hubs y repetidores conectados a un segmento origina una mayor latencia. A mayor latencia, mayor probabilidad de que los nodos no reciban las señales iniciales, lo que aumenta las colisiones presentes en la red.


  • Falla de red

Debido a que comparte los medios, cualquier dispositivo de la red puede potencialmente ocasionar problemas para otros dispositivos. Si cualquier dispositivo conectado al hub genera tráfico perjudicial, puede verse impedida la comunicación de todos los dispositivos del medio.


  • Colisiones

Cualquier parte de la red en donde los paquetes de dos o más nodos puedan interferir entre ellos se considera como un dominio de colisiones. Una red con una gran cantidad de nodos en el mismo segmento tiene un dominio de colisiones mayor y, generalmente, más tráfico. A medida que aumenta la cantidad de tráfico en la red, aumentan las posibilidades de colisión.





9.6.2 Utilizacion de los switch

Los switches permiten la segmentación de la LAN en distintos dominios de colisiones. Cada puerto de un switch representa un dominio de colisiones distinto y brinda un ancho de banda completo al nodo o a los nodos conectados a dicho puerto. Con una menor cantidad de nodos en cada dominio de colisiones, se produce un aumento en el ancho de banda promedio disponible para cada nodo y se reducen las colisiones.

En una LAN en la que se conecta un hub a un puerto de un switch, todavía existe un ancho de banda compartido, lo que puede producir colisiones dentro del entorno compartido del hub. Sin embargo, el switch aislará el segmento y limitará las colisiones para el tráfico entre los puertos del hub.

Los nodos se conectan directamente


En una LAN en la que todos los nodos están conectados directamente al switch, el throughput de la red aumenta notablemente. Las tres razones son:

Estas topologías físicas en estrella son esencialmente enlaces punto a punto.


a) Ancho de banda dedicado a cada puerto

Cada nodo dispone del ancho de banda de los medios completo en la conexión entre el nodo y el switch. Debido a que un hub replica las señales que recibe y las envía a todos los demás puertos, los hubs de Ethernet clásica forman un bus lógico. Esto significa que todos los nodos deben compartir el mismo ancho de banda para este bus. Con los switches, cada dispositivo tiene una conexión punto a punto dedicada entre el dispositivo y el switch, sin contención de medios.


b) Entorno libre de colisiones

Una conexión punto a punto dedicada a un switch también evita contenciones de medios entre dispositivos, lo que permite que un nodo funcione con pocas colisiones o ninguna colisión. En una red Ethernet clásica de tamaño moderado que utiliza hubs, aproximadamente entre el 40% y el 50% del ancho de banda se consume en la recuperación por colisiones. En una red Ethernet con switch, en la que prácticamente no hay colisiones, el gasto destinado a la recuperación por colisiones se elimina casi por completo. Esto le ofrece a la red con switches tasas de throughput significativamente mejoradas.


c) Funcionamiento full-duplex

La utilización de switches también le permite a una red funcionar como entorno de Ethernet full-duplex. Antes de que existieran los switches, la Ethernet sólo era half-duplex. Esto implicaba que en un momento dado un nodo podía transmitir o recibir.


Existen tres razones por las que los hubs siguen utilizándose: - Disponibilidad: los switches de LAN no se desarrollaron hasta comienzos de la década de 1990.

- Económicas. En un principio, los switches resultaban bastante costosos.

- Requisitos: Las primeras redes LAN eran redes simples diseñadas para intercambiar archivos y compartir impresoras sin grandes necesidades.


9.6.3 Switches Reenvio Selectivo

Los switches Ethernet reenvían selectivamente tramas individuales desde un puerto receptor hasta el puerto en el que esté conectado el nodo de destino. Este proceso de reenvío selectivo puede pensarse como la posibilidad de establecer una conexión punto a punto momentánea entre los nodos de transmisión y recepción. La conexión se establece sólo durante el tiempo suficiente como para enviar una sola trama. Durante este instante, los dos nodos tienen una conexión de ancho de banda completa entre ellos y representan una conexión lógica punto a punto.

Para ser más precisos en términos técnicos, esta conexión temporaria no se establece entre los dos nodos de manera simultánea. Básicamente, esto hace que la conexión entre los hosts sea una conexión punto a punto. De hecho, cualquier nodo que funcione en modo full-duplex puede transmitir en cualquier momento que tenga una trama, independientemente de la disponibilidad del nodo receptor. Esto sucede porque un switch LAN almacena una trama entrante en la memoria búfer y después la envía al puerto correspondiente cuando dicho puerto está inactivo. Este proceso se denomina almacenar y enviar.

Con la conmutación almacenar y enviar, el switch recibe la trama completa, controla el FSC en busca de errores y reenvía la trama al puerto indicado para el nodo de destino. Debido a que los nodos no deben esperar a que el medio esté inactivo, los nodos pueden enviar y recibir a la velocidad completa del medio sin pérdidas ocasionadas por colisiones o el gasto asociado con la administración de colisiones.


El reenvío se basa en la MAC de destino.

El switch mantiene una tabla, denominada tabla MAC que hace coincidir una dirección MAC de destino con el puerto utilizado para conectarse a un nodo. Para cada trama entrante, la dirección MAC de destino en el encabezado de la trama se compara con la lista de direcciones de la tabla MAC. Si se produce una coincidencia, el número de puerto de la tabla que se asoció con la dirección MAC se utiliza como puerto de salida para la trama.


La tabla MAC puede denominarse "tabla de switch" o"tabla del puente".


Funcionamiento del switch

Para lograr su fin, los switches LAN Ethernet realizan cinco operaciones básicas:


a) Aprendizaje

La tabla MAC debe llenarse con las direcciones MAC de los dispositivos conectados y sus puertos correspondientes. El proceso de aprendizaje permite que estos mapeos se adquieran dinámicamente durante el funcionamiento normal.

A medida que cada trama ingresa al switch, el switch analiza la dirección MAC de origen. Mediante un proceso de búsqueda, el switch determina si la tabla ya contiene una entrada para esa dirección MAC. Si no existe ninguna entrada, el switch crea una nueva entrada en la tabla MAC utilizando la dirección MAC de origen y asocia la dirección con el puerto en el que llegó la entrada. Ahora, el switch puede utilizar este mapeo para reenviar tramas a este nodo.


b) Actualización

Las entradas de la tabla MAC que se adquirieron mediante el proceso de Aprendizaje reciben una marca horaria. La marca horaria se utiliza como instrumento para eliminar las entradas antiguas de la tabla MAC. Después de que se crea una entrada en la tabla MAC, un proceso comienza una cuenta regresiva utilizando la marca horaria como el valor inicial. Una vez que el valor alcanza 0, la entrada de la tabla se actualizará la próxima vez que el switch reciba una trama de ese nodo en el mismo puerto.


c) Flooding

Si el switch no sabe a qué puerto enviar una trama porque la dirección MAC de destino no se encuentra en la tabla MAC, el switch envía la trama a todos los puertos, excepto al puerto en el que llegó la trama. El proceso que consiste en enviar una trama a todos los segmentos se denomina inundación. El switch no reenvía la trama al puerto en el que llegó la trama porque cualquier destino de ese segmento ya habrá recibido la trama. La inundación también se utiliza para tramas que se envían a la dirección MAC de broadcast.


d) Reenvío selectivo

El reenvío selectivo es el proceso por el cual se analiza la dirección MAC de destino de una trama y se la reenvía al puerto correspondiente. Ésta es la función principal del switch. Cuando una trama de un nodo llega al switch y el switch ya aprendió su dirección MAC, dicha dirección se hace coincidir con una entrada de la tabla MAC y la trama se reenvía al puerto correspondiente. En lugar de saturar la trama hacia todos los puertos, el switch envía la trama al nodo de destino a través del puerto indicado. Esta acción se denomina reenvío..


e) Filtrado

En algunos casos, la trama no se reenvía. Uno de los usos del filtrado ya se describió: un switch no reenvía una trama al mismo puerto en el que llega. El switch también descartará una trama corrupta. Si una trama no aprueba la verificación CRC, dicha trama se descarta. Otra razón por la que una trama se filtra es por motivos de seguridad. Un switch tiene configuraciones de seguridad para bloquear tramas hacia o desde direcciones MAC selectivas o puertos específicos.


9.7.1 El proceso ARP. Mapeo de direcciones IP a direcciones MAC

El protocolo ARP ofrece dos funciones básicas:


Resolución de direcciones IPv4 a direcciones MAC

Para que una trama se coloque en los medios de la LAN, debe contar con una dirección MAC de destino. Cuando se envía un paquete a la capa de Enlace de datos para que se lo encapsule en una trama, el nodo consulta una tabla en su memoria para encontrar la dirección de la capa de Enlace de datos que se mapea a la dirección IPv4 de destino. Esta tabla se denomina tabla ARP o caché ARP. La tabla ARP se almacena en la RAM del dispositivo.

Cada entrada de la tabla ARP tiene una dirección IP y una dirección MAC. La relación entre los dos valores se denomina mapa, que sirve para asociar una dirección IP la dirección MAC correspondiente.

Para comenzar el proceso, un nodo transmisor intenta localizar en la tabla ARP la dirección MAC mapeada a un destino IPv4. Si este mapa está almacenado en la tabla, el nodo utiliza la dirección MAC como la MAC de destino en la trama que encapsula el paquete IPv4. La trama se codifica entonces en los medios de la red.


Mantenimiento de una tabla ARP

La tabla ARP se mantiene dinámicamente. Existen dos maneras en las que un dispositivo puede reunir direcciones MAC.

- Monitorear el tráfico que se produce en el segmento de la red local. A medida que un nodo recibe tramas de los medios, puede registrar las direcciones IP y MAC de origen como mapeos en la tabla ARP.

- Emitir una solicitud de ARP. El ARP envía un broadcast de Capa 2 a todos los dispositivos de la LAN Ethernet. La trama contiene un paquete de solicitud de ARP con la dirección IP del host de destino. El nodo que recibe la trama y que identifica la dirección IP como si fuera la suya responde enviando un paquete de respuesta de ARP al emisor como una trama unicast. Esta respuesta se utiliza entonces para crear una entrada nueva en la tabla ARP.

Estas entradas dinámicas de la tabla MAC tienen una marca horaria similar a la de las entradas de la tabla MAC en los switches. Si un dispositivo no recibe una trama de un determinado dispositivo antes de que venza la marca horaria, la entrada para este dispositivo se elimina de la tabla ARP.

Además, pueden ingresarse entradas estáticas de mapas en una tabla ARP,estas caducan cuando pasa el tiempo y deben eliminarse en forma manual.


Creación de la trama

¿Qué hace un nodo cuando debe crear una trama y la caché ARP no contiene un mapa de una dirección IP hacia una dirección MAC de destino? Cuando el ARP recibe una solicitud para mapear una dirección IPv4 a una dirección MAC, busca el mapa almacenado en su tabla ARP. Si no encuentra la entrada, la encapsulación del paquete IPv4 no se realiza y los procesos de Capa 2 notifican al ARP que necesita un mapa.Los procesos ARP envían entonces un paquete de solicitud de ARP para descubrir la dirección MAC del dispositivo de destino de la red local. Si un dispositivo que recibe la solicitud tiene la dirección IP de destino, responde con una respuesta ARP. Se crea un mapa en la tabla ARP. Los paquetes para esa dirección IPv4 pueden ahora encapsularse en tramas.

Si ningún dispositivo responde a la solicitud de ARP, el paquete se descarta porque no puede crearse una trama. Esta falla de encapsulación se informa a las capas superiores del dispositivo.


Destinos fuera de la red local

Todas las tramas deben enviarse a un nodo de un segmento de la red local. Si el host IPv4 de destino se encuentra en la red local, la trama utilizará la dirección MAC de este dispositivo como la dirección MAC de destino.

Si el host IPv4 de destino no se encuentra en la red local, el nodo de origen necesita enviar la trama a la interfaz del router que es el gateway o el siguiente salto que se utiliza para llegar a dicho destino. El nodo de origen utilizará la dirección MAC del gateway como dirección de destino para las tramas que contengan un paquete IPv4 dirigido a hosts que se encuentren en otras redes.

La dirección de gateway de la interfaz del router se almacena en la configuración IPv4 de los hosts. Cuando un host crea un paquete para un destino, compara la dirección IP de destino con su propia dirección IP para determinar si las dos direcciones IP se encuentran en la misma red de Capa 3. Si el host receptor no se encuentra en la misma red, el origen utiliza el proceso de ARP para determinar una dirección MAC para la interfaz del router que sirve de gateway.

En caso de que la entrada de gateway no se encuentre en la tabla, el proceso de ARP normal enviará una solicitud de ARP para recuperar la dirección MAC asociada con la dirección IP de la interfaz del router.


Haga clic en los números de pasos que aparecen en la figura para ver el proceso que se utiliza para obtener la dirección MAC del gateway.


ARP proxy


Hay ocasiones en las que un host puede enviar una solicitud de ARP con el objetivo de mapear una dirección IPv4 fuera del alcance de la red local. En estos casos, el dispositivo envía solicitudes de ARP para direcciones IPv4 que no se encuentran en la red local en vez de solicitar la dirección MAC asociada a la dirección IPv4 del gateway. Para proporcionar una dirección MAC para estos hosts, una interfaz de router puede utilizar un ARP proxy para responder en nombre de estos hosts remotos. Esto significa que la caché de ARP del dispositivo solicitante contendrá la dirección MAC del gateway mapeada a cualquier dirección IP que no se encuentre en la red local. Con el proxy ARP, una interfaz de router actúa como si fuera el host con la dirección IPv4 solicitada por la solicitud de ARP. Al "simular" su identidad, el router acepta la responsabilidad de enrutar paquetes al destino "real".


Eliminacion de mapeados de direcciones

Para cada dispositivo, un temporizador de caché de ARP elimina las entradas ARP que no se hayan utilizado durante un período de tiempo especificado. Los tiempos difieren dependiendo del dispositivo y su sistema operativo. También se utilizan comandos para eliminar manualmente todas o algunas de las entradas de la tabla ARP. Después de eliminar una entrada, el proceso para enviar una solicitud de ARP y recibir una respuesta ARP debe ocurrir nuevamente para ingresar el mapa en la tabla ARP.


Sobrecarga en los medios

Todos los dispositivos de la red local reciben y procesan una solicitud de ARP debido a que es una trama de broadcast. En una red comercial típica, estos broadcasts tendrían probablemente un impacto mínimo en el rendimiento de la red. Sin embargo, si un gran número de dispositivos se encendiera y todos comenzaran a acceder a los servicios de la red al mismo tiempo, podría haber una disminución del rendimiento durante un período de tiempo breve.

Sin embargo, una vez que los dispositivos envían los broadcasts de ARP iniciales y que aprenden las direcciones MAC necesarias, se minimizará todo impacto en la red.


Seguridad

. La suplantación ARP o el envenenamiento ARP es una técnica que utiliza un atacante para introducir una asociación de direcciones MAC incorrecta en una red emitiendo solicitudes de ARP falsas. Un atacante falsifica la dirección MAC de un dispositivo y a continuación pueden enviarse tramas al destino equivocado.


La configuración manual de asociaciones ARP estáticas es una manera de evitar el ARP spoofing. Las direcciones MAC autorizadas pueden configurarse en algunos dispositivos de red para que limiten el acceso a la red para sólo los dispositivos indicados.






Entradas relacionadas: