domingo, 26 de junio de 2016

Exposición Fundamento de las Telecomunicaciones

Ethernet, VLan & STP

Ethernet:

Hasta este punto del curso, cada capítulo se ha concentrado en las diferentes funciones de cada una de las capas de los modelos OSI y del protocolo TCP/IP, y en cómo se utilizan los protocolos para lograr la comunicación de red. Estos análisis hacen referencia constantemente a diversos protocolos clave (TCP, UDP e IP), ya que brindan las bases sobre cómo funcionan actualmente desde la red más pequeña hasta la red más grande, la Internet. Estos protocolos comprenden el stack de protocolos TCP/IP y, dado que la Internet se creó utilizando dichos protocolos, Ethernet es en la actualidad la tecnología LAN preponderante a nivel mundial.



El Grupo de trabajo de ingeniería de Internet (IETF) mantiene los protocolos y servicios funcionales para la suite de protocolos TCP/IP de las capas superiores. Sin embargo, diversas organizaciones especializadas en ingeniería (IEEE, ANSI, ITU) o empresas privadas (protocolos propietarios) describen los protocolos y servicios funcionales de la capa de enlace de datos y la capa física del modelo OSI. Dado que Ethernet se compone de estándares en estas capas inferiores, puede decirse que en términos generales se entiende mejor con referencia al modelo OSI. El modelo OSI separa las funcionalidades de la capa de enlace de datos de direccionamiento, entramado y acceso a los medios desde los estándares de la capa física de los medios. Los estándares de Ethernet definen los protocolos de capa 2 y las tecnologías de capa 1. Si bien las especificaciones de Ethernet admiten diferentes medios, anchos de banda y otras variaciones de capas 1 y 2, el formato de trama básico y el esquema de direcciones son los mismos para todas las variedades de Ethernet.

Este capítulo analiza las características y el funcionamiento de la Ethernet en términos de su evolución desde una tecnología de medios compartidos de comunicación de datos basada en contenciones, hasta convertirse en la actual tecnología full-duplex de gran ancho de banda.
Objetivos de aprendizaje
Al completar este capítulo, usted podrá:
Describir la evolución de Ethernet
Explicar los campos de la trama de Ethernet
Describir la función y las características del método de control de acceso a los medios que
utiliza el protocolo Ethernet
Describir las funciones de la capa física y de la capa de enlace de datos de Ethernet
Comparar y contrastar los hubs y switches de Ethernet
Explicar el Protocolo de resolución de direcciones (ARP)


9.1 Descripción general de Ethernet
9.1.1 Ethernet: Estándares e implementación Estándares IEEE

La primera LAN del mundo fue la versión original de Ethernet. Robert Metcalfe y sus compañeros de Xerox la diseñaron hace más de treinta años. El primer estándar de Ethernet fue publicado por un consorcio formado por Digital Equipment Corporation, Intel y Xerox (DIX). Metcalfe quería que Ethernet fuera un estándar compartido a partir del cual todos se pudieran beneficiar, de modo que se lanzó como estándar abierto. Los primeros productos que se desarrollaron a partir del estándar de Ethernet se vendieron a principios de la década de 1980.

En 1985 el comité de estándares para Redes Metropolitanas y Locales del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) publicó los estándares para las LAN. Estos estándares comienzan con el número 802. El estándar para Ethernet es el 802.3. El IEEE quería asegurar que sus estándares fueran compatibles con los del modelo OSI de la Organización Internacional para la Estandarización (ISO). Para garantizar la compatibilidad, los estándares IEEE 802.3 debían cubrir las necesidades de la capa 1 y de las porciones inferiores de la capa 2 del modelo OSI. Como resultado, ciertas pequeñas modificaciones al estándar original de Ethernet se efectuaron en el 802.3.

Ethernet opera en las dos capas inferiores del modelo OSI: la capa de enlace de datos y la capa física. 9.1.2 Ethernet: Capa 1 y capa 2 Ethernet opera a través de dos capas del modelo OSI. El modelo proporciona una referencia con la cual puede relacionarse Ethernet, pero en realidad se implementa sólo en la mitad inferior de la capa de enlace de datos, que se conoce como subcapa de Control de acceso al medio (MAC), y en la capa física. Ethernet en la capa 1 implica señales, streams de bits que se transportan en los medios, componentes físicos que transmiten las señales a los medios y distintas topologías. La capa 1 de Ethernet tiene un papel clave en la comunicación que se produce entre los dispositivos, pero cada una de estas funciones tiene limitaciones.

Como se muestra en la figura, Ethernet en la capa 2 se ocupa de estas limitaciones. Las subcapas de enlace de datos contribuyen significativamente a la compatibilidad de tecnología y la comunicación con la computadora. La subcapa MAC se ocupa de los componentes físicos que se utilizarán para comunicar la información, y prepara los datos para transmitirlos a través de los medios. La subcapa Control de enlace lógico (LLC) sigue siendo relativamente independiente del equipo físico que se utilizará para el proceso de comunicación.

9.1.3 Control de enlace lógico: Conexión con las capas superiores
Ethernet separa las funciones de la capa de enlace de datos en dos subcapas diferenciadas: la
subcapa Control de enlace lógico (LLC) y la subcapa Control de acceso al medio (MAC). Las funciones descritas en el modelo OSI para la capa de enlace de datos se asignan a las subcapas LLC y MAC. La utilización de dichas subcapas contribuye notablemente a la compatibilidad entre diversos dispositivos finales. Para Ethernet, el estándar IEEE 802.2 describe las funciones de la subcapa LLC y el estándar 802.3 describe las funciones de la subcapa MAC y de la capa física. El control de enlace lógico se encarga de la comunicación entre las capas superiores y el software de red, y las capas inferiores, que generalmente es el hardware. La subcapa LLC toma los datos del protocolo de la red, que casi siempre son un paquete IPv4, y agrega información de control para ayudar a entregar el paquete al nodo de destino. La capa 2 establece la comunicación con las capas superiores a través del LLC.

El LLC se implementa en el software, y su implementación no depende del equipo físico. En una computadora, el LLC puede considerarse como el controlador de la Tarjeta de interfaz de red (NIC). El controlador de la NIC es un programa que interactúa directamente con el hardware en la NIC para pasar los datos entre los medios y la subcapa de Control de acceso al medio (MAC).

Enlaces
http:/ /standards. ieee. org/ getieee802/ download/ 802. 2-1998. pdf
http:/ /standards. ieee. org/ regauth/ llc/ llctutorial. html
http:/ /www. wildpackets. com/ support/ compendium/ reference/ sap_numbers
9.1.4 MAC: Envío de datos a los medios
El Control de acceso al medio (MAC) es la subcapa de Ethernet inferior de la capa de enlace de
datos. El hardware implementa el control de acceso al medio, generalmente en la tarjeta de interfaz de red (NIC) de la computadora.

La subcapa MAC de Ethernet tiene dos responsabilidades principales:
Encapsulación de datos
Control de acceso al medio
Encapsulación de datos
La encapsulación de datos proporciona tres funciones principales:
Delimitación de tramas
Direccionamiento
Detección de errores
El proceso de encapsulación de datos incluye el armado de la trama antes de la transmisión, y el análisis de la trama al momento de recibirla. Cuando forma una trama, la capa MAC agrega un encabezado y un tráiler a la PDU de capa 3. La utilización de tramas facilita la transmisión de bits a medida que se colocan en los medios, y la agrupación de bits en el nodo receptor.
El proceso de entramado proporciona delimitadores importantes que se utilizan para identificar

un grupo de bits que componen una trama. Este proceso ofrece una sincronización entre los nodos transmisores y receptores. El proceso de encapsulación también proporciona el direccionamiento de la capa de enlace de datos. Cada encabezado Ethernet agregado a la trama contiene la dirección física (dirección MAC) que permite que la trama se envíe a un nodo de destino. Una función adicional de la encapsulación de datos es la detección de errores. Cada trama de Ethernet contiene un tráiler con una comprobación cíclica de redundancia (CRC) de los contenidos de la trama. Una vez que se recibe una trama, el nodo receptor crea una CRC para compararla con la de la trama. Si estos dos cálculos de CRC coinciden, puede asumirse que la trama se recibió sin errores. Control de acceso al medio
La subcapa MAC controla la colocación de tramas en los medios y el retiro de tramas de los medios. Como su nombre lo indica, se encarga de administrar el control de acceso al medio. Esto incluye el inicio de la transmisión de tramas y la recuperación por fallo de transmisión debido a colisiones. 188 CCNA Exploration. Aspectos básicos de Networking, Versión 4.0 Topología lógica La topología lógica subyacente de Ethernet es un bus de multiacceso. Esto significa que todos los nodos (dispositivos) en ese segmento de red comparten el medio. Esto implica, además, que todos los nodos de ese segmento reciben todas las tramas transmitidas por cualquier nodo de dicho segmento. Debido a que todos los nodos reciben todas las tramas, cada nodo debe determinar si debe aceptar y procesar una determinada trama. Esto requiere analizar el direccionamiento en la trama proporcionado por la dirección MAC.

Ethernet ofrece un método para determinar la manera en que los nodos comparten el acceso al medio. El método de control de acceso a los medios para Ethernet clásica es el Acceso múltiple con detección de portadora con detección de colisiones (CSMA/CD). Este método se describe más adelante en este capítulo.
Enlaces
http:/ /standards. ieee. org/ regauth/ groupmac/ tutorial. html

9.1.5 Implementaciones físicas de Ethernet
La mayor parte del tráfico en Internet se origina y termina en conexiones de Ethernet. Desde su inicio en la década de 1970, Ethernet ha evolucionado para satisfacer la creciente demanda de LAN de alta velocidad. Cuando se introdujo el medio de fibra óptica, Ethernet se adaptó a esta nueva tecnología para aprovechar el mayor ancho de banda y el menor índice de error que ofrece la fibra. Actualmente, el mismo protocolo que transportaba datos a tres Mbps puede transportar datos a 10 Gbps.

El éxito de Ethernet se debe a los siguientes factores:
Simplicidad y facilidad de mantenimiento
Capacidad para incorporar nuevas tecnologías
Confiabilidad
Bajo costo de instalación y de actualización
La introducción de Gigabit Ethernet ha extendido la tecnología LAN original a distancias que convierten a Ethernet en un estándar de Red de área metropolitana (MAN) y de Red de área extensa (WAN).

Ya que se trata de una tecnología asociada con la capa física, Ethernet especifica e implementa los esquemas de codificación y decodificación que permiten el transporte de los bits de trama como señales a través de los medios. Los dispositivos Ethernet utilizan una gran variedad de especificaciones de cableado y conectores. En las redes actuales, Ethernet utiliza cables de cobre UTP y fibra óptica para interconectar dispositivos de red a través de dispositivos intermediarios como hubs y switches. Dada la diversidad de tipos de medios que Ethernet admite, la estructura de la trama de Ethernet permanece constante a través de todas sus implementaciones físicas. Es por esta razón que ha podido evolucionar hasta cumplir con los requisitos de networking actuales.

9.2 Ethernet: Comunicación a través de LAN
9.2.1 Ethernet histórica
Los cimientos de la tecnología Ethernet se fijaron por primera vez en 1970 mediante un programa llamado Alohanet. Alohanet era una red de radio digital diseñada para transmitir información por una frecuencia de radio compartida entre las islas de Hawai.

Alphanet obligaba a todas las estaciones a seguir un protocolo según el cual una transmisión no reconocida requería una retransmisión después de un periodo de espera breve. Las técnicas para utilizar un medio compartido de esta manera se aplicaron posteriormente a la tecnología cableada en forma de Ethernet.

La Ethernet se diseñó para aceptar varias computadoras que se interconectaban en una topología de bus compartida. La primera versión de Ethernet incorporaba un método de acceso al medio conocido como Acceso múltiple por detección de portadora y detección de colisiones (CSMA/CD). El CSMA/CD administraba los problemas que se originaban cuando varios dispositivos intentaban comunicarse en un medio físico compartido.

Primeros medios Ethernet
Las primeras versiones de Ethernet utilizaban cable coaxial para conectar computadoras en una topología de bus. Cada computadora se conectaba directamente al backbone. Estas primeras versiones de Ethernet se conocían como Thicknet (10BASE5) y Thinnet (10BASE2).
La 10BASE5, o Thicknet, utilizaba un cable coaxial grueso que permitía lograr distancias de cableado de hasta 500 metros antes de que la señal requiriera un repetidor. La 10BASE2, o Thinnet, utilizaba un cable coaxial fino que tenía un diámetro menor y era más flexible que la Thicknet y permitía alcanzar distancias de cableado de 185 metros.

La capacidad de migrar la implementación original de Ethernet a las implementaciones de Ethernet actuales y futuras se basa en la estructura de la trama de capa 2, que prácticamente no ha cambiado. Los medios físicos, el acceso al medio y el control del medio han evolucionado y continúan haciéndolo. Pero el encabezado y el tráiler de la trama de Ethernet han permanecido constantes en términos generales. Las primeras implementaciones de Ethernet se utilizaron en entornos LAN de bajo ancho de banda en los que el acceso a los medios compartidos se administraba mediante CSMA y, posteriormente, mediante CSMA/CD. Además de ser una topología de bus lógica de la capa de enlace de datos, Ethernet también utilizaba una topología de bus física. Esta topología se volvió más problemática a medida que las LAN crecieron y que los servicios LAN demandaron más infraestructura. Los medios físicos originales de cable coaxial grueso y fino se reemplazaron por categorías iniciales de cables UTP. En comparación con los cables coaxiales, los cables UTP eran más fáciles de utilizar, más livianos y menos costosos. La topología física también se cambió por una topología en estrella utilizando hubs. Los hubs concentran las conexiones. En otras palabras, toman un grupo de nodos y permiten que la red los trate como una sola unidad. Cuando una trama llega a un puerto, se copia a los demás puertos para que todos los segmentos de la LAN reciban la trama. La utilización del hub en esta topología de bus aumentó la confiabilidad de la red, ya que permite que cualquier cable falle sin provocar una interrupción en toda la red. Sin embargo, la repetición de la trama a los demás puertos no solucionó el problema de las colisiones. Más adelante en este capítulo se verá cómo se manejaron las cuestiones relacionadas con colisiones en Ethernet mediante la introducción de switches en la red.
Nota: A la topología de acceso múltiple lógica también se le conoce como topología de bus lógica.

9.2.2 Administración de colisiones en Ethernet

Ethernet antigua En redes 10BASE-T, el punto central del segmento de red era generalmente un hub. Esto creaba un medio compartido. Debido a que el medio era compartido, sólo una estación a la vez podía realizar una transmisión de manera exitosa. Este tipo de conexión se describe como comunicación halfduplex.  190 CCNA Exploration. Aspectos básicos de Networking, Versión 4.0
A medida que se agregaban más dispositivos a una red Ethernet, la cantidad de colisiones de tramas aumentaba notablemente. Durante los periodos de poca actividad de comunicación, las pocas colisiones que se producían se administraban mediante el CSMA/CD, con muy poco impacto en el rendimiento, en caso de que lo hubiera. Sin embargo, a medida que la cantidad de dispositivos y el consiguiente tráfico de datos aumenta, el incremento de las colisiones puede producir un impacto significativo en la experiencia del usuario.

A modo de analogía, un caso similar sería cuando salimos a trabajar o vamos a la escuela por la mañana temprano y las calles están relativamente vacías. Más tarde, cuando hay más automóviles en las calles, pueden producirse colisiones y generarse demoras en el tráfico.

Ethernet actual Un desarrollo importante que mejoró el rendimiento de la LAN fue la introducción de los switches para reemplazar los hubs en redes basadas en Ethernet. Este desarrollo estaba estrechamente relacionado con el desarrollo de Ethernet 100BASE-TX. Los switches pueden controlar el flujo de datos mediante el aislamiento de cada uno de los puertos y el envío de una trama sólo al destino correspondiente (en caso de que se le conozca) en vez del envío de todas las tramas a todos los dispositivos. El switch reduce la cantidad de dispositivos que recibe cada trama, lo que a su vez disminuye o minimiza la posibilidad de colisiones. Esto, junto con la posterior introducción de las comunicaciones full-duplex (que tienen una conexión que puede transportar señales transmitidas y recibidas al mismo tiempo), permitió el desarrollo de Ethernet de un Gbps y más.

9.2.3 Cambio a un Gbps y más

Las aplicaciones que atraviesan enlaces de red a diario ponen a prueba incluso a las redes más sólidas. Por ejemplo, el uso cada vez mayor de servicios de Voz sobre IP (VoIP) y multimedia requiere conexiones más rápidas que Ethernet de 100 mbps.                                                 

Gigabit Ethernet se utiliza para describir las implementaciones de Ethernet que ofrecen un
ancho de banda de 1000 mbps (1 Gbps) o más. Esta capacidad se creó sobre la base de la capacidad full-duplex y las tecnologías de medios UTP y de fibra óptica de versiones anteriores de Ethernet. El aumento del rendimiento de la red es significativo cuando el potencial de rendimiento aumenta de 100 mbps a un Gbps y más.

La actualización a Ethernet de un Gbps no siempre implica que la infraestructura de red de cables y switches existente deba reemplazarse por completo. Algunos equipos y cableados de redes modernas bien diseñadas e instaladas podrían trabajar a mayores velocidades con sólo una actualización mínima. Esta capacidad tiene el beneficio de reducir el costo total de propiedad de la red.

Ethernet más allá de la LAN
Las mayores distancias de cableado habilitadas por el uso de cables de fibra óptica en redes basadas en Ethernet disminuyeron las diferencias entre las LAN y las WAN. La Ethernet se limitaba originalmente a sistemas de cableado LAN dentro de un mismo edificio, y después se extendió a sistemas entre edificios. Actualmente puede aplicarse a través de toda una ciudad mediante lo que se conoce como Red de área metropolitana (MAN).

9.3 La trama de Ethernet
9.3.1 La trama: Encapsulación del paquete
La estructura de la trama de Ethernet agrega encabezados y tráileres a la PDU de capa 3 para encapsular el mensaje que se envía.

Tanto el tráiler como el encabezado de Ethernet cuentan con varias secciones de información que utiliza el protocolo Ethernet. Cada sección de la trama se denomina campo. Hay dos estilos de tramas de Ethernet: el estándar DIX Ethernet, que ahora es Ethernet II, y el estándar IEEE 802.3, que ha sido actualizado varias veces para incluir nuevas tecnologías.
Las diferencias entre los estilos de tramas son mínimas. La diferencia más importante entre los dos estándares es el agregado de un delimitador de inicio de trama (SFD) y el cambio del campo Tipo por un campo Longitud en el 802.3, como se muestra en la figura.
Tamaño de la trama de Ethernet

Tanto el estándar Ethernet II como el IEEE 802.3 definen el tamaño mínimo de trama en 64 bytes, y el tamaño máximo de trama en 1518 bytes. Esto incluye todos los bytes del campo Dirección MAC de destino a través del campo Secuencia de verificación de trama (FCS). Los campos Preámbulo y Delimitador de inicio de trama no se incluyen en la descripción del tamaño de una trama. El estándar IEEE 802.3ac, publicado en 1998, amplió el tamaño de trama máximo permitido a 1522 bytes.
Se aumentó el tamaño de la trama para que se adapte a una tecnología denominada Red de área local virtual (VLAN). Las VLAN se crean dentro de una red conmutada y se presentarán en otro curso. Si el tamaño de una trama transmitida es menor que el mínimo o mayor que el máximo, el dispositivo receptor descarta la trama. Es posible que las tramas descartadas se originen en colisiones u otras señales no deseadas y, por lo tanto, se consideran no válidas.
Desplace el mouse sobre los nombres de los campos para ver las descripciones.
Campos Preámbulo y Delimitador de inicio de trama Los campos Preámbulo (siete bytes) y Delimitador de inicio de trama (SFD) (un byte) se utilizan para la sincronización entre los dispositivos emisores y receptores. Estos ocho primeros bytes de la trama se utilizan para captar la atención de los nodos receptores. Básicamente, los primeros bytes le indican al receptor que se prepare para recibir una trama nueva.

Campo Dirección MAC de destino
El campo Dirección MAC de destino (seis bytes) es el identificador del receptor deseado. Como recordará, la capa 2 utiliza esta dirección para ayudar a los dispositivos a determinar si la trama viene dirigida a ellos. La dirección de la trama se compara con la dirección MAC del dispositivo. Si coinciden, el dispositivo acepta la trama.

Campo Dirección MAC de origen
El campo Dirección MAC de origen (seis bytes) identifica la NIC o interfaz de origen de la trama. Los switches también utilizan esta dirección para ampliar sus tablas de búsqueda. El rol de los switches se analizará más adelante en este capítulo.

Campo Longitud/tipo
Para todos los estándares IEEE 802.3 anteriores a 1997, el campo Longitud define la longitud
exacta del campo de datos de la trama. Esto se utiliza posteriormente como parte de la FCS para garantizar que el mensaje se reciba adecuadamente. Si el objetivo de un campo es designar un tipo como en Ethernet II, el campo Tipo describe cuál es el protocolo que se implementa. Estos dos usos del campo se combinaron oficialmente en 1997 con el estándar IEEE 802.3x ya que ambos eran comunes. El campo Tipo de la Ethernet II se incorporó a la actual definición de trama del 802.3. Cuando un nodo recibe una trama, debe analizar el campo Longitud para determinar qué protocolo de capa superior está presente. Si el valor de los dos octetos es equivalente a 0x0600 hexadecimal o 1536 decimal o mayor que éstos, los contenidos del campo Datos se decodifican 192 CCNA Exploration. Aspectos básicos de Networking, Versión 4.0 según el protocolo EtherType indicado. Por otro lado, si el valor es igual o menor que el hexadecimal de 0x05DC o el decimal 1500, el campo Longitud se está utilizando para indicar el uso del formato de trama de IEEE 802.3. Así se diferencian las tramas de Ethernet II y 802.3.

Campos Datos y Pad
Los campos Datos y Pad (de 46 a 1500 bytes) contienen los datos encapsulados de una capa superior, que es una PDU de capa 3 genérica o, con mayor frecuencia, un paquete IPv4. Todas las tramas deben tener al menos 64 bytes de longitud. Si se encapsula un paquete pequeño, el Pad se utiliza para incrementar el tamaño de la trama hasta alcanzar el tamaño mínimo.
Enlaces
IEEE mantiene una lista de la asignación pública de EtherType.
http:/ /standards. ieee. org/ regauth/ ethertype/ eth. txt

Campo Secuencia de verificación de trama
El campo Secuencia de verificación de trama (FCS) (cuatro bytes) se utiliza para detectar errores en la trama, con base en una comprobación cíclica de redundancia (CRC). El dispositivo emisor incluye los resultados de una CRC en el campo FCS de la trama.
El dispositivo receptor recibe la trama y genera una CRC para buscar errores. Si los cálculos coinciden, significa que no se produjo ningún error. Los cálculos que no coinciden indican que los datos cambiaron y, por consiguiente, se descarta la trama. Un cambio en los datos podría ser resultado de una interrupción de las señales eléctricas que representan los bits.

9.3.2 La dirección MAC de Ethernet
Inicialmente, la Ethernet se implementaba como parte de una topología de bus. Cada uno de los dispositivos de red se conectaba al mismo medio compartido. En redes con poco tráfico o pequeñas, ésta era una implementación aceptable. El problema más importante que debía resolverse era cómo identificar cada uno de los dispositivos. La señal podía enviarse a todos los dispositivos, pero ¿cómo podía determinar cada uno de los dispositivos si era el receptor del mensaje? Se creó un identificador único, denominado dirección de Control de acceso al medio (MAC), para ayudar a determinar las direcciones de origen y de destino dentro de una red Ethernet. Independientemente de qué variedad de Ethernet se estaba utilizando, la convención de denominación proporcionó un método para identificar dispositivos en un nivel inferior del modelo OSI.
Como recordará, la dirección MAC se agrega como parte de una PDU de capa 2. Una dirección
MAC de Ethernet es un valor binario de 48 bits expresado como 12 dígitos hexadecimales.
Estructura de la dirección MAC
El valor de la dirección MAC es el resultado directo de las normas implementadas por el IEEE para proveedores con el objetivo de garantizar direcciones únicas para cada dispositivo Ethernet. Las normas establecidas por el IEEE obligan a los proveedores de dispositivos Ethernet a registrarse en el IEEE. El IEEE le asigna a cada proveedor un código de tres bytes, denominado Identificador

único organizacional (OUI).
El IEEE obliga a los proveedores a respetar dos normas simples:
Todas las direcciones MAC asignadas a una NIC u otro dispositivo Ethernet deben utilizar el
OUI que se le asignó a dicho proveedor como los tres primeros bytes.
Capítulo 9: Ethernet 193
Se les debe asignar un valor exclusivo (código del fabricante o número de serie) a todas las
direcciones MAC con el mismo OUI (Identificador exclusivo de organización) en los últimos
tres bytes.

La dirección MAC suele denominarse dirección grabada (BIA) porque se graba en la ROM (memoria de sólo lectura) de la NIC. Esto significa que la dirección se codifica en el chip de la ROM de manera permanente (el software no puede cambiarla).
Sin embargo, cuando se inicia la computadora, la NIC copia la dirección a la RAM (memoria de
acceso aleatorio). Cuando se examinan tramas se utiliza la dirección que se encuentra en la RAM como dirección de origen, para compararla con la dirección de destino. La NIC utiliza la dirección MAC para determinar si un mensaje debe pasarse a las capas superiores para procesarlo.

Dispositivos de red
Cuando el dispositivo de origen reenvía el mensaje a una red Ethernet, se adjunta la información del encabezado dentro de la dirección MAC. El dispositivo de origen envía los datos a través de la red.
Cada NIC de la red visualiza la información para determinar si la dirección MAC coincide con su
dirección física. Si no hay coincidencia, el dispositivo descarta la trama. Cuando la trama llega al destino donde la MAC de la NIC coincide con la MAC de destino de la trama, la NIC pasa la tramamhasta las capas OSI, donde se lleva a cabo el proceso de desencapsulación.
Todos los dispositivos conectados a una LAN Ethernet tienen interfaces con direcciones MAC. Diferentes fabricantes de hardware y software pueden representar las direcciones MAC en distintos formatos hexadecimales. Los formatos de las direcciones pueden ser similares a 00-05-9A-3C-78-00, 00:05:9A:3C:78:00 o 0005.9A3C.7800. Las direcciones MAC se asignan a estaciones de trabajo, servidores, impresoras, switches y routers (cualquier dispositivo que pueda originar o recibir datos en la red).

9.3.3 Numeración hexadecimal y direccionamiento
Numeración hexadecimal
El método hexadecimal (“Hex”) es una manera conveniente de representar valores binarios. Así como el sistema de numeración decimal es un sistema base diez y el binario es un sistema base dos, el sistema hexadecimal es un sistema base dieciséis.
El sistema de numeración base 16 utiliza los números 0 a 9 y las letras A a F. La figura muestra
los valores decimales, binarios y hexadecimales equivalentes para los binarios 0000 hasta 1111. Nos resulta más conveniente expresar un valor como un único dígito hexadecimal que como cuatro bits.

Comprensión de los bytes
Dado que ocho bits (un byte) es una agrupación binaria común, los binarios 00000000 hasta
11111111 pueden representarse en valores hexadecimales como el intervalo 00 a FF. Los ceros iniciales se muestran siempre para completar la representación de ocho bits. Por ejemplo, el valor binario 0000 1010 se muestra en valor hexadecimal como 0A.

Representación de valores hexadecimales
Nota: Es importante distinguir los valores hexadecimales de los valores decimales en cuanto a los caracteres 0 a 9, tal como muestra la figura.
El valor hexadecimal se representa generalmente en texto mediante el valor precedido por 0x (por ejemplo, 0x73) o un 16 en subíndice. Con menor frecuencia, puede estar seguido de una H, como
por ejemplo, 73H. Sin embargo, y debido a que el texto en subíndice no es reconocido en entornos 194 CCNA Exploration. Aspectos básicos de Networking, Versión 4.0
de línea de comando o de programación, la representación técnica de un valor hexadecimal es precedida por “0x” (cero X). Por lo tanto, los ejemplos anteriores deberían mostrarse como 0x0A y 0x73, respectivamente. El valor hexadecimal se utiliza para representar las direcciones MAC de Ethernet y las direcciones IP versión 6. Ya hemos visto que los valores hexadecimales se utilizan en el panel Bytes de paquetes de Wireshark para representar los valores binarios dentro de tramas y paquetes.

Conversiones hexadecimales
Las conversiones numéricas entre valores decimales y hexadecimales son simples, pero no siempre es conveniente dividir o multiplicar por 16. Si es necesario realizar dichas conversiones, generalmente es más fácil convertir el valor decimal o hexadecimal a un valor binario, y después convertir dicho valor binario a un valor decimal o hexadecimal, según corresponda. Con la práctica es posible reconocer los patrones de bits binarios que coinciden con los valores decimales y hexadecimales. La figura ilustra dichos patrones para valores seleccionados de 8 bits.

Visualización de la MAC
Una herramienta útil para analizar la dirección MAC de nuestra computadora es ipconfig /all o
ifconfig. En el gráfico, observe la dirección MAC de esta computadora. Si el usuario tiene acceso, se sugiere intentar esto en su propia computadora. Quizás desee buscar el OUI de la dirección MAC para determinar quién es el fabricante de su NIC.

9.3.4 Otra capa de direccionamiento
Capa de enlace de datos
El direccionamiento físico de la capa de enlace de datos (capa 2) de OSI, implementado como dirección MAC de Ethernet, se utiliza para transportar la trama a través de los medios locales. Si bien brindan una dirección host única, las direcciones físicas no son jerárquicas. Estas direcciones se asocian a un dispositivo en particular, independientemente de su ubicación o de la red a la que esté conectado.

Estas direcciones de capa 2 no tienen ningún significado fuera de los medios de la red local. Es posible que un paquete deba atravesar una serie de tecnologías de conexión de datos diferentes en redes locales y de área amplia antes de llegar a su destino. Por lo tanto, un dispositivo de origen no tiene conocimiento de la tecnología utilizada en redes intermedias y de destino, o de su direccionamiento de capa 2 y estructuras de trama.

Capa de red
Las direcciones de capa de red (capa 3), como por ejemplo, las direcciones IPv4, proporcionan el direccionamiento lógico general que se comprende tanto en el origen como en el destino. Para llegar a su último destino, un paquete transporta la dirección de destino de capa 3 desde su origen. Sin embargo, debido a que se realiza la trama mediante diferentes protocolos de la capa de enlace de
datos durante el trayecto, la dirección de capa 2 que recibe cada vez se aplica sólo a esa porción local del trayecto y sus medios.
En síntesis:
La dirección de capa de red permite el reenvío del paquete a su destino.
La dirección de capa de enlace de datos permite el transporte del paquete utilizando los medios locales a través de cada segmento.

9.3.5 Ethernet unicast, multicast y broadcast

En Ethernet se utilizan distintas direcciones MAC para la capa 2: comunicaciones unicast, multicast y broadcast.

Unicast
Una dirección MAC unicast es la dirección exclusiva que se utiliza cuando se envía una trama desde un dispositivo de transmisión único hacia un dispositivo de destino único.
En el ejemplo que se muestra en la figura, un host con una dirección IP 192.168.1.5 (origen) solicita una página web del servidor en la dirección IP 192.168.1.200. Para que se pueda enviar y recibir un paquete unicast, el encabezado del paquete IP debe contener una dirección IP de destino. Además, el encabezado de la trama de Ethernet también debe contener una dirección MAC de destino correspondiente. Las direcciones IP y MAC se combinan para la entrega de datos a un host de destino específico.

Broadcast
Con broadcast, el paquete contiene una dirección IP de destino con todos unos (1) en la porción de host. Esta numeración en la dirección significa que todos los hosts de esa red local (dominio de broadcast) recibirán y procesarán el paquete. Una gran cantidad de protocolos de red utilizan broadcast, como el Protocolo de configuración dinámica de host (DHCP) y el Protocolo de resolución de direcciones (ARP). Más adelante en este capítulo se analizará cómo el ARP utiliza los broadcasts para asignar direcciones de capa 2 a direcciones de capa 3.
Como se muestra en la figura, una dirección IP de broadcast para una red requiere una direcciónMAC de broadcast correspondiente en la trama de Ethernet. En redes Ethernet, la dirección MAC de broadcast contiene 48 unos que se muestran como el hexadecimal FF-FF-FF-FF-FF-FF.

Multicast
Recuerde que las direcciones multicast le permiten a un dispositivo de origen enviar un paquete a un grupo de dispositivos. Una dirección IP de grupo multicast se asigna a los dispositivos que pertenecen a un grupo multicast. El intervalo de direcciones multicast es de 224.0.0.0 a 239.255.255.255.
Debido a que las direcciones multicast representan un grupo de direcciones (a veces denominado grupo de hosts), sólo pueden utilizarse como el destino de un paquete. El origen siempre tendrá una dirección unicast.
Ejemplos de dónde se utilizarían las direcciones multicast serían el juego remoto, en el que varios jugadores se conectan de manera remota pero juegan el mismo juego, y el aprendizaje a distancia a través de videoconferencia, en el que varios estudiantes se conectan a la misma clase. Al igual que con las direcciones unicast y broadcast, la dirección IP multicast requiere una dirección MAC multicast correspondiente para poder enviar tramas en una red local. La dirección MAC multicast es un valor especial que comienza con 01-00-5E en hexadecimal. El valor termina con la conversión de los 23 bits inferiores de la dirección IP del grupo multicast en los seis caracteres hexadecimales restantes de la dirección de Ethernet. El bit restante en la dirección MAC es siempre “0”.
Un ejemplo, según se muestra en el gráfico, es el hexadecimal 01-00-5E-00-00-01. Cada carácter hexadecimal representa cuatro bits binarios.

Enlaces
http:/ /www. iana. org/ assignments/ ethernet-numbers
http:/ /www. cisco. com/ en/ US/ docs/ app_ntwk_services/ waas/ acns/ v51/ configuration/ central/
guide/ 51ipmul. html
http:/ /www. cisco. com/ en/ US/ docs/ internetworking/ technology/ handbook/ IP-Multi. html


9.4 Control de acceso al medio de Ethernet
9.4.1 Control de acceso al medio en Ethernet

En un entorno de medios compartidos, todos los dispositivos tienen acceso garantizado al medio, pero no tienen ninguna prioridad en dicho medio. Si más de un dispositivo realiza una transmisión simultáneamente, las señales físicas colisionan y la red debe recuperarse para que pueda continuar la comunicación.
Las colisiones representan el precio que debe pagar la Ethernet para obtener la sobrecarga baja que se relaciona con cada transmisión.
Ethernet utiliza el Acceso múltiple por detección de portadora y detección de colisiones (CSMA/CD) para detectar y manejar colisiones y para administrar la reanudación de las comunicaciones.

Debido a que todas las computadoras que utilizan Ethernet envían sus mensajes en el mismo medio, se utiliza un Esquema de coordinación distribuida (CSMA) para detectar la actividad eléctrica en el cable. Entonces, un dispositivo puede determinar cuándo puede transmitir. Cuando un dispositivo detecta que ninguna otra computadora está enviando una trama o una señal portadora, el dispositivo transmitirá si tiene algo para enviar.


 9.4.2 CSMA/CD: El proceso

Detección de portadora
En el método de acceso CSMA/CD, todos los dispositivos de red que tienen mensajes para enviar deben escuchar antes de transmitir.
Si un dispositivo detecta una señal de otro dispositivo, esperará durante un periodo especificado antes de intentar transmitir.
Cuando no se detecte tráfico, un dispositivo transmitirá su mensaje. Mientras se lleva a cabo la
transmisión, el dispositivo continúa escuchando para detectar tráfico o colisiones en la LAN. Una vez que se envía el mensaje, el dispositivo regresa a su modo de escucha predeterminado.
Acceso múltiple Si la distancia existente entre los dispositivos es tal que la latencia de las señales de un dispositivo denota que un segundo dispositivo no detecta las señales, el segundo dispositivo puede comenzar también a transmitir. Los medios tienen entonces dos dispositivos que transmiten sus señales al mismo tiempo. Sus mensajes se propagarán por todos los medios hasta que se encuentren. En ese punto, las señales se mezclan y el mensaje se destruye. Aunque los mensajes se dañan, la mezcla de las señales restantes continúa propagándose en todo el medio.

Detección de colisiones
Cuando un dispositivo está en el modo de escucha, puede detectar cuando se produce una colisión en el medio compartido. La detección de una colisión es posible porque todos los dispositivos pueden detectar un aumento de la amplitud de la señal por encima del nivel normal. Una vez que se produce una colisión, los demás dispositivos que están en el modo de escucha, así como todos los dispositivos de transmisión, detectan el aumento de amplitud de la señal. Una vez detectada la colisión, todos los dispositivos transmisores continuarán transmitiendo para garantizar que todos los dispositivos de la red detecten la colisión.

Señal de congestión y postergación aleatoria
Cuando los dispositivos de transmisión detectan la colisión, envían una señal de congestión. Esta señal de congestión se utiliza para notificar a los demás dispositivos sobre una colisión, de manera que éstos invoquen un algoritmo de postergación. Este algoritmo de postergación hace que todos los dispositivos dejen de transmitir durante un periodo aleatorio, lo que permite que las señales de colisión disminuyan.
Una vez que finaliza el retraso asignado a un dispositivo, dicho dispositivo regresa al modo “escuchar antes de transmitir”. El periodo de postergación aleatoria garantiza que los dispositivos involucrados en la colisión no intenten enviar su tráfico nuevamente al mismo tiempo, lo que provocaría que se repita todo el proceso. Sin embargo, esto también significa que un tercer dispositivo puede transmitir antes de que cualquiera de los dos dispositivos involucrados en la colisión original tenga la oportunidad de volver a transmitir.

Hubs y dominios de colisiones
Dado que las colisiones se producirán ocasionalmente en cualquier topología de medios compartidos (incluso cuando se emplea CSMA/CD), debemos prestar atención a las condiciones que pueden originar un aumento de las colisiones. Debido al rápido crecimiento de la Internet:
Se conectan más dispositivos a la red.
Los dispositivos acceden a los medios de la red con una mayor frecuencia.
Aumentan las distancias entre los dispositivos.

Recuerde que los hubs se crearon como dispositivos de red intermediarios que permiten a una
mayor cantidad de nodos conectarse a los medios compartidos. Los hubs, que también se conocen como repetidores multipuerto, retransmiten las señales de datos recibidas a todos los dispositivos conectados, excepto a aquel desde el cual se reciben las señales. Los hubs no desempeñan funciones de red tales como dirigir los datos según las direcciones.
Los hubs y los repetidores son dispositivos intermediarios que extienden la distancia que pueden alcanzar los cables de Ethernet. Debido a que los hubs operan en la capa física, ocupándose únicamente de las señales en los medios, pueden producirse colisiones entre los dispositivos que conectan y dentro de los mismos hubs.
Además, el uso de hubs para proporcionar acceso a la red a una mayor cantidad de usuarios reduce el rendimiento para cada usuario, ya que debe compartirse la capacidad fija de los medios entre cada vez más dispositivos.

Los dispositivos conectados que tienen acceso a medios comunes a través de un hub o una serie de hubs conectados directamente conforman lo que se denomina dominio de colisiones. Un dominio de colisiones también se denomina segmento de red. Por lo tanto, los hubs y los repetidores tienen el efecto de aumentar el tamaño del dominio de colisiones.
Como se muestra en la figura, la interconexión de los hubs forma una topología física que se denomina estrella extendida. La estrella extendida puede crear un dominio de colisiones notablemente expandido.

Un mayor número de colisiones reduce la eficiencia y la efectividad de la red hasta que las colisiones se convierten en una molestia para el usuario. Si bien el CSMA/CD es un sistema de administración de colisiones de tramas, se diseñó para administrar colisiones sólo para una cantidad limitada de dispositivos y en redes con poco uso de red. Por lo tanto, se requieren otros mecanismos cuando existen grandes cantidades de usuarios que quieren tener acceso, y cuando se necesita un acceso a la red más activo.

Comprobaremos que el uso de switches en lugar de hubs puede ser un comienzo para reducir este problema.
Enlaces
http:/ /standards. ieee. org/ getieee802/ 802. 3. html

En esta actividad de Packet Tracer, creará grandes dominios de colisiones para visualizar los efectos de las colisiones sobre la transmisión de datos y el funcionamiento de la red.

9.4.3 Temporización de Ethernet
Las implementaciones más rápidas de la capa física de Ethernet introducen complejidades en la administración de colisiones. Latencia Como se analizó anteriormente, cada dispositivo que desee transmitir debe “escuchar” primero el medio para verificar la presencia de tráfico. Si no hay tráfico, la estación comenzará a transmitir de inmediato. La señal eléctrica que se transmite requiere una cantidad determinada de tiempo (latencia) para propagarse (viajar) a través del cable. Cada hub o repetidor en la ruta de la señal agrega latencia a medida que reenvía los bits desde un puerto al siguiente.

Esta demora acumulada aumenta la probabilidad de que se produzcan colisiones, porque un nodo de escucha puede transformarse en señales de transmisión mientras el hub o repetidor procesa el mensaje. Debido a que la señal no había alcanzado este nodo mientras estaba escuchando, dicho nodo pensó que el medio estaba disponible. Esta condición produce generalmente colisiones.

Temporización y sincronización
En modo half-duplex, si no se produce una colisión, el dispositivo emisor transmitirá 64 bits de
información de sincronización de temporización, lo que se conoce como preámbulo.
El dispositivo emisor transmitirá a continuación la trama completa.
La Ethernet que tiene velocidades de rendimiento de 10 mbps y menos es asíncrona. Una comunicación asíncrona en este contexto significa que cada dispositivo receptor utilizará los ocho bytes de información de temporización para sincronizar el circuito receptor con los datos entrantes y a continuación descartará los ocho bytes.
Las implementaciones de Ethernet con rendimiento de 100 mbps y más son síncronas. La comunicación síncrona en este contexto significa que la información de temporización no es necesaria. Sin embargo, por razones de compatibilidad, los campos Preámbulo y Delimitador de inicio de trama (SFD) todavía están presentes.

Tiempo de bit
Para cada velocidad de medios diferente se requiere un periodo determinado para que un bit pueda colocarse y detectarse en el medio. Dicho periodo se denomina tiempo de bit. En Ethernet de 10 mbps, un bit en la capa MAC requiere de 100 nanosegundos (ns) para ser transmitido. A 100 mbps, ese mismo bit requiere de 10 ns para ser transmitido. Y a 1000 mbps, sólo se requiere un ns para transmitir un bit. A menudo, se utiliza una estimación aproximada de 20.3 centímetros (ocho pulgadas) por nanosegundo para calcular el retardo de propagación en un cable UTP. El resultado es que para 100 metros de cable UTP se requiere un poco menos de cinco tiempos de bit para que una señal 10BASE-T recorra la longitud del cable.
Para que el CSMA/CD de Ethernet funcione, el dispositivo emisor debe detectar la colisión antes de que se haya completado la transmisión de una trama del tamaño mínimo. A 100 Mbps, la temporización del dispositivo apenas es capaz de funcionar con cables de 100 metros. A 1000 Mbps, son necesarios ajustes especiales porque se suele transmitir una trama completa del tamaño mínimo antes de que el primer bit alcance el extremo de los primeros 100 metros de cable UTP. Por este motivo, no se permite el modo half-duplex en la Ethernet de 10 Gigabits.
Estas consideraciones de temporización deben aplicarse al espacio entre las tramas y a los tiempos de postergación (ambos temas se analizan en la siguiente sección) para asegurar que cuando un dispositivo transmita su próxima trama, se haya reducido al mínimo el riesgo de que se produzca una colisión.

Intervalo de tiempo
En Ethernet half-duplex, donde los datos sólo pueden viajar en una dirección a la vez, el intervalo de tiempo se convierte en un parámetro importante para determinar cuántos dispositivos pueden compartir una red. Para todas las velocidades de transmisión de Ethernet de 1000 mbps o menos, el estándar describe cómo una transmisión individual no puede ser menor que el intervalo de tiempo.
La determinación del intervalo de tiempo es una compensación entre la necesidad de reducir el impacto de la recuperación en caso de colisión (tiempos de postergación y retransmisión), y la necesidad de que las distancias de red sean lo suficientemente grandes como para admitir tamaños razonables de red. El compromiso fue elegir un diámetro de red máximo (2500 metros aproximadamente) para después establecer la longitud mínima de una trama que fuera suficiente como para garantizar la detección de todas las peores colisiones.

El intervalo de tiempo para Ethernet de 10 y 100 mbps es de 512 tiempos de bit o 64 octetos. El intervalo de tiempo para Ethernet de 1000 mbps es de 4096 tiempos de bit o 512 octetos.
El intervalo de tiempo garantiza que si está por producirse una colisión, se detectará dentro de los primeros 512 bits (4096 para Gigabit Ethernet) de la transmisión de la trama. Esto simplifica el manejo de las retransmisiones de tramas posteriores a una colisión.

El intervalo de tiempo es un parámetro importante por las siguientes razones:
El intervalo de tiempo de 512 bits establece el tamaño mínimo de una trama de Ethernet en
64 bytes. Cualquier trama con menos de 64 bytes de longitud se considera un fragmento de
colisión o runt frame, y las estaciones receptoras la descartan automáticamente.
El intervalo de tiempo determina un límite para el tamaño máximo de los segmentos de una
red. Si la red crece demasiado, pueden producirse colisiones tardías. La colisiones tardías se
consideran una falla en la red, porque un dispositivo detecta la colisión demasiado tarde durante la transmisión de tramas que debe ser manejada automáticamente por CSMA/CD.
El intervalo de tiempo se calcula teniendo en cuenta las longitudes máximas de cables en la arquitectura de red legal de mayor tamaño. Todos los tiempos de retardo de propagación del hardware se encuentran al máximo permisible y se utiliza una señal de congestión de 32 bits cuando se detectan colisiones.

El intervalo de tiempo real calculado es apenas mayor que la cantidad de tiempo teórica necesaria para realizar una transmisión entre los puntos de máxima separación de un dominio de colisión, colisionar con otra transmisión en el último instante posible, y luego permitir que los fragmentos de la colisión regresen a la estación transmisora y sean detectados. Observe la
figura. Para que el sistema funcione correctamente, el primer dispositivo debe estar al tanto de la colisión antes de que termine de enviar la trama legal de menor tamaño.


Para que una Ethernet de 1000 mbps pueda operar en modo half-duplex, se agregó a la trama el campo de extensión cuando se envían tramas pequeñas, con el único fin de mantener ocupado al transmisor durante el tiempo que sea necesario para que vuelva un fragmento de colisión. Este campo sólo se incluye en los enlaces en half-duplex de 1000 Mbps, y permite que las tramas de menor tamaño duren el tiempo suficiente para satisfacer los requisitos del intervalo de tiempo. El dispositivo receptor descarta los bits de extensión.

9.4.4 Espacio entre tramas y postergación
Espacio entre tramas
Los estándares de Ethernet requieren un espacio mínimo entre dos tramas que no hayan sufrido una colisión. Esto le otorga al medio tiempo para estabilizarse antes de la transmisión de la trama anterior, y tiempo a los dispositivos para que procesen la trama. Este tiempo, llamado espacio entre tramas, se mide desde el último bit del campo FCS de una trama hasta el primer bit del preámbulo de la próxima trama.

Una vez enviada la trama, todos los dispositivos de una red Ethernet de 10 mbps deben esperar un mínimo de 96 tiempos de bit (9.6 microsegundos) antes de que cualquier dispositivo pueda transmitir la siguiente trama. En versiones de Ethernet más veloces, el espacio sigue siendo el mismo, 96 tiempos de bit, pero el tiempo del espacio entre tramas se vuelve proporcionalmente más corto.
Los retardos de sincronización entre dispositivos pueden ocasionar la pérdida de algunos de los bits del preámbulo de la trama. A su vez, esto puede producir una reducción mínima del espacio entre tramas cuando los hubs y repetidores regeneran los 64 bits completos de la información de temporización (el preámbulo y el SFD) al comienzo de cada trama que se reenvía. En Ethernet de mayor velocidad, algunos dispositivos sensibles al tiempo podrían eventualmente no reconocer las tramas individuales, lo que originaría una falla de comunicación.

Señal de congestión
Como recordará, Ethernet permite que los dispositivos compitan por el tiempo de transmisión. En caso de que dos dispositivos transmitan simultáneamente, el CSMA/CD de la red intenta resolver el problema. Sin embargo, recuerde que cuando se agrega un mayor número de dispositivos a la red, es posible que las colisiones sean cada vez más difíciles de resolver.
Tan pronto como se detecta una colisión, los dispositivos transmisores envían una señal de “congestión” de 32 bits que forzará la detección de la colisión. Esto garantiza que todos los dispositivos de la LAN detectarán la colisión.

Es importante que la señal de congestión no se detecte como una trama válida; de lo contrario, no podría identificarse la colisión. El patrón de datos que se observa con mayor frecuencia para una señal de congestión es simplemente un patrón de 1, 0, 1, 0 que se repite, al igual que el preámbulo. Los mensajes corruptos que se transmiten de forma parcial, generalmente se conocen como fragmentos de colisión o runts. Las colisiones normales tienen menos de 64 octetos de longitud y, por lo tanto, reprueban tanto la prueba de longitud mínima como la FCS, lo que facilita su identificación.

Temporización de postergación
Una vez producida la colisión y que todos los dispositivos permitan que el cable quede inactivo
(cada uno espera que se cumpla el espacio completo entre tramas), los dispositivos cuyas transmisiones sufrieron la colisión deben esperar un periodo adicional, y cada vez potencialmente mayor, antes de intentar la retransmisión de la trama que sufrió la colisión. El periodo de espera está intencionalmente diseñado para que sea aleatorio, de modo que dos estaciones no demoren la misma.

Capítulo 9: Ethernet 201 cantidad de tiempo antes de efectuar la retransmisión, lo que causaría colisiones adicionales. Esto se logra en parte al aumentar el intervalo a partir del cual se selecciona el tiempo de retransmisión aleatorio cada vez que se efectúa un intento de retransmisión. El periodo de espera se mide en incrementos del intervalo de tiempo del parámetro.

Si la congestión en los medios provoca que la capa MAC no pueda enviar la trama después de 16 intentos, abandona el intento y genera un error en la capa de red. Este tipo de sucesos es raro en una red que funciona correctamente, y sólo sucedería en el caso de cargas de red extremadamente pesadas o cuando se produce un problema físico en la red.
Los métodos que se describen en esta sección permitían a Ethernet proporcionar un servicio superior en una topología de medios compartidos basándose en el uso de hubs. En la sección de switches que aparece a continuación, veremos cómo, mediante el uso de switches, la necesidad de utilizar CSMA/CD comienza a disminuir o, en algunos casos, a desaparecer por completo.

9.5 Capa física de Ethernet
9.5.1 Descripción general de la capa física de Ethernet

Las diferencias que existen entre Ethernet estándar, Fast Ethernet, Gigabit Ethernet y 10 Gigabit Ethernet tienen lugar en la capa física, generalmente denominada Ethernet PHY.
Ethernet se rige por los estándares IEEE 802.3. Actualmente, se definen cuatro velocidades de datos para el funcionamiento con cables de fibra óptica y de par trenzado:
10 mbps: 10Base-T Ethernet
100 mbps: Fast Ethernet
1000 mbps: Gigabit Ethernet
10 Gbps: 10 Gigabit Ethernet
Si bien existe una gran cantidad de implementaciones de Ethernet diferentes para estas diversas velocidades de transmisión de datos, aquí sólo se presentarán las más comunes. La figura muestra algunas de las características de la Ethernet PHY.
En esta sección se analizará la porción de Ethernet que opera en la capa física, comenzando por 10Base-T y continuando con las variedades de 10 Gbps.

9.5.2 Ethernet de 10 y 100 Mbps
Las principales implementaciones de 10 Mbps de Ethernet incluyen:
10BASE5 con cable coaxial Thicknet
10BASE2 con cable coaxial Thinnet
10BASE-T con cable de par trenzado no blindado Cat3/Cat5
Las primeras implementaciones de Ethernet, 10BASE5 y 10BASE2 utilizaban cable coaxial en un
bus físico. Dichas implementaciones ya no se utilizan, y los más recientes estándares 802.3 no las admiten.

202 CCNA Exploration. Aspectos básicos de Networking, Versión 4.0
10 mbps Ethernet: 10BASE-T La 10BASE-T utiliza la codificación Manchester para dos cables de par trenzado no blindado. Las primeras implementaciones de la 10BASE-T utilizaban cableado Cat3. Sin embargo, el cableado Cat5 o superior es el que se utiliza generalmente en la actualidad. La Ethernet de 10 mbps se considera que es la Ethernet clásica, y utiliza una topología en estrella física. Los enlaces de Ethernet 10BASE-T pueden tener hasta 100 metros de longitud antes de que requieran un hub o repetidor.
La 10BASE-T utiliza dos pares de cables de cuatro pares, y finaliza en cada extremo con un conector RJ-45 de ocho pins. El par conectado a los pins 1 y 2 se utiliza para transmitir, y el par conectado a los pins 3 y 6 se utiliza para recibir. La figura muestra la salida de pins RJ45 utilizada con Ethernet 10BASE-T.

La 10BASE-T generalmente no se elige para instalaciones de LAN nuevas. Sin embargo, todavía
existen actualmente muchas redes Ethernet 10BASE-T. El reemplazo de los hubs por los switches en redes 10BASE-T aumentó notablemente la velocidad de transmisión (throughput) disponible para estas redes, y le otorgó a la Ethernet antigua una mayor longevidad. Los enlaces de 10BASE-T conectados a un switch pueden admitir el funcionamiento tanto half-duplex como full-duplex.

100 mbps: Fast Ethernet Entre mediados y finales de la década de 1990 se establecieron varios estándares 802.3 nuevos para describir los métodos de transmisión de datos en medios Ethernet a 100 mbps. Estos estándares utilizaban requisitos de codificación diferentes para lograr estas velocidades más altas de transmisión de datos.
La Ethernet de 100 mbps, que también se denomina Fast Ethernet, puede implementarse utilizando medios de fibra o de cable de cobre de par trenzado. Las implementaciones más conocidas de la
Ethernet de 100 mbps son:

100BASE-TX con UTP Cat5 o posterior
100BASE-FX con cable de fibra óptica

Ya que las señales de mayor frecuencia que se utilizan en Fast Ethernet son más susceptibles al
ruido, Ethernet de 100 mbps utiliza dos pasos de codificación por separado para mejorar la integridad de la señal.

100BASE-TX: fue diseñada para admitir la transmisión a través de dos hilos de fibra óptica o de
dos pares de cable de cobre UTP de categoría 5. La implementación 100BASE-TX utiliza los mismos dos pares y salidas de pares de UTP que la 10BASE-T. Sin embargo, la 100BASE-TX requiere UTP de categoría 5 o superior. La codificación 4B/5B se utiliza para Ethernet 100BASE-TX.
Al igual que con la 10BASE-TX, la 100BASE-TX se conecta como estrella física. La figura muestra un ejemplo de una topología en estrella física. Sin embargo, a diferencia de la 10BASET, las
redes 100BASE-TX utilizan generalmente un switch en el centro de la estrella en vez de un hub.
Aproximadamente al mismo tiempo que las tecnologías 100BASE-TX se convirtieron en la norma, los switches LAN también comenzaron a implementarse con frecuencia. 

Estos desarrollos simultáneos llevaron a su combinación natural en el diseño de las redes 100BASE-TX.100BASE-FX El estándar 100BASE-FX utiliza el mismo procedimiento de señalización que la 100BASE-TX, pero lo hace en medios de fibra óptica en vez de cobre UTP. Si bien los procedimientos de codificación, decodificación y recuperación de temporizador son los mismos para ambos medios, la transmisión de señales es diferente: pulsos eléctricos en cobre y pulsos de luz en fibra óptica.

La 100BASE-FX utiliza conectores de interfaz de fibra de bajo costo (generalmente llamados conectores SC duplex). Las implementaciones de fibra son conexiones punto a punto, es decir, se utilizan para interconectar dos dispositivos. Estas conexiones pueden ser entre dos computadoras, entre una computadora y un switch, o entre dos switches.

9.5.3 Ethernet de 1000 Mbps
1000 mbps: Gigabit Ethernet
El desarrollo de los estándares Gigabit Ethernet dio como resultado especificaciones para cobre UTP, fibra monomodo y fibra multimodo. En redes de Gigabit Ethernet, los bits se producen en una fracción del tiempo que se requiere en redes de 100 Mbps y redes de 10 Mbps. Gracias a que las señales se producen en menor tiempo, los bits se vuelven más susceptibles al ruido y, por lo tanto, la temporización tiene una importancia decisiva. La cuestión del rendimiento se basa en la velocidad con la que el adaptador o la interfaz de red puedan cambiar los niveles de voltaje, y en la manera en que dicho cambio de voltaje pueda detectarse de un modo confiable a 100 metros de distancia en la NIC o la interfaz de recepción. A estas mayores velocidades, la codificación y decodificación de datos es más compleja. La Gigabit Ethernet utiliza dos distintos pasos de codificación. La transmisión de datos es más eficiente cuando se utilizan códigos para representar el stream binario de bits. La codificación de datos permite la sincronización, el uso eficiente del ancho de banda y características mejoradas de relación entre señal y ruido.

Ethernet 1000BASE-T
La Ethernet 1000BASE-T proporciona una transmisión full-duplex utilizando los cuatro pares de
cable UTP categoría 5 o superior. La Gigabit Ethernet por cables de cobre permite un aumento
de 100 Mbps por par de cable a 125 Mbps por par de cable o 500 Mbps para los cuatro pares. Cada par de cable origina señales en full-duplex, lo que duplica los 500 Mbps a 1000 Mbps.
La 1000BASE-T utiliza codificación de línea 4D-PAM5 para obtener un rendimiento de datos de
un Gbps. Este esquema de codificación permite señales de transmisión en cuatro pares de cables simultáneamente. Traduce un byte de ocho bits de datos en una transmisión simultánea de cuatro símbolos de código que se envían por los medios, uno en cada par, como señales de Modulación de amplitud de pulsos de 5 niveles (PAM5). Esto significa que cada símbolo se corresponde con dos bits de datos. Debido a que la información viaja simultáneamente a través de las cuatro rutas, el sistema de circuitos tiene que dividir las tramas en el transmisor y reensamblarlas en el receptor. La figura muestra una representación del sistema de circuitos que utiliza la Ethernet 1000BASE-T. La 1000BASE-T permite la transmisión y recepción de datos en ambas direcciones (en el mismo cable y al mismo tiempo). Este flujo de tráfico crea colisiones permanentes en los pares de cables.
Estas colisiones generan patrones de voltaje complejos. Los circuitos híbridos que detectan las
señales utilizan técnicas sofisticadas tales como la cancelación de eco, la corrección del error de envío de capa 1 (FEC) y una prudente selección de los niveles de voltaje. Al utilizar dichas técnicas, el sistema alcanza un throughput de un Gigabit.

Para contribuir a la sincronización, la capa física encapsula cada trama con delimitadores de inicio y finalización de stream. La temporización de loops se mantiene mediante streams continuos de símbolos INACTIVOS que se envían en cada par de cables durante el espacio entre tramas.
A diferencia de la mayoría de las señales digitales, en las que generalmente se encuentra un par de niveles de voltaje discretos, la 1000BASE-T utiliza muchos niveles de voltaje. En periodos inactivos, se encuentran nueve niveles de voltaje en el cable. Durante los periodos de transmisión de datos, se encuentran hasta 17 niveles de voltaje en el cable. Con este gran número de estados, combinado con los efectos del ruido, la señal en el cable parece más analógica que digital. Como en el caso del analógico, el sistema es más susceptible al ruido debido a los problemas de cable y terminación.

Ethernet 1000BASE-SX y 1000BASE-LX por fibra óptica
Las versiones de fibra óptica de la Gigabit Ethernet (1000BASE-SX y 1000BASE-LX) ofrecen las
siguientes ventajas en comparación con el UTP: inmunidad al ruido, tamaño físico pequeño y
distancias y ancho de banda aumentados y sin repeticiones.

Todas las versiones de 1000BASE-SX y 1000BASE-LX admiten la transmisión binaria full-duplex
a 1250 mbps en dos hebras de fibra óptica. La codificación de la transmisión se basa en el esquema de codificación 8B/10B. Debido a la sobrecarga de esta codificación, la velocidad de transferencia de datos sigue siendo 1000 mbps.
Cada trama de datos se encapsula en la capa física antes de la transmisión, y la sincronización de los enlaces se mantiene enviando un stream continuo de grupos de códigos INACTIVOS durante el espacio entre tramas.
Las principales diferencias entre las versiones de fibra de 1000BASE-SX y 1000BASE-LX son
los medios de enlace, los conectores y la longitud de onda de la señal óptica. Estas diferencias se ilustran en la figura.

9.5.4 Ethernet: Opciones futuras
Se adaptó el estándar IEEE 802.3ae para incluir la transmisión en full-duplex de 10 Gbps en cable de fibra óptica. El estándar 802.3ae y los estándares 802.3 para la Ethernet original son muy similares. La Ethernet de 10 Gigabits (10GbE) está evolucionando para poder utilizarse no sólo en las LAN sino también en las WAN y las MAN.
Debido a que el formato de trama y otras especificaciones de Ethernet de capa 2 son compatibles
con estándares anteriores, la 10GbE puede proporcionar un mayor ancho de banda para redes individuales que sea interoperable con la infraestructura de red existente.
10Gbps se puede comparar con otras variedades de Ethernet de este modo:
El formato de trama es el mismo, permitiendo así la interoperabilidad entre todos los tipos de tecnologías antiguas, Fast, Gigabit y 10 Gigabit Ethernet, sin la necesidad de retramado o
conversiones de protocolo.
El tiempo de bit ahora es de 0.1 nanosegundos. Todas las demás variables de tiempo caen en su correspondiente lugar en la escala.
Ya que sólo se utilizan conexiones de fibra óptica full-duplex, no hay ningún tipo de contención de medios ni se necesita el CSMA/CD.
Se preserva la mayoría de las subcapas de IEEE 802.3 dentro de las capas OSI 1 y 2, con algunos pocos agregados para incorporar enlaces de fibra de 40 km y la interoperabilidad con otras tecnologías en fibra.

Con 10Gbps Ethernet es posible crear redes de Ethernet flexibles, eficientes, confiables, a un costo punto a punto relativamente bajo.

Futuras velocidades de Ethernet
Si bien la Ethernet de un Gigabit es muy fácil de encontrar en el mercado y los productos de 10 Gigabits son cada vez es más fácil conseguir, el IEEE y la Alianza de Ethernet de 10 Gigabits trabajan actualmente en estándares para 40, 100 e inclusive 160 Gbps. Las tecnologías que se adopten dependerán de un número de factores que incluyen la velocidad de maduración de las tecnologías y de los estándares, la velocidad de adopción por parte del mercado, y el costo de los productos emergentes.

9.6 Hubs y switches
9.6.1 Ethernet antigua: Utilización de hubs
En secciones anteriores, vimos cómo la Ethernet clásica utiliza medios compartidos y control de acceso al medio basado en contenciones. La Ethernet clásica utiliza hubs para interconectar los nodos del segmento de LAN. Los hubs no realizan ningún tipo de filtro de tráfico. En cambio, el hub reenvía todos los bits a todos los dispositivos conectados al hub. Esto obliga a todos los dispositivos de la LAN a compartir el ancho de banda de los medios.
Además, esta implementación de Ethernet clásica origina a menudo grandes niveles de colisiones en la LAN. Debido a estos problemas de rendimiento, este tipo de LAN Ethernet tiene un uso limitado en las redes actuales. Las implementaciones de Ethernet con hubs se utilizan generalmente en la actualidad en LAN pequeñas o LAN con pocos requisitos de ancho de banda. El hecho de que los dispositivos compartan medios crea problemas importantes a medida que la red crece. La figura ilustra algunas de los problemas que aquí se presentan.

Escalabilidad
En una red con hubs, existe un límite para la cantidad de ancho de banda que los dispositivos
pueden compartir. Con cada dispositivo que se agrega al medio compartido, el ancho de banda
promedio disponible para cada dispositivo disminuye. Con cada aumento de la cantidad de dispositivos en los medios, el rendimiento se ve degradado.

Latencia
La latencia de la red es la cantidad de tiempo que le lleva a una señal llegar a todos los destinos del medio. Cada nodo de una red basada en hubs debe esperar una oportunidad de transmisión para evitar colisiones. La latencia puede aumentar notablemente a medida que la distancia entre los nodos se extiende. La latencia también se ve afectada por un retardo de la señal en los medios, así como también por el retardo añadido por el procesamiento de las señales mediante hubs y repetidores. El aumento de la longitud de los medios o de la cantidad de hubs y repetidores conectados a un segmento origina una mayor latencia. A mayor latencia, mayor probabilidad de que los nodos no reciban las señales iniciales, lo que aumenta las colisiones presentes en la red.

Falla de red
Debido a que la Ethernet clásica comparte los medios, cualquier dispositivo de la red puede ocasionar problemas para otros dispositivos. Si cualquier dispositivo conectado al hub genera tráfico perjudicial, puede verse impedida la comunicación de todos los dispositivos del medio. Este tráfico perjudicial puede deberse a una velocidad incorrecta o a los ajustes de full-duplex de la NIC.

Colisiones
Según el CSMA/CD, un nodo no debería enviar un paquete a menos que la red esté libre de tráfico. Si dos nodos envían paquetes al mismo tiempo, se produce una colisión y los paquetes se pierden. Entonces, ambos nodos envían una señal de congestión, esperan una cantidad de tiempo aleatoria, y retransmiten sus paquetes. Cualquier parte de la red en donde los paquetes de dos o más nodos puedan interferir entre ellos se considera como un dominio de colisiones. Una red con una gran cantidad de nodos en el mismo segmento tiene un dominio de colisiones mayor y, generalmente, más tráfico. A medida que aumenta la cantidad de tráfico en la red, aumentan las posibilidades de colisión.
Los switches proporcionan una alternativa para el entorno basado en contenciones de la Ethernet clásica.

9.6.2 Ethernet: Utilización de switches
En los últimos años, los switches se convirtieron rápidamente en una parte fundamental de la mayoría de las redes. Los switches permiten la segmentación de la LAN en distintos dominios de colisiones. Cada puerto de un switch representa un dominio de colisiones distinto y brinda un ancho de banda completo al nodo o a los nodos conectados a dicho puerto. Con una menor cantidad de nodos en cada dominio de colisiones, se produce un aumento en el ancho de banda promedio disponible para cada nodo, y se reducen las colisiones.
Una LAN puede tener un switch centralizado que conecta a hubs que todavía proporcionan conectividad a los nodos. O bien, una LAN puede tener todos los nodos conectados directamente a un switch. Estas topologías se muestran en la figura.
En una LAN en la que se conecta un hub a un puerto de un switch, todavía existe un ancho de banda compartido, lo que puede producir colisiones dentro del entorno compartido del hub. Sin embargo, el switch aislará el segmento y limitará las colisiones para el tráfico entre los puertos del hub.
Los nodos se conectan directamente
En una LAN en la que todos los nodos están conectados directamente al switch, el rendimiento de
la red aumenta notablemente. Las tres principales razones de este aumento son:
Ancho de banda dedicado a cada puerto
Entorno libre de colisiones
Operación full-duplex
Estas topologías físicas en estrella son esencialmente enlaces punto a punto.

Ancho de banda dedicado
Cada nodo dispone del ancho de banda de los medios completo en la conexión entre el nodo y el switch. Debido a que un hub replica las señales que recibe y las envía a todos los demás puertos, los hubs de Ethernet clásica forman un bus lógico. Esto significa que todos los nodos deben compartir el mismo ancho de banda para este bus. Con los switches, cada dispositivo tiene una conexión punto a punto dedicada entre el dispositivo y el switch, sin contención de medios. A modo de ejemplo, pueden compararse dos LAN de 100 mbps, cada una de ellas con 10 nodos. En el segmento de red A, los 10 nodos se conectan a un hub. Cada nodo comparte el ancho de banda de 100 Mbps disponible. Esto ofrece un promedio de 10 Mbps para cada nodo. En el segmento de red B, los 10 nodos se conectan a un switch. En este segmento, los 10 nodos tienen el ancho de banda completo de 100 Mbps disponible.

Incluso en este ejemplo de red pequeña, el aumento del ancho de banda es importante. A medida que la cantidad de nodos aumenta, la discrepancia entre el ancho de banda disponible para las dos implementaciones se incrementa significativamente.


Entorno libre de colisiones Una conexión punto a punto dedicada a un switch también evita contenciones de medios entre dispositivos, lo que permite que un nodo funcione con pocas colisiones o ninguna colisión. En una red Ethernet clásica de tamaño moderado que utiliza hubs, aproximadamente entre el 40% y el 50% del ancho de banda se consume en la recuperación por colisiones. En una red Ethernet con switch, en la que prácticamente no hay colisiones, el gasto destinado a la recuperación por colisiones se elimina casi por completo. Esto le proporciona a la red con switches tasas de rendimiento notablemente mejoradas.

Operación full-duplex
El uso de switches también le permite a una red funcionar como entorno de Ethernet full-duplex. Antes de que existieran los switches, la Ethernet sólo era half-duplex. Esto implicaba que en un momento dado un nodo sólo podía transmitir o recibir. Con la característica full-duplex habilitada en una red Ethernet con switches, los dispositivos conectados directamente a los puertos del switch pueden transmitir y recibir simultáneamente con el ancho de banda completo de los medios.

La conexión entre el dispositivo y el switch está libre de colisiones. Esta disposición efectivamente duplica la velocidad de transmisión cuando se le compara con la half-duplex. Por ejemplo, si la velocidad de la red es de 100 Mbps, cada nodo puede transmitir una trama a 100 Mbps y, al mismo tiempo, recibir una trama a 100 Mbps.

VLan:

El diseño de Ethernet para los años 80, no ofrecía escalabilidad, es decir, al aumentar el tamaño de la red disminuyen sus beneficios. CSMA/CD, el protocolo que controla el acceso al medio compartido en Ethernet, impone de por sí limitaciones en cuanto al ancho de banda máximo y a la máxima distancia entre dos estaciones. Conectar múltiples redes Ethernet era por aquel entonces complicado.  Para solucionar estos problemas, primero apareció el bridge (puente), dispositivo para interconectar dos LANs sin necesidad de Reuters. Luego fue inventado switch, debido  a los Switch se empezó a generar renuncias en la redes.

El protocolo Spaning tree (STP)  surge para asegurarse de que solo haya activo un camino lógico para ir de un nodo a otro y evitar así el fenómeno conocido como tormentas broadcast. Es cuando varios broadcast se envían datos al mismo tiempo. Luego David Sincoskie  consiguie aliviar la sobrecarga de los Switches con el invento de las LAN virtuales.

Red de área local virtual (VLAN), Es un método para crear redes lógicas independientes, dentro de una misma red física. También se puede definir como una red de área local que agrupa un conjunto de equipos de manera lógica y no física.

Efectivamente, la comunicación entre los diferentes equipos en una red de área local está regida por la arquitectura física. Gracias a las redes virtuales (VLAN), es posible liberarse de las limitaciones de la arquitectura física (limitaciones geográficas, limitaciones de dirección, etc.), ya que se define una segmentación lógica basada en el agrupamiento de equipos según determinados criterios. Las VLAN, Son útiles para reducir el tamaño del dominio de difusión y ayudan en la administración de la red, separando segmentos lógicos de una red de área local, que no deberían intercambiar datos usando la red local.  Aunque  podrían hacerlo a través de un enrutador o un conmutador de capa 3 y 4. 

Clasificación
VLAN de nivel 1: Por Puerto
También conocida como “port switching”. Se especifica qué puertos del switch pertenecen a la VLAN, los miembros de dicha VLAN son los que se conectan a esos puertos. No permite la movilidad de los usuarios, habría que reconfigurar las VLAN si el usuario se mueve físicamente.
Con las VLAN de nivel 1 el puerto asignado a la VLAN es independiente del dispositivo conectado en el puerto. Esto significa que todos los usuarios que se conectan al puerto serán miembros de la misma VLAN.

Los puertos de un switch pueden ser de dos tipos, en lo que respecta a las características VLAN:
Puertos de acceso: Un puerto de acceso  pertenece únicamente a una VLAN asignada de forma estática.
Puertos trunk: Un puerto trunk puede ser miembro de múltiples VLAN.

VLAN de nivel 2: Por direcciones MAC
Define una red virtual según las direcciones MAC de las estaciones. Este tipo de VLAN es más flexible que la VLAN basada en puerto, ya que la red es independiente de la ubicación de la estación. El principal inconveniente es que si hay cientos de usuarios habría que asignar los miembros uno a uno.

VLAN de nivel 3
Este se clasifica en dos partes:
Por direcciones de red: La cabecera de nivel 3 se utiliza para mapear la VLAN a la que pertenece. En este tipo de VLAN son los paquetes, y no las estaciones, quienes pertenecen a la VLAN. Conecta subredes según la dirección IP de origen de los datagramas.

Por tipo de protocolo: permite crear una red virtual por tipo de protocolo (por ejemplo, IPv4, IPv6, IPX, AppleTalk, etc.). Por lo tanto, se pueden agrupar todos los equipos que utilizan el mismo protocolo en la misma red.

 VLAN estáticas 
También se denominan VLAN basadas en el puerto. Las asignaciones en una VLAN estática se crean mediante la asignación de los puertos de un switch o conmutador a dicha VLAN. Cuando un dispositivo entra en la red, automáticamente asume su pertenencia a la VLAN a la que ha sido asignado el puerto. Si el usuario cambia de puerto de entrada y necesita acceder a la misma VLAN, el administrador de la red debe cambiar manualmente la asignación a la VLAN del nuevo puerto de conexión en el switch.

VLAN dinámicas
Las VLAN dinámicas son puertos del switch que automáticamente determinan a que VLAN pertenece cada puesto de trabajo. El funcionamiento de estas VLANs se basa en las direcciones MAC, direcciones lógicas o protocolos utilizados.

Durante todo el proceso de configuración y funcionamiento de una VLAN es necesaria la participación de una serie de protocolos entre los que destacan el:

·         IEEE 802.1Q (dot1Q)
Fue un proyecto del grupo de trabajo 802 de la IEEE para desarrollar un mecanismo que permita a múltiples redes compartir de forma transparente el mismo medio físico, sin problemas de interferencia entre ellas (Trunking). Es también el nombre actual del estándar establecido en este proyecto y se usa para definir el protocolo de encapsulamiento usado para implementar este mecanismo en redes Ethernet. Se encarga del etiquetado de las tramas que es asociada inmediatamente con la información de la VLAN

·          
Su función es la de gestionar la presencia de bucles en topologías de red debido a la existencia de enlaces redundantes (necesarios en muchos casos para garantizar la disponibilidad de las conexiones). El protocolo permite a los dispositivos de interconexión activar o desactivar automáticamente los enlaces de conexión, de forma que se garantice la eliminación de bucles. STP es transparente a las estaciones de usuario. Básicamente, es evitar la aparición de bucles lógicos para que haya un sólo camino entre dos nodos. 
·           
VTP son las siglas de VLAN Trunking Protocol, un protocolo de mensajes de nivel 2 usado para configurar y administrar VLANs en equipos Cisco. Permite centralizar y simplificar la administración en un domino de VLANs, pudiendo crear, borrar y renombrar las mismas, reduciendo así la necesidad de configurar la misma VLAN en todos los nodos. El protocolo VTP nace como una herramienta de administración para redes de cierto tamaño, donde la gestión manual se vuelve inabordable.
VTP opera en 3 modos distintos:
·         Servidor
·         Cliente
·         Transparente



Servidor:
Es el modo por defecto. Desde él se pueden crear, eliminar o modificar VLANs. Su cometido es anunciar su configuración al resto de switches del mismo dominio VTP y sincronizar dicha configuración con la de otros servidores, basándose en los mensajes VTP recibidos a través de sus enlaces trunk. Debe haber al menos un servidor. Se recomienda autenticación MD5.

Cliente:
En este modo no se pueden crear, eliminar o modificar VLANs, tan sólo sincronizar esta información basándose en los mensajes VTP recibidos de servidores en el propio dominio. Un cliente VTP sólo guarda la información de la VLAN para el dominio completo mientras el switch está activado. Un reinicio del switch borra la información de la VLAN.

Transparente:
Desde este modo tampoco se pueden crear, eliminar o modificar VLANs que afecten a los demás switches. La información VLAN en los switches que trabajen en este modo sólo se puede modificar localmente. Su nombre se debe a que no procesa las actualizaciones VTP recibidas, tan sólo las reenvía a los switches del mismo dominio.

Los administradores cambian la configuración de las VLANs en el switch en modo servidor. Después de realizar cambios, estos son distribuidos a todos los demás dispositivos en el dominio VTP a través de los enlaces permitidos en el trunk (VLAN 1, por defecto), lo que minimiza los problemas causados por las configuraciones incorrectas y las inconsistencias. Los dispositivos que operan en modo transparente no aplican las configuraciones VLAN que reciben, ni envían las suyas a otros dispositivos. Sin embargo, aquellos que usan la versión 2 del protocolo VTP, enviarán la información que reciban (publicaciones VTP) a otros dispositivos a los que estén conectados con una frecuencia de 5 minutos. Los dispositivos que operen en modo cliente, automáticamente aplicarán la configuración que reciban del dominio VTP. En este modo no se podrán crear VLANs, sino que sólo se podrá aplicar la información que reciba de las publicaciones VTP.

Para que dos equipos que utilizan VTP puedan compartir información sobre VLAN, es necesario que pertenezcan al mismo dominio. Los switches descartan mensajes de otro dominio VTP.
Las configuraciones VTP en una red son controladas por un número de revisión. Si el número de revisión de una actualización recibida por un switch en modo cliente o servidor es más alto que la revisión anterior, entonces se aplicará la nueva configuración. De lo contrario se ignoran los cambios recibidos. Cuando se añaden nuevos dispositivos a un dominio VTP, se deben resetear los números de revisión de todo el dominio VTP para evitar conflictos. Se recomienda tener mucho cuidado al usar VTP cuando haya cambios de topología, ya sean lógicos o físicos. Realmente no es necesario resetear todos los números de revisión del dominio. Sólo hay que asegurarse de que los switches nuevos que se agregen al dominio VTP tengan números de revisión más bajos que los que están configurados en la red. Si no fuese así, bastaría con eliminar el nombre del dominio del switch que se agrega. Esa operación vuelve a poner a cero su contador de revisión.
El VTP sólo aprende sobre las VLAN de rango normal (ID de VLAN 1 a 1005). Las VLAN de rango extendido (ID mayor a 1005) no son admitidas por el VTP. El VTP guarda las configuraciones de la VLAN en la base de datos de la VLAN, denominada vlan.dat.


Ventajas de la VLAN
La VLAN permite definir una nueva red por encima de la red física y, por lo tanto, ofrece las siguientes ventajas:

·        - Mayor flexibilidad en la administración y en los cambios de la red;
·       -  Aumento de la seguridad, ya que la información se encapsula en un nivel adicional y posiblemente se analiza;
·         -Disminución en la transmisión de tráfico en la red.

STP:
El spinning tree es un protocol, es un protocolo de red que se utiliza para evitar los loops o redundancias en las redes switchadas. Este protocolo fue desarrollado por DEC (Abunda más sobre la compañía, si quieres); Cisco utiliza el estándar 802.1D (Abunda sobre la versión si quieres) y el spanning tree es un protocolo que opera en la capa 02 del modelo OSI.

Cómo opera el protocolo para hacer esto, bueno pues este elige lo que es un root bridge, que viene siendo el root principal de la red con switches y cada uno de estos posee un bridge ID y este está compuesto por dos factores que son: Mac Adress & Priority y este es solo un numero Mac adress del switch, la prioridad es un número y mientras menor sea el mismo mayor prioridad del switch y en una red el switch con menor número de priority será el root bridge y si es la prioridad es la misma en los switch es la misma el root bridge será el que tenga la Mac de menor valor (Hexadecimal), y este es el caso en los switch cisco.

Este protocolo tiene una lógica que le permite saber cuál puerto pondrá en modo block, si los puertos tienen diferentes velocidades, el puerto con mayor velocidad se pondrá en modo foward y el menor en block, entonces en caso de que tengan las mismas velocidades los puertos se ponen en block el puerto con mayor número.

Terminología de stp necesaria para evitar loops:

BPDU: Bridge protocol data unit (info cada 2 segundos)

Bridge ID: Identificador de switch formado por priority y Mac

Root Bridge: Switch principal de la red.

Nonroot Bridge:  Todos los Switch que no son rootbridge, estos harán todos los cálculos para evitar los loops tomando como referencia el rootbridge.

Root port: Puerto el que se conecta directamente al rootbridge.

Designaded port: Es el puerto de menor costo, eso es el puerto que tenga mayor ancho de banda. En caso de que tenga el mismo costo se toman el valor de puerto.

NonDesignaded port: los demás puertos.

Forwarding port: Es el puerto por el cual la trama viajará

Black port: Es el puerto que se ha bloqueado por el protocolo.


La selección del root bridge en una red con stp.

Convergencia en spannig tree
Es un aspecto muy importante y esto no es más que le tiempo que tarda los equipos en la red en tener la información sobre la topología de la red, esta dura unos 50 seg. Y cuenta con el Hello, Max age y 
Forward delay.

Estados de puertos en STP

Un puerto en spanning tree protocol puede estar en cinco estados que son: Block, listening, lestening, fowarding, disable.

Block: este puerto no envía trama, solo recibe y analiza los PDU. Dura unos 15 seg.

Listening: Analiza los BPDU para asegurarse la inexistencia de loops. Dura unos 15 seg

Learning: Analiza los BPDU y aprende las rutas para hace la estructura lógica de la red, partiendo del root bridge. Dura unos 15 seg

Fowarding: En este se envía y recibe las tramas. Dura unos 20 seg.

Disable: No se encuentra habilitado y no participa en el STP.


pSelección del Root port
  
El costo el valor constante que le asigna el stp al puerto, el costo dependerá de la velocidad del puerto y el root port es aquel que se encuentra directamente conectado al root bridge y de haber más de un puerto conectado al root bridge se elige el puerto con menor costo. En caso de que no haya un puerto conectado directamente al root bridge se elige la ruta con menor costo acumulado.

Spanning Tree PortFast.

Este es una de las características del stp, este deshabilita el stp de un puerto y se usa para conectar un servidor a un puerto. Ahí se puede ver e tipo de configuración.

Esta es muy utilizada para la configuración de teléfonos IP, para generar broadcast en la red y tener información del DHCP, antes de que el puerto comience a trabajar como fowarding port.
El portfast lo que hace es que el puerto pase de blocking a fowarding sin pasar por listening ni learning. 

El protocolo STP (Spanning Tree Protocol, protocolo del árbol de expansión) es un protocolo de Capa 2 que se ejecuta en bridges y switches. La especificación para STP se denomina IEEE 802.1D. El principal objetivo de STP es garantizar que se impida la creación de bucles en trayectos redundantes en la red ya que los bucles son fatales para una red.

El protocolo fue  desarrollado por la compañía DEC (Digital Equipment Corporation). Esta compañía estadounidense es considerada como pionera en la fabricación de minicomputadoras. Sus productos PDP y VAX fueron probablemente las minicomputadoras más populares para las comunidades científicas y de la ingeniería durante los años 70 y los años 80. Hasta el 2005, sus cadenas de producción todavía fabricaban bajo el nombre de HP.

Respecto al protocolo STP, Cisco utiliza el estándar 802.1D.
802.1D es el estándar de IEEE para bridges MAC (puentes MAC), que incluye bridging (técnica de reenvío de paquetes que usan los switches), el protocolo Spanning Tree y el funcionamiento de redes 802.11, entre otros.

No hay comentarios:

Publicar un comentario