1 / 33

Capa de Enlace de Datos

Capa de Enlace de Datos. Transmisi?n confiable de tramas entre equipos directamente conectados.. Confiabilidad. Errores de transmisi?nDetecci?nRetransmisi?n PARTramas duplicadasN?meros de secuenciaTramas perdidasPetici?n de retransmisi?n. Detecci?n de errores. C?digos de bloques: se agregan bits de redundancia a cada bloque de informaci?n transmitida.VRC y LRC(paridad)CRCx16 x12 x5 1100000100110000010001110110110111.

caressa
Download Presentation

Capa de Enlace de Datos

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


    1. Capa de Enlace de Datos

    2. Capa de Enlace de Datos Transmisión confiable de tramas entre equipos directamente conectados.

    3. Confiabilidad Errores de transmisión Detección Retransmisión PAR Tramas duplicadas Números de secuencia Tramas perdidas Petición de retransmisión Existen también los códigos correctores de errores. Automatic Repet reQuestExisten también los códigos correctores de errores. Automatic Repet reQuest

    4. Detección de errores Códigos de bloques: se agregan bits de redundancia a cada bloque de información transmitida. VRC y LRC (paridad) CRC x16 + x12 + x5 + 1 100000100110000010001110110110111 Polinomios: LAPB 802.3 Shannon (codificación canal): ¿Cuál es la máxima velocidad de transmisión de información C si se acepta una probabilidad de error pequeña e ? C depende de la distribución de probabilidad de los errores en el medio. Si se agregan suficientes bits de redundancia, una palabra de código con bits en error puede distinguirse de otra con una probabililidad alta (distancia de Hamming). Después hay que aplicar Nyquist para determinar qué tan rápido pueden mandarse los bits (información + redundancia). Polinomios: LAPB 802.3 Shannon (codificación canal): ¿Cuál es la máxima velocidad de transmisión de información C si se acepta una probabilidad de error pequeña e ? C depende de la distribución de probabilidad de los errores en el medio. Si se agregan suficientes bits de redundancia, una palabra de código con bits en error puede distinguirse de otra con una probabililidad alta (distancia de Hamming). Después hay que aplicar Nyquist para determinar qué tan rápido pueden mandarse los bits (información + redundancia).

    5. Configuraciones Computadora - terminales (maestro - esclavos) punto a punto multipunto Computadora - computadora (entre pares)

    6. BSC Protocolo orientado a caracteres Utiliza secuencias de caracteres especiales para implementar funciones de control SYN, ENQ, EOT, SOH, STX, ETX, ETB, ACK, NAK, DLE BISYNC Binary Synchronous Communications protocol (Binary Synchronous Control)BISYNC Binary Synchronous Communications protocol (Binary Synchronous Control)

    7. BSC Fases: Establecimiento del enlace SYN SYN dirección ENQ Transferencia de información Terminación SYN SYN EOT

    8. BSC Transferencia de información Envío de mensajes entre usuarios en uno o más bloques (tramas) Protocolo bidireccional alternado Los acuses de recibo se alternan: ACK 0, 1 En modo transparente los caracteres de control van precedidos de DLE inserción de caracteres DLE

    9. BSC

    11. HDLC Protocolo orientado a bits Utiliza un campo de las tramas para implementar funciones de control Transmisión bidireccional simultánea Usa una ventana deslizante En modo transparente inserción de bits IBM SDLC ANSI ADCCP ISO HDLCIBM SDLC ANSI ADCCP ISO HDLC

    12. HDLC

    13. HDLC El FCS cubre: Dirección, Control e Información.El FCS cubre: Dirección, Control e Información.

    14. Ventanas deslizantes

    15. Ventanas deslizantes

    16. Ventanas deslizantes

    17. Rechazos

    18. HDLC Subconjuntos o variantes PPP LAPB LAPM LAPD LAPF LLC LAPD es ABM, siempre usa números de secuencia de 7 bits y direcciones de 16 bits.LAPD es ABM, siempre usa números de secuencia de 7 bits y direcciones de 16 bits.

    19. PPP Usado en Internet computadora - enrutador ISP enrutador - enrutador Es similar a HDLC puede ser orientado a caracteres o a bits utiliza la dirección 0xFF envía tramas UI tiene un nuevo campo: Protocolo En un enlace asíncrono orientado a caracteres, se utiliza el carácter de escape 0x7d Si se necesita confiabilidad se utiliza una conexión abierta con SABME Simpson, W., Editor, "The Point-to-Point Protocol (PPP)", STD 51, RFC 1661, Daydreamer, July 1994. En un enlace asíncrono orientado a caracteres, se utiliza el carácter de escape 0x7d Si se necesita confiabilidad se utiliza una conexión abierta con SABME Simpson, W., Editor, "The Point-to-Point Protocol (PPP)", STD 51, RFC 1661, Daydreamer, July 1994.

    20. PPP Protocolo IP 0x0021 LCP 0xc021 IPCP 0x8021 Link Control Protocol IP Control Protocol es un Network Control ProtocolLink Control Protocol IP Control Protocol es un Network Control Protocol

    21. PPP LCP permite negociar: Tamaño máximo de las tramas Protocolo de autenticación PAP (Protocolo 0xc023) CHAP (Protocolo 0xc223) Compresión del campo Protocolo Supresión de los campos Dirección y Control Por omisión el tamaño máximo es 1500 bytes. Password Authentification Protocol Challenge Handshake Authentification Protocol El campo Protocolo puede usar sólo un byte Pueden suprimirse campos constantesPor omisión el tamaño máximo es 1500 bytes. Password Authentification Protocol Challenge Handshake Authentification Protocol El campo Protocolo puede usar sólo un byte Pueden suprimirse campos constantes

    22. PPP IPCP permite negociar: Dirección IP de la computadora Compresión de los encabezados TCP/IP Protocolo 0x002d Compresión diferencial de encabezados (Van Jacobson)Compresión diferencial de encabezados (Van Jacobson)

    23. LAPB Comandos y respuestas Información Supervisión RR RNR REJ No numeradas SABM SABME UA DM DISC UA

    24. Módems MNP Corrección de errores 10 clases (negociación) MNP4 transmisión síncrona de tramas ensamblado adaptivo de tramas y overhead reducido eficiencia de 120%

    25. Módems MNP MNP5 compresión, eficiencia de 200% MNP9 compresión mejorada (MNP7) piggybacking y retransmisión selectiva eficiencia de 300%

    26. Módems V.42 control de errores LAPM MNP4 V.42bis compresión hasta 4 a 1 V.44 compresión hasta 6 a 1 V.42 bis es LZ V.44 (11/2000)V.42 bis es LZ V.44 (11/2000)

    27. Compresión Reducción de información redundante poco perceptible Compresión Sin pérdida Con pérdida JPEG MPEG MP3 La información describe algo impredecible. MP3 (MPEG-1 Audio Layer-3) Its compression algorithm is based on a complicated psycho-acoustic model. The human hearing range is (20Hz-20Khz) and it is most sensitive (2-4 KHz). The MP3 model among other techniques tries to eliminate the frequencies which the human ear is unable to hear keeping all the hearing frequencies leaving intact the hearing experience. La información describe algo impredecible. MP3 (MPEG-1 Audio Layer-3) Its compression algorithm is based on a complicated psycho-acoustic model. The human hearing range is (20Hz-20Khz) and it is most sensitive (2-4 KHz). The MP3 model among other techniques tries to eliminate the frequencies which the human ear is unable to hear keeping all the hearing frequencies leaving intact the hearing experience.

    28. Compresión Codificación (sin pérdida) Run-length Estadística: Huffman Lempel-Ziv

    29. Compresión Run-length Envía la longitud de secuencias de símbolos repetidos símbolo símbolo símbolo cuenta Run-length como se utiliza en MNP. Otra variante: CTRL count charRun-length como se utiliza en MNP. Otra variante: CTRL count char

    30. Compresión La entropía de un símbolo mide la cantidad de información (en bits) que contiene -log2p(i) La entropía de un mensaje es la suma de la entropía de sus símbolos individuales Shannon: codificación “fuente”. La salida de una fuente se modela como una secuencia de variables aleatorias. Si una fuente emite n símbolos equiprobables (iid), la cantidad de información contenida en un símbolo es: Q = log2(n) = - log2(1/n) // modelo de orden 0 Si n=2 entonces la entropía de cada símbolo es 1 bit Si los símbolos no son equiprobables (no idénticamente distribuidos): Q(i) = -log2p(i) // modelo de primer orden Si p(simbolo)=1/2 entonces la entropía del símbolo es 1 bitShannon: codificación “fuente”. La salida de una fuente se modela como una secuencia de variables aleatorias. Si una fuente emite n símbolos equiprobables (iid), la cantidad de información contenida en un símbolo es: Q = log2(n) = - log2(1/n) // modelo de orden 0 Si n=2 entonces la entropía de cada símbolo es 1 bit Si los símbolos no son equiprobables (no idénticamente distribuidos): Q(i) = -log2p(i) // modelo de primer orden Si p(simbolo)=1/2 entonces la entropía del símbolo es 1 bit

    31. Compresión La entropía de una fuente es el promedio de la entropía de sus símbolos posibles -?p(i)log2p(i) (1<= i <=n) Es el promedio del mínimo número de bits por símbolo que se necesitan para representar la información de la fuente (sin pérdida) La entropía es el valor medio de la cantidad de información asociada a la recepción de un símbolo emitido por la fuente. Si los símbolos no son independientes, se usan probabilidades condicionales: modelos de orden 2 y superiores. MNP7 usa una versión de Huffman que utiliza la probabilidad condicional del siguiente caracter. El teorema de codificación (sin ruido) de Shannon establece que usando una extensión suficientemente grande de la fuente (codificando secuencias suficientemente largas de símbolos y no símbolo por símbolo), la longitud promedio del mensaje codificado puede acercarse tanto como se quiera a la entropía de la fuente.La entropía es el valor medio de la cantidad de información asociada a la recepción de un símbolo emitido por la fuente. Si los símbolos no son independientes, se usan probabilidades condicionales: modelos de orden 2 y superiores. MNP7 usa una versión de Huffman que utiliza la probabilidad condicional del siguiente caracter. El teorema de codificación (sin ruido) de Shannon establece que usando una extensión suficientemente grande de la fuente (codificando secuencias suficientemente largas de símbolos y no símbolo por símbolo), la longitud promedio del mensaje codificado puede acercarse tanto como se quiera a la entropía de la fuente.

    32. Compresión Huffman Construye un árbol binario basado en la probabilidad de ocurrencia de cada símbolo Asigna a los símbolos más frecuentes códigos cortos Huffman dinámico El árbol se construye dinámicamente y varía con el tiempo Es óptimo si se conocen las estadísticas de la fuente (Fixed length symbols -> variable length output bits). Si las probabilidades de los símbolos son potencias de ½, entonces se alcanza el límite de Shannon. Al algoritmo Huffman dinámico también se le conoce como Huffman adaptivo.Es óptimo si se conocen las estadísticas de la fuente (Fixed length symbols -> variable length output bits). Si las probabilidades de los símbolos son potencias de ½, entonces se alcanza el límite de Shannon. Al algoritmo Huffman dinámico también se le conoce como Huffman adaptivo.

    33. Compresión Lempel-Ziv (LZ77 y 78) Basados en un diccionario (dinámico) de cadenas Envían el lugar, en el diccionario, donde se encuentra una cadena ya vista Variaciones de LZ78 se usan en: compress (de UNIX) V.42bis Si el diccionario es infinito, LZ se acerca al límite de Shannon (independientemente de las características de la fuente). Variable length symbols -> fixed length output bits En LZ77 el diccionario es implícito, es una ventana de símbolos pasados. Se envía un índice (de la ventana) y un contador (de caracteres). LZ78 -> LZW(elch) -> LZC(ompress) LZC utiliza índices de longitud variable y reinicia el diccionario si el algoritmo empieza a no comprimir bien por que los patrones del texto han cambiado) LZW -> V42.bis Si el diccionario es infinito, LZ se acerca al límite de Shannon (independientemente de las características de la fuente). Variable length symbols -> fixed length output bits En LZ77 el diccionario es implícito, es una ventana de símbolos pasados. Se envía un índice (de la ventana) y un contador (de caracteres). LZ78 -> LZW(elch) -> LZC(ompress) LZC utiliza índices de longitud variable y reinicia el diccionario si el algoritmo empieza a no comprimir bien por que los patrones del texto han cambiado) LZW -> V42.bis

    34. Compresión En la práctica se utilizan combinaciones de múltiples algoritmos de compresión Por ejemplo: MNP5 usa run length y Huffman dinámico pkzip usa una variante de LZ77 y Huffman MNP7 usa una versión que utiliza la probabilidad condicional del siguiente carácter (modelo de orden 2). pkzip: LZ77 -> LZSS FRF.9: LZ77 -> LZS (ANSI X3.241-1994) The PPP Compression Control Protocol (RFC 1962) provides a method to negotiate and utilize compression protocols over PPP encapsulated links. Puede utilizar LZS. Variaciones de LZ se usan en compress (de UNIX), gif, V.42bis y FRF.9 Pueden utilizarse en conjunto: primero run-length y después Huffman. MNP7 usa una versión que utiliza la probabilidad condicional del siguiente carácter (modelo de orden 2). pkzip: LZ77 -> LZSS FRF.9: LZ77 -> LZS (ANSI X3.241-1994) The PPP Compression Control Protocol (RFC 1962) provides a method to negotiate and utilize compression protocols over PPP encapsulated links. Puede utilizar LZS. Variaciones de LZ se usan en compress (de UNIX), gif, V.42bis y FRF.9 Pueden utilizarse en conjunto: primero run-length y después Huffman.

More Related