Esta cap 2 está dedicado a los procesos de codificación de: fuente, canal y línea.
La cod de fuente que optimiza la asignación binaria a los símbolos de la fuente; mientras la cod de canal, introduce una redundancia estructurada para detectar y/o corregir errores. La cod de línea adapta la señal de tatos al medio de transmisión de banda base.
2. Programa
Objetivos:
Conocer, Comprender y Aplicar los principales
componentes y fundamentos conceptuales de los
sistemas de Telecomunicaciones.
Contenidos:
Clasificación de los sistemas de telecomunicaciones
Información, Señales y Ruido
Proceso de codificación de: fuente, canal y línea
Procesos de Modulación: lineal, angular y digital
Multiplexión: FDM-TDM-WDM
Sistemas radioeléctricos
Sistemas ópticos
2
5. 5
Codificación de fuente, de canal y de línea
de fuente: Redundancia v/s Información: MP3, G.729,
PCM, MPEG, JPEG >>> SACAR REDUNDANCIA
de canal: mediante redundancia controlada se detecta
y/o corrige errores.
ARQ (Automatic Repeat Request), FEC, CRC, BIP (Bit
Interleaved Parity) : Hamming, Trellis code, Haufmann,
Viterbi, Reed Salomon, ...)
de línea: Adaptación al MEDIO
Banda Base de pulsos (HDB3, AMI) ó
Modulación (AM, FM, PSK, QAM)
8. Contenido de información
Una fuente de información genera una
cantidad q de posibles símbolos: S1, S2,
S3, …… Sq. Cada símbolo tiene una cierta
probabilidad de ocurrencia o
incertidumbre: p1, p2, ……pq . De modo que:
p1 + p2 + p2 … pq =1
Un mensaje es un conjunto de símbolos en
que cada uno tiene un contenido de
información I(SK). 8
9. I (SK) depende de pK y debe obedecer
las siguientes condiciones:
9
la relación que cumple:
Según la elección de b: Nat si b = e
Decit si b = 10
Binit si b =2
Contenido de información
10. En el caso b = 2 y para un símbolo (dígito)
binario (bit) , existen dos símbolos: S1 "0"
y S2 "1" . Si ambos son equiprobables,
entonces: p1 = p2 = 0.5
Entonces:
I (S1) = I (S2) = log2 ( 1 /0.5 ) = log2( 2) =1 binit
10
Contenido de información
11. Para un mensaje de una secuencia de N
símbolos, c/u de los q posibles símbolos
con probabilidad pk ocurrirá Npk veces.
Así, la información del símbolo K :
[binit]
Y la información total:
La entropía o información promedio:
11
Contenido de información
[binit/simb]
12. Eficiencia de codificación
Un buen código fuente reduce la cantidad
de bits que se requiere para enviar la
información. La codificación de fuente
consigue que el canal reciba la
información con la menor redundancia
binaria posible, obteniéndose así mayor
eficiencia en términos de ancho de banda
v/s velocidad de transmisión.
12
13. 13
“código adaptado a la fuente”.
Eficiencia=
Eficiencia de codificación
Sea una fuente con:
[binit/simb]
[bit/simb]
[bit/simb]
14. Tipos de codificación
Código bloque: todas los símbolos tienen la misma
longitud.
Código singular: a cada símbolo del alfabeto fuente le
corresponde una única palabra de código.
Código no singular: a cada símbolo del alfabeto
fuente le corresponde dos o más palabras de código.
14
Código compacto o de longitud variable: se busca
que a cada símbolo del alfabeto fuente le
corresponda una palabra de código de longitud mínima
según algún criterio de minimización dado.
15. Propiedades del código
Longitud media: cada símbolo del alfabeto fuente tiene una
longitud lk. entonces:
representa el número medio de bits por símbolo del alfabeto.
Eficiencia: se define como:
Siendo:
Primer teorema de Shannon o teorema de la
codificación de la fuente: “Dada una fuente discreta
de entropía H, la longitud media de la palabra de
código está acotada inferiormente por H”. Teniendo
esto en cuenta Lmin se fija como el valor de la
entropía.
15
16. Propiedades del código
Entonces la eficiencia puede escribirse
como:
Redundancia: Se denomina redundancia
de un código a la información superflua
o innecesaria para interpretar el
significado de los datos originales. Se
define como:
16
17. Códigos eficientes=Compresión
Hay dos tipos de compresión:
Lógica: se trata de reducir los datos
desde el momento del diseño.
Física: proceso de reducción de la
cantidad de datos antes de poner los
datos en el medio de transmisión y
deshacer el proceso en el receptor.
Tiene en cuenta la frecuencia de
ocurrencia de los caracteres.
17
19. Técnicas de compresión orientadas al
caracter
19
Se basa en el uso de un carácter especial que indica que
se ha realizado la compresión. Estas técnicas pueden
utilizarse de forma aislada o combinadas entre sí.
Por ejm. los siguientes métodos:
Eliminación de blanco
Bit Mapping
Run length
Half byte Packing
Codificación dicotómica
20. 20
Ej. eliminación de blancos. Si la cadena de entrada es:
kmqØØØØØØ bgpØØswØØØØj {21}
Una vez realizada la compresión, la cadena resultante
será:
kmqSc6bgpØØswSc4j {15}
Técnicas de compresión orientadas al
caracter
Ej. Bit Mapping. Si la cadena de entrada es:
kmqØØØØØØbgp ØØswØØØØj {21}
mapping:
kmqØØØØØ ØbgpØØsw ØØØØj {21}
11100000 kmq 01110011 bgpsw 00001000 j {12}
Indica posición relativa c/r a blancos
21. Técnicas de compresión
estadísticas
Se usarán codificaciones más cortas para
representar los caracteres con mayor
frecuencia de aparición.
Código de Huffman
Código de Shannon-Fano
Códigos Coma
Codificación aritmética
Compresión adaptativa
21
22. codificación de Shannon-Fano
1º Se ordenan los símbolos de la fuente en orden decreciente
de probabilidad de ocurrencia " p" .
2º La lista ordenada se divide en tramos que, en lo posible, sean
tramos equiprobables.
3º Se asigna un cero como 1er digito binario (más significativo)
a los símbolos del tramo superior y se asigna un uno como 1er
dígito de los símbolos del otro tramo.
4º Cada tramo es, a su vez, dividido en dos sub-tramos que, en
lo posible, sean equiprobables. Se asigna un cero como 2°
digito binario a los símbolos del sub-tramo superior y un uno
como 2° dígito de los símbolos del tramo inferior.
5º Se continúa el proceso hasta que cada tramo se reduce a sólo
dos símbolos.
22
23. 23Entropía de fuente y código iguales = 2,75 [binit/simb]
codificación de Shannon-Fano
25. Teorema Nº 9 de Shannon
“Dado un canal de capacidad C y una
fuente de R[bit/seg] de razón de
información promedio (o velocidad de
entropía) entonces si R C, existe
algún modo de codificar, tal que la
transmisión se puede efectuar, con una
tasa de error arbitrariamente pequeño”
25
Para un canal sin ruido y BW=B, para M niveles de
señal, entonces la máxima tasa de transmisión es:
C=2B log2 M [bps]
26. Tipos de Codificación de Canal
• CODIFICACIÓN DE LA FORMA DE ONDA:
- Se transforman las formas de onda en mejores formas de onda para que el proceso de
detección sea menos propenso a errores.
• SECUENCIAS ESTRUCTURADAS
- Se transforman las secuencias de datos en mejores secuencias de datos mediante el
uso de redundancia estructurada (bits redundantes).
• ¿Por qué usar codificación?
• Desempeño de error vs. ancho de banda
• Potencia vs. ancho de banda
• Tasa de datos vs. ancho de banda
• Capacidad vs. ancho de banda
26
27. Modelos de Canal
•CANAL SIN MEMORIA DISCRETO (DMC)
– Se caracteriza por un alfabeto de entrada discreto, un alfabeto de salida discreto y un
conjunto de probabilidades condicionales P(j | i).
•CANAL SIMÉTRICO BINARIO (BSC)
– Los alfabetos de entrada y salida consisten de los elementos binarios y las
probabilidades condicionales son simétricas.
1)0|0()1|1()0|1(1|0 PPPP
•CANAL GAUSSIANO
– Es un ejemplo de una generalización de los canales DMC para alfabetos
no discretos. El canal adiciona ruido a los símbolos. Tiene como entrada
un alfabeto discreto y como salida un alfabeto continuo sobre el rango de
(-∞ a + ∞)
27
28. Canal con ruido
Como ej. para un canal de 3,4 KHz
C= 6.800 bps para 2 niveles
C= 13.600 bps para 4 niveles
28
Si el canal tiene ruido, a mayor
velocidad de transmisión,
mayor es la tasa de errores.
0.5 seg
A 1.000 bps se pierden 500 bits y
a 30.000 bps son 15.000 bits perdidos
29. PT= S+N
V2
T=Vs+VN
VT
29
donde es el factor de forma,
razón Peak/RMS
El máximo Nº de bits de información para
identificar los niveles es: 2b = VT / VN , o sea:
Nº niveles =2b
V=2VT/2b
T
Canal con ruido
30. 30
Sean M el Nº total de muestras en un intervalo T,
entonces:
Canal con ruido
La máxima tasa de información en T es:
Por el teorema de muestreo:
y la máxima tasa de inf a transmitir:
[muestras]
[bits]
M/T = 2B
31. La capacidad de canal
La ecuación de Shannon
C = B log2 (1+S/N)
Se puede demostrar que el límite
superior de capacidad de canal para una
d.e.p. de ruido blanco:
31
De acuerdo, entonces a lo postulado por Shannon,
se puede transmitir información digital con una
prob.de error arbitrariamente pequeña.
33. Codificación de canal un Ejm.
Ej.: un modem PSK puede operar a:
1.200 [bps] con Pe=2x10-4; ó
2.400 [bps] con Pe=4x 10-4; y
3.600 [bps] con Pe=8 x10-4
33
si se utiliza un codificador que transmita 3[bits] por
cada bit de entrada:
Se agregó redundancia, se Tx a la max. Velocidad,
y mayor Prob. de error, PERO, cada “tripleta”
permite identificar y corregir errores:
Mayor BW y N
34. mucho mejor que la Pe original Pe=2x10-4 !
34
la Pe de salida en recepción:
Probabilidad de que 2 o más bits en la tripleta sean
erróneos.
Codificación de canal ejm cont.
35. Código y procedimiento
ARQ (Automatic Repeat Request), FEC,
CRC, BIP (Bit Interleaved Parity) :
Hamming, Trellis code, Haufmann,
Viterbi, Reed Salomon, ...)
35
ARQ : no es un código, sino un procedimiento o
protocolo de control de errores:
al detectar error > NACK
no hay error > ACK
Sistema lento, requiere repetición y posiblemente
ordenamiento de los paquetes.
Variantes: Stop-and-wait ARQ; Go-Back-N ARQ
Selective Repeat ARQ
36. Petición de Retransmisión
Automática (ARQ)
• PARE Y ESPERE
– Requiere una conexión half-duplex.
– El transmisor espera por un reconocimiento de cada transmisión antes de continuar con
la siguiente.
36
37. Petición de Retransmisión
Automática (ARQ)
• ARQ CONTINUO CON RETROCESO (pullback)
– Requiere una conexión full-duplex.
– El transmisor envía el mensaje con un número de secuencia y, a medida que los
mensajes llegan el destino, el receptor envía los datos de reconocimiento (ACK y
NACK) que deben hacer una referencia al Número de secuencia.
37
39. Código de paridad
Se añade en origen un bit extra
llamado bit de paridad a los n bits que
forman el carácter original. Este bit de
paridad se determina de forma que el
número total de bits 1 a transmitir sea
par (código de paridad par) o impar
(código de paridad impar)
39
Combinación Bit Paridad
0101 0
1001 0
0111 1
1000 1
paridad PAR
39
40. Redundancia en la
Codificación de Canal
• TASA DE CÓDIGO Y REDUNDANCIA
Redundancia
del código
Para implementar la codificación de canal, debe introducirse redundancia en los
mensajes, lo cual implica tener un mayor ancho de banda de transmisión.
El uso de códigos también aumenta la complejidad del sistema.
k
kn )(
Tasa de
código
n
k
Tasa de datos
del canal
so R
k
n
R
Tasa de bit
de la fuentesR 40
41. Conceptos
Distancia de Hamming entre dos palabras:
Nº de bits que difieren dos palabras.
Se necesitan 4 errores para transformar
una palabra en la otra.
41
Distancia Hamming = 4
C1
C2
El peso Hamming de un vector de código C es
definido como el número de componentes no-
cero de C.
42. Distancia de Hamming de un código
Dependiendo de la Dist.Hamming hay
distintas propiedades del código
42
Distancia mínima entre las palabras que
componen el código
Ejm: {100, 111, 011}
mín {d(100, 111), d(100, 011), d(111, 011)} =
mín {2, 3, 1} = 1
43. Propiedades para la
detección de errores
Para detectar t errores de un bit entre dos
palabras, es necesario un código con una distancia
de Hamming de al menos d=t+1
De otra forma: Con una distancia de Hamming de d se
pueden detectar d-1 errores
Ejm: C = {001, 010, 100}, D. Hamming = 2
• Un error aislado siempre se detecta
Un error en 001 ⇒ 101, 011, 000, {∉ C}
• Dos errores aislados no se detectan
Dos errores en 001 ⇒ 111, 010, 100, {2 C}
43
DH D C
1 x x
2 1 x
3 2
1
x
1
4 3
2
x
1
44. Propiedades para la
corrección de errores
Para corregir t errores de un bit entre dos
palabras es necesario un código con una Distancia
de Hamming de al menos 2t+1
De otra forma: Con una distancia de Hamming de d se
pueden corregir (d-1)/2 errores
Ejm: C = {0000000000, 0000011111, 1111100000,
1111111111} d. Hamming = 5
Se pueden detectar d-1 = 5-1 = 4 errores
Se pueden corregir (d-1)/2 = 4/2 = 2 errores
44
FEC : forward error correction
47. Clasificación de Inclusión de la
Redundancia
• CÓDIGOS CONVOLUCIONALES
– De forma continua a medida que llega la información al codificador.
• CÓDIGOS DE BLOQUE
– Asociada a bloques de información
Códigos de canal
Códigos bloque Códigos Trellis
Códigos
lineales
Códigos no
lineales
Códigos
convolucionales
Codigos Coset
Códigos cíclicos 47
48. Códigos Bloque
Un bloque de “n” bits de salida está formado por el
bloque de “k” bits de entrada más un grupo de “r”
bits de chequeo.
Éstos son derivados del bloque de bits de entrada
(bits de información) mediante alguna operación
matemática.
En el decodificador los bits de chequeo son usados para
verificar si los bits de información que llegan en el bloque,
tienen o no errores.
En el codificador (transmisor) cada nuevo bloque de entrada
genera un nuevo bloque de salida, que sólo está relacionado
con el bloque de entrada actual y con ninguno de los bloques
de entrada precedentes. 48
49. Código bloque Lineal (n,k)
El código es sistemático si, en las palabras
codificadas, los k bits de mensaje aparecen
primero, en el tiempo, y los “n-k” bits
agregados, o redundantes, van después.
49
El código bloque es lineal si c/u de las 2k
palabras codificadas puede expresarse como
una combinación lineal de k vectores de
código linealmente independientes.
50. Proceso de codificación
El codificador transforma cada bloque de k
bits en un bloque más grande, de n bits, de
acuerdo con alguna regla predeterminada. Los
(n – k) bits adicionales se generan mediante
combinaciones lineales de los bits de mensaje,
pudiendo describirse la operación de
codificación mediante matrices.
50
El mensaje a transmitir es segmentado en
bloques de k bits.
51. razón de eficiencia del código= k/n
Vector fila de dimensión K, 2k “bloques”
51
CODIFICADOR
Proceso de codificación
código de bloque (n, k)
Los primeros k bits de C
Ci =di i =1, 2,3,.........., k
|G|
52. La matriz de codificación
últimos (n – k) bits de C son generados desde
los k bits de mensaje según alguna regla
predeterminada
52
Los coeficientes pij pueden ser
“0” o “1”, y las sumas son “en
módulo 2”
53. Matriz generadora
El vector datos genera el vector paridad
53
Donde:
P es una matriz, de 1’s y 0’s, arbitraria k x(n – k )
Ver Anexo Mx
54. Matriz paridad y chequeo
La matriz P puede buscar que G tenga ciertas
propiedades de: facilidad de implementar,
capacidad de corregir errores aleatorios o en
ráfagas, etc.
54
Para decodificar, se opera con la matriz H,
de chequeo de paridad:
El vector del mensaje recibido es:
donde E es el posible error
55. Matriz HT
La elección de la matriz HT de dimensión
(n)x(n-k) debe seguir las
siguientes reglas:
55
Las n filas de HT deben ser
distintas.
No se debe usar una fila con todos ceros.
Las últimas (n – k) filas deben ser la matriz
identidad en H.
Hay2n-k filas distintas de (n-k) componentes, de las
cuales se puede escoger “2n-k-1” filas distintas para
HT (se excluye la fila de todos cero).
56. Para determinar la dimensión de la matriz, se
debe tener en cuenta la Dmin requerida, ya
que HT tiene n filas distintas, entonces:
56
Entonces, dado un mensaje original con largo de
bloques de entrada de k bits, podemos determinar el
nuevo largo del bloque de salida de n bits, de modo
que:
Matriz HT
57. 57
DECODIFICADOR
Proceso de decodificación
y el vector Síndrome:
|H|
El proceso inverso:
R= (d1,d2,………dk)
S (n-k)= cero, si R no tiene error, o sea, si R es una de
las palabras C “válidas”; sin embargo, R podría ser
del C original: Significa que hay error(es).
58. Ejm codif y decodif
58
Matriz generadora
Sea un código bloque lineal sistemático (7, 4) con
matriz de paridad
Para la entrada di = [1 1 0 1]
produce la salida ci = [1 1 0 1 0 0 1]
59. Sea un código bloque lineal sistemático (4, 2)
con matriz generadora
59
Matriz generadora
Ejm codif y decodif
La distancia mínima es dmin = 2 < (n − k + 1 = 3).
Si se transmite la palabra c = [0 0 1 1] y
se recibe: r = [1 1 1 1]
el sistema detecta el error ya que el
síndrome s = [1 0] es distinto de cero.
Sin embargo, no es capaz de corregirlo ya que
hay varios patrones con peso 1.
60. Códigos de Hamming
–Los códigos Hamming son una subclase de los códigos
de bloque lineal y pertenecen a la categoría de los
códigos perfectos.
–Se expresan como una función de un entero m>=2
60
m
m
m
61. Código (7,4) de Hamming
– Es común referirse al código de Hamming(7,4) que Hamming introdujo en 1950.
– El código de Hamming agrega tres bits adicionales de comprobación por cada
cuatro bits de datos del mensaje.
– El algoritmo de Hamming (7,4) puede corregir cualquier error de un solo bit,
pero más de un bit error NO,
– Los tres bits de comprobación se ubican en las posiciones de la palabra a
transmitir que correspondan a potencias de dos, es decir, las posiciones 1, 2,
4, 8,…
– Los bits de información serán los restantes:
61
62. Códigos (7,4) de Hamming
–Para el cálculo de cada uno de los bits de paridad, se verifican
los bits ubicados en posiciones específicas.
–El cálculo será así:
–Para el bit de paridad 1:
–Para el bit de paridad 1:
62
63. Códigos (7,4) de Hamming
–Para el cálculo de cada uno de los bits de paridad, se verifican
los bits ubicados en posiciones específicas.
–El cálculo será así:
–Para el bit de paridad 4:
–Para el bit de paridad 8:
63
64. Códigos CRC
CÓDIGOS CÍCLICOS, una subclase de los códigos
bloques lineales. Es un código en que cada palabra
válida es un corrimiento lateral de unas a otras.
ventajas:
La codificación y la determinación del síndrome
pueden implementarse usando registros de
desplazamiento y realimentaciones.
Obedecen a una estructura matemática que
permite diseñar códigos con propiedades
detectoras y, también, correctoras de error.
Se describen con polinomios. 64
65. Un código bloque lineal (n, k) es un
código cíclico si:
65
es un vector del código C, y
también es vector del código C.
Esta propiedad permite considerar los
elementos de cada vector, como coeficientes
de un polinomio de grado (n -1).
Códigos CRC polinomio
66. O sea,
66
Si se divide xiV (x) por xn+1
V (i)(x) es el residuo
Vi= representa a V desplazada en forma cíclica (i)
lugares hacia la izquierda.
Códigos CRC desplazamiento
67. Sea C(x)= d(x) g(x) un código CRC, para
ello:
d(x) es grado (k-1), y
g(x) es grado (n-k) y factor de (xn+1)
67
Un vector de datos es:
d(x)= d1x(k-1)+d2x(k-2)+……+dk
C(x)= d1x(k-1)g(x)+d2x(k-2)+g(x)……+dk g(x)
polinomio de grado (n-1) o menor
Códigos CRC pol.generador
68. Existe un total de 2k polinomios,
correspondientes a 2k vector de datos. Así un
código lineal (n,k) generado por C(x)=d(x)g(x)
68
Por Ej. para un código (7,4)
x7+1 = (x+1)(x3+x+1)(x3+x2+1)
son factores de xn+1
Para g(x) válido debe ser de orden (n-k)=3
Sea entonces g(x)=(x3+x2+1)
Y si los datos son: d= 1 0 1 0
x3 x2 x1x0
d(x)= x3+x
Códigos CRC factores
70. Decodificación CRC
Como todo C(x) válido es un múltiplo de
g(x), si hay un error en la palabra
recibida r(x), ésta NO será múltiplo de
g(x), así:
70
Siendo S(x) el Residuo de grado n-k-1 o
menor, llamado el SINDROME de la
decodificación. Indicando existencia o no de
error.
71. Si e(x) es el polinomio error, entonces
r(x) = C(x) + e(x)
y como C(x) es múltiplo de g(x),
S(x) = Res [C(x) + e(x)] / g(x)
O sea, S(x) = Res e(x) / g(x) 0
71
Decodificación CRC
Teniendo el patrón de errores se puede corregir
72. Ejm de polinomios generadores
72
Algunos estándares internacionales:
73. Gran variedad de códigos
73
Códigos Convolucionales;
CRC; BIP (Bit Interleaved Parity);
Hamming;Trellis code; Haufmann;
Viterbi; Reed Salomon; BCH, y mas…
Tema de lectura !
74. Probabilidad de error
74
La probabilidad de error está acotada por la
probabilidad de que ocurran más de t errores.
En canales AWGN:
donde p es la probabilidad de que ocurra un error en
un bit.
Para una modulación BPSK:
75. Para SNR altas:
75
Puede demostrarse que cuando el ruido es blanco
gaussiano y la modulación es BPSK:
Probabilidad de error
76. Probabilidad de error
ejm
Calcular la probabilidad de error de un código bloque
lineal (5, 2) con dmin = 3, considerando que se utiliza
una modulación BPSK con Eb/No = 10dB.
76
En unidades naturales Eb/N0 = 10. Por tanto, Ec/N0 = 4.
La probabilidad de error es p = Q(√8) = 2.34 × 10−3.
Para este valor de p, dmin = 3, t = ⌊0.5(dmin − 1)⌋ = 1 y
k = 2, se obtiene Pe(1) ≤ 4.92 × 10−5 y
Por otro lado, Pe(2) = 2.7 × 10−3.
La probabilidad de error sin codificar es:
Pb = Q(√20) = 3.87 × 10−6.
79. Características
También una suerte de codificación
de canal
Adapta señal al medio de tx.
Modo de modulación de banda base
Transmisión binaria y m-aria
Facilita recuperación de sincronismo
Reduce ancho espectral
Elimina componente DC
79
81. Cod lineal NRZ, NRZI, RZ
Codigos binarios polar de minimo BW, pero
carece de sincronismo
Tiene contenido DC
Cod RZ usa doble BW que NRZ y NRZI
Son usados sólo para muy corta distancia,
si hay acoplamiento DC y baja velocidad
81
82. Señales de cod de línea
82
Tck
Tck/2
Reloj
NRZ
RZ
AMI
Tck/2
1 0 1 1 0 1 0 1
+V
-V
+V
-V
+V
-V
84. Unipolar NRZ
(Binary On-Off Keying)
T =1/R es la duración
del bit, y R es la
tasa binaria de bits
por segundo.
V es el nivel de
voltaje del bit 1
84
PSD de varios cod línea,
con R =1/T (tasa binaria)
85. Probabilidad de error
binaria para varios
códigos de línea.
85
Eb/N0 es una medida de
razón señal-ruido (SNR)
de la señal recibida.
Eb es la energía en un
bit 1: V2T
Unipolar NRZ
(Binary On-Off Keying)
86. Observar que para señal NRZ si
hay una larga secuencia de 1s o 0s
puede resultar en pérdida de
sincronismo, debido a que no hay
transiciones de pulsos.
86
88. Código Manchester
88
0 = transición de “+” a “-”
en centro de intervalo
1 = transición de “-” a “+” en
centro de intervalo
Biphase-L or Manchester II
0 = transición de “-” a “+” en
centro de intervalo
1 = transición de “+” to “-”
en centro de intervalo
Manchester Diferencial
Transición siempre en
centro de intervalo
0 = transición en inicio de intervalo
1 = no transición en inicio de intervalo
89. Pseudoternarios
89
0 = alterna “+” y “-”
1 = 0 V
Bipolar-AMI
0 = 0
1 = alterna “+” y “-”
Si se detecta un “1” cuando el último “1” no tiene polaridad opuesta:
violación de bipolaridad. Por lo tanto puede detactar error.
Twinned binary code
0 a 1 transmite “+”
1 a 0 transmite “-”
0 a 0 transmite “0”
1 a 1 transmite “0”
90. CMI (Coded Mark Inversion)
bit “1” es representado como en AMI: um pulso de
duración T segundos de polaridad alternada.
bit “0” es representado por pulso:
90
91. Código de Línea Bloque
91
HDB3
V: violación de bipolaridad
B: balance de bipolaridad
AMI que no permite mas de tres ceros consecutivos
92. AMI que reemplaza 8 ceros consecutivos,
reemplazando por dos violaciones de paridad.
92
Código de Línea Bloque B8ZS
93. Código Línea Bloque multinivel
93
En este caso, la tasa de símbolos es menor que la
tasa de bits.
Códigos kBnT
k n codigo eficiencia
1 1 1B1T 63%
3 2 3B2T 95%
4 3 4B3T 84%
6 4 6B4T 95%
7 5 7B5T 89%
Eficiencia para k y n valores con 3 niveles
k es el Nº de bits de información en el block y n es
el Nº de símbolos ternarios en el código.
94. Código 4B3T
Se convierte un bloque de 4 dígitos binarios
em un bloque de 3 dígitos ternarios.
De los 33=27 bloques ternarios posibles, sólo
se usan 16, correspondientes a los 24=16
bloques binarios.
Se define una “disparidad acumulada” en
relación a una “historia” de niveles (“+”) y
(“-“)
La regla de codificación es compleja y
obedece a um diagrama de estados.
94
95. Diagrama de transición de
estados 4B3T
Asegura balance DC y una fuerte
componente de reloj.
95
98. Utilización
98
AMI Sistema T1
HDB3
ITU-T G.703, 2,8,34
Mbps
CMI idem 140Mbps
Manchester
Ethernet 802.3:
Grabación magnética;
distribución de reloj
4B3T USA 34, 140 Mbps
2B1Q RDSI, modem BB
99. Conclusión:
99
Preguntas: ¿ ?
En los sistemas de Telecomunicaciones se
optimiza el BW con los códigos de fuente y de
protege la información ante los efectos del
ruido con los códigos de canal.
La codificación de línea puede interpretarse
como una codificación de canal y también
como una modulación.
100. Refs.
- B.P. Lathi; Sistemas de Comunicaciones
- K.M. Shammugan; Digital and Analog
Communication Systems
- Principios de Tx de Información,
Briceño
- Teoría de Información; AF.Kuri
- Comunicaciones Digitales; M.Mezoa
- Apuntes prof R.Villarroel
100
101. 101
1.- Determine código (7,4) dada:
Comprobar mensaje recibido:
R= 1 0 0 1 0 0 1
2.- Considere la palabra de datos de 8 bits "01101011“ y codifique
según procedimiento de Codificación Hamming. Luego considere que el
bit de la derecha, por error, cambia de 1 a 0.
3.- Revise el paper de C.Shannon “The Mathematical Theory of
Communication” e identifique cuantos teoremas enunció.
4.- Determine la Cantidad de Información que contiene una imagen de
imagen de 16x16 pixeles. Considerando que se requiere identificar
cada una de las posiciones de dichos pixeles y si además, se usa un
código que identifica 256 combinaciones de colores primarios y 256
combinaciones de niveles de intensidad para cada pixel.
101
Investigar:
102. Concepto de matriz
102
Se denomina matriz a todo conjunto de números o
expresiones dispuestos en forma rectangular, formando
filas y columnas.
El conjunto de matrices de m filas y n columnas se
denota por Amxn o (aij), y un elemento cualquiera de la
misma, que se encuentra en la fila i y en la columna j,
por aij.
Anexo
recordando matrices
103. 103
Una matriz identidad es una matriz diagonal en la que los
elementos de la diagonal principal son iguales a 1.
Matriz identidad o unidad
Matriz fila
Matriz columna
Anexo
recordando matrices
104. 104
Anexo
recordando matrices
Dadas dos matrices de la misma dimensión,
A=(aij) y B=(bij), se define la matriz suma como:
A+B=(aij+bij). Es decir, aquella matriz cuyos elementos
se obtienen: sumando los elementos de las dos
matrices que ocupan la misma misma posición.
105. Anexo
recordando matrices
105
Dos matrices A y B se dicen multiplicables si el número
de columnas de A coincide con el número de filas de B.
Mm x n x Mn x p = M m x p
El elemento cij de la matriz producto se obtiene
multiplicando cada elemento de la fila i de la matriz A
por cada elemento de la columna j de la matriz B y
sumándolos.
106. 106
Matriz traspuesta
Dada una matriz A, se llama matriz traspuesta de A a
la matriz que se obtiene cambiando ordenadamente
las filas por las columnas
(At)t = A
(A + B)t = At + Bt
(α ·A)t = α· At
(A · B)t = Bt · At
Anexo
recordando matrices
107. Multiplicación de polinomios
P(x) = 2x2 − 3 Q(x) = 2x3 − 3x2 + 4x
Se multiplica cada monomio del primer polinomio por todos
los elementos segundo polinomio.
P(x) · Q(x) = (2x2 − 3) · (2x3 − 3x2 + 4x) =
= 4x5 − 6x4 + 8x3 − 6x3 + 9x2 − 12x =
Se suman los monomios del mismo grado.
= 4x5 − 6x4 + 2x3 + 9x2 − 12x
Se obtiene otro polinomio cuyo grado es la suma de
los grados de los polinomios que se multiplican.
107
Anexo
recordando polinomios
109. Suma de polinonomios.
Ordenar escribiendo uno debajo del otro, de
forma que los monomios semejantes queden
en columnas y se puedan sumar:
P(x) = 7x4 + 4x2 + 7x + 2 Q(x) = 6x3 + 8x +3
P(x) + Q(x) = 7x4 + 6x3 + 4x2 + 15x + 5 109
Anexo
recordando polinomios
110. División de polinomios:
P(x) = x5 + 2x3 − x − 8 Q(x) = x2 − 2x + 1
P(x) : Q(x)
A la izquierda se anota el dividendo. Si el polinomio no es
completo deja espacios en los lugares que correspondan.
A la derecha situar el divisor dentro de una caja.
Dividir el primer monomio del dividendo entre el primer
monomio del divisor.
110
x5 : x2 = x3
Anexo
recordando polinomios
111. Multiplicar cada término del polinomio divisor
por el resultado anterior y restar del
polinomio dividendo:
111
Volver a dividir el primer monomio del dividendo
entre el primer monomio del divisor. Y el resultado se
multiplica por el divisor y lo resta al dividendo.
2x4 : x2 = 2 x2
Anexo
recordando polinomios
113. Volvemos a hacer las mismas operaciones.
113
8x2 : x2 = 8
10x − 16 es el resto, porque su grado es menor que
el del divisor y por tanto no se puede continuar
dividiendo.
x3 + 2x2 + 5x + 8 es el cociente.
Anexo
recordando polinomios