SlideShare uma empresa Scribd logo
1 de 114
Baixar para ler offline
Plan Complementario
SISTEMAS DE
TELECOMUNICACIONES
EIE 846
Francisco Apablaza M.
2013
famapablaza@hotmail.com
Programa
Objetivos:
Conocer, Comprender y Aplicar los principales
componentes y fundamentos conceptuales de los
sistemas de Telecomunicaciones.
Contenidos:
Clasificación de los sistemas de telecomunicaciones
Información, Señales y Ruido
Proceso de codificación de: fuente, canal y línea
Procesos de Modulación: lineal, angular y digital
Multiplexión: FDM-TDM-WDM
Sistemas radioeléctricos
Sistemas ópticos
2
Introducción
3
Introducción
5
Codificación de fuente, de canal y de línea
 de fuente: Redundancia v/s Información: MP3, G.729,
PCM, MPEG, JPEG >>> SACAR REDUNDANCIA
 de canal: mediante redundancia controlada se detecta
y/o corrige errores.
 ARQ (Automatic Repeat Request), FEC, CRC, BIP (Bit
Interleaved Parity) : Hamming, Trellis code, Haufmann,
Viterbi, Reed Salomon, ...)
 de línea: Adaptación al MEDIO
Banda Base de pulsos (HDB3, AMI) ó
Modulación (AM, FM, PSK, QAM)
Códigos de fuente
6
QR
BaudotMorse
ASCCI
7
Códigos de fuente
PCM, G.711, G.729,
7MPEG, JPEG
Contenido de información
Una fuente de información genera una
cantidad q de posibles símbolos: S1, S2,
S3, …… Sq. Cada símbolo tiene una cierta
probabilidad de ocurrencia o
incertidumbre: p1, p2, ……pq . De modo que:
p1 + p2 + p2 … pq =1
Un mensaje es un conjunto de símbolos en
que cada uno tiene un contenido de
información I(SK). 8
I (SK) depende de pK y debe obedecer
las siguientes condiciones:
9
la relación que cumple:
Según la elección de b: Nat si b = e
Decit si b = 10
Binit si b =2
Contenido de información
En el caso b = 2 y para un símbolo (dígito)
binario (bit) , existen dos símbolos: S1 "0"
y S2 "1" . Si ambos son equiprobables,
entonces: p1 = p2 = 0.5
Entonces:
I (S1) = I (S2) = log2 ( 1 /0.5 ) = log2( 2) =1 binit
10
Contenido de información
Para un mensaje de una secuencia de N
símbolos, c/u de los q posibles símbolos
con probabilidad pk ocurrirá Npk veces.
Así, la información del símbolo K :
[binit]
Y la información total:
La entropía o información promedio:
11
Contenido de información
[binit/simb]
Eficiencia de codificación
Un buen código fuente reduce la cantidad
de bits que se requiere para enviar la
información. La codificación de fuente
consigue que el canal reciba la
información con la menor redundancia
binaria posible, obteniéndose así mayor
eficiencia en términos de ancho de banda
v/s velocidad de transmisión.
12
13
“código adaptado a la fuente”.
Eficiencia=
Eficiencia de codificación
Sea una fuente con:
[binit/simb]
[bit/simb]
[bit/simb]
Tipos de codificación
Código bloque: todas los símbolos tienen la misma
longitud.
Código singular: a cada símbolo del alfabeto fuente le
corresponde una única palabra de código.
Código no singular: a cada símbolo del alfabeto
fuente le corresponde dos o más palabras de código.
14
Código compacto o de longitud variable: se busca
que a cada símbolo del alfabeto fuente le
corresponda una palabra de código de longitud mínima
según algún criterio de minimización dado.
Propiedades del código
Longitud media: cada símbolo del alfabeto fuente tiene una
longitud lk. entonces:
representa el número medio de bits por símbolo del alfabeto.
Eficiencia: se define como:
Siendo:
Primer teorema de Shannon o teorema de la
codificación de la fuente: “Dada una fuente discreta
de entropía H, la longitud media de la palabra de
código está acotada inferiormente por H”. Teniendo
esto en cuenta Lmin se fija como el valor de la
entropía.
15
Propiedades del código
Entonces la eficiencia puede escribirse
como:
Redundancia: Se denomina redundancia
de un código a la información superflua
o innecesaria para interpretar el
significado de los datos originales. Se
define como:
16
Códigos eficientes=Compresión
Hay dos tipos de compresión:
 Lógica: se trata de reducir los datos
desde el momento del diseño.
 Física: proceso de reducción de la
cantidad de datos antes de poner los
datos en el medio de transmisión y
deshacer el proceso en el receptor.
Tiene en cuenta la frecuencia de
ocurrencia de los caracteres.
17
Códigos eficientes=Compresión
18
Las técnicas más utilizadas para
la compresión son:
 orientadas al caracter
 estadísticas
 basadas en diccionario
Técnicas de compresión orientadas al
caracter
19
Se basa en el uso de un carácter especial que indica que
se ha realizado la compresión. Estas técnicas pueden
utilizarse de forma aislada o combinadas entre sí.
Por ejm. los siguientes métodos:
Eliminación de blanco
Bit Mapping
Run length
Half byte Packing
Codificación dicotómica
20
Ej. eliminación de blancos. Si la cadena de entrada es:
kmqØØØØØØ bgpØØswØØØØj {21}
Una vez realizada la compresión, la cadena resultante
será:
kmqSc6bgpØØswSc4j {15}
Técnicas de compresión orientadas al
caracter
Ej. Bit Mapping. Si la cadena de entrada es:
kmqØØØØØØbgp ØØswØØØØj {21}
mapping:
kmqØØØØØ ØbgpØØsw ØØØØj {21}
11100000 kmq 01110011 bgpsw 00001000 j {12}
Indica posición relativa c/r a blancos
Técnicas de compresión
estadísticas
Se usarán codificaciones más cortas para
representar los caracteres con mayor
frecuencia de aparición.
Código de Huffman
Código de Shannon-Fano
Códigos Coma
Codificación aritmética
Compresión adaptativa
21
codificación de Shannon-Fano
1º Se ordenan los símbolos de la fuente en orden decreciente
de probabilidad de ocurrencia " p" .
2º La lista ordenada se divide en tramos que, en lo posible, sean
tramos equiprobables.
3º Se asigna un cero como 1er digito binario (más significativo)
a los símbolos del tramo superior y se asigna un uno como 1er
dígito de los símbolos del otro tramo.
4º Cada tramo es, a su vez, dividido en dos sub-tramos que, en
lo posible, sean equiprobables. Se asigna un cero como 2°
digito binario a los símbolos del sub-tramo superior y un uno
como 2° dígito de los símbolos del tramo inferior.
5º Se continúa el proceso hasta que cada tramo se reduce a sólo
dos símbolos.
22
23Entropía de fuente y código iguales = 2,75 [binit/simb]
codificación de Shannon-Fano
Códigos de canal
Usualmente el objetivo es reducir Pe o
el requerimiento en la relación Eb/No. 24
Teorema Nº 9 de Shannon
“Dado un canal de capacidad C y una
fuente de R[bit/seg] de razón de
información promedio (o velocidad de
entropía) entonces si R  C, existe
algún modo de codificar, tal que la
transmisión se puede efectuar, con una
tasa de error arbitrariamente pequeño”
25
Para un canal sin ruido y BW=B, para M niveles de
señal, entonces la máxima tasa de transmisión es:
C=2B log2 M [bps]
Tipos de Codificación de Canal
• CODIFICACIÓN DE LA FORMA DE ONDA:
- Se transforman las formas de onda en mejores formas de onda para que el proceso de
detección sea menos propenso a errores.
• SECUENCIAS ESTRUCTURADAS
- Se transforman las secuencias de datos en mejores secuencias de datos mediante el
uso de redundancia estructurada (bits redundantes).
• ¿Por qué usar codificación?
• Desempeño de error vs. ancho de banda
• Potencia vs. ancho de banda
• Tasa de datos vs. ancho de banda
• Capacidad vs. ancho de banda
26
Modelos de Canal
•CANAL SIN MEMORIA DISCRETO (DMC)
– Se caracteriza por un alfabeto de entrada discreto, un alfabeto de salida discreto y un
conjunto de probabilidades condicionales P(j | i).
•CANAL SIMÉTRICO BINARIO (BSC)
– Los alfabetos de entrada y salida consisten de los elementos binarios y las
probabilidades condicionales son simétricas.
    1)0|0()1|1()0|1(1|0 PPPP
•CANAL GAUSSIANO
– Es un ejemplo de una generalización de los canales DMC para alfabetos
no discretos. El canal adiciona ruido a los símbolos. Tiene como entrada
un alfabeto discreto y como salida un alfabeto continuo sobre el rango de
(-∞ a + ∞)
27
Canal con ruido
Como ej. para un canal de 3,4 KHz
C= 6.800 bps para 2 niveles
C= 13.600 bps para 4 niveles
28
Si el canal tiene ruido, a mayor
velocidad de transmisión,
mayor es la tasa de errores.
0.5 seg
A 1.000 bps se pierden 500 bits y
a 30.000 bps son 15.000 bits perdidos
PT= S+N
V2
T=Vs+VN
VT
29
donde  es el factor de forma,
razón Peak/RMS
El máximo Nº de bits de información para
identificar los niveles es: 2b = VT / VN , o sea:
Nº niveles =2b
V=2VT/2b
T
Canal con ruido
30
Sean M el Nº total de muestras en un intervalo T,
entonces:
Canal con ruido
La máxima tasa de información en T es:
Por el teorema de muestreo:
y la máxima tasa de inf a transmitir:
[muestras]
[bits]
M/T = 2B
La capacidad de canal
La ecuación de Shannon
C = B log2 (1+S/N)
Se puede demostrar que el límite
superior de capacidad de canal para una
d.e.p. de ruido blanco:
31
De acuerdo, entonces a lo postulado por Shannon,
se puede transmitir información digital con una
prob.de error arbitrariamente pequeña.
Modelo de Canal
CANAL SIMÉTRICO BINARIO (BSC)
32
Codificación de canal un Ejm.
Ej.: un modem PSK puede operar a:
1.200 [bps] con Pe=2x10-4; ó
2.400 [bps] con Pe=4x 10-4; y
3.600 [bps] con Pe=8 x10-4
33
si se utiliza un codificador que transmita 3[bits] por
cada bit de entrada:
Se agregó redundancia, se Tx a la max. Velocidad,
y mayor Prob. de error, PERO, cada “tripleta”
permite identificar y corregir errores:
Mayor BW y N
mucho mejor que la Pe original Pe=2x10-4 !
34
la Pe de salida en recepción:
Probabilidad de que 2 o más bits en la tripleta sean
erróneos.
Codificación de canal ejm cont.
Código y procedimiento
ARQ (Automatic Repeat Request), FEC,
CRC, BIP (Bit Interleaved Parity) :
Hamming, Trellis code, Haufmann,
Viterbi, Reed Salomon, ...)
35
ARQ : no es un código, sino un procedimiento o
protocolo de control de errores:
al detectar error > NACK
no hay error > ACK
Sistema lento, requiere repetición y posiblemente
ordenamiento de los paquetes.
Variantes: Stop-and-wait ARQ; Go-Back-N ARQ
Selective Repeat ARQ
Petición de Retransmisión
Automática (ARQ)
• PARE Y ESPERE
– Requiere una conexión half-duplex.
– El transmisor espera por un reconocimiento de cada transmisión antes de continuar con
la siguiente.
36
Petición de Retransmisión
Automática (ARQ)
• ARQ CONTINUO CON RETROCESO (pullback)
– Requiere una conexión full-duplex.
– El transmisor envía el mensaje con un número de secuencia y, a medida que los
mensajes llegan el destino, el receptor envía los datos de reconocimiento (ACK y
NACK) que deben hacer una referencia al Número de secuencia.
37
Petición de Retransmisión
Automática (ARQ)
• ARQ CONTINUO CON REPETICIÓN SELECTIVA
– Requiere una conexión full-duplex.
38
Código de paridad
Se añade en origen un bit extra
llamado bit de paridad a los n bits que
forman el carácter original. Este bit de
paridad se determina de forma que el
número total de bits 1 a transmitir sea
par (código de paridad par) o impar
(código de paridad impar)
39
Combinación Bit Paridad
0101 0
1001 0
0111 1
1000 1
paridad PAR
39
Redundancia en la
Codificación de Canal
• TASA DE CÓDIGO Y REDUNDANCIA
Redundancia
del código
Para implementar la codificación de canal, debe introducirse redundancia en los
mensajes, lo cual implica tener un mayor ancho de banda de transmisión.
El uso de códigos también aumenta la complejidad del sistema.
k
kn )( 

Tasa de
código
n
k

Tasa de datos
del canal
so R
k
n
R 
Tasa de bit
de la fuentesR 40
Conceptos
Distancia de Hamming entre dos palabras:
Nº de bits que difieren dos palabras.
Se necesitan 4 errores para transformar
una palabra en la otra.
41
Distancia Hamming = 4
C1
C2
El peso Hamming de un vector de código C es
definido como el número de componentes no-
cero de C.
Distancia de Hamming de un código
Dependiendo de la Dist.Hamming hay
distintas propiedades del código
42
Distancia mínima entre las palabras que
componen el código
Ejm: {100, 111, 011}
mín {d(100, 111), d(100, 011), d(111, 011)} =
mín {2, 3, 1} = 1
Propiedades para la
detección de errores
Para detectar t errores de un bit entre dos
palabras, es necesario un código con una distancia
de Hamming de al menos d=t+1
De otra forma: Con una distancia de Hamming de d se
pueden detectar d-1 errores
Ejm: C = {001, 010, 100}, D. Hamming = 2
• Un error aislado siempre se detecta
Un error en 001 ⇒ 101, 011, 000, {∉ C}
• Dos errores aislados no se detectan
Dos errores en 001 ⇒ 111, 010, 100, {2  C}
43
DH D C
1 x x
2 1 x
3 2
1
x
1
4 3
2
x
1
Propiedades para la
corrección de errores
 Para corregir t errores de un bit entre dos
palabras es necesario un código con una Distancia
de Hamming de al menos 2t+1
De otra forma: Con una distancia de Hamming de d se
pueden corregir (d-1)/2 errores
Ejm: C = {0000000000, 0000011111, 1111100000,
1111111111} d. Hamming = 5
Se pueden detectar d-1 = 5-1 = 4 errores
Se pueden corregir (d-1)/2 = 4/2 = 2 errores
44
FEC : forward error correction
Redundancia y Probabilidad
de Error Residual
45
Compara Control de Errores
46
Clasificación de Inclusión de la
Redundancia
• CÓDIGOS CONVOLUCIONALES
– De forma continua a medida que llega la información al codificador.
• CÓDIGOS DE BLOQUE
– Asociada a bloques de información
Códigos de canal
Códigos bloque Códigos Trellis
Códigos
lineales
Códigos no
lineales
Códigos
convolucionales
Codigos Coset
Códigos cíclicos 47
Códigos Bloque
Un bloque de “n” bits de salida está formado por el
bloque de “k” bits de entrada más un grupo de “r”
bits de chequeo.
Éstos son derivados del bloque de bits de entrada
(bits de información) mediante alguna operación
matemática.
En el decodificador los bits de chequeo son usados para
verificar si los bits de información que llegan en el bloque,
tienen o no errores.
En el codificador (transmisor) cada nuevo bloque de entrada
genera un nuevo bloque de salida, que sólo está relacionado
con el bloque de entrada actual y con ninguno de los bloques
de entrada precedentes. 48
Código bloque Lineal (n,k)
El código es sistemático si, en las palabras
codificadas, los k bits de mensaje aparecen
primero, en el tiempo, y los “n-k” bits
agregados, o redundantes, van después.
49
El código bloque es lineal si c/u de las 2k
palabras codificadas puede expresarse como
una combinación lineal de k vectores de
código linealmente independientes.
Proceso de codificación
 El codificador transforma cada bloque de k
bits en un bloque más grande, de n bits, de
acuerdo con alguna regla predeterminada. Los
(n – k) bits adicionales se generan mediante
combinaciones lineales de los bits de mensaje,
pudiendo describirse la operación de
codificación mediante matrices.
50
 El mensaje a transmitir es segmentado en
bloques de k bits.
razón de eficiencia del código= k/n
Vector fila de dimensión K, 2k “bloques”
51
CODIFICADOR
Proceso de codificación
código de bloque (n, k)
Los primeros k bits de C
Ci =di i =1, 2,3,.........., k
|G|
La matriz de codificación
últimos (n – k) bits de C son generados desde
los k bits de mensaje según alguna regla
predeterminada
52
Los coeficientes pij pueden ser
“0” o “1”, y las sumas son “en
módulo 2”
Matriz generadora
El vector datos genera el vector paridad
53
Donde:
P es una matriz, de 1’s y 0’s, arbitraria k x(n – k )
Ver Anexo Mx
Matriz paridad y chequeo
La matriz P puede buscar que G tenga ciertas
propiedades de: facilidad de implementar,
capacidad de corregir errores aleatorios o en
ráfagas, etc.
54
Para decodificar, se opera con la matriz H,
de chequeo de paridad:
El vector del mensaje recibido es:
donde E es el posible error
Matriz HT
La elección de la matriz HT de dimensión
(n)x(n-k) debe seguir las
siguientes reglas:
55
Las n filas de HT deben ser
distintas.
No se debe usar una fila con todos ceros.
Las últimas (n – k) filas deben ser la matriz
identidad en H.
Hay2n-k filas distintas de (n-k) componentes, de las
cuales se puede escoger “2n-k-1” filas distintas para
HT (se excluye la fila de todos cero).
Para determinar la dimensión de la matriz, se
debe tener en cuenta la Dmin requerida, ya
que HT tiene n filas distintas, entonces:
56
Entonces, dado un mensaje original con largo de
bloques de entrada de k bits, podemos determinar el
nuevo largo del bloque de salida de n bits, de modo
que:
Matriz HT
57
DECODIFICADOR
Proceso de decodificación
y el vector Síndrome:
|H|
El proceso inverso:
R= (d1,d2,………dk)
S (n-k)= cero, si R no tiene error, o sea, si R es una de
las palabras C “válidas”; sin embargo, R podría ser 
del C original: Significa que hay error(es).
Ejm codif y decodif
58
Matriz generadora
Sea un código bloque lineal sistemático (7, 4) con
matriz de paridad
Para la entrada di = [1 1 0 1]
produce la salida ci = [1 1 0 1 0 0 1]
Sea un código bloque lineal sistemático (4, 2)
con matriz generadora
59
Matriz generadora
Ejm codif y decodif
La distancia mínima es dmin = 2 < (n − k + 1 = 3).
Si se transmite la palabra c = [0 0 1 1] y
se recibe: r = [1 1 1 1]
el sistema detecta el error ya que el
síndrome s = [1 0] es distinto de cero.
Sin embargo, no es capaz de corregirlo ya que
hay varios patrones con peso 1.
Códigos de Hamming
–Los códigos Hamming son una subclase de los códigos
de bloque lineal y pertenecen a la categoría de los
códigos perfectos.
–Se expresan como una función de un entero m>=2
60
m
m
m
Código (7,4) de Hamming
– Es común referirse al código de Hamming(7,4) que Hamming introdujo en 1950.
– El código de Hamming agrega tres bits adicionales de comprobación por cada
cuatro bits de datos del mensaje.
– El algoritmo de Hamming (7,4) puede corregir cualquier error de un solo bit,
pero más de un bit error NO,
– Los tres bits de comprobación se ubican en las posiciones de la palabra a
transmitir que correspondan a potencias de dos, es decir, las posiciones 1, 2,
4, 8,…
– Los bits de información serán los restantes:
61
Códigos (7,4) de Hamming
–Para el cálculo de cada uno de los bits de paridad, se verifican
los bits ubicados en posiciones específicas.
–El cálculo será así:
–Para el bit de paridad 1:
–Para el bit de paridad 1:
62
Códigos (7,4) de Hamming
–Para el cálculo de cada uno de los bits de paridad, se verifican
los bits ubicados en posiciones específicas.
–El cálculo será así:
–Para el bit de paridad 4:
–Para el bit de paridad 8:
63
Códigos CRC
CÓDIGOS CÍCLICOS, una subclase de los códigos
bloques lineales. Es un código en que cada palabra
válida es un corrimiento lateral de unas a otras.
ventajas:
 La codificación y la determinación del síndrome
pueden implementarse usando registros de
desplazamiento y realimentaciones.
 Obedecen a una estructura matemática que
permite diseñar códigos con propiedades
detectoras y, también, correctoras de error.
 Se describen con polinomios. 64
Un código bloque lineal (n, k) es un
código cíclico si:
65
es un vector del código C, y
también es vector del código C.
Esta propiedad permite considerar los
elementos de cada vector, como coeficientes
de un polinomio de grado (n -1).
Códigos CRC polinomio
O sea,
66
Si se divide xiV (x) por xn+1
V (i)(x) es el residuo
Vi= representa a V desplazada en forma cíclica (i)
lugares hacia la izquierda.
Códigos CRC desplazamiento
Sea C(x)= d(x) g(x) un código CRC, para
ello:
d(x) es grado (k-1), y
g(x) es grado (n-k) y factor de (xn+1)
67
Un vector de datos es:
d(x)= d1x(k-1)+d2x(k-2)+……+dk
C(x)= d1x(k-1)g(x)+d2x(k-2)+g(x)……+dk g(x)
polinomio de grado (n-1) o menor
Códigos CRC pol.generador
Existe un total de 2k polinomios,
correspondientes a 2k vector de datos. Así un
código lineal (n,k) generado por C(x)=d(x)g(x)
68
Por Ej. para un código (7,4)
x7+1 = (x+1)(x3+x+1)(x3+x2+1)
son factores de xn+1
Para g(x) válido debe ser de orden (n-k)=3
Sea entonces g(x)=(x3+x2+1)
Y si los datos son: d= 1 0 1 0
x3 x2 x1x0
d(x)= x3+x
Códigos CRC factores
C(x)=d(x)g(x) = (x3+x)(x3+x2+1)
x6+x5+x4+x
69
o sea, C = 1 1 1 0 0 1 0
No sistemático
Códigos CRC ejemplo
Existe el método para que CRC sea sistemático:
Investigue !
Decodificación CRC
Como todo C(x) válido es un múltiplo de
g(x), si hay un error en la palabra
recibida r(x), ésta NO será múltiplo de
g(x), así:
70
Siendo S(x) el Residuo de grado n-k-1 o
menor, llamado el SINDROME de la
decodificación. Indicando existencia o no de
error.
Si e(x) es el polinomio error, entonces
r(x) = C(x) + e(x)
y como C(x) es múltiplo de g(x),
S(x) = Res [C(x) + e(x)] / g(x)
O sea, S(x) = Res e(x) / g(x)  0
71
Decodificación CRC
Teniendo el patrón de errores se puede corregir
Ejm de polinomios generadores
72
Algunos estándares internacionales:
Gran variedad de códigos
73
Códigos Convolucionales;
CRC; BIP (Bit Interleaved Parity);
Hamming;Trellis code; Haufmann;
Viterbi; Reed Salomon; BCH, y mas…
Tema de lectura !
Probabilidad de error
74
La probabilidad de error está acotada por la
probabilidad de que ocurran más de t errores.
En canales AWGN:
donde p es la probabilidad de que ocurra un error en
un bit.
Para una modulación BPSK:
Para SNR altas:
75
Puede demostrarse que cuando el ruido es blanco
gaussiano y la modulación es BPSK:
Probabilidad de error
Probabilidad de error
ejm
Calcular la probabilidad de error de un código bloque
lineal (5, 2) con dmin = 3, considerando que se utiliza
una modulación BPSK con Eb/No = 10dB.
76
En unidades naturales Eb/N0 = 10. Por tanto, Ec/N0 = 4.
La probabilidad de error es p = Q(√8) = 2.34 × 10−3.
Para este valor de p, dmin = 3, t = ⌊0.5(dmin − 1)⌋ = 1 y
k = 2, se obtiene Pe(1) ≤ 4.92 × 10−5 y
Por otro lado, Pe(2) = 2.7 × 10−3.
La probabilidad de error sin codificar es:
Pb = Q(√20) = 3.87 × 10−6.
Pb vs SNR para codificación
77
CODIFICACIÓN DE LÍNEA
78
Características
 También una suerte de codificación
de canal
 Adapta señal al medio de tx.
 Modo de modulación de banda base
 Transmisión binaria y m-aria
 Facilita recuperación de sincronismo
 Reduce ancho espectral
 Elimina componente DC
79
Ganancia de codificación
80
Ganancia = 6dB
Comparando para 10-5
Cod lineal NRZ, NRZI, RZ
Codigos binarios polar de minimo BW, pero
carece de sincronismo
Tiene contenido DC
Cod RZ usa doble BW que NRZ y NRZI
Son usados sólo para muy corta distancia,
si hay acoplamiento DC y baja velocidad
81
Señales de cod de línea
82
Tck
Tck/2
Reloj
NRZ
RZ
AMI
Tck/2
1 0 1 1 0 1 0 1
+V
-V
+V
-V
+V
-V
DEP cod de línea
831/Tck
En mayor detalle
Unipolar NRZ
(Binary On-Off Keying)
T =1/R es la duración
del bit, y R es la
tasa binaria de bits
por segundo.
V es el nivel de
voltaje del bit 1
84
PSD de varios cod línea,
con R =1/T (tasa binaria)
Probabilidad de error
binaria para varios
códigos de línea.
85
Eb/N0 es una medida de
razón señal-ruido (SNR)
de la señal recibida.
Eb es la energía en un
bit 1: V2T
Unipolar NRZ
(Binary On-Off Keying)
Observar que para señal NRZ si
hay una larga secuencia de 1s o 0s
puede resultar en pérdida de
sincronismo, debido a que no hay
transiciones de pulsos.
86
Espectro de potencia de códigos de
duración T segundos:
87
Código Manchester
88
0 = transición de “+” a “-”
en centro de intervalo
1 = transición de “-” a “+” en
centro de intervalo
Biphase-L or Manchester II
0 = transición de “-” a “+” en
centro de intervalo
1 = transición de “+” to “-”
en centro de intervalo
Manchester Diferencial
Transición siempre en
centro de intervalo
0 = transición en inicio de intervalo
1 = no transición en inicio de intervalo
Pseudoternarios
89
0 = alterna “+” y “-”
1 = 0 V
Bipolar-AMI
0 = 0
1 = alterna “+” y “-”
Si se detecta un “1” cuando el último “1” no tiene polaridad opuesta:
violación de bipolaridad. Por lo tanto puede detactar error.
Twinned binary code
0 a 1 transmite “+”
1 a 0 transmite “-”
0 a 0 transmite “0”
1 a 1 transmite “0”
CMI (Coded Mark Inversion)
bit “1” es representado como en AMI: um pulso de
duración T segundos de polaridad alternada.
bit “0” es representado por pulso:
90
Código de Línea Bloque
91
HDB3
V: violación de bipolaridad
B: balance de bipolaridad
AMI que no permite mas de tres ceros consecutivos
AMI que reemplaza 8 ceros consecutivos,
reemplazando por dos violaciones de paridad.
92
Código de Línea Bloque B8ZS
Código Línea Bloque multinivel
93
En este caso, la tasa de símbolos es menor que la
tasa de bits.
Códigos kBnT
k n codigo eficiencia
1 1 1B1T 63%
3 2 3B2T 95%
4 3 4B3T 84%
6 4 6B4T 95%
7 5 7B5T 89%
Eficiencia para k y n valores con 3 niveles
k es el Nº de bits de información en el block y n es
el Nº de símbolos ternarios en el código.
Código 4B3T
 Se convierte un bloque de 4 dígitos binarios
em un bloque de 3 dígitos ternarios.
 De los 33=27 bloques ternarios posibles, sólo
se usan 16, correspondientes a los 24=16
bloques binarios.
 Se define una “disparidad acumulada” en
relación a una “historia” de niveles (“+”) y
(“-“)
 La regla de codificación es compleja y
obedece a um diagrama de estados.
94
Diagrama de transición de
estados 4B3T
Asegura balance DC y una fuerte
componente de reloj.
95
Asignación
4B3T
La columna 1
tiene
componente
negativo DC, la
2ª nivel cero, y
la 3ª nivel
positivo.
96
Código 2B1Q
97
Cuaternario Nivel (volt)
1 0 3 2,5
1 1 1 0,833
0 1 -1 -0,833
0 0 -3 -2,5
Binario
Regla:
Utilización
98
AMI Sistema T1
HDB3
ITU-T G.703, 2,8,34
Mbps
CMI idem 140Mbps
Manchester
Ethernet 802.3:
Grabación magnética;
distribución de reloj
4B3T USA 34, 140 Mbps
2B1Q RDSI, modem BB
Conclusión:
99
Preguntas: ¿ ?
En los sistemas de Telecomunicaciones se
optimiza el BW con los códigos de fuente y de
protege la información ante los efectos del
ruido con los códigos de canal.
La codificación de línea puede interpretarse
como una codificación de canal y también
como una modulación.
Refs.
- B.P. Lathi; Sistemas de Comunicaciones
- K.M. Shammugan; Digital and Analog
Communication Systems
- Principios de Tx de Información,
Briceño
- Teoría de Información; AF.Kuri
- Comunicaciones Digitales; M.Mezoa
- Apuntes prof R.Villarroel
100
101
1.- Determine código (7,4) dada:
Comprobar mensaje recibido:
R= 1 0 0 1 0 0 1
2.- Considere la palabra de datos de 8 bits "01101011“ y codifique
según procedimiento de Codificación Hamming. Luego considere que el
bit de la derecha, por error, cambia de 1 a 0.
3.- Revise el paper de C.Shannon “The Mathematical Theory of
Communication” e identifique cuantos teoremas enunció.
4.- Determine la Cantidad de Información que contiene una imagen de
imagen de 16x16 pixeles. Considerando que se requiere identificar
cada una de las posiciones de dichos pixeles y si además, se usa un
código que identifica 256 combinaciones de colores primarios y 256
combinaciones de niveles de intensidad para cada pixel.
101
Investigar:
Concepto de matriz
102
Se denomina matriz a todo conjunto de números o
expresiones dispuestos en forma rectangular, formando
filas y columnas.
El conjunto de matrices de m filas y n columnas se
denota por Amxn o (aij), y un elemento cualquiera de la
misma, que se encuentra en la fila i y en la columna j,
por aij.
Anexo
recordando matrices
103
Una matriz identidad es una matriz diagonal en la que los
elementos de la diagonal principal son iguales a 1.
Matriz identidad o unidad
Matriz fila
Matriz columna
Anexo
recordando matrices
104
Anexo
recordando matrices
Dadas dos matrices de la misma dimensión,
A=(aij) y B=(bij), se define la matriz suma como:
A+B=(aij+bij). Es decir, aquella matriz cuyos elementos
se obtienen: sumando los elementos de las dos
matrices que ocupan la misma misma posición.
Anexo
recordando matrices
105
Dos matrices A y B se dicen multiplicables si el número
de columnas de A coincide con el número de filas de B.
Mm x n x Mn x p = M m x p
El elemento cij de la matriz producto se obtiene
multiplicando cada elemento de la fila i de la matriz A
por cada elemento de la columna j de la matriz B y
sumándolos.
106
Matriz traspuesta
Dada una matriz A, se llama matriz traspuesta de A a
la matriz que se obtiene cambiando ordenadamente
las filas por las columnas
(At)t = A
(A + B)t = At + Bt
(α ·A)t = α· At
(A · B)t = Bt · At
Anexo
recordando matrices
Multiplicación de polinomios
P(x) = 2x2 − 3 Q(x) = 2x3 − 3x2 + 4x
Se multiplica cada monomio del primer polinomio por todos
los elementos segundo polinomio.
P(x) · Q(x) = (2x2 − 3) · (2x3 − 3x2 + 4x) =
= 4x5 − 6x4 + 8x3 − 6x3 + 9x2 − 12x =
Se suman los monomios del mismo grado.
= 4x5 − 6x4 + 2x3 + 9x2 − 12x
Se obtiene otro polinomio cuyo grado es la suma de
los grados de los polinomios que se multiplican.
107
Anexo
recordando polinomios
También podemos multiplicar
polinomios de siguiente modo:
108
Anexo
recordando polinomios
Suma de polinonomios.
Ordenar escribiendo uno debajo del otro, de
forma que los monomios semejantes queden
en columnas y se puedan sumar:
P(x) = 7x4 + 4x2 + 7x + 2 Q(x) = 6x3 + 8x +3
P(x) + Q(x) = 7x4 + 6x3 + 4x2 + 15x + 5 109
Anexo
recordando polinomios
División de polinomios:
P(x) = x5 + 2x3 − x − 8 Q(x) = x2 − 2x + 1
P(x) : Q(x)
A la izquierda se anota el dividendo. Si el polinomio no es
completo deja espacios en los lugares que correspondan.
A la derecha situar el divisor dentro de una caja.
Dividir el primer monomio del dividendo entre el primer
monomio del divisor.
110
x5 : x2 = x3
Anexo
recordando polinomios
Multiplicar cada término del polinomio divisor
por el resultado anterior y restar del
polinomio dividendo:
111
Volver a dividir el primer monomio del dividendo
entre el primer monomio del divisor. Y el resultado se
multiplica por el divisor y lo resta al dividendo.
2x4 : x2 = 2 x2
Anexo
recordando polinomios
Procedemos igual que antes.
112
5x3 : x2 = 5 x
Anexo
recordando polinomios
Volvemos a hacer las mismas operaciones.
113
8x2 : x2 = 8
10x − 16 es el resto, porque su grado es menor que
el del divisor y por tanto no se puede continuar
dividiendo.
x3 + 2x2 + 5x + 8 es el cociente.
Anexo
recordando polinomios
114

Mais conteúdo relacionado

Mais procurados

Capacidad de un canal
Capacidad de un canalCapacidad de un canal
Capacidad de un canalarquitectura5
 
Modulación digital con portadora análoga
Modulación digital con portadora análogaModulación digital con portadora análoga
Modulación digital con portadora análogaJoaquin Vicioso
 
Conversion analogico digital: muestreo, cuantizacion y codificacion
Conversion analogico digital: muestreo, cuantizacion y codificacionConversion analogico digital: muestreo, cuantizacion y codificacion
Conversion analogico digital: muestreo, cuantizacion y codificacionLucre Castillo Lorenzo
 
7. atenuacion, distorsion y ruido en la transmision
7. atenuacion, distorsion y ruido en la transmision7. atenuacion, distorsion y ruido en la transmision
7. atenuacion, distorsion y ruido en la transmisionEdison Coimbra G.
 
Espectro Ensanchado - Telecomunicaciones III
Espectro Ensanchado - Telecomunicaciones IIIEspectro Ensanchado - Telecomunicaciones III
Espectro Ensanchado - Telecomunicaciones IIIAndy Juan Sarango Veliz
 
codificaciones unipolar, polar, bipolar
codificaciones unipolar, polar, bipolarcodificaciones unipolar, polar, bipolar
codificaciones unipolar, polar, bipolarthejp
 
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...nica2009
 
Frecuencia modulada (FM) UAS
Frecuencia modulada (FM) UASFrecuencia modulada (FM) UAS
Frecuencia modulada (FM) UASIgnacio Velasco
 
Codigos de linea
Codigos de linea Codigos de linea
Codigos de linea soyal2426
 
Tema 1b-modulacion-digital-multi-bit
Tema 1b-modulacion-digital-multi-bitTema 1b-modulacion-digital-multi-bit
Tema 1b-modulacion-digital-multi-biternestoguevaraventura
 
9.3 sistemas de senalizacion
9.3 sistemas de senalizacion9.3 sistemas de senalizacion
9.3 sistemas de senalizacionEdison Coimbra G.
 
Trabajo Monográfico de Medios de transmision
Trabajo Monográfico de Medios de transmisionTrabajo Monográfico de Medios de transmision
Trabajo Monográfico de Medios de transmisiongilbertoce
 

Mais procurados (20)

codificacion de linea
codificacion de lineacodificacion de linea
codificacion de linea
 
Capacidad de un canal
Capacidad de un canalCapacidad de un canal
Capacidad de un canal
 
Modulación digital con portadora análoga
Modulación digital con portadora análogaModulación digital con portadora análoga
Modulación digital con portadora análoga
 
Conversion analogico digital: muestreo, cuantizacion y codificacion
Conversion analogico digital: muestreo, cuantizacion y codificacionConversion analogico digital: muestreo, cuantizacion y codificacion
Conversion analogico digital: muestreo, cuantizacion y codificacion
 
7. atenuacion, distorsion y ruido en la transmision
7. atenuacion, distorsion y ruido en la transmision7. atenuacion, distorsion y ruido en la transmision
7. atenuacion, distorsion y ruido en la transmision
 
Modulacion qam
Modulacion qamModulacion qam
Modulacion qam
 
Espectro Ensanchado - Telecomunicaciones III
Espectro Ensanchado - Telecomunicaciones IIIEspectro Ensanchado - Telecomunicaciones III
Espectro Ensanchado - Telecomunicaciones III
 
codificaciones unipolar, polar, bipolar
codificaciones unipolar, polar, bipolarcodificaciones unipolar, polar, bipolar
codificaciones unipolar, polar, bipolar
 
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
 
Pcm
PcmPcm
Pcm
 
Frecuencia modulada (FM) UAS
Frecuencia modulada (FM) UASFrecuencia modulada (FM) UAS
Frecuencia modulada (FM) UAS
 
Modulaciones m arias
Modulaciones m ariasModulaciones m arias
Modulaciones m arias
 
Control de errores
Control de erroresControl de errores
Control de errores
 
Codigos de linea
Codigos de linea Codigos de linea
Codigos de linea
 
Tema 1b-modulacion-digital-multi-bit
Tema 1b-modulacion-digital-multi-bitTema 1b-modulacion-digital-multi-bit
Tema 1b-modulacion-digital-multi-bit
 
9.3 sistemas de senalizacion
9.3 sistemas de senalizacion9.3 sistemas de senalizacion
9.3 sistemas de senalizacion
 
Modulacion analogica
Modulacion analogicaModulacion analogica
Modulacion analogica
 
Codificacion BCH
Codificacion BCHCodificacion BCH
Codificacion BCH
 
Trabajo Monográfico de Medios de transmision
Trabajo Monográfico de Medios de transmisionTrabajo Monográfico de Medios de transmision
Trabajo Monográfico de Medios de transmision
 
Investigación técnicas de modulación
Investigación técnicas de modulaciónInvestigación técnicas de modulación
Investigación técnicas de modulación
 

Semelhante a Sistemas de Telecomunicaciones EIE 846

Lecture 9 codificación de línea y psd
Lecture 9 codificación de línea y psdLecture 9 codificación de línea y psd
Lecture 9 codificación de línea y psdnica2009
 
U4.U5.U6.Transmisión digital y Mux..ppt
U4.U5.U6.Transmisión digital y Mux..pptU4.U5.U6.Transmisión digital y Mux..ppt
U4.U5.U6.Transmisión digital y Mux..pptSinnNomBre1
 
U4.U5.U6.Transmisión digital y Mux. resp.ocultas.ppt
U4.U5.U6.Transmisión digital y Mux. resp.ocultas.pptU4.U5.U6.Transmisión digital y Mux. resp.ocultas.ppt
U4.U5.U6.Transmisión digital y Mux. resp.ocultas.pptBrianPadillaFlores
 
Lecture 6 formateo de señales en pcm
Lecture 6 formateo de señales en pcmLecture 6 formateo de señales en pcm
Lecture 6 formateo de señales en pcmnica2009
 
introduccion a las redes...
introduccion a las redes...introduccion a las redes...
introduccion a las redes...cleopatra22
 
Unidad2(difus multimedia)
Unidad2(difus multimedia)Unidad2(difus multimedia)
Unidad2(difus multimedia)UNEFA
 
Investigación Códigos INF 164
Investigación Códigos INF 164Investigación Códigos INF 164
Investigación Códigos INF 164EdualSarmiento
 
Modulacion por-codificacion-de-pulso-pcm-2
Modulacion por-codificacion-de-pulso-pcm-2Modulacion por-codificacion-de-pulso-pcm-2
Modulacion por-codificacion-de-pulso-pcm-2diiegollp
 
comunicación Digital
comunicación Digitalcomunicación Digital
comunicación DigitalQiQe Gavilan
 
Deteccion de errores y Red de Conmutacion
Deteccion de errores y Red de ConmutacionDeteccion de errores y Red de Conmutacion
Deteccion de errores y Red de Conmutacionesolimando
 

Semelhante a Sistemas de Telecomunicaciones EIE 846 (20)

Seminario DLC fam ss
Seminario DLC  fam ssSeminario DLC  fam ss
Seminario DLC fam ss
 
5555.pptx
5555.pptx5555.pptx
5555.pptx
 
Lecture 9 codificación de línea y psd
Lecture 9 codificación de línea y psdLecture 9 codificación de línea y psd
Lecture 9 codificación de línea y psd
 
U4.U5.U6.Transmisión digital y Mux..ppt
U4.U5.U6.Transmisión digital y Mux..pptU4.U5.U6.Transmisión digital y Mux..ppt
U4.U5.U6.Transmisión digital y Mux..ppt
 
U4.U5.U6.Transmisión digital y Mux. resp.ocultas.ppt
U4.U5.U6.Transmisión digital y Mux. resp.ocultas.pptU4.U5.U6.Transmisión digital y Mux. resp.ocultas.ppt
U4.U5.U6.Transmisión digital y Mux. resp.ocultas.ppt
 
Lecture 6 formateo de señales en pcm
Lecture 6 formateo de señales en pcmLecture 6 formateo de señales en pcm
Lecture 6 formateo de señales en pcm
 
introduccion a las redes...
introduccion a las redes...introduccion a las redes...
introduccion a las redes...
 
Utea cd-03-me03-cd tx-digital2_2015-ii
Utea cd-03-me03-cd tx-digital2_2015-iiUtea cd-03-me03-cd tx-digital2_2015-ii
Utea cd-03-me03-cd tx-digital2_2015-ii
 
Trellis Y Viterbi
Trellis Y ViterbiTrellis Y Viterbi
Trellis Y Viterbi
 
codificación de canal
codificación de canalcodificación de canal
codificación de canal
 
CodificacióN De Canal
CodificacióN De CanalCodificacióN De Canal
CodificacióN De Canal
 
Semana 05
Semana 05Semana 05
Semana 05
 
Unidad2(difus multimedia)
Unidad2(difus multimedia)Unidad2(difus multimedia)
Unidad2(difus multimedia)
 
Modulacion-digital
 Modulacion-digital Modulacion-digital
Modulacion-digital
 
Codificacion
CodificacionCodificacion
Codificacion
 
Investigación Códigos INF 164
Investigación Códigos INF 164Investigación Códigos INF 164
Investigación Códigos INF 164
 
Modulacion por-codificacion-de-pulso-pcm-2
Modulacion por-codificacion-de-pulso-pcm-2Modulacion por-codificacion-de-pulso-pcm-2
Modulacion por-codificacion-de-pulso-pcm-2
 
comunicación Digital
comunicación Digitalcomunicación Digital
comunicación Digital
 
Deteccion de errores y Red de Conmutacion
Deteccion de errores y Red de ConmutacionDeteccion de errores y Red de Conmutacion
Deteccion de errores y Red de Conmutacion
 
Semana 02
Semana 02Semana 02
Semana 02
 

Mais de Francisco Apablaza

Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
Ejercicios Modulación Análoga & Digital resultados(fam)-rev3Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
Ejercicios Modulación Análoga & Digital resultados(fam)-rev3Francisco Apablaza
 
Probabilidad de error en modulación digital
Probabilidad de error en modulación digitalProbabilidad de error en modulación digital
Probabilidad de error en modulación digitalFrancisco Apablaza
 
Conmutación de circuitos ópticos
Conmutación de circuitos ópticosConmutación de circuitos ópticos
Conmutación de circuitos ópticosFrancisco Apablaza
 
Telecomunicaciones, ayudas didácticas
Telecomunicaciones, ayudas didácticasTelecomunicaciones, ayudas didácticas
Telecomunicaciones, ayudas didácticasFrancisco Apablaza
 
Disponibilidad y Confiabilidad de cable Fibra Optical (fam)
Disponibilidad y Confiabilidad de cable Fibra Optical (fam)Disponibilidad y Confiabilidad de cable Fibra Optical (fam)
Disponibilidad y Confiabilidad de cable Fibra Optical (fam)Francisco Apablaza
 
Confiabilidad (Reliability) y Weilbull (fam)
Confiabilidad (Reliability) y Weilbull (fam)Confiabilidad (Reliability) y Weilbull (fam)
Confiabilidad (Reliability) y Weilbull (fam)Francisco Apablaza
 
Estimación de parámetros Weilbull
Estimación de parámetros WeilbullEstimación de parámetros Weilbull
Estimación de parámetros WeilbullFrancisco Apablaza
 
Aplicaciones Excel para Telecomunicaciones
Aplicaciones Excel para TelecomunicacionesAplicaciones Excel para Telecomunicaciones
Aplicaciones Excel para TelecomunicacionesFrancisco Apablaza
 
Confiabilidad de un radio enlace
Confiabilidad de un radio enlaceConfiabilidad de un radio enlace
Confiabilidad de un radio enlaceFrancisco Apablaza
 
Evolucion Red de Transporte WDM
Evolucion Red de Transporte WDMEvolucion Red de Transporte WDM
Evolucion Red de Transporte WDMFrancisco Apablaza
 
Introducción a la Ingeniería cap4-5
Introducción a la Ingeniería cap4-5Introducción a la Ingeniería cap4-5
Introducción a la Ingeniería cap4-5Francisco Apablaza
 
Acerca de formación por competencias
Acerca de formación por competenciasAcerca de formación por competencias
Acerca de formación por competenciasFrancisco Apablaza
 
Introducción a la Ingeniería cap3
Introducción a la Ingeniería cap3Introducción a la Ingeniería cap3
Introducción a la Ingeniería cap3Francisco Apablaza
 
Introducción a la Ingenieria cap2
Introducción a la Ingenieria cap2Introducción a la Ingenieria cap2
Introducción a la Ingenieria cap2Francisco Apablaza
 
Introducción a la Ingeniería Eld cap1
Introducción a la Ingeniería Eld cap1Introducción a la Ingeniería Eld cap1
Introducción a la Ingeniería Eld cap1Francisco Apablaza
 
Calidad Redes de Telecomunicaciones cap 4-5-6
Calidad Redes de Telecomunicaciones cap 4-5-6Calidad Redes de Telecomunicaciones cap 4-5-6
Calidad Redes de Telecomunicaciones cap 4-5-6Francisco Apablaza
 
Confiabilidad Red de Transporte WDM-FO
Confiabilidad Red de Transporte WDM-FOConfiabilidad Red de Transporte WDM-FO
Confiabilidad Red de Transporte WDM-FOFrancisco Apablaza
 
Calidad Redes de Telecomunicaciones cap 3
Calidad Redes  de Telecomunicaciones cap 3Calidad Redes  de Telecomunicaciones cap 3
Calidad Redes de Telecomunicaciones cap 3Francisco Apablaza
 

Mais de Francisco Apablaza (20)

Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
Ejercicios Modulación Análoga & Digital resultados(fam)-rev3Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
 
Probabilidad de error en modulación digital
Probabilidad de error en modulación digitalProbabilidad de error en modulación digital
Probabilidad de error en modulación digital
 
Conmutación de circuitos ópticos
Conmutación de circuitos ópticosConmutación de circuitos ópticos
Conmutación de circuitos ópticos
 
Telecomunicaciones, ayudas didácticas
Telecomunicaciones, ayudas didácticasTelecomunicaciones, ayudas didácticas
Telecomunicaciones, ayudas didácticas
 
SER DOCENTE
SER DOCENTESER DOCENTE
SER DOCENTE
 
Disponibilidad y Confiabilidad de cable Fibra Optical (fam)
Disponibilidad y Confiabilidad de cable Fibra Optical (fam)Disponibilidad y Confiabilidad de cable Fibra Optical (fam)
Disponibilidad y Confiabilidad de cable Fibra Optical (fam)
 
Confiabilidad (Reliability) y Weilbull (fam)
Confiabilidad (Reliability) y Weilbull (fam)Confiabilidad (Reliability) y Weilbull (fam)
Confiabilidad (Reliability) y Weilbull (fam)
 
Estimación de parámetros Weilbull
Estimación de parámetros WeilbullEstimación de parámetros Weilbull
Estimación de parámetros Weilbull
 
Aplicaciones Excel para Telecomunicaciones
Aplicaciones Excel para TelecomunicacionesAplicaciones Excel para Telecomunicaciones
Aplicaciones Excel para Telecomunicaciones
 
NG-WDM
NG-WDMNG-WDM
NG-WDM
 
Confiabilidad de un radio enlace
Confiabilidad de un radio enlaceConfiabilidad de un radio enlace
Confiabilidad de un radio enlace
 
Evolucion Red de Transporte WDM
Evolucion Red de Transporte WDMEvolucion Red de Transporte WDM
Evolucion Red de Transporte WDM
 
Introducción a la Ingeniería cap4-5
Introducción a la Ingeniería cap4-5Introducción a la Ingeniería cap4-5
Introducción a la Ingeniería cap4-5
 
Acerca de formación por competencias
Acerca de formación por competenciasAcerca de formación por competencias
Acerca de formación por competencias
 
Introducción a la Ingeniería cap3
Introducción a la Ingeniería cap3Introducción a la Ingeniería cap3
Introducción a la Ingeniería cap3
 
Introducción a la Ingenieria cap2
Introducción a la Ingenieria cap2Introducción a la Ingenieria cap2
Introducción a la Ingenieria cap2
 
Introducción a la Ingeniería Eld cap1
Introducción a la Ingeniería Eld cap1Introducción a la Ingeniería Eld cap1
Introducción a la Ingeniería Eld cap1
 
Calidad Redes de Telecomunicaciones cap 4-5-6
Calidad Redes de Telecomunicaciones cap 4-5-6Calidad Redes de Telecomunicaciones cap 4-5-6
Calidad Redes de Telecomunicaciones cap 4-5-6
 
Confiabilidad Red de Transporte WDM-FO
Confiabilidad Red de Transporte WDM-FOConfiabilidad Red de Transporte WDM-FO
Confiabilidad Red de Transporte WDM-FO
 
Calidad Redes de Telecomunicaciones cap 3
Calidad Redes  de Telecomunicaciones cap 3Calidad Redes  de Telecomunicaciones cap 3
Calidad Redes de Telecomunicaciones cap 3
 

Último

DIGNITAS INFINITA - DIGNIDAD HUMANA; Declaración del dicasterio para la doctr...
DIGNITAS INFINITA - DIGNIDAD HUMANA; Declaración del dicasterio para la doctr...DIGNITAS INFINITA - DIGNIDAD HUMANA; Declaración del dicasterio para la doctr...
DIGNITAS INFINITA - DIGNIDAD HUMANA; Declaración del dicasterio para la doctr...Martin M Flynn
 
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdfFichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdfssuser50d1252
 
Actividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 EducacionActividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 Educacionviviantorres91
 
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdf
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdfMEDIACIÓN INTERNACIONAL MF 1445 vl45.pdf
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdfJosé Hecht
 
4° UNIDAD 2 SALUD,ALIMENTACIÓN Y DÍA DE LA MADRE 933623393 PROF YESSENIA CN.docx
4° UNIDAD 2 SALUD,ALIMENTACIÓN Y DÍA DE LA MADRE 933623393 PROF YESSENIA CN.docx4° UNIDAD 2 SALUD,ALIMENTACIÓN Y DÍA DE LA MADRE 933623393 PROF YESSENIA CN.docx
4° UNIDAD 2 SALUD,ALIMENTACIÓN Y DÍA DE LA MADRE 933623393 PROF YESSENIA CN.docxMagalyDacostaPea
 
LOS AMBIENTALISTAS todo por un mundo mejor
LOS AMBIENTALISTAS todo por un mundo mejorLOS AMBIENTALISTAS todo por un mundo mejor
LOS AMBIENTALISTAS todo por un mundo mejormrcrmnrojasgarcia
 
HISPANIDAD - La cultura común de la HISPANOAMERICA
HISPANIDAD - La cultura común de la HISPANOAMERICAHISPANIDAD - La cultura común de la HISPANOAMERICA
HISPANIDAD - La cultura común de la HISPANOAMERICAJesus Gonzalez Losada
 
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).hebegris04
 
El PROGRAMA DE TUTORÍAS PARA EL APRENDIZAJE Y LA FORMACIÓN INTEGRAL PTA/F
El PROGRAMA DE TUTORÍAS PARA EL APRENDIZAJE Y LA FORMACIÓN INTEGRAL PTA/FEl PROGRAMA DE TUTORÍAS PARA EL APRENDIZAJE Y LA FORMACIÓN INTEGRAL PTA/F
El PROGRAMA DE TUTORÍAS PARA EL APRENDIZAJE Y LA FORMACIÓN INTEGRAL PTA/FJulio Lozano
 
Contextualización y aproximación al objeto de estudio de investigación cualit...
Contextualización y aproximación al objeto de estudio de investigación cualit...Contextualización y aproximación al objeto de estudio de investigación cualit...
Contextualización y aproximación al objeto de estudio de investigación cualit...Angélica Soledad Vega Ramírez
 
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxSecuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxNataliaGonzalez619348
 
Presentación Bloque 3 Actividad 2 transversal.pptx
Presentación Bloque 3 Actividad 2 transversal.pptxPresentación Bloque 3 Actividad 2 transversal.pptx
Presentación Bloque 3 Actividad 2 transversal.pptxRosabel UA
 
Fichas de MatemáticA QUINTO DE SECUNDARIA).pdf
Fichas de MatemáticA QUINTO DE SECUNDARIA).pdfFichas de MatemáticA QUINTO DE SECUNDARIA).pdf
Fichas de MatemáticA QUINTO DE SECUNDARIA).pdfssuser50d1252
 
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docx
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docxEJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docx
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docxFabianValenciaJabo
 
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADO
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADOPLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADO
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADOMARIBEL DIAZ
 

Último (20)

DIGNITAS INFINITA - DIGNIDAD HUMANA; Declaración del dicasterio para la doctr...
DIGNITAS INFINITA - DIGNIDAD HUMANA; Declaración del dicasterio para la doctr...DIGNITAS INFINITA - DIGNIDAD HUMANA; Declaración del dicasterio para la doctr...
DIGNITAS INFINITA - DIGNIDAD HUMANA; Declaración del dicasterio para la doctr...
 
Unidad 2 | Teorías de la Comunicación | MCDIU
Unidad 2 | Teorías de la Comunicación | MCDIUUnidad 2 | Teorías de la Comunicación | MCDIU
Unidad 2 | Teorías de la Comunicación | MCDIU
 
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdfFichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
 
Actividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 EducacionActividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 Educacion
 
Acuerdo segundo periodo - Grado Noveno.pptx
Acuerdo segundo periodo - Grado Noveno.pptxAcuerdo segundo periodo - Grado Noveno.pptx
Acuerdo segundo periodo - Grado Noveno.pptx
 
El Bullying.
El Bullying.El Bullying.
El Bullying.
 
Sesión ¿Amor o egoísmo? Esa es la cuestión
Sesión  ¿Amor o egoísmo? Esa es la cuestiónSesión  ¿Amor o egoísmo? Esa es la cuestión
Sesión ¿Amor o egoísmo? Esa es la cuestión
 
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdf
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdfMEDIACIÓN INTERNACIONAL MF 1445 vl45.pdf
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdf
 
4° UNIDAD 2 SALUD,ALIMENTACIÓN Y DÍA DE LA MADRE 933623393 PROF YESSENIA CN.docx
4° UNIDAD 2 SALUD,ALIMENTACIÓN Y DÍA DE LA MADRE 933623393 PROF YESSENIA CN.docx4° UNIDAD 2 SALUD,ALIMENTACIÓN Y DÍA DE LA MADRE 933623393 PROF YESSENIA CN.docx
4° UNIDAD 2 SALUD,ALIMENTACIÓN Y DÍA DE LA MADRE 933623393 PROF YESSENIA CN.docx
 
LOS AMBIENTALISTAS todo por un mundo mejor
LOS AMBIENTALISTAS todo por un mundo mejorLOS AMBIENTALISTAS todo por un mundo mejor
LOS AMBIENTALISTAS todo por un mundo mejor
 
HISPANIDAD - La cultura común de la HISPANOAMERICA
HISPANIDAD - La cultura común de la HISPANOAMERICAHISPANIDAD - La cultura común de la HISPANOAMERICA
HISPANIDAD - La cultura común de la HISPANOAMERICA
 
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).
 
El PROGRAMA DE TUTORÍAS PARA EL APRENDIZAJE Y LA FORMACIÓN INTEGRAL PTA/F
El PROGRAMA DE TUTORÍAS PARA EL APRENDIZAJE Y LA FORMACIÓN INTEGRAL PTA/FEl PROGRAMA DE TUTORÍAS PARA EL APRENDIZAJE Y LA FORMACIÓN INTEGRAL PTA/F
El PROGRAMA DE TUTORÍAS PARA EL APRENDIZAJE Y LA FORMACIÓN INTEGRAL PTA/F
 
Contextualización y aproximación al objeto de estudio de investigación cualit...
Contextualización y aproximación al objeto de estudio de investigación cualit...Contextualización y aproximación al objeto de estudio de investigación cualit...
Contextualización y aproximación al objeto de estudio de investigación cualit...
 
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxSecuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
 
Aedes aegypti + Intro to Coquies EE.pptx
Aedes aegypti + Intro to Coquies EE.pptxAedes aegypti + Intro to Coquies EE.pptx
Aedes aegypti + Intro to Coquies EE.pptx
 
Presentación Bloque 3 Actividad 2 transversal.pptx
Presentación Bloque 3 Actividad 2 transversal.pptxPresentación Bloque 3 Actividad 2 transversal.pptx
Presentación Bloque 3 Actividad 2 transversal.pptx
 
Fichas de MatemáticA QUINTO DE SECUNDARIA).pdf
Fichas de MatemáticA QUINTO DE SECUNDARIA).pdfFichas de MatemáticA QUINTO DE SECUNDARIA).pdf
Fichas de MatemáticA QUINTO DE SECUNDARIA).pdf
 
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docx
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docxEJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docx
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docx
 
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADO
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADOPLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADO
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADO
 

Sistemas de Telecomunicaciones EIE 846

  • 1. Plan Complementario SISTEMAS DE TELECOMUNICACIONES EIE 846 Francisco Apablaza M. 2013 famapablaza@hotmail.com
  • 2. Programa Objetivos: Conocer, Comprender y Aplicar los principales componentes y fundamentos conceptuales de los sistemas de Telecomunicaciones. Contenidos: Clasificación de los sistemas de telecomunicaciones Información, Señales y Ruido Proceso de codificación de: fuente, canal y línea Procesos de Modulación: lineal, angular y digital Multiplexión: FDM-TDM-WDM Sistemas radioeléctricos Sistemas ópticos 2
  • 5. 5 Codificación de fuente, de canal y de línea  de fuente: Redundancia v/s Información: MP3, G.729, PCM, MPEG, JPEG >>> SACAR REDUNDANCIA  de canal: mediante redundancia controlada se detecta y/o corrige errores.  ARQ (Automatic Repeat Request), FEC, CRC, BIP (Bit Interleaved Parity) : Hamming, Trellis code, Haufmann, Viterbi, Reed Salomon, ...)  de línea: Adaptación al MEDIO Banda Base de pulsos (HDB3, AMI) ó Modulación (AM, FM, PSK, QAM)
  • 7. 7 Códigos de fuente PCM, G.711, G.729, 7MPEG, JPEG
  • 8. Contenido de información Una fuente de información genera una cantidad q de posibles símbolos: S1, S2, S3, …… Sq. Cada símbolo tiene una cierta probabilidad de ocurrencia o incertidumbre: p1, p2, ……pq . De modo que: p1 + p2 + p2 … pq =1 Un mensaje es un conjunto de símbolos en que cada uno tiene un contenido de información I(SK). 8
  • 9. I (SK) depende de pK y debe obedecer las siguientes condiciones: 9 la relación que cumple: Según la elección de b: Nat si b = e Decit si b = 10 Binit si b =2 Contenido de información
  • 10. En el caso b = 2 y para un símbolo (dígito) binario (bit) , existen dos símbolos: S1 "0" y S2 "1" . Si ambos son equiprobables, entonces: p1 = p2 = 0.5 Entonces: I (S1) = I (S2) = log2 ( 1 /0.5 ) = log2( 2) =1 binit 10 Contenido de información
  • 11. Para un mensaje de una secuencia de N símbolos, c/u de los q posibles símbolos con probabilidad pk ocurrirá Npk veces. Así, la información del símbolo K : [binit] Y la información total: La entropía o información promedio: 11 Contenido de información [binit/simb]
  • 12. Eficiencia de codificación Un buen código fuente reduce la cantidad de bits que se requiere para enviar la información. La codificación de fuente consigue que el canal reciba la información con la menor redundancia binaria posible, obteniéndose así mayor eficiencia en términos de ancho de banda v/s velocidad de transmisión. 12
  • 13. 13 “código adaptado a la fuente”. Eficiencia= Eficiencia de codificación Sea una fuente con: [binit/simb] [bit/simb] [bit/simb]
  • 14. Tipos de codificación Código bloque: todas los símbolos tienen la misma longitud. Código singular: a cada símbolo del alfabeto fuente le corresponde una única palabra de código. Código no singular: a cada símbolo del alfabeto fuente le corresponde dos o más palabras de código. 14 Código compacto o de longitud variable: se busca que a cada símbolo del alfabeto fuente le corresponda una palabra de código de longitud mínima según algún criterio de minimización dado.
  • 15. Propiedades del código Longitud media: cada símbolo del alfabeto fuente tiene una longitud lk. entonces: representa el número medio de bits por símbolo del alfabeto. Eficiencia: se define como: Siendo: Primer teorema de Shannon o teorema de la codificación de la fuente: “Dada una fuente discreta de entropía H, la longitud media de la palabra de código está acotada inferiormente por H”. Teniendo esto en cuenta Lmin se fija como el valor de la entropía. 15
  • 16. Propiedades del código Entonces la eficiencia puede escribirse como: Redundancia: Se denomina redundancia de un código a la información superflua o innecesaria para interpretar el significado de los datos originales. Se define como: 16
  • 17. Códigos eficientes=Compresión Hay dos tipos de compresión:  Lógica: se trata de reducir los datos desde el momento del diseño.  Física: proceso de reducción de la cantidad de datos antes de poner los datos en el medio de transmisión y deshacer el proceso en el receptor. Tiene en cuenta la frecuencia de ocurrencia de los caracteres. 17
  • 18. Códigos eficientes=Compresión 18 Las técnicas más utilizadas para la compresión son:  orientadas al caracter  estadísticas  basadas en diccionario
  • 19. Técnicas de compresión orientadas al caracter 19 Se basa en el uso de un carácter especial que indica que se ha realizado la compresión. Estas técnicas pueden utilizarse de forma aislada o combinadas entre sí. Por ejm. los siguientes métodos: Eliminación de blanco Bit Mapping Run length Half byte Packing Codificación dicotómica
  • 20. 20 Ej. eliminación de blancos. Si la cadena de entrada es: kmqØØØØØØ bgpØØswØØØØj {21} Una vez realizada la compresión, la cadena resultante será: kmqSc6bgpØØswSc4j {15} Técnicas de compresión orientadas al caracter Ej. Bit Mapping. Si la cadena de entrada es: kmqØØØØØØbgp ØØswØØØØj {21} mapping: kmqØØØØØ ØbgpØØsw ØØØØj {21} 11100000 kmq 01110011 bgpsw 00001000 j {12} Indica posición relativa c/r a blancos
  • 21. Técnicas de compresión estadísticas Se usarán codificaciones más cortas para representar los caracteres con mayor frecuencia de aparición. Código de Huffman Código de Shannon-Fano Códigos Coma Codificación aritmética Compresión adaptativa 21
  • 22. codificación de Shannon-Fano 1º Se ordenan los símbolos de la fuente en orden decreciente de probabilidad de ocurrencia " p" . 2º La lista ordenada se divide en tramos que, en lo posible, sean tramos equiprobables. 3º Se asigna un cero como 1er digito binario (más significativo) a los símbolos del tramo superior y se asigna un uno como 1er dígito de los símbolos del otro tramo. 4º Cada tramo es, a su vez, dividido en dos sub-tramos que, en lo posible, sean equiprobables. Se asigna un cero como 2° digito binario a los símbolos del sub-tramo superior y un uno como 2° dígito de los símbolos del tramo inferior. 5º Se continúa el proceso hasta que cada tramo se reduce a sólo dos símbolos. 22
  • 23. 23Entropía de fuente y código iguales = 2,75 [binit/simb] codificación de Shannon-Fano
  • 24. Códigos de canal Usualmente el objetivo es reducir Pe o el requerimiento en la relación Eb/No. 24
  • 25. Teorema Nº 9 de Shannon “Dado un canal de capacidad C y una fuente de R[bit/seg] de razón de información promedio (o velocidad de entropía) entonces si R  C, existe algún modo de codificar, tal que la transmisión se puede efectuar, con una tasa de error arbitrariamente pequeño” 25 Para un canal sin ruido y BW=B, para M niveles de señal, entonces la máxima tasa de transmisión es: C=2B log2 M [bps]
  • 26. Tipos de Codificación de Canal • CODIFICACIÓN DE LA FORMA DE ONDA: - Se transforman las formas de onda en mejores formas de onda para que el proceso de detección sea menos propenso a errores. • SECUENCIAS ESTRUCTURADAS - Se transforman las secuencias de datos en mejores secuencias de datos mediante el uso de redundancia estructurada (bits redundantes). • ¿Por qué usar codificación? • Desempeño de error vs. ancho de banda • Potencia vs. ancho de banda • Tasa de datos vs. ancho de banda • Capacidad vs. ancho de banda 26
  • 27. Modelos de Canal •CANAL SIN MEMORIA DISCRETO (DMC) – Se caracteriza por un alfabeto de entrada discreto, un alfabeto de salida discreto y un conjunto de probabilidades condicionales P(j | i). •CANAL SIMÉTRICO BINARIO (BSC) – Los alfabetos de entrada y salida consisten de los elementos binarios y las probabilidades condicionales son simétricas.     1)0|0()1|1()0|1(1|0 PPPP •CANAL GAUSSIANO – Es un ejemplo de una generalización de los canales DMC para alfabetos no discretos. El canal adiciona ruido a los símbolos. Tiene como entrada un alfabeto discreto y como salida un alfabeto continuo sobre el rango de (-∞ a + ∞) 27
  • 28. Canal con ruido Como ej. para un canal de 3,4 KHz C= 6.800 bps para 2 niveles C= 13.600 bps para 4 niveles 28 Si el canal tiene ruido, a mayor velocidad de transmisión, mayor es la tasa de errores. 0.5 seg A 1.000 bps se pierden 500 bits y a 30.000 bps son 15.000 bits perdidos
  • 29. PT= S+N V2 T=Vs+VN VT 29 donde  es el factor de forma, razón Peak/RMS El máximo Nº de bits de información para identificar los niveles es: 2b = VT / VN , o sea: Nº niveles =2b V=2VT/2b T Canal con ruido
  • 30. 30 Sean M el Nº total de muestras en un intervalo T, entonces: Canal con ruido La máxima tasa de información en T es: Por el teorema de muestreo: y la máxima tasa de inf a transmitir: [muestras] [bits] M/T = 2B
  • 31. La capacidad de canal La ecuación de Shannon C = B log2 (1+S/N) Se puede demostrar que el límite superior de capacidad de canal para una d.e.p. de ruido blanco: 31 De acuerdo, entonces a lo postulado por Shannon, se puede transmitir información digital con una prob.de error arbitrariamente pequeña.
  • 32. Modelo de Canal CANAL SIMÉTRICO BINARIO (BSC) 32
  • 33. Codificación de canal un Ejm. Ej.: un modem PSK puede operar a: 1.200 [bps] con Pe=2x10-4; ó 2.400 [bps] con Pe=4x 10-4; y 3.600 [bps] con Pe=8 x10-4 33 si se utiliza un codificador que transmita 3[bits] por cada bit de entrada: Se agregó redundancia, se Tx a la max. Velocidad, y mayor Prob. de error, PERO, cada “tripleta” permite identificar y corregir errores: Mayor BW y N
  • 34. mucho mejor que la Pe original Pe=2x10-4 ! 34 la Pe de salida en recepción: Probabilidad de que 2 o más bits en la tripleta sean erróneos. Codificación de canal ejm cont.
  • 35. Código y procedimiento ARQ (Automatic Repeat Request), FEC, CRC, BIP (Bit Interleaved Parity) : Hamming, Trellis code, Haufmann, Viterbi, Reed Salomon, ...) 35 ARQ : no es un código, sino un procedimiento o protocolo de control de errores: al detectar error > NACK no hay error > ACK Sistema lento, requiere repetición y posiblemente ordenamiento de los paquetes. Variantes: Stop-and-wait ARQ; Go-Back-N ARQ Selective Repeat ARQ
  • 36. Petición de Retransmisión Automática (ARQ) • PARE Y ESPERE – Requiere una conexión half-duplex. – El transmisor espera por un reconocimiento de cada transmisión antes de continuar con la siguiente. 36
  • 37. Petición de Retransmisión Automática (ARQ) • ARQ CONTINUO CON RETROCESO (pullback) – Requiere una conexión full-duplex. – El transmisor envía el mensaje con un número de secuencia y, a medida que los mensajes llegan el destino, el receptor envía los datos de reconocimiento (ACK y NACK) que deben hacer una referencia al Número de secuencia. 37
  • 38. Petición de Retransmisión Automática (ARQ) • ARQ CONTINUO CON REPETICIÓN SELECTIVA – Requiere una conexión full-duplex. 38
  • 39. Código de paridad Se añade en origen un bit extra llamado bit de paridad a los n bits que forman el carácter original. Este bit de paridad se determina de forma que el número total de bits 1 a transmitir sea par (código de paridad par) o impar (código de paridad impar) 39 Combinación Bit Paridad 0101 0 1001 0 0111 1 1000 1 paridad PAR 39
  • 40. Redundancia en la Codificación de Canal • TASA DE CÓDIGO Y REDUNDANCIA Redundancia del código Para implementar la codificación de canal, debe introducirse redundancia en los mensajes, lo cual implica tener un mayor ancho de banda de transmisión. El uso de códigos también aumenta la complejidad del sistema. k kn )(   Tasa de código n k  Tasa de datos del canal so R k n R  Tasa de bit de la fuentesR 40
  • 41. Conceptos Distancia de Hamming entre dos palabras: Nº de bits que difieren dos palabras. Se necesitan 4 errores para transformar una palabra en la otra. 41 Distancia Hamming = 4 C1 C2 El peso Hamming de un vector de código C es definido como el número de componentes no- cero de C.
  • 42. Distancia de Hamming de un código Dependiendo de la Dist.Hamming hay distintas propiedades del código 42 Distancia mínima entre las palabras que componen el código Ejm: {100, 111, 011} mín {d(100, 111), d(100, 011), d(111, 011)} = mín {2, 3, 1} = 1
  • 43. Propiedades para la detección de errores Para detectar t errores de un bit entre dos palabras, es necesario un código con una distancia de Hamming de al menos d=t+1 De otra forma: Con una distancia de Hamming de d se pueden detectar d-1 errores Ejm: C = {001, 010, 100}, D. Hamming = 2 • Un error aislado siempre se detecta Un error en 001 ⇒ 101, 011, 000, {∉ C} • Dos errores aislados no se detectan Dos errores en 001 ⇒ 111, 010, 100, {2  C} 43 DH D C 1 x x 2 1 x 3 2 1 x 1 4 3 2 x 1
  • 44. Propiedades para la corrección de errores  Para corregir t errores de un bit entre dos palabras es necesario un código con una Distancia de Hamming de al menos 2t+1 De otra forma: Con una distancia de Hamming de d se pueden corregir (d-1)/2 errores Ejm: C = {0000000000, 0000011111, 1111100000, 1111111111} d. Hamming = 5 Se pueden detectar d-1 = 5-1 = 4 errores Se pueden corregir (d-1)/2 = 4/2 = 2 errores 44 FEC : forward error correction
  • 45. Redundancia y Probabilidad de Error Residual 45
  • 46. Compara Control de Errores 46
  • 47. Clasificación de Inclusión de la Redundancia • CÓDIGOS CONVOLUCIONALES – De forma continua a medida que llega la información al codificador. • CÓDIGOS DE BLOQUE – Asociada a bloques de información Códigos de canal Códigos bloque Códigos Trellis Códigos lineales Códigos no lineales Códigos convolucionales Codigos Coset Códigos cíclicos 47
  • 48. Códigos Bloque Un bloque de “n” bits de salida está formado por el bloque de “k” bits de entrada más un grupo de “r” bits de chequeo. Éstos son derivados del bloque de bits de entrada (bits de información) mediante alguna operación matemática. En el decodificador los bits de chequeo son usados para verificar si los bits de información que llegan en el bloque, tienen o no errores. En el codificador (transmisor) cada nuevo bloque de entrada genera un nuevo bloque de salida, que sólo está relacionado con el bloque de entrada actual y con ninguno de los bloques de entrada precedentes. 48
  • 49. Código bloque Lineal (n,k) El código es sistemático si, en las palabras codificadas, los k bits de mensaje aparecen primero, en el tiempo, y los “n-k” bits agregados, o redundantes, van después. 49 El código bloque es lineal si c/u de las 2k palabras codificadas puede expresarse como una combinación lineal de k vectores de código linealmente independientes.
  • 50. Proceso de codificación  El codificador transforma cada bloque de k bits en un bloque más grande, de n bits, de acuerdo con alguna regla predeterminada. Los (n – k) bits adicionales se generan mediante combinaciones lineales de los bits de mensaje, pudiendo describirse la operación de codificación mediante matrices. 50  El mensaje a transmitir es segmentado en bloques de k bits.
  • 51. razón de eficiencia del código= k/n Vector fila de dimensión K, 2k “bloques” 51 CODIFICADOR Proceso de codificación código de bloque (n, k) Los primeros k bits de C Ci =di i =1, 2,3,.........., k |G|
  • 52. La matriz de codificación últimos (n – k) bits de C son generados desde los k bits de mensaje según alguna regla predeterminada 52 Los coeficientes pij pueden ser “0” o “1”, y las sumas son “en módulo 2”
  • 53. Matriz generadora El vector datos genera el vector paridad 53 Donde: P es una matriz, de 1’s y 0’s, arbitraria k x(n – k ) Ver Anexo Mx
  • 54. Matriz paridad y chequeo La matriz P puede buscar que G tenga ciertas propiedades de: facilidad de implementar, capacidad de corregir errores aleatorios o en ráfagas, etc. 54 Para decodificar, se opera con la matriz H, de chequeo de paridad: El vector del mensaje recibido es: donde E es el posible error
  • 55. Matriz HT La elección de la matriz HT de dimensión (n)x(n-k) debe seguir las siguientes reglas: 55 Las n filas de HT deben ser distintas. No se debe usar una fila con todos ceros. Las últimas (n – k) filas deben ser la matriz identidad en H. Hay2n-k filas distintas de (n-k) componentes, de las cuales se puede escoger “2n-k-1” filas distintas para HT (se excluye la fila de todos cero).
  • 56. Para determinar la dimensión de la matriz, se debe tener en cuenta la Dmin requerida, ya que HT tiene n filas distintas, entonces: 56 Entonces, dado un mensaje original con largo de bloques de entrada de k bits, podemos determinar el nuevo largo del bloque de salida de n bits, de modo que: Matriz HT
  • 57. 57 DECODIFICADOR Proceso de decodificación y el vector Síndrome: |H| El proceso inverso: R= (d1,d2,………dk) S (n-k)= cero, si R no tiene error, o sea, si R es una de las palabras C “válidas”; sin embargo, R podría ser  del C original: Significa que hay error(es).
  • 58. Ejm codif y decodif 58 Matriz generadora Sea un código bloque lineal sistemático (7, 4) con matriz de paridad Para la entrada di = [1 1 0 1] produce la salida ci = [1 1 0 1 0 0 1]
  • 59. Sea un código bloque lineal sistemático (4, 2) con matriz generadora 59 Matriz generadora Ejm codif y decodif La distancia mínima es dmin = 2 < (n − k + 1 = 3). Si se transmite la palabra c = [0 0 1 1] y se recibe: r = [1 1 1 1] el sistema detecta el error ya que el síndrome s = [1 0] es distinto de cero. Sin embargo, no es capaz de corregirlo ya que hay varios patrones con peso 1.
  • 60. Códigos de Hamming –Los códigos Hamming son una subclase de los códigos de bloque lineal y pertenecen a la categoría de los códigos perfectos. –Se expresan como una función de un entero m>=2 60 m m m
  • 61. Código (7,4) de Hamming – Es común referirse al código de Hamming(7,4) que Hamming introdujo en 1950. – El código de Hamming agrega tres bits adicionales de comprobación por cada cuatro bits de datos del mensaje. – El algoritmo de Hamming (7,4) puede corregir cualquier error de un solo bit, pero más de un bit error NO, – Los tres bits de comprobación se ubican en las posiciones de la palabra a transmitir que correspondan a potencias de dos, es decir, las posiciones 1, 2, 4, 8,… – Los bits de información serán los restantes: 61
  • 62. Códigos (7,4) de Hamming –Para el cálculo de cada uno de los bits de paridad, se verifican los bits ubicados en posiciones específicas. –El cálculo será así: –Para el bit de paridad 1: –Para el bit de paridad 1: 62
  • 63. Códigos (7,4) de Hamming –Para el cálculo de cada uno de los bits de paridad, se verifican los bits ubicados en posiciones específicas. –El cálculo será así: –Para el bit de paridad 4: –Para el bit de paridad 8: 63
  • 64. Códigos CRC CÓDIGOS CÍCLICOS, una subclase de los códigos bloques lineales. Es un código en que cada palabra válida es un corrimiento lateral de unas a otras. ventajas:  La codificación y la determinación del síndrome pueden implementarse usando registros de desplazamiento y realimentaciones.  Obedecen a una estructura matemática que permite diseñar códigos con propiedades detectoras y, también, correctoras de error.  Se describen con polinomios. 64
  • 65. Un código bloque lineal (n, k) es un código cíclico si: 65 es un vector del código C, y también es vector del código C. Esta propiedad permite considerar los elementos de cada vector, como coeficientes de un polinomio de grado (n -1). Códigos CRC polinomio
  • 66. O sea, 66 Si se divide xiV (x) por xn+1 V (i)(x) es el residuo Vi= representa a V desplazada en forma cíclica (i) lugares hacia la izquierda. Códigos CRC desplazamiento
  • 67. Sea C(x)= d(x) g(x) un código CRC, para ello: d(x) es grado (k-1), y g(x) es grado (n-k) y factor de (xn+1) 67 Un vector de datos es: d(x)= d1x(k-1)+d2x(k-2)+……+dk C(x)= d1x(k-1)g(x)+d2x(k-2)+g(x)……+dk g(x) polinomio de grado (n-1) o menor Códigos CRC pol.generador
  • 68. Existe un total de 2k polinomios, correspondientes a 2k vector de datos. Así un código lineal (n,k) generado por C(x)=d(x)g(x) 68 Por Ej. para un código (7,4) x7+1 = (x+1)(x3+x+1)(x3+x2+1) son factores de xn+1 Para g(x) válido debe ser de orden (n-k)=3 Sea entonces g(x)=(x3+x2+1) Y si los datos son: d= 1 0 1 0 x3 x2 x1x0 d(x)= x3+x Códigos CRC factores
  • 69. C(x)=d(x)g(x) = (x3+x)(x3+x2+1) x6+x5+x4+x 69 o sea, C = 1 1 1 0 0 1 0 No sistemático Códigos CRC ejemplo Existe el método para que CRC sea sistemático: Investigue !
  • 70. Decodificación CRC Como todo C(x) válido es un múltiplo de g(x), si hay un error en la palabra recibida r(x), ésta NO será múltiplo de g(x), así: 70 Siendo S(x) el Residuo de grado n-k-1 o menor, llamado el SINDROME de la decodificación. Indicando existencia o no de error.
  • 71. Si e(x) es el polinomio error, entonces r(x) = C(x) + e(x) y como C(x) es múltiplo de g(x), S(x) = Res [C(x) + e(x)] / g(x) O sea, S(x) = Res e(x) / g(x)  0 71 Decodificación CRC Teniendo el patrón de errores se puede corregir
  • 72. Ejm de polinomios generadores 72 Algunos estándares internacionales:
  • 73. Gran variedad de códigos 73 Códigos Convolucionales; CRC; BIP (Bit Interleaved Parity); Hamming;Trellis code; Haufmann; Viterbi; Reed Salomon; BCH, y mas… Tema de lectura !
  • 74. Probabilidad de error 74 La probabilidad de error está acotada por la probabilidad de que ocurran más de t errores. En canales AWGN: donde p es la probabilidad de que ocurra un error en un bit. Para una modulación BPSK:
  • 75. Para SNR altas: 75 Puede demostrarse que cuando el ruido es blanco gaussiano y la modulación es BPSK: Probabilidad de error
  • 76. Probabilidad de error ejm Calcular la probabilidad de error de un código bloque lineal (5, 2) con dmin = 3, considerando que se utiliza una modulación BPSK con Eb/No = 10dB. 76 En unidades naturales Eb/N0 = 10. Por tanto, Ec/N0 = 4. La probabilidad de error es p = Q(√8) = 2.34 × 10−3. Para este valor de p, dmin = 3, t = ⌊0.5(dmin − 1)⌋ = 1 y k = 2, se obtiene Pe(1) ≤ 4.92 × 10−5 y Por otro lado, Pe(2) = 2.7 × 10−3. La probabilidad de error sin codificar es: Pb = Q(√20) = 3.87 × 10−6.
  • 77. Pb vs SNR para codificación 77
  • 79. Características  También una suerte de codificación de canal  Adapta señal al medio de tx.  Modo de modulación de banda base  Transmisión binaria y m-aria  Facilita recuperación de sincronismo  Reduce ancho espectral  Elimina componente DC 79
  • 80. Ganancia de codificación 80 Ganancia = 6dB Comparando para 10-5
  • 81. Cod lineal NRZ, NRZI, RZ Codigos binarios polar de minimo BW, pero carece de sincronismo Tiene contenido DC Cod RZ usa doble BW que NRZ y NRZI Son usados sólo para muy corta distancia, si hay acoplamiento DC y baja velocidad 81
  • 82. Señales de cod de línea 82 Tck Tck/2 Reloj NRZ RZ AMI Tck/2 1 0 1 1 0 1 0 1 +V -V +V -V +V -V
  • 83. DEP cod de línea 831/Tck En mayor detalle
  • 84. Unipolar NRZ (Binary On-Off Keying) T =1/R es la duración del bit, y R es la tasa binaria de bits por segundo. V es el nivel de voltaje del bit 1 84 PSD de varios cod línea, con R =1/T (tasa binaria)
  • 85. Probabilidad de error binaria para varios códigos de línea. 85 Eb/N0 es una medida de razón señal-ruido (SNR) de la señal recibida. Eb es la energía en un bit 1: V2T Unipolar NRZ (Binary On-Off Keying)
  • 86. Observar que para señal NRZ si hay una larga secuencia de 1s o 0s puede resultar en pérdida de sincronismo, debido a que no hay transiciones de pulsos. 86
  • 87. Espectro de potencia de códigos de duración T segundos: 87
  • 88. Código Manchester 88 0 = transición de “+” a “-” en centro de intervalo 1 = transición de “-” a “+” en centro de intervalo Biphase-L or Manchester II 0 = transición de “-” a “+” en centro de intervalo 1 = transición de “+” to “-” en centro de intervalo Manchester Diferencial Transición siempre en centro de intervalo 0 = transición en inicio de intervalo 1 = no transición en inicio de intervalo
  • 89. Pseudoternarios 89 0 = alterna “+” y “-” 1 = 0 V Bipolar-AMI 0 = 0 1 = alterna “+” y “-” Si se detecta un “1” cuando el último “1” no tiene polaridad opuesta: violación de bipolaridad. Por lo tanto puede detactar error. Twinned binary code 0 a 1 transmite “+” 1 a 0 transmite “-” 0 a 0 transmite “0” 1 a 1 transmite “0”
  • 90. CMI (Coded Mark Inversion) bit “1” es representado como en AMI: um pulso de duración T segundos de polaridad alternada. bit “0” es representado por pulso: 90
  • 91. Código de Línea Bloque 91 HDB3 V: violación de bipolaridad B: balance de bipolaridad AMI que no permite mas de tres ceros consecutivos
  • 92. AMI que reemplaza 8 ceros consecutivos, reemplazando por dos violaciones de paridad. 92 Código de Línea Bloque B8ZS
  • 93. Código Línea Bloque multinivel 93 En este caso, la tasa de símbolos es menor que la tasa de bits. Códigos kBnT k n codigo eficiencia 1 1 1B1T 63% 3 2 3B2T 95% 4 3 4B3T 84% 6 4 6B4T 95% 7 5 7B5T 89% Eficiencia para k y n valores con 3 niveles k es el Nº de bits de información en el block y n es el Nº de símbolos ternarios en el código.
  • 94. Código 4B3T  Se convierte un bloque de 4 dígitos binarios em un bloque de 3 dígitos ternarios.  De los 33=27 bloques ternarios posibles, sólo se usan 16, correspondientes a los 24=16 bloques binarios.  Se define una “disparidad acumulada” en relación a una “historia” de niveles (“+”) y (“-“)  La regla de codificación es compleja y obedece a um diagrama de estados. 94
  • 95. Diagrama de transición de estados 4B3T Asegura balance DC y una fuerte componente de reloj. 95
  • 96. Asignación 4B3T La columna 1 tiene componente negativo DC, la 2ª nivel cero, y la 3ª nivel positivo. 96
  • 97. Código 2B1Q 97 Cuaternario Nivel (volt) 1 0 3 2,5 1 1 1 0,833 0 1 -1 -0,833 0 0 -3 -2,5 Binario Regla:
  • 98. Utilización 98 AMI Sistema T1 HDB3 ITU-T G.703, 2,8,34 Mbps CMI idem 140Mbps Manchester Ethernet 802.3: Grabación magnética; distribución de reloj 4B3T USA 34, 140 Mbps 2B1Q RDSI, modem BB
  • 99. Conclusión: 99 Preguntas: ¿ ? En los sistemas de Telecomunicaciones se optimiza el BW con los códigos de fuente y de protege la información ante los efectos del ruido con los códigos de canal. La codificación de línea puede interpretarse como una codificación de canal y también como una modulación.
  • 100. Refs. - B.P. Lathi; Sistemas de Comunicaciones - K.M. Shammugan; Digital and Analog Communication Systems - Principios de Tx de Información, Briceño - Teoría de Información; AF.Kuri - Comunicaciones Digitales; M.Mezoa - Apuntes prof R.Villarroel 100
  • 101. 101 1.- Determine código (7,4) dada: Comprobar mensaje recibido: R= 1 0 0 1 0 0 1 2.- Considere la palabra de datos de 8 bits "01101011“ y codifique según procedimiento de Codificación Hamming. Luego considere que el bit de la derecha, por error, cambia de 1 a 0. 3.- Revise el paper de C.Shannon “The Mathematical Theory of Communication” e identifique cuantos teoremas enunció. 4.- Determine la Cantidad de Información que contiene una imagen de imagen de 16x16 pixeles. Considerando que se requiere identificar cada una de las posiciones de dichos pixeles y si además, se usa un código que identifica 256 combinaciones de colores primarios y 256 combinaciones de niveles de intensidad para cada pixel. 101 Investigar:
  • 102. Concepto de matriz 102 Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. El conjunto de matrices de m filas y n columnas se denota por Amxn o (aij), y un elemento cualquiera de la misma, que se encuentra en la fila i y en la columna j, por aij. Anexo recordando matrices
  • 103. 103 Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal principal son iguales a 1. Matriz identidad o unidad Matriz fila Matriz columna Anexo recordando matrices
  • 104. 104 Anexo recordando matrices Dadas dos matrices de la misma dimensión, A=(aij) y B=(bij), se define la matriz suma como: A+B=(aij+bij). Es decir, aquella matriz cuyos elementos se obtienen: sumando los elementos de las dos matrices que ocupan la misma misma posición.
  • 105. Anexo recordando matrices 105 Dos matrices A y B se dicen multiplicables si el número de columnas de A coincide con el número de filas de B. Mm x n x Mn x p = M m x p El elemento cij de la matriz producto se obtiene multiplicando cada elemento de la fila i de la matriz A por cada elemento de la columna j de la matriz B y sumándolos.
  • 106. 106 Matriz traspuesta Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene cambiando ordenadamente las filas por las columnas (At)t = A (A + B)t = At + Bt (α ·A)t = α· At (A · B)t = Bt · At Anexo recordando matrices
  • 107. Multiplicación de polinomios P(x) = 2x2 − 3 Q(x) = 2x3 − 3x2 + 4x Se multiplica cada monomio del primer polinomio por todos los elementos segundo polinomio. P(x) · Q(x) = (2x2 − 3) · (2x3 − 3x2 + 4x) = = 4x5 − 6x4 + 8x3 − 6x3 + 9x2 − 12x = Se suman los monomios del mismo grado. = 4x5 − 6x4 + 2x3 + 9x2 − 12x Se obtiene otro polinomio cuyo grado es la suma de los grados de los polinomios que se multiplican. 107 Anexo recordando polinomios
  • 108. También podemos multiplicar polinomios de siguiente modo: 108 Anexo recordando polinomios
  • 109. Suma de polinonomios. Ordenar escribiendo uno debajo del otro, de forma que los monomios semejantes queden en columnas y se puedan sumar: P(x) = 7x4 + 4x2 + 7x + 2 Q(x) = 6x3 + 8x +3 P(x) + Q(x) = 7x4 + 6x3 + 4x2 + 15x + 5 109 Anexo recordando polinomios
  • 110. División de polinomios: P(x) = x5 + 2x3 − x − 8 Q(x) = x2 − 2x + 1 P(x) : Q(x) A la izquierda se anota el dividendo. Si el polinomio no es completo deja espacios en los lugares que correspondan. A la derecha situar el divisor dentro de una caja. Dividir el primer monomio del dividendo entre el primer monomio del divisor. 110 x5 : x2 = x3 Anexo recordando polinomios
  • 111. Multiplicar cada término del polinomio divisor por el resultado anterior y restar del polinomio dividendo: 111 Volver a dividir el primer monomio del dividendo entre el primer monomio del divisor. Y el resultado se multiplica por el divisor y lo resta al dividendo. 2x4 : x2 = 2 x2 Anexo recordando polinomios
  • 112. Procedemos igual que antes. 112 5x3 : x2 = 5 x Anexo recordando polinomios
  • 113. Volvemos a hacer las mismas operaciones. 113 8x2 : x2 = 8 10x − 16 es el resto, porque su grado es menor que el del divisor y por tanto no se puede continuar dividiendo. x3 + 2x2 + 5x + 8 es el cociente. Anexo recordando polinomios
  • 114. 114