Professional Documents
Culture Documents
F6 ATTT C1 - AT - V2 (4 Files Merged)
F6 ATTT C1 - AT - V2 (4 Files Merged)
Xây dựng những luận điểm thuần tuý toán học và những cơ sở toán học
Chuyên nghiên cứu các bài toán thực tế quan trọng do kỹ thuật liên lạc
đặt ra có liên quan đến vấn đề chống nhiễu và nâng cao độ tin cậy của
➢Cơ sở lý thuyết mã
➢ Các chỉ tiêu chất lượng cơ bản của một hệ thống truyền tin
➢ Xu hướng phát triển của các thiết bị đầu cuối trong các hệ
thống thông tin
1.1 Một số định nghĩa và khái niệm cơ bản
✓Thông tin
- Thông tin là những tính chất xác định của vật chất mà con người hoặc
- Thông tin được truyền đi dưới những dạng năng lượng khác nhau như
- Thông tin là sự đa dạng được thể hiện bằng nhiều cách: Cấu trúc,
✓Tin
- Là dạng vật chất cụ thể biểu diễn thông tin: Bức thư, bức ảnh…
- Như vậy: Tin là cái biểu đạt, thông tin là cái cần biểu đạt; tin là hình
thức, thông tin là nội dung; tin là vỏ còn thông tin là lõi của vấn đề.
✓Tín hiệu
- Các đại lượng vật lý biến thiên phản ánh tin được truyền đi gọi là tín
hiệu (Dòng điện, trường điện từ, sóng âm...)
- Không phải bản thân đại lượng vật lý là tín hiệu mà các tham số biến
thiên mới là tín hiệu.
1.2 Sơ đồ khối của hệ thống truyền tin
✓Máy phát
- Là thiết bị biến đổi tập tin thành tập các tín hiệu
tương ứng để truyền đi
- Phép biến đổi trên phải là phép biến đổi đơn trị, hai
chiều
1.2 Sơ đồ khối của hệ thống truyền tin
✓ Máy thu
- Máy thu thực hiện phép biến đổi ngược lại so với
máy phát. Biến tập tín hiệu thu được thành tập tin
tương ứng.
1.2 Sơ đồ khối của hệ thống truyền tin
✓Nhận tin
- Tiếp nhận thông tin từ máy thu và thực hiện việc
phục hồi lại thông tin ban đầu.
- Thực hiện ba chức năng chính sau:
+ Lưu giữ tin
+ Xử lý tin
+ Biểu hiện tin
1.2 Sơ đồ khối của hệ thống truyền tin
✓Nhiễu
- Nhiễu là những tác động gây rối loạn quá trình trao
đổi tin tức.
1.3 Các chỉ tiêu cơ bản của một hệ thống
truyền tin
✓Tính kinh tế
Đa
Nguồn Tạo Mã Mã Mã Ghép Điều Trải Máy
truy
tin khuôn nguồn mật kênh kênh chế phổ phát
nhập
* * ∆ ∆ ∆
* * *
* * * * * ∆ ∆ ∆
Giải Giải Giải Giải Giải Giải Đa
Nhận Tạo Máy
mã mã mã ghép điều trải truy
tin khuôn thu
nguồn mật kênh kênh chế phổ nhập
Analog Digital
Narron band Broad band
simplex Duplex
Off line Online
Clear Security
Mono media Multi media
Passive Active
Idle Intelligent
Public Privacy
Mono access Multi access
Mono chanel Multi chanel
Non adative Adative
Chương 2 Cơ sở lý thuyết thông tin
✓ Ví dụ:
Thông tin
+ Với một bức điện vừa nhận nhận được
được, khi chưa đọc thì ta chỉ có
Độ bất định
thể phỏng đoán nội dung hoặc thế
trước khi
này hoặc thế khác...
nhận tin
+ Nói cách khác bức điện chứa
Độ bất định sau
một độ bất định nào đó. Khi đọc
khi nhận tin
bức điện rồi nghĩa là ta đã biết
được thông tin thì độ bất định nói
trên không còn. A B
2.1.1 Mối quan hệ giữa thông tin và độ bất định
- Khái niệm “thông tin” gắn liền với khái niệm “độ bất định”
- Lượng thông tin (độ lớn nhỏ của thông tin) được xác định bằng:
+ Độ bất định trước trừ độ bất định sau khi nhận tin
(Độ bất định tiên nghiệm trừ độ bất định hậu nghiệm)
+ Thông tin trước khi nhận tin trừ thông tin sau khi nhận
Giữa thông tin (độ bất định) và xác suất có mối quan hệ phụ
Gọi:
p (xi) – xác suất xuất hiện tin (sự kiện, biến cố) xi
Nếu xem thông tin là hàm của xác suất, ta có: I(xi) = f[p(xi)]
2.1.3 Các tiên đề về thông tin
✓Tiên đề 1: Thông tin là đại lượng không âm
I ( xi ) 0
✓Tiên đề 2: Biến cố chắc chắn không cho thông tin
I ( xi ) p = 0
( xi )=1
✓Tiên đề 3: Nếu xi, xj là hai sự kiện độc lập thống kê.
( )
I xi x j = I ( xi ) + I x j ( )
Nếu xi, xj là hai sự kiện phụ thuộc.
( )
I xi x j = I ( xi ) + I x j xi( )
2.1.4 Số đo lượng thông tin
✓Từ những vấn đề nêu trên ta xác định được:
I(x) = k.lnp(x) (1.1)
k: hệ số, k < 0
• k = -1 I(x) = - lnp(x) [Nat] (1.2)
• k = -1/ln2 I(x) = - log2 p(x) [Bit] (1.3)
• k = -1/ln10 I(x) = - lgp(x) [Hart] (1.4)
Đơn vị thông tin dùng trong các hệ thống thông tin là bit
vì vậy công thức hay được sử dụng là:
I(x) = - log2p(x) (1.5)
2.1.5 Lượng thông tin tương hỗ
Xét mô hình kênh truyền tin
a b
Lượng thông tin tương hỗ:
I (a, b) = I (a) − I (a / b)
Theo định nghĩa:
p(a)
I (a, b) = − log (1.6)
p ( a / b)
Kí tự N O P Q R S T U V W X Y Z
của lượng thông tin riêng chứa trong các tin của nguồn rời rạc.
H1 ( A) = M I (ai )
s
= p (ai ) I (ai )
i =1
s
= − p (ai )log p (ai ) (1.7)
i =1
* Lượng thông tin trung bình I(A) cũng được xác định như
• H1(A): Biểu thị thông tin trung bình trên mỗi tin của nguồn
trước khi nhận tin.
• I(A): Biểu thị thông tin trung bình của mỗi tin sau khi nhận
tin.
• Một vài giá trị của H1(A) :
H1(Anh ngữ) = 4,19 bit
H1(Nga ngữ) = 4,35 bit
H1(Việt ngữ) = 4,517 bit
2.2.3 Một số thuộc tính của Entropie
✓ Tính chất 1: Entropie của nguồn rời rạc là đại lượng không âm.
H1( A) 0 (1.8)
✓ Tính chất 2: Nguồn rời rạc gồm có s tin đồng xác suất, cho entropie
cực đại và giá trị cực đại là logs
H1( A) log s (1.9)
✓ Tính chất 3: Entropie của nguồn rời rạc là một đại lượng giới nội
a1 a2 1
A=
p 1 − p
s
H1 ( A) = − p (ai )log p (ai )
i =1 0 1/ 2 1 p
= − p log p − (1 − p)log(1 − p)
✓Định nghĩa: 1 bit là Entropie của một hệ vật lý có hai trạng thái độc
lập, đồng xác suất
2.2.5 Entropie của trường các sự kiện đồng thời
a1 a2 ... as b1 b2 ... bt
A= B=
p (a1 ) p (a2 ) ... p ( as ) p (b1 ) p (b2 ) ... p (bt )
0 p(ai ) 1 i = 1 s 0 p(b j ) 1 j = 1 t
s t
p(ai ) = 1 p(b j ) = 1
i =1 i =1
Xét các nguồn độc lập hay các trường sự kiện độc lập:
n
X = Xk , k =1 n → H (X ) = H (X k ) (1.12)
k =1
2.3 Entropie có điều kiện, lượng thông tin tương hỗ
➢ Entropie có điều kiện về một trường tin khi biết trường tin khác
• Khi phía phát và phía thu không chỉ có mỗi tin mà là cả một trường tin:
a1 a2 ... as b1 b2 ... bt
A= B=
p (a1 ) p (a2 ) ... p ( as ) p (b1 ) p (b2 ) ... p (bt )
0 p(ai ) 1 i = 1 s 0 p(b j ) 1 j = 1 t
s t
p(ai ) = 1 p(b j ) = 1
i =1 i =1
2.3.1 Entropie có điều kiện về một trường tin khi
biết trường tin khác
✓ Entropi có điều kiện về trường tin A khi xác định bj của trường tin B.
a1 b1
a2 b2
ai bj
as bt
s
H ( A / b j ) = − p(ai / b j )log p(ai / b j )
i =1
• Ý nghĩa: H(A/bj) là lượng thông tin tổn hao trung bình của mỗi tin ở
phía phát khi phía thu thu được bj
2.3.1 Entropie có điều kiện về một trường tin khi
biết trường tin khác
•Entropi có điều kiện về trường tin B khi xác định ai của trường tin A
a1 b1
a2 b2
ai bj
as bt
t
( ) (
H ( B / ai ) = − p b j / ai log p b j / ai )
j =1
• Ý nghĩa: H(B/ai) là lượng thông tin riêng trung bình chứa trong mỗi tin
ở phía thu khi phía phát phát đi một tin là ai
2.3.1 Entropie có điều kiện về một trường tin khi
biết trường tin khác
• Entropie có điều kiện của trường tin A khi xác định được trường tin B
a1 b1
a2 b2
ai bj
as bt
s t
H ( A / B) = − p(aib j )log p(ai / b j )
i =1 j =1
• Ý nghĩa: H(A/B) là lượng thông tin tổn hao trung bình của mỗi tin ở
phía phát khi phía thu đã nhận được một tin nào đó
2.3.1 Entropie có điều kiện về một trường tin khi
biết trường tin khác
• Entropie có điều kiện của trường tin B khi xác định được trường tin A
a1 b1
a2 b2
ai bj
as bt
s t
H ( B / A) = − p(aib j )log p(b j / ai )
i =1 j =1
• Ý nghĩa: H(B/A) là lượng thông tin riêng trung bình của mỗi tin ở phía
s
( ) ( ) (
H A / b j = − p ai / b j log p ai / b j )
i =1
t
( ) (
H ( B / ai ) = − p b j / ai log p b j / ai )
j =1
s t
( ) (
H ( B / A) = − p aib j log p b j / ai )
i =1 j =1
s t
( ) (
H ( A / B ) = − p aib j log p ai / b j )
i =1 j =1
2.3.2 Hai trạng thái cực đoan của kênh truyền tin
✓Tính chất 1: Nếu A và B là hai trường tin bất kỳ, Entropie của trường
tin đồng thời:
✓Tính chất 2: Entropie có điều kiện là một đại lượng giới nội:
✓Tính chất 3: Entropie của trường sự kiện đồng thời không lớn hơn tổng
Entropie của các trường của các trường sự kiện cơ bản:
A = ai , p (ai ); i = 1 s
B = b j , p (b j ); j = 1 t
Lượng thông tin tương hỗ giữa hai tập tin A và B
(Lượng thông tin trung bình truyền qua kênh rời rạc )
I ( A, B) = M I (aib j )
s t
p (ai )
= − p (ai b j )log (1.20)
i =1 j =1 p (ai / b j )
= H ( A) − H ( A / B)
2.3.4 Lượng thông tin tương hỗ trung bình
• H(A): Là lượng thông tin trung bình của mỗi tin của nguồn phát
• Tính chất 1
I(A,B) ≥ 0
• Tính chất 2
I(A,B) ≤ H(A)
•Tính chất 3
I(A,A) = H(A)
•Tính chất 4
I(A,B) = I(B,A)
2.3.5 Mô hình kênh truyền tin
H(A/B) H(B/A)
Lượng thông tin tổn hao Lượng thông tin do sửa sai
2.4 Các tham số đặc trưng của nguồn và kênh rời rạc
➢ Lượng thông tin truyền qua kênh rời rạc trong một đơn
vị thời gian
Tốc độ phát tin của nguồn thường được tính bằng (baud)
Khả năng phát của nguồn rời rạc được định nghĩa:
1
H ( A) = Vn .H ( A) = .H ( A) ( bit / sec, bps ) (1.21)
Tn
1
H ( A) max = Vn .H ( A) max = .H ( A) max
Tn
1
= log s ( bit / sec, bps )
Tn
Khả năng phát của nguồn biểu thị lượng thông tin trung
bình mà nguồn phát ra được trong một đơn vị thời gian
2.4.1 Các tham số đặc trưng của nguồn rời rạc
Độ dư của nguồn rời rạc được định nghĩa bởi biểu thức sau:
H ( A) max − H ( A)
Dn = = 1− (1.22)
H ( A) max
H ( A)
Trong đó: = gọi là hệ số nén tin
H ( A) max
Với nguồn rời rạc gồm s tin : H ( A) max = log s
H ( A)
Độ dư của nguồn rời rạc: Dn = 1 − (1.23)
log s
Độ dư đặc trưng cho hiệu suất, khả năng chống nhiễu của nguồn.
2.4.2 Các tham số đặc trưng của kênh rời rạc
Một kênh rời rạc được đặc trưng bởi 3 tham số cơ bản sau:
A = ai , p (ai ); i = 1, s
B = b j , p (b j ); j = 1, t
+ Các xác suất chuyển:
p (b j / ai ), i = 1, s; j = 1, t
✓Định nghĩa 1:
• p(bj/ai) không phụ thuộc vào thời gian: kênh đồng nhất
• p(bj/ai) phụ thuộc vào thời gian: kênh không đồng nhất
• p(bj/ai) không phụ thuộc vào dấu đã phát trước nó: kênh không nhớ
• p(bj/ai) phụ thuộc vào dấu đã phát trước nó: kênh có nhớ
2.4.2 Các tham số đặc trưng của kênh rời rạc
Định nghĩa 2: Nếu một kênh có xác suất chuyển thỏa mãn:
p® = const;i = j
p(b j / ai ) = ;i = 1, s; j = 1, t
ps = const;i j
Ta có kênh đối xứng
Ví dụ: Kênh nhị phân đối xứng có xác suất chuyển và mô hình
được cho như sau:
Pđ
a1 b1
p(b1 / a1 ) = p(b2 / a2 ) = p®
p(b1 / a2 ) = p(b2 / a1 ) = ps ps
P® + Ps = 1 a2 b2
Pđ
2.4.3 Lượng thông tin truyền qua kênh rời rạc
I ( AB)
I ( AB) = = Vk .I ( AB) (1.24)
Tk
Thông thường: Tk = Tn = 1/ Vk = 1/ Vn
2.4.4 Thông lượng của kênh rời rạc
✓Định nghĩa:
C = max I ( AB) = Vk .max I ( AB) (1.25)
A A
Đặt:
C = max I ( AB)
A
Ta có:
C = Vk .C [bit / sec]
✓Tính chất:
+C 0
+C Vk .log s
2.4.4 Thông lượng của kênh rời rạc
✓Định lý:
Để có thể mã hóa và giải mã các tin khi truyền qua với khả
năng thông qua của kênh hay có thể truyền tin với tốc độ xấp xỉ
khả năng thông qua của kênh thì cần thỏa mãn điều kiện sau:
H ( A) C
Trong đó: H’(A) khả năng phát của nguồn rời rạc
x2 y2
Bài tập
2. Cho mô hình kênh rời rạc không nhớ, đối xứng, đồng
nhất, được cho như hình vẽ:
Cho biết: p(a1) = a, Do có nhiêu nên xác suất thu đúng
mỗi tin chỉ còn p. Giả sử: tốc độ phát tin của nguồn Vn, tốc độ
truyền tin qua kênh là Vk .
a1 b1
Tính:
-I(a1b1), I(a2b2),I(a1/b1),I(a2/b2)
-H(A/B), H(B/A)
a2 b2
-H’(A), Dn, C’
Bài tập
Tìm lượng thông tin chứa trong biến cố, tìm được 1
giỏi.
➢ Mã thống kê tối ưu
➢ Mã Cyclic
3.1 Một số định nghĩa và khái niệm cơ bản
✓ Mã hóa, Mã hiệu
✓ Phân loại mã
✓ Độ dư của bộ mã
✓ Khoảng cách mã
3.1.1 Mã hóa, mã hiệu
✓ Ví dụ
Chúng ta có thể thiết lập một ánh xạ A vào tập các chuỗi {0, 1}
a → 00 c → 10
b → 01 d → 11
• Vậy thay vì truyền bản tin baba, phía phát sẽ phát đi chuỗi
01000100.
• Khi phía thu nhận được chuỗi bít này thì phải xác định được
bản tin bên phát đã phát đi là baba.
3.1.1 Mã hóa, mã hiệu
hay mã hoá là phép biến đổi từ một tập tin này thành một tập
f : ai ⎯⎯
1−1
→ ini
✓ Quá trình ngược lại quá trình mã hoá được gọi là giải mã.
3.1.1 Mã hóa, mã hiệu
✓ Mã hiệu là tập hữu hạn các kí hiệu và phép ánh xạ các
tin/bản tin của nguồn tin thành các dãy kí hiệu tương ứng.
…………
✓Tập tất cả các từ mã tương ứng với các tin của nguồn được
gọi là bộ mã.
V = ini , i = 1, s
3.1.1 Mã hóa, mã hiệu
✓ Chiều dài từ mã, chiều dài trung bình
• Chiều dài từ mã là số bit (số dấu mã) có trong từ mã thường
được kí hiệu là n.
• Chiều dài trung bình của bộ mã thường được kí hiệu là n
s
n = p ( ai ) ni
i =1
Trong đó:
s là số tin của nguồn
ni là chiều dài từ mã tương ứng với tin ai của nguồn.
3.1.1 Mã hóa, mã hiệu
✓ Điều kiện thiết lập mã:
• Ta có thể nói: Để giải mã đúng thì phép biểu diễn này nhất
thiết là một phép biến đổi đơn trị, hai chiều. Như vậy mã hóa
là hàm tương ứng 1 – 1 giữa các tin của nguồn với các từ mã
của các bộ mã
3.1.2 Độ dư của bộ mã
• V là bộ mã cơ số mã là m, độ dài n. Khi đó số từ mã
có thể có là: N = m n.
3.1.2 Độ dư của bộ mã
• Độ dư của bộ mã đều được xác định theo biểu thức:
H (V ) - H ( A)
D = max max = 1- log s (2.1)
m H (V ) n log m
max
• Khi: s m n → Dm 0 , bộ mã có độ dư.
3.1.3 Phân loại mã
✓ Người ta có thể phân loại mã theo nhiều cách khác nhau
✓ Các mã nhị phân được dử dụng phổ biến, phần này ta chỉ xét
• σk=0 hoặc 1 1 2 3 4 5 6 ni
3.1.4 Biểu diễn mã
✓ Cây mã
sẽ là cây m phân. 1 a3
0
là số dấu mã khác nhau tính theo cùng 1 vị trí giữa hai từ mã.
Ví dụ:
in = 1011000
jn = 0101100
*** *
( )
d in , jn = 4
3.1.5 Khoảng cách mã (khoảng cách Hamming)
✓ Thuộc tính
d ( in nj ) = 0 Với i = j
d ( in nj ) 0 Với i j
d ( in nj ) = d ( nj in ) Với i, j
d ( in nj ) + d ( nj kn ) d ( in kn ) Với i, j , k
1 d ( in nj ) n Với i j
✓ Trọng số của từ mã: là số các dấu khác 0 trong từ mã
( ) (
Khoảng cách mã: d in nj = W in nj )
3.2 Mã thống kê tối ưu
✓ Định lý Shannon
𝑛
ni :Độ dài của từ mã 𝛼𝑖 dùng đề mã hóa cho tin ai
• Lượng thông tin chứa trong từ mã không thể nhỏ hơn lượng thông tin
• Việc mã hóa càng kinh tế khi mỗi dấu mã chứa được một lượng
- Lượng thông tin cực đại chứa trong mỗi dấu mã là: logm
✓ Nếu coi tất cả các dấu mã trong từ mã là độc lập thống kê thì:
( )
I ini I ( ai ) ni log m − log p ( ai )
− log p ( ai )
ni ( 2.10 )
log m
H ( A)
L
log m
✓ Điều kiện (2.10) được chọn như sau:
− log p ( ai )
ni +1
log m
[X] – chỉ phần nguyên
3.2.1 Giới hạn tối ưu cho độ dài trung bình của từ mã
H ( A)
L= +1
log m
✓ Giới hạn tối ưu cho độ dài trung bình từ mã
H ( A) H ( A)
L +1
log m log m
3.2.2 Định lý Shannon
✓ Định lý:
H ( A)
L
log m
✓ Ý nghĩa:
Xác định khả năng giới hạn cho tính kinh tế của bộ mã hay
xác định số bit nhị phân tối thiểu trung bình cho một tin.
3.2.3 Mã thống kê tối ưu Huffman
✓ Phương pháp lập mã theo Huffman:
• Hai xác suất nhỏ nhất được nối và cộng lại với nhau. Một
xác suất được ghi “1”, và một xác suất được ghi “0”
• Quá trình hợp hai tin có xác suất nhỏ nhất được tiếp tục
cho đến khi tổng xác suất của hai tin bằng 1
• Từ mã ứng với mỗi tin, là các dấu nhị phân viết từ nút gốc
đến nút lá.
3.2.3 Mã thống kê tối ưu Huffman
ai p(ai) Quá trình tổ hợp các tin Từ mã
a6 1/16 1 1111
3.2.3 Mã thống kê tối ưu Huffman
a1 a2 a3 a4 a5 a6
1/2 1/8 1/8 1/8 1/16 1/16
0 1
0 1 0 1/8
1/4 1/4
0
0 1
1/2
1
3.2.3 Mã thống kê tối ưu Huffman
✓ Giải mã: Dùng đô thị hình cây mã
• Di con trỏ theo nhánh có trị là bit nhận được, khi con trỏ đến nút lá:
• Quá trình giải mã lại được tiếp tục như trên cho đến khi hết tin.
p p p pp ppp p p p p
a3 a2 a5 a1 a5a1a1 a3 a4 a2 a4 a5
Ví dụ:mã Huffman
Một nguồn rời rạc được cho như sau:
Tin a1 a2 a3 a4 a5 a6 a7 a8
Xác
0.09 0.14 0.13 0.10 0.02 0.12 0.36 0.04
suất
c = ab = ( x1 y1 x2 y2 ... xn yn )
n
b = c1 a1 + c2 a2 + ... + cn an = ci ai
i =1
✓Véc tơ mã nhận được: bi = ai + ei
Véc tơ sai 𝑒Ԧ đặc trưng cho nhiễu trên kênh truyền
Trọng số của véc tơ sai 𝑒Ԧ là W(𝑒)
Ԧ gọi là bội sai.
3.3.2 Cơ chế phát hiện sai và sửa sai của bộ mã
• Số từ mã có thể có là: N0 = 2n
• Số từ mã dùng: N = 2k
• Số từ mã cấm: No – N = 2n – 2k
3.3.2 Cơ chế phát hiện sai và sửa sai của bộ mã
1 1
Không
2 2 phát
Từ mã hiện
dùng được
sai
N N
Có thể
Từ mã phát
cấm No N0 hiện sai
3.3.2 Cơ chế phát hiện sai và sửa sai của bộ mã
✓ Trong đó:
✓ Để đánh giá khả năng phát hiện sai và khả năng sửa sai của một
✓ Định nghĩa:
✓ Định lý 1: Một bộ mã đều nhị phân 𝑑0 > 1có thể phát hiện được tất
cả các véc tơ sai 𝑒 có 𝑊 𝑒Ԧ ≤ 𝜎 nếu thỏa mãn:
𝑑0 > 𝜎 + 1
✓ Định lý 2: Điều kiện cần và đủ để một bộ mã đều nhị phân (𝐷𝑚 > 0)
sửa được tất cả các véc tơ sai 𝑒 có 𝑊 𝑒Ԧ ≤ 𝑡 nếu thỏa mãn:
𝑑0 ≥ 2𝑡 + 1
✓ Định lý 3: Điều kiện cần và đủ để một bộ mã đều nhị phân (𝐷𝑚 > 0)
phát hiện được tất cả các véc tơ sai 𝑒 có 𝑊 𝑒Ԧ ≤ 𝜎 và sửa được tất cả
véc tơ sai 𝑒 có 𝑊 𝑒Ԧ ≤ 𝑡; (t ≤ σ) nếu thỏa mãn:
𝑑0 ≥ 𝜎 + t + 1
3.4 Mã Cyclic
i =0
ai - Các dấu mã
i =0 j =0
n −1
ax + bx V → ax + bx = (ai bi ) x i (2.30)
i =0
x.ax
(
mod x +1n
) (
= x a0 x + a1 x + ... + an−1 x
0 1 n −1
) (
mod x n +1 )
(
= a0 x + a1 x + ... + an−1 x
1 2 n
) (
mod x n +1 )
= (a n −1 x 0
+ a0 x1
+ a1 x 2
+ ... + a n−2 x n −1
V )
3.4.1 Biểu diễn đa thức cho tổ hợp mã
✓ Ví dụ: phép chia cho x
1
.ax
x mod( x +1)
n
−1
(
= x a0 x + a1 x + ... + an−1 x
0 1 n −1
) (
mod x n +1 )
( −1
= a0 x + a1 x + ... + an−1 x
0 n−2
) (
mod x n +1 )
(
= a1 x 0 + a2 x1 + ... + an−2 x n−1 + a0 x n−1 V )
* Kết luận: Phép nhân một đa thức mã với x cho kết quả tương
đương như việc dịch vòng đa thức mã sang phải một dấu mã. Phép
chia một đa thức mã cho x tương đương như việc dịch vòng đa thức
mã sang trái một dấu mã.
3.4.2 Các định nghĩa của mã Cyclic
✓ Mã Cyclic:
Mã Cyclic là một bộ mã hệ thống tuyến (n,k) tính có đặc điểm
sau:
f x V , → x . f x V
i
(2.33)
✓ Đa thức sinh:
• Ký hiệu g(x) - Đa thức sinh của bộ mã:
deg g(x) = mindeg f(x)
• Biểu diễn:
r −1
g ( x) = gi x i
(2.34)
i =0
3.4.3 Thiết bị tạo mã
✓ Nguyên tắc tạo mã
r ( x) a( x)
• b2: Lấy phần dư cộng với đa thức mã nhận được, ta thu được đa thức
mã đúng.
• b3: Dịch vòng đa thức mã nhận được sang phải (hoặc trái) một dấu
mã. Chia đa thức mã đã dịch cho đa thức sinh, xác định phần dư và tính
trọng số của phần dư
Nếu: W(rx) t, ta thực hiện theo b4
Nếu: W(rx) > t, ta thực hiện theo b5
• b4: Lấy phần dư cộng với đa thức mã đã dịch, sau đó đem kết quả
dịch vòng ngược trở lại sang trái (hoặc sang phải), ta thu được đa thức
mã đúng.
• b5: Thực hiện như b3 cho tới khi W(rx) t .*
Bài tập
g ( x) = 1+ x + x + x
2 3 4
= 1001001
Chương 4 Cơ sở lý thuyết tín hiệu
C = const m=n
T U n (t ).U m (t )dt = 0 mn
(3.1)
• Như vậy một tín hiệu vật lý đều có thể được viết:
x(t ) = anU n (t ) (3.2)
n =0
• (3.2) gọi là khai triển của x(t) theo họ hàm trực giao Un(t)
4.1.1 Khai triển trực giao
an - hệ số của phép thay thế được xác định từ điều kiện
trực giao:
1
an = x(t ).U n (t )dt (3.3)
cT
Khi khai triển tín hiệu dưới dạng (3.2) ta luôn có:
x(t ) − anU n (t ) (3.4)
n =0
- sai số của phép biểu diễn tín hiệu và dãy thay thế
Khi = 0 ta đã biểu diễn chính xác tín hiệu x(t)
4.1.2 Biến đổi Fourrier của những hàm tuần hoàn
T m=n=0
T cos not cos motdt = T 2 m = n 0
0 mn
0 m=n=0
T sin not sin motdt = T 2 m = n 0
0 mn
4.1.2 Biến đổi Fourrier của những hàm tuần hoàn
1
ao = x(t )dt
TT
2
an = x(t )cos notdt (3.6)
TT
2
bn = x(t )sin notdt
TT
4.1.2 Biến đổi Fourrier của những hàm tuần hoàn
• Định lý Parceval
Ta có:
1
TT X 2
()
t dt = a0
2
+
1
2 n=1
(an
2
+ bn
2
)
Trong đó:
1
(
a02 + an2 + bn2
2 n=1
) : công suất thành phần phổ
4.1.2 Biến đổi Fourrier của những hàm tuần hoàn
Im Cn bn
n = arctg = arctg − (3.10)
Re Cn an
4.1.3 Biến đổi Fourrier của những hàm không tuần hoàn
• Với những hàm không tuần hoàn. Để sử dụng được kết quả
trên, ta có thể coi sự không tuần hoàn như kết quả của việc tăng
chu kỳ đến vô hạn.
T → o→d
no→ (Các vạch phổ xít lại gần nhau)
Cn→X( )
4.1.3 Biến đổi Fourrier của những hàm không tuần hoàn
x(t )e
− jt
X ( ) = dt
−
1
x(t ) =
2
−
X ( )e jt d (3.12)
• (3.12) Cặp tích phân Fourier cho hàm không tuần hoàn
• X() Phổ tần số, đặc trưng cho phân bố biên độ trên các
thành phần tần số.
4.1.4 Một số thuộc tính của biến đổi Fourier
• Thuộc tính tuyến tính:
𝑢 𝑡 ⇌𝑈 𝜔
ൠ ⟹ 𝑎. 𝑢 𝑡 + 𝑏. 𝑣 𝑡 ⇌ 𝑎. 𝑈 𝜔 + 𝑏. 𝑉 𝜔
𝑣 𝑡 ⇌𝑉 𝜔
1 𝜔
𝑥 𝑡 ⇌ 𝑋 𝜔 ⇒ 𝑥 𝑎𝑡 ⇌ 𝑋
𝑎 𝑎
4.1.4 Một số thuộc tính của biến đổi Fourier
• Thuộc tính của phần thực và phần ảo của phổ:
A( ) = A(− )
(3.16)
B ( ) = − B(− )
4.1.4 Một số thuộc tính của biến đổi Fourier
✓ Công thức Reileight tổng quát:
• Giả thiết:
𝑢 𝑡 ⇌𝑈 𝜔
𝑣 𝑡 ⇌𝑉 𝜔
• Xét tích vô hướng của 2 tín hiệu trên:
1
(u.v) = u (t )v(t )dt = V ( ).U (− )d (3.17)
−
2 −
• Với tín hiệu xác định x(t) ta có thể xác định các đặc trưng
vật lý thông qua phép biến đổi Fourier
1
x(t ) = Cn e jnot
T n=−
Cn =
−
x(t )e − jnot
• Về mặt tổng quan, ta phải coi tín hiệu là một quá trình ngẫu
nhiên, nhiễu là một quá trình ngẫu nhiên
X = x(t ),W ( x, t )
4.4.1.2 Phân loại nhiễu
• Theo bề rộng phổ: Nhiễu giải rộng, Nhiễu giải hẹp
• Theo quy luật biến đổi theo thời gian: Nhiễu xung, Nhiễu
tập trung
• Theo phương thức tác động vào tín hiệu: Nhiễu cộng, Nhiễu
nhân, Nhiễu hỗn hợp
• Theo phương thức bức xạ: Nhiễu tích cực, Nhiễu tiêu cực
4.4.1.3 Các quy luật thống kê
• Hàm mật độ phân bố xác suất một chiều:
f ( x, t1 )
W1 ( x, t1 ) =
x
• Hàm mật độ phân bố xác suất hai chiều:
f1 ( x1 , t1 ; x2 , t2 )
W2 ( x1 , t1 ; x2 , t2 ) =
x1x2
• Hàm mật độ phân bố xác suất nhiều chiều:
f n ( x1 , t1 ; x2 , t2 ;..xn , tn )
Wn ( x1 , t1 ; x2 , t2 ;..xn , tn ) =
x1x2 ...xn
4.4.1.4 Các đặc trưng thống kê
• Phương sai:
D x(t ) = Dx ( t ) = M x(t ) − m (t )
x
2
x(t ) − m (t ) W ( x, t )dx
2
= x
−
4.4.1.4 Các đặc trưng thống kê
kê giữa 2 giá trị thuộc cùng một thể hiện của QTNN
4.4.1.4 Các đặc trưng thống kê
• Khi: t1 t2 = t → Rx (t1 , t2 ) = Dx (t )
• Trung bình bình phương:
x (t ) = Dx (t )
• Hàm tự tương quan chuẩn hóa:
Rx ( t1 , t2 )
rx (t1 , t2 ) =
Rx ( t1 , t1 ) Rx ( t2 , t2 )
Rx ( t1 , t2 ) Rx ( t1 , t2 )
= =
Dx ( t1 ) Dx ( t2 ) x ( t1 ) . x ( t1 )
4.4.2 Các đặc trưng vật lý của tín hiệu
ngẫu nhiên và nhiễu
• Xét:
−T T
x(t ) t 2 2
xT (t ) = (3.19)
0 t −T T
2 2
• Với điều kiện trên 𝑥𝑇 𝑡 thỏa mãn điều kiện khả tích tuyệt
đối:
T /2
X T ( ) =
−T /2
xT (t )e − jt dt (3.20)
4.4.2.1 Cơ sở lý thuyết phổ của quá trình ngẫu nhiên
• Công suất của một thể hiện của tín hiệu nói trên
T /2
ET 1 1
X T ( ) d
2
PT = = (3.22)
T 2 −T /2
T
4.4.2.1 Cơ sở lý thuyết phổ của quá trình ngẫu nhiên
• Ký hiệu:
X T ( )
2
GT ( ) = (2.23)
T
• GT(ω) – Mật độ phổ công suất của thể hiện QTNN trong
khoảng T hữu hạn.
• Lấy kỳ vọng của đại lượng ngẫu nhiên trên ta thu được:
G ( ) = M Gx ( )
X T ( )
2
= M lim
T → T
• G(ω) – Mật độ phổ công suất của quá trình ngẫu nhiên
• Mật độ phổ công suất của quá trình ngẫu nhiên đặc trưng
cho sự phân bố công suất một cách bình quân của QTNN
dừng theo thang tần số
4.4.2.2 Biến đổi Khinchin Wiener
X T ( )
2
X T ( ) X T* ( )
G ( ) = M lim = M lim
T → →
T T T
T T
2 2
1
= lim M xT (t1 ) xT (t2 ) e − j (t1 −t2 ) dt1dt2
T → T
−T −T 2 2
G ( ) d
( ) = −
(3.28)
G ( o )
G(ω0) Là giá trị cực đại của mật độ phổ công suất
• Về mặt vật lý, bề rộng phổ công suất đặc trưng cho sự tập
trung công suất (năng lượng của tín hiệu) ở quanh tần số
trung tâm nào đó
4.3 Biểu diễn phức và biểu diễn hình học cho
thể hiện của tín hiệu ngẫu nhiên và nhiễu
✓ Biểu diễn phức cho thể hiện của tín hiệu điều hòa
• Các tín hiệu có dạng là hàm điều hòa theo thời gian đều có thể
biểu diễn một cách quy ước dưới dạng phức như sau:
x(t ) = A(t )cos (ot + o ) = A(t )cos (t ) = A(t )e j ( t )
•
X (t ) = A(t )e j ( t ) = A(t )cos (t ) + jA(t )sin (t )
(3.29)
= X (t ) + j X ( t )
• Trong đó:
Im
X (t ) M
A(t )
(t )
X (t ) Re
• Phần thực và phần ảo của tín hiệu phức liên hệ với nhau bởi cặp
biến đổi tích phân đơn trị hai chiều:
• 1 X ( )
X (t ) = Im X (t ) = d = H X (t ) (3.31)
− t −
•
1 X ( )
− t − X (t )
−1
X (t ) = Re X (t ) = − d = H (3.32)
Cặp công thức (3.31), (3.32) gọi là cặp biến đổi Hilbert
ത
X(t), 𝑋(𝑡): Gọi là hàm liên hợp Hilbert
4.3.1.2 Biến đổi Hilbert
✓ Thuộc tính của biến đổi Hilbert
f ( x1 + x2 ) = f ( x1 ) + f ( x2 )
(3.33)
f ( k .x ) = k . f ( x )
• Định nghĩa tín hiệu giải tích: Tín hiệu phức có phần
thực và phần ảo thỏa mãn biến đổi Hilbert, được gọi
là tín hiệu giải tích
4.3.1.2 Biến đổi Hilbert
• Trường hợp 1: khi tín hiệu là hàm tuần hoàn
X (t ) =
k =−
( ak cos kot + bk sin kot ) (3.34)
• Biên độ tức thời (đường bao của tín hiệu giải tích):
2
A(t ) = X (t ) + X (t )
2
(3.38)
• Pha tức thời (pha chạy của tín hiệu giải tích):
X (t )
(t ) = arctg (3.39)
X (t )
4.3.1.3 Các yếu tố của tín hiệu giải tích
(t ) X (t ) X (t ) − X (t ) X (t )
(t ) = = (3.40)
t 2
X (t ) + X (t )
2
+ 𝐴 𝑡 ≥ 𝑋 𝑡 ; ∀𝑡 (3.41)
x(t ) A(t )
X (t )
0 t
✓ Chuỗi Kachennhicov
✓ Xét một thể hiện của tín hiệu ngẫu nhiên, sử dụng hệ hàm
trực giao:
sin c (t − k t )
U k (t ) =
c (t − k t )
ωc: Tần số cao nhất trong phổ của tín hiệu, nghĩa là:
T
1 n 2 sin 2
2
= xk d
c k =1 − T
2
n 2 1 n 2
= xk = xk
c k =1 2 f c k =1
4.3.2.2 Năng lượng chuỗi Kachennhicov
n 2 1 n 2
E = xk = xk (3.45)
c k =1 2 f c k =1
k =1
M
x(t ) n(t )
M
A(t )
x(t ) n(t ) M’
y (t )
n(t ) n(t )
A(t )
B(t )
y(t )
B(t )
M’
Biểu diễn hình học cho thể hiện tín hiệu