Download as pdf or txt
Download as pdf or txt
You are on page 1of 6

Machine Translated by Google

Tinh chỉnh cơ chế phân bổ băng thông động GIANT cho


XG-PON

Jerome A. Arokkiam Kenneth N. Brown Cormac J. Sreenan


Khoa Khoa học Máy tính CTVR, Khoa Khoa học Máy tính CTVR, Khoa Khoa học Máy tính CTVR,
UCC, Ireland UCC, Ireland k. UCC, Ireland cjs@cs.ucc.ie

jerome.arokkiam@insight-centre.org brown@cs.ucc.ie

Tóm tắt—XG-PON yêu cầu cơ chế phân bổ băng thông động (DBA) hiệu quả Độ trễ trung bình tối thiểu đối với lưu lượng có mức ưu tiên cao
cho lưu lượng ngược dòng để hỗ trợ chất lượng dịch vụ cho các loại lưu nhất (tương đương với thời gian thực) trong khi vẫn đảm bảo thứ tự
lượng khác nhau. Chúng tôi đề xuất X-GIANT, mở rộng Mạng truy cập GigaPON
ưu tiên giữa tất cả các loại lưu lượng, khi tải ngược dòng thay
(GIANT) dựa trên GPON
đổi từ 0,5 đến 1,8 lần dung lượng của XG-PON.
DBA, với các tính năng tối ưu hóa đã được xác thực cho các tham số chính
được đề xuất ban đầu - bộ tính giờ dịch vụ và tỷ lệ được đảm bảo so với Trong phần còn lại của bài viết, Phần II trình bày nền tảng cần
không được đảm bảo của lưu lượng truy cập có mức độ ưu tiên trung bình. thiết, Phần III thảo luận về công việc liên quan, Phần IV mô tả cách
Chúng tôi triển khai X-GIANT trong mô-đun XG-PON tuân thủ tiêu chuẩn được thiết lập thử nghiệm và các cải tiến của chúng tôi đối với GIANT, Phần
thiết kế cho trình mô phỏng ns-3 tiên tiến, điều chỉnh các tham số
V chứa đánh giá thử nghiệm của chúng tôi về X-GIANT và chúng tôi kết
chính ở trên và cho thấy độ trễ và thông lượng trung bình đối với các
luận bằng các hướng dẫn cho công việc tiếp theo ở Phần VI.
loại lưu lượng khác nhau tuân theo XG-PON yêu cầu và tôn trọng các ưu
tiên ở cả tải nhẹ và nặng ở thượng nguồn. Chúng tôi cũng chỉ ra rằng X-
GIANT cho thấy hiệu suất độ trễ trung bình tốt hơn so với Sử dụng băng
II. LÝ LỊCH
thông hiệu quả (EBU), một cơ chế DBA dựa trên mức độ ưu tiên, có nguồn
gốc từ GIANT được đề xuất gần đây cho XG-PON, cho cả ba loại lưu lượng được mô phỏng.
A. Mạng quang thụ động (PON)

Kiến trúc của PON bao gồm Thiết bị đầu cuối đường dây quang (OLT) -
I. GIỚI THIỆU được đặt tại nhà cung cấp dịch vụ/văn phòng trung tâm (CO) và được kết

nối với bộ định tuyến lõi - và Thiết bị mạng quang (ONU), được kết nối
Mạng quang thụ động (PON) đã nổi lên như một công nghệ mạng truy
với OLT thông qua mạng phân phối quang (ODN). ) sử dụng cáp quang dùng
cập hấp dẫn do băng thông rất cao, chi phí vốn thấp và chi phí vận hành
chung và bộ tách/nối quang thụ động. ONU thường sẽ được đặt gần tòa nhà
và bảo trì tương đối thấp. Một trong những thách thức còn lại đối với
hoặc cơ sở của khách hàng, giúp kết nối người dùng/thiết bị ở chặng
PON, với tư cách là mạng truy cập, là kết hợp khung Chất lượng dịch vụ
cuối dễ dàng hơn. Theo hướng xuôi dòng (DS) (OLT đến ONU), OLT phát các
(QoS) hiệu quả để hỗ trợ các loại lưu lượng khác nhau. Một cấu trúc
khung hình tới ONU thông qua mạng quang thụ động bằng cách sử dụng Song
QoS trừu tượng được DBA sử dụng đã được đề xuất cả trong các tiêu chuẩn
công phân chia theo thời gian, trong khi ở hướng ngược dòng (US), ONU
Ethernet PON (EPON) [5] và Gigabit PON (GPON) [6] bởi IEEE/FSAN và ITU-
truyền khung hình đến OLT bằng cách sử dụng Đa truy cập phân chia theo
T tương ứng. Tuy nhiên, rất ít cơ chế DBA dựa trên QoS tuân thủ tiêu
thời gian.
chuẩn đã được triển khai cho tiêu chuẩn Gigabit PON (GPON) và chuẩn

kế nhiệm của nó, PON có khả năng 10 Gigabit (XG-PON) [7], do các định
Là một phần của đặc tả QoS, GPON và XG-PON đảm nhận các loại lưu
nghĩa hạn chế của chúng. Triển khai đầu tiên như vậy, GIANT DBA [10],
lượng khác nhau, phải được xử lý thích hợp khi sử dụng DBA hiệu quả
được xuất bản năm 2006, đánh giá việc triển khai DBA dựa trên QoS cho
GPON.

B. Hạn chế về QoS trong cấu trúc XG-PON DBA

Trong XG-PON, OLT sử dụng phần tiêu đề DS được gọi là BWmap trong
Gần đây hơn, Han và cộng sự. đã xuất bản EBU DBA [3], xuất phát từ
khung vật lý DS để phân bổ các cơ hội truyền dữ liệu Hoa Kỳ cho mỗi
GIANT, cho thấy sự cải thiện đáng kể so với hiệu suất độ trễ trung bình
ONU. Một BWmap có thể có một số Cấu trúc phân bổ, mỗi Cấu trúc bao gồm
của GIANT.
các trường sau: • Alloc-ID (mã định danh hàng đợi): Để xác định luồng
Trong bài viết này, chúng tôi tinh chỉnh các khái niệm về GIANT để
lưu lượng truy cập trong
tuân thủ tiêu chuẩn của XG-PON và triển khai DBA tinh chỉnh, được gọi
mỗi ONU
là X-GIANT, trong trình mô phỏng ns-3 tiên tiến nhất. Chúng tôi cũng
• Thời gian bắt đầu: Để biểu thị thời gian được đồng bộ1 mà mỗi
triển khai EBU để xác thực những cải tiến hiệu suất mà X-GIANT đạt
Alloc-ID có thể bắt đầu gửi dữ liệu ở Hoa Kỳ • Kích
được. Phân tích của chúng tôi cho thấy X-GIANT đáp ứng các yêu cầu dựa
thước cấp: Để chỉ lượng dữ liệu được cấp cho Alloc-ID cụ thể để
trên thông lượng và độ trễ trung bình cho các loại lưu lượng khác nhau
truyền ở Hoa Kỳ
trong XG-PON và vượt qua hiệu suất độ trễ trung bình của EBU cho tất cả

các loại lưu lượng. Cụ thể hơn, X-GIANT đảm bảo tính liên tục và 1Do sự khác biệt về khoảng cách giữa ONU và OLT, đây là
thời gian được đồng bộ hóa, đạt được bằng quy trình khác nhau của XG-PON
Machine Translated by Google

DBA, miễn là các mục tiêu cơ bản của DBA được đưa ra trong tiêu
chuẩn được đáp ứng. Do cơ chế SR dễ triển khai và tránh cung cấp

quá mức băng thông ngược dòng nên hầu hết các DBA được xuất bản
đều sử dụng DBA dựa trên SR mà không sử dụng TM.

III. CÔNG VIỆC LIÊN QUAN

EPON, được tiêu chuẩn hóa vào năm 2004, đã xác định cấu trúc
DBA và QoS rất đơn giản. Tiêu chuẩn GPON đưa ra các định nghĩa
hạn chế hơn, nhấn mạnh sự cần thiết của một khung DBA ngắn gọn
trong chính tiêu chuẩn đó. Do đó, mặc dù một số cơ chế DBA đã
được đề xuất cho EPON [11], [14], [12] và 10G-EPON trong tài liệu,

Hình 1. Phân bổ các loại lưu lượng trong XG-PON Vs tải được cung cấp [8] chỉ có một số cơ chế DBA tuân thủ tiêu chuẩn cho GPON [10], [4],
[9], [1] và XG-PON [3].

• DBru: Để cho phép Alloc-ID yêu cầu dữ liệu trong GIANT [10] DBA được đề xuất vào năm 2006 để chống lại tính chất
khung hình tiếp theo của Hoa Kỳ
bùng nổ của lưu lượng truy cập thượng nguồn. Nó có ánh xạ cố định
• Các trường dành cho các hoạt động và bảo trì sau đây giữa các loại lưu lượng và loại vùng chứa lưu lượng (T
khác Trong trường hợp một Alloc-ID không có bất kỳ phân bổ dữ CONT) trong quá trình triển khai:
liệu nào trong BWmap cụ thể này, GrantSize tối thiểu phải là 1 (4 • T-CONT T1 : chỉ băng thông cố định • T-
byte), để cho phép Alloc-ID cụ thể yêu cầu cơ hội truyền tại Hoa CONT T2 : chỉ băng thông đảm bảo • T-CONT
Kỳ trong chu kỳ phân bổ tiếp theo2 [8]. T3 : băng thông đảm bảo và không đảm bảo • T-CONT T4 :

chỉ băng thông nỗ lực tối đa Mỗi T-CONT được


QoS, một tính năng do EPON để lại cho các nhà cung cấp, cũng
cấp kích thước cao hơn dữ liệu Hoa Kỳ (các byte phân bổ hoặc
được DBA công nhận hợp lệ trong XG-PON, bằng cách xác định bốn
AB trong [10]) được truyền ở một khoảng thời gian cố định (khoảng
loại lưu lượng sau đây [8]:
thời gian dịch vụ hoặc SI trong [10], tương đương với bội số
• Băng thông cố định : Phần dành riêng của dung lượng liên kết, nguyên của chu kỳ của một khung hình Hoa Kỳ trong GPON). GIANT đã
bất kể nhu cầu và tải lượng lưu lượng tổng sử dụng các giá trị AB tối thiểu ABmin và khoảng thời gian phục

thể. • Băng thông được đảm bảo: Phần dung lượng liên kết được vụ tối đa SImax cho T1, T2, phần bỏ phiếu của T4 và phần được đảm
phân bổ cho luồng có nhu cầu lưu lượng không được đáp ứng, bảo của T3; các giá trị ABsur và SImin được sử dụng cho T4 và
bất kể điều kiện lưu lượng tổng thể như thế phần không được đảm bảo của T3. Bộ đếm xuống (bộ hẹn giờ dịch vụ
nào • Băng thông không được đảm bảo: Băng thông bổ sung mà OLT trong [10]) theo dõi SI của từng loại T-CONT; khi hết thời gian
tự động gán cho Alloc-ID tương ứng với tổng của ONU băng phục vụ sẽ dẫn đến việc phân bổ AB cho T-CONT tương ứng. Mô tả

thông được đảm bảo • Băng thông nỗ lực tốt ngắn gọn về việc lựa chọn AB cho từng loại T-CONT được đưa ra
nhất: Băng thông bổ sung mà OLT tự động gán cho Alloc-ID tương trong Bảng I. Chi tiết hơn về cách tính SI và AB có thể được tìm
ứng với tổng băng thông không bảo đảm của ONU. thấy trong Bảng I của [10].
Một phần mở rộng của GIANT, Phân bổ ngay lập tức (IA) [4]

Băng thông cố định có mức ưu tiên cao nhất và Best Effort có DBA đã được đề xuất vào năm 2008 cho GPON. IA đã sử dụng một tham

mức ưu tiên thấp nhất. Ngoài ra, XG-PON cũng xác định một loại số bổ sung (bộ đếm byte khả dụng hoặc VB(j)) trong thuật toán
lưu lượng truy cập tùy chọn để tạo điều kiện phân bổ băng thông GIANT, để tăng tần suất phân bổ cấp phép, hoàn toàn dựa vào thời

dựa trên ONU/phi tập trung, trong đó OLT cung cấp việc truyền dữ gian hết hạn dịch vụ của mỗi T CONT.

liệu của Hoa Kỳ dựa trên trạng thái hàng đợi tổng hợp cho cả bốn
loại lưu lượng ở trên, sao cho việc phân bổ băng thông cho mỗi EBU [3] đã được đề xuất vào năm 2013 cho XG-PON, như một phiên
loại lớp lưu lượng tùy theo quyết định của ONU. bản cải tiến của IA. EBU đã thêm sửa đổi cho VB(j) để phù hợp với

Ngoài ra, XG-PON phân loại cả Băng thông cố định và Băng thông các giá trị âm sao cho cơ hội truyền dẫn Hoa Kỳ chưa được sử dụng
chắc chắn là Băng thông được đảm bảo và phần còn lại là Băng từ một T-CONT có thể được sử dụng bởi T-CONT thuộc loại T-CONT

thông không bảo đảm. Tiêu chuẩn ra lệnh cho DBA cung cấp phần tương tự. EBU cũng giới thiệu Sk, ở đâu,

băng thông được đảm bảo cho tất cả ONU trước khi phân bổ phần
Sk = ΣjZ VB(j) với
không được bảo đảm. Có thể xem minh họa về thứ tự phân phối các
Z = { i | VB(i) > 0, bộ định thời dịch vụ(i) = 0,
loại băng thông khác nhau theo tải được cung cấp (RL(t)) trong
hàng đợi(i) T loại CONT k}
Hình 1
Do Sk được tính toán lại vào cuối mỗi chu kỳ phân bổ, nên đối
Để phân bổ cả hai phần trên, chuẩn XG-PON cho phép báo cáo
với mỗi T-CONT trong mỗi ONU, EBU sẽ đưa ra chi phí xử lý cao cho
trạng thái (SR) và giám sát lưu lượng
(TM), có thể được sử dụng theo quyết định của số lượng lớn ONU được hỗ trợ trong XG-PON.
Mặt khác, EBU sử dụng kỹ thuật thăm dò thường xuyên hơn so với IA
2Một chu kỳ phân bổ = điền vào 1 BWmap với các cấu trúc Phân bổ để cấp băng thông cho mỗi T-CONT, dựa trên
Machine Translated by Google

BẢNG I

MÔ TẢ TÓM TẮT CÁC THAM SỐ DÙNG TRONG GIANT

Cơ chế phân bổ và tính AB

T1 Nhận trợ cấp định kỳ cố định, chỉ bị giới hạn bởi PIR

ABmin = PIR * SImax

Phương thức đặt chỗ T2

ABmin = min{Tốc độ yêu cầu,PIR}*SImax

Phương thức đặt chỗ T3

Vòng đầu tiên: Hình 2. Thiết lập mạng được sử dụng cho mô phỏng

ABmin = min{min{Tốc độ yêu cầu, GIR}*SImax, GBS}

Nếu có sẵn băng thông dư thừa thì ở vòng thứ hai:


vấn đề về lớp, lớp vật lý được thiết kế một cách đơn giản
ABsur = min{min{Tỷ lệ yêu cầu, SR}*SImin, PBS-GBS} với SR = Tỷ lệ
bằng cách giả định một lượng điện năng thỏa đáng cho ODN.
thặng dư = PIR-GIR, GBS < PBS
• Các kênh Hoạt động, Quản trị và Quản lý lớp Vật lý cũng
Phương thức đặt trước T4, nhưng không đảm bảo thông lượng
như Giao diện Điều khiển và Quản lý ONU không được triển
Vòng đầu tiên:
khai.
ABmin = Độ dài DBru, SImax = thời gian bỏ phiếu
• Trong kênh XG-PON, các gói được coi là truyền đi mà không
Nếu có sẵn băng thông dư thừa thì ở vòng thứ hai,
bị mất XG-PON, nhưng độ trễ truyền và tốc độ đường truyền
ABmin = min{min{BW có sẵn, PIR}*SImax, PBS}
được định cấu hình theo tiêu chuẩn. • DBA
Với: GIR,PIR = Đảm bảo, Tỷ lệ thông tin cao nhất
tập trung tại OLT chịu trách nhiệm phân bổ băng thông Hoa Kỳ
GBS,PBS = Đảm bảo, Kích thước bùng nổ tối đa
cho từng Alloc-ID và bộ lập lịch Hoa Kỳ tại ONU chịu trách
nhiệm phân bổ khe truyền của từng Alloc-ID cho các Cổng
trạng thái hàng đợi T-CONT gần đây hơn tại ONU. Do đó, kết quả XGEM (Phương thức đóng gói XG-PON) của Hoa Kỳ. • OLT và
mô phỏng được trình bày trong [3], với chi phí phức tạp, cho ONU duy trì đủ
thấy hiệu suất độ trễ trung bình tốt hơn đối với EBU, so với IA lớn và riêng biệt
khi tải của Hoa Kỳ tăng từ 0,1 lên 1,0 lần công suất XG-PON của hàng đợi cho mỗi cổng XGEM ID.
Hoa Kỳ. Tuy nhiên, tương tự như [4], các tác giả đưa ra rất ít • Tất cả các ONU đều có cùng khoảng cách với OLT.

lời giải thích cho việc lựa chọn tỷ lệ AB, SI và không đảm bảo
B. Kiến trúc mạng và môi trường thử nghiệm
trong T3 và không kiểm tra tính hiệu quả của EBU trong điều
kiện giao thông quá tải ở Hoa Kỳ. Cấu trúc liên kết mạng của chúng tôi trong Hình 2 được thiết

Xem xét kỹ hơn GIANT, IA và EBU cho thấy: • Cả ba kế để phản ánh mạng truy cập PON điển hình được kết nối với
Internet, để ước tính độ trễ và thông lượng trung bình của lưu
DBA đều được xây dựng dựa trên cùng nguyên tắc và kiến trúc
lượng truy cập dựa trên T CONT khác nhau đến mỗi ONU. Tổng cộng
thuật toán. • Các sửa đổi
có 16 ONU đã được sử dụng trong các thử nghiệm của chúng tôi,
trong EBU và IA tập trung vào việc chỉ định nhiều băng thông
mỗi ONU có một bộ 3 luồng cho mỗi loại T2, T3 và T4 T-CONT.
nhất có thể cho các T-CONT có yêu cầu trong một khoảng thời
Chúng tôi không sử dụng luồng lưu lượng T1 trong bất kỳ thử
gian của chu kỳ phân bổ SI, thậm chí phải trả giá bằng
nghiệm nào vì T1 có phân bổ cố định trong GIANT [10]. Trong tất
việc vi phạm AB được cung cấp. Những điều này nhằm mục
cả các kết quả, độ trễ trung bình biểu thị giá trị trung bình
đích giảm bớt tính chất bùng nổ của lưu lượng truy cập
của chênh lệch thời gian giữa thời gian đến của một gói nhất
PON, vốn là mục đích duy nhất để giới thiệu bộ tính giờ dịch vụ trong GIANT.
định trong bộ đệm T-CONT trong mỗi ONU và thời gian khởi hành
Tuy nhiên, IA và EBU cho thấy sự cải thiện vừa phải so với
của cùng một gói từ bộ đệm, được truyền trong bộ đệm. Thượng
GIANT, tuy nhiên phải thực hiện phức tạp.
nguồn; Người đọc có thể thêm độ trễ truyền cố định lên trên độ
Chúng tôi tin rằng có thể đạt được hiệu suất mong muốn của
XG-PON DBA cho các loại lưu lượng khác nhau bằng cách sử dụng trễ trung bình cho từng loại T-CONT để có được độ trễ cho gói
đến bộ đệm T-CONT trong ONU để đến bộ đệm OLT. Chúng tôi cũng
thiết kế đơn giản và tối ưu hóa, dẫn đến X-GIANT DBA tuân thủ
đã sử dụng độ trễ truyền một chiều là 400us, để biểu thị khoảng
tiêu chuẩn của chúng tôi một cách tự nhiên. Đánh giá của chúng
cách 60km giữa OLT và mọi ONU
tôi cũng sử dụng trình mô phỏng ns-3 tiên tiến nhất để đưa ra
Chúng tôi đã chạy mỗi thử nghiệm trong 20 giây (>106 gói khi
kết luận dựa trên nền tảng mô phỏng được xác thực và sử dụng rộng rãi.
Hoa Kỳ được tải đầy đủ), với thời gian vào và ra ở bộ đệm T-CONT
IV. THIẾT KẾ VÀ THỰC HIỆN X-GIANT
(cố định ở 15KB) được ghi lại cho mỗi gói trong mỗi luồng T-
A. Nền tảng CONT; kích thước gói được cố định ở mức 1472 Byte3 và mỗi luồng
T-CONT được tạo với tốc độ đến cố định và bằng nhau, sao cho
X-GIANT được triển khai dưới dạng cơ chế DBA cho mô-đun XG-PON
tổng lưu lượng truy cập đến từ cả ba luồng T-CONT trong tất cả
[13], được thiết kế cho trình mô phỏng mạng ns-3 (phiên bản 3.19
16 ONU sẽ nằm trong khoảng từ 0,5 đến 1,8 lần hiệu quả tối đa
[2]). Các điểm nổi bật của mô-đun XG-PON này như sau.
của Hoa Kỳ. công suất của XG-PON.

• Mục tiêu chính của mô-đun là phân tích XGTC 3Kích thước gói tối đa ở lớp ứng dụng để tránh phân đoạn 1500
Lớp (XG-PON Transmission Convergence) trở lên Khung XGEM dài byte
Machine Translated by Google

C. Tinh chỉnh GIANT


3
6_allocation_cycles
Ở đây, chúng tôi trình bày các cải tiến được thực hiện cho XG-PON, 4_allocation_cycles
2,5
2_allocation_cycles
liên quan đến GIANT DBA. Chúng tôi đã chọn GIANT làm thuật toán cơ sở
1_allocation_cycles
để sàng lọc, do tính đơn giản của GIANT và sự tương đồng về thuật toán 2

của nó với IA và EBU.


1,5

ộĐ
1. Việc sử dụng dung lượng XG-PON US GIANT chỉ

phân bổ byte cho bất kỳ T-CONT nào khi hết thời gian phục vụ. Tuy 1

nhiên, khi bộ định thời dịch vụ được đặt thành nhiều hơn 1 chu kỳ phân
0,5
bổ (SImax > 1), sẽ luôn có một chu kỳ trong đó bộ định thời dịch vụ cho

một T-CONT nhất định chỉ được cập nhật mà không cung cấp bất kỳ byte 0
phân bổ nào, mặc dù T -CONT đã yêu cầu khe truyền dẫn của Hoa Kỳ. 0,6 0,8 1.0 1.2 1.4

Tải ngược dòng

Quyết định: Trong X-GIANT, chúng tôi tính toán AB, dưới dạng phần (a) T-CONT loại T2

trăm (SImax * kích thước khung hình Hoa Kỳ), thay vì tỷ lệ phần trăm 3

của một kích thước khung hình vật lý duy nhất của Hoa Kỳ. Điều này đảm
2,5
bảo rằng, ngay cả khi bộ hẹn giờ dịch vụ của T-CONT chưa hết hạn, X-

GIANT vẫn cung cấp đủ khe truyền dẫn của Hoa Kỳ để tải của Hoa Kỳ được 2

sử dụng ở mức tối thiểu là {RL(t), Tổng công suất của Hoa Kỳ}
1,5

ộĐ
2. Khi tổng yêu cầu của Hoa Kỳ > tổng dung lượng của Hoa

Kỳ GIANT chỉ truy cập vào một T-CONT cụ thể khi chu kỳ phân bổ có 1

khoảng trống để T-CONT truyền dữ liệu trong khung Hoa Kỳ tiếp theo. Tuy 6_allocation_cycles
0,5 4_allocation_cycles
nhiên, vì bộ đếm thời gian dịch vụ chỉ được cập nhật (giảm 1) khi T-
2_allocation_cycles
CONT được truy cập trong chu kỳ phân bổ, nên các T-CONT có mức độ ưu 1_allocation_cycles
0
tiên thấp hơn, không được truy cập trong điều kiện Hoa Kỳ quá tải, chỉ 0,6 0,8 1.0 1.2 1.4

cập nhật bộ định thời dịch vụ của chúng khi chúng cuối cùng sẽ được Tải ngược dòng
truy cập vào chu kỳ phân bổ sau này. Điều này sẽ dẫn đến độ trễ cao hơn (b) T-CONT loại T3
yêu cầu đối với các loại T-CONT có mức ưu tiên thấp hơn khi tải ở Hoa 3,5

Kỳ tăng lên, dẫn đến tình trạng thiếu lưu lượng truy cập nỗ lực tốt nhất.
3

Quyết định: Trong X-GIANT, chúng tôi phân bổ các vị trí cho T-CONT 2,5

với bộ hẹn giờ dịch vụ đã hết hạn, trong khung tiếp theo có thể có ở 2
Hoa Kỳ mà không cần đợi một đợt cập nhật bộ hẹn giờ dịch vụ khác và
ộĐ

1,5
chúng tôi cập nhật bộ hẹn giờ dịch vụ của tất cả các T-CONT, bất kể

liệu chúng có được DBA truy cập trong chu kỳ phân bổ hay không. 1
6_allocation_cycles
4_allocation_cycles
0,5
2_allocation_cycles
D. Các thông số chính hợp lý 1_allocation_cycles
0
0,6 0,8 1.0 1.2 1.4
Một số giá trị tham số không được chỉ định trong GI ANT có thể có
Tải ngược dòng
tác động đáng kể đến hiệu suất. Chúng tôi đã sử dụng cơ cấu thử nghiệm
(c) T-CONT loại T4
trong Phần IV-B để chọn các giá trị tối ưu cho SI và phần được đảm bảo

của T3, như được thảo luận dưới đây. Hình 3. Độ trễ trung bình của từng loại T-CONT cho các giá trị SImax khác nhau

1. SImax Vs độ trễ trung bình

GIANT, IA và EBU sử dụng giá trị SImax cố định của 5 chu kỳ phân bổ Quyết định: Chúng tôi đã cố định SImax ở chu kỳ phân bổ duy nhất cho

T2, phần đảm bảo của T3 và tỷ lệ bỏ phiếu cho T4, trong khi vẫn duy trì
và giá trị SImin của 10 chu kỳ phân bổ trong tất cả các thử nghiệm. Để
SImax = 2*SImin.
cố gắng khai thác băng thông XG PON cao hơn của Hoa Kỳ, chúng tôi đã

thử nghiệm các giá trị SImax khác nhau của 1,2,4 và 6 chu kỳ phân bổ 2. Tỷ lệ phần đảm bảo của T3 Vs. Độ trễ trung bình Đối với

(với SImin = 2*SImax) để xác định tác động lên độ trễ trung bình, như lưu lượng T3, GIANT, IA và EBU đã sử dụng các giá trị cố định cho tỷ

trong Hình 3. Đối với T2 và T3 (tương ứng trên Hình 3a, 3b), độ trễ đạt lệ giữa phần được đảm bảo (GIR trong [10]) và tổng số byte phân bổ (PIR

giá trị nhỏ nhất khi SImax=1; khi SImax tăng thì độ trễ cũng tăng. Đối trong [10]). Trong Hình 4, chúng tôi thay

với T4 (Hình 3c), khi tải US<1,0, độ trễ là tối thiểu khi SImax thấp đổi tỷ lệ GIR:PIR này và quan sát thấy rằng trong khi độ trễ trung bình

nhất (=1); tuy nhiên, khi tải ở Hoa Kỳ>1.0, độ trễ sẽ bị ảnh hưởng cho lưu lượng tổng thể trong T3 tăng khi chúng tôi tăng tỷ lệ GIR:PIR

nhanh chóng, như mong đợi, đối với các giá trị SImax thấp hơn, gây tổn thì độ trễ trung bình của T4 lại giảm. Đối với T3, do tốc độ phục vụ là

hại đến việc ưu tiên lưu lượng truy cập T2 trước, sau đó là T3. cố định nên việc tăng phần được đảm bảo sẽ đặt nhiều lưu lượng truy cập

vào bộ đệm được đảm bảo hơn, do đó độ trễ cao hơn; vì lưu lượng T3 là
Machine Translated by Google

BẢNG II

GIR:PIR=0,8 PSUEDO-CODE CỦA MODULE MÔ PHỎNG X-GIANT


5
GIR:PIR=0,6
GIR:PIR=0,4 GetFirstTcontServed()
4 GIR:PIR=0,2
cho k=

1:4{ (BLOCK-X)
3
ộĐ

if (iterator.type == k) {

2 if (loại-k-đã được phục vụ)

phục vụ lần cuối-tcont-k-index = allTcontsArray.getIndex(iterator) else

first-served-tcont-k-index = allTcontsArray.getIndex(iterator) type-k-


0
already-served = true } }
0,6 0,8 1.0 1.2 1.4
CheckAllTcontsServed(tcontX) tcont-type-
Tải ngược dòng
k = tcontX.type thực thi BLOCK-X
(a) Độ trễ trung bình cho T3
để tìm tcont tiếp theo trong allTcontsArray với loại k for k = 1:4 { if (timerX của

GIR:PIR=0,8 tcontX đã hết


5
GIR:PIR=0,6
hạn)
GIR:PIR=0,4
4 GIR:PIR=0,2 if (asured-round = true) phân

bổ byte-to-tcontX (k, clock = SImax)

3 đặt lại bộ đếm thời gianX


ộĐ

khác

2 phân bổ byte-to-tcontX (k, bộ đếm thời gian = SImin)

đặt lại bộ đếm thời gianX

1
tot-alloc-bytes = tot-alloc-bytes + alloc-bytes-to-tcontX chuẩn bị

các trường cần thiết trong BWmap trong khung XG-PON DS


0
khác
0,6 0,8 1.0 1.2 1.4
if (không có loại tcont có mức độ ưu tiên thấp hơn) đặt
Tải ngược dòng
lại chỉ mục của tcont tiếp theo được phục vụ
(b) Độ trễ trung bình cho T4
thoát khỏi chu trình
Hình 4. Độ trễ trung bình của từng loại T-CONT ở các tỷ lệ GIR:PIR khác nhau
phân bổ if (tất cả các tcont trong allTcontsArray với loại-k được

phân phát if ((k = 4) AND (asured-allocation-round = true))

loại tcont tiếp theo sẽ được phục vụ = 3


bị trì hoãn, lưu lượng T4 có nhiều cơ hội truyền dữ liệu hơn, độ
đảm bảo-phân bổ-vòng = sai
trễ trung bình ít hơn. Các kết quả tương ứng cho T2 (không bao
khác nếu ((k = 4) VÀ (được đảm bảo-phân bổ-vòng = false))
gồm) cho thấy không có sự khác biệt về độ trễ trung bình vì tỷ lệ
đặt lại chỉ mục của tcont tiếp theo sẽ được phục vụ
GIR:PIR trong T3 là khác nhau, do lưu lượng T2 được phục vụ trước
khác
lưu lượng T3.
tcontX = tcont đầu tiên trong usAllTconts với loại k+1 cập
Quyết định: Để duy trì độ trễ trung bình thấp cho tổng lưu
nhật chỉ mục-của-tiếp theo-tcont-to-được-phục vụ
lượng T3, so với T4, chúng tôi đã cố định tỷ lệ GIR:PIR ở mức 0,4
FinaliseBwAllocation() }
trong X-GIANT. Điều này đảm bảo rằng T4 luôn được xử lý ở mức ưu
Hoàn thiệnBwAllocation()
tiên thấp hơn lưu lượng T3 ở các điều kiện ngược dòng tải nhẹ,
cập nhật bộ định thời cho tất cả các tconts if (timer != hết giá trị của bộ đếm thời
tải đầy đủ và quá tải.
gian) if (tổng số byte được phân bổ > SImax * kích thước khung hình ngược dòng)
Bảng II trình bày mã giả cho X-GIANT, được thực hiện với các
đặt lại chỉ mục của tcont tiếp theo sẽ được phục vụ, tổng số byte được phân bổ
quyết định quan trọng trên; hàm cấp phát byte cho-tcontX(k,
time=SImax) tính AB, cho mỗi T-CONT, dựa trên [10] và Mục IV-C.1. được tinh chế từ GIANT như được xác định trong Phần IV-C và IV-D,
chứa các giá trị khác nhau cho AB (ABminT2 = 1564 Byte, ABminT3
= 624 Byte, ABsurT3 = 1876 Byte, ABT4 = 3128 Byte), SI (SImaxT2
V. KẾT QUẢ: ĐỘ TRỄ VÀ THÔNG TIN TRUNG BÌNH
= SImaxT3 = 1, SIminT3 = SIT4 = 2) và tỷ lệ GIR:PIR của T3 (=
Chúng tôi đã đánh giá tác động của tải nhẹ và tải nặng của XG- 0,4). Kết quả của chúng tôi về EBU rất khớp với kết quả trong
PON US bằng cách sử dụng EBU và X-GIANT có nguồn gốc từ GIANT, [3], cho thấy mức tăng đáng kể của độ trễ trung bình trong khoảng
đối với độ trễ trung bình của các loại lưu lượng khác nhau (Hình từ 0,7 đến 0,9 tải US, đối với cả ba loại T-CONT.
5). Để đưa ra sự so sánh công bằng, chúng tôi đã sử dụng cùng Khi tải tăng từ 0,5 lên 1,8, độ trễ trung bình của lưu lượng T2
một quy trình thiết lập mạng và ghi gói (như được tóm tắt trong không đổi và ở mức thấp (1ms) đối với X-GIANT, trong khi ở EBU độ
Phần IV-B) giữa X GIANT và EBU. Tuy nhiên, EBU được triển khai trễ trung bình đối với T2 hiển thị mức tăng đột ngột ở mức tải
với thuật toán tương tự như trong [3] và được mô phỏng bằng các 0,9 (do bộ đệm được sử dụng đầy đủ) và tiếp tục tăng với độ dốc
giá trị ban đầu của nó cho AB (ABminT2 = ABminT3 = ABsurT3 = 7812 chậm hơn khi tải tiếp tục tăng. Độ trễ của T4 trong X-GIANT cũng
Byte, ABT4 = 15624 Byte), SI (SImaxT2 = 5, SImaxT3 = SIminT3 = cho thấy sự cải thiện đáng kể so với EBU khi vượt quá 0,8 tải.
SIT4 = 10) và tỷ lệ GIR:PIR của T3 (= 0,5). X-GIANT, sau Điều này là do, trong khi X-GIANT
Machine Translated by Google

vì phần được đảm bảo (40%) trong T3. X-GIANT cũng có thể sử dụng
3
EBU_T2 công suất ngược dòng lên tới 2,25 Gbps ở điều kiện tải đầy đủ/
EBU_T3 quá mức, chứng tỏ khả năng sử dụng mạng của DBA.
2,5 EBU_T4
X-GIANT_T2
X-GIANT_T3 VI. KẾT LUẬN VÀ CÔNG VIỆC TƯƠNG LAI
2 X-GIANT_T4
GIANT đã được sử dụng làm cơ chế DBA cho GPON. Chúng tôi đã
ộĐ

tinh chỉnh thông số kỹ thuật của nó để đáp ứng các yêu cầu và
1,5
cơ hội do XG-PON cung cấp, tạo ra X-GIANT. Chúng tôi đã triển
khai X-GIANT trong mô phỏng ns3 và chứng minh rằng X-GIANT hoạt
1
động như mong đợi đối với các loại lưu lượng truy cập khác nhau
trong phạm vi tải trọng của Hoa Kỳ. X-GIANT, một DBA đơn giản
0,5 hơn so với EBU, cũng có thể hoạt động tốt hơn EBU đối với tất
0,6 0,8 1 1.2 1.4 1.6 1.8 cả các loại lưu lượng truy cập ở mức tải nhẹ và nặng.
% tải ngược dòng Trong tương lai, chúng tôi sẽ: đưa các cơ chế SR và TM vào
một cơ chế DBA duy nhất để dự đoán tốt hơn trạng thái hàng đợi
Hình 5. Độ trễ trung bình của T2, T3 và T4 ở các mức tải khác nhau
T-CONT và tránh cung cấp quá mức băng thông; phân tích chi phí
trong khung của Hoa Kỳ khi số lượng lớn T-CONT được phân phối

2,5 trong một chu kỳ phân bổ duy nhất; đánh giá mức độ phức tạp của
T2 cơ chế DBA so với nhu cầu phân bổ băng thông hai giai đoạn cho
T3
T4 T3; gán trọng số cho dữ liệu chưa được phân bổ trong mỗi hàng
2
đợi T-CONT, dựa trên loại T-CONT và thời gian chờ trong hàng
đợi, để đảm bảo tính công bằng trong nội bộ T-CONT và giữa các ONU
1,5
SỰ NHÌN NHẬN
gp
)s ôG
nb
ợ h(
ư T
l

nGổ(
h
ư T
t
l

Công việc này được hỗ trợ bởi CTVR Grant (SFI 10/CE/I
gp
)s gb
n ô

1
1853) từ Quỹ khoa học Ireland.

NGƯỜI GIỚI THIỆU


0,5
[1] N. Alvarez, P. Kourtessis, R. Lorenzo và J. Senior, “Giao thức MAC đầy đủ dịch vụ
cho GPON Metro-Reach,” J. Light. Technol., tập. 28, không. 7, trang 1016–1022,
0
tháng 4 năm 2010.
0,5 0,6 0,7 0,8 0,9 1,0 1,2 1,4 1,6 1,8
[2] GNU GPLv2, “ns-3.19,” 2013. [Trực tuyến]. Có sẵn: http://www.nsnam.

Tải ngược dòng org/ns-3-19/


[3] MS Han, H. Yoo và DS Lee, “Phát triển thuật toán phân bổ băng thông động hiệu quả
cho XGPON,” ETRI J., tập. 35, không. 1, trang 18–26, tháng 2 năm 2013.
Hình 6. Thông lượng của T2, T3 và T4 cho X-GIANT ở các mức tải khác nhau

[4] M.-S. Han, H. Yoo, B.-Y. Yoon, B. Kim và J.-S. Koh, “Phân bổ băng thông động hiệu
quả cho GPON tuân thủ FSAN,” J. Opt.

tận dụng việc hết hạn sớm của bộ hẹn giờ dịch vụ, ngay cả khi Mạng., tập. 7, không. 8, tr. 783, tháng 7 năm 2008.

[5] IEEE, “802.3ah: Ethernet ở dặm đầu tiên,” 2004.


tải ngược dòng lớn hơn 0,9, tác động của việc tổng hợp VB(j)
[6] ITU-T, “G.984.x: Mạng quang thụ động có khả năng Gigabit (G-PON),”
trong EBU là tối thiểu trong các tình huống tương tự. Khuyến nghị G.984.x, tháng 10 năm 2008.

[7] ITU-T, “G.987.1: Đặc điểm chung của XG-PON,” 2010.


Đối với T3, cả X-GIANT và EBU đều có thể đạt được độ trễ trung
[8] ITU-T, “G.987.3: Đặc tả lớp hội tụ truyền dẫn XG-PON
bình thấp hơn so với T2 có mức ưu tiên cao hơn, khi tải <1; điều chuyện,” 2010.

này là do X-GIANT cấp quyền cho T3 với tần suất cao hơn so với [9] K. Kanonakis và I. Tomkos, “Lập lịch dựa trên bù đắp với khoảng thời gian linh
hoạt để phát triển mạng GPON,” J. Light. Technol., tập. 27, không. 15, trang 3259–
T2 trong một chu kỳ quay vòng4 duy nhất; Tuy nhiên, EBU cung
3268, tháng 8 năm 2009.
cấp nhiều trợ cấp cho T3 hơn T2, ở tần số bằng nhau. Tuy nhiên, [10] HC Leligou, C. Linardakis, K. Kanonakis, JD Angelopoulos và T. Orphanoudakis,
khi tải tăng vượt quá 0,9, T3 của X-GIANT và EBU sẽ được ưu tiên “Trọng tài trung bình hiệu quả đối với các GPON tuân thủ FSAN,” Int. J. Cộng
đồng. Hệ thống, tập. 19, không. 5, trang 603–617, tháng 6 năm 2006.
giữa T2 và T4 như dự định, trong đó X-GIANT đạt được độ trễ
[11] M. Mcgarry, M. Reisslein và M. Maier, “Kiến trúc mạng quang thụ động Ethernet và
trung bình tổng thể thấp hơn. thuật toán phân bổ băng thông động,”

Trong Hình 6, chúng tôi hiển thị bảng phân tích thông lượng Cộng đồng IEEE. Sống sót. Hướng dẫn, tập. 10, không. 3, trang 46–60, 2008.
[12] A. Nikoukar, S. Hwang, AT Liem, CJ Wang, YH Lin và V. Gold erzehi, “Phân bổ băng
của ba lớp (khi mỗi ONU được tải với lưu lượng bằng nhau và
thông động xanh nhận biết QoS mới trong Mạng quang thụ động Ethernet,” năm 2014
thống nhất) trong X-GIANT. Như mong muốn, ở điều kiện tải nhẹ, Int. Conf. Intel. Công trình xanh.

tất cả các loại lưu lượng đều đạt được thông lượng như nhau, Lưới thông minh. IEEE, tháng 4 năm 2014.
[13] X. Wu, KN Brown, CJ Sreenan, P. Alvarez, M. Ruffini, N. Marchetti, D. Payne và L.
trong khi ở điều kiện quá tải, thông lượng T4 nhanh chóng bị hy
Doyle, “Mô-đun XG-PON cho trình mô phỏng mạng NS-3,” trong SimuTools '13. ICST,
sinh để nhường chỗ cho T2, trong khi T3 giảm dần một cách duyên dáng hơntháng 3 năm 2013, trang 195–202.
[14] J. Zheng và HT Mouftah, “Khảo sát về thuật toán phân bổ băng thông động cho Mạng
quang thụ động Ethernet,” Opt. Công tắc. Mạng., tập. 6, không. 3, trang 151–162,
Chu trình quay vòng 4A đề cập đến ABmin đơn cho mỗi T2, T3 và T4 và
tháng 7 năm 2009.
phân bổ ABsur duy nhất cho mỗi hàng đợi T3 và T4 trong XG-PON

You might also like