DANH MỤC CÁC HÌNH VẼ, ĐỒ THỊ
Hình 1.1: FTP truyền file giữa các hệ thống 19
Hình 2.1 : Mô hình dịch vụ tích hợp IntServ 30
Hình 2.2 Hoạt động của RSVP 32
Hình 2.3 Các ống chia sẻ được dành riêng 33
Hình 2.4 Các bước của DiffServ 34
Hình 2.5 Miền IP 35
Hình 2.6 Một miền DS và các mạng con 35
Hình 2.7 Miền DiffServ 36
Có thể bạn quan tâm!
- Đánh giá hiệu quả đảm bảo QoS cho truyền thông đa phương tiện của chiến lược quản lý hàng đợi Wred - 1
- Đặc Điểm Vận Chuyển Lưu Lượng Kiểu “Cố Gắng Tối Đa ” [2]
- Các Tham Số Hiệu Năng Chủ Yếu Của Mạng Liên Quan Đến Việc Đảm Bảo Qos
- Các Kiểu Rsvp Dành Trước Tài Nguyên
Xem toàn bộ 88 trang tài liệu này.
Hình 2.8 Vùng DS 36
Hình 2.9 Trường DS 38
Hình 2.10 Ví dụ về cài đặt EF 40
Hình 2.11 Ví dụ về DiffServ 42
Hình 3. 1 Thuật toán RED 46
Hình 3. 2 Giải thuật chi tiết của RED 48
Hình 3. 3 Cơ chế làm việc của WRED được minh hoạ trong hình vẽ trên 53
Hình 3. 4 Vị trí router lõi và biên trong miền DiffServ 55
Hình 3. 5 Sơ đồ khối của CAR 58
Hình 3. 6 Lưu đồ thuật toán CAR được minh họa họa ở hình trên 59
Hình 3. 7 Mô hình chiếc thùng và thẻ bài 60
Hình 3. 8 Sơ đồ các khối chức năng của GTS 61
Hình 4.1 Cấu trúc mô phỏng 64
Hình 4. 2 Tỉ lệ packet bị mất của DropTail và RED 66
Hình 4. 3 Kích thước hàng đợi của DropTail và RED 67
Hình 4. 4 Thông lượng của DropTail và RED 67
Hình 4. 5 Kích thước hàng đợi của DropTail và RED 68
Hình 4. 6 Thông lượng của Droptail và RED 69
Hình 4. 7 Tỉ lệ packet bị mất của Droptail và RED 69
Hình 4. 8 Kích thước hàng đợi RED, WRED-TSW2CM , WRED-TSW3CM 72
Hình 4. 9 Kết quả so sánh thông lượng của RED với hai chính sách của WRED 72
Hình 4. 10 Kích thước hàng đợi của RED, tsw2cm và tsw3cm (Kịch bản 2) 73
Hình 4. 11 Kết quả so sánh thông lượng của RED với ba chính sách của WRED 74
Hình 4. 12 Kết quả so sánh đường thông lượng trung bình của RED với ba chính sách của WRED 74
Hình 4. 13 Kết quả so sánh đường thông lượng trung bình của RED với ba chính sách của WRED 75
Hình 4.14 Kích thước hàng đợi của RED, tsw2cm và tsw3cm (Kịch bản 3) 76
Hình 4. 15 Kết quả so sánh thông lượng của RED với ba chính sách của WRED 76
Hình 4. 16 Kết quả so sánh thông lượng trung bình của RED với ba chính sách của WRED 77
Hình 4.17 Kiến trúc mạng TOS 81
Hình 4.18 Sơ đồ hệ thống VoIP trong doanh nghiệp 82
Hình 4.19 Sơ đồ hệ thống Streaming Video trong doanh nghiệp 83
DANH MỤC CÁC BẢNG
Bảng 1.1 Thống kê các loại trễ từ đầu cuối đến đầu cuối 28
Bảng 2.1 Các kiểu dành riêng của RSVP 32
Bảng 2.2 IPv4 Header 24 byte 37
Bảng 2.3 Trường TOS trong IPv4 header 37
Bảng 2.4 IPv6 Header 48 byte 37
Bảng 2.5 Các bit IP precedence 38
Bảng 2.6 Các chỉ thị về hiệu năng 38
Bảng 2.7 Các khối giá trị DSCP 39
Bảng 2.8 Các DSCP của AF 41
Bảng 4.1 Kết quả so sánh thời gian trễ của RED, tsw2cm và ts3cm ở kịch bản 1 73
Bảng 4.2 Kết quả so sánh thời gian trễ của RED, tsw2cm và ts3cm ở kịch bản 2 75
Bảng 4.3 Kết quả so sánh thời gian trễ của RED, tsw2cm và ts3cm ở kịch bản 3 77
ĐẶT VẤN ĐỀ
1. Mục đích và ý nghĩa của đề tài
Trong xu hướng phát triển bùng nổ thông tin ngày này, các nhu cầu về thông tin liên lạc ngày càng mở rộng, đi đôi với nhu cầu cao về chất lượng dịch vụ. Vấn đề đặt ra là làm thế nào để tăng tốc độ truyền tin, sao cho lượng thông tin có thể được chuyển tải nhanh nhất, đạt độ tin cậy cao nhất mà không xảy ra tình trạng tắc nghẽn. Vì vậy, vấn đề rất quan trọng là phải thiết kế, xây dựng các mạng, hệ thống mạng đáp ứng được các yêu cầu chung nhất nêu trên.
Thông tin ở đây được gọi là “dữ liệu”. Dữ liệu được truyền đi không chỉ đơn thuần là dạng văn bản (text) đơn giản, mà là dữ liệu đa phương tiện (multimedia) bao gồm cả hình ảnh tĩnh, động (video), âm thanh (audio),… Các ứng dụng đa phương tiện phổ biến hiện nay như điện thoại qua mạng (Internet telephony), hội thảo trực tuyến (video conferencing), xem video theo yêu cầu (video on demand)... đang ngày càng được sử dụng rộng rãi. Đối với truyền thông đa phương tiện, điều quan trọng nhất là phải đảm bảo chất lượng dịch vụ (QoS), tức là đảm bảo độ trễ và biến thiên độ trễ - jitter đủ nhỏ, thông lượng đủ lớn, hệ số sử dụng đường truyền cao và tỷ lệ mất gói tin không vượt quá một mức độ nhất định có thể chấp nhận được. Để làm được điều này cần phải đồng thời áp dụng các cơ chế điều khiển lưu lượng đối với các giao thức truyền thông kiểu end-to-end (cụ thể là TCP) và những cơ chế đặc biệt thực hiện đối với mạng, cụ thể là thực hiện ở các bộ định tuyến (router).
Khi có quá nhiều gói tin được đưa vào mạng (hay một phần của mạng), sẽ làm cho hiệu năng của mạng giảm đi vì các nút mạng không còn đủ khả năng lưu trữ, xử lý, truyền đi, chúng bắt đầu bị mất các gói tin dẫn đến sự tắc nghẽn trong mạng máy tính. Để tận dụng được băng thông của đường truyền, nhưng vẫn tự thích ứng được với các luồng thông tin cùng chia sẻ đường truyền chung và tránh sự tắc nghẽn mạng, giao thức TCP sử dụng các kỹ thuật: khởi động chậm – SS, tránh tắc nghẽn – CA và giảm tốc độ phát lại các gói tin bị mất do tắc nghẽn theo cấp số nhân. Thực thể TCP bên gửi duy trì một cửa sổ gọi là cửa sổ tắc nghẽn dùng để giới hạn lượng dữ liệu tối đa có thể gửi đi liên tiếp ở mức không vượt quá kích thước vùng đệm của nơi nhận khi xảy ra tắc nghẽn. Kích thước cửa sổ được tính như sau:
Kích thước được phép = min (kích thước gói tin, kích thước cửa sổ tắc nghẽn)
Khi bị mất một gói tin, thực thể TCP bên gửi giảm kích thước cửa sổ tắc nghẽn đi một nửa, nếu việc mất gói tin tiếp diễn, kích thước cửa sổ tắc nghẽn lại giảm tiếp theo cách trên (cho tới khi chỉ còn bằng kích thước của một gói tin). Với những gói tin vẫn còn nằm trong cửa sổ được phép, thời gian chờ để được gửi lại sẽ được tăng lên theo hàm mũ cơ số 2 sau mỗi lần phát lại.
Các router cần theo dõi độ dài hàng đợi và sử dụng các tín hiệu điều khiển để thông báo với các máy tính trên mạng rằng đã hoặc sắp xảy ra tắc nghẽn để chúng có phản ứng phù hợp giúp giải quyết tình trạng tắc nghẽn. Ngoài ra chúng cũng cần có các
chiến lược quản lý hàng đợi thích hợp và hiệu quả để tùy vào từng trường hợp cụ thể, xử lý một cách tối ưu việc vận chuyển thông tin trong mạng. Đây là lý do tôi lựa chọn và tiến hành nghiên cứu đề tài này với sự giúp đỡ nhiệt tình của thầy giáo PGS.TS. Nguyễn Đình Việt.
Trong phạm vi của đề tài luận văn tốt nghiệp – “Đánh giá hiệu quả đảm bảo QoS cho truyền thông đa phương tiện của chiến lược quản lý hàng đợi WRED”, tôi tập trung nghiên cứu chiến lược quản lý hàng đợi WRED, so sánh chiến lược này với các chiến lược quản lý hàng đợi khác từ đó có những đánh giá, đưa ra các kết quả so sánh hiệu năng giữa các mô hình.
2. Đối tượng và phạm vi nghiên cứu
Đề tài tập trung nghiên cứu lý thuyết về đảm bảo chất lượng dịch vụ (QoS) và các chiến lược quản lý hàng đợi:
− DROPTAIL
− RED (Random Early Drop)
− WRED (Weighted RED)
Đề tài sử dụng bộ công cụ mô phỏng mạng NS2 để đánh giá và so sánh hiệu năng của các chiến lược quản lý hàng đợi trên.
3.Cấu trúc các chương
Ngoài phần mở đầu và kết luận, nội dung của luận văn này được trình bày như sau: Chương 1: Tổng quan , Chương 2: Các mô hình đảm bảo QoS cho truyền thông đa phương tiện , Chương 3: Các phương pháp đảm bảo QoS cho truyền thông đa phương tiện, Chương 4: Đánh giá và so sánh WRED với DROPTAIL, RED.
Chương 1: TỔNG QUAN
1.1 Mạng Internet và các dịch vụ
1.1.1 Mạng Internet
a. Lịch sử phát triển mạng Internet
Từ đầu những năm 1960, đã xuất hiện các mạng xử lý trong đó các trạm cuối (terminal) thụ động được nối vào một máy xử lý trung tâm. Vì máy xử lý trung tâm làm tất cả mọi việc: quản lý các thủ tục truyền dữ liệu, quản lý sự đồng bộ của các trạm cuối,… trong khi đó các trạm cuối chỉ thực hiện chức năng nhập xuất dữ liệu mà không thực hiện bất kỳ chức năng xử lý nào nên hệ thống này vẫn chưa được coi là mạng máy tính.
Giữa năm 1968, Cục các dự án nghiên cứu tiên tiến (ARPA – Advanced Research Projects Agency) của Bộ Quốc phòng Mỹ đã xây dựng dự án nối kết các máy tính của các trung tâm nghiên cứu lớn trong toàn liên bang, mở đầu là Viện nghiên cứu Standford và 3 trường đại học (Đại học California ở Los Angeless, Đại học California ở Santa Barbara và Đại học Utah). Mùa thu năm 1969, 4 trạm đầu tiên được kết nối thành công, đánh dấu sự ra đời của ARPANET, đây chính là mạng liên khu vực (WAN) đầu tiên được xây dựng. Giao thức truyền thông dùng trong ARPANET lúc đó được đặt tên là NCP (Network Control Protocol).
Giữa những năm 1970, họ giao thức TCP/IP được Vint Cerf và Robert Kahn phát triển cùng tồn tại với NCP, đến năm 1983 thì hoàn toàn thay thế NCP trong ARPANET và giao thức TCP/IP chính thức được coi như một chuẩn đối với ngành quân sự Mỹ và tất cả các máy tính nối với ARPANET phải sử dụng chuẩn mới này. Trong những năm 70, số lượng các mạng máy tính thuộc các quốc gia khác nhau đã tăng lên, với các kiến trúc mạng khác nhau (cả về phần cứng lẫn giao thức truyền thông), từ đó dẫn đến tình trạng không tương thích giữa các mạng, gây khó khăn cho người sử dụng. Trước tình hình đó, vào năm 1984 tổ chức tiêu chuẩn hoá quốc tế ISO đã cho ra đời mô hình tham chiếu cho việc kết nối các hệ thống mở (Reference Model for Open Systems Interconnection - gọi tắt là mô hình OSI). Với sự ra đời của mô hình OSI và sự xuất hiện của máy tính cá nhân, số lượng mạng máy tính trên toàn thế giới đã tăng lên nhanh chóng. Đã xuất hiện những khái niệm về các loại mạng LAN, WAN... ARPANET được chia ra thành hai phần: phần thứ nhất dành cho quân sự, được gọi là MILNET; phần thứ hai là một ARPANET mới, kết nối các mạng phi quân sự, dành cho việc nghiên cứu và phát triển. Tuy nhiên hai mạng này vẫn được liên kết với nhau nhờ giao thức liên mạng IP.
Tới tháng 11/1986 đã có tới 5089 máy tính được nối vào ARPANET, và đã xuất hiện thuật ngữ “Internet”. Năm 1987, mạng xương sống (backborne) NSFnet (National Science Foundation Network) ra đời với tốc độ đường truyền 1,5Mbps, nhanh hơn so với tốc độ 56Kbps trong ARPANET thời kỳ đầu đã thúc đẩy sự tăng trưởng của Internet. Mạng Internet dựa trên NSFnet đã được mở rộng ra ngoài biên giới của nước
Mỹ để phục vụ cho các mục đích thương mại toàn cầu. Đến năm 1990, quá trình chuyển đổi sang Internet - dựa trên NSFnet kết thúc. NSFnet giờ đây cũng chỉ còn là một mạng xương sống thành viên của mạng Internet toàn cầu. Nhiều doanh nghiệp đã chuyển từ ARPANET sang NSFNET và do đó sau gần 20 năm hoạt động, ARPANET không còn hiệu quả đã ngừng hoạt động vào khoảng năm 1990.
Với khả năng kết nối mở, Internet đã trở thành một mạng lớn nhất trên thế giới, mạng của các mạng, xuất hiện trong mọi lĩnh vực thương mại, chính trị, quân sự, nghiên cứu, giáo dục, văn hoá, xã hội... Cũng từ đó các dịch vụ trên Internet không ngừng phát triển. Ngày nay khi cơ sở hạ tầng của mạng Internet được nâng cao (đặc biệt là về băng thông) đã làm cho nhu cầu sử dụng các ứng dụng đa phương tiện qua mạng tăng lên nhanh chóng.
b. Giao thức tầng giao vận: TCP và UDP
Bộ giao thức TCP/IP là một bộ các giao thức truyền thông mà Internet và hầu hết các mạng máy tính thương mại hiện nay đang chạy trên đó. Bộ giao thức này được đặt tên theo hai giao thức chính của nó là TCP - giao thức điều khiển giao vận và IP - giao thức liên mạng. Như nhiều bộ giao thức khác, bộ giao thức TCP/IP có thể được coi là một tập hợp các tầng, mỗi tầng giải quyết một tập các vấn đề có liên quan đến việc truyền dữ liệu, và cung cấp cho các giao thức tầng cấp trên một dịch vụ được định nghĩa rõ ràng dựa trên việc sử dụng các dịch vụ của các tầng thấp hơn. Về mặt lô-gic, các tầng trên gần với người dùng hơn và làm việc với dữ liệu trừu tượng hơn, chúng dựa vào các giao thức tầng cấp dưới để biến đổi dữ liệu thành các dạng mà cuối cùng có thể được truyền đi một cách vật lý.
− TCP: là giao thức điều khiển vận chuyển, nằm ở lớp tương tự lớp Transport trong mô hình OSI và là một trong những giao thức cốt lõi của bộ giao thức TCP/IP, nhằm kết nối các máy tính trên mạng với nhau, chia sẻ và trao đổi dữ liệu.
TCP hỗ trợ nhiều giao thức ứng dụng phổ biến trên Internet như HTTP, FTP, SMTP… Trong bộ giao thức TCP/IP, TCP là tầng trung gian giữa Internet Protocol (IP) bên dưới và tầng ứng dụng bên trên, là giao thức truyền dữ liệu chính xác, tin cậy. TCP đòi hỏi phải thiết lập kết nối trước khi truyền dữ liệu. Đó là quá trình bắt tay 3 bước(3-way handshake).
Bước 1: Client yêu cầu mở cổng cho một dịch vụ (ví dụ: web port 80) bằng cách gửi gói tin SYN (gói tin TCP yêu cầu kết nối) tới server (máy chủ dịch vụ web), trong gói tin SYN thì trường số thứ tự (sequence number) được gán một giá trị ngẫu nhiên X.
Bước 2: Server sẽ trả về cho Client gói tin SYN – ACK chấp nhận cho thiết lập kết nối, tham số acknowledgment được gán giá trị bằng X+1, tham số sequence number được gán một giá trị ngẫu nhiên Y.
Bước 3: Để hoàn tất quá trình thiết lập kết nối( 3 – way handshake) thì Client phải gửi cho Server thêm một gói tin là ACK tới Server, với số sequence
number được gán là X+1, số acknowledgment được gán là Y+1 (số Y nhận của Server) nhằm cho Server biết là đã thiết lập kết nối với Client hợp lệ.
Các kết nối sử dụng TCP có 3 giai đoạn: 1. Thiết lập kết nối; 2. Truyền dữ liệu;
3. Kết thúc kết nối.
TCP giải quyết nhiều vấn đề nhằm cung cấp cho ứng dụng sử dụng nó một dòng dữ liệu đáng tin cậy, cụ thể là: 1. Dữ liệu đến đích đúng thứ tự; 2. Không có lỗi (thật ra là các gói dữ liệu có lỗi được truyền lại); 3. Dữ liệu trùng lặp bị loại bỏ; 4.Điều khiển lưu lượng và điều khiển tắc nghẽn trong việc truyền và nhận dữ liệu.
− UDP: là một trong những giao thức cốt lõi của bộ giao thức TCP/IP. UDP không cung cấp sự truyền tin cậy và đảm bảo đúng thứ tự truyền nhận, các gói dữ liệu có thể đến không đúng thứ tự hay bị mất mà không có thông báo cho bên gửi. Tuy nhiên UDP nhanh và hiệu quả hơn đối với các ứng dụng truyền những file kích thước nhỏ và yêu cầu khắt khe về thời gian. Do bản chất không trạng thái nên UDP hữu dụng trong việc trả lời các truy vấn nhỏ cho số lượng lớn người yêu cầu. UDP hỗ trợ việc xây dựng các dịch vụ phổ biến như DNS, streaming media, VoiIP, TFTP…
UDP không thực hiện quá trình bắt tay khi gửi và nhận thông tin, do đó được gọi là connectionless (không kết nối). UDP không đảm bảo cho các tầng phía trên rằng thông điệp đã được gửi thành công, đó là đặc điểm truyền không tin cậy. UDP thích hợp với rất nhiều ứng dụng dựa vào một số đặc điểm được mô tả chi tiết hơn như sau:
Không cần thiết lập kết nối (No connection establishment): UDP không yêu cầu quá trình thiết lập kết nối như TCP, do đó nó không làm chậm quá trình truyền dữ liệu. Đó là lý do tại sao DNS lại chạy nhanh hơn khi sử dụng UDP (DNS có thể chạy cả trên TCP lẫn UDP).
Không cần lưu giữ trạng thái kết nối (No connection state): UDP không cần lưu giữ các thông tin về trạng thái hoạt động của kết nối như TCP (thí dụ: thông số gửi và nhận gói tin, ACK, sequence number, …), do đó tiêu tốn ít tài nguyên hệ thống hơn so với TCP, giúp các server có thể phục vụ nhiều client hơn.
Tổng phí cho phần tiêu đề các gói tin nhỏ hơn (Small segment header overhead): trong khi header của TCP có kích thước 20 bytes thì header của UDP chỉ có 8 bytes, làm cho gói tin UDP nhỏ hơn và có thể truyền đi nhanh hơn.
Tốc độ gửi không được điều hòa (Unragulated send rate): TCP có cơ chế điều tiết tốc tộ truyền khi gặp những đường truyền hỏng hay khi mạng bắt đầu bị tắc nghẽn, cơ chế này không thích hợp cho những ứng dụng thời gian thực (có thể chấp nhận một tỉ lệ mất gói tin nhất định, không cần phát lại để đảm bảo tính kịp thời). Trong khi đó, tốc độ phát của thực thể giao thức UDP chỉ phụ thuộc vào tốc độ gửi của ứng dụng sử dụng UDP để truyền chứ không phụ thuộc vào