Luận án Một số phương pháp lai ghép trong rút gọn thuộc tính theo tiếp cận tập thô mờ

Với sự phát triển mạnh mẽ của công nghệ thông tin, các cơ sở dữ liệu ngày

càng gia tăng về dung lượng dữ liệu cũng như số lượng thuộc tính, gây rất nhiều

khó khăn cho việc thực thi các thuật toán khai phá dữ liệu. Vấn đề đặt ra là phải tìm

cách rút gọn số lượng thuộc tính mà không làm mất mát những thông tin cần thiết

phục vụ nhiệm vụ khai phá dữ liệu. Do đó, rút gọn thuộc tính (còn gọi là rút gọn

chiều hay rút gọn đặc trưng) là đề tài thu hút sự quan tâm của nhiều nhà nghiên cứu

thuộc các lĩnh vực nhận dạng thống kê, học máy, khai phá dữ liệu.

Rút gọn thuộc tính là bài toán quan trọng trong bước tiền xử lý dữ liệu với

mục tiêu là loại bỏ các thuộc tính dư thừa, không liên quan nhằm tăng tính hiệu quả

của các thuật toán khai phá dữ liệu. Hiện nay có hai cách tiếp cận chính đối với bài

toán rút gọn thuộc tính [43, 44]: filter (lọc) và wrapper (đóng gói). Cách tiếp cận

filter thực hiện việc rút gọn thuộc tính độc lập với thuật khai phá dữ liệu sử dụng

sau này. Các thuộc tính được chọn chỉ dựa trên độ quan trọng của chúng trong việc

phân lớp dữ liệu. Trong khi đó, cách tiếp cận wrapper tiến hành việc lựa chọn bằng

cách áp dụng ngay thuật khai phá, độ chính xác của kết quả được lấy làm tiêu chuẩn

để lựa chọn các tập con thuộc tính.

pdf 117 trang dienloan 15720
Bạn đang xem 20 trang mẫu của tài liệu "Luận án Một số phương pháp lai ghép trong rút gọn thuộc tính theo tiếp cận tập thô mờ", để tải tài liệu gốc về máy hãy click vào nút Download ở trên

Tóm tắt nội dung tài liệu: Luận án Một số phương pháp lai ghép trong rút gọn thuộc tính theo tiếp cận tập thô mờ

Luận án Một số phương pháp lai ghép trong rút gọn thuộc tính theo tiếp cận tập thô mờ
 BỘ GIÁO DỤC VÀ ĐÀO TẠO VIỆN HÀN LÂM KHOA HỌC 
VÀ CÔNG NGHỆ VIỆT NAM 
HỌC VIỆN KHOA HỌC VÀ CÔNG NGHỆ 
...*** 
NGUYỄN VĂN THIỆN 
MỘT SỐ PHƢƠNG PHÁP LAI GHÉP TRONG RÚT GỌN 
THUỘC TÍNH THEO TIẾP CẬN TẬP THÔ MỜ 
LUẬN ÁN TIẾN SĨ MÁY TÍNH VÀ CÔNG NGHỆ THÔNG TIN 
Hà Nội – 2018 
 VIỆN HÀN LÂM KHOA HỌC VÀ CÔNG NGHỆ VIỆT NAM 
HỌC VIỆN KHOA HỌC VÀ CÔNG NGHỆ 
...*** 
NGUYỄN VĂN THIỆN 
MỘT SỐ PHƢƠNG PHÁP LAI GHÉP TRONG RÚT 
GỌN THUỘC TÍNH THEO TIẾP CẬN TẬP THÔ MỜ 
LUẬN ÁN TIẾN SĨ MÁY TÍNH VÀ CÔNG NGHỆ THÔNG TIN 
Chuyên ngành : Hệ thống thông tin 
Mã số: 9 48 01 04 
 Ngƣời hƣớng dẫn khoa học: 
 1. PGS.TS. Nguyễn Long Giang 
 2. TS. Nguyễn Nhƣ Sơn 
Hà Nội – 2018 
i 
MỤC LỤC 
MỤC LỤC ............................................................................................................................................................... i 
Danh mục các thuật ngữ ..................................................................................................................................... iii 
Bảng các ký hiệu, từ viết tắt ............................................................................................................................... iv 
Danh sách bảng ..................................................................................................................................................... v 
Danh sách hình vẽ ................................................................................................................................................ vi 
MỞ ĐẦU ............................................................................................................................................................... 1 
Chương 1. TỔNG QUAN VỀ RÚT GỌN THUỘC TÍNH THEO TIẾP CẬN TẬP THÔ MỜ . 7 
1.1. Một số khái niệm trong lý thuyết tập thô ...................................................................... 7 
1.1.1. Hệ thông tin và bảng quyết định ........................................................................ 7 
1.1.2. Quan hệ tương đương ........................................................................................ 7 
1.1.3. Các tập xấp xỉ và tập thô .................................................................................... 8 
1.2. Một số khái niệm trong lý thuyết tập thô mờ ............................................................... 9 
1.2.1. Quan hệ tương đương mờ .................................................................................. 9 
1.2.2. Ma trận tương đương mờ ................................................................................. 10 
1.2.3. Phân hoạch mờ ................................................................................................. 12 
1.2.4. Các tập xấp xỉ mờ và tập thô mờ ..................................................................... 15 
1.3. Tổng quan về rút gọn thuộc tính .................................................................................. 16 
1.3.1. Rút gọn thuộc tính ............................................................................................ 16 
1.3.2. Tiếp cận filter, wrapper trong rút gọn thuộc tính ............................................. 17 
1.4. Các nghiên cứu liên quan đến rút gọn thuộc tính theo tiếp cận tập thô mờ ............ 19 
1.4.1. Rút gọn thuộc tính trên bảng quyết định mờ theo tiếp cận tập thô mờ ............ 20 
1.4.2. Rút gọn thuộc tính trực tiếp trên bảng quyết định theo tiếp cận tập thô mờ. .. 22 
1.4.3. Phương pháp gia tăng rút gọn thuộc tính trong bảng quyết định thay đổi theo 
tiếp cận tập thô mờ ....................................................................................................... 30 
1.5. Tóm tắt các đóng góp của luận án ............................................................................... 35 
1.6. Kết luận .......................................................................................................................... 35 
Chương 2. RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH SỬ DỤNG ĐỘ 
PHỤ THUỘC MỜ VÀ KHOẢNG CÁCH MỜ .................................................................. 36 
2.1. Mở đầu ........................................................................................................................... 36 
ii 
2.2. Rút gọn thuộc tính sử dụng độ phụ thuộc mờ ............................................................ 37 
2.2.1. Rút gọn thuộc tính sử dụng độ phụ thuộc theo tiếp cận filter .......................... 37 
2.2.2. Rút gọn thuộc tính sử dụng độ phụ thuộc mờ theo tiếp cận filter.................... 39 
2.2.3. Rút gọn thuộc tính sử dụng độ phụ thuộc mờ theo tiếp cận filter-wrapper ..... 44 
2.2.4. Thực nghiệm các thuật toán ............................................................................... 46 
2.3. Rút gọn thuộc tính sử dụng khoảng cách mờ ................................................................. 53 
2.3.1. Xây dựng khoảng cách mờ giữa hai tập mờ .................................................... 54 
2.3.2. Xây dựng khoảng cách mờ giữa hai phân hoạch mờ ....................................... 57 
2.3.3. Rút gọn thuộc tính sử dụng khoảng cách mờ theo tiếp cận filter .................... 60 
2.3.4. Rút gọn thuộc tính sử dụng khoảng cách mờ theo tiếp cận filter-wrapper ............. 64 
2.3.5. Thực nghiệm các thuật toán ............................................................................... 67 
2.4. Kết luận chương 2 ......................................................................................................... 71 
Chương 3. RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH THAY ĐỔI SỬ 
DỤNG KHOẢNG CÁCH MỜ ................................................................................................................. 73 
3.1. Mở đầu ........................................................................................................................... 73 
3.2. Thuật toán gia tăng filter-wrapper tìm tập rút gọn xấp xỉ khi bổ sung tập đối tượng
 75 
3.2.1. Công thức gia tăng tính khoảng cách mờ khi bổ sung tập đối tượng .............. 75 
3.2.2. Thuật toán gia tăng filter-wrapper tìm tập rút gọn khi bổ sung tập đối tượng 78 
3.2.3. Thực nghiệm thuật toán ................................................................................... 82 
3.3. Thuật toán filter-wrapper tìm tập rút gọn khi loại bỏ tập đối tượng ........................ 89 
3.3.1. Công thức cập nhật khoảng cách mờ khi loại bỏ tập đối tượng ...................... 89 
3.3.2. Thuật toán filter-wrapper tìm tập rút gọn khi loại bỏ tập đối tượng ................ 92 
3.4. Kết luận chương 3 ......................................................................................................... 96 
KẾT LUẬN ......................................................................................................................................................... 97 
Danh mục các công trình của tác giả .............................................................................................................. 98 
Tài liệu tham khảo .............................................................................................................................................. 99 
iii 
Danh mục các thuật ngữ 
Thuật ngữ tiếng Việt Thuật ngữ tiếng Anh 
Tập thô Rough Set 
Tập thô mờ Fuzzy Rough Set 
Hệ thông tin Information System 
Bảng quyết định Decision Tables 
Bảng quyết định mờ Fuzzy Decision Tables 
Quan hệ tương đương Equivalence Relation 
Quan hệ tương đương mờ Fuzzy Equivalence Relation 
Phân hoạch mờ Fuzzy Partition 
Ma trận tương đương mờ Fuzzy Equivalence Matrix 
Lớp tương đương mờ Fuzzy equivalence Classes 
Xấp xỉ dưới mờ Fuzzy Lower Approximation 
Xấp xỉ trên mờ Fuzzy Upper Approximation 
Miền dương mờ Fuzzy Positive Region 
Độ phụ thuộc mờ của thuộc tính Fuzzy Dependency Degree 
Rút gọn thuộc tính Attribute Reduction 
Tập rút gọn Reduct 
Phương pháp gia tăng Incremental Methods 
Khoảng cách mờ Fuzzy Distance 
Lọc Filter 
Đóng gói Wrapper 
iv 
Bảng các ký hiệu, từ viết tắt 
Ký hiệu, từ viết tắt Diễn giải 
 ,IS U A Hệ thông tin 
 ,DS U C D  Bảng quyết định 
U Số đối tượng 
C Số thuộc tính điều kiện trong bảng quyết định 
 u a Giá trị của đối tượng u tại thuộc tính a 
 IND B Quan hệ tương đương trên B 
/U P Phân hoạch của U trên P 
 
B
u Lớp tương đương chứa u của phân hoạch /U P 
R Quan hệ tương đương mờ R. 
PR Quan hệ tương đương mờ R trên tập thuộc tính P 
 PM R Ma trận tương đương mờ của PR 
 PR Phân hoạch mờ trên PR 
 i Px Lớp tương đương mờ của ix thuộc phân hoạch mờ 
 PR 
 i Px Lực lượng lớp tương đương mờ  i Px 
PR X Tập xấp xỉ dưới mờ của X đối với PR 
PR X Tập xấp xỉ trên mờ của X đối với PR 
P
Q
R
POS R Miền dương mờ của QR đối với PR 
PR
D Độ phụ thuộc mờ của P đối với D dựa trên quan hệ PR 
 ,P QD R R Khoảng cách mờ giữa hai phân hoạch mờ PR và 
 QR 
v 
 Danh sách bảng 
Bảng 1.1. Bảng quyết định Ví dụ 1.1 ................................................................................... 14 
 ản ảng quyết định mờ ............................................................................................ 21 
Bảng 2.1. Bảng quyết định Ví dụ 2.1 ................................................................................... 42 
Bảng 2.2. Bộ dữ liệu thử nghiệm thuật toán F_FRSAR, FW_FRSAR ................................. 47 
Bảng 2.3. Độ chính xác phân lớp của F_FRSAR và RSAR ................................................. 49 
Bảng 2.4. Độ chính xác phân lớp của GAIN_RATIO_AS_FRS và F_FRSAR .................... 50 
Bảng 2.5. Độ chính xác phân lớp FW_FRSAR, F_FRSAR, GAIN_RATIO_AS_FRS ......... 52 
Bảng 2.6. Thời gian thực hiện FW_FRSAR, F_FRSAR, GAIN_RATIO_AS_FRS .............. 53 
Bảng 2.7. Bảng quyết định Ví dụ 2.3 ................................................................................... 63 
Bảng 2.8. Bộ dữ liệu thử nghiệm thuật toán FW_FDAR ..................................................... 68 
Bảng 2.9. Độ chính xác phân lớp FW_FDAR, FEBAR, FPDAR ........................................ 70 
Bảng 2.10. Thời gian thực hiện FW_FDAR, FEBAR, FPDAR ........................................... 71 
Bảng 3.1. Bộ dữ liệu thử nghiệm thuật toán IFW_FDAR_AdObj ....................................... 83 
Bảng 3.2. Thời gian thực hiện IFW_FDAR_AdObj, FW_FDAR, FEBAR (s) ..................... 85 
Bảng 3.3. Độ chính xác phân lớp IFW_FDAR_AdObj, FW_FDAR, FEBAR ..................... 86 
Bảng 3.4. Thời gian thực hiện IFW_FDAR_AdObj, IV-FS-FRS-2, IARM .......................... 87 
Bảng 3.5. Độ chính xác phân lớp IFW_FDAR_AdObj, IV-FS-FRS-2, IARM ..................... 88 
vi 
Danh sách hình vẽ 
Hình 1.1. Quy trình rút gọn thuộc tính ............................................................................... 18 
Hình 1.2. Cách tiếp cận filter và wrapper trong rút gọn thuộc tính .................................... 19 
Hình 2.1. Độ chính xác phân lớp của F_FRSAR và RSAR ................................................ 49 
Hình 2.2. Độ chính xác phân lớp của GAIN_RATIO_AS_FRS và F_FRSAR .................. 51 
1 
MỞ ĐẦU 
Với sự phát triển mạnh mẽ của công nghệ thông tin, các cơ sở dữ liệu ngày 
càng gia tăng về dung lượng dữ liệu cũng như số lượng thuộc tính, gây rất nhiều 
khó khăn cho việc thực thi các thuật toán khai phá dữ liệu. Vấn đề đặt ra là phải tìm 
cách rút gọn số lượng thuộc tính mà không làm mất mát những thông tin cần thiết 
phục vụ nhiệm vụ khai phá dữ liệu. Do đó, rút gọn thuộc tính (còn gọi là rút gọn 
chiều hay rút gọn đặc trưng) là đề tài thu hút sự quan tâm của nhiều nhà nghiên cứu 
thuộc các lĩnh vực nhận dạng thống kê, học máy, khai phá dữ liệu. 
Rút gọn thuộc tính là bài toán quan trọng trong bước tiền xử lý dữ liệu với 
mục tiêu là loại bỏ các thuộc tính dư thừa, không liên quan nhằm tăng tính hiệu quả 
của các thuật toán khai phá dữ liệu. Hiện nay có hai cách tiếp cận chính đối với bài 
toán rút gọn thuộc tính [43, 44]: filter (lọc) và wrapper (đóng gói). Cách tiếp cận 
filter thực hiện việc rút gọn thuộc tính độc lập với thuật khai phá dữ liệu sử dụng 
sau này. Các thuộc tính được chọn chỉ dựa trên độ quan trọng của chúng trong việc 
phân lớp dữ liệu. Trong khi đó, cách tiếp cận wrapper tiến hành việc lựa chọn bằng 
cách áp dụng ngay thuật khai phá, độ chính xác của kết quả được lấy làm tiêu chuẩn 
để lựa chọn các tập con thuộc tính. 
Lý thuyết tập thô (Rough set) do Pawlak đề xuất [101] là công cụ hiệu quả giải 
quyết bài toán rút gọn thuộc tính và được cộng đồng nghiên cứu về tập thô thực 
hiện lâu nay. Các phương pháp rút gọn thuộc tính theo tiếp cận tập thô truyền thống 
và tập thô dung sai được nghiên cứu khá đầy đủ trong các luận án tiến sĩ [4, 5, 6, 11, 
13], bao gồm các phương pháp cơ bản như: phương pháp dựa trên miền dương, 
phương pháp sử dụng ma trận không phân biệt được, phương pháp sử dụng entropy 
thông tin, phương pháp sử dụng các độ đo trong tinh toán hạt, phương pháp sử dụng 
metric (khoảng cách)... Gần đây, luận án tiến sĩ [7] nghiên cứu các phương pháp gia 
tăng tìm tập rút gọn của bảng quyết định thay đổi theo tiếp cận tập thô truyền thống. 
Tuy nhiên, các phương pháp rút gọn thuộc tính theo tiếp cận tập thô truyền thống, 
tập thô dung sai trong các luận án tiến sĩ nêu trên và các nghiên cứu liên quan đều 
2 
theo hướng tiếp cận filter và thực hiện trên các bảng quyết định có miền giá trị rời 
rạc (bảng quyết định sau khi thực hiện các phương pháp rời rạc hóa dữ liệu). Các 
phương pháp rời rạc hóa dữ liệu không bảo toàn sự khác nhau ban đầu giữa các đối 
tượng trong dữ liệu gốc. Do đó, các phương pháp rút gọn thuộc tính theo tiếp cận 
tập thô, tập thô dung sai được trình bày ở trên giảm thiểu độ chính xác của mô hình 
phân lớp trên dữ liệu gốc. Nhằm nâng cao độ chính xác của mô hình phân lớp, các 
nhà nghiên cứu đề xuất các phương pháp rút gọn thuộc tính theo tiếp cận tập thô mờ. 
Lý thuyết tập thô mờ (Fuzzy rough set) do Dubois và các cộng sự [22, 23] đề 
xuất là sự kết hợp của lý thuyết tập thô và lý thuyết tập mờ nhằm xấp xỉ các tập mờ 
dựa trên một quan hệ tương đương mờ (fuzzy equivalent relation) được xác định 
trên miền giá trị thuộc tính. Ban đầu, tập thô mờ là công cụ giải quyết bài toán rút 
gọn thuộc tính trên bảng quyết định mờ [40, 41, 76, 77, 78, 79, 81]. Về sau, các nhà 
nghiên cứu tập trung giải quyết bài toán rút gọn thuộc tính trực tiếp trên bảng quyết 
định gốc (bảng quyết định không qua bước rời rạc hóa dữ liệu) theo tiếp cận tập thô 
mờ nhằm nâng cao độ chính xác của mô hình phân lớp. Các phương pháp rút gọn 
thuộc tính trong bảng quyết định gốc theo tiếp cận tập thô mờ là các nghiên cứu mở 
rộng của các phương pháp rút gọn thuộc tính theo tiếp cận tập thô truyền thống đã 
được nghiên cứu lâu nay. Đây là các phương pháp heuristic theo tiếp cận filter, bao 
gồm các bước xây dựng độ đo, định nghĩa tập rút gọn và độ quan trọng của thuộc 
tính sử dụng độ đo được xây dựng, trên cơ sở đó xây dựng thuật ... ms, Volume: 25, Issue: 4, Page(s): 741-753, Aug. 
2017. 
[22] D. Dübois, H. Prade, “Rough fuzzy sets and fuzzy rough sets”, International 
Journal of General Systems 17, pp.191-209, 1990. 
[23] D. Dubois, H. Prade, “Putting rough sets and fuzzy sets together”, Intelligent 
Decision Support, Kluwer Academic Publishers, Dordrecht, 1992. 
[24] Demetrovics Janos, Nguyen Thi Lan Huong, Vu Duc Thi, Nguyen Long 
Giang, “Metric Based Attribute Reduction Method in Dynamic Decision 
Tables”, Cybernetics and Information Technologies, Vol.16, No.2, pp. 3-15, 
2016. 
[25] Demetrovics Janos, Vu Duc Thi, Nguyen Long Giang, “A Distance-based 
Method for Attribute Reduction in Incomplete Decision Systems”, Serdica 
Journal of Computing 7, No 4, pp. 355-374, 2013. 
102 
[26] D.G. Chen, Q. H. Hu and Y. P. Yang, “Parameterized attribute reduction with 
Gaussian kernel based fuzzy rough sets”, Information Sciences, vol. 181, no. 
23, pp. 5169-5179, 2011. 
[27] D.G. Chen, L. Zhang, S. Y. Zhao, Q. H. Hu, P. F. Zhu, “A novel algorithm for 
finding reducts with fuzzy rough sets”, IEEE Transaction on Fuzzy Systems, 
vol. 20, no.2, pp. 385-389, 2012. 
[28] D.G. Chen, Y. Yang, Z. Dong, “An incremental algorithm for attribute 
reduction with variable precision rough sets”, Appl. Soft Comput., vol. 45, pp. 
129-149, 2016. 
[29] D.G. Chen, E.C.C. Tsang, S.Y. Zhao, “An approach of attributes reduction 
based on fuzzy TL rough sets”, IEEE International Conference on Systems, 
Man and Cybernetics, pp. 486-491, 2007. 
[30] D.G. Chen, S. Y. Zhao, “Local reduction of decision system with fuzzy rough 
sets”, Fuzzy Sets and Systems 161, pp. 1871-1883, 2010. 
[31] D. Liu, T. Li, J.B. Zhang, “Incremental updating approximations in 
probabilistic rough sets under the variation of attributes”, Knowledge-Based 
Systems 73, pp. 81-96 , 2015. 
[32] D. Yu, Q. Hu, C. Wu, “Uncertainty measures for fuzzy relations and their 
applications”, Applied soft computing 7 (3), pp. 1135–1143, 2007. 
[33] D. Yu, S. An, Q. Hu, “Fuzzy mutual information based min-redundancy and 
max-relevance heterogeneous feature selection”, International Journal of 
Computational Intelligence Systems 4(4), pp. 619–633, 2011. 
[34] E.C.C. Tsang, D.G. Chen, D.S. Yeung, X.Z. Wang, J.W.T. Lee, “Attributes 
reduction using fuzzy rough sets”, IEEETrans. Fuzzy Syst. 16, pp.1130-1141, 
2008. 
[35] E.C.C. Tsang, X.Q. Fan, X.F. Li, S.Y. Zhao, “Weights based ranked fuzzy 
rough reduction”, International Conference on Machine Learning and 
Cybernetics (ICMLC), IEEE, 2017. 
103 
[36] F. Hu, G.Y. Wang, H. Huang, Y. Wu, “Incremental attribute reduction based 
on elementary sets”, Proceedings of the 10th International Conference on 
Rough Sets, Fuzzy Sets, Data Mining and Granular Computing, Regina, 
Canada, pp. 185-193, 2005. 
[37] F. Hu, J. Dai, G.Y. Wang, "Incremental algorithms for attribute reduction in 
decision tables," Control Decis., vol. 22, no. 3, pp. 268, 2012. 
[38] F. Wang, J.Y. Liang, Y.H. Qian, “Attribute reduction: A dimension 
incremental strategy”, Knowledge-Based Systems, Volume 39, pp. 95-108, 
2013. 
[39] F. Wang, J.Y. Liang, C.Y. Dang, “Attribute reduction for dynamic data sets”, 
Applied Soft Computing, 13(1), pp. 676-689, 2013. 
[40] F. Xu, D. Miao, L. Wei, “An Approach for Fuzzy-Rough Sets Attributes 
Reduction via Mutual Information”, In FSKD (3), pp. 107-112, 2007. 
[41] F. Xu, D.Q. Miao, L. Wei, “Fuzzy-rough attribute reduction via mutual 
information with an application to cancer classification”, Computers and 
Mathematics with Applications 57, pp. 1010 -1017, 2009. 
[42] G.C.Y. Tsang, D.G. Chen, E.C.C. Tsang, J.W.T. Lee, D.S. Yeung, “On 
attributes reduction with fuzzy rough sets”, IEEE International Conference on 
Systems, Man and Cybernetics, 2005. 
[43] Guyon, Isabelle; Elisseeff, André, “An Introduction to Variable and Feature 
Selection”, Journal of Machine Learning Research, pp. 1157-1182, 2003. 
[44] H. Liu, L. Yu, “Toward integrating feature selection algorithms for 
classification and clustering”, IEEE Transactions on knowledge and data 
engineering, 17(4), pp. 491-502, 2005. 
[45] J.H. Dai, Q. Xu, “Attribute selection based on information gain ratio in fuzzy 
rough set theory with application to tumor classification”, Applied Soft 
Computing 13, pp. 211-221, 2013. 
104 
[46] J.H. Dai, H. Hu, W.Z. Wu,Y.H. Qian, D.B. Huang, “Maximal Discernibility 
Pairs Based Approach to Attribute Reduction in Fuzzy Rough Sets”, IEEE 
Transactions on Fuzzy Systems, 30 October 2017. 
[47] J.H. Dai, Y.J. Yan, Z.W. Li, B.S. Liao, “Dominance-based fuzzy rough set 
approach for incomplete interval-valued data”, Journal of Intelligent & Fuzzy 
Systems 34, pp. 423-436, 2018. 
[48] J.Y. Liang, R. Li, Y. H. Qian, “Distance: A more comprehensible perspective 
for measures in rough set theory”, Knowledge-Based Systems, Volume 27, pp. 
126-136, 2012. 
[49] J.Y. Liang, F. Wang, C.Y. Dang, Y.H. Qian, “A group incremental approach 
to feature selection applying rough set technique”, IEEE Transactions on 
Knowledge and Data Engineering, 26(2), pp. 294-308, 2014. 
[50] J. Y. Liang, Z. Z. Shi, D. Y. Li, M. J. Wierman, “The information entropy, 
rough entropy and knowledge granulation in incomplete information system”, 
Int. J. Gen. Syst., vol. 35, no. 6, pp. 641-654, 2006. 
[51] J.Y. Liang, Z.Z. Shi, “The information entropy, rough entropy and knowledge 
granulation in rough set theory”, Int. J. Uncertain., Fuzziness Knowl.-Based 
Syst., vol. 12, no. 1., pp. 37-46, 2004. 
[52] J. Y. Liang, Y. H. Qian, “Information granules and entropy theory”, Sci. 
China., Ser. F, vol. 51, no. 10, pp. 1427-1444, 2008. 
[53] J. Y. Liang, Z. Z. Shi, D. Y. Li, and M. J. Wierman, “The information entropy, 
rough entropy and knowledge granulation in incomplete information system,” 
Int. J. Gen. Syst., vol. 35, no. 6, pp. 641–654, 2006. 
[54] J. Zhang, T. Li, D. Ruan, “Rough sets based matrix approaches with dynamic 
attribute variation in set-valued information systems”, Int. J. Approx. Reason, 
Vol.53, pp. 620-635, 2012. 
[55] J. Zhao, Z. Zhang, C. Han, Z. Zhou, “Complement information entropy for 
uncertainty measure in fuzzy rough set and its applications”, Soft Computing 
19(7), pp. 1997-2010, 2015. 
105 
[56] L.H Guan, “An incremental updating algorithm of attribute reduction set in 
decision tables”, FSKD'09 Proceedings of the 6th international conference on 
Fuzzy systems and knowledge discovery, Vol 2, pp. 421-425, 2009. 
[57] Long Giang Nguyen, “Metric Based Attribute Reduction in Decision Tables”, 
Federated Conference on Computer Science and Information System 
(FEDCSIS), Wroclaw, Poland, IEEE, pp. 311-316, 2012. 
[58] Long Giang Nguyen, Hung Son Nguyen, “Metric Based Attribute Reduction 
in Incomplete Decision Tables”, Proceedings of 14th International 
Conference, Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing, 
RSFDGrC 2013, Halifax, NS, Canada, Lecture Notes in Computer Science, 
SpingerLink, Vol. 8170, pp. 99-110, 2013. 
[59] L.W. Wang, Omar A. M. Salem, “An improved Fuzzy Mutual Information 
Feature Selection for Classification Systems”, IEEE/ACIS 16th International 
Conference on Computer and Information Science (ICIS), 2017. 
[60] L. Zadeh, “Fuzzy logic equals computing with words,” IEEE Trans. Fuzzy 
Syst., vol. 4, no. 2, pp. 103-111, 1996. 
[61] M.J. Wierman, “Measuring uncertainty in rough set theory”, Int. J. Gen.Syst., 
vol. 28, no. 4, pp. 283-297, 1999. 
[62] M. Kryszkiewicz, “Rough set approach to incomplete information systems”, 
Information Science, Vol. 112, pp. 39-49, 1998. 
[63] M. M. Deza, E. Deza, “Encyclopedia of Distances”, Springer, 2009. 
[64] M.R. CHMIELEWSKI, J.W. GRZYMALABUSSE, “Global discretization of 
continuous attributes as preprocessing for machine learning”, Int. J. Approx. 
reasoning 15 (4), pp. 319-331, 1996. 
[65] Nguyen Thi Lan Huong, Nguyen Long Giang, “Incremental algorithms based 
on metric for finding reduct in dynamic decision tables”, Journal on Research 
and Development on Information & Communications Technology, Vol.E-3, 
No.9 (13), pp. 26-39, 2016. 
106 
[66] N. Li, J.Y. Xie, “A feature subset selection algorithm based on neighborhood 
rough set for incremental updating datasets”, Computer Technology and 
Development, vol. 21, no.11, pp. 149-155, 2011. 
[67] N. Long, D. Gianola, K.A. Weigel, “Dimension reduction and variable 
selection for genomic selection : application to predicting milk yield in 
Holsteins”, Journal of Animal Breeding and Genetics. 128 (4), pp. 247–257, 
2011. 
[68] Pradipta Maji, Partha Garai, “On fuzzy-rough attribute selection: Criteria of 
Max-Dependency, Max-Relevance, Min-Redundancy, and Max-Significance”, 
Applied Soft Computing 13, pp. 3968-3980, 2013. 
[69] Q. He, C.X. Wu, D.G Chen, S.Y. Zhao, “Fuzzy rough set based attribute 
reduction for information systems with fuzzy decisions”, Knowledge-Based 
Systems 24, pp. 689-696, 2011. 
[70] Q.H. Hu, D.R. Yu, Z.X. Xie, J. F. Liu, “Fuzzy probabilistic approximation 
spaces and their information measures”, IEEE Transaction on Fuzzy Systems, 
vol. 14, no. 2, pp. 191-201, 2006. 
[71] Q.H. Hu, D.R. Yu, Z.X. Xie, “Information-preserving hybrid data reduction 
based on fuzzy-rough techniques”, Pattern Recognit. Lett. 27(5), pp. 414–423, 
12-2006. 
[72] Q.H. Hu, Z.X. Xie, D.R. Yu, “Hybrid attribute reduction based on a novel 
fuzzy-rough model and information granulation”, Pattern Recognition 40, pp. 
3509-3521, 2007. 
[73] Q.H. Hu , L. Zhang , D.G. Chen , W. Pedrycz , D.R. Yu , “Gaussian kernel 
based fuzzy rough sets: Model, uncertainty measures and applications”, Int. J. 
Approx. Reason. 51, pp. 453-471, 2010. 
[74] Q.H. Hu, Z.X. Xie, D.R. Yu, “Comments on fuzzy probabilistic 
approximations spaces and their information measures”, IEEE Trans. Fuzzy 
Syst.16, pp. 549-551, 2008. 
107 
[75] Q.H. Hu, D.R. YU, “Entropies of fuzzy indiscrenibility relation and its 
operations”, International Journal of Uncertainty, Fuzziness and Knowledge-
Based Systems, Vol. 12 Iss. 5, pp. 575-589, 2005. 
[76] Q. Shen, R. Jensen, “Selecting informative features with fuzzy-rough sets and 
its application for complex systems monitoring”, Pattern Recognition 37, pp. 
1351 – 1363, 2004. 
[77] R. Jensen, Q. Shen, “Semantics-preserving dimensionality reduction: rough 
and fuzzy-rough-based approaches”, IEEE Trans. Knowl. Data Eng. 16(12), 
pp. 1457-1471, 2004. 
[78] R. Jensen, Q. Shen, “Fuzzy-rough attribute reduction with application to web 
categorization”, Fuzzy Sets Syst. 141, pp. 469-485, 2004. 
[79] R. Jensen, Q. Shen, “Fuzzy-rough sets assisted attribute reduction”, IEEE 
Trans. Fuzzy Syst. 15(1), pp. 73-89, 2007. 
[80] R. Jensen, Q. Shen, “New approaches to fuzzy-rough feature selection”, IEEE 
Trans. Fuzzy Syst. 17(4), pp. 824-838, 2009. 
[81] R.B. Bhatt, M. Gopal, “On fuzzy-rough sets approach to feature selection”, 
Pattern Recognit. Lett. 26, pp. 965-975, 2005. 
[82] R.B. Bhatt, M. Gopal, “On the compact computational domain of fuzzy rough 
sets”, Pattern Recognition Lett. 26, pp.1632-1640, 2005. 
[83] S. Li, T. Li, D. Liu, “Incremental updating approximations in dominance-
based rough sets approach under the variation of the attribute set”, Knowledge-
Based Systems, Vol.40, pp. 17-26, 2013. 
[84] Soumen Ghosh , P.S.V.S. Sai Prasad(B), C. Raghavendra Rao, “Third Order 
Backward Elimination Approach for Fuzzy-Rough Set Based Feature 
Selection”, International Conference on Pattern Recognition and Machine 
Intelligence, PreMI 2017: Pattern Recognition and Machine Intelligence, pp. 
254-262, 2017. 
[85] T.K. Sheeja, A. Sunny Kuriakose, “A novel feature selection method using 
fuzzy rough sets”, Computers in Industry 97, pp. 111-116, 2018. 
108 
[86] W.H. Shu, W.B. Qian, “An incremental approach to attribute reduction from 
dynamic incomplete decision systems in rough set theory”, Data & 
Knowledge Engineering 100, pp. 116-132, 2015. 
[87] W.H. Shu, H. Shen, “Updating attribute reduction in incomplete decision 
systems with the variation of attribute set”, International Journal of 
Approximate Reasoning, vol. 55, no.3, pp. 867-884, 2014. 
[88] W. Shu, H. Shen, “Incremental feature selection based on rough set in 
dynamic incomplete data”, Pattern Recognit., vol. 47, no. 12, pp. 3890-3906, 
2014. 
[89] W. Wei, X.Y. Wu, J.Y. Liang, J.B. Cui, Y.J. Sun, “Discernibility matrix based 
incremental attribute reduction for dynamic data”, Knowledge-Based Systems, 
Volume 140, pp. 142-157, 15 January 2018. 
[90] X. Zhang, C.L. Mei, D.G. Chen, Y.Y. Yang, “A fuzzy rough set-based feature 
selection method using representative instances”, Knowledge-Based Systems, 
27 March 2018, In Press. 
[91] X. Zhang, C.L. Mei, D. G. Chen, J. Li, “Feature selection in mixed data: A 
method using a novel fuzzy rough set-based information entropy”, Pattern 
Recognition 56, pp. 1-15, 2016. 
[92] Y.H. Qian, Q. Wang, H.H. Cheng, J.Y. Liang, C.Y. Dang, “Fuzzy-rough 
feature selection accelerator”, Fuzzy Sets and Systems 258, pp. 61-78, 2015. 
[93] Y.H. Qian., J.Y. Liang, W.Z. Wu, C.Y. Dang, “Information Granularity in 
Fuzzy Binary GrC Model”, IEEE Trans. Fuzzy Syst. 19, No 2, pp. 253-264, 
2011. 
[94] Y. H. Qian, J. Y. Liang, W. Z. Wu, and C. Y. Dang, “Information granularity 
in fuzzy binary GrC model”, IEEE Trans. Fuzzy Syst., vol. 19, no. 2, 253-264, 
2011. 
[95] Y. Jing., T. Li, C. Luo, S.J. Horng, G. Wang, Z. Yu, “An incremental 
approach for attribute reduction based on knowledge granularity”, 
Knowledge-Based Systems, Vol.104, 2016, pp. 24-38. 
109 
[96] Y. Ming, “An incremental updating algorithm for attribute reduction based on 
improved discernibility matrix” Chinese Journal of Computers, 30(5), pp. 
815-822 , 2007. 
[97] Y.M. Liu, S.Y. Zhao, H. Chen, C.P. Li, Y.M. Lu, “Fuzzy Rough Incremental 
Attribute Reduction Applying Dependency Measures”, APWeb-WAIM 
2017: Web and Big Data, pp 484-492, 2017. 
[98] Y.Y. Yang, D.G. Chen, H. Wang, Eric C.C.Tsang, D.L. Zhang, “Fuzzy rough 
set based incremental attribute reduction from dynamic data with sample 
arriving”, Fuzzy Sets and Systems, Volume 312, 1, Pages 66-86, April 2017. 
[99] Y.Y. Yang, D.G. Chen, H. Wang, X.H. Wang, “Incremental perspective for 
feature selection based on fuzzy rough sets”, IEEE TRANSACTIONS ON 
FUZZY SYSTEMS, TFS-2016-0916, 27 June 2017. 
[100] Y.W. Li , S.X. Wu , Y.J. Lin, J.H. Liu, “Different classes’ ratio fuzzy rough 
set based robust feature selection”, Knowledge-Based Systems 000 , pp. 1-13, 
2016. 
[101] Z. Pawlak, Rough sets: Theoretical Aspects of Reasoning about Data, Kluwer 
Academic Publisher, London, 1991. 
[102] Z.T. Liu, "An incremental attribute arithmetic for the smallest reduction of 
attributes", Acta Electronoca Sinica, vol. 27, no. 11, pp. 96-98, 1999. 
[103] The UCI machine learning repository, 

File đính kèm:

  • pdfluan_an_mot_so_phuong_phap_lai_ghep_trong_rut_gon_thuoc_tinh.pdf