Luận án Một số phương pháp lai ghép trong rút gọn thuộc tính theo tiếp cận tập thô mờ
Với sự phát triển mạnh mẽ của công nghệ thông tin, các cơ sở dữ liệu ngày
càng gia tăng về dung lượng dữ liệu cũng như số lượng thuộc tính, gây rất nhiều
khó khăn cho việc thực thi các thuật toán khai phá dữ liệu. Vấn đề đặt ra là phải tìm
cách rút gọn số lượng thuộc tính mà không làm mất mát những thông tin cần thiết
phục vụ nhiệm vụ khai phá dữ liệu. Do đó, rút gọn thuộc tính (còn gọi là rút gọn
chiều hay rút gọn đặc trưng) là đề tài thu hút sự quan tâm của nhiều nhà nghiên cứu
thuộc các lĩnh vực nhận dạng thống kê, học máy, khai phá dữ liệu.
Rút gọn thuộc tính là bài toán quan trọng trong bước tiền xử lý dữ liệu với
mục tiêu là loại bỏ các thuộc tính dư thừa, không liên quan nhằm tăng tính hiệu quả
của các thuật toán khai phá dữ liệu. Hiện nay có hai cách tiếp cận chính đối với bài
toán rút gọn thuộc tính [43, 44]: filter (lọc) và wrapper (đóng gói). Cách tiếp cận
filter thực hiện việc rút gọn thuộc tính độc lập với thuật khai phá dữ liệu sử dụng
sau này. Các thuộc tính được chọn chỉ dựa trên độ quan trọng của chúng trong việc
phân lớp dữ liệu. Trong khi đó, cách tiếp cận wrapper tiến hành việc lựa chọn bằng
cách áp dụng ngay thuật khai phá, độ chính xác của kết quả được lấy làm tiêu chuẩn
để lựa chọn các tập con thuộc tính.
Tóm tắt nội dung tài liệu: Luận án Một số phương pháp lai ghép trong rút gọn thuộc tính theo tiếp cận tập thô mờ
BỘ GIÁO DỤC VÀ ĐÀO TẠO VIỆN HÀN LÂM KHOA HỌC VÀ CÔNG NGHỆ VIỆT NAM HỌC VIỆN KHOA HỌC VÀ CÔNG NGHỆ ...*** NGUYỄN VĂN THIỆN MỘT SỐ PHƢƠNG PHÁP LAI GHÉP TRONG RÚT GỌN THUỘC TÍNH THEO TIẾP CẬN TẬP THÔ MỜ LUẬN ÁN TIẾN SĨ MÁY TÍNH VÀ CÔNG NGHỆ THÔNG TIN Hà Nội – 2018 VIỆN HÀN LÂM KHOA HỌC VÀ CÔNG NGHỆ VIỆT NAM HỌC VIỆN KHOA HỌC VÀ CÔNG NGHỆ ...*** NGUYỄN VĂN THIỆN MỘT SỐ PHƢƠNG PHÁP LAI GHÉP TRONG RÚT GỌN THUỘC TÍNH THEO TIẾP CẬN TẬP THÔ MỜ LUẬN ÁN TIẾN SĨ MÁY TÍNH VÀ CÔNG NGHỆ THÔNG TIN Chuyên ngành : Hệ thống thông tin Mã số: 9 48 01 04 Ngƣời hƣớng dẫn khoa học: 1. PGS.TS. Nguyễn Long Giang 2. TS. Nguyễn Nhƣ Sơn Hà Nội – 2018 i MỤC LỤC MỤC LỤC ............................................................................................................................................................... i Danh mục các thuật ngữ ..................................................................................................................................... iii Bảng các ký hiệu, từ viết tắt ............................................................................................................................... iv Danh sách bảng ..................................................................................................................................................... v Danh sách hình vẽ ................................................................................................................................................ vi MỞ ĐẦU ............................................................................................................................................................... 1 Chương 1. TỔNG QUAN VỀ RÚT GỌN THUỘC TÍNH THEO TIẾP CẬN TẬP THÔ MỜ . 7 1.1. Một số khái niệm trong lý thuyết tập thô ...................................................................... 7 1.1.1. Hệ thông tin và bảng quyết định ........................................................................ 7 1.1.2. Quan hệ tương đương ........................................................................................ 7 1.1.3. Các tập xấp xỉ và tập thô .................................................................................... 8 1.2. Một số khái niệm trong lý thuyết tập thô mờ ............................................................... 9 1.2.1. Quan hệ tương đương mờ .................................................................................. 9 1.2.2. Ma trận tương đương mờ ................................................................................. 10 1.2.3. Phân hoạch mờ ................................................................................................. 12 1.2.4. Các tập xấp xỉ mờ và tập thô mờ ..................................................................... 15 1.3. Tổng quan về rút gọn thuộc tính .................................................................................. 16 1.3.1. Rút gọn thuộc tính ............................................................................................ 16 1.3.2. Tiếp cận filter, wrapper trong rút gọn thuộc tính ............................................. 17 1.4. Các nghiên cứu liên quan đến rút gọn thuộc tính theo tiếp cận tập thô mờ ............ 19 1.4.1. Rút gọn thuộc tính trên bảng quyết định mờ theo tiếp cận tập thô mờ ............ 20 1.4.2. Rút gọn thuộc tính trực tiếp trên bảng quyết định theo tiếp cận tập thô mờ. .. 22 1.4.3. Phương pháp gia tăng rút gọn thuộc tính trong bảng quyết định thay đổi theo tiếp cận tập thô mờ ....................................................................................................... 30 1.5. Tóm tắt các đóng góp của luận án ............................................................................... 35 1.6. Kết luận .......................................................................................................................... 35 Chương 2. RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH SỬ DỤNG ĐỘ PHỤ THUỘC MỜ VÀ KHOẢNG CÁCH MỜ .................................................................. 36 2.1. Mở đầu ........................................................................................................................... 36 ii 2.2. Rút gọn thuộc tính sử dụng độ phụ thuộc mờ ............................................................ 37 2.2.1. Rút gọn thuộc tính sử dụng độ phụ thuộc theo tiếp cận filter .......................... 37 2.2.2. Rút gọn thuộc tính sử dụng độ phụ thuộc mờ theo tiếp cận filter.................... 39 2.2.3. Rút gọn thuộc tính sử dụng độ phụ thuộc mờ theo tiếp cận filter-wrapper ..... 44 2.2.4. Thực nghiệm các thuật toán ............................................................................... 46 2.3. Rút gọn thuộc tính sử dụng khoảng cách mờ ................................................................. 53 2.3.1. Xây dựng khoảng cách mờ giữa hai tập mờ .................................................... 54 2.3.2. Xây dựng khoảng cách mờ giữa hai phân hoạch mờ ....................................... 57 2.3.3. Rút gọn thuộc tính sử dụng khoảng cách mờ theo tiếp cận filter .................... 60 2.3.4. Rút gọn thuộc tính sử dụng khoảng cách mờ theo tiếp cận filter-wrapper ............. 64 2.3.5. Thực nghiệm các thuật toán ............................................................................... 67 2.4. Kết luận chương 2 ......................................................................................................... 71 Chương 3. RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH THAY ĐỔI SỬ DỤNG KHOẢNG CÁCH MỜ ................................................................................................................. 73 3.1. Mở đầu ........................................................................................................................... 73 3.2. Thuật toán gia tăng filter-wrapper tìm tập rút gọn xấp xỉ khi bổ sung tập đối tượng 75 3.2.1. Công thức gia tăng tính khoảng cách mờ khi bổ sung tập đối tượng .............. 75 3.2.2. Thuật toán gia tăng filter-wrapper tìm tập rút gọn khi bổ sung tập đối tượng 78 3.2.3. Thực nghiệm thuật toán ................................................................................... 82 3.3. Thuật toán filter-wrapper tìm tập rút gọn khi loại bỏ tập đối tượng ........................ 89 3.3.1. Công thức cập nhật khoảng cách mờ khi loại bỏ tập đối tượng ...................... 89 3.3.2. Thuật toán filter-wrapper tìm tập rút gọn khi loại bỏ tập đối tượng ................ 92 3.4. Kết luận chương 3 ......................................................................................................... 96 KẾT LUẬN ......................................................................................................................................................... 97 Danh mục các công trình của tác giả .............................................................................................................. 98 Tài liệu tham khảo .............................................................................................................................................. 99 iii Danh mục các thuật ngữ Thuật ngữ tiếng Việt Thuật ngữ tiếng Anh Tập thô Rough Set Tập thô mờ Fuzzy Rough Set Hệ thông tin Information System Bảng quyết định Decision Tables Bảng quyết định mờ Fuzzy Decision Tables Quan hệ tương đương Equivalence Relation Quan hệ tương đương mờ Fuzzy Equivalence Relation Phân hoạch mờ Fuzzy Partition Ma trận tương đương mờ Fuzzy Equivalence Matrix Lớp tương đương mờ Fuzzy equivalence Classes Xấp xỉ dưới mờ Fuzzy Lower Approximation Xấp xỉ trên mờ Fuzzy Upper Approximation Miền dương mờ Fuzzy Positive Region Độ phụ thuộc mờ của thuộc tính Fuzzy Dependency Degree Rút gọn thuộc tính Attribute Reduction Tập rút gọn Reduct Phương pháp gia tăng Incremental Methods Khoảng cách mờ Fuzzy Distance Lọc Filter Đóng gói Wrapper iv Bảng các ký hiệu, từ viết tắt Ký hiệu, từ viết tắt Diễn giải ,IS U A Hệ thông tin ,DS U C D Bảng quyết định U Số đối tượng C Số thuộc tính điều kiện trong bảng quyết định u a Giá trị của đối tượng u tại thuộc tính a IND B Quan hệ tương đương trên B /U P Phân hoạch của U trên P B u Lớp tương đương chứa u của phân hoạch /U P R Quan hệ tương đương mờ R. PR Quan hệ tương đương mờ R trên tập thuộc tính P PM R Ma trận tương đương mờ của PR PR Phân hoạch mờ trên PR i Px Lớp tương đương mờ của ix thuộc phân hoạch mờ PR i Px Lực lượng lớp tương đương mờ i Px PR X Tập xấp xỉ dưới mờ của X đối với PR PR X Tập xấp xỉ trên mờ của X đối với PR P Q R POS R Miền dương mờ của QR đối với PR PR D Độ phụ thuộc mờ của P đối với D dựa trên quan hệ PR ,P QD R R Khoảng cách mờ giữa hai phân hoạch mờ PR và QR v Danh sách bảng Bảng 1.1. Bảng quyết định Ví dụ 1.1 ................................................................................... 14 ản ảng quyết định mờ ............................................................................................ 21 Bảng 2.1. Bảng quyết định Ví dụ 2.1 ................................................................................... 42 Bảng 2.2. Bộ dữ liệu thử nghiệm thuật toán F_FRSAR, FW_FRSAR ................................. 47 Bảng 2.3. Độ chính xác phân lớp của F_FRSAR và RSAR ................................................. 49 Bảng 2.4. Độ chính xác phân lớp của GAIN_RATIO_AS_FRS và F_FRSAR .................... 50 Bảng 2.5. Độ chính xác phân lớp FW_FRSAR, F_FRSAR, GAIN_RATIO_AS_FRS ......... 52 Bảng 2.6. Thời gian thực hiện FW_FRSAR, F_FRSAR, GAIN_RATIO_AS_FRS .............. 53 Bảng 2.7. Bảng quyết định Ví dụ 2.3 ................................................................................... 63 Bảng 2.8. Bộ dữ liệu thử nghiệm thuật toán FW_FDAR ..................................................... 68 Bảng 2.9. Độ chính xác phân lớp FW_FDAR, FEBAR, FPDAR ........................................ 70 Bảng 2.10. Thời gian thực hiện FW_FDAR, FEBAR, FPDAR ........................................... 71 Bảng 3.1. Bộ dữ liệu thử nghiệm thuật toán IFW_FDAR_AdObj ....................................... 83 Bảng 3.2. Thời gian thực hiện IFW_FDAR_AdObj, FW_FDAR, FEBAR (s) ..................... 85 Bảng 3.3. Độ chính xác phân lớp IFW_FDAR_AdObj, FW_FDAR, FEBAR ..................... 86 Bảng 3.4. Thời gian thực hiện IFW_FDAR_AdObj, IV-FS-FRS-2, IARM .......................... 87 Bảng 3.5. Độ chính xác phân lớp IFW_FDAR_AdObj, IV-FS-FRS-2, IARM ..................... 88 vi Danh sách hình vẽ Hình 1.1. Quy trình rút gọn thuộc tính ............................................................................... 18 Hình 1.2. Cách tiếp cận filter và wrapper trong rút gọn thuộc tính .................................... 19 Hình 2.1. Độ chính xác phân lớp của F_FRSAR và RSAR ................................................ 49 Hình 2.2. Độ chính xác phân lớp của GAIN_RATIO_AS_FRS và F_FRSAR .................. 51 1 MỞ ĐẦU Với sự phát triển mạnh mẽ của công nghệ thông tin, các cơ sở dữ liệu ngày càng gia tăng về dung lượng dữ liệu cũng như số lượng thuộc tính, gây rất nhiều khó khăn cho việc thực thi các thuật toán khai phá dữ liệu. Vấn đề đặt ra là phải tìm cách rút gọn số lượng thuộc tính mà không làm mất mát những thông tin cần thiết phục vụ nhiệm vụ khai phá dữ liệu. Do đó, rút gọn thuộc tính (còn gọi là rút gọn chiều hay rút gọn đặc trưng) là đề tài thu hút sự quan tâm của nhiều nhà nghiên cứu thuộc các lĩnh vực nhận dạng thống kê, học máy, khai phá dữ liệu. Rút gọn thuộc tính là bài toán quan trọng trong bước tiền xử lý dữ liệu với mục tiêu là loại bỏ các thuộc tính dư thừa, không liên quan nhằm tăng tính hiệu quả của các thuật toán khai phá dữ liệu. Hiện nay có hai cách tiếp cận chính đối với bài toán rút gọn thuộc tính [43, 44]: filter (lọc) và wrapper (đóng gói). Cách tiếp cận filter thực hiện việc rút gọn thuộc tính độc lập với thuật khai phá dữ liệu sử dụng sau này. Các thuộc tính được chọn chỉ dựa trên độ quan trọng của chúng trong việc phân lớp dữ liệu. Trong khi đó, cách tiếp cận wrapper tiến hành việc lựa chọn bằng cách áp dụng ngay thuật khai phá, độ chính xác của kết quả được lấy làm tiêu chuẩn để lựa chọn các tập con thuộc tính. Lý thuyết tập thô (Rough set) do Pawlak đề xuất [101] là công cụ hiệu quả giải quyết bài toán rút gọn thuộc tính và được cộng đồng nghiên cứu về tập thô thực hiện lâu nay. Các phương pháp rút gọn thuộc tính theo tiếp cận tập thô truyền thống và tập thô dung sai được nghiên cứu khá đầy đủ trong các luận án tiến sĩ [4, 5, 6, 11, 13], bao gồm các phương pháp cơ bản như: phương pháp dựa trên miền dương, phương pháp sử dụng ma trận không phân biệt được, phương pháp sử dụng entropy thông tin, phương pháp sử dụng các độ đo trong tinh toán hạt, phương pháp sử dụng metric (khoảng cách)... Gần đây, luận án tiến sĩ [7] nghiên cứu các phương pháp gia tăng tìm tập rút gọn của bảng quyết định thay đổi theo tiếp cận tập thô truyền thống. Tuy nhiên, các phương pháp rút gọn thuộc tính theo tiếp cận tập thô truyền thống, tập thô dung sai trong các luận án tiến sĩ nêu trên và các nghiên cứu liên quan đều 2 theo hướng tiếp cận filter và thực hiện trên các bảng quyết định có miền giá trị rời rạc (bảng quyết định sau khi thực hiện các phương pháp rời rạc hóa dữ liệu). Các phương pháp rời rạc hóa dữ liệu không bảo toàn sự khác nhau ban đầu giữa các đối tượng trong dữ liệu gốc. Do đó, các phương pháp rút gọn thuộc tính theo tiếp cận tập thô, tập thô dung sai được trình bày ở trên giảm thiểu độ chính xác của mô hình phân lớp trên dữ liệu gốc. Nhằm nâng cao độ chính xác của mô hình phân lớp, các nhà nghiên cứu đề xuất các phương pháp rút gọn thuộc tính theo tiếp cận tập thô mờ. Lý thuyết tập thô mờ (Fuzzy rough set) do Dubois và các cộng sự [22, 23] đề xuất là sự kết hợp của lý thuyết tập thô và lý thuyết tập mờ nhằm xấp xỉ các tập mờ dựa trên một quan hệ tương đương mờ (fuzzy equivalent relation) được xác định trên miền giá trị thuộc tính. Ban đầu, tập thô mờ là công cụ giải quyết bài toán rút gọn thuộc tính trên bảng quyết định mờ [40, 41, 76, 77, 78, 79, 81]. Về sau, các nhà nghiên cứu tập trung giải quyết bài toán rút gọn thuộc tính trực tiếp trên bảng quyết định gốc (bảng quyết định không qua bước rời rạc hóa dữ liệu) theo tiếp cận tập thô mờ nhằm nâng cao độ chính xác của mô hình phân lớp. Các phương pháp rút gọn thuộc tính trong bảng quyết định gốc theo tiếp cận tập thô mờ là các nghiên cứu mở rộng của các phương pháp rút gọn thuộc tính theo tiếp cận tập thô truyền thống đã được nghiên cứu lâu nay. Đây là các phương pháp heuristic theo tiếp cận filter, bao gồm các bước xây dựng độ đo, định nghĩa tập rút gọn và độ quan trọng của thuộc tính sử dụng độ đo được xây dựng, trên cơ sở đó xây dựng thuật ... ms, Volume: 25, Issue: 4, Page(s): 741-753, Aug. 2017. [22] D. Dübois, H. Prade, “Rough fuzzy sets and fuzzy rough sets”, International Journal of General Systems 17, pp.191-209, 1990. [23] D. Dubois, H. Prade, “Putting rough sets and fuzzy sets together”, Intelligent Decision Support, Kluwer Academic Publishers, Dordrecht, 1992. [24] Demetrovics Janos, Nguyen Thi Lan Huong, Vu Duc Thi, Nguyen Long Giang, “Metric Based Attribute Reduction Method in Dynamic Decision Tables”, Cybernetics and Information Technologies, Vol.16, No.2, pp. 3-15, 2016. [25] Demetrovics Janos, Vu Duc Thi, Nguyen Long Giang, “A Distance-based Method for Attribute Reduction in Incomplete Decision Systems”, Serdica Journal of Computing 7, No 4, pp. 355-374, 2013. 102 [26] D.G. Chen, Q. H. Hu and Y. P. Yang, “Parameterized attribute reduction with Gaussian kernel based fuzzy rough sets”, Information Sciences, vol. 181, no. 23, pp. 5169-5179, 2011. [27] D.G. Chen, L. Zhang, S. Y. Zhao, Q. H. Hu, P. F. Zhu, “A novel algorithm for finding reducts with fuzzy rough sets”, IEEE Transaction on Fuzzy Systems, vol. 20, no.2, pp. 385-389, 2012. [28] D.G. Chen, Y. Yang, Z. Dong, “An incremental algorithm for attribute reduction with variable precision rough sets”, Appl. Soft Comput., vol. 45, pp. 129-149, 2016. [29] D.G. Chen, E.C.C. Tsang, S.Y. Zhao, “An approach of attributes reduction based on fuzzy TL rough sets”, IEEE International Conference on Systems, Man and Cybernetics, pp. 486-491, 2007. [30] D.G. Chen, S. Y. Zhao, “Local reduction of decision system with fuzzy rough sets”, Fuzzy Sets and Systems 161, pp. 1871-1883, 2010. [31] D. Liu, T. Li, J.B. Zhang, “Incremental updating approximations in probabilistic rough sets under the variation of attributes”, Knowledge-Based Systems 73, pp. 81-96 , 2015. [32] D. Yu, Q. Hu, C. Wu, “Uncertainty measures for fuzzy relations and their applications”, Applied soft computing 7 (3), pp. 1135–1143, 2007. [33] D. Yu, S. An, Q. Hu, “Fuzzy mutual information based min-redundancy and max-relevance heterogeneous feature selection”, International Journal of Computational Intelligence Systems 4(4), pp. 619–633, 2011. [34] E.C.C. Tsang, D.G. Chen, D.S. Yeung, X.Z. Wang, J.W.T. Lee, “Attributes reduction using fuzzy rough sets”, IEEETrans. Fuzzy Syst. 16, pp.1130-1141, 2008. [35] E.C.C. Tsang, X.Q. Fan, X.F. Li, S.Y. Zhao, “Weights based ranked fuzzy rough reduction”, International Conference on Machine Learning and Cybernetics (ICMLC), IEEE, 2017. 103 [36] F. Hu, G.Y. Wang, H. Huang, Y. Wu, “Incremental attribute reduction based on elementary sets”, Proceedings of the 10th International Conference on Rough Sets, Fuzzy Sets, Data Mining and Granular Computing, Regina, Canada, pp. 185-193, 2005. [37] F. Hu, J. Dai, G.Y. Wang, "Incremental algorithms for attribute reduction in decision tables," Control Decis., vol. 22, no. 3, pp. 268, 2012. [38] F. Wang, J.Y. Liang, Y.H. Qian, “Attribute reduction: A dimension incremental strategy”, Knowledge-Based Systems, Volume 39, pp. 95-108, 2013. [39] F. Wang, J.Y. Liang, C.Y. Dang, “Attribute reduction for dynamic data sets”, Applied Soft Computing, 13(1), pp. 676-689, 2013. [40] F. Xu, D. Miao, L. Wei, “An Approach for Fuzzy-Rough Sets Attributes Reduction via Mutual Information”, In FSKD (3), pp. 107-112, 2007. [41] F. Xu, D.Q. Miao, L. Wei, “Fuzzy-rough attribute reduction via mutual information with an application to cancer classification”, Computers and Mathematics with Applications 57, pp. 1010 -1017, 2009. [42] G.C.Y. Tsang, D.G. Chen, E.C.C. Tsang, J.W.T. Lee, D.S. Yeung, “On attributes reduction with fuzzy rough sets”, IEEE International Conference on Systems, Man and Cybernetics, 2005. [43] Guyon, Isabelle; Elisseeff, André, “An Introduction to Variable and Feature Selection”, Journal of Machine Learning Research, pp. 1157-1182, 2003. [44] H. Liu, L. Yu, “Toward integrating feature selection algorithms for classification and clustering”, IEEE Transactions on knowledge and data engineering, 17(4), pp. 491-502, 2005. [45] J.H. Dai, Q. Xu, “Attribute selection based on information gain ratio in fuzzy rough set theory with application to tumor classification”, Applied Soft Computing 13, pp. 211-221, 2013. 104 [46] J.H. Dai, H. Hu, W.Z. Wu,Y.H. Qian, D.B. Huang, “Maximal Discernibility Pairs Based Approach to Attribute Reduction in Fuzzy Rough Sets”, IEEE Transactions on Fuzzy Systems, 30 October 2017. [47] J.H. Dai, Y.J. Yan, Z.W. Li, B.S. Liao, “Dominance-based fuzzy rough set approach for incomplete interval-valued data”, Journal of Intelligent & Fuzzy Systems 34, pp. 423-436, 2018. [48] J.Y. Liang, R. Li, Y. H. Qian, “Distance: A more comprehensible perspective for measures in rough set theory”, Knowledge-Based Systems, Volume 27, pp. 126-136, 2012. [49] J.Y. Liang, F. Wang, C.Y. Dang, Y.H. Qian, “A group incremental approach to feature selection applying rough set technique”, IEEE Transactions on Knowledge and Data Engineering, 26(2), pp. 294-308, 2014. [50] J. Y. Liang, Z. Z. Shi, D. Y. Li, M. J. Wierman, “The information entropy, rough entropy and knowledge granulation in incomplete information system”, Int. J. Gen. Syst., vol. 35, no. 6, pp. 641-654, 2006. [51] J.Y. Liang, Z.Z. Shi, “The information entropy, rough entropy and knowledge granulation in rough set theory”, Int. J. Uncertain., Fuzziness Knowl.-Based Syst., vol. 12, no. 1., pp. 37-46, 2004. [52] J. Y. Liang, Y. H. Qian, “Information granules and entropy theory”, Sci. China., Ser. F, vol. 51, no. 10, pp. 1427-1444, 2008. [53] J. Y. Liang, Z. Z. Shi, D. Y. Li, and M. J. Wierman, “The information entropy, rough entropy and knowledge granulation in incomplete information system,” Int. J. Gen. Syst., vol. 35, no. 6, pp. 641–654, 2006. [54] J. Zhang, T. Li, D. Ruan, “Rough sets based matrix approaches with dynamic attribute variation in set-valued information systems”, Int. J. Approx. Reason, Vol.53, pp. 620-635, 2012. [55] J. Zhao, Z. Zhang, C. Han, Z. Zhou, “Complement information entropy for uncertainty measure in fuzzy rough set and its applications”, Soft Computing 19(7), pp. 1997-2010, 2015. 105 [56] L.H Guan, “An incremental updating algorithm of attribute reduction set in decision tables”, FSKD'09 Proceedings of the 6th international conference on Fuzzy systems and knowledge discovery, Vol 2, pp. 421-425, 2009. [57] Long Giang Nguyen, “Metric Based Attribute Reduction in Decision Tables”, Federated Conference on Computer Science and Information System (FEDCSIS), Wroclaw, Poland, IEEE, pp. 311-316, 2012. [58] Long Giang Nguyen, Hung Son Nguyen, “Metric Based Attribute Reduction in Incomplete Decision Tables”, Proceedings of 14th International Conference, Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing, RSFDGrC 2013, Halifax, NS, Canada, Lecture Notes in Computer Science, SpingerLink, Vol. 8170, pp. 99-110, 2013. [59] L.W. Wang, Omar A. M. Salem, “An improved Fuzzy Mutual Information Feature Selection for Classification Systems”, IEEE/ACIS 16th International Conference on Computer and Information Science (ICIS), 2017. [60] L. Zadeh, “Fuzzy logic equals computing with words,” IEEE Trans. Fuzzy Syst., vol. 4, no. 2, pp. 103-111, 1996. [61] M.J. Wierman, “Measuring uncertainty in rough set theory”, Int. J. Gen.Syst., vol. 28, no. 4, pp. 283-297, 1999. [62] M. Kryszkiewicz, “Rough set approach to incomplete information systems”, Information Science, Vol. 112, pp. 39-49, 1998. [63] M. M. Deza, E. Deza, “Encyclopedia of Distances”, Springer, 2009. [64] M.R. CHMIELEWSKI, J.W. GRZYMALABUSSE, “Global discretization of continuous attributes as preprocessing for machine learning”, Int. J. Approx. reasoning 15 (4), pp. 319-331, 1996. [65] Nguyen Thi Lan Huong, Nguyen Long Giang, “Incremental algorithms based on metric for finding reduct in dynamic decision tables”, Journal on Research and Development on Information & Communications Technology, Vol.E-3, No.9 (13), pp. 26-39, 2016. 106 [66] N. Li, J.Y. Xie, “A feature subset selection algorithm based on neighborhood rough set for incremental updating datasets”, Computer Technology and Development, vol. 21, no.11, pp. 149-155, 2011. [67] N. Long, D. Gianola, K.A. Weigel, “Dimension reduction and variable selection for genomic selection : application to predicting milk yield in Holsteins”, Journal of Animal Breeding and Genetics. 128 (4), pp. 247–257, 2011. [68] Pradipta Maji, Partha Garai, “On fuzzy-rough attribute selection: Criteria of Max-Dependency, Max-Relevance, Min-Redundancy, and Max-Significance”, Applied Soft Computing 13, pp. 3968-3980, 2013. [69] Q. He, C.X. Wu, D.G Chen, S.Y. Zhao, “Fuzzy rough set based attribute reduction for information systems with fuzzy decisions”, Knowledge-Based Systems 24, pp. 689-696, 2011. [70] Q.H. Hu, D.R. Yu, Z.X. Xie, J. F. Liu, “Fuzzy probabilistic approximation spaces and their information measures”, IEEE Transaction on Fuzzy Systems, vol. 14, no. 2, pp. 191-201, 2006. [71] Q.H. Hu, D.R. Yu, Z.X. Xie, “Information-preserving hybrid data reduction based on fuzzy-rough techniques”, Pattern Recognit. Lett. 27(5), pp. 414–423, 12-2006. [72] Q.H. Hu, Z.X. Xie, D.R. Yu, “Hybrid attribute reduction based on a novel fuzzy-rough model and information granulation”, Pattern Recognition 40, pp. 3509-3521, 2007. [73] Q.H. Hu , L. Zhang , D.G. Chen , W. Pedrycz , D.R. Yu , “Gaussian kernel based fuzzy rough sets: Model, uncertainty measures and applications”, Int. J. Approx. Reason. 51, pp. 453-471, 2010. [74] Q.H. Hu, Z.X. Xie, D.R. Yu, “Comments on fuzzy probabilistic approximations spaces and their information measures”, IEEE Trans. Fuzzy Syst.16, pp. 549-551, 2008. 107 [75] Q.H. Hu, D.R. YU, “Entropies of fuzzy indiscrenibility relation and its operations”, International Journal of Uncertainty, Fuzziness and Knowledge- Based Systems, Vol. 12 Iss. 5, pp. 575-589, 2005. [76] Q. Shen, R. Jensen, “Selecting informative features with fuzzy-rough sets and its application for complex systems monitoring”, Pattern Recognition 37, pp. 1351 – 1363, 2004. [77] R. Jensen, Q. Shen, “Semantics-preserving dimensionality reduction: rough and fuzzy-rough-based approaches”, IEEE Trans. Knowl. Data Eng. 16(12), pp. 1457-1471, 2004. [78] R. Jensen, Q. Shen, “Fuzzy-rough attribute reduction with application to web categorization”, Fuzzy Sets Syst. 141, pp. 469-485, 2004. [79] R. Jensen, Q. Shen, “Fuzzy-rough sets assisted attribute reduction”, IEEE Trans. Fuzzy Syst. 15(1), pp. 73-89, 2007. [80] R. Jensen, Q. Shen, “New approaches to fuzzy-rough feature selection”, IEEE Trans. Fuzzy Syst. 17(4), pp. 824-838, 2009. [81] R.B. Bhatt, M. Gopal, “On fuzzy-rough sets approach to feature selection”, Pattern Recognit. Lett. 26, pp. 965-975, 2005. [82] R.B. Bhatt, M. Gopal, “On the compact computational domain of fuzzy rough sets”, Pattern Recognition Lett. 26, pp.1632-1640, 2005. [83] S. Li, T. Li, D. Liu, “Incremental updating approximations in dominance- based rough sets approach under the variation of the attribute set”, Knowledge- Based Systems, Vol.40, pp. 17-26, 2013. [84] Soumen Ghosh , P.S.V.S. Sai Prasad(B), C. Raghavendra Rao, “Third Order Backward Elimination Approach for Fuzzy-Rough Set Based Feature Selection”, International Conference on Pattern Recognition and Machine Intelligence, PreMI 2017: Pattern Recognition and Machine Intelligence, pp. 254-262, 2017. [85] T.K. Sheeja, A. Sunny Kuriakose, “A novel feature selection method using fuzzy rough sets”, Computers in Industry 97, pp. 111-116, 2018. 108 [86] W.H. Shu, W.B. Qian, “An incremental approach to attribute reduction from dynamic incomplete decision systems in rough set theory”, Data & Knowledge Engineering 100, pp. 116-132, 2015. [87] W.H. Shu, H. Shen, “Updating attribute reduction in incomplete decision systems with the variation of attribute set”, International Journal of Approximate Reasoning, vol. 55, no.3, pp. 867-884, 2014. [88] W. Shu, H. Shen, “Incremental feature selection based on rough set in dynamic incomplete data”, Pattern Recognit., vol. 47, no. 12, pp. 3890-3906, 2014. [89] W. Wei, X.Y. Wu, J.Y. Liang, J.B. Cui, Y.J. Sun, “Discernibility matrix based incremental attribute reduction for dynamic data”, Knowledge-Based Systems, Volume 140, pp. 142-157, 15 January 2018. [90] X. Zhang, C.L. Mei, D.G. Chen, Y.Y. Yang, “A fuzzy rough set-based feature selection method using representative instances”, Knowledge-Based Systems, 27 March 2018, In Press. [91] X. Zhang, C.L. Mei, D. G. Chen, J. Li, “Feature selection in mixed data: A method using a novel fuzzy rough set-based information entropy”, Pattern Recognition 56, pp. 1-15, 2016. [92] Y.H. Qian, Q. Wang, H.H. Cheng, J.Y. Liang, C.Y. Dang, “Fuzzy-rough feature selection accelerator”, Fuzzy Sets and Systems 258, pp. 61-78, 2015. [93] Y.H. Qian., J.Y. Liang, W.Z. Wu, C.Y. Dang, “Information Granularity in Fuzzy Binary GrC Model”, IEEE Trans. Fuzzy Syst. 19, No 2, pp. 253-264, 2011. [94] Y. H. Qian, J. Y. Liang, W. Z. Wu, and C. Y. Dang, “Information granularity in fuzzy binary GrC model”, IEEE Trans. Fuzzy Syst., vol. 19, no. 2, 253-264, 2011. [95] Y. Jing., T. Li, C. Luo, S.J. Horng, G. Wang, Z. Yu, “An incremental approach for attribute reduction based on knowledge granularity”, Knowledge-Based Systems, Vol.104, 2016, pp. 24-38. 109 [96] Y. Ming, “An incremental updating algorithm for attribute reduction based on improved discernibility matrix” Chinese Journal of Computers, 30(5), pp. 815-822 , 2007. [97] Y.M. Liu, S.Y. Zhao, H. Chen, C.P. Li, Y.M. Lu, “Fuzzy Rough Incremental Attribute Reduction Applying Dependency Measures”, APWeb-WAIM 2017: Web and Big Data, pp 484-492, 2017. [98] Y.Y. Yang, D.G. Chen, H. Wang, Eric C.C.Tsang, D.L. Zhang, “Fuzzy rough set based incremental attribute reduction from dynamic data with sample arriving”, Fuzzy Sets and Systems, Volume 312, 1, Pages 66-86, April 2017. [99] Y.Y. Yang, D.G. Chen, H. Wang, X.H. Wang, “Incremental perspective for feature selection based on fuzzy rough sets”, IEEE TRANSACTIONS ON FUZZY SYSTEMS, TFS-2016-0916, 27 June 2017. [100] Y.W. Li , S.X. Wu , Y.J. Lin, J.H. Liu, “Different classes’ ratio fuzzy rough set based robust feature selection”, Knowledge-Based Systems 000 , pp. 1-13, 2016. [101] Z. Pawlak, Rough sets: Theoretical Aspects of Reasoning about Data, Kluwer Academic Publisher, London, 1991. [102] Z.T. Liu, "An incremental attribute arithmetic for the smallest reduction of attributes", Acta Electronoca Sinica, vol. 27, no. 11, pp. 96-98, 1999. [103] The UCI machine learning repository,
File đính kèm:
- luan_an_mot_so_phuong_phap_lai_ghep_trong_rut_gon_thuoc_tinh.pdf