Phân loại văn bản bằng phương pháp Support vector machine

BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC BÁCH KHOA HÀ NỘI ---------------------------------------------- LUẬN VĂN THẠC SỸ KHOA HỌC PHÂN LOẠI VĂN BẢN BẰNG PHƯƠNG PHÁP SUPPORT VECTOR MACHINE NGÀNH: CÔNG NGHỆ THÔNG TIN MÃ SỐ: LƯƠNG THỊ MINH HỒNG Người hướng dẫn khoa học: TS. NGUYỄN LINH GIANG HÀ NỘI 2006 ^ ] Luận văn Thạc sỹ 2 Support Vector Machine MỤC LỤC Danh mục các ký hiệu, các từ viết tắt ............................................................. 5 Danh mục các

pdf99 trang | Chia sẻ: huyen82 | Lượt xem: 3442 | Lượt tải: 4download
Tóm tắt tài liệu Phân loại văn bản bằng phương pháp Support vector machine, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
bảng.......................................................................................... 6 Danh mục các hình vẽ, đồ thị .......................................................................... 7 Mở đầu .............................................................................................................. 8 PHẦN I - CƠ SỞ LÝ THUYẾT ..................................................................... 12 CHƯƠNG 1. TÔNG QUAN VỀ KHAI PHÁ VĂN BẢN ..................... 13 1.1. Một số khái niệm ............................................................................. 13 1.2. Khai phá dữ liệu văn bản – Text Mining ..................................... 15 1.3. Phân loại văn bản ............................................................................ 19 1.4. Quy trình phân loại văn bản .......................................................... 20 1.4.1. Lưu trữ tài liệu ............................................................................... 20 1.4.2. Định dạng văn bản ......................................................................... 21 1.4.3. Cấu trúc hoá tài liệu ....................................................................... 22 1.4.4. Tách dữ liệu ................................................................................... 22 1.4.5. Giảm chiều ..................................................................................... 23 1.4.6. Mô hình hoá không gian vector ..................................................... 25 1.4.7. Giải thuật học máy ......................................................................... 26 1.4.8. Thiết lập cấu hình học máy............................................................ 26 1.4.9. Học tăng cường .............................................................................. 26 1.4.10. Hành vi giả thuyết ...................................................................... 27 CHƯƠNG 2. SUPPORT VECTOR MACHINE ................................... 28 2.1. Động cơ ............................................................................................. 28 2.1.1. Học máy ......................................................................................... 28 ^ ] Luận văn Thạc sỹ 3 Support Vector Machine 2.1.2. Lý thuyết học thống kê .................................................................. 30 2.2. Nguyên lý tối thiểu hoá rủi ro cấu trúc ......................................... 33 2.3. Máy học vector hỗ trợ - SVM......................................................... 35 2.3.1. SVM với các vấn đề tuyến tính...................................................... 37 2.3.2. Trường hợp phân tách không tuyến tính........................................ 39 2.4. Một số phương pháp Kernel........................................................... 41 2.4.1. Polynomial - Phép toán đa thức ..................................................... 43 2.4.2. Gaussian RBF (Radial Basis Function) ......................................... 44 2.4.3. RBF mở rộng (Exponential Radial Basis Function)...................... 44 2.4.4. Perceptron đa tầng (multi-Label Perceptron –MLP) ..................... 44 2.5. Một số vấn đề trong SVM............................................................... 45 2.5.1. Các hàm thiệt hại cho SVM........................................................... 45 2.5.2. Các vấn đề đa lớp........................................................................... 45 2.5.3. Các vấn đề phân loại đa lớp – đa nhãn .......................................... 46 2.5.4. Tối ưu hoá các siêu phẳng phân tách ............................................. 46 CHƯƠNG 3: PHÂN LOẠI VĂN BẢN VỚI SVM ................................. 56 3.1. Thực hiện phân loại văn bản với SVM.......................................... 56 3.2. Ưu điểm khi sử dụng SVM phân loại văn bản ............................. 58 PHẦN II - THỬ NGHIỆM PHÂN LOẠI VĂN BẢN TRONG ORACLE BẰNG PHƯƠNG PHÁP SVM ...................................................................... 59 CHƯƠNG 4. PHÂN LOẠI VĂN BẢN VỚI ORACLE TEXT ............ 60 4.1. Khai phá văn bản với Oracle ......................................................... 60 4.2. Phân loại văn bản trong Oracle Text ............................................ 62 4.2.1. Các ứng dụng phân loại trong Oracle Text.................................... 63 ^ ] Luận văn Thạc sỹ 4 Support Vector Machine 4.2.2. Phân loại với SVM......................................................................... 65 4.2.3. Phương pháp đánh giá.................................................................... 80 CHƯƠNG 5. TIẾN HÀNH THỬ NGHIỆM.......................................... 82 5.1. Chuẩn bị dữ liệu .............................................................................. 82 5.2. Kiểm thử với Oracle 10g................................................................. 83 5.2.1. Thử nghiệm lần 1 ........................................................................... 83 5.2.2. Thử nghiệm lần 2 ........................................................................... 87 5.2.3. Thử nghiệm lần 3 .......................................................................... 88 5.2.4. Kết quả 3 lần thử nghiệm............................................................... 89 KẾT LUẬN ..................................................................................................... 92 TÀI LIỆU THAM KHẢO .............................................................................. 95 Phụ lục 1 ......................................................................................................... 97 TÓM TẮT LUẬN VĂN .................................................................................. 99 ^ ] Luận văn Thạc sỹ 5 Support Vector Machine Danh mục các ký hiệu, các từ viết tắt Từ Tiếng Anh Tiếng Việt CSDL Database Cơ sở dữ liệu DF Document Frequency Tần xuất tài liệu ERM Empirical Risk Minimization Tối thiểu hoá rủi ro theo kinh nghiệm IG Information Gain Thu nhận thông tin KDD Knowledge Discovery in Database Khai phá tri thức trong CSDL KNN K Neighbourhood Nearest K láng giêng gần nhất ODM Oracle Data Mining Khai phá dữ liệu Oracle SVM Support Vector Machine Máy học vector hỗ trợ SRM Structural Risk Minimization Tối thiểu hoá rủi ro cấu trúc VC Vapnik-Chervonenkis Chiều VC ^ ] Luận văn Thạc sỹ 6 Support Vector Machine Danh mục các bảng Bảng 1.1. Bảng ngẫu nhiên cho phân loại cj và thuật ngữ fk. .................... 24 Bảng 4.1. Bảng các thuộc tính của SVM_CLASSIFIER ........................... 79 Bảng 5.1. Bảng dữ liệu thử nghiệm đã phân loại .................................... 82 Bảng 5.2. Bảng kết quả thử nghiệm lần 1 .............................................. 89 Bảng 5.3. Bảng kết quả thử nghiệm lần 2 .............................................. 90 Bảng 5.4. Bảng kết quả thử nghiệm lần 3 .............................................. 90 Bảng 5.5. Bảng tổng hợp kết quả thử nghiệm qua 3 lần ........................... 90 ^ ] Luận văn Thạc sỹ 7 Support Vector Machine Danh mục các hình vẽ, đồ thị Hình 1.1. Các bước trong tiến trình KDD 14 Hình 1.2. Hoạt động của một bộ phân loại trên một tập tài liệu 19 Hình 2.1. Mô hình hoá các lỗi 30 Hình 2.2. Mô tả VC Dimension 32 Hình 2.3. Mô tả của phương trình 2.7. 34 Hình 2.4. Siêu phẳng phân tách tối ưu là một siêu phẳng phân tách dữ liệu với margin lớn nhất 37 Hình 2.5. Sử dụng một hàm ánh xạ Φ vào không gian đặc trưng F có thể được tìm thấy bằng cách sử dụng một siêu phẳng tuyến tính (bên phải). 42 Hình 2.6. Siêu phẳng phân tách tối ưu là một phân tách với lề cực đại 47 Hình 2.7. Không gian đặc trưng SV ánh xạ không gian nguồn vào một không gian đặc trưng nhiều chiều và sau đó xây dựng một siêu phẳng tối ưu trong không gian đặc trưng. 54 Hình 4.1 Cấu trúc cuả một ứng dụng phân loại văn bản 63 Hình 4.2. Mô hình phân loại tổng quan trong Oracle 72 Hình 4.3. Quy trình đánh chỉ số văn bản 75 ^ ] Luận văn Thạc sỹ 8 Support Vector Machine Mở đầu Phân loại văn bản là tiến trình xếp các tài liệu văn bản vào trong một hoặc nhiều các phân loại hoặc lớp các tài liệu tương tự xác định trước. Sự khác nhau trong các kết của của từng phân loại từ sự lựa chọn tập đặc trưng tới sự kết hợp của tài liệu đã cho với một phân loại cho trước. Chủ trương của nhận dạng phân loại văn bản xếp các tài liệu văn bản vào trong các phân loại của các tài liệu với các yêu cầu cao hơn để thu nhận nhanh hơn các tài liệu đó và cung cấp các lĩnh vực trong đó người dùng có thể khảo sát sâu hơn các tài liệu tương tự. Trước đây, các hệ thống thu nhận thông tin sử dụng các biểu đồ phân loại truyền thống trong khi hầu hết các giải thuật phân nhóm sử dụng mô hình không gian vector để hình thức hoá các nhóm tài liệu. Gần đây hơn, các nhà nghiên cứu đã thực hiện sử dụng các kỹ thuật học máy để kết hợp tự động các tài liệu với các phân loại bằng cách đầu tiên sử dụng một tập huấn luyện để thông qua bộ phân loại tới tập đặc trưng của tập tài liệu đặc biệt. Quy trình học máy được khởi tạo bởi một một sự kiểm tra các tài liệu mẫu để quyết định tập đặc trưng tối thiểu mà sinh ra các kết quả phân loại mong muốn. Giai đoạn huấn luyện này có thể được kiểm soát hoặc không kiểm soát. Trong cả hai trường hợp một tập các phân loại được định nghĩa một quyền ưu tiên, không giống phân nhóm mà định nghĩa các phân loại dựa trên đặc trưng của các tài liệu thực sự. Các kỹ thuật học không kiểm soát sử dụng các đặc trưng của các tài liệu huấn luyện để cho giải thuật quyết định phân loại mỗi tài liệu thuộc vào. Các kỹ thuật học có kiểm soát sử dụng một tập các tài liệu huấn luyện mà đã được kết hợp trong một phân loại để quyết định tập đặc trưng nào của các tài liệu sẽ tạo ra kết quả mong muốn. Các kỹ thuật học máy, nếu thành công, cung cấp một ưu thế mới với các tập tài liệu động thông qua qua mô hình không gian vector chuẩn, trong đó hướng ^ ] Luận văn Thạc sỹ 9 Support Vector Machine dẫn của các tài liệu mới và các tập tài liệu mới sẽ không yêu cầu xây dựng lại các ma trận vector tài liệu. Với số lượng thông tin ngày càng tăng được sinh ra bởi các giao dịch thương mại và các nhà nghiên cứu có một nhu cầu cho các giải thuật chính xác và nhanh để phân tích dữ liệu. Các cải tiến trong kỹ thuật CSDL, thực hiện tính toán và trí tuệ nhân tạo đã xây dựng để phát triển phân tích dữ liệu thông minh. Dữ liệu thế giới thực thường được đặc tính hoá bằng cách có các số lớn các ví dụ, ví dụ hàng tỷ các giao dịch thẻ tín dụng ,…Quan hệ giữa các biến dự đoán như ký hiệu vật lý và các khái niệm đích,… thường không tuyến tính. Một kỹ thuật gần đây được phát triển để thu nhận các vấn đề đó là SVM. SVM được phát triển như một công cụ thô để phân loại và hồi quy trong các lĩnh vực phức tạp và đa dạng. Các CSDL thương mại hiện đại càng phát triển đã làm tăng khả năng phân tích. Kỹ thuật khai phá văn bản trở nên chủ yếu để phân tích khối lượng lớn dữ liệu. Các kỹ thuật khai phá tài liệu hiện tại đã đưa ra các kết quả chính xác cao và tổng quá hoá cho tập dữ liệu. Tuy nhiên, các kết quả thu được có chất lượng cao yêu cầu mức độ chuyên nghiệp hơn của người dùng. SVM là một giải thuật khai phá văn bản mạnh có thể giải quyết các vấn đề mà không cần các phương pháp thống kê truyền thống. Tuy nhiên, vẫn còn một số giới hạn về độ phức tạp phương pháp luận, khả năng linh hoạt, và cài đặt sản phẩm SVM có chất lượng thấp. Luận văn này mô tả cách thực hiện của SVM nhằm chính vào tính dễ sử dụng và khả năng linh hoạt trong khi vẫn duy trì tính chính xác cao. SVM đã được hợp nhất vào CSDL Oracle và do đó có thể dễ dàng khai phá văn bản trong CSDL với việc hỗ trợ dữ liệu trong CSDL hoặc ngoài CSDL và thực hiện phân loại với bộ dữ liệu gồm nhiều phân loại và mỗi tài liệu có thể thuộc một hoặc nhiều phân loại khác nhau. ^ ] Luận văn Thạc sỹ 10 Support Vector Machine Với dữ liệu thông tin trong CSDL ngày càng lớn cùng với yêu cầu thực tế của các ứng dụng phân loại văn bản là đa lớp và đa nhãn nên trong luận văn này tác giả tập trung nghiên cứu về vấn đề phân loại văn bản bằng phương pháp SVM và thử nghiệm với bộ dữ liệu gồm nhiều phân loại khác nhau bên trong CSDL. Trong phần thực nghiệm, chúng tôi cũng thử nghiệm với các văn bản được đưa vào trong CSDL Oracle, đồng thời thực hiện thử nghiệm giải thuật SVM đã được hợp nhất trên Oracle với phiên bản mới nhất là Oracle 10g Release 2 . Nội dung của luận văn được chia thành 2 phần chính. Phần 1: Cơ sở lý thuyết về các vấn đề được nêu trên. Phần này được tổ chức với 3 chương. Chương 1 là giới thiệu tổng quan về Khai phá văn bản. Chương 2 tác giả trình bày về quá trình hình thành SVM, nội dung giải thuật SVM và một số vấn đề khi phân loại với SVM. Chương 3 trình bày về khái niệm phân loại văn bản và lý do vì sao SVM lại được lựa chọn cho phân loại văn bản Phần 2: mô tả phương pháp luận về khai phá văn bản với Oracle, và phương pháp để có thể thực hiện phân loại văn bản trong Oracle với giải thuật SVM. Phần này được tổ chức thành 2 chương. Chương 4 trình bày phương pháp luận về khai phá văn bản trong Oracle. Chương 5 báo cáo một số kết quả thử nghiệm dữ liệu văn bản với giải thuật SVM trong CSDL Oracle 10g. Ngoài ra, tại phần cuối cùng là: Kết luận và định hướng nghiên cứu và phát triển của luận văn. ^ ] Luận văn Thạc sỹ 11 Support Vector Machine Em xin chân thành cảm ơn TS.Nguyễn Linh Giang cùng các thày cô giáo bộ môn đã trang bị kiến thức, giúp đỡ tận tình trong suốt quá trình học và quá trình làm luận văn. Em cũng cảm ơn những người bạn lớp CH CNTT 2004-2006, các bạn đồng nghiệp, những người bạn thân và gia đình đã thường xuyên động viên khích lệ và giúp đỡ em trong thời gian qua. ^ ] Luận văn Thạc sỹ 12 Support Vector Machine PHẦN I - CƠ SỞ LÝ THUYẾT Trong phần đầu tiên này, tác giả đưa ra một số khái niệm, quá trình hình thành và các vấn đề khi phân loại thông thường khi áp dụng SVM: - Khái niệm về khai phá văn bản - Giới thiệu phương pháp SVM - Các vấn đề gặp phải khi phân loại bằng phương pháp SVM - Bài toán phân loại văn bản, cách sử dụng SVM trong bài toán phân loại văn bản. ^ ] Luận văn Thạc sỹ 13 Support Vector Machine CHƯƠNG 1. TÔNG QUAN VỀ KHAI PHÁ VĂN BẢN Mục đích của chương này là giới thiệu một cách tóm tắt về vấn đề khai phá dữ liệu văn bản, bài toán phân loại văn bản. 9 Khai phá dữ liệu văn bản là gì? 9 Các bước để xây dựng bài toán khai phá dữ liệu văn bản. 9 Bài toán phân loại văn bản 9 Khái niệm các bước cần thực hiện để phân loại văn bản 1.1. Một số khái niệm Trước tiên, tác giả xin trình bày một số khái niệm cơ bản để hiểu rõ được mối liên quan giữa dữ liệu, thông tin và tri thức, và lý do vì sao lại cần phải giải quyết các bài toán liên quan của lĩnh vực này. • Dữ liệu được hiểu là một chuỗi các con số hoặc các đối tượng mà chúng ta thu thập được hàng ngày. Ví dụ: dữ liệu là các file trong máy tính, dữ liệu là các văn bản giấy tờ mà chúng ta xử lý hàng ngày, ... • Thông tin là dữ liệu đã được loại bỏ đi nhiễu, sự dư thừa và đã được biểu diễn dưới dạng mà con người có thể nhận thức được. Ví dụ: thông tin về tình hình chiến sự tại IRAQ, thông tin về nhiệt độ trong tháng. • Tri thức được hiểu là các thông tin đã được tích hợp lại, đã được nhận thức, kiểm nghiệm, hay được đúc rút ra thành các quy luật có ý nghĩa đối với con người. Ví dụ: từ thông tin về nhiệt độ trong tháng, con người có thể đưa ra được những dự báo thời tiết quan trọng,.... Như vậy, tri thức chính là các dữ liệu, thông tin ở mức trừu tượng và khái quát cao hơn, tri thức ở dạng cô đọng và dễ hiểu nhất đối với con người. Rõ ràng trong kỷ nguyên công nghệ thông tin này thì con người chỉ muốn tìm kiếm và lĩnh hội các tri thức, đó là cách nhanh nhất và hợp lý nhất, chứ không ^ ] Luận văn Thạc sỹ 14 Support Vector Machine thể có đủ thời gian và khả năng để hiểu được các dữ liệu ở một dạng thô sơ nào đó. Điều đó cũng cho thấy vai trò quan trọng của lớp các bài toán khai phá dữ liệu và phát hiện tri thức. Phần tiếp theo tác giả trình bày về tiến trình khai phá dữ liệu và phát hiện tri thức (KDD). Theo nhiều tài liệu khác nhau thì tiến trình KDD nói chung đều bao gồm 5 bước cơ bản sau đây: Bước 1. Tìm hiểu về lĩnh vực và các vấn đề có liên quan. Bước 2. Thu thập và tiền xử lý dữ liệu. Đây là một bước cực kỳ quan trọng, chiếm phần lớn thời gian và sức lực (70 ÷ 90%) trong cả tiến trình. Nó cũng ảnh hưởng tới toàn bộ các kết quả thu được về sau của tiến trình khai phá dữ liệu. Bước 3. Khai phá dữ liệu, trích chọn ra các mẫu, các thông tin có ý nghĩa. Bước này gồm các phương thức để sản sinh ra các tri thức hữu ích. Bước 4. Thể hiện và đánh giá các tri thức đã rút ra được ở bước 3. Bước 5. Đưa các tri thức đã phát hiện được vào sử dụng trong thực tế. Mô hình KDD không phải là một mô hình như kiểu mô hình thác nước (thực hiện xong bước 5 là kết thúc) mà trên thực tế nó có tính lặp lại, bước sau phản hồi về cho bước trước đó, rồi thực hiện những sự điều chỉnh cần thiết nhằm đưa đến một kết quả tốt nhất cho toàn bộ hệ thống. Hình 1.1. Các bước trong tiến trình KDD ^ ] Luận văn Thạc sỹ 15 Support Vector Machine Việc áp dụng tiến trình KDD có thể thực hiện trên nhiểu kiểu loại dữ liệu khác nhau với các hình thức tổ chức lưu trữ khác nhau. Hiện nay, có rất nhiều cách tổ chức dữ liệu khác nhau, cách phổ biến nhất và cũng là cách truyền thống là cơ sở dữ liệu quan hệ, ngoài ra còn có các cơ sở dữ liệu hướng đối tượng, cơ sở dữ liệu không gian, cơ sở dữ liệu hướng thời gian, và cơ sở dữ liệu văn bản,…Đối với mỗi dạng cơ sở dữ liệu lại có các phương pháp xử lý khác nhau và mục đích khai phá dữ liệu khác nhau tùy theo tính chất và đặc thù của dữ liệu. Các kỹ thuật được sử dụng có thể là các phương pháp truyền thống như học máy (machine learning), nhận dạng (recognition), thống kê (statistics), phân loại (classification),… và các kỹ thuật được phát triển bởi ngành nghiên cứu trí tuệ nhân tạo như mạng nơ-ron nhân tạo (neural network), thuật toán di truyền (genetic algorithm), quy nạp luật (rule reduction), cây quyết định (decision tree),… Phần tiếp theo tác giả đề cập các khái niệm cơ bản trong lĩnh vực Text Mining, lĩnh vực mà đồ án tập trung giải quyết. 1.2. Khai phá dữ liệu văn bản – Text Mining Trước khi đi sâu vào các bài toán liên quan tới khai phá dữ liệu văn bản, tác giả trình bày một số khái niệm xung quanh bài toán này. • Thế nào là văn bản: đó là các tài liệu ở dạng không có cấu trúc hoặc bán cấu trúc. Ví dụ như các các file dạng đuôi .txt, .doc. • Khai phá dữ liệu văn bản là gì? - Khai phá dữ liệu văn bản là việc trích ra, lấy ra các thông tin có ích, chưa được biết đến còn tiềm ẩn trong các kho dữ liệu văn bản lớn. - Khai phá dữ liệu văn bản là việc thu thập và phân tích dữ liệu bằng các công cụ tự động hoặc bán tự động từ các nguồn tài liệu đã có khác nhau để có được các tri thức mới, chưa được biết đến trước đó. ^ ] Luận văn Thạc sỹ 16 Support Vector Machine - Khai phá văn bản là phát hiện ra các mô tả chung của các lớp đối tượng, các từ khoá, các mối liên quan về mặt nội dung, sự phân loại của các đối tượng văn bản, .v.v... • Các bài toán hiện nay được quan tâm trong lĩnh vực TM: a) Phát hiện xu hướng văn bản (Text Trend Detection): Đây là bài toán phát hiện các xu hướng, các luật chưa được biết đến trong các CSDL văn bản lớn. Ví dụ điển hình nhất của bài toán này đó là tìm ra các thông tin xác định khả năng bị ung thư của một bệnh nhân từ cơ sở dữ liệu bệnh án về ung thư đã được thu thập, hay đưa ra được các xu hướng mua các mặt hàng của khách hàng khi họ đi siêu thị, v.v... Đây là bài toán hay, có ý nghĩa rất quan trọng và tất nhiên đó cũng là bài toán khó nhất trong các bài toán thuộc về lĩnh vực khai phá dữ liệu văn bản. b) Tìm kiếm văn bản (Text Retrieval): Tìm kiếm văn bản là quá trình tìm các văn bản trong một kho dữ liệu theo các yêu cầu của người dùng. Ở đây, các yêu cầu là các truy vấn và thường được biểu diễn dưới dạng thuật ngữ hay biểu thức logic giữa các thuật ngữ. Ví dụ: người dùng đưa vào truy vấn sau: "Manchester United" & "David Beckham" & "Victoria". Ứng với truy vấn này, hệ thống sẽ tìm tất cả các tài liệu về "Manchester United" có liên quan đến "David Beckham" và "Victoria". Hiện nay, các hệ thống tìm kiếm mạnh và thông dụng nhất như Google cũng chỉ hiểu được các câu truy vấn có sử dụng phép toán logic Và, Hoặc như trên. Kết quả đưa ra cho người sử dụng là danh sách các tài liệu được sắp xếp giảm dần theo mức độ phù hợp với truy vấn đầu vào. c) Phân loại văn bản (Text Categorization - Text Classification): Theo cách truyền thống, việc phân loại văn bản có thể thực hiện một cách thủ công: đọc từng văn bản một và gán nó vào nhóm phù hợp nhất. Rõ ^ ] Luận văn Thạc sỹ 17 Support Vector Machine ràng đây là một công việc tốn nhiều thời gian, công sức nếu số lượng văn bản cần phân loại lớn. Vì thế việc xây dựng các công cụ tự động phân loại các văn bản là một việc cần thiết và có tính hữu ích cao. d) Lập nhóm văn bản (Text Clustering): Lập nhóm văn bản là bài toán tự động lập ra các nhóm văn bản từ một tập các văn bản có sẵn căn cứ vào sự tương tự về mặt nội dung giữa các văn bản. Số lượng nhóm từ 1 đến K. Người sử dụng có thể chỉ định số nhóm cần lập hoặc hệ thống tự động tính số nhóm sao cho phù hợp nhất. Nhờ việc phân loại tự động, hệ thống sẽ gợi ý cho người dùng cách phân loại một tập các văn bản có sẵn môt cách hợp lý. Đối với bài toán này, không bao giờ có một kết quả thoả mãn hoàn toàn theo ý người dùng. Lý do chính là vì máy tính không thể hiểu được bản chất của các văn bản đó và kết quả tất yếu là việc phân loại không thể làm người sử dụng luôn cảm thấy hài lòng. Chúng ta cũng phải thừa nhận rằng ngay cả con người giải quyết bài toán này cũng rất khác nhau, tuỳ theo sở thích và quan niệm của người đó. Ví dụ, khi cho lập nhóm các từ: "bơi", "vận động viên", "nghiên cứu" và "sinh viên". Người thứ nhất có thể lập thành 2 nhóm: động từ (bơi, nghiên cứu) và danh từ (vận động viên, sinh viên), trong khi đó người thứ hai lại lập thành 2 nhóm khác: thể thao (bơi, vận động viên) và học tập (sinh viên, nghiên cứu). Vì vậy, việc xây dựng một hệ thống tự động lập nhóm, phân loại đúng tuyệt đối là một việc phi thực tế. e) Tóm tắt văn bản (Text Summarization): Tóm tắt văn bản là bài toán tìm ra thể hiện nội dung của một văn bản thông qua một vài đoạn văn bản, hoặc thông qua các câu quan trọng nhất của văn bản đó. Ứng dụng điển hình của bài toán này là trong tìm kiếm văn bản. Các kho dữ liệu đều bao gồm vô số các tài liệu, kích thước tài liệu có thể nhỏ ^ ] Luận văn Thạc sỹ 18 Support Vector Machine nhưng cũng có thể lên tới hàng trăm trang. Khi người dùng đưa vào một truy vấn yêu cầu hệ thống tìm kiếm đưa ra những văn bản có liên quan, thì kết quả thường là một danh sách dài có thể lên đến hàng trăm tài liệu. Làm thế nào để có thể tìm được tài liệu người dùng quan tâm giữa một danh sách dài như thế, tất nhiên chúng ta không đề cập đến việc đọc hết từng tài liệu để lấy ra những tài liệu mình thấy là thích hợp nhất. Hệ thống tóm tắt văn bản sẽ làm cho việc tìm kiếm giảm nhẹ đi rất nhiều bằng cách tự động tóm lược nội dung của toàn bộ văn bản bởi một vài đoạn hoặc bởi những câu quan trọng nhất. Sau khi đọc qua đoạn tóm lược này, người dùng có thể biết được đây có phải là những tài liệu chứa thông tin mà họ quan tâm hay không. Hầu hết các máy tìm kiếm hiện nay như Google, Altavista, ... đều có chức năng này khi thể hiện kết quả của truy vấn. f) Dẫn đường văn bản (Text Routing): Bài toán dẫn đường văn bản; là sự tổ hợp giữa bài toán tìm kiếm văn bản và phân loại văn bản. Giống như phân loại văn bản, bài toán dẫn đường đưa các bài báo về các nhóm khác nhau. Tuy nhiên nó cũng giống bài toán tìm kiếm, mỗi nhóm văn bản được gán với các thông tin cần thiết của một hay nhiều nhóm người dùng. Mỗi người dùng có thể thay đổi thêm bớt các yêu cầu của mình. Quá trình phản hồi có thể được sử dụng để nâng cao chất lượng tìm kiếm. g) Trích chọn từ khoá (Keyword Extraction): Bài toán trích chọn từ khoá, thực hiện việc trích ra được các từ khoá quan trọng nhất của văn bản, thể hiện đặc thù về chuyên môn của văn bản đó. Phần tiếp theo tác giả trình bày chi tiết hơn về bài toán phân loại văn bản và phần tiếp sau và cũng là cuối cùng trong chương trình là quy trình phân loại văn bản. ^ ] Luận văn Thạc sỹ 19 Support Vector Machine 1.3. Phân loại văn bản Đề hiểu một cách đơn giản thì phân loại văn bản là việc gán các tài liệu vào trong các phân loại dựa trên nội dung của chúng. Sử dụng học máy, mục tiêu là để học các bộ phân loại từ các mẫu mà văn bản chưa thấy có thể được tự động phân loại. Về mặt hình thức, cho trước một tập các nhãn (các phân loại) C = {c1, . . . , c|C|} và một tập các tài liệu chưa thấy trước đó D = {d1, d2, . . .}, một bộ phân loại là một hàm K ánh xạ từ D tới tập của tất cả các tập con của C. Hình 1.2 biểu diễn một biểu đồ đơn giản của phân loại văn bản: Hình 1.2. Hoạt động của một bộ phân loại trên một tập tài liệu Trong một vài ứng dụng, các bộ phân loại chỉ gán một nhãn đơn tới từng tài liệu, bởi vậy thường là một hàm ánh xạ trực tiếp từ D tới C. Thông thường một hàm trung gian rất hữu ích cho các phân loại theo vùng hoặc phân loại mềm, ánh xạ từ D×C tới tập các số thực R gán một điểm tới từng phân loại cj cho từng tài liệu di. Các phân loại tính điểm có thể được biểu diễn tới một hệ chuyên gian nhân tạo theo thứ tự giảm, và con người sau đó có thể tạo các quyết định cuối cùng trên thành phần loại của tài liệu. Hệ thống có thể tự tạo một quyết định dựa trên một ngưỡng tới thành phần phân loại, biến đổi vấn đề trở lại các phân loại cứng được biểu diễn trong hình 1.2. Các cách tiếp cận hiện đại chuẩn để tạo các hàm phân loại mới là để xây dựng chúng sử dụng các kỹ thuật học máy từ một tập các tài liệu huấn ^ ] Luận văn Thạc sỹ 20 Support Vector Machine luyện Tr. Đây là một tập các tài liệu do người dùng cung cấp và được gán nhãn trước mà cho phép một phân loại phân bổ tương tự với sự phân bổ của D, và có các nối dụng cung cấp thông tin phần nào về các tài liệu sẽ được ánh xạ tới các phân loại. Các giải thuật sau đó có thể được phát triển để tạo ra các sự tổng quát hoá về quan hệ giữa nội dung tài liệu và phân loại tài liệu, mã hoá các sự tổng quát hoá đó trong hàm học K. 1.4. Quy trình phân loại văn bản Để huấn luyện một bộ phân loại theo cách trên, người dùng phải bắt đầu với một một huấn luyện, và được gọi là Tr. Đây là một tập tài liệu được gán nhãn trước với các phân loại mà được xem là đúng hoàn toàn - chúng được gán thủ công bởi một chuyên gia về lĩnh vực đó, một người biết rõ kiểu tài liệu chứa trong các văn bản và biết làm thế nào để gán các phân loại tới từng tài liệu dựa trên nội dung tài liệu Phác thảo cơ bản về việc tạo các ứng dụng phân loại văn bản là khá đơn giản: các tài liệu trong Tr được đưa tới hệ thống phân loại văn bản, hệ thống xử lý nội dung các tài liệu và hàm phân loại xác định K được sinh ra có thể được sử dụng để phân loại các tài liệu tương lai từ tập D. Trong một ứng dụng, nhiều điểm của quy trình này cần được quản lý trong nhiều cách xác định. Từ phần 1.4.1 tới 1.4.10 miêu tả các giai đoạn cuả quá trình này. 1.4.1. Lưu trữ tài liệu Trong một tổ chức mà cần một ứng dụng phân loại văn bản, các tài liệu có thể có từ nhiều nguồn. Chúng có thể xuất phát từ các văn bản thuần tuý (chỉ có các ký tự) hoặc các thông điệp thư điện tử đã định dạng, chúng có thể là các trang web đã được xử lý và còn thô, chúng có thể là các bộ dữ liệu từ một CSDL (phần 1.4.4), hoặc chúng không thể có một biểu diễn ngoài hệ ^ ] Luận văn Thạc sỹ 21 Support Vector Machine thống phân loại văn bản. Bởi vậy quan trọng để nhận dạng khái niệm phương tiện lưu trữ tài liệu và tiến hành chuyển đổi từ các phương tiện đó tới một trung gian có thể truy cập tới hệ thống phân loại văn bản, là một phần quan trọng của quy trình phân loại văn bản. Hơn nữa, nhiều bộ dữ liệu phân loại văn bản là khá lớn. Theo định dạng ban đầu của chúng, chúng có thể lớn hơn khối lượng bộ nhớ trên máy xử lý. Đầu tiên, cần chuyển đổi các tài liệu tới các chuẩn lưu trữ đặc biệt (ví dụ, trong một tập các file trên hệ thống file cục bộ) để hệ thống phân loại văn bản có thể truy cập chúng có thể là không thể được hoặc không mong muốn vì các lý do về thời gian, không gian hoặc dư thừa dữ liệu. Thứ hai, một kỹ thuật mà có thể giải quyết quan trung gian lưu trữ âm của các tài liệu mà không không tất cả các tài liệu vào trong bộ nhớ là có thể cần thiết trong một hệ thống phân loại văn bản. 1.4.2. Định dạng văn bản Tuy hầu hết các phân loại văn bản xem xét một tài liệu là một văn bản thuần tuý chuỗi dữ liệu, nhưng điều này là khó gặp trong một môi trường ứng dụng. Các tài liệu có thể được lưu trong nhiều định dạng tài liệu, bao gồm văn bản thuần tuý (plain text), HyperText Markup Language (HTML), Adobe’s Portable Document format (PDF), Extensible Markup Language (XML), Microsoft Word (DOC), các thư điện tử mã hoá MIME, …. Dữ liệu bên trong mỗi tài liệu cũng có thể được xem xét một phần định dạng của nó khi khối lượng thông tin trích dẫn hoặc các biến đổi khác cần được áp dụng tới dữ liệu tài liệu để làm chúng có khả năng có thể truy cập được tới hệ thống phân loại văn bản. Ví dụ, các chuỗi số trong một số tập tài liệu có thể là các thuật ngữ đáng xem xét khi phân loại, nhưng ngược lại trong các bộ dữ liệu khác có thể chỉ có dữ liệu nhiễu. Vì lý do tương tự như đã đề cập trong._. phần trước, có thể mong muốn với một hệ thống phân loại văn bản giải quyết với các vấn đề trực ^ ] Luận văn Thạc sỹ 22 Support Vector Machine tiếp, hoặc để cung cấp một kỹ thuật để mở rộng hệ thống để nhận dạng các chuẩn mới, hoặc là chuyển đổi dữ liệu của tất cả các dữ liệu tới một chuẩn nhận dạng bởi hệ thống. 1.4.3. Cấu trúc hoá tài liệu Một vấn đề khác với vấn đề chuẩn tài liệu mà cần quan tâm là vấn đề là cấu trúc tài liệu. Trong thời đại hiện nay khi dữ liệu XML ngày càng tăng trong trao đổi dữ liệu và định dạng lưu trữ, cấu trúc của một tài liệu, cách các phần của một tài liệu liên quan tới nhau và xếp lồng nhau để tạo thành toàn bộ tài liệu có thể là quan trọng để hiểu ý nghĩa của tài liệu. Trong phân loại văn bản, một ít là tạo bởi cấu trúc văn bản, ngoại trừ rằng một hệ thống phân loại văn bản có thể gán các trọng số quan trọng tới các thuật ngữ trong một tài liệu theo các trọng số quan trọng được thiết lập trước theo các phần trong các thuật ngữ đó được tìm thấy. Ví dụ, một thuật ngữ tìm thấy trong một tiêu đề của một tài liệu có thể được xem xét 2 lần quan trọng hơn một thuật ngữ tìm thấy trong nội dung. Tuy nhiên, khi nghiên cứu vào sự phân loại của việc thực hiện các tài liệu có cấu trúc, có thể là một lĩnh vực rất lớn để xem xét việc xây dựng các hệ thống phân loại văn bản. 1.4.4. Tách dữ liệu Để chuyển đổi văn bản của một tài liệu thành dữ liệu mà có thể được phân tích bởi một giải thuật học máy, cần chia văn bản thành các đơn vị rời, mỗi đơn vị tương ứng với một từ hoặc cụm từ trong văn bản. Việc này được gọi là tách từ (tokenization). Trong phần thảo luận này, từ thuật ngữ ám chỉ tới thực thể ngôn ngữ chính xác khi nó xuất hiện trong văn bản nguồn, token là một chuỗi được trích ra bởi hệ thống phân loại văn bản. Việc phân đoạn dữ liệu văn bản vào trong các khoanh (chunk) biểu diễn các từ riêng biệt có thể giống với bài toán không phức tạp, nhưng thực tế có nhiều biến đổi quy trình ^ ] Luận văn Thạc sỹ 23 Support Vector Machine này sẽ được thực hiện. Việc phân tách các từ bằng khoảng trống (dấu cách, tab,..) là không đủ vì chưa thực hiện với các dấu chấm hay các từ ghép, việc tách từ này thường cần được tạo với một vài kiến trức về tập tài liệu D. Hơn nữa, nhiều ngôn ngữ như tiếng Hàn hay tiếng Nhật không chứa các khoảng trắng để chỉ ra sự phân tách giữa các từ. Quy trình tách từ có thể xoá dữ liệu có trong danh sách từ dừng (stop-list) định nghĩa trước đó. Từ dừng là các thường xuất hiện trong lĩnh vực (như “the” hay “and” trong các văn bản tiếng Anh) và được cho rằng chứ một ít hoặc không liên quan tới vấn đề thuộc phân loại bằng tay. Để đưa ra các vấn đề đó, một hệ thống phân loại văn bản cần cho phép các biến đổi trong tiến trình phân loại văn bản. Việc này có thể bao gồm các điều chỉnh một tập các tham số điều khiển hoặc một vài trường hợp người phát triển ứng dụng có thể viết thêm mã điều khiển trong trong các trường hợp xác định. 1.4.5. Giảm chiều Giống với nhiều lĩnh vực nghiên cứu xử lý ngôn nhữ, nhiều bộ phân loại văn bản phải giải quyết vấn đề tính đa chiều cao. Số chiều của không gian trong đó giải thuật học máy thực hiện có thể là lớn hơn nhiều tổng số các thuật ngữ trong Tr. Tính đa chiều cao có thể đưa ra hai vấn đề. Đầu tiên, một vài giải thuật học máy có thể hiệu quả trên dữ liệu ít chiều, nhưng chúng yêu cầu nhiều thời gian hoặc bộ nhớ hơn thực tế khi tính đa chiều của tập dữ liệu là cao. Thứ hai, dữ liệu Tr trong không gian đa chiều lớn có thể là quá rải rác, mà không đủ các điểm dữ liệu khác 0 để tạo ra bất kỳ một biến đổi quy nạp nào trong quá trình huấn luyện. Điều này đặc biệt đúng trong các ngôn ngữ hình thái học cao như Phần Lan, trong đó một từ đơn có thể có hàng ngàn hoặc hàng triệu ^ ] Luận văn Thạc sỹ 24 Support Vector Machine kiểu biến tố, và hầu hết các kiểu có thể chỉ thấy một lần trong toàn bộ Tr, làm chúng hầu như không có ích trong quá trình học quy nạp. Một cách nhắm vào vấn đề tính đa chiều cao là áp dụng một giải thuật chặn ngôn ngữ thành các thuật ngữ tìm thấy trong Tr và D. Các giải thuật đó biến đổi các từ bằng cách xoá các tiền tố và hậu tố. Một cách khác để giảm tính đa chiều là trong một hệ thống phân loại áp dụng lựa chọn đặc trưng và/hoặc trích chọn đặc trưng. Có cj Đúng Sai Đúng A B Có fk Sai C D Bảng 1.1. Bảng ngẫu nhiên cho phân loại cj và thuật ngữ fk. (Số lượng A-D biểu diễn số tài liệu với thuộc tính cho trước) Cả hai kỹ thuật biến đổi toàn bộ tập các thuật ngữ trong tài liệu vào một tập đặc trưng nhỏ hơn với ít rải rác hơn, chọn các thuật ngữ “liên quan nhất” sử dụng một vài tiêu chí thống kê. Ba trong số các tiêu chí lựa chọn đặc trưng thường được sử dụng là tần xuất tài liệu (document frequency (DF)), χ2 , và các độ đo thu nhận thông tin (information gain (IG)). DF(fk) đơn giản là số các tài liệu của Tr trong đó số đặc trưng fk xuất hiện. χ2 được định nghĩa trong phương trình (1.1). A, B, C, và D là các thuật ngữ trong bảng 1. χ2(fk, cj) có giá trị 0 khi fk and cj độc lập, và là 1 khi chúng có liên quan với nhau. ( ) ( ) ))()()(( , 2 2 DCBADBCA CBADTcf r jk ++++ −=χ (1.1) ^ ] Luận văn Thạc sỹ 25 Support Vector Machine Để tìm toàn bộ độ đo χ2(fk), các thuật ngữ χ2(fk, cj) có thể là trung bình (được đánh trọng số là tần xuất của từng phân loại) hoặc giá trị tối đa với từng phân loại có thể được nhận. IG được định nghĩa trong phương trình (1.2). P(fk) và )( kfP là các xác suất mà một tài liệu có thể chứa hoặc không chứa fk. kf C và kf C là các tập phân loại của D chứa hoặc không chứa fk. H(x) là hàm entropy chuẩn từ Lý thuyết thông tin. )()()()()()( kk fkfkk CHfPCHfPCHfIG −−= (1.2) 1.4.6. Mô hình hoá không gian vector Như đã trình bày ở trên, tác giả đã đề xuất mỗi tài liệu có thể được xem như một vector trong một không gian vector chung có số chiều được biểu diễn là tập các đặc trưng duy nhất từ Tr. Ý tưởng này tạo thành các cơ sở cho một vài kỹ thuật học máy, gồm có các bộ phân loại máy học vector hỗ trợ (SVM) và k láng giềng gần nhất (KNN). Nó cũng cho phép các giải thuật xử lý vector tuỳ ý trên dữ liệu văn bản tận dụng các kết quả phân loại. Một tập các giải thuật thường được sử dụng cho mục đích thu nhận thông tin là sơ đồ trọng số thuật ngữ TF/IDF của Salton và Buckley, cho phép một vài cách khác nhau để biểu diễn một tài liệu như một vector trong không gian vector chung. Các thuật ngữ có thể được đánh trọng số bởi tần xuất của chúng trong tài liệu, tính logarit các tần xuất đó hoặc bởi một biểu diễn minh họa có hay không có thuật ngữ. Trọng số thuật ngữ cũng có thể được làm giảm bằng một yếu tố biểu diễn sự xuất hiện của thuật ngữ trong các tài liệu khác, trên học thuyết bất cứ thuật ngữ nào đưa ra trong hầu hết các tài liệu có sự liên quan giữa các phân loại. Cuối cùng, độ dài toàn bộ của vector tài liệu có thể được giảm bớt theo nhiều cách khác nhau. ^ ] Luận văn Thạc sỹ 26 Support Vector Machine 1.4.7. Giải thuật học máy Nhiều giải thuật học máy khác nhau đã được nghiên cứu trong lĩnh vực nghiên cứu phân loại văn bản và các giải thuật mới hoặc sự biến đổi trên hệ thống hiện tại vẫn tiếp tục đang được phát triển. Hơn nữa, lựa chọn giải thuật có thể phụ thuộc vào các giải thuật - ứng dụng khác không chỉ trong khả năng thực hiện chính xác trên các tập dữ liệu khác nhau, nhưng cũng trong các nguồn chung có thể yêu cầu chọn một giải thuật để hợp nhất vào trong một framework. Trong một hệ thống phân loại văn bản, cần cho phép chọn theo một vài giải thuật chuẩn và thống nhất các giải thuật đã được phát triển bởi các nhà nghiên cứu. 1.4.8. Thiết lập cấu hình học máy Thậm chí trong một giải thuật học máy cũng có thể có một vài tham số có ảnh hưởng tới quy trình huấn luyện và phân loại. Ví dụ, giải thuật k láng giềng gần nhất có một tham số điều chỉnh k và một giải thuật SVM cho phép một vài biến về kiểu kernel sử dụng và hầu hết các giải thuật cho vào một vài kiểu điều khiển việc cân bằng precision và recall với nhau. Để thu nhận sự thực hiện tương ứng với một bài toán đã cho, những người ừng dụng cần các cách đơn gian tới các tham số đó. Thực tế, vấn đề này không chỉ duy nhât với thành phần học máy của phân loại văn bản. Một vài hướng đã thảo luận trước đó của bài toán phân loại văn bản như chọn lựa chọn đặc trưng, giảm chiều và biến đổi không gian vector có thể được điều khiển bởi các tham số mà người kiểm soát có thể muốn thay đổi. Tính nhất quán trong việc điều khiển các tham số của hệ thống có thể là một thành phần quan trọng trong thiết kế. 1.4.9. Học tăng cường Một vài ứng dụng phân loại văn bản có thể được mong muốn kết hợp lại với người dùng về có các quyết định phân loại của hệ thống có thể là đúng hoặc không đúng. Việc này có thể cho phép với một số nhỏ các tập huấn ^ ] Luận văn Thạc sỹ 27 Support Vector Machine luyện ban đầu Tr hoặc với việc phân loại trên các khái niệm mà có thể thay đổi theo thời gian. Quá trình này được gọi là học trực tuyến hay hoặc tăng cường. Tuy nhiên, việc học tăng cường là không thể với tất cả các phương pháp học máy, một vài giải thuật (mạng nơron) không thể hợp nhất với dấu hiệu mới vào trong mô hình của chúng mà không thực hiện lại quy trình huấn luyện. Với các giải thuật mà có thể được hỗ trợ, việc sử dụng học tăng cường có thể được xem là quan trọng trong việc xây dựng một ứng dụng phân loại văn bản. 1.4.10. Hành vi giả thuyết Hầu hết các phương pháp phân loại văn bản chuẩn cho rằng mục tiêu của phân loại văn bản là gán từng tài liệu tới một hoặc nhiều phân loại, ngược lại được coi như một phân loại nhị phân. Tất nhiên, các vấn đề thế giới thực thường bao gồm các bản thể (cây phân loại phân cấp) gồm hơn 2 phân loại và thành viên có không là duy nhất. Tình huống này không biểu diễn một không kết nối lý thuyết giữa nghiên cứu và thực tế vì mỗi vấn đề đa phân loại có thể được đưa ra lại như một chuỗi các vấn đề nhị phân. Hầu hết các nhà xây dựng ứng dụng, sẽ không muốn đưa lại các vấn đề của họ vì nó yêu cầu thêm các công việc và có thể mơ hồ về ứng dụng cần phát triển. ^ ] Luận văn Thạc sỹ 28 Support Vector Machine CHƯƠNG 2. SUPPORT VECTOR MACHINE Chương này tác giả sẽ đề cập tới quá trình hình thành và một số vấn đền của SVM: - Nội dung của phương pháp SVM - Một số vấn đề khi phân loại SVM: vấn đề đa nhãn, vấn đề đa lớp - đa nhãn. Các thức giải quyết các vấn đề không thể phân tách tuyến tính - Các phương pháp để tìm được siêu phẳng tối ưu. 2.1. Động cơ 2.1.1. Học máy Hiện nay, có nhiều tập dữ liệu số lớn tồn tại trong các cơ quan, doanh nghiệp trong các CSDL như thông tin sinh học, bộ văn bản, bài hát được số hoá, thông tin WEB và thậm chí một vài kênh truyền hình cũng được số hoá. Khi một số lượng lớn các dữ liệu trở nên lớn và khả năng tính toán của CPU được cải thiện, thì việc hy vọng vào việc sử dụng các thông tin một cách có hiệu quả và việc lưu trữ các thông tin dư thừa sẽ ngày càng cao. Tuy nhiên, với dữ liệu ngày càng lớn thì độ phức tạp của các bài toán phần mềm ngày càng lớn và xuất hiện tư tưởng có chăng một giải thuật học có thể làm việc với lĩnh vực đã cho được biểu diễn bởi một tập dữ liệu huấn luyện và khai thác nó bất cứ khi nào tri thức được mở rộng. Lĩnh vực khoa học máy tính miêu tả lớp các giải thuật này được gọi là học máy (Machine Learning). Lịch sử của các kỹ thuật học máy bắt đầu từ giữa thập kỷ 1950 khi Frank Rosenblatt, một nhà tâm lý học, đưa ra Perceptron. Ý tưởng đã được công khai trên giấy vào tháng 2 năm 1958. Khoảng cùng thời gian, Widrow ^ ] Luận văn Thạc sỹ 29 Support Vector Machine và Hoff phát triển một thủ tục học có kiểm soát, bình phương trung bình nhỏ nhất. Widrow cũng đã phát triển một thành phần nơron tương tự như Perceptron là Adaptive Linear Neuron. Sự kiện quan trọng tiếp theo trong lịch sử các mạng nơron là công việc của Novikoff trên tỷ lệ hội tụ của các nơron nhân tạo. Một thế hệ hiện đại của các hệ thống học máy đã được phát triển sau một học thuyết đã phát triển gần đây bởi một nhà toán học từ Liên xô cũ, Vladimir N. Vapnik. Sự thành công của mô hình mới cũng được thúc đẩy bởi tính linh hoạt đưa hàm số tương tự mẫu định nghĩa trước của người dùng vào, nó có thể đưa ưu điểm của tính rải rác của giải pháp các vấn đề dựa trên các tập dữ liệu lớn, nó có thể điều khiển các không gian đặc trưng lớn, nó xác định một hàm suy xét uyển chuyển (hoặc tính gần đúng) và vấn đề số hoá hợp lý. Lý thuyết học thống kê đã đưa ra một động lực to lớn với học máy. Lớp các vấn đề mà chúng ta xem xét là các vấn đề phân loại nhị phân, phân loại đa lớp đa nhãn. Trong tài liệu này tác giả đã tìm hiểu một số tài liệu dựa trên một vài phương pháp xây dựng các hàm số kernel trên dữ liệu có cấu trúc. Các thuật toán học máy chủ yếu tập trung vào 2 vấn đề đó là phân lớp và phân đoạn dữ liệu và được chia làm 2 nhóm chính : a. Học có giám sát (supervised learning): Là phương pháp từ một bộ dữ liệu huấn luyện, bộ dữ liệu đã biết kết quả phân nhóm. b. Học không có giám sát (unsupervised learning) : cũng tương tự như học có giám sát, sự khác biệt là không có bộ dữ liệu huấn luyện, và thường là không biết trước số lớp. Lĩnh vực học máy gần đây đã được nghiên cứu qua việc sử dụng một tài liệu học thuyết thống kê đã thu được một sự quan tâm đáng kể. Học thuyết học thống kê (V.N. Vapnik, 1979) bắt đầu phát triển năm 1960 khi được đưa ^ ] Luận văn Thạc sỹ 30 Support Vector Machine ra rằng các phương pháp cổ điển cho các bài toán ước lượng hàm số chiều thấp không có khả năng theo tính phức tạp của các trường hợp đa chiều cao. Phần tiếp theo tác giả trình bày sơ qua về lý thuyết học thống kê. 2.1.2. Lý thuyết học thống kê Hình 2.1. Mô hình hoá các lỗi Mục tiêu trong mô hình hoá là để chọn một mô hình từ không gian giả thiết, mà là gần nhất (với độ đo một vài lỗi) với hàm cơ sở trong không gian đích. Các lỗi trong quá trình này xảy ra từ 2 trường hợp: Approximation Error- Lỗi xấp xỉ: là một kết quả không gian giả thuyết nhỏ hơn không gian đích, và do đó hàm cơ sở có thể nằm ngoài không gian giả thuyết. Một sự lựa chọn không tốt mô hình không gian sẽ dẫn tới một lỗi xấp xỉ lớn và được quy tới trong mô hình lỗi. Estimation Error - Lỗi ước lượng là lỗi bởi thủ tục học với các kết quả trọng một sự lựa chọn ký thuật mô hình không tối ưu từ không gian giả thuyết. Các lỗi đó gắn với nhau tạo ra lỗi tổng quát hoá. Tóm lại chúng ta sẽ tìm hàm f, tối thiểu hoá lỗi: ^ ] Luận văn Thạc sỹ 31 Support Vector Machine [ ] ( )( ) ( )dxdyyxPxfyLfR YX ,,∫ ×= (2.1) Tuy nhiên, P(x, y) không được biết. Nó có thể tìm thấy một xấp xỉ theo nguyên tắc tối thiểu hoá lỗi theo kinh nghiệm (ERM) [ ] ( )( )∑ = = l i ii emp xfyLl fR 1 ,1 (2.2) với các tối thiểu hoá lỗi theo kinh nghiệm ( ) [ ]fRxf empHfln n∈= minargˆ , (2.3) Sự tối thiểu hoá lỗi theo kinh nghiệm tạo khả năng chỉ nếu, [ ] [ ]fRfRempl =∞→lim (2.4) Là đúng từ luật của các số lớn. Tuy nhiên, nó cũng phải thoả mãn, [ ] [ ]fRfR nn Hf empHfl ∈∈∞∈ = minminlim (2.5) mà chỉ có giá trị khi Hn là đủ ‘nhỏ’. Điều kiện này có cảm giác kém hơn và yêu cầu các số tối thiểu cũng hội tụ. Giới hạn sau chứa với xác suất 1 - δ, [ ] [ ] l h lh RfR emp ⎟⎠ ⎞⎜⎝ ⎛−⎟⎠ ⎞⎜⎝ ⎛ + +≤ 4 ln12ln δ (2.6) Đặc biệt, biểu thức này với rủi ro mong muốn độc lập với khả năng phân bổ lỗi VC dimension - Chiều VC VC dimension là một giá trị vô hướng mà đo các khả năng của một tập các hàm. ^ ] Luận văn Thạc sỹ 32 Support Vector Machine Hình 2.2. Mô tả VC Dimension Định nghĩa (Vapnik–Chervonenkis). VC dimension của một tập các hàm là p nếu và chỉ nếu có tồn tại một tập các điểm {xi}pi=1 mà các điểm đó có thể được phân biệt trong tất cả 2p cấu hình có thể, và không có tập {xi}qi=1 tồn tại với q > p thoả mãn thuộc tính này. Hình 2.2 miêu tả làm thể nào 3 điểm đó trong mặt phẳng có thể được đảo lộn bởi một tập các hàm chỉ thị tuyến tính trong khi 4 điểm thì không. Trong trường hợp này VC dimension bằng với số các tham số free (tự do), nhưng nhìn chung đó không là tính huống, ví dụ hàm Asin(bx) có một VC dimension vô hạn. Tập các hàm chỉ thị tuyến tính trong không gian n chiều có một VC dimension bằng n + 1. Một định nghĩa tương đương của VC dimension là độ lớn của tập huấn luyện lớn nhất mà có thể được tìm thấy mà lớp hàm có thể làm phá huỷ tập huấn luyện. Xem xét các siêu phẳng sau trong Rd sau: Định lý: cho trước một tập n> 1 điểm trong Rd. Chọn một trong các điểm đó làm gốc, sau đó n điểm có thể bị phá vỡ bởi các các siêu phẳng có hướng nếu và chỉ nếu các vector vị trí của các các điểm còn lại là độc lập tuyến tính. Trong một kết quả trực tiếp của kết quả này, dễ thấy là VC dimension của tập các siêu phẳng có hướng trong Rd là d + 1. ^ ] Luận văn Thạc sỹ 33 Support Vector Machine 2.2. Nguyên lý tối thiểu hoá rủi ro cấu trúc Khái niệm VC dimension thúc đẩy một phương pháp mới về suy luận quy nạp. Cung cấp các giả thiết lớp S với một cấu trúc bằng cách định nghĩa trong các lớp con liên tiếp S1 ⊂ S2 ⊂ ... ⊂ Sn với Sk = {fα(z): α ∈Ωk} là chiều VC hk của mỗi lớp con Sk là hữu hạn và thoả mãn h1 ≤ h2 ≤ …≤ hp (tăng độ phức tạp qua cấu trúc). Kết quả VC chính độc lập với sự phân bố nguồn là giới hạn: ⎟⎟⎠ ⎞ ⎜⎜⎝ ⎛ −+= nd nRR k n empn ηφαα log,)()( 1) (2.7) đúng với xác suất ít nhất (1- η) Nguyên tắc hướng dẫn giải thuật này được gọi là tối thiểu hoá rủi ro cấu trúc (Structural Risk Minimization (SRM)).. Bởi vậy, để thu được giới hạn nhỏ nhất trên lỗi thử nghiệm là tối thiểu hoá số các lỗi huấn luyện, tập hàm với chiều VC nhỏ nhất có thể được sử dụng. Hai yêu cầu là mâu thuẫn vì theo thứ tự tối thiểu hoá số lỗi huấn luyện một hàm phân loại có thể được lấy ra từ một tập lớn các hàm số, hơn là một tập ít với chiều VC nhỏ. Giải pháp đảm bảo nhất được tìm thấy với một sự thoả hiệp giữa độ chính xác của tính gần đúng trên dữ liệu theo kinh nghiệm và khả năng của máy được sử dụng tối thiểu hoá số lỗi (Hình 2.3). Khái niệm khả năng là một cái gì đó liên quan việc quyết định các điều kiện cần và đủ cho tính nhất quán của các bài toán học và tỷ trọng hội tụ của các bài toán học. Một thành tựu quan trọng của học thuyết này là sự khai phá khả năng tổng quát hoá của máy học phụ thuộc vào khả năng của tập các hàm thực hiện bởi máy học, khác với số các tham số tự do. Với số lượng dữ liệu huấn luyện, một giải pháp hiệu quả của các bài toán học dựa trên độ lớn mẫu nhỏ, một giải pháp tốt là để giải quyết trực tiếp ^ ] Luận văn Thạc sỹ 34 Support Vector Machine bài toán, tránh giải quyết một vấn đề chung hơn như một bước trung gian. Có thể là thông tin hiện có là đủ cho một giải pháp trực tiếp nhưng là đủ để giải quyết một vấn đề trung gian chung hơn. Hình 2.3. Mô tả của phương trình 2.7. Hàm số giảm biểu diễn lỗi huấn luyện (rủi ro theo kinh nghiệm), trong khi hàm tăng là giới hạn trên trên độ phức tạp (phụ thuộc vào lỗi đúng). Với một độ phức tạp cho trước của lớp hàm, sự tin cậy của rủi ro mong muốn có thể được quyết định. Mục tiêu là để tìm một trao đổi tối ưu giữa lỗi theo kinh nghiệm và độ phức tạp, chọn từ các tập S1,…, Sn, hàm số học với VC dimension tối ưu h*, với độ phức tạp tối ưu. Ứng dụng của các khái niệm đó tìm không gian để phát triển trong các chiêu bài khác nhau của các bài toán học. Học có kiểm soát, ví dụ, là bài toán của việc học một hàm đã cho một vài dữ liệu và trợ giúp một nguồn các kết quả mẫu. Trong mô hình học không kiểm soát chỉ không gian nguồn χ là cho trước, không gian ra Y là chưa có. Các ứng dụng khác là ước lượng các hàm số giá trị thức, xấp xỉ hàm, ước lượng hồi quy và xử lý tín hiệu. Học thuyết trên là cần thiết để đưa ra một nền móng thô cho việc đặc tính hoá phương pháp hoạt động hiện đại để giải quyết các bài toán học máy. ^ ] Luận văn Thạc sỹ 35 Support Vector Machine 2.3. Máy học vector hỗ trợ - SVM Cách tiếp cận thường này dùng để tối thiểu hoá giới hạn rủi ro là chọn một lớp giả thiết cố định. Việc này cố định chiều VC và do đó khoảng cách tin cậy được đo bởi Φ() toán hạng trong phương trình 2.7 của giới hạn. Khi đó sự tối thiểu hoá của rủi ro theo kinh nghiệm (lỗi huấn luyện) dẫn tới một giới hạn trên bên trên rủi ro mong muốn. Phương pháp này nảy sinh một khó khăn khi lớp được chọn quá phức tạp (chiều VC quá lớn). Trong trường hợp này khoảng cách tin cậy sẽ lớn và giới hạn trên quá lỏng. Ngược lại, nếu lớp được chọn là quá đơn giản (chiều VCquá thấp) rủi ro theo kinh nghiệm sẽ lớn và giới hạn sẽ tồi tệ nữa. Một giải pháp để thiết kế lại màu cho mỗi độ lớn khác nhau của dữ liệu huấn luyện và có lựa chọn một độ phức tạp đúng một tiên nghiệm (a priori) để khắc phục các hạn chế trên. Một kỹ thuật khác sẽ là cố định rủi ro theo kinh nghiệm nhỏ (hoặc bằng 0) và sau đó tích cực tối thiểu hoá khoảng cách tin cậy của giới hạn (phương trình 2.7). Việc này yêu cầu một máy học trong đó kiểm soát độ phức tạp được xây dựng bên trong Support Vector Machines, (SVM) là một ví dụ của giải thuật học mà thực hiện theo cách tiếp cận này. Giải pháp của một bài toán phân loại có thể được diễn đạt với một siêu phẳng: f(x) = m • x + b với m là một vector tham số và dấu f(x) là giá trị dự đoán cho từng x cho trước. Một siêu phẳng có thể được diễn đạt cũng với một sự kết hợp tuyến tính các mẫu. Thực tế, cho L = {(x1,y1),…, (xn,yn)} là một tập các mẫu phức tạp và các giá trị đích liên quan, thì: ⎥⎦ ⎤⎢⎣ ⎡ += ∑ = n i iii bxxKysignxf 1 ),()( α ^ ] Luận văn Thạc sỹ 36 Support Vector Machine là một bộ phân loại ánh xạ tạm có trọng số. Hàm K: Rd × Rd → R định nghĩa một độ đo khoảng cách giữa hai thành phần bất kỳ của không gian nguồn. Khoảng cách suy ra bởi hàm kernel có thể được viết như sau: d(x,y) = K(x,x) – 2K(x,y) +K(x,y) Vector xi là các mẫu được sử dụng để ánh xạ các trường hợp tương lai và αi là các hệ số điều khiển đánh trọng số giữa các mẫu. Chúng tôi giả sử hầu hết tất cả các hệ số sẽ là 0. các hệ số khác 0 xác định mẫu nào là quan trọng. Các mẫu đó được gọi là các vector hỗ trợ (support vectors). Một cách hiểu nguyên tắc phân loại (classification rule) mà SVM thực hiện là: đầu tiên biến đổi các điểm dữ liệu tới một không gian đặc trưng đa chiều trong đó không gian đầu vào được sắp xếp với một ánh xạ không tuyến tính. Khi đó, một sự phân tách của dữ liệu ánh xạ với một siêu phẳng là có thể. Do vậy, chúng ta có thể quyết định quyết định nào là tối ưu để đưa vào, theo SRM bằng các xem xét tình huống siêu phẳng. Mặt khác, chiều VC của tập các siêu phẳng với các vector trọng số giới hạn ||m||2 ≤ A là số tối thiểu của d + 1 và [C2A2] +1 với C là bán kính của đường tròn nhỏ nhất giới hạn dữ liệu huấn luyện. Bởi vậy siêu phẳng tối ưu là một siêu phẳng phân tách dữ liệu và có chiều VC nhỏ nhất, như là vector trọng số nhỏ nhất. Bằng cách chỉ chọn theo các siêu phẳng mà phân tách dữ liệu (như vậy, với một Remp(α) = 0 cố định), chúng ta thu thập một sự thực hiện kiểu suy luận rủi ro có cấu trúc. Khi các hạn chế này được biến đổi ngược lại vào trong không gian nguồn của các điểm dữ liệu, nó xuất hiện các giá trị tối ưu của m và b được đưa ra bởi giải pháp của một bài toán tối ưu toàn phương lồi. ^ ] Luận văn Thạc sỹ 37 Support Vector Machine 2.3.1. SVM với các vấn đề tuyến tính Một SVM là một siêu phẳng phân tách các mẫu âm với các mẫu dương với một khoảng cách giữa các lớp tối đa được gọi là lề giới hạn (margin) (Hình 2.4) Hình 2.4. Siêu phẳng phân tách tối ưu là một siêu phẳng phân tách dữ liệu với margin lớn nhất Bài toán có thể được chuyển thành một bài toán tối ưu. Như chúng tôi đã dự đoán trước, siêu phẳng SVM có để được biểu diễn: f(x) = m • x + b do đó: f(xi) ≥ 1 với yi = +1 f(xi) ≤ 1 với yi = -1 khi: yif(xi) ≥ 1 ∀i ∈ 1,..,n (2.8) và lề (margin) của nó phải là lớn nhất. Có thể chỉ ra rằng lề là 2/||m||. Bởi vậy, bằng cách tối thiểu hoá số lượng ½(m . m) đã đảm bảo tính tối ưu của siêu phẳng đáp án. Bởi vậy, bài toán kết quả là: 2 2 1min mP m≡ ^ ] Luận văn Thạc sỹ 38 Support Vector Machine đối với: yi(m • xi +b) ≥ 1 ∀i ∈ 1,..,n với: m ∈ Rd, b ∈ R Nếu chúng ta chuyển thành công thức Lagrangian: ))'(1( 2 1max 1 2 bxmymL ii n i i +−+= ∑ = αα (2.9) với αi ≥ 0, i ∈ 1,..,n Bài toán bội (dual problem) có thể được chuyển hoá áp dụng các điều kiện tối ưu hoá Karush-Kuhn-Tucker trên công thức Lagrangian (công thức 2.9): ∑∑ =⇒=−=∂∂ i iiiiii i xymxymm L αα 0 (2.10) 0==∂ ∂ ∑ i ii yb L α (2.11) Thay thế 2.9, 2.10 vào 2.11, thu được: jijii ji i i i xxyyL ααα ∑∑ −= ,2 1 và bài toán bội là: jijjiji ii i xxyy αααα ∑∑ − ,21max { }ni y i ii i ,...,1,0 0 ∈≥ =∑ α α (2.12) Chú ý rằng dữ liệu huấn luyện xuất hiện chỉ trong kiểu các tính trong giữa các vector. Đặc tính này sẽ chứng minh là hữu ích khi SVM được áp dụng tới các tập huấn luyện phân tách không tuyến tính. Cho α* là giải pháp ^ ] Luận văn Thạc sỹ 39 Support Vector Machine tối ưu của 2.11. Giá trị tối ưu của b có thể cuối cùng xem xét αi* >0 và các điều kiện KKT thêm vào: 0))'(1(* =+− bxmy iiiα (2.13) Giải pháp siêu phẳng được quyết định bởi các điểm xi huấn luyện nằm trên các siêu phẳng song song đặt tại một khoảng cách bằng với lề *),()( 1 * bxxKyxf ii nSV i i += ∑ = α (2.14) Các điểm đó được gọi là các vector hỗ trợ (support vectors). 2.3.2. Trường hợp phân tách không tuyến tính Giải thuật trên, nếu áp dụng tới một tập huấn luyện phân tách không tuyến tính, sẽ không tìm được bất kỳ giải pháp nào hợp lý. Bởi vậy cần mở rộng mô hình tới trường hợp không thể phân tách, các ràng buộc có thể được thả lỏng (công thức 2.8) nhưng chỉ khi cần. Việc này có thể được thực hiện bằng đưa vào các biến dương không chặt ξi với ∀i ∈ {1,..,n} với các ràng buộc: f(xi) ≥ 1- ξi với yi = +1 f(xi) ≤ 1+ ξi với yi = -1 với ξi ≥ 0 ∀i Bởi vậy, với một lỗi xảy ra, ξi tương ứng phải vượt quá 1 đơn vị (unity), bởi vậy ∑iξi là một giới hạn trên số các lỗi huấn luyện. Bởi vậy một cách tự nhiên để gán một giá trị thêm với các lỗi là để thay đổi hàm mục tiệu được tối thiểu hoá từ: 2 2 1 m thành ∑+ i iCm ξ22 1 ^ ] Luận văn Thạc sỹ 40 Support Vector Machine với C là một tham số được chọn bởi người dùng; một C lớn tương ứng để gán một bất lợi lớn tới lỗi, trong khi một C nhỏ có nghĩa là các lỗi ít hơn. Có thể chỉ ra rằng bài toán bội tương ứng là: jijijji ii i xxyyL ⋅−= ∑∑ αααα ,21max (2.15) đối với (2.16) ∀i∈ 1,..., n 0 ≤ αi ≤ C ii i y∑α Nếu giải pháp của vấn đề này là không đủ để đạt được một sự thực hiện tổng quát hoá tốt (lớp các siêu phẳng là quá kém để phân tách các mẫu huấn luyện), thì có một phương pháp mà có thể được sử dụng để thiết lập một sự tổng quát hoá tốt theo một cách đơn giản. Đầu tiên chú ý rằng chỉ có cách trong đó các mẫu huấn luyện xuất hiện trong bài toán học (2.15) là theo kiểu của các tích trong xi⋅xj. Bây giờ, giả sử đầu tiên chúng ta ánh xạ dữ liệu tới một vài không gian Euclit khác (có thể số chiều vô hạn), sử dụng một ánh xạ mà chúng ta gọi φ: φ: Rd → H Khi đó giải thuật huấn luyện có thể được áp dụng vào trong H sử dụng các hàm từ φ(xi)⋅φ(xj). Khi bài toán được diễn đạt chỉ trong các toán hạng của các tích trong như là các giải pháp tốt. Một vấn đề với các mẫu trong một không gian đặc trưng H khác có thể được giải quyết xác định một tích trong thực hiện trong H. Một tích trong có thể cũng được gọi là một hàm nhân kernel function. Bởi vậy, để giải quyết một bài toán SVM định nghĩa rõ ràng ánh xạ φ là không cần thiết. ^ ] Luận văn Thạc sỹ 41 Support Vector Machine 2.4. Một số phương pháp Kernel Trong những năm gần đây, một vài máy học kernel, như Kernel Principal Component Analysis, Kernel Fisher Discriminant và Support Vector Machines đã được đưa ra. Các cách tiếp cận đó đã nhận được một sự quan tâm đặc biệt vì chúng được dùng với các vấn đề phân loại và hồi quy, và, gần đây, khả năng của chúng được khai thác với các vấn đề học không kiểm soát. Chúng tôi sẽ đưa ra các khái niệm cơ bản của học thuyết học và giới thiệu ý tưởng về không gian đặc trưng cơ bản (kernel feature space) áp dụng tới vấn đề học có kiểm soát. Trong phần dưới nhắc lại với một vấn đề ánh xạ không tuyến tính: φ: Rd → F x a φ (x) dữ liệu x1,…, xn ∈ Rd được ánh xạ vào trong một không gian đặc trưng F với một số chiều có khả năng nhiều hơn. Cho trước một ví dụ của một bài toán học, nó có thể chuyển nó vào không không gian F thay vì Rd, ví dụ, (φ(x1), y1),..., (φ(xn), yn) ∈ F × Y sự biểu diễn ánh xạ này có thể được sử dụng để tìm dễ dàng một phân loại của dữ liệu. Tính đa chiều là làm tăng sự khó khăn trong bài toán đánh giá với số chiều d của không gian, theo nguyên tắc, sẽ tăng theo hàm mũ với số mẫu của các đặc tính của không gian. Việc này bao gồm một bài toán trên việc ánh xạ bài toán tới một không gian đặc trưng đa chiều cao cho các mục đích học. Tuy nhiên, học thuyết học thống kê đã chỉ ra rằng học trong F có thể đơn giản hơn nếu sử dụng độ phức tạp thấp hơn (như bộ phân loại tuyến tính), được phát biểu rằng, với các mục đích học, nó liên quan hơn với độ phức tạp của ^ ] Luận văn Thạc sỹ 42 Support Vector Machine lớp hàm số mà tăng số chiều của không gian đặc trưng. Xem xét một tình huống 2 chiều khi các mặt quyết định không tuyến tính cần để phân tách các lớp, trong một không gian đặc trưng của đơn thức thứ hai: φ: R2 → R3 (x1, x2) a (z1, z2, z3) : = (x 21 , 2 x1x2, x 22 ). Do đó, trong R3, một siêu phẳng tuyến tính có thể phân tách chính xác các tình huống, xem Hình 2.5 về minh hoạ của ý tưởng này. Ở đây việc tính toán một tích trong vô hướng giữa 2 vector không gian đặc trưng có thể công thức ho._. tham số đã được định nghĩa trước trong lexer. Các tham số gồm các định nghĩa về các ký ^ ] Luận văn Thạc sỹ 77 Support Vector Machine từ mà phân tách các tokens như dấu cách, và để chuyển đổi văn bản tới chữ hoa hoặc để đó trong chế độ hỗn hợp. Indexing Engine – Đánh chỉ số Indexing engine tạo một index đảo mà ánh xạ các chuỗi vào tài liệu mà chứa chúng. Trong truờng hợp này Oracle Text sử dụng từ dừng (stoplist) đã xác định để loại từ các từ dừng khỏi index. Oracle Text cũng sử dụng các tham số xác định trước trong danh sách các WORDLIST, dùng để hệ thống biết làm thế nào để tạo một index tiền tố hoặc index chuỗi con, nếu có thể. 4.2.2.4. Thiết lập tham số huấn luyện với SVM trong Oracle SVM_CLASSIFIER là một đối tượng mới cho bộ phân loại thực hiện phân loại SVM. Với các bộ phân loại hiện nay, RULE_CLASSIFIER, xây dựng các cât quyết định và người dung đưa vào bảng nguyên tắc các câu truy vấn có thể kiểm soát được. SVM_CLASSIFIER thì thực hiện một mô hình thống kê phức tạp với các nguyên tắc mà người dùng không thể đọc được. Tuy nhiên phương pháp sử dụng SVM_CLASSIFIER cũng gần giống với RULE_CLASSIFIER. Để sử dụng SVM_CLASSIFIER, đầu tiên tạo một tham chiếu tới bộ phân loại EXEC ctx_ddl.create_preference('mysvm',’SVM_CLASSIFIER '); Người dùng có thể thiết lập các thuộc tính để làm thay đổi việc huấn luyện, các tham số dùng với SVM_CLASSIFIER chúng tôi sẽ liệt kê phía dưới. Tiếp theo, chúng ta thực hiện huấn luyện với một API huấn luyện đơn giản: PROCEDURE Train ( index_name in varchar2, -- tên của chỉ số đã tạo trong bước 3 docid in varchar2, -- tên của cột docID cattab in varchar2, -- tên của bảng phân loại sẵn tạo trong bước 2 catdocid in varchar2, -- tên cột docID trong bảng phân loại ^ ] Luận văn Thạc sỹ 78 Support Vector Machine catid in varchar2, -- tên của cột mã phân loại trong bảng phân loại restab in varchar2, -- tên bảng kết quả preference in varchar2 -- tên tham chiếu tới bộ phân loại tạo ở bước trên ); Ví dụ: EXEC ctx_cls.train ('myindex', 'did', 'cat_tab', 'did', 'cid', 'svmtab', 'mysvm'); Giống như bộ phân loại RULE, bộ phân loại SVM tạo ra một bảng các nguyên tắc. Tuy nhiêu cấu trúc của bảng nguyên tắc khác với bộ phân loại: create table svmtab (cat_id number, type number, rule blob); Mặc dù các nguyên tắc là BLOB không kiểm soát được, người dùng vẫn có thể tạo một chỉ số CTXRULE trên bảng nguyên tắc để phân chia các tài liệu. Tuy nhiên người dùng phải cung cấp các tham chiếu tới bộ phân loại trong kh tạo chỉ số CTXRULE: CREATE INDEX svmx on svmtab(rule) indextype is ctxsys.ctxrule parameters ('classifier mysvm'); Tên thuộc tính Kiểu dữ liệu Giá trị mặc định Giá trị thấp nhất Giá trị cao nhất Ghi chú MAX_DOCTERMS Integer 50 10 8192 Xác định số tối đa các từ biểu diễn một tài liệu MAX_FEATURES Integer 3,000 1 100,000 Xác định tối đá số các đặc trưng THEME_ON Boolean FALSE NULL NULL TRUE: để sử dụng thêm như các đặc ^ ] Luận văn Thạc sỹ 79 Support Vector Machine trưng. Phân loại với các themes yêu cầu đã có trong một cơ sở tri thức. Một cơ sở tri thức có thể có thế được cài đặt hoặc chưa với Oracle Text. TOKEN_ON Boolean TRUE NULL NULL TRUE: sử dụng các token lặp như các đặc trưng STEM_ON Boolean FALSE NULL NULL TRUE: sử dụng các token lấy gốc như các đặc trưng. Chỉ làm việc khi tuning INDEX_STEM trên lexer. MEMORY_SIZE Integer 500 10 4000 Xác định độ lớn bộ nhớ tương đối (tính theo MB). SECTION_WEIGHT Integer 2 0 100 Xác định các bộ nhân xuất hiện để thêm một thuật ngữ vào một trường như một thuật ngữ thông thường. Bảng 4.1. Bảng các thuộc tính của SVM_CLASSIFIER ^ ] Luận văn Thạc sỹ 80 Support Vector Machine 4.2.3. Phương pháp đánh giá Các giải thuật cần được kiểm thử để đánh giá độ chính xác về sự dự đoán của chúng; khi kiểm thử chúng ta sử dụng dụng dữ liệu với các kết quả đã biết trước và so sánh với các giá trị được dự đoán của giải thuật. Các kết quả kiểm thử được tính toán theo các độ đo. Các ứng dụng của Oracle thường kiểm tra kết quả phân loại với các độ đo: - Confusion matrix (Ma trận giá trị) - Lift (bậc thang) Trong thử nghiệm này tác giả sử dụng độ đo Confusion matrix. Một mô hình thu được qua quá trình khai phá dữ liệu sử dụng các kỹ thuật học – suy luận khác nhau có thể được đánh giá sử dụng các tham số chuẩn như một độ đo hiệu suất thực hiện của nó. Giá trị này biểu thị một giá trị gần đúng của tỷ lệ lỗi đúng, một tham số được định nghĩa trong lý thuyết học thống kê. Tỷ lệ lỗi được tính sử dụng một tập dữ liệu kiểm thử thu được qua một trong các kỹ thuật lấy mẫu lại được áp dụng. Hơn nữa để đo tính chính xác theo tỷ lệ lỗi, các mô hình khai phá dữ liệu có thể được so sánh với tốc độ, độ tinh chỉnh dữ liệu, tính co giãn, và tính biểu thị và tất cả các thám số đó có thể có một ảnh hưởng tới sự thẩm định và xác thực của mô hình. Trong luận văn này, tác giả sử dụng tham số tỷ lệ lỗi với bài toán phân loại dữ liệu; tương tự như các cách tiếp cận và phân phân tích có thể cho với các bài toán khai phá dữ liệu khác. Sự tính toán tỷ lệ lỗi dựa trên việc đếm số lỗi trong quá trình kiểm thử. Các lỗi với bài toán phân loại, đơn giản định nghĩa trên sự phân loại sai. Nếu tât cả các lỗi đều quan trọng như nhau, một tỷ lệ lỗi R là số lỗi E chia số số mẫu S trong tập kiểm tra. R = E / S ^ ] Luận văn Thạc sỹ 81 Support Vector Machine Độ chính xác A của một một mô hình là một phần của tập dữ liệu kiểm được phân loại chính xác và được tính như sau: A= 1- R = (S - E) / S Với các bài toán phân loại chuẩn, có thể có m2 –m kiểu lỗi, với m là số phân loại. nếu phân loại 2 lớp, có thể có 2 kiểu lỗi 1. Nếu giá trị thực là T, nhưng phân loại là F: có các lỗi âm và 2. Nếu giá trị thực là F, nhưng được phân loại là T: có các lỗi dương Nếu có hơn 2 lớp, các kiểu lỗi có thể được tổng hợp trong một ma trận các giá trị (confusion matrix). Với số phân loại là m=3, có 6 kiểu lỗi (m2 − m = 32 − 3 = 6) Confusion Matrix Confusion Matrix cung cấp tính chính xác mô hình và các loại lỗi của mô hình khi ghi điểm dữ liệu. Đó là kết quả của nhiệm vụ kiểm thử với mô hình phân lớp. Các chỉ số hàng ứng với giá trị thực sự và được dùng xây dựng mô hình, chỉ số cột tương ứng với các giá trị dự đoán được áp dụng mô hình. Dự đoán Thực Mua Không mua Mua 516 25 Không mua 10 725 Ma trận trên thể hiện mô hình dự đoán đúng 516 khách hàng mua và 725 khách hàng không mua. Mô hình dự đoán sai 10 người mua - thực sự không mua, sai 25 người không mua thực sự có mua. Tỷ lệ dự đoán đúng là 1241/1276; sai là 35/1276. ^ ] Luận văn Thạc sỹ 82 Support Vector Machine CHƯƠNG 5. TIẾN HÀNH THỬ NGHIỆM 5.1. Chuẩn bị dữ liệu Bộ dữ liệu Reuters-21578 được hoàn thiện bởi David Lewis và được lựa chọn bắt nguồn từ tập đoàn Carnegie từ mạng lưới Reuter năm 1997. Chúng tôi sử dụng các phân chia Apte, gồm 9603 tài liệu huấn luyện và 3299 tài liệu kiểm thử. Có thể có 135 phân loại, nhưng chỉ 90 trong số chúng là xuất hiện trong cả tập huấn luyện và tài liệu test. Bộ dữ liệu này có bộ từ vựng hạn chế: tập huấn luyện chỉ chứa 27658 thuật ngữ tách biệt. Bài toán phân loại là gán các bài báo tới tâp các chủ đề. Với nhiều phân loại có sự tương ứng trực tiếp giữa các từ và bản thân chúng. Trong phần thử nghiệm này, tôi đã sử dụng kiểm thử dữ liệu với 5 phân loại có số lượng tài liệu huấn luyện và kiểm thử lớn nhất. Phân loại Số tài liệu huấn luyện Số tài liệu kiểm thử Earn 2877 1087 Acq 1650 719 money_fx 538 179 Grain 433 149 Crude 389 189 Bảng 5.1. Bảng dữ liệu thử nghiệm đã phân loại Ban đầu dữ liệu nằm ngoài các file văn bản lưu trữ ở các thư mục của hệ điều hành, tác giả đã xây dựng một thủ tục để đưa các dữ liệu này vào trong CSDL Oracle. Dữ liệu của 5 phân loại lớn nhất này được lưu trong các bảng: ^ ] Luận văn Thạc sỹ 83 Support Vector Machine Training_Top5: lưu dữ liệu huấn luyện Test_Top5: lưu dữ liệu kiểm thử đã được phân loại sẵn để có thể đo độ chính xác của tài liệu 5.2. Kiểm thử với Oracle 10g Như trên đã đề cập, kết quả phân loại văn bản Oracle chỉ có thể thay đổi bằng 2 cách: chuẩn bị dữ liệu và thay đổi các tham số huấn luyện văn bản; trong các tham số huấn luyện với thuật toán SVM trong Oracle Text, để thay đổi kernel function, sử dụng thuộc tính MAX_FEATURE đối với kiểu huấn luyện là SVM_PREFERENCES: - Nếu MAX_FEATURE <=100: hàm tuyến tính - Nếu MAX_FEATURE >100: hàm Gaussian Việc thiết lập cấu hình này là tối ưu, do Oracle đã tính toán tối ưu để tìm ra siêu phẳng phù hợp. Trong luận văn này tác giả thực nghiệm với 3 lần với cùng một bộ dữ liệu nhưng với các tham số khác nhau: - Lần 1: MAX_FEATURES=100, sử dụng danh sách từ dừng mặc định của Oracle gồm 114 từ dừng - Lần 2: tăng số đặc trưng MAX_FEATURES=1000 và giữ nguyên danh sách từ dừng như lần 1 - Lần 3: giữ nguyên số đặc trưng như lần 2, MAX_FEATURES=1000 và sử dụng một danh sách từ dừng với số từ dừng là 509 từ dừng tiếng Anh 5.2.1. Thử nghiệm lần 1 Các bước thực hiện trong lần thử nghiệm 1 với MAX_FEATURE=100 Bước 1: Tạo bảng huấn luyên và đưa dữ liệu vào bảng: CREATE TABLE Training_5 ( ^ ] Luận văn Thạc sỹ 84 Support Vector Machine ID NUMBER Primary key, Doc_Text CLOB); INSERT INTO Training_5 (ID, Doc_Text) SELECT TO_NUMBER(a.Doc_ID), a.Docs FROM Training_Top5 a WHERE ID= (SELECT ID FROM Training_Top5 b WHERE b.Doc_ID = a.Doc_ID and rownum=1); kết quả có 5837 dòng trong bảng Training_5 Bước 2: Tạo bảng và đưa dữ liệu huấn luyện đã được phân loại sẵn CREATE TABLE Category_Training ( Doc_ID NUMBER, Cat_ID NUMBER, Cat_Name VARCHAR2(100), PRIMARY KEY (Cat_id, Doc_ID)); INSERT INTO Category_Training (Doc_ID , Cat_ID, Cat_Name) SELECT TO_NUMBER(Doc_ID),Cat_ID, Cat_Came FROM Training_Top5; kết quả có 5887 dòng dữ liệu trong bảng Category_Training Bước 3: Tạo chỉ số CONTEXT trên bảng huấn luyện. Oracle Text hỗ trợ kiểu phân loại với SVM thì phải thực hiện đánh chỉ số với tham số cho chỉ số là NONPOPULATE CREATE INDEX Reuter_5_Index ON Training_5(Doc_Text) INDEXTYPE IS CTXSYS.CONTEXT PARAMETERS(‘NONPOPULATE’); ^ ] Luận văn Thạc sỹ 85 Support Vector Machine Bước 4: Thiết lập kiểu tham chiếu tới giải thuật SVM và thay đổi các tham số thực hiện tương ứng. Việc thiết lập này sẽ được sử dụng trong thủ tục huấn luyện Oracle hỗ trợ EXEC CTX_DDL.CREATE_PREFERENCE( ‘Reuter_5_Classifier’, 'SVM_CLASSIFIER'); EXEC CTX_DDL.SET_ATTRIBUTE ('Reuter_5_Classifier', 'MAX_FEATURES','100'); Bước 5: Tạo bảng để lưu nguyên tắc (rule) của từng phân loại. Bảng này được sinh ra trong quá trình huấn luyện. CREATE TABLE Result_5_Table ( Cat_ID NUMBER, Type NUMBER(3) NOT NULL, Rule BLOB); Bước 6: Tiến hành huấn luyện dữ liệu với các bảng đã chuẩn bị dữ liệu và các tham số đã được thiết lập EXEC CTX_CLS.TRAIN ( 'Reuter_5_Index', 'ID', 'Category_Training', 'Doc_ID', 'Cat_ID', 'Result_5_Table', 'Reuter_5_Classifier'); Bước 7: Tạo chỉ số CTXRULE trên bảng lưu nguyên tắc phân loại được sinh ra trong quá trình phân loại ^ ] Luận văn Thạc sỹ 86 Support Vector Machine EXEC CTX_DDL.CREATE_PREFERENCE( 'Reuter_5_Filter', 'NULL_FILTER'); CREATE INDEX Restabx_Docs ON Result_5_Table(Rule) INDEXTYPE IS CTXSYS.CTXRULE PARAMETER ('FILTER Reuter_5_Filter CLASSIFIER Reuter_5_Classifier'); Bước 8: Thực hiện kiểm thử dữ liệu với bảng nguyên tắc đã được sinh ra sau quá trình huấn luyện - Tạo bảng và đưa nội dung các tài liệu không giống nhau để chuẩn bị kiểm thử mô hình đã được huấn luyện ở trên. CREATE TABLE Testing_5 AS SELECT TO_NUMBER(Doc_ID) Doc_ID, Docs FROM Test_Top5 a WHERE ID = (SELECT ID FROM Test_Top5 b WHERE b.Doc_ID = a.Doc_ID and rownum=1); Kết quả trong bảng Testing_5 có 2310 tài liệu khác nhau để kiểm thử. - Thực hiện thử nghiệm phân loại các ứng với các nguyên tắc theo phân loại đã được huấn luyện ở trên bằng cách sử dụng toán tử MATCHES CREATE TABLE Test_5 AS SELECT Result_5_Table.Cat_ID, MATCH_SCORE(1) Score, Testing_5.Doc_ID FROM Result_5_Table, Testing_5 WHERE ^ ] Luận văn Thạc sỹ 87 Support Vector Machine MATCHES(Result_5_Rable.Rule, Testing_5.Docs,1) > 0; kết quả trong bảng Test_5 có 8461 dòng, với mỗi tài liệu cần phân loại có thể có thể có trong nhiều phân loại khác nhau. Việc một tài liệu có nhiều phân loại khác nhau như vậy là do khi tính điểm tương tự giữa các tài liệu kiểm với các nguyên tắc phân loại, tác giả đã lấy tất cả chỉ cần có điểm lớn 0 có nghĩa là có sự tương ứng về đặc trưng. - Để loại bớt các phân loại thừa, trong số các phân loại của một tài liệu tác giả chỉ lấy tài liệu có điểm cao nhất CREATE TABLE Highest_Score AS SELECT DISTINCT a.Doc_ID, a.Cat_ID, a.Score FROM Test_5 a, (SELECT Doc_ID, MAX(Score) Score FROM Test_5 GROUP BY Doc_ID ) b WHERE a.Doc_ID = b.Doc_ID and a.Score =b.Score; kết quả trong bảng Highest_Score có 2313 dòng và ít nhất một tài liệu trong tập kiểm thử sẽ nằm trong 1 phân loại, trong bảng này có 3 cặp tài liệu – phân loại (1 tài liệu thuộc 2 phân loại) có điểm bằng nhau. 5.2.2. Thử nghiệm lần 2 Các bước thực hiện trong lần thử nghiệm 2 với MAX_FEATURE =1000 tương tự như tất cả bước trong lần kiểm thử 1 nhưng tại bước 4, ta thiết lập tham số có mô hình phân loại EXEC CTX_DDL.CREATE_PREFERENCE( ‘Reuter_5_Classifier’, 'SVM_CLASSIFIER'); EXEC CTX_DDL.SET_ATTRIBUTE ('Reuter_5_Classifier', ^ ] Luận văn Thạc sỹ 88 Support Vector Machine 'MAX_FEATURES','1000'); --chỉ thực hiện thay đổi với chữ màu xanh Kết quả dữ liệu trong các bảng: - Các bảng Training_5, Category_Training , Testing_5 và Testing_Top5 đều giống nhau trong tất cả các lần thử nghiệm do sử dụng chung một tập dữ liệu huấn luyện và kiểm thử. - Bảng Test_5 có 11436 dòng, bảng Highest_Score có 2314 (có 4 cặp tài liệu - phân loại có điểm bằng nhau) 5.2.3. Thử nghiệm lần 3 Thực hiện thử nghiệm với MAX_FEATURE =1000 và sử dụng một bảng từ dừng tiếng Anh khác với 509 từ dừng (Phụ lục 1). Bước đầu tiên là đưa bảng danh sách từ dừng tiếng Anh mới vào vào trong bảng từ dừng của Oracle, sử dụng một số thủ tục dựng sẵn để dưa danh sách từ dừng vào trong CSDL. Các bước thực hiện tương tự các bước giống lần 2 nhưng tại bước 3, sử dụng danh sách từ dừng trong việc đánh chỉ số cho nội dung văn bản, như sau: CREATE INDEX Reuter_5_Index ON Training_5(Doc_Text) INDEXTYPE IS CTXSYS.CONTEXT PARAMETERS(‘STOPLIST SVM.English_Stoplist1 NONPOPULATE’); - Tiếp theo tại bước 7, chúng ta cũng thêm đối số về danh sách từ dừng mới với bảng lưu các nguyên tắc phân loại. CREATE INDEX Restabx_Docs ON Result_5_Table(Rule) INDEXTYPE IS CTXSYS.CTXRULE PARAMETER (' STOPLIST SVM.English_Stoplist1 FILTER Reuter_5_Filter ^ ] Luận văn Thạc sỹ 89 Support Vector Machine CLASSIFIER Reuter_5_Classifier'); - Kết quả của các bảng dữ liệu phân loại kiểm thử như sau: Bảng Test_5 có 11438 dòng, bảng Highest_Score có 2311 (chỉ có 1 cặp tài liệu - phân loại có điểm bằng nhau) 5.2.4. Kết quả 3 lần thử nghiệm Tất cả các kết quả thử nghiệm đều lấy từ các phân loại có điểm cao nhất với mỗi tài liệu trong tập kiểm thử của cả 3 lần thử nghiệm. Lần 1: MAX_FEATURE =100 Earn Acq Money_fx Grain Crude Tổng số Earn 1071 12 0 1 3 1087 Acq 34 653 6 14 14 721 Money_fx 2 24 132 19 2 179 Grain 7 11 10 116 4 148 Crude 4 15 2 9 162 192 Tổng số 1118 715 150 159 185 2327 Bảng 5.2. Bảng kết quả thử nghiệm lần 1 Từ bảng trên tính được: Số lỗi là E = 193, tổng số mẫu: 2327 Vậy tỷ lệ lỗi: R = E / S = 193/2327 = 0.083 Độ chính xác A: A= 1- R = (S - E) / S =0.917 Lần 2: Max feature =1000 (tăng số đặc trưng) Earn Acq Money_fx Grain Crude Tổng số Earn 1076 10 0 0 1 1087 Acq 18 692 1 1 9 721 Money_fx 1 4 174 0 1 180 Grain 3 3 1 142 1 150 ^ ] Luận văn Thạc sỹ 90 Support Vector Machine Crude 2 5 1 0 181 189 Tổng số 1100 714 177 143 193 2327 Bảng 5.3. Bảng kết quả thử nghiệm lần 2 Số lỗi E = 62, tổng số mẫu: 2327 Vậy tỷ lệ lỗi: R = E / S = 193/2327 = 0.029 Độ chính xác A: A= 1- R = (S - E) / S =0.971 Lần 3: dùng bảng từ dừng với: 509 và MAX_FEATURE=1000 Earn Acq Money_fx Grain Crude Tổng số Earn 1074 11 1 0 1 1087 Acq 15 696 1 1 7 720 Money_fx 1 3 175 0 0 179 Grain 2 1 3 142 1 149 Crude 3 6 2 0 178 189 Tổng số 1095 717 182 143 187 2324 Bảng 5.4. Bảng kết quả thử nghiệm lần 3 Số lỗi E = 56, tổng số mẫu: 2324 Vậy tỷ lệ lỗi: R = E / S = 193/2327 = 0.024 Độ chính xác A: A= 1- R = (S - E) / S =0.976 Tổng hợp: Đưa kết quả vào một bảng ta có: Tham số Số đặc trưng Từ dừng Tỷ lệ lỗi Chính xác 100 114 0.083 0.917 1000 114 0.029 0.971 1000 509 0.024 0.976 Bảng 5.5. Bảng tổng hợp kết quả thử nghiệm qua 3 lần ^ ] Luận văn Thạc sỹ 91 Support Vector Machine Một số nhận xét về phương pháp SVM trong Oracle: SVM trong Oracle sử dụng phương pháp phân tích thống kê văn bản tập các tài liệu và các tương quan của chúng với các nhóm theo nội dung. Ưu điểm: - Không cần cung cấp các nguyên tắc phân loại hoặc các tài liệu mẫu trong 1 tập huấn luyện - Trợ giúp việc phát hiện các mẫu và tính tương tự nội dung trong tập tài liệu mà các tài liệu có thể bị bỏ sót - Thực tế, có thể sử dụng phân loại không kiểm soát khi không có một ý tưởng về các nguyên tắc hoặc phân loại. Một kịch bản có thể là sử dụng phân loại học không kiểm soát để cung cấp các tập phân loại ban đầu và sau đó sử dụng trong phân loại có kiểm soát. Nhược điểm: - Phân nhóm có thể có kết quả trong các nhóm không mong muốn khi hành động phân nhóm không được định nghĩa, nhưng dựa trên một giải thuật bên trong - Không thấy các nguyên tắc để tạo các phân loại - Hành động phân loại là cần nhiều CPU và ít nhất là bằng thời gian đánh chỉ số. ^ ] Luận văn Thạc sỹ 92 Support Vector Machine KẾT LUẬN Trong luận văn chúng tôi đã trình bày các khái niệm và các bước cơ bản để xây dựng được hệ thống phân loại văn bản. Chúng tôi cũng đâ tập trung tìm hiểu sâu hơn một phương pháp phân loại mà được các nhà chuyên môn đánh giá cao là Support Vector Machines. Chúng tôi đã tìm hiểu về cơ sở lý thuyết, nội dung cách tiếp cận, các vấn đề về phân tách tuyến tính, không tuyến tính khi sử dụng SVM. Cách tiếp cận SVM trong phân loại đang được rất quan tâm vì độ chính xác cũng như cách giải quyết với các vấn đề đa lớp, đa nhãn khi phân loại. Các cách tiếp cận với phân loại văn bản thường có suy nghĩ là các văn bản là các file văn bản như Mircosoft Word hay các trang điện tử, nhưng đó chỉ là một phần thông tin trong thời kỳ mà dữ liệu có ở mọi nơi, và một nơi lưu trữ rất văn bản và các dữ liệu phi cấu trúc được lưu trong các CSDL về một lĩnh vực nào đó. Hãng CSDL hàng đầu hiện nay, Oracle, đã thực hiện hỗ trợ phân loại văn bản bằng phương pháp SVM đối với các văn bản được lưu dưới dạng file hệ thống, đường dẫn liên kết tới các trang WEB hay chính nội dung các văn bản đã được lưu trong CSDL. Các văn bản được lưu trong CSDL Oracle trong các trường có kiểu dữ liệu là CLOB, BLOB hoặc VARCHAR. Với việc sử dụng SVM trong Oracle, người dùng có thể thực hiện phân loại với một tài liệu có thể thuộc nhiều hơn một phân loại và một phân loạicũng có thể có nhiều tài liệu; đây chính là vấn đề đa lớp – đa nhãn chúng tôi đã đề cập ở trên. Luận văn mới chỉ dừng lại ở phần lý thuyết và thực hiện thử nghiệm với phân loại tiếng Anh trong CSDL. Dữ liệu thực nghiệm chúng tôi đã sử dụng bộ dữ liệu Reuter-21578 với cách phân loại của Mode Aprit với chuyên dùng để kiểm thử các phương pháp phân loại và đo chính xác của chúng. Bộ ^ ] Luận văn Thạc sỹ 93 Support Vector Machine dữ liệu này gồm 9603 tài liệu huấn luyện và 3299 tài liệu kiểm thử được chia sẵn vào 90 phân loại cho trước. Và để dễ theo dõi kết quả kiểm thử, chúng tôi sử dụng 5 bộ phân loại có số dữ liệu huấn luyện và kiểm thử lớn nhất để kiểm thử kết quả. Chúng tôi đã thử nghiệm 5 phân loại này với các cách thiết lập tham số khác nhau trong Oracle. Qua thử nghiệm chúng tôi đã thu được các kết quả khả quan với phương pháp phân loại SVM đã được tích hợp trong Oracle 10g. (tham khảo chương 5, mục 5.2.4 để xem các kết quả của 3 lần thực nghiệm phân loại. Các kết quả đã đạt được trong luận văn: 9 Trình bày tổng quan về khai phá văn bản, các bước thực hiện phân loại văn bản. 9 Tìm hiểu cơ sở lý thuyết của phương pháp SVM, nêu ra các vấn đề về phân tách đa lớp đa nhãn, phân tích các ưu điểm của phương pháp phân loại văn bản SVM. 9 Tìm hiểu cách thực hiện phân loại bằng phương pháp bên trong Oracle 10g với các văn bản được đưa trong CSDL Oracle với các bộ dữ liệu đa lớp và đa nhãn. 9 Thực hiện thử nghiệm trên Oracle và đánh giá kết quả sau 3 lần thử nghiệm. Các định hướng phát triển tiếp theo của luận văn: 9 Tìm hiểu, nghiên cứu khai thác rộng và sâu hơn các tri thức về lý thuyết khai phá văn bản đặc biệt là lĩnh vực KDD để có thể vận dụng vào thực tiễn chính xác hơn. 9 Thử nghiệm và đánh giá kỹ hơn với các dữ liệu thuộc các lĩnh vực khác nhau. ^ ] Luận văn Thạc sỹ 94 Support Vector Machine 9 Tìm hiểu thêm về các phương pháp đánh giá kết quả khác để đưa ra đánh giá khách quan trong việc sử dụng các phương pháp phân loại văn bản. 9 Kết hợp với các chuyên gia ngôn ngữ tiếng Việt, đồng thời tìm hiểu thêm về các cách thức phân loại với ngôn ngữ tự nhiên khác tiếng Anh để có thể áp dụng phân loại văn bản bằng phương pháp SVM trong CSDL Oracle một cách hiệu quả hơn, đặc biệt là với các văn bản tiếng Việt của chúng ta. ^ ] Luận văn Thạc sỹ 95 Support Vector Machine TÀI LIỆU THAM KHẢO Tiếng Việt 1. Nguyễn Linh Giang, Nguyễn Mạnh Hiền (2004), Phân loại văn bản tiếng Việt với bộ phân loại vector hỗ trợ, Bài báo khoa học, Hà nội. 2. Nguyễn Thị Kim Ngân (2004), Phân loại văn bản tiếng Việt bằng phương pháp Support Vector Machines, Luận văn thạc sĩ khoa học Công nghệ thông tin, trường Đại học Bách Khoa Hà nội, Hà nội. Tiếng Anh 3. Filippo Portera (4/2005), Loss Functions and Structured Domains for Support Vector Machines, Technique Report UBLCS-2005-08, Departement of Computer Science University of Bologna, Bologna (Italy). 4. Oracle (6/2005), Oracle® Text Application Developer's Guide 10g Release 2(10.2), Technique paper. 5. Oracle (6/2005), Oracle® Text Reference 10g Release 2(10.2), Technique paper. 6. Oracle (6/2005), Oracle® Data mining Concepts 10g Release 2(10.2), Technique paper. 7. Brian C. Lovell and Christian J Walder, Support Vector Machines for Business Applications, The University of Queensland and Max Planck Institute, Tübingen. 8. Thorsten Joachims, Text Categorization with Support Vector Machines: Learning with Many Relevant Features, University at Dortmund Informatik LS8, Baroper Str. 301 44221 Dortmund, Germany. 9. Kurt Maly, Mohammad Zubair, Hesham Anan, An Automated Classification System and Associated Digital Library Services, ^ ] Luận văn Thạc sỹ 96 Support Vector Machine Department of Computer Science, Old Dominion University, Norfolk, VA 23529, USA. 10. Boriana L. Milenova, SVM in Oracle Database 10g: Removing the Barriers to Widespread Adoption of Support Vector Machines, Data Mining Technologies Oracle . 11. Steve R. Gunn (10 May 1998), Support Vector Machines for Classification and Regression, Technical Report, Faculty of Engineering, Science and Mathematics School of Electronics and Computer Science, University of Southamton, English. 12. Oracle, Oracle Text 9.2.0 Technical Feature Review, 13. Oracle, Oracle Text 10g Technical Overview, ml. 14. Ken Williams (March 18, 2003), A Framework for Text Categorization, Master of Engineering (Research),School of Electrical and Information Engineering The University of Sydney, Australia. 15. Vladimir N. Vapnik (1999), The Nature of Statistical Learning Theory Second Edition, Springer. 16. Mehmed Kantardzic (2003), Data Mining: Concepts, Models, Methods, and Algorithms, John Wiley & Sons. Dữ liệu thử nghiệm 17. C.J. van Rijsbergen, Some Examples of Stoplist, SMART, English Stoplist 18. Aptè split, Aptè split 90 categories, Reuters-21578 collection Aptè split. ^ ] Luận văn Thạc sỹ 97 Support Vector Machine Phụ lục 1 DANH SÁCH TỪ DỪNG TIẾNG ANH cannot given least p thank a's cant gives less particular thanks able cause go lest particularly thanx about causes goes let per that above certain going let's perhaps that's according certainly gone like placed thats accordingly changes got liked please the across clearly gotten likely plus their actually co greetings little possible theirs after com h look presumably them afterwards come had looking probably themselves again comes hadn't looks provides then against concerning happens ltd q thence ain't consequently hardly m que there all consider has mainly quite there's allow considering hasn't many qv thereafter allows contain have may r thereby almost containing haven't maybe rather therefore alone contains having me rd therein along corresponding he mean re theres already could he's meanwhile really thereupon also couldn't hello merely reasonably these although course help might regarding they always currently hence more regardless they'd am d her moreover regards they'll among definitely here most relatively they're amongst described here's mostly respectively they've an despite hereafter much right think and did hereby must ssaid third another didn't herein my same this any different hereupon myself saw thorough anybody do hers n say thoroughly anyhow does herself name saying those anyone doesn't hi namely says though anything doing himhimself nd second three anyway don't his near secondly through anyways done hither nearly see throughout anywhere down hopefully necessary seeing thru apart downwards how need seem thus appear during howbeit needs seemed to appreciate e however neither seeming together ^ ] Luận văn Thạc sỹ 98 Support Vector Machine appropriate each i never seems too are edu i'd nevertheless seen took aren't eg i'll new self toward around eight i'm next selves towards as either i've nineno sensible tried aside else ie nobody sent tries ask elsewhere if non serious truly asking enough ignored none seriously try associated entirely immediate noone seven trying at especially in nor several twice available et inasmuch normally shall two away etc inc not she u awfully even indeed nothing should un b ever indicate novel shouldn't under be every indicated now since unfortunately became everybody indicates nowhere six unless because everyone inner o so unlikely become everything insofar obviously some until becomes everywhere instead of somebody unto becoming ex into off somehow up been exactly inward often someone upon before example is oh something us beforehand except isn't ok sometime use behind f it okay sometimes used being far it'd old somewhat useful believe few it'll on somewhere uses below fifth it's once soon using beside first its one sorry usually besides five itself ones specified uucp best followed j only specify v better following just onto specifying value between follows k or still various beyond for keep other sub very both former keeps others such via brief formerly kept otherwise sup viz but forth know ought sure vs by four knows our t w c from known ours t's want c'mon further l ourselves take wants c's furthermore last out taken was came g lately outside tell wasn't can get later over tends way can't gets latter overall th we getting latterly own than we'd we'll ^ ] Luận văn Thạc sỹ 99 Support Vector Machine TÓM TẮT LUẬN VĂN Mục tiêu chính của luận văn là tìm hiểu lĩnh vực khai phá văn bản, trong đó tập trung nghiên cứu lý thuyết và thử nghiệm trên bộ dữ liệu có sẵn các ứng dụng phân loại văn bản bằng phương pháp Support Vector Machines. Trong phần lý thuyết, tác giả đã giới thiệu tổng quan về khai phá văn bản, các dạng bài toán trong lĩnh vực khai phá văn bản trong hai phần đầu của chương 1, và đề cập tới khai phá tri thức trong CSDL. Trong hai phần cuối của chương 1, tác giả trình bày cụ thể về lý thuyết của bài toán phân loại văn bản và các bước thực hiện để phân loại văn bản. Chương 2 thể hiện nội dung lý thuyết của phương pháp SVM, cách thực hiện SVM với các trường hợp phân tách tuyến tính và không tuyến tích; chương 2 cũng giới thiệu một số hàm kernel hiện nay đang được sử dụng đồng thời cũng nêu ra các vấn đề khi thực hiện phân tách dữ liệu bằng phương pháp SVM với vấn đề về đa lớp, đa nhãn và luận văn cũng chỉ ra làm thể nào để có thể tìm được siêu phẳng tối ưu. Phần phân loại văn bản với phương pháp SVM và lý do vì sao SVM được đánh giá cao trong phân loại văn bản được trình bày trong Chương 3. Trong phần thực nghiệm, tác giả đã lựa chọn Oracle 10g phiên bản 2 là môi trường thử nghiệm và Oracle Text là công cụ để thực hiện. Yếu tố để tác giả lựa chọn Oracle Text để thực hiện thử nghiệm là dữ liệu huấn luyện và kiểm thử có thể ở trong CSDL hoặc bên ngoài CSDL, có thể là phi cấu trúc hoặc có cấu trúc. Dữ liệu thử nghiệm được lựa chọn thử nghiệm là bộ dữ liệu Reuter-21578, gồm 90 phân loại được dựng sẵn. Chương 4, tác giả tập trung tìm hiểu và trình bày mô hình hoạt động để thực hiện phân loại văn bản bằng phương pháp SVM trong Oracle, và phần cuối cùng Chương 5 là kết quả của 3 lần thử nghiệm với các đối số khác nhau và những kết luận đánh giá về cách thực hiện của SVM trong Oracle. Từ khoá: khai phá văn bản, phân loại văn bản, SVM, Oracle Text, CSDL. ._.

Các file đính kèm theo tài liệu này:

  • pdfLA3258.pdf
Tài liệu liên quan