Trí Tuệ Nhân Tạo. Nguyễn Nhật Quang. Viện Công nghệ Thông tin và Truyền thông Trường Đại học Bách Khoa Hà Nội

Similar documents
log23 (log 3)/(log 2) (ln 3)/(ln2) Attenuation = 10.log C = 2.B.log2M SNR db = 10.log10(SNR) = 10.log10 (db) C = B.log2(1+SNR) = B.

CHƯƠNG TRÌNH DỊCH BÀI 14: THUẬT TOÁN PHÂN TÍCH EARLEY

Đánh giá: ❶ Bài tập (Quiz, In-Class) : 20% - Quiz (15-30 phút): chiếm 80%; 5 bài chọn 4 max TB - In-Class : chiếm 20% ; gọi lên bảng TB

Bài 3: Mô phỏng Monte Carlo. Under construction.

PHÂN TÍCH DỮ LIỆU BẰNG PHẦN MỀM SPSS 12.0 * PHẦN 4

Các Phương Pháp Phân Tích Định Lượng

BÁO CÁO THỰC HÀNH KINH TẾ LƯỢNG

VÔ TUYẾN ĐIỆN ĐẠI CƯƠNG. TS. Ngô Văn Thanh Viện Vật Lý

5 Dùng R cho các phép tính đơn giản và ma trận

15 tháng 06 năm 2014.

Chapter#2 Tính chất của vật chất (Properties of Substances)

KHÁI niệm chữ ký số mù lần đầu được đề xuất bởi D. Chaum [1] vào năm 1983, đây là

TỐI ƯU HÓA ĐA MỤC TIÊU ỨNG DỤNG XÁC LẬP CHẾ ĐỘ CÔNG NGHỆ SẤY THĂNG HOA (STH) TÔM THẺ

Why does the motion of the Pioneer Satellite differ from theory?

Mục tiêu. Hiểu được. Tại sao cần phải định thời Các tiêu chí định thời Một số giải thuật định thời

Năm 2015 O A O OB O MA MB = NA

GIÁO TRÌNH Mô phỏng và mô hình hóa (Bản nháp) Trịnh Xuân Hoàng Viện Vật lý, Viện Hàn lâm KHCN VN Hà Nội 2015

PHÂN TÍCH T & CÂN BẰNG B

NGHIÊN CỨU TIÊU CHUẨN VÀ PHƯƠNG PHÁP TỐI ƯU CÔNG SUẤT PHÁT CỦA HỆ THỐNG ĐIỆN MẶT TRỜI NỐI LƯỚI: XÉT CHO TRƯỜNG HỢP LƯỚI ĐIỆN HẠ THẾ 1 PHA

Nguồn điện một chiều E mắc trong mạch làm cho diode phân cực thuận. Gọi I D là dòng điện thuận chạy qua diode và V D là hiệu thế 2 đầu diode, ta có:

TÓM TẮT ĐỀ TÀI NGHIÊN CỨU

MÔN KINH TẾ LƯỢNG (Econometric)


PH NG PH P D¹Y HäC TÝCH CùC TRONG GI O DôC MÇM NON

NGUYỄN THỊ VIỆT HƢƠNG

sao cho a n 0 và lr(a n ) = Ra n X a n với X a n R R. Trong bài báo này, chúng Z r (R) (t.ư., Z l (R)).

HƯỚNG DẪN SỬ DỤNG PHẦN MỀM DIỆT VIRUS AVIRA

DỰ BÁO TƯỚNG THẠCH HỌC VÀ MÔI TRƯỜNG TRẦM TÍCH CHO ĐÁ CHỨA CARBONATE PHÍA NAM BỂ SÔNG HỒNG, VIỆT NAM

Mã khối không thời gian trực giao và điều chế lưới

KHI X L T SÔNG H NG VÀO SÔNG ÁY

NGUỒN THÔNG TIN MIỄN PHÍ TRÊN INTERNET : ĐÁNH GIÁ VÀ SỬ DỤNG DƯƠNG THÚY HƯƠNG Phòng Tham khảo Thư viện ĐH Khoa học Tự nhiên TP.

Ngô Nh Khoa và cs T p chí KHOA H C & CÔNG NGH 58(10): 35-40

TÍNH TOÁN ĐỊNH HƯỚNG CHẾ TẠO CẤU TRÚC UVLED CHO BƯỚC SÓNG PHÁT XẠ 330nm

CƠ SỞ VẬT LÝ HẠT NHÂN

SỞ GD & ĐT BẮC NINH ĐÊ TẬP HUẤN THI THPT QUỐC GIA NĂM Đề bài y x m 2 x 4. C. m 2. có bảng biến thiên như hình dưới đây:

LÝ LỊCH KHOA HỌC. CỘNG HOÀ XÃ HỘI CHỦ NGHĨA VIỆT NAM Độc lập - Tự do - Hạnh phúc BỘ Y TẾ TRƯỜNG ĐẠI HỌC DƯỢC HÀ NỘI. 1. Họ và tên: Vũ Đặng Hoàng

Đầu Nối Cáp T 630A 93-EE9X5-4-Exp-A-3/C Series Đầu Nối T : 24 kv 125 kv BIL Đáp ứng các tiêu chuẩn : IEC 502-4, VDE 0278 Hướng Dẫn Sử Dụng

PHÂN TÍCH PHÂN BỐ NHIỆT HYDRAT VÀ ỨNG SUẤT TRONG CẤU TRÚC BÊ TÔNG ĐỂ KIỂM SOÁT SỰ GÂY NỨT CỦA CÔNG TRÌNH BÊ TÔNG CỐT THÉP

Nhiễu và tương thích trường điện từ

Google Apps Premier Edition

hoctoancapba.com Kho đ ề thi THPT quốc gia, đ ề kiểm tra có đáp án, tài liệu ôn thi đại học môn toán

NHẬP MÔN HIỆN ĐẠI XÁC SUẤT & THỐNG KÊ

cách kết hợp thuật toán Fuzzy C-Means (FCM) với giải thuật di truyền (GA). Sau đó, HaT2-FLS

1. chapter G4 BA O CA O PHA T TRIÊ N BÊ N VƯ NG

THÔNG TIN LUẬN ÁN TIẾN SĨ

Hà Nội, ngày 22 tháng 1 năm 2012 (ngày Tất niên năm Nhâm Thìn) Đại diện nhóm biên soạn Chủ biên Hoàng Minh Quân Phan Đức Minh

Nguyễn Thị Huyền Trang*, Lê Thị Thủy Tiên Trường Đại học bách khoa, ĐHQG tp Hồ Chí Minh,

Trao đổi trực tuyến tại: l

Luâ t Chăm So c Sư c Kho e Mơ i va Medicare

Th vi n Trung Tâm HQG-HCM s u t m

ĐƠN KHIÊ U NA I/THAN PHIỀN CU A HÔ I VIÊN. Đi a chi Tha nh phô Tiê u bang Ma zip

Phạm Phú Anh Huy Khoa Xây dựng, Đặng Hồng Long- Khoa Xây dựng,

- Cài đặt hệ số CT: 1/5-999 KA. - Nguồn cấp: AC: 240V AC ±20%, (50 / 60Hz) - 110V AC ±20%, (50 / 60Hz) - Mạng kết nối: 1 pha 2 dây hoặc 3 pha 3/4 dây

ĐẠI HỌC QUỐC GIA HÀ NỘI TRƯỜNG ĐẠI HỌC KHOA HỌC TỰ NHIÊN NGUYỄN HÀ MY

BẢNG GIÁ THIẾT BỊ SELEC

NG S VIÊN TRONG CH M SÓC

SỬ DỤNG PHƯƠNG PHÁP ĐO SÂU ĐIỆN XÁC ĐỊNH CẤU TRÚC ĐỊA CHẤT VÀ QUY MÔ PHÂN BỐ CỦA THAN TRONG TRẦM TÍCH ĐỆ TAM VÙNG TRŨNG AN NHƠN - BÌNH ĐỊNH

Bộ môn Điều Khiển Tự Động Khoa Điện Điện Tử. Homepage:

KH O SÁT D L NG THU C TR SÂU LÂN H U C TRONG M T S CH PH M TRÀ ACTISÔ

On Approximating Solution of Boundary Value Problems

Phâ n thông tin ba o ha nh cu a ASUS

Integrated Algebra. Glossary. High School Level. English / Vietnamese

THÔNG TIN VỀ LUẬN ÁN TIẾN SĨ

GIÁO H I PH T GIÁO VI T NAM TH NG NH T

BÀI TIỂU LUẬN Môn học : Tính toán thiết kế Robot

TẠO PAN ĐỘNG CƠ Ô TÔ ĐIỀU KHIỂN BẰNG MÁY TÍNH

Mã số: Khóa:

BỒI DƯỠNG HỌC SINH GIỎI

BÀI TOÁN CỰC TRỊ VỀ HÌNH HỌC TRONG MẶT PHẲNG

LỜI NGỎ CHO EPSILON SỐ 6

HÀM BĂM HASH FUNCTIONS. Giáo viên: Phạm Nguyên Khang

HỌC PHẦN: CHƯƠNG TRÌNH DỊCH Bộ môn: Khoa học máy tính

(Analytical Chemistry)

ĐỀ CƯƠNG CHI TIẾT BÀI GIẢNG (Dùng cho tiết giảng) Học phần: CHƯƠNG TRÌNH DỊCH Nhóm môn học:... Bộ môn: Khoa học máy tính Khoa (Viện): CNTT

Thông tin mang tính a lý trên m t vùng lãnh th bao g m r t nhi u l p d li u khác nhau (thu c n v hành chánh nào, trên lo i t nào, hi n tr ng s d ng

VnDoc - Tải tài liệu, văn bản pháp luật, biểu mẫu miễn phí Tóm tắt Ngữ pháp tiếng Anh lớp 6 (Cả năm)

Về quan hệ giữa toán học và tin học

On Approximating Solution Of One Dimensional Boundary Value Problems With Dirichlet Conditions By Using Finite Element Methods

NGHIÊN CỨU CHẾ TẠO MÀNG MỎNG SẮT ĐIỆN - ÁP ĐIỆN PZT BẰNG PHƯƠNG PHÁP SOL - GEL ĐỊNH HƯỚNG ỨNG DỤNG TRONG CẢM BIẾN SINH HỌC

NGHIÊN C U XU T XÂY D NG H H TR RA QUY T NH KHÔNG GIAN CHO THOÁT N C Ô TH B NG CÁC GI I PHÁP CÔNG TRÌNH

VÕ THỊ THANH CHÂU. NGHIÊN CỨU TỔNG HỢP VÀ KHẢO SÁT TÍNH CHẤT HẤP PHỤ, HOẠT TÍNH XÚC TÁC QUANG CỦA VẬT LIỆU MIL-101(Cr)

Saigon Oi Vinh Biet (Vietnamese Edition) By Duong Hieu Nghia chuyen dich READ ONLINE

Phiên bản thử nghiệm Lưu hành nội bộ - Microsoft Vietnam

À N. á trong giáo d. Mã s HÀ N NGHIÊN C ÊN NGÀNH TÓM T

XU HƯỚNG HỢP ĐỒNG HOÁN ĐỔI LÃI SUẤT TẠI VIỆT NAM

C M NANG AN TOÀN SINH H C PHÒNG THÍ NGHI M

MỞ ĐẦU Vật liệu zeolit với cấu trúc tinh thể vi mao quản đã được ứng dụng rộng rãi trong nhiều lĩnh vực như hấp phụ [20, 141], tách chất [124], trao

CHƯƠNG 6: SỬ DỤNG WINFORM

CHUYÊN ĐỀ: SỬ DỤNG MÁY TÍNH CASIO GIẢI MỘT SỐ BÀI TOÁN TRONG ĐỀ THI MINH HỌA MÔN TOÁN THPT QUỐC GIA

VÀI NÉT VỀ ĐỊA CHẤT - ĐỊA MẠO BÁN ĐẢO BARTON VÀ WEIVER, ĐẢO KING GEORGE, NAM CỰC

CH NG IV TH C HI N PH NG PHÁP T NG H P CHO QUY HO CH S D NG B N V NG NGU N TÀI NGUYÊN T AI

Lu t t tụng qu c tế và thủ tục t tụng qu c tế

Hình 8.1. Thiết bị Spektralapparat thiết kế bởi Kirchhoff và Bunsen (1833)

TẠP CHÍ KHOA HỌC, Đại học Huế, Số 48, 2008 TỔNG HỢP VÀ THỬ HOẠT TÍNH KHÁNG KHUẨN KHÁNG NẤM CỦA MỘT SỐ DẪN XUẤT AMIT VÒNG THƠM VÀ AMIT DN VÒNG TÓM TẮT

ĐH BÁCH KHOA TP.HCM. Bài giảng: NĂNG LƯỢNG TÁI TẠO. Giảng viên: ThS. Trần Công Binh

NH NGH A C C THU T NG 4 PH N I NHI M HUẨN ỆNH VIỆN V VỆ SINH TAY 6 PH N II TH C H NH HU N UYỆN V GI M S T VỆ SINH TAY 9

Mass Offerings. Reading the Bible. "Thầy là bánh hằng sống" (Gioan 6, 35.48). I am the bread of life (John 6:35.45)

A M T J SỐ 1- THÁNG 5/2017 APPLIED MATHEMATICS AND TECHNOLOGY JOURNAL. No 01 - MAY, 2017

ĐIỆN TỬ SỐ HỌC VIỆN CÔNG NGHỆ BƢU CHÍNH VIỄN THÔNG BÀI GIẢNG MÔN

Xuân Hòa, ngày 29 tháng 9, 2018

Transcription:

Nguyễn Nhật Quang quangnn-fit@mail.hut.edu.vn Viện Công nghệ Thông tin và Truyền thông Trường Đại học Bách Khoa Hà Nội Năm học 2009-2010

Nội dung môn học: Giới thiệu về Trí tuệ nhân tạo Tác tử Giải quyết vấn đề: Tìm kiếm, Thỏa mãn ràng buộc Logic và suy diễn Biểu diễn tri thức Suy diễn với tri thức không chắc chắn Học máy Giới thiệu về học máy Phân lớp Naïve Bayes Học dựa trên các láng giềng gần nhất Lập kế hoặch 2

Giới thiệu ệ về Học ọ máy Các định nghĩa về Học máy (Machine learning) Một quá trình nhờ đó một hệ thống cải thiện hiệu suất (hiệu quả hoạt động) của nó [Simon, 1983] Một quá trình mà một chương trình máy tính cải thiện hiệu suất của nó trong một công việc thông gqua kinh nghiệm [Mitchell, 1997] Việc lập trình các máy tính để tối ưu hóa một tiêu chí hiệu suất dựa trên các dữ liệu ví dụ hoặc kinh nghiệm trong quá khứ [Alpaydin, 2004] Biểu diễn một bài toán học máy [Mitchell, 1997] Học máy = Cải thiện hiệu quả một công việc thông qua kinh nghiệm Một công việc (nhiệm vụ) T Đối với các tiêu chí đánh giá hiệu suất P Thông qua (sử dụng) kinh nghiệm E 3

Các ví dụ của bài toán học máy (1) Bài toán lọc các trang Web theo sở thích của một người dùng T: Dự đoán (để lọc) xem những trang Web nào mà một người dùng cụ thể thíchh đọc P: Tỷ lệ (%) các trang Web được dự đoán đúng E: Một tập các trang Web mà người dùng đã chỉđịnh là thích đọc vàmộttập các trang Web mà anh ta đã chỉ định là không thích đọc Interested? 4

Các ví dụ của bài toán học máy (2) Bài toán phân loại các trang Web theo các chủ đề T: Phân loại các trang Web theo các chủ đề đã định htrướcớ P: Tỷ lệ (%) các trang Web được phân loại chính xác E: Một tập các trang Web, trong đó mỗi trang Web gắn với một chủ đề Which cat.? 5

Các ví dụ của bài toán học máy (3) Bài toán nhận dạng chữ viết tay T: Nhận dạng và phân loại các từ trong các ảnh chữ viết tay P: Tỷ lệ (%) các từ đượcnhận dạng và phân loại đúng E: Một tập các ảnh chữ viết tay, trong đó mỗi ảnh được gắn với một định danh của một từ we Which word? do in the right way 6

Các ví dụ của bài toán học máy (4) Bài toán robot lái xe tự động T: Robot (được trang bị các camera quan sát) lái xe tự động trên đường cao tốc P: Khoảng cách trung bình mà robot có thể lái xe tự động trước khi xảy ra lỗi (tai nạn) E: Một tập các ví dụ được ghi lại khi quan sát một người lái xe trên đường cao tốc, trong đó mỗi ví dụ gồm một chuỗi các ảnh và các lệnh điều khiển xe Go straight Which steering command? Move left Move right Slow down Speed up 7

Quá trình học ọ máy Tập học (Training set) Tập dữ liệu (Dataset) Huấn luyện hệ thống Tập tối ưu (Validation set) Tập thử nghiệm (Test set) Tối ưu hóa các tham số của hệ thống Thử nghiệm hệ thống đã học 8

Học ọ có vs. không có giám sát Học có giám sát (supervised learning) Mỗi ví dụ học gồm 2 phần: mô tả (biểu diễn) của ví dụ học, và nhãn lớp (hoặc giátrịđầu ra mong muốn) của vídụ học đó Bài toán học phân lớp (classification problem) D_train ={(<Biểu {(<Biểu_diễn_của_x>, <Nhãn_lớp_của_x>)} Bài toán học dự đoán/hồi quy (prediction/regression problem) D_train = {(<Biểu_diễn_của_x>, <Giá_trị_đầu_ra_của_x>)} Học không có giám sát (unsupervised learning) Mỗi vídụ học chỉ chứa môtả (biểu diễn) của vídụ học đó - mà không có bất kỳ thông tin nào về nhãn lớp hay giá trị đầu ra mong muốn của vídụ học đó Bài toán học phân cụm (Clustering problem) Tập học D_train ={(<Biểu {(<Biểu_diễn_của_x>)} 9

Bài toán học máy Các thành phần chính (1) Lựa chọn các ví dụ học (training/learning examples) Các thông tin hướng dẫn quá trình học (training feedback) được chứa ngay trong các ví dụ học, hay là được cung cấp gián tiếp (vd: từ môi trường hoạt động) Các ví dụ học theo kiểu có giám sát (supervised) hay không có giám sát (unsupervised) Các ví dụ học phải tương thích với (đại diện cho) các ví dụ sẽ được sử dụng bởi hệ thống trong tương lai (future test examples) Xác định hàm mục tiêu (giả thiết, khái niệm) cần học F: X {0,1} F: X {Một tập các nhãn lớp} F: X R + (miền các giá tri số thực dương) 10

Bài toán học máy Các thành phần chính (2) Lựa chọn cách biểu diễn cho hàm mục tiêu cần học Hàm đa thức (a polynomial function) Một tập các luật (a set of rules) Một cây quyết định (a decision tree) Một mạng nơ-ron nhân tạo (an artificial neural network) Lựa chọn một giải thuật học máy có thể học (xấp xỉ) được hàm mục tiêu Phương pháp học hồi quy (Regression-based) Phương gpháp phọc ọ quy nạp luật ậ (Rule induction) Phương pháp học cây quyết định (ID3 hoặc C4.5) Phương pháp học lan truyền ngược (Back-propagation) 11

Các vấn đề trong Học máy (1) Giải thuật học máy (Learning algorithm) Những giải thuật học máy nào có thể học (xấp xỉ) một hàm mục tiêu cần học? Với những điều kiện nào, một giải thuật học máy đã chọn sẽ hội tụ (tiệm cận) hàm mục tiêu cần học? Đối với một lĩnh vực bài toán cụ thể và đối với một cách biểu diễn các ví dụ (đối tượng) cụ thể, giải thuật học máy nào thực hiện tốt nhất? 12

Các vấn đề trong Học máy (2) Các ví dụ học (Training examples) Bao nhiêu ví dụ học là đủ? Kích thước của tập học (tập huấn luyện) ảnh hưởng thế nào đối với độ chính h xác của ủ hàm mục tiêu học được?? Các ví dụ lỗi (nhiễu) và/hoặc các ví dụ thiếu giá trị thuộc tính (missing-value) ảnh hưởng thế nào đối với độ chính xác? 13

Các vấn đề trong Học máy (3) Quá trình học (Learning process) Chiến lược tối ưu cho việc lựa chọn thứ tự sử dụng (khai thác) các ví dụ học? Các chiến lược lựa chọn này làm thay đổi mức ứ độ phức tạp của bài toán học máy như thế nào? Các tri thức cụ thể của bài toán (ngoài các ví dụ học) có thể đóng góp thế nào đối với quá trình học? 14

Các vấn đề trong Học máy (4) Khả năng/giới hạn học (Learning capability) Hàm mụcụ tiêu nào mà hệệ thống cần học? ọ Biểu diễn hàm mục tiêu: Khả năng biểu diễn (vd: hàm tuyến tính / hàm phi tuyến) vs. Độ phưc tạp của giải thuật và quá trình họcọ Các giới hạn (trên lý thuyết) đối với khả năng học của các giải thuật học máy? Khả năngă khái quát hóa (generalize) củaủ hệ thống từ các ví dụ học? Để tránh vấn đề over-fitting (đạt độ chính xác cao trên tập học, nhưng đạt độ chính xác thấp trêntập thử nghiệm) Khả năng hệ thống tự động thay đổi (thích nghi) biểu diễn (cấu trúc) bên trong của nó? Để cải thiện khả năng (của hệ thống đối với việc) biểu diễn vàhọc hàmmục tiêu 15

Vấn đề over-fitting g( (1) Một hàm mục tiêu (một giả thiết) học được h sẽ được gọi là quá khớp/quá phù hợp (over-fit) với một tập học nếu tồn tại một hàm mục tiêu khác h sao cho: h kém phù hợp hơn (đạt độ chính xác kém hơn) h đối với tập học, nhưng h đạt độ chính xác cao hơn h đối với toàn bộ tập dữ liệu (bao gồm cả những ví dụ được sử dụng sau quá trình huấn luyện) Vấn đề over-fitting thường do các nguyên nhân: Lỗi (nhiễu) trong tập huấn luyện (do quá trình thu thập/xây dựng ự tập dữ liệu) Số lượng các ví dụ học quá nhỏ, không đại diện cho toàn bộ tập (phân bố) của cácvídụ của bài toán học 16

Vấn đề over-fitting g( (2) Giả sử gọi D là tập toàn bộ các ví dụ, và D_train là tập các ví dụ học Giả sử gọi Err D (h) là mức lỗi mà giả thiết h sinh ra đối với tập D, và Err D_train (h) là mức lỗi màgiả thiết h sinh ra đối với tập D_train Giả thiết h quá khớp (quá phù hợp) tập học D_train nếu tồn tại một giả thiết khác h : Err D_train (h) < Err D_train (h ), và Err D (h) > Err D (h ) 17

Vấn đề over-fitting g( (3) Trong số các giả thiết (hàm mục tiêu) học được, giả thiết (hàm mục tiêu) nào khái quát hóa tốt nhất từ các ví dụ học? Lưu ý: Mục tiêu của học máy là để đạt được độ chính xác cao trong dự đoán đối với các ví dụ sau này, không phải đối với các ví dụ học Occam s razor: Ưu tiên chọn hàm mục tiêu đơn giản nhất phù hợp (không nhất thiết hoàn hảo) với các ví dụ học Khái quát hóa tốt hơn Dễ giải thích/diễn giải hơn Độ phức tạp tính toán ít hơn Hàm mục tiêu f(x) nào đạt độ chính xác cao nhất đối với các ví dụ sau này? f(x) x 18

Vấn đề over-fitting Ví dụụ Tiếp tục quá trình học cây quyết định sẽ làm giảm độ chính xác đối với tập thử nghiệm mặc dù tăng độ chính xác đối với tập học [Mitchell, 1997] 19

Phân lớp Naïve Bayes Là các phương pháp học phân lớp có giám sát và dựa trên xác suất Dựa trên một mô hình (hàm) xác suất Việc phân loại idựa tê trên các giá iátị trị xác suất của ủ các khả năng xảy ra của các giả thiết Là một trong các phương pháp học máythường được sử dụng trong các bài toán thực tế Dựa trên định lý Bayes (Bayes theorem) 20

Định lý Bayes P ( h D ) = P( D h). P( h) P( D) P(h): Xác suất trước (prior probability) rằng giả thiết (phân lớp) h là đúng P(D): Xác suất trước rằng tập dữ liệu D được quan sát (thu được) P(D h): Xác suất của việc quan sát được (thu được) tập dữ liệu D, với điều kiện giả thiết h là đúng P(h D): Xác suất của giả thiết h là đúng, với điều kiện tập dữ liệu D được quan sát 21

Định lý Bayes Ví dụ ụ (1) Xét tập dữ liệu sauđây: Day Outlook Temperature Humidity Wind Play Tennis D1 Sunny Hot High Weak No D2 Sunny Hot High Strong No D3 Overcast Hot High Weak Yes D4 Rain Mild High Weak Yes D5 Rain Cool Normal Weak Yes D6 Rain Cool Normal Strong No D7 Overcast Cool Normal Strong Yes D8 Sunny Mild High Weak No D9 Sunny Cool Normal Weak Yes D10 Rain Mild Normal Weak Yes D11 Sunny Mild Normal Strong Yes D12 Overcast Mild High Strong Yes [Mitchell, 1997] 22

Định lý Bayes Ví dụ ụ (2) Tập ví dụ D. Tập các ngày mà thuộc tính Outlook có giá trị Sunny và thuộc tính Wind có giá trị Strong Giả thiết (phân lớp) h. Anh ta chơi tennis Xác suất trước P(h). Xác suất anh ta chơi tennis (không phụ thuộc vào các thuộc tính Outlook và Wind) Xác suất trước P(D). Xác suất của một ngày mà thuộc tính Outlook có giá trị Sunny và thuộc tính Wind có giá trị Strong P(D h). Xác suất của một ngày mà thuộc tính Outlook có giá trị Sunny và Wind có giá trị Strong, với điều kiện (nếu biết rằng) anh ta chơi tennis P(h D). Xác suất anh ta chơi tennis, với điều kiện (nếu biết rằng) thuộc tính Outlook có giá trị Sunny và Wind có giá trị Strong Phương gpháp pphân lớp Naïve Bayes dựa ự trên xác suất có điều kiện (posterior probability) này! 23

Cực đại hóa xác suất có điều kiện Với một tập các giả thiết (các phân lớp) có thể H, hệ thống học sẽ tìm giả thiết có thể xảy ra nhất (the most probable hypothesis) h( H) đối với cácdữ liệu quan sát được D Giả thiết h này được gọi làgiả thiết cựcự đại hóa xác suất có điều kiện (maximum a posteriori MAP) h MAP = arg max P( h D) h h MAP MAP h H P( D h). P( h) = arg max (bởi định lý Bayes) h H P(D) ( ) (P(D) là như nhau = arg max P( D h). P( h) h H đối với các giả thiết h) ) 24

MAP Ví dụ Tập H bao gồm 2 giả thiết (cóthể) h 1 : Anh ta chơi tennis 1 h 2 : Anh ta không chơi tennis Tính giá trị của 2 xácxuất cóđiều kiện: P(h 1 D), P(h 2 D) Giả thiết cóthể nhất h MAP =h 1 lại thìh MAP =h 2 nếu P(h 1 D) P(h 2 D); ngược Bởi vì P(D)=P(D,h 1 )+P(D,h 2 ) là như nhau đối với cả 2 giả thiết h 1 và h 2, nên có thể bỏ qua đại lượng P(D) Vì vậy, cần tính 2 biểu thức: P(D h 1 ).P(h 1 ) và P(D h 2 ).P(h 2 ), và đưa ra quyết định tương ứng Nếu P(D h 1 ).P(h 1 ) P(D h 2 ).P(h 2 ), thì kết luận là anh ta chơi tennis Ngược lại, thì kết luậnậ là anh ta không chơi tennis 25

Đánh giá khả năng xảy ra cao nhất Phương pháp MAP: Với một tập các giả thiết có thể H, cần tìm một giả thiết cực đại hóa giá trị: P(D h).p(h) Giả sử (assumption) trong phương pháp đánh giá khả năng xảy ra cao nhất (maximum likelihood estimation MLE): Tất cả các giả thiết đều cógiátrị xác suất trước như nhau: P(h i )=P(h j ), h i,h j H Phương pháp MLE tìm giả thiết cực đại hóa giá trị P(D h); trong đó P(D h) được gọi là khả năng xảy ra (likelihood) của dữ liệu D đối với h Giả thiết cực đại hóa khả năng xảy ra (maximum likelihood hypothesis) h MLE = arg max P( D h) h H 26

MLE Ví dụ Tập H bao gồm 2 giả thiết có thể h 1 : Anh ta chơi tennis h 2 : Anh ta không chơi tennis D: Tập dữ liệu (các ngày) mà trong đó thuộc tính Outlook có giá trị Sunny và thuộc tính Wind có giá trị Strong Tính 2 giá trị khả năng xảy ra (likelihood values) của dữ liệu D đối với 2 giả thiết: P(D h 1 ) và P(D h 2 ) P(Outlook=Sunny, Wind=Strong h 1 )= 1/8 P(Outlook=Sunny, Wind=Strong h 2 )= 1/4 Giả thiết MLE h MLE=h 1 nếu P(D h 1) P(D h 2); và ngược ợ lại thì h MLE =h 2 Bởi vì P(Outlook=Sunny, Wind=Strong h 1 ) < P(Outlook=Sunny, ( Wind=Strong h 2 ), hệ ệ thống kết luận ậ rằng: Anh ta sẽ không chơi tennis! 27

Phân loại ạ Naïve Bayes (1) Biểu diễn bài toán phân loại (classification problem) Một tập học D_train, trong đó mỗi ví dụ học x được biểu diễn là một vectơ n chiều: (x 1, x 2,..., x n ) Một tập xácđịnh các nhãn lớp: C={c 1, c 2,..., c m } Với một ví dụ (mới) z, z sẽ được phân vào lớp nào? Mục tiêu: Xác định phân lớp cóthể (phù hợp) nhất đối với z c MAP = arg max P( c c i C i z) c MAP = arg max P ( c i z 1, z 2,..., zn ) c MAP c i C = P( z1, z2,..., zn ci ). P( ci ) arg max P( z, z,..., z ) (bởi định lý Bayes) ci i CC ( 1 2 n 28

Phân loại ạ Naïve Bayes (2) Để tìm được phân lớp cóthể nhất đối với z c MAP = arg max P( z, z2,..., z c i C c ). P( c 1 n i i ) (P(z 1,z 2,...,z n ) là như nhau với các lớp) Giả sử (assumption) trong phương pháp phân loại Naïve Bayes. Các thuộc tính là độc lập có điều kiện (conditionally independent) đối với các lớp P( z n 1, z2,..., zn ci ) = P( z j ci ) j= 1 Phân loại Naïve Bayes tìm phân lớp cóthể nhất đối với z c NB = arg max P( c ). n i ci C j= 1 P( z j c i ) 29

Phân loại Naïve Bayes Giải thuật Giai đoạn học (training phase), sử dụng một tập học Đối với mỗi phân lớp cóthể (mỗi nhãn lớp) c i C Tính giá trị xác suất trước: P(c i ) Đối với mỗi giá trị thuộc tính x j, tính giá trị xác suất xảy ra của giátrị thuộc tính đó đối với một phân lớp c i : P(x j c i ) Giai đoạn phân lớp (classification phase), đối với một ví dụ mới Đối với mỗi phân lớp c i C, tính giá trị của biểu thức: P( c ). i n j= 1 P( x j c ) Xác định phân lớp của z là lớp có thể nhất c * i c * = arg max P( c ). P( x c ) i c i C j= 1 n j i 30

Phân lớp Naïve Bayes Ví dụ (1) Một sinh viên trẻ với thu nhập trung bình và mức đánh giá tín dụng bình thường sẽ mua một cái máy tính? Rec. ID Age Income Student Credit_Rating Buy_Computer 1 Young High No Fair No 2 Young High No Excellent No 3 Medium High No Fair Yes 4 Old Medium No Fair Yes 5 Old Low Yes Fair Yes 6 Old Low Yes Excellent No 7 Medium Low Yes Excellent Yes 8 Young Medium No Fair No 9 Young Low Yes Fair Yes 10 Old Medium Yes Fair Yes 11 Young Medium Yes Excellent Yes 12 Medium Medium No Excellent Yes 13 Medium High Yes Fair Yes 14 Old Medium No Excellent No http://www.cs.sunysb.edu /~cse634/lecture_notes/0 7classification.pdf 31

Phân lớp Naïve Bayes Ví dụ (2) Biểu diễn bài toán phân loại z = (Age=Young Young,Income=Medium,Student=Yes,Credit_Rating Rating=Fair) Có 2 phân lớp có thể: c 1 ( Mua máy tính ) và c 2 ( Không mua máy tính ) Tính giá trị xác suất trước chomỗi phân lớp P(c 1 ) = 9/14 P(c 2 ) = 5/14 Tính giá trị xác suất của mỗi giá trị thuộc tính đối với mỗi phân lớp P(Age=Young c 1 ) = 2/9; P(Age=Young c 2 ) = 3/5 P(Income=Medium c 1 ) = 4/9; P(Income=Medium c 2 )=2/5 P(Student=Yes c 1 ) = 6/9; P(Student=Yes c 2 ) = 1/5 P(Credit_Rating=Fair c 1 ) = 6/9; P(Credit_Rating=Fair c 2 ) = 2/5 32

Phân lớp Naïve Bayes Ví dụ (3) Tính toán xác suất cóthể xảy ra (likelihood) của vídụ z đối với mỗi phân lớp Đối với phân lớp c 1 P(z c 1 ) = P(Age=Young c 1 ).P(Income=Medium c 1 ).P(Student=Yes c 1 ). P(Credit_Rating=Fair c 1 ) = (2/9).(4/9).(6/9).(6/9) = 0.044 Đối với phân lớp c 2 P(z c 2 ) = P(Age=Young c 2 ).P(Income=Medium c 2 ).P(Student=Yes c 2 ). P(Credit_Rating=Fair c 2 ) = (3/5).(2/5).(1/5).(2/5) = 0.019 Xác định phân lớp cóthể nhất (the most probable class) Đối với phân lớp c 1 P(c 1 )P(z c ).P(z c 1 ) = (9/14).(0.044)(0 044) = 0.028028 Đối với phân lớp c 2 P(c 2 ).P(z c 2 ) = (5/14).(0.019) = 0.007 Kết luận: Anh ta (z) sẽ mua một máy tính! 33

Phân lớp Naïve Bayes Vấn đề (1) Nếu không có ví dụ nào gắn với phân lớp c i có giá trị thuộc tính x j P(x j c i )=0, và vì vậy: P ( c ). P ( x c ) = 0 Giải pháp: Sử dụng phương pháp Bayes để ước lượng P(x j c i ) P( x j c ) i n ( ci, x j ) + mp = n( c ) + m i n(c i ): số lượngợ các ví dụụ họcọ gắn với phân lớp c i n(c i,x j ): số lượng các ví dụ học gắn với phân lớp c i có giá trị thuộc tính x j p: ước lượng đối với giátrị xác suất P(x j c i ) Các ước lượng đồng mức: p=1/k, với thuộc tính f j có k giá trị có thể m: một hệ số (trọng số) Để bổ sung cho n(c i ) các ví dụ thực sựđượcquan sát với thêm m mẫu vídụ với ước lượng p i n j= 1 j i 34

Phân lớp Naïve Bayes Vấn đề (2) Giới hạn vềđộchính xác trong tính toán của máy tính P( )<1 đối với mọi giá trị thuộc tính và phân lớp P(x j c i )<1, đối với mọi giá trị thuộc tính x j và phân lớp c i Vì vậy, khi số lượng các giá trị thuộc tính là rất lớn, thì: n lim ( ) P x j ci = 0 n j = 1 Giải pháp: Sử dụng hàm lôgarit cho các giá trị xác suất c c NB NB n = arg max log P( ci ). P( x j ci ) c C i j= 1 n = arg max log P( ci ) + log P( x j c ci C j= 1 i ) 35

Phân loại văn bản bằng NB (1) Biểu diễn bài toán phân loại văn bản Tập học D_train, trong đó mỗi ví dụ học là một biểu diễn văn bản gắn với một nhãn lớp: D = {(d k, c i )} Một tập các nhãn lớp xác định: C = {c i } Giai đoạn học Từ tập các văn bản trong D_train, trích ra tập các từ khóa (keywords/terms): T = {t j } Gọi D_c i ( D_train) làtập cácvăn bản trong D_train có nhãn lớp c i Đối với mỗi phân lớp c i - Tính giá trị xác suất trước của phân lớp c i : P( c ) = i D _ c D i - Đối với mỗi từ khóa t j, tính xác suất từ khóa t j xuất hiện đối với lớp c i P( t j c ) i ( ) n d t d D _ ( k, j) + 1 ( ) n ( d, t ) + T = d D _ c k k c i i t m T k m (n(d k,t j ): số lần xuất hiện của từ khóa t j trong văn bản d k ) 36

Phân loại văn bản bằng NB (2) Để phân lớp cho một văn bản mới d Giai đoạn phân lớp Từ văn bản d, trích ra tập T_d gồm các từ khóa (keywords) t j đã được định nghĩa trong tập T (T_d T) Giả sử ử (assumption). Xác suất từ khóa t j xuất hiện đối với lớp c i là độc lập đối với vị trí của từ khóa đó trong văn bản P(t j ở vị trí k c i ) = P(t j ở vị trí m c i ), k,m Đối với mỗi phân lớp c i, tính giá trị likelihood của văn bản d đối với c i i P ( c ). P( t c ) t j T _ d Phân lớp văn bản d thuộc vào lớp c * j i c * ) = arg max P( ci ). P( t j ci c C t T _ d i j 37

Học dựa trên láng giềng gần nhất Một số tên gọi khác của phương pháp học dựa trên láng giềng gần nhất (Nearest neighbor learning) Instance-based learning Lazy learning Memory-based learning Ý tưởng của phương pháp học dựa trên láng giềng gần nhất Với một ộ tập các ví dụ ụ họcọ (Đơn giản là) lưu lại các ví dụ học Không cần xây dựng một mô hình (mô tả) rõ ràng và tổng quát của hàm mục tiêu cần học Đối với một ví dụ cần phân loại/dự đoán Kiểm tra (xét) quan hệ giữa ví dụ đó với các ví dụ học để gán giá trị của hàm mục tiêu (một nhãn lớp, hoặc một giá trị thực) 38

Học dựa trên láng giềng gần nhất Biểu diễn đầu vào của bài toán Mỗi ví dụ x được biểu diễn là một vectơ n chiều trong không gian các vectơ X R n x = (x 1,x 2,,x n ), trong đó x i ( R) là một số thực Chúng ta xét 2 kiểu bài toán học Bài toán phân lớp (classification) Để học ọ một ộ hàm mục ụ tiêu có giá trị ị rời rạc ạ (a discrete-valued target function) Đầu ra của hệ thống là một trong số các giá trị rời rạc đã xác định trước (một trong các nhãn lớp) Bài toán dự đoán/hồi quy (prediction/regression) Để học một hàm mục tiêu có giá trị liên tục (a continuous-valued target function) Đầu ra của hệ thống là một giá trị số thực 39

Phân lớp dựa ự trên NN Ví dụụ Xét 1 láng giềng gần nhất Gán z vào lớp c2 Xét 3 láng giềng gần nhất Gán z vào lớp c1 Xét 5 láng giềng gần nhất Gán z vào lớp c1 Lớp c1 Lớp c2 Ví dụ cần phân lớp z 40

Giải thuật ậ phân lớp k-nn Mỗi ví dụ học x được biểu diễn bởi 2 thành phần: Mô tả của vídụ: x=(x 1,xx 2,,xx n ), trong đó x i R Nhãn lớp : c ( C, với C là tập các nhãn lớp được xác định trước) Giai đoạn học Đơn giản là lưu lại các ví dụ học trong tập học D = {x} Giai đoạn phân lớp: Để phân lớp cho một ộ ví dụ ụ (mới) z Với mỗi ví dụ họcx D, tính khoảng cách giữa x và z Xác định tập NB(z) các láng giềng gần nhất của z Gồm k ví ídụ học trong D gần ầ nhất với z tính theo một hàm khoảng cách d Phân z vào lớp chiếm số đông (the majority class) trong số các lớp của các ví dụ học trong NB(z) 41

Giải thuật ậ dự ự đoán k-nn Mỗi ví dụ học x được biểu diễn bởi 2 thành phần: Mô tả của vídụ: x=(x 1,xx 2,,xx n ), trong đó x i R Giá trị đầu ra mong muốn: y x R (là một số thực) Giai đoạn học Đơn giản là lưu lại các ví dụ học trong tập học D Giai đoạn dự đoán: Để dự đoán giá trị đầu ra cho ví dụ z Đối với mỗi ví dụ học x D, tính khoảng cách giữa x và z Xác định tập NB(z) các láng giềng gần nhất của z Gồm k ví dụ ụ học ọ trong D gần nhất với z tính theo một ộ hàm khoảng cách d Dự đoán giá trị đầu ra đối với z: ) y = 1 z x NB(z y x k 42

Xét một hay nhiều láng giềng? Việc phân lớp (hay dự đoán) chỉ dựa trên duy nhất một láng giềng gần nhất (là ví dụ học gần nhất với ví dụ cần phân lớp/dự đoán) thường không chính xác Nếu ví dụ học này là một ví dụ bất thường, không điển hình (an outlier) rất khác so với các ví dụ ụ khác Nếu ví dụ học này có nhãn lớp (phân lớp sai) do lỗi trong quá trình thu thập (xây dựng) tập dữ liệu Thường xét k (>1) các ví dụ học gần nhất với ví dụ cần phân lớp, và gán ví dụ đó vào lớp chiếm số đông trong số k ví dụ học gần nhất này k thường được chọn là một số lẻ, để tránh cân bằng về tỷ lệ phân lớp (ties in classification) Ví dụ: k= 3, 5, 7, 43

Hàm tính khoảng cách (1) Hàm tính khoảng cách d Đóng vai trò rất quan trọng trong phương pháp học dựa trên láng giềng gần nhất Thường được xác định trước, và không thay đổi trong suốt quá trình học và phân loại/dự đoán Lựa chọn hàm khoảng cách d Các hàm khoảng cách hình học: Dành cho các bài toán có các thuộc tính đầu vào là kiểu số thực (x i R) Hàm khoảng cách Hamming: Dành cho các bái toán có các thuộc tính đầu vào là kiểu nhị phân (x i {0,1}) Hàm tính độ tương tự Cosine: Dành cho các bài toán phân lớp văn bản (x i là giá trị trọng số TF/IDF của từ khóa thứ i) 44

Hàm tính khoảng cách (2) Các hàm tính khoảng cách hình học (Geometry distance functions) Hàm Manhattan: d( x, z) = n i= 1 x i z i Hàm Euclid: d( x, z) = ( ) n i= 1 x i z i 2 Hàm Minkowski (p-norm): Hàm Chebyshev: d d n 1/ p p ( x, z) = i= 1 x i z i n 1/ p p ( x, z) = lim xi zi p i= 1 = max x z i i i 45

Hàm tính khoảng cách (3) Hàm khoảng cách Hamming Đối với cácthuộc tính đầu vào là kiểu nhị phân Ví dụ: x=(0,1,0,1,1) n d ( x, z ) = Difference ( x i, z i ) i= 1 1, if ( a b) Difference( a, b) = 0, if ( a = b ) Hàm tính độ tương tự Cosine Đối với đầu vào là một vectơ các giá trị trọng số (TF/IDF) của cáctừ khóa d( x, z) = x. z x z = n n i= 1 2 x i z i n x i z i= 1 i= 1 2 i 46

Chuẩn hóa miền giá trị thuộc tính Hàm tính khoảng cách Euclid: d( x, z) = ( ) n i= 1 x i z i Giả sử mỗi ví dụ được biểu diễn bởi 3 thuộc tính: Age, Income (cho mỗi tháng), và Height (đo theo mét) x = (Age=20, Income=12000, Height=1.68) z = (Age=40, Income=1300, Height=1.75) Khoảng cách giữa x và z d(x,z) =[(20-40) 2 + (12000-1300) 2 +(168-1 (1.68-1.75) 2 ] 1/2 Giá trị khoảng cách này bị quyết định chủ yếu bởi giá trị khoảng cách (sự khác biệt) giữa 2 ví dụ đối với thuộc tính Income Vì: Thuộc tính Income có miền giátrị rất lớn sovới cácthuộc tính khác Cần phải chuẩn hóa miền giá trị (đưa về cùng một khoảng giá trị) Khoảng giá trị [0,1] thường được sử dụng Đối với mỗi thuộc tính i: x i = x i /giá_trị_cực_đại_đối_với_thuộc_tính_i đối thuộc tính i 2 47

Trọng ọ số của các thuộc ộ tính Hàm khoảng cách Euclid: d( x, z) = n ( x i z i ) Tất cả các thuộc tính có cùng (như nhau) ảnh hưởng đối với giá trị khoảng cách Các thuộc tính khác nhau có thể (nên) có mức độ ảnh hưởng khác nhau đối với giá trị khoảng cách Cần phải tích hợp (đưa vào) các giá trị trọng số của các thuộc tính trong hàm tính khoảng cách n d( x, z) = wi ( xi zi ) w i là trọng số của thuộc tính i: i= 1 Làm sao để xác định các giá trị trọng số của cácthuộc tính? Dựa trên các tri thức cụ thể của bài toán (vd: được chỉ định bởi các chuyên gia trong lĩnh vực của bài toán đang xét) Bằng một ộ quá trình tối ưu hóa các giá trị ị trọng ọ số (vd: sử dụng ụ một ộ tập học để học một bộ các giá trị trọng số tối ưu) i= 1 2 2 48

Khoảng cách của các láng giềng (1) Xét tập NB(z) gồm k ví dụ học gần nhất với vídụ cần phân lớp/dự đoán z Mỗi ví dụ (láng giềng gần nhất) này có khoảng cách khác nhau đến z Các láng giềng này có ảnh hưởng như nhau đối với việc phân lớp/dự đoáncho z? KHÔNG! test instance z Cần gán các mức độ ảnh hưởng (đóng góp) của mỗi láng giềng gần nhất tùy theo khoảng cách của nó đến z Mức độ ảnh hưởng cao hơn cho các láng giềng gần hơn! 49

Khoảng cách của các láng giềng (2) Gọi v là hàm xác định trọng số theo khoảng cách Đối với một giátrị d(x,z) khoảng cách giữa x và z v(x,z) tỷ lệ nghịch với d(x,z) Đối với bài toán phân lớp: Đối với bài toán dự đoán (hồi quy): c( z) = arg max c C j x NB( z) f ( z) = v( x, z). Identical ( c j, c( x)) 1, if ( a = b) Identical( a, b) = 0, if ( a b) v ( x, z ). f ( x ) x NB( z) x NB( z) v( x, z) Lựa chọn một hàm xác định trọng số theo khoảng cách: d ( x, z) 1 v( x, z) = 1 v( x, z) = σ v( x, z) = e 2 α + d( x, z) α + [ d ( x, z )] 2 2 50

Học ọ NN Khi nào? Các ví dụ được biểu diễn là các vectơ trong không gian số thực (R n ) Số lượng các thuộc tính (số chiều của không gian) đầu vào không lớn Tập học khá lớn (nhiều ví dụ học) Các ưu điểm Không cần ầ bước ớ học (hệ thống chỉ đơn giản là lưu lại các ví dụ học) Hoạt động tốt với các bài toán có số lớp khá lớn Không cần phải học riêng rẽ n bộ phân lớp cho n lớp Phương pháp học k-nn (k >>1) có thể làm việc được cả với dữ liệu lỗi Việc phân lớp/dự đoán dựa trên k láng giềng gần nhất Các nhược điểm Phải xác định hàm tính khoảng cách phù hợp Chi phí tính toán (về thời gian và bộ nhớ) tại thời điểm phân lớp/dự đoán Có thể phân lớp/dự đoán sai, do các thuộc tính không liên quan (irrelevant attributes) 51

Tài liệu ệ tham khảo E. Alpaydin. Introduction to Machine Learning. The MIT Press, 2004. T. M. Mitchell. Machine Learning. McGraw-Hill, 1997. H. A. Simon. Why Should Machines Learn? In R. S. Michalski, J. Carbonell, and T. M. Mitchell (Eds.): Machine learning: An artificial i intelligence approach, chapter 2, pp. 25-38. Morgan Kaufmann, 1983. 52