Strojno učenje 3 (I dio) Evaluacija modela. Tomislav Šmuc

Similar documents
Strojno učenje. Ansambli modela. Tomislav Šmuc

Fajl koji je korišćen može se naći na

LINEARNI MODELI STATISTIČKI PRAKTIKUM 2 2. VJEŽBE

KLASIFIKACIJA NAIVNI BAJES. NIKOLA MILIKIĆ URL:

TEORIJA SKUPOVA Zadaci

Strojno učenje 3 (II dio) Struktura metoda/algoritama strojnog učenja. Tomislav Šmuc

Algoritam za množenje ulančanih matrica. Alen Kosanović Prirodoslovno-matematički fakultet Matematički odsjek

Mathcad sa algoritmima

Methods and Criteria for Model Selection. CS57300 Data Mining Fall Instructor: Bruno Ribeiro

Projektovanje paralelnih algoritama II

Lecture Slides for INTRODUCTION TO. Machine Learning. ETHEM ALPAYDIN The MIT Press,

Performance Measures. Sören Sonnenburg. Fraunhofer FIRST.IDA, Kekuléstr. 7, Berlin, Germany

Applied Machine Learning Annalisa Marsico

Performance Evaluation

ZANIMLJIV NAČIN IZRAČUNAVANJA NEKIH GRANIČNIH VRIJEDNOSTI FUNKCIJA. Šefket Arslanagić, Sarajevo, BiH

KRITERIJI KOMPLEKSNOSTI ZA K-MEANS ALGORITAM

PRIPADNOST RJEŠENJA KVADRATNE JEDNAČINE DANOM INTERVALU

Slika 1. Slika 2. Da ne bismo stalno izbacivali elemente iz skupa, mi ćemo napraviti još jedan niz markirano, gde će

Metoda parcijalnih najmanjih kvadrata: Regresijski model

Red veze za benzen. Slika 1.

Stephen Scott.

Evaluation & Credibility Issues

Šta je to mašinsko učenje?

Model Accuracy Measures

Strojno učenje. Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc

GENERALIZIRANI LINEARNI MODELI. PROPENSITY SCORE MATCHING.

BROWNOV MOST I KOLMOGOROV-SMIRNOVLJEVA STATISTIKA

Machine Learning. Lecture Slides for. ETHEM ALPAYDIN The MIT Press, h1p://

Evaluating Classifiers. Lecture 2 Instructor: Max Welling

Strojno učenje. Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc

Neprekidan slučajan vektor

Performance Evaluation and Comparison

Shear Modulus and Shear Strength Evaluation of Solid Wood by a Modified ISO Square-Plate Twist Method

Hypothesis Evaluation

Machine Learning Concepts in Chemoinformatics

Šime Šuljić. Funkcije. Zadavanje funkcije i područje definicije. š2004š 1

The Bond Number Relationship for the O-H... O Systems

BANA 7046 Data Mining I Lecture 4. Logistic Regression and Classications 1

THE ROLE OF SINGULAR VALUES OF MEASURED FREQUENCY RESPONSE FUNCTION MATRIX IN MODAL DAMPING ESTIMATION (PART II: INVESTIGATIONS)

Regularization. CSCE 970 Lecture 3: Regularization. Stephen Scott and Vinod Variyam. Introduction. Outline

NAPREDNI FIZIČKI PRAKTIKUM 1 studij Matematika i fizika; smjer nastavnički MJERENJE MALIH OTPORA

Smart Home Health Analytics Information Systems University of Maryland Baltimore County

Lecture 4 Discriminant Analysis, k-nearest Neighbors

Class 4: Classification. Quaid Morris February 11 th, 2011 ML4Bio

Introduction to Machine Learning and Cross-Validation

Evaluation. Andrea Passerini Machine Learning. Evaluation

Procjena funkcije gustoće

χ 2 -test i Kolmogorov-Smirnovljev test

SUPERVISED LEARNING: INTRODUCTION TO CLASSIFICATION

PDEEC Machine Learning 2016/17

FIZIKALNA KOZMOLOGIJA VII. VRLO RANI SVEMIR & INFLACIJA

Numeričke metode u ekonomiji Dr. sc. Josip Matejaš, EFZG

High-dimensional regression modeling

Evaluation requires to define performance measures to be optimized

Performance evaluation of binary classifiers

Performance Evaluation

Metode praćenja planova

REVIEW OF GAMMA FUNCTIONS IN ACCUMULATED FATIGUE DAMAGE ASSESSMENT OF SHIP STRUCTURES

KVADRATNE INTERPOLACIJSKE METODE ZA JEDNODIMENZIONALNU BEZUVJETNU LOKALNU OPTIMIZACIJU 1

Harun Kuč : Statistika u Excelu. Izdavač : Weling SD Zenica Za izdavača : Damir Bajramović. Recenzenti : Dr. Hasan Zolić Dr.

Introduction to Supervised Learning. Performance Evaluation

E. Alpaydın AERFAISS

VIŠESTRUKO USPOREĐIVANJE

Diagnostics. Gad Kimmel

PRIMJENA METODE PCA NAD SKUPOM SLIKA ZNAKOVA

VC dimension, Model Selection and Performance Assessment for SVM and Other Machine Learning Algorithms

pretraživanje teksta Knuth-Morris-Pratt algoritam

Data Analytics for Social Science

Data Mining algorithms

Uvod u relacione baze podataka

Fraktalno Brownovo gibanje

PEARSONOV r koeficijent korelacije [ ]

Bootstrap, Jackknife and other resampling methods

ANALYTICAL AND NUMERICAL PREDICTION OF SPRINGBACK IN SHEET METAL BENDING

Anomaly Detection. Jing Gao. SUNY Buffalo

1. zadatak. Stupcasti dijagram podataka: F:\STATISTICKI_PRAKTIKUM\1.KOLOKVIJ. . l_od_theta.m poisson.m test.doc.. podaci.dat rjesenja.

Stats notes Chapter 5 of Data Mining From Witten and Frank

A L A BA M A L A W R E V IE W

An Algorithm for Computation of Bond Contributions of the Wiener Index

Oracle Spatial Koordinatni sustavi, projekcije i transformacije. Dalibor Kušić, mag. ing. listopad 2010.

NIPP. Implementing rules for metadata. Ivica Skender NSDI Working group for technical standards.

Multiple regression: Categorical dependent variables

Data Mining and Analysis: Fundamental Concepts and Algorithms

Rešenja zadataka za vežbu na relacionoj algebri i relacionom računu

Mjerenje snage. Na kraju sata student treba biti u stanju: Spojevi za jednofazno izmjenično mjerenje snage. Ak. god. 2008/2009

Ensemble Methods. Charles Sutton Data Mining and Exploration Spring Friday, 27 January 12

Ivan Soldo. Sažetak. U članku se analiziraju različiti načini množenja matrica. Svaki od njih ilustriran je primjerom.

KLASIFIKACIJSKA STABLA

Performance Evaluation

Dr. Željko Jurić: Matematička logika i teorija izračunljivosti Radna skripta za istoimeni kurs na Elektrotehničkom fakultetu u Sarajevu.

Formule za udaljenost točke do pravca u ravnini, u smislu lp - udaljenosti math.e Vol 28.

Pointwise Exact Bootstrap Distributions of Cost Curves

CptS 570 Machine Learning School of EECS Washington State University. CptS Machine Learning 1

Machine Learning and Data Mining. Bayes Classifiers. Prof. Alexander Ihler

NeuroComp Machine Learning and Validation

Hornerov algoritam i primjene

Metrički prostori i Riman-Stiltjesov integral

Performance Metrics for Machine Learning. Sargur N. Srihari

ALGORITAM FAKTORIZACIJE GNFS

Transcription:

Strojno učenje 3 (I dio) Evaluacija modela Tomislav Šmuc

Pregled i. Greške (stvarna; T - na osnovu uzorka primjera) ii. Resampling metode procjene greške iii. Usporedba modela ili algoritama (na istim podacima) iv. Mjere i. Klasifikacija: Krivulja učenja, TP,FP... Matrica konfuzije točnost, osjetljivost, preciznost ii. IR (+ klasifikacija): F 1, ROC (AUC) Tokom drugih predavanja uz pojedina područja i. Pravila (podrška/pouzdanost/ pojačanje - support/confidence/lift) ii. Regresija RMSE; RAE iii. Clustering: Mjere dobrote clusteringa 21.2.2013. Strojno učenje: Evaluacija modela 2

Određivanje greške Structural Risk Minimization i VC dimenzija Pretpostavimo da imamo na izbor niz strojeva ili algoritama koji uče hipoteze iz prostora H i (funkcije) različitih VC(H i ) tako da vrijedi: VC(H 1 ) VC(H 2 ) VC(H 3 ) VC(H 4 )... VC(H N ) Koji ćemo od strojeva - algoritama koristiti? - Treniramo svaki od strojeva i mjerimo e T... i procjenjujemo e test na osnovu: e e test e T VC( H)(log(2 N / VC( H)) 1) log( / 4) N rbr H i e T (VC(H)... ~e test Rang 1 H 1 4 2 H 2 1 3 H 3 1 4 H 4 1 5 H 5 5 21.2.2013. Strojno učenje: Evaluacija modela 3

Određivanje greške Druge metode procjene bazirane samo na e T (h) i procjeni rizika AIC (Akaike Information Criterion) d( ) 2 AIC( f ( x, ) e ( (, ) 2 ˆ T f x N BIC (Bayesian information Criterion) N d( ) BIC( f ( x, ) e ( (, )) (log ) ˆ T f x N ˆ N MDL (Minimum Description Length) 2 2 DL log P( y, f, x) log P( h) d( ) broj parametara modela - procijenjena pristranost (bias) modela The Elements of Statististical Learning, Hastie, Tibshirani, Friedman rbr H i e T AIC/BIC/DL ~e test Rang 1 H 1 2 H 2 3 H 3 4 H 4 5 H 5 21.2.2013. Strojno učenje: Evaluacija modela 4

Kako izgleda naš problem? Glasači vs. Ne-glasači (HR) binarni klasifikacijski problem (Skup podataka za učenje u tekstu T ili S) Godine: ( 18-25, 26-35, 36-45,...,76+) Spol: {M, Ž} Brak: {Da, Ne} Obrazovanje: {nš,oš,sš,vš,vsš} Broj djece: ( 0, <=2, 3+ ) Regija: {I,S,J,Z,C} Primanja {<50, 50-100, 100-200, >200} Zaduženost (krediti): {0-50, 50-100, 100-200, >200} Najčešće čita novine {V, JL, M, SN, Os} Klasa: {1,0} Godine Spol Brak Obrazovanje Broj djece Regija Primanja (khrk/god) Zaduženost (khrk) Novine Klasa G(+)/ NG(-) 26-35 m Da sš <=2 I 50-100 50-100 V - 26-35 ž Ne vss 0 S <50 0-50 JL + 56-65 ž Da ss 3+ J 100-200 100-200 Os - 66-75 m Ne vss <=2 Z <50 >100 M + 18-25 m Ne ss 0 C <50 0-50 SN +........................ x 21.2.2013. Strojno učenje: Evaluacija modela 5 y

Određivanje greške Kako mjerimo grešku: Empirijska evaluacija uspješnosti učenja Neki (očiti) zaključci: a. e T (h) je gotovo uvijek pristrana (en biased) /optimistična procjena e (h) (bias E [e T (h) ] - e (h) ) Da izbjegnemo ovaj optimistični bias, h i T moraju biti odabrani nezavisno!? a. Čak i ako imamo ne-pristrano odabran skup točaka T, e T (h) se može značajno razlikovati od e (h) Varijanca X => V(X) E [ (X E(X)) 2 ] 21.2.2013. Strojno učenje: Evaluacija modela 6

Određivanje greške Tehnike probira Empirijska procjena greške - validacija modela Tehnike probira (en. resampling) Train & Test metoda Unakrsna validacija (en. Cross-Validation) LOOCV (en. Leave-One-Out-Cross-Validation) Bootstrap sampling (Out-of-Bag error) 21.2.2013. Strojno učenje: Evaluacija modela 7

Određivanje greške Tehnike probira Probir - osnove Slučajni podskup 1 Skup primjera za učenje X 2 X 7 X 4 X 1 X 2 X 7 Slučajni podskup 2 X 4 X 4 X 3 X 9 X 9 X 10 X 6 X 8 X 5 X 10 Slučajni podskup 3 X 4 X 4 X 10 21.2.2013. Strojno učenje: Evaluacija modela 8

Određivanje greške Tehnike probira Probir - osnove Skup primjera za učenje T <x 2,y 2 > <x 4,y 4 > Skup testnih primjera <x 4,y 4 > <x 5,y 5 > <x 6,y 6 > <x 3,y 3 > <x 6,y 6 > <x 5,y 5 > <x 8,y 8 > Skup za učenje <x 7,y 7 > <x 9,y 9 > <x 1,y 1 > <x 2,y 2 > <x 9,y 9 > <x 7,y 7 > <x 8,y 8 > <x 3,y 3 > 21.2.2013. Strojno učenje: Evaluacija modela 9

Određivanje greške Tehnike probira Train & test metoda a. Slučajno odaberemo 1/3 od dostupnih primjera za učenje i stavimo ih u novi skup za testiranje (en. Test set) b. Ostatak od 2/3 primjera iskoristimo za učenje modela skup za učenje (en. Training set) c. Naučimo model na skupu za učenje d. Procijenimo stvarnu grešku modela testirajući novi model na skupu za testiranje. 21.2.2013. Strojno učenje: Evaluacija modela 10

Određivanje greške Tehnike probira Train & test metoda Karakteristike DOBRO: LOŠE: Jednostavna metoda - odabiremo onaj model koji daje najmanju grešku na testnom skupu a. Gubimo vrijedne podatke! 1/3 podataka se uopće ne koristi za izradu modela b. Ako imamo relativno malo podataka za učenje ocjena greške na testnom skupu će biti vrlo nepouzdana (>> varijanca greške) 21.2.2013. Strojno učenje: Evaluacija modela 11

Određivanje greške Tehnike probira T Skup primjera za učenje Fold 1 <x 9,y 9 > <x 2,y 2 > T <x 4,y 4 > Train 1 Test 1 <x 3,y 3 > <x 6,y 6 > <x 5,y 5 > <x 8,y 8 > Fold 2 <x 7,y 7 > <x 10,y 10 > Unakrsna validacija (primjer: 5-fold CV) Train 2 Test 2.... Fold 5 Test 5 Train 5 21.2.2013. Strojno učenje: Evaluacija modela 12

Određivanje greške Tehnike probira k-struka unakrsna validacija (k-fold cross validation) a. Slučajno rasporediti primjere za učenje u k odvojenih skupova T i, i=1,k (tipično po 30+ primjera) b. Za i=1 do k a. Koristi T i kao testni skup a ostale podatke (T m m i ), iskoristi za učenje modela h i b. Na testnom skupu T i izračunaj grešku L m modela h m c. Izračunaj prosječnu grešku za svih k modela L k fold 1 k m 1, k L m 21.2.2013. Strojno učenje: Evaluacija modela 13

Određivanje greške Tehnike probira Pojedinačna unakrsna validacija Leave-one-out cross validation (LOOCV) Na skupu primjera za učenje (x i,y i ) D, i=1,n a. Za i=1 do N a. Privremeno izdvoji primjer (x i,y i ) iz skupa primjera za učenje b. Nauči model h m na preostalim primjerima (N-1) c. Izračunaj grešku modela h m primjeru (x i,y i ) b. Izračunaj prosječnu grešku za svih N modela L 1 LOOCV L m N m 1, N 21.2.2013. Strojno učenje: Evaluacija modela 14

Određivanje greške Tehnike probira Karakteristike metoda evaluacije probirom Metoda Dobre strane Loše strane Train & Test K-fold CV LOOCV Jeftina učimo samo jednom Gubimo samo N/k za učenje jednog modela Stabilnija procjena greške Praktički učimo na svim primjerima (-1) Dobra za mali broj primjera Gubimo puno primjera za učenje Nepouzdana procjena stvarne greške K puta skuplja od T&T učimo k modela Vrlo skupa za veliki N učimo N modela! 21.2.2013. Strojno učenje: Evaluacija modela 15

Određivanje greške Tehnike probira Statistička evaluacija Statistička evaluacija greške Statistički problem određivanje parametara i testiranje hipoteza Neka je f(x) ciljna funkcija koju želimo naučiti koja savršeno klasificira primjere iz Stvarna greška našeg modela e (h) P x [ f(x) h(x) ] Ono što možemo lako dobiti jest greška na skupu S(=T) primjera na kojem učimo: 1 es ( h) ( f ( x) h( x)); ( f ( x) h( x)) 1, ( f ( x) h( x)) 0 x S n e S (h) je rezultat slučaj nog eksperimenta (slično je i s ) CV e S Koliko je e S (h) / dobra procjena e (h)? CV e S 21.2.2013. Strojno učenje: Evaluacija modela 16

Određivanje greške Tehnike probira Statistička evaluacija Statistička evaluacija greške Primjer: a. h griješi na 20 od 100 primjera b. e S (h) = 20/100 = 0.2 c. Koliki je e (h)? Kao da imamo binarni klasifikator (0,1) - slično bacanju novčića i neka je e (h) = stvarna greška h Tada imamo u pozadini određivanja e (h) iz rezultata e S (h) binomnu distribuciju! 21.2.2013. Strojno učenje: Evaluacija modela 17

Određivanje greške Tehnike probira Statistička evaluacija Statistička evaluacija greške Što predstavlja naš eksperiment? Neka su h i e (h) fiksni (poznati) S je slučajnog karaktera - eksperiment je dakle probir primjera iz u S! R = e S (h) S - greška je slučajna varijabla koja ovisi o S! U našem slučaju: S =100, a e S (h) =0.2. Koliko je vjerojatno da je ustvari e (h) =0.3? Treba pogledati binomnu raspodjelu! 21.2.2013. Strojno učenje: Evaluacija modela 18

Određivanje greške Tehnike probira Statistička evaluacija P(X=k) Binomna raspodjela P(X=k) vjerojatnost da ćemo imati k puta ishod=glava u n pokušaja (p/g) P=P(glava) Srednja vrijednost E( X ) n ip( i) i 0 np P( X n! k!( n k)! k n k k) p (1 p) k Varijanca - Var(X)= 2 Var ( X ) E Standardna devijacija X - X = X E 2 ( X E X ) np(1 p) 2 ( X E X ) np(1 p) 21.2.2013. Strojno učenje: Evaluacija modela 19

Određivanje greške Tehnike probira Statistička evaluacija P(X) Normalna raspodjela Vjerojatnost da će X biti u intervalu (a,b) je b a p ( X ) dx P 1 x 1 ( ) 2 ( X ) e 2 2 2 X srednja vrijednost E(X)= Varijanca Var(X)= 2 Standardna devijacija X = 21.2.2013. Strojno učenje: Evaluacija modela 20

Određivanje greške Tehnike probira Statistička evaluacija Mjerenje uspješnosti učenja Sve naše pretpostavke: h i S su nezavisno odabrani n > 30 binomna raspodjela dobro je aproksimirana normalnom raspodjelom (e S (h)) = e (h) e e ( h)(1 e n ( h)) e ( h)(1 e n S S ( S ( h)) ( h)) 21.2.2013. Strojno učenje: Evaluacija modela 21

Određivanje greške Tehnike probira Statistička evaluacija Centralni granični teorem (en. Central Limit Theorem) Neka su x 1, x 2,..., x n slučajne, nezavisne, identično distribuirane varijable, s proizvoljnom distribucijom s (nama) nepoznatom srednjom vrijednosti i varijancom 2. Naš pokušaj određivanja srednje vrijednosti, na osnovu podskupa S: x 1 n n i x 1 i CLT: Distribucija vjerojatnosti kojoj je podložna x približava se Normalnoj distribuciji kada n, bez obzira na distribuciju kojoj su podložne varijable x i. Srednja vrijednost distribucije x približava se srednjoj vrijednosti varijabli x i, a standardna devijacija. n 21.2.2013. Strojno učenje: Evaluacija modela 22

Određivanje greške Tehnike probira Statistička evaluacija Za veći n (n > 30) normalna raspodjela je dobra aproksimacija binomnine raspodjele! Poznato: Sa N% vjerojatnosti, e (h) se nalazi u intervalu: e ( h) e S ( h) z N e S ( h)(1 e n S ( h)) Gdje vrijedi: N% 50% 68% 90% 95% 98% 99% z N 0.67 1.00 1.64 1.96 2.33 2.58 21.2.2013. Strojno učenje: Evaluacija modela 23

Određivanje greške Tehnike probira Statistička evaluacija Računanje razlika između modela 1. Želimo odrediti razliku u uspješnosti dva modela h 1 i h 2 : 2. Na osnovu procjena dobivenih na S 1 i S 2 ˆ e 3. Odredimo distribuciju vjerojatnosti koja je u pozadini naše procjene ˆ e S e S 1 ( h1 ) e ( h2 ) ( h ) e ( h1 )(1 es ( h1 )) e ( h2 )(1 e 1 S 2 S 2 n 1 ( 1 1 S h 2 4. Na kraju nađemo interval N% vjerojatnosti u koji spada e 2 ) n 2 ( h ( h1 )(1 e ( h )) e ( h )(1 e ( h )) ˆ S1 S1 1 S2 2 S2 zn n1 n2 2 )) 2 21.2.2013. Strojno učenje: Evaluacija modela 24

Određivanje greške Tehnike probira Statistička evaluacija Usporedba 2 algoritma strojnog učenja Vrlo često: a. Želimo pronaći najbolji algoritam za naš problem b. Odrediti razliku u uspješnosti algoritama i ustanoviti da li je ona statistički značajna Statistički test mora kontrolirati nekoliko izvora varijacije: - u izboru testnih podataka - u izboru podataka za učenje - slučajni odabiri/odluke u algoritmima 21.2.2013. Strojno učenje: Evaluacija modela 25

Određivanje greške Tehnike probira Statistička evaluacija Usporedba 2 algoritma strojnog učenja 1. Podijeli skup primjera D u skupove T 1,T 2,..., T k jednake veličine 2. Za i=1 do k Koristiti T i za testiranje a ostale podatke {D T i } za učenje modela {D T i } S i h A L A (S i ); h B L B (S i ) x i (e Ti (h A ) e Ti (h B )) 3. Odredi x prema: x 1 n n i x 1 i 1 Gdje je k validacijom k i 1 e( L A ( S i )) procjena greške L A dobivena k-strukom unakrsnom 21.2.2013. Strojno učenje: Evaluacija modela 26

Određivanje greške Tehnike probira Statistička evaluacija Usporedba 2 algoritma strojnog učenja Testni skupovi su međusobno nezavisni ali skupovi za učenje se značajno preklapaju! Hipoteze/modeli su generirani korištenjem (k-1)/k dostupnih podataka Algoritmi A and B trenirani su na istom skupu podataka i njihove hipoteze testirani na istom (testnom) skupu Zbog zavisnosti => paired t-tests (konzervativniji u ocjeni statističke značajnosti) Drugi (popularni) testovi: (T Dietterich, Approximate statistical tests...) - McNemar-ov test - 5x2 fold Xv - Wilcoxon signed rank test 21.2.2013. Strojno učenje: Evaluacija modela 27

Određivanje greške Tehnike probira Statistička evaluacija Mjere Mjere/statistike uspješnosti u klasifikaciji Neke od mjera/statistika postoje u principu od vremena prije nastanka pojma strojno učenje Osim SU neke od ovih mjera su uobičajene i u području IR (en. information retrieval) Neke od mjera uspješnosti modela Krivulja (točnosti) učenja Matrica konfuzije Točnost, Osjetljivost, Preciznost (Recall/Precision) F 1, ROC Receiver Operating Curve - (AUC) Kappa 21.2.2013. Strojno učenje: Evaluacija modela 28

Određivanje greške Tehnike probira Statistička evaluacija Mjere Problem Glasači vs. Ne-glasači (HR) Godine: ( 18-25, 26-35, 36-45,...,76+) Spol: {M, Ž} Brak: {Da, Ne} Obrazovanje: {nš,oš,sš,vš,vsš} Broj djece: ( 0, <=2, 3+ ) Regija: {I,S,J,Z,C} Primanja {<50, 50-100, 100-200, >200} Zaduženost (krediti): {0-50, 50-100, 100-200, >200} Najčešće čita novine {V, JL, M, SN, Os} Klasa: {1,0} Godine Spol Brak Obrazovanje Broj djece Regija Primanja (khrk/god) Zaduženost (khrk) Novine Klasa G(+)/ NG(-) 26-35 m Da sš <=2 I 50-100 50-100 V - 26-35 ž Ne vss 0 S <50 0-50 JL + 56-65 ž Da ss 3+ J 100-200 100-200 Os - 66-75 m Ne vss <=2 Z <50 >100 M + 18-25 m Ne ss 0 C <50 0-50 SN +........................ 21.2.2013. Strojno učenje: Evaluacija modela 29

Određivanje greške Tehnike probira Statistička evaluacija Mjere Greška (%) Krivulja učenja Greška na skupu za testiranje (loša generalizacija) 100 80 60 40 Greška na skupu za testiranje (dobra generalizacija) 20 0 20 40 60 80 100 Broj primjera za učenje Greška na skupu za učenje 21.2.2013. Strojno učenje: Evaluacija modela 30

Određivanje greške Tehnike probira Statistička evaluacija Mjere Naš naučeni model h aproksimira ciljnu funkciju f koja preslikava x (G,S,B,O,BrD,R,P,Z,N) u Klasu {+,-} Matrica konfuzije (confusion matrix) Predviđeno modelom h G (+) Pozitivni NG (-) Negativni G (+) Pozitivni TP FN Stvarna klasa NG (-) Negativni FP TN TP - true positives (broj stvarno pozitivnih primjera, točno predviđenih od strane modela h) FP - false positives (broj stvarno negativnih primjera, koji su netočno predviđeni od strane modela h kao pozitivni) TN true negatives (broj stvarno negativnih primjera, koji su točno predviđeni od strane modela h kao negativni) FN false negatives (broj stvarno pozitivnih primjera, koji su netočno predviđeni od strane modela h kao negativni) 21.2.2013. Strojno učenje: Evaluacija modela 31

Određivanje greške Tehnike probira Statistička evaluacija Mjere Matrica konfuzije Stvarna klasa (confusion matrix) G (+) Pozitivni NG (-) Negativni Predviđeno modelom G (+) Pozitivni TP FP h NG (-) Negativni FN TN Točnost (en. Accuracy) = (TP+TN) / (TP+FP+TN+FN) Omjer točno klasificiranih primjera u odnosu na ukupan broj primjera (recimo u testnom skupu primjera) vrlo česta i uobičajena mjera - ne uvijek i ono što nam treba: - pozitivni primjeri su nam daleko važniji (medicina) (točnost daje istu težinu i pozitivnim i negativnim primjerima) - u mnogim problemima imamo veliki nesrazmjer između broja pozitivnih i negativnih primjera 21.2.2013. Strojno učenje: Evaluacija modela 32

Određivanje greške Tehnike probira Statistička evaluacija Mjere Matrica konfuzije Stvarna klasa (confusion matrix) G (+) Pozitivni NG (-) Negativni Predviđeno modelom G (+) Pozitivni TP FP h NG (-) Negativni FN TN Osjetljivost (en. Sensitivity / Recall /True positive rate) R = TP / (TP+FN) Udio točno pozitivnih primjera koje je model prepoznao kao pozitivne, od ukupnog broja pozitivnih primjera. - npr. Moramo imati R 1 da ne bi ispustili teškog bolesnika Specifičnost = TN / (FP+TN) S 1 = P [ Test je negativan Pacijent je zdrav ] Preciznost P = TP / (TP+FP) Udio stvarno pozitivnih primjera u svima koji su modelom predviđeni kao pozitivni => pretraživači/preporučitelji - Information Retrieval (IR) 21.2.2013. Strojno učenje: Evaluacija modela 33

Određivanje greške Tehnike probira Statistička evaluacija Mjere Evaluacija IR (information retrieval) sistema (npr. pretraživači) Učinkovitost (Effectiveness) Pronalaženje relevantnog sadržaja (dokumenata iz korpusa npr. Internet) Ostali elementi Ekspresivnost (kompleksnost informacija) Efikasnost (indeksiranje, brzina)... 21.2.2013. Strojno učenje: Evaluacija modela 34

Određivanje greške Tehnike probira Statistička evaluacija Mjere IR - Kvantifikacija relevantnosti ~ klasifikacija (važni/nevažni) Pretraživač (~ klasifikator) (problem: razlučiti važno/nevažnog) korpus dokumenata = testni skup skup upita (ulazni podaci testnog skupa) 21.2.2013. Strojno učenje: Evaluacija modela 35

Određivanje greške Tehnike probira Statistička evaluacija Mjere IR - Kvantifikacija relevantnosti IR sistem vrati određeni skup dokumenata Možemo opet upotrijebiti matricu konfuzije! Matrica konfuzije Stvarna klasa (confusion matrix) V (+) Važni NV (-) NeVažni Predviđeno pretraživačem G (+) Važni TP FP NG (-) NeVažni FN TN 21.2.2013. Strojno učenje: Evaluacija modela 36

Određivanje greške Tehnike probira Statistička evaluacija Mjere Točnost i IR Točnost: Acc = (TP+TN) / (TP+FP+TN+FN) = Udio točnih klasifikacija Za IR neupotrebljivo! Važno <<< Nevažno TP <<< TN Acc= (1 + 997) / (1+1+997+1)= 99.8% Acc=(0 + 998) / (0+0+998+2)= 99.8% 21.2.2013. Strojno učenje: Evaluacija modela 37

Određivanje greške Tehnike probira Statistička evaluacija Mjere Preciznost P = tp/(tp+fp) Udio važnih dokumenata od onih koji su pronađeni (klasificirano kao važni!) P [pronađeni važni ukupno pronađeni ] Osjetljivost recall R = tp/(tp+fn) Udio od ukupno važnih koji su i pronađeni kao važni P [pronađeni važni ukupno važnih] R može biti jednak 1 - ali je tada preciznost loša! 21.2.2013. Strojno učenje: Evaluacija modela 38

Određivanje greške Tehnike probira Statistička evaluacija Mjere Dobar IR Balans Preciznost/Osjetljivost Tipično: preciznost pada kako osjetljivost raste, i obratno F : tzv. F-mjera koja povezuje Preciznost/Osjetljivost F : harmonijska sredina P i R - uz težinski faktor F 2 1 ( 1) PR 2 1 1 (1 ) P R P R 21.2.2013. Strojno učenje: Evaluacija modela 39

Određivanje greške Tehnike probira Statistička evaluacija Mjere F1 Uobičajeno se u IR koristi : F 1 : Balansirani P i R (tj = 1 ili = ½) F 1 1 P 2 1 R 2PR P R 1 0.8 0.6 R=0.9 R=0.6 R=0.3 0.4 0.2 0 0.00 0.20 0.40 0.60 0.80 1.00 P 21.2.2013. Strojno učenje: Evaluacija modela 40

Određivanje greške Tehnike probira Statistička evaluacija Mjere Ako IR-sistem rangira dokumente: R,P,F 1 - f (odabranog broja rangiranih dokumenata) Ako klasifikator rangira primjere npr. prema vjerojatnosti pripadanja određenoj klasi: R,P, F 1 - f (odabranog broja rangiranih primjera) 21.2.2013. Strojno učenje: Evaluacija modela 41

Određivanje greške Tehnike probira Statistička evaluacija Mjere P 1.0 P vs R 0.8 0.6 0.4 Interpolirane - srednje vrijednosti P 0.2 0.0 0.0 0.2 0.4 0.6 0.8 1.0 R 21.2.2013. Strojno učenje: Evaluacija modela 42

Određivanje greške Tehnike probira Statistička evaluacija Mjere Mjere vezane uz rangiranje primjera P(k) preciznost za top k pronađenih primjera R(k) osjetljivost za top k pronađenih primjera ROC (Receiver Operating Characteristic) Krivulja koja prikazuje odnos: TPR (true positive rate) vs FPR (false positive rate) 21.2.2013. Strojno učenje: Evaluacija modela 43

Određivanje greške Tehnike probira Statistička evaluacija Mjere ROC krivulja prikazuje odnos TPR u odnosu na FPR TPR broj korektnih klasifikacija u (pozitivnoj) klasi u odnosu na ukupan broj pozitivnih primjera TPR = tp/(tp+fn) = R FPR broj krivih klasifikacija u (pozitivnoj) klasi u odnosu na ukupan broj negativnih primjera FPR = fp/(fp+tn) = 1 specifičnost 21.2.2013. Strojno učenje: Evaluacija modela 44

Određivanje greške Tehnike probira Statistička evaluacija Mjere TPR (osjetljivost) TPR (osjetljivost) ROC krivulja Mjera uspješnosti klasifikatora na nivou jedne klase primjera! ML klasifikator AUC - Površina ispod ROC krivulje (en. AUC Area Under Curve) AUC=0.5 slučajno pogađalo AUC=1 savršeni klasifikator 1.0 0.8 0.6 0.4 0.2 Slučajni klasifikator 1.0 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1.0 FPR (1-specifičnost) 0 0.2 0.4 0.6 0.8 1.0 FPR (1-specifičnost) 21.2.2013. Strojno učenje: Evaluacija modela 45

Određivanje greške Tehnike probira Statistička evaluacija Mjere ROC -prostor za komparaciju hipoteza/algoritama Nemamo rangirane primjere - h u točki (TPR,FPR) 1.0 TPR (osjetljivost) 0.8 0.6 0.4 0.2 K-nn RF DT SVM Loši-alg. 0 0.2 0.4 0.6 0.8 1.0 FPR (1-specifičnost) 21.2.2013. Strojno učenje: Evaluacija modela 46

Određivanje greške Tehnike probira Statistička evaluacija Mjere Kappa - mjera slaganja eksperata u predikciji (Inter-Judge Agreement) P( A) P( S) 1 P( S) P(A): proporcija primjera kod kojih se eksperti slažu P(S): očekivana proporcija primjera kod kojih se slaganje postiže slučajnim predikcijama κ = 0: sasvim slučajno slaganje; κ = 1: savršeno slaganje; κ > 0.8: dobro slaganje 0.67 < κ < 0.8: tentativno slaganje 21.2.2013. Strojno učenje: Evaluacija modela 47

Određivanje greške Tehnike probira Statistička evaluacija Mjere Kako to funkcionira slaganje eksperata? Broj primjera Ekspert 1 Ekspert 2 200 važno važno 50 nevažno nevažno 30 važno nevažno 20 nevažno važno P(E1=E2) = (200+50)/300 = 0.83 P(nevažno) = (20+30+50+50)/(300+300) = 0.25 P(važno) = (20+30+200+200)/(300+300) = 0.75 P(slučajno) = 0.25 2 + 0.75 2 = 0.63 κ = (0.83-0.63)/(1-0.63) = 0.54 21.2.2013. Strojno učenje: Evaluacija modela 48

Određivanje greške Tehnike probira Statistička evaluacija Mjere Kako to funkcionira - u klasifikaciji? Predikcija Klasifikatora - ekspert 2 Stvarna klasifikacija - ekspert 1 v n v 200 20 n 30 50 P(E1=E2) = (200+50)/300 = 0.83 P(nevažno) = (20+50)/(300) = 0.25 P(važno) = (30+200)/(300) = 0.75 P(slučajno) = 0.25 2 + 0.75 2 = 0.642 Što pretpostavlja P(slučajno)? κ = (0.83-0.63)/(1-0.63) = 0.53 21.2.2013. Strojno učenje: Evaluacija modela 49

Određivanje greške Tehnike probira Statistička evaluacija Mjere Sažetak Teorijske procjene greške Resampling metode Statistička evaluacija odabir/usporedba modela i algoritama Mjere uspješnosti u klasifikaciji 21.2.2013. Strojno učenje: Evaluacija modela 50

Literatura Evaluacija modela Literatura: Evaluacija modela: Machine learning T. Mitchel (ch. 5) The Elements of Statistical Learning Hastie, Tibshirani, Friedman (ch. 7) Model selection: T Dietterich, Approximate statistical tests for comparing supervised classification learning algorithms, Neural Computation, 1998, 10, 1895-1923 ROC (Receiver Operating Characteristic) P.A. Flach ROC tutorijali + članci 21.2.2013. Strojno učenje: Evaluacija modela 51

Pristranost i varijanca modela Pristranost modela i varijanca (bias & variance) 21.2.2013. Strojno učenje: Bias & variance 52

Greška modela i kompleksnost modela 21-Feb-13 TS: Strojno učenje - Bias & varijanca 53

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela Kod određivanja aproksimacije funkcije ciljna varijabla y se obično može izraziti kao: y(x) = f(x) + - f(x) - ciljna funkcija - - šum; obično E ( x )=0 Uz određene modifikacije slijedeće razmatranje se može promijeniti i na klasifikacijske probleme 21-Feb-13 TS: Strojno učenje - Bias & varijanca 54

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela Skup za učenje je T slučajno uzorkovan => predikcija ŷ slučajna varijabla p T (ŷ) ŷ 21-Feb-13 TS: Strojno učenje - Bias & varijanca 55

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela Očekivane vrijednosti E(e) = bias 2 + varijanca + šum E T [ (y - ŷ) 2 ] = (E T [ŷ] y) 2 + E T [(ŷ E T [ŷ]) 2 ] + E[ x] a b c Pristranost/Bias: sistematska greška na točki x - prosjek preko svih skupova za učenje T veličine N Varijanca: Varijacija greške oko prosječne vrijednosti Šum: Greška u određivanju stvarnih vrijednosti y(x) 21-Feb-13 TS: Strojno učenje - Bias & varijanca 56

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela p(y) bias 2 E y {y} E T {ŷ} y (E y {y}-e T {ŷ}) 2 E T {ŷ} = prosječni rezultat modela (preko svih T) bias 2 = greška između stvarne vrijednosti i prosječnog estimacijskog modela 21-Feb-13 TS: Strojno učenje - Bias & varijanca 57

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela p(y) var T {ŷ} E y {y} E T {ŷ} y var T {y} =E T {(ŷ-e T {ŷ} ) 2 } var T {ŷ} = estimacijska varijanca = zbog over-fitinga 21-Feb-13 TS: Strojno učenje - Bias & varijanca 58

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela p(y) var {y} y E y {y} y var {y} = E y {(y- E y {y}) 2 } rezidualna greška = minimalna greška koju možemo dostići 21-Feb-13 TS: Strojno učenje - Bias & varijanca 59

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela p(y) var {y} bias 2 var T {ŷ} E y {y} E T {ŷ} y E= var {y} + bias 2 + var T {y} 21-Feb-13 TS: Strojno učenje - Bias & varijanca 60

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela y, E {y} y x 21-Feb-13 TS: Strojno učenje - Bias & varijanca 61

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela y, E T {y} h I (x) Primjer (I) x 21-Feb-13 TS: Strojno učenje - Bias & varijanca 62

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela y, E T (y) h II (x) Primjer II x 21-Feb-13 TS: Strojno učenje - Bias & varijanca 63

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela E = bias 2 +var var bias 2 Kompleksnost modela (h) Pristranost (bias) obično pada s povećanjem kompleksnosti modela, dok se varijanca povećava s kompleksnosti modela 21-Feb-13 TS: Strojno učenje - Bias & varijanca 64

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela Mjerenje pristranosti (bias) i varijance Pristranosti i varijanca definirani su kao očekivanja! Da bi se odredili moramo simulirati velik broj skupova T Na taj način možemo odrediti i velik broj modela te ih iskoristiti za određivanje prosječnih vrijednosti 21-Feb-13 TS: Strojno učenje - Bias & varijanca; Ansambli 65

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela 21-Feb-13 TS: Strojno učenje - Bias & varijanca; Ansambli 66

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela Pristranost modela (Bias) 21-Feb-13 TS: Strojno učenje - Bias & varijanca; Ansambli 67

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela Varijanca 21-Feb-13 TS: Strojno učenje - Bias & varijanca; Ansambli 68

Dekompozicija prediktivne pogreške: Pristranost i varijanca modela Šum 21-Feb-13 TS: Strojno učenje - Bias & varijanca; Ansambli 69

Bias i varijanca: mjerenje za neki algoritam Bootstrap pristup 1 Uz dani skup podataka D, odvojimo (1/3) podataka u skup za testiranje (D h hold-out set), a preostale ostavimo u D t ; 2 Iz skupa D t (veličine N), konstruiramo tzv. bootstrap repliku skupa - D b, tako da slučajno uzorkujemo N primjera iz D t (uz dozvoljeno višestruko izvlačenje istog primjera!) ; 3 Algoritmom strojnog učenja konstruiramo model h b, treniranjem na D b 4 Korištenjem h b odredimo predikcije na primjerima iz D h, te odredimo grešku 5 Ovaj proces se tipično ponovi velik broj puta (K>30) 21-Feb-13 TS: Strojno učenje - Bias & varijanca; Ansambli 70

Bias i varijanca: mjerenje Određivanje pristranosti(bias) i varijance korištenjem bootstrap uzoraka 1 Za svaki x skup predikcija h 1 (x), h 2 (x),..., h K (x) Prosječna predikcija: K 1 h( x) h k ( x) K k 1 2 Bias : Bias ( x) y h( x) 3 Varijanca: K 1 Varijanca ( x) ( h( x) h( x)) K 1 k 1 2 21-Feb-13 TS: Strojno učenje - Bias & varijanca; Ansambli 71

Literatura Literatura: The Elements of Statistical Learning Hastie, Tibshirani, Friedman (ch. 15) AI Modern approach Russel & Norvig (ch 18.4) 21-Feb-13 TS: Strojno učenje - Bias & varijanca; Ansambli 72