Klasifikácia. Obchodný dom = oddelenia (typ/druh tovaru) alternatívne kritériá výberu príznakov vedú k rôznemu výsledku klasifikácie
|
|
- Flora Bryant
- 5 years ago
- Views:
Transcription
1 Klasifikácia Obchodný dom = oddelenia (typ/druh tovaru) alternatívne kritériá výberu príznakov vedú k rôznemu výsledku klasifikácie určenie triedy objektu na základe príznakov získaných z objektu
2 Rozhodovacie oblasti
3 Príznakové metódy štatistické metódy vzdialenosti medzi príznakmi techniky najbližších susedov diskriminačná analýza mechanizmy podporných vektorov metóda K priemerov hierarchické zhlukovanie biologicky inšpirované metódy neurónové siete samoorganizujúce mapy pravidlá (aj nemetrické príznaky) rozhodovacie stromy
4 Syntaktickémetódy opis objektu elementárne (ďalej nedeliteľné) prvky objektu zvané primitíva a relácie medzi nimi opis objektu tvorí slovo jazyka nad nejakou abecedou.
5 Hybridné metódy sú kombináciou predchádzajúcich metód Príznakovými metódami identifikujeme primitíva na vytvorenie syntaktického opisu objektu.
6 Riadené metódy Jedna premenná, ktorá sa nazýva cieľová (klasifikačná trieda), riadi proces učenia tak, aby ostatné premenné (prediktory), čo najlepšie predpovedali (v trénovacej vzorke známu) hodnotu cieľovej premennej. * Neurónové siete * Mechanizmy podporných vektorov * Diskriminačná analýza * Rozhodovacie stromy * Bayesovské modely * Techniky najbližších susedov
7 Neriadené metódy Všetky premenné v modely sú rovnocenné, žiadna z nich neriadi proces učenia. Výsledná trieda je určená na základe hľadania podobností medzi pozorovaniami * Hierarchické zhlukovanie * Metóda K priemerov * Neurčité (fuzzy) zhlukovanie * Kohonenove siete (Samo-organizujúce mapy)
8 Riadené trénovacia množina N pozorovaní (x 1,..., x N ), x i R d triedy (y 1,..., y N ), y i { 1, 1} klasifikačný problém: určiť f(x) tak, aby f(x i ) = y i
9 Bayesovský klasifikátor Bayesovský klasifikátor: objekt je priradený do triedy, ktorá je najpravdepodobnejšia vzhľadom na príznaky podmienené rozdelenie pravdepodobnosti P(x ωi) pre každú klasifikačnú triedu ωi apriórna pravdepodobnost P(ωi) pre každú ωi (pred pozorovaním vektora x) nepodmienené rozdelenie pravdepodobnosti P(x) určuje pravdepodobnost vektora x bez ohl adu na triedu
10 Naivný Bayesovský klasifikátor vychádza z predpokladu, že efekt, ktorý má hodnota každého príznakuna danú triedu, nie je ovplyvnený hodnotami ostatných príznakov P(x1,x2,...xN ωi)=p(x1 ωi)p(x2 ωi)...p(xn ωi)
11 Bayesovský klasifikátor priradí objekt triede, kde P(ωi x) je maximálne Rozhodovacia funkcia
12 Optimalita Bayesovho klasifikátora klasifikácia do dvoch rovnako pravdepodobných tried
13
14 Príklad Máme Red domestic SUV, ukradnú nám ho? P(Yes Red, SUV, Domestic) P(Red, SUV, Domestic Yes)? P(Red, SUV, Domestic No) P(Red Yes), P(SUV Yes), P(Domestic Yes), P(Red No), P(SUV No), P(Domestic No)
15 Do ktorej triedy patrí tento zákazník? X = (age <=30, Income = medium, Student = yes Credit_rating = Fair) age income student credit rating buys computer <=30 high no fair no <=30 high no excellent no high no fair yes >40 medium no fair yes >40 low yes fair yes >40 low yes excellent no low yes excellent yes <=30 medium no fair no <=30 low yes fair yes >40 medium yes fair yes <=30 medium yes excellent yes medium no excellent yes high yes fair yes >40 medium no excellent no
16 štatisticky nezávislé rovnaká variancia
17 Rovnaká kovariančná matica Rôzne variancie
18 Rovnaká kovariančná matica Nie diagonálna
19 Diagonálna kovariančná matica, rôzna
20 Rôzna kovariančná matica
21 K najbližších susedov Algoritmus pre každý testovaný bod x, nájdi K najbližších susedov z trénovacej množiny klasifikuj x podľa väčšiny K=1? K = 3
22 K=1 Voronoiov diagram
23
24 zvyšovanie K: vyhladzuje sa hranica zvyšuje / znižuje sa klasifikačná chyba rastie výpočtová náročnosť vzájomná validácia na určenie K trénovacia / testovacia množina priemer chyby na trénovacích množinách
25 Čo znamená najbližší? Metrika... Výpočtová náročnosť: Musíme prehľadať celú trénovaciu množinu na určenie susedov. K=3
26 Rozhodovacie stromy nominálne dáta, pojem vzdialenosti stráca zmysel pravidlá Strom: uzol = test, vetvy zodpovedajú možným výsledkom list = klasifikačná trieda
27 Rozhodovacie porovnanie v každom uzle aký je vzt ah hodnoty určeného príznaku k zvolenej prahovej hodnote uzol t skúma dáta podmnožiny Xt trénovacej množiny a rozdel uje ju na dve podmnožiny XtA, XtN
28 Rozdeľujúce kritérium určuje prahovú hodnotu a príznak, ktoré budú vystupovat v rozhodovacom porovnaní Ukončujúce kritérium riadi rast stromu Pravidlá určujú klasifikačnú triedu v listoch
29
30 1. vezmi všetky nepoužité príznaky, ohodnoť 2. do uzlu vezmi príznak s najlepším ohodnotením 3. pre každú hodnotu príznaku vytvor podmnožinu dát
31 Rozdeľujúce kritérium Gini-index ako často bude náhodný element nesprávne klasifikovaný, ak bude náhodne klasifikovaný podľa rozdelenia tried v množine Pravdepodobnosť nesprávnej klasifikácie Pravdepodobnosť výberu ID3 (Iterative Dichotomiser 3) minimalizácia entropie C4.5 maximalizácia MI
32
33 Ukončujúce kritérium Všetky objekty v skúmanej množine patria do jednej klasifikačnej triedy. Strom dosiahol maximálnu stanovenú hĺbku. Počet objektov klasifikovaných v danom uzle je menší ako stanovený prah. Ohodnotenie najlepšieho príznaku je nižšie ako stanovený prah.
34 Príklad C4.5
35 Outlook Temp Humidity Windy sunny FALSE Play overcast FALSE Play overcast FALSE Play rain FALSE Play rain FALSE Play sunny FALSE Don't Play sunny FALSE Don't Play rain FALSE Play overcast TRUE Play rain TRUE Don't Play sunny TRUE Play rain TRUE Don't Play overcast TRUE Play sunny TRUE Don't Play Play (positive) / Don't Play (negative) false 8/14 [9+,5-] vietor 6/14 true [6+, 2-] [3+, 3-] I(S;vietor): = (8/14)* (6/14)*1.0 =0.048
36 Outlook Temp Humid Windy Play (positive) / Don't Play (negative) overcast TRUE Play overcast FALSE Play overcast FALSE Play overcast TRUE Play rain TRUE Don't Play rain FALSE Play rain TRUE Don't Play rain FALSE Play rain FALSE Play sunny FALSE Play sunny TRUE Play sunny FALSE Don't Play sunny TRUE Don't Play sunny FALSE Don't Play Sunny [9+,5-] Počasie 5/14 4/14 5/14 Overcast Rain [2+, 3-] [4+, 0-] [3+, 2-] I(S;počasie) =0.940-(5/14)* (4/14)*0.0 (5/14)*0.971 =0.247
37 S=[9+,5-] humidita Prah {v 1, v 2,, v i } a {v i+1, v i+2,, v k } Takýchto možných rozdelení je k-1. hodnotiaca funkcia rozdelenia rozdelenie s maximálnym ohodnotením. <=prah [?+,?-] >prah [?+,?-]
38 Outlook Temp Humidity Windy Play (positive) / Don't Play (negative) overcast TRUE Play rain TRUE Don't Play sunny FALSE Play sunny TRUE Play overcast FALSE Play overcast FALSE Play rain FALSE Play rain TRUE Don't Play rain FALSE Play sunny FALSE Don't Play S=[9+,5-] humidita overcast TRUE Play sunny TRUE Don't Play sunny FALSE Don't Play rain FALSE Play <=prah >prah [?+,?-] [?+,?-] 8 možných prahov Najlepší: 82,5 I(S,Humidity) =0.102 Obdobne teplota: prah=70,5 I(S,Teplota) =0. 045
39 I(S;počasie) = I(S;vietor) = I(S;humidity) = I(S;teplota) = sunny FALSE Play sunny TRUE Play sunny FALSE Don't Play sunny TRUE Don't Play sunny FALSE Don't Play rain TRUE Don't Play rain FALSE Play rain TRUE Don't Play rain FALSE Play rain FALSE Play
40 Orezávanie rozhodovacích stromov počas generovania rozhodovacieho stromu Ak hodnota zvolenej miery významnosti pre skúmaný uzol nepresiahne stanovený prah, ďalšie vetvenie sa zastaví. po vygenerovaní rozhodovacieho stromu Toto orezávanie odstraňuje vetvy z už vygenerovaného stromu takým spôsobom, že porovnáva veľkosť očakávanej chyby klasifikácie pre daný podstrom a jeho náhradu listovým uzlom. Ak sa chyba po náhrade listovým uzlom nezväčší, daný podstrom je možné odrezať.
41 Výhody Jednoduchá interpretácia Dáta netreba predspracovať Numerické aj kategorické dáta Biela skrinka (boolovská logika) Nízka výpočtová náročnosť Nevýhody Optimálny strom NP úplný problém Heuristiky nezaručujú optimálny strom Možnosť preučenia
Ing. Tomasz Kanik. doc. RNDr. Štefan Peško, CSc.
Ing. Tomasz Kanik Školiteľ: doc. RNDr. Štefan Peško, CSc. Pracovisko: Študijný program: KMMOA, FRI, ŽU 9.2.9 Aplikovaná informatika 1 identifikácia problémovej skupiny pacientov, zlepšenie kvality rozhodovacích
More informationTeória grafov. RNDr. Milan Stacho, PhD.
Teória grafov RNDr. Milan Stacho, PhD. Literatúra Plesník: Grafové algoritmy, Veda Bratislava 1983 Sedláček: Úvod do teórie grafů, Academia Praha 1981 Bosák: Grafy a ich aplikácie, Alfa Bratislava 1980
More information( D) I(2,3) I(4,0) I(3,2) weighted avg. of entropies
Decision Tree Induction using Information Gain Let I(x,y) as the entropy in a dataset with x number of class 1(i.e., play ) and y number of class (i.e., don t play outcomes. The entropy at the root, i.e.,
More informationSegmentace textury. Jan Kybic
Segmentace textury Případová studie Jan Kybic Zadání Mikroskopický obrázek segmentujte do tříd: Příčná vlákna Podélná vlákna Matrice Trhliny Zvolená metoda Deskriptorový popis Učení s učitelem ML klasifikátor
More informationDIPLOMOVÁ PRÁCA ŽILINSKÁ UNIVERZITA V ŽILINE. Ján Rabčan Aplikácia na vyhodnocovanie dotazníkov pomocou hĺbkovej analýzy dát
ŽILINSKÁ UNIVERZITA V ŽILINE FAKULTA RIADENIA A INFORMATIKY DIPLOMOVÁ PRÁCA Ján Rabčan Aplikácia na vyhodnocovanie dotazníkov pomocou hĺbkovej analýzy dát Vedúci práce: Ing. Jozef Kostolný, PhD. Registračné
More informationUNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY. Robustné metódy vo faktorovej analýze
UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY Robustné metódy vo faktorovej analýze DIPLOMOVÁ PRÁCA Bratislava 2013 Bc. Zuzana Kuižová UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA
More informationKapitola S5. Skrutkovica na rotačnej ploche
Kapitola S5 Skrutkovica na rotačnej ploche Nech je rotačná plocha určená osou rotácie o a meridiánom m. Skrutkový pohyb je pohyb zložený z rovnomerného rotačného pohybu okolo osi o a z rovnomerného translačného
More informationAdministrative notes. Computational Thinking ct.cs.ubc.ca
Administrative notes Labs this week: project time. Remember, you need to pass the project in order to pass the course! (See course syllabus.) Clicker grades should be on-line now Administrative notes March
More informationChapter 4.5 Association Rules. CSCI 347, Data Mining
Chapter 4.5 Association Rules CSCI 347, Data Mining Mining Association Rules Can be highly computationally complex One method: Determine item sets Build rules from those item sets Vocabulary from before
More informationPrednáška 3. Optimalizačné metódy pre funkcie n-premenných. Študujme reálnu funkciu n-premenných. f: R R
Prednáška 3 Optimalizačné metódy pre funkcie n-premenných Študujme reálnu funkciu n-premenných n f: R R Našou úlohou bude nájsť také x opt R n, pre ktoré má funkcia f minimum x opt = arg min ( f x) Túto
More informationKľúčové slová: SAR, šum spekl noise, evolučná PDR, lineárna difúzia, Perona-Malikova rovnica, štatistickéfiltre, Leeho filter
Kľúčové slová: SAR, šum spekl noise, evolučná PDR, lineárna difúzia, Perona-Malikova rovnica, štatistickéfiltre, Leeho filter Tvorba šumu spekl radarový senzor vysiela elektromagneticlý pulz a meria odraz
More informationPROGRAM VZDELÁVACEJ ČINNOSTI. Anotácia predmetu
PROGRAM VZDELÁVACEJ ČINNOSTI Číslo predmetu : 3I0107 Názov predmetu : Štatistické a numerické metódy Typ predmetu : Povinný Študijný odbor: EF Zameranie: Ročník : 1. Ing. Semester : zimný Počet hodín týždenne
More informationMaticové algoritmy I maticová algebra operácie nad maticami súčin matíc
Maticové algoritmy I maticová algebra operácie nad maticami súčin matíc priesvitka Maurits Cornelis Escher (898-97) Ascending and Descending, 960, Lithograph priesvitka Matice V mnohých prípadoch dáta
More informationMachine Learning. Yuh-Jye Lee. March 1, Lab of Data Science and Machine Intelligence Dept. of Applied Math. at NCTU
Machine Learning Yuh-Jye Lee Lab of Data Science and Machine Intelligence Dept. of Applied Math. at NCTU March 1, 2017 1 / 13 Bayes Rule Bayes Rule Assume that {B 1, B 2,..., B k } is a partition of S
More informationThe Solution to Assignment 6
The Solution to Assignment 6 Problem 1: Use the 2-fold cross-validation to evaluate the Decision Tree Model for trees up to 2 levels deep (that is, the maximum path length from the root to the leaves is
More informationUrčenie hodnoty Value at Risk využitím simulačnej metódy Monte Carlo v neživotnom poistení
Určenie hodnoty Value at Risk využitím simulačnej metódy Monte Carlo v neživotnom poistení Vladimír Mucha 1 Abstrakt Cieľom príspevku je poukázať na využitie simulačnej metódy Monte Carlo pri určovaní
More informationJádrové odhady regresní funkce pro korelovaná data
Jádrové odhady regresní funkce pro korelovaná data Ústav matematiky a statistiky MÚ Brno Finanční matematika v praxi III., Podlesí 3.9.-4.9. 2013 Obsah Motivace Motivace Motivace Co se snažíme získat?
More informationDecision Tree And Random Forest
Decision Tree And Random Forest Dr. Ammar Mohammed Associate Professor of Computer Science ISSR, Cairo University PhD of CS ( Uni. Koblenz-Landau, Germany) Spring 2019 Contact: mailto: Ammar@cu.edu.eg
More informationLucia Fuchsová Charakteristiky pravděpodobnostních
Univerzita Karlova v Praze Matematicko-fyzikální fakulta BAKALÁŘSKÁ PRÁCE Lucia Fuchsová Charakteristiky pravděpodobnostních předpovědí Katedra pravděpodobnosti a matematické statistiky Vedoucí bakalářské
More informationhttp://xkcd.com/1570/ Strategy: Top Down Recursive divide-and-conquer fashion First: Select attribute for root node Create branch for each possible attribute value Then: Split
More informationAlgorithms for Classification: The Basic Methods
Algorithms for Classification: The Basic Methods Outline Simplicity first: 1R Naïve Bayes 2 Classification Task: Given a set of pre-classified examples, build a model or classifier to classify new cases.
More informationOdhady veľkosti pokrytí náhodne indukovaných podgrafov n-rozmernej hyperkocky
KATEDRA INFORMATIKY FAKULTA MATEMATIKY FYZIKY A INFORMATIKY UNIVERZITA KOMENSKÉHO Odhady veľkosti pokrytí náhodne indukovaných podgrafov nrozmernej hyperkocky Diplomová práca Bc. Ján Kliman študijný odbor:
More informationJádrové odhady gradientu regresní funkce
Monika Kroupová Ivana Horová Jan Koláček Ústav matematiky a statistiky, Masarykova univerzita, Brno ROBUST 2018 Osnova Regresní model a odhad gradientu Metody pro odhad vyhlazovací matice Simulace Závěr
More informationDecision Trees. Gavin Brown
Decision Trees Gavin Brown Every Learning Method has Limitations Linear model? KNN? SVM? Explain your decisions Sometimes we need interpretable results from our techniques. How do you explain the above
More informationNeurónové siete v C# Neural networks in C# Michal Pavlech
Neurónové siete v C# Neural networks in C# Michal Pavlech Diplomová práce 2009 ABSTRAKT Hlavným cieľom tejto práce je vytvoriť knižnicu na vytváranie a prácu s umelými neurónovými sieťami v jazyku C#.
More informationVIACKRITERIÁLNE (MULTIKRITERIÁLNE) ROZHODOVANIE (ROZHODOVACIA ANALÝZA)
VIACKRITERIÁLNE (MULTIKRITERIÁLNE) ROZHODOVANIE (ROZHODOVACIA ANALÝZA) Metódy rozhodovacej analýzy Existuje viacej rozličných metód, ktoré majú v zásade rovnaký princíp - posúdenie niekoľkých variantov
More informationReminders. HW1 out, due 10/19/2017 (Thursday) Group formations for course project due today (1 pt) Join Piazza (
CS 145 Discussion 2 Reminders HW1 out, due 10/19/2017 (Thursday) Group formations for course project due today (1 pt) Join Piazza (email: juwood03@ucla.edu) Overview Linear Regression Z Score Normalization
More informationTeória kvantifikácie a binárne predikáty
Teória kvantifikácie a binárne predikáty Miloš Kosterec Univerzita Komenského v Bratislave Abstract: The paper deals with a problem in formal theory of quantification. Firstly, by way of examples, I introduce
More informationMachine Learning Recitation 8 Oct 21, Oznur Tastan
Machine Learning 10601 Recitation 8 Oct 21, 2009 Oznur Tastan Outline Tree representation Brief information theory Learning decision trees Bagging Random forests Decision trees Non linear classifier Easy
More informationKybernetika. Jan Havrda; František Charvát Quantification method of classification processes. Concept of structural a-entropy
Kybernetika Jan Havrda; František Charvát Quantification method of classification processes. Concept of structural a-entropy Kybernetika, Vol. 3 (1967), No. 1, (30)--35 Persistent URL: http://dml.cz/dmlcz/125526
More informationCse352 AI Homework 2 Solutions
1 Cse352 AI Homework 2 Solutions PART ONE Classification: Characteristic and Discriminant Rules Here are some DEFINITIONS from the Lecture Notes that YOU NEED for your Homework Definition 1 Given a classification
More informationANALYSIS OF EXTREME HYDROLOGICAL EVENTS ON THE DANUBE USING THE PEAK OVER THRESHOLD METHOD
See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/245419546 ANALYSIS OF EXTREME HYDROLOGICAL EVENTS ON THE DANUBE USING THE PEAK OVER THRESHOLD
More informationUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Intelligent Data Analysis. Decision Trees
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Intelligent Data Analysis Decision Trees Paul Prasse, Niels Landwehr, Tobias Scheffer Decision Trees One of many applications:
More informationLearning Decision Trees
Learning Decision Trees Machine Learning Fall 2018 Some slides from Tom Mitchell, Dan Roth and others 1 Key issues in machine learning Modeling How to formulate your problem as a machine learning problem?
More informationClassification: Decision Trees
Classification: Decision Trees Outline Top-Down Decision Tree Construction Choosing the Splitting Attribute Information Gain and Gain Ratio 2 DECISION TREE An internal node is a test on an attribute. A
More informationCLASSIFICATION NAIVE BAYES. NIKOLA MILIKIĆ UROŠ KRČADINAC
CLASSIFICATION NAIVE BAYES NIKOLA MILIKIĆ nikola.milikic@fon.bg.ac.rs UROŠ KRČADINAC uros@krcadinac.com WHAT IS CLASSIFICATION? A supervised learning task of determining the class of an instance; it is
More informationStrojové učenie. Princípy a algoritmy. Kristína Machová
Strojové učenie Princípy a algoritmy Kristína Machová Košice 2002 Ing. Kristína Machová, CSc. Katedra kybernetiky a umelej inteligencie Fakulta elektrotechniky a informatiky Technická univerzita v Košiciach
More informationADM a logika. 4. prednáška. Výroková logika II, logický a sémantický dôsledok, teória a model, korektnosť a úplnosť
ADM a logika 4. prednáška Výroková logika II, logický a sémantický dôsledok, teória a model, korektnosť a úplnosť 1 Odvodzovanie formúl výrokovej logiky, logický dôsledok, syntaktický prístup Logický dôsledok
More informationDecision Trees. Data Science: Jordan Boyd-Graber University of Maryland MARCH 11, Data Science: Jordan Boyd-Graber UMD Decision Trees 1 / 1
Decision Trees Data Science: Jordan Boyd-Graber University of Maryland MARCH 11, 2018 Data Science: Jordan Boyd-Graber UMD Decision Trees 1 / 1 Roadmap Classification: machines labeling data for us Last
More informationData Mining Part 4. Prediction
Data Mining Part 4. Prediction 4.3. Fall 2009 Instructor: Dr. Masoud Yaghini Outline Introduction Bayes Theorem Naïve References Introduction Bayesian classifiers A statistical classifiers Introduction
More informationModely, metódy a algoritmy pre analýzu longitudinálnych dát
Vedecká rada Fakulty matematiky, fyziky a informatiky Univerzity Komenského v Bratislave Mgr Gejza Wimmer Autoreferát dizertačnej práce Modely, metódy a algoritmy pre analýzu longitudinálnych dát pre získanie
More informationMachine Learning Alternatives to Manual Knowledge Acquisition
Machine Learning Alternatives to Manual Knowledge Acquisition Interactive programs which elicit knowledge from the expert during the course of a conversation at the terminal. Programs which learn by scanning
More informationArtificial Intelligence. Topic
Artificial Intelligence Topic What is decision tree? A tree where each branching node represents a choice between two or more alternatives, with every branching node being part of a path to a leaf node
More informationDecision Trees. Danushka Bollegala
Decision Trees Danushka Bollegala Rule-based Classifiers In rule-based learning, the idea is to learn a rule from train data in the form IF X THEN Y (or a combination of nested conditions) that explains
More informationFUZZY-NEURO ALGORITMY MODELOVANIA NELINEÁRNYCH PROCESOV V DOPRAVE
Slovenská technická univerzita v Bratislave FAKULTA INFORMATIKY A INFORMAČNÝCH TECHNOLÓGIÍ FIIT-5212-35461 Jozef Macho FUZZY-NEURO ALGORITMY MODELOVANIA NELINEÁRNYCH PROCESOV V DOPRAVE Bakalárska práca
More informationInduction on Decision Trees
Séance «IDT» de l'ue «apprentissage automatique» Bruno Bouzy bruno.bouzy@parisdescartes.fr www.mi.parisdescartes.fr/~bouzy Outline Induction task ID3 Entropy (disorder) minimization Noise Unknown attribute
More informationDetekcia tváre, identifikácia tváre, Haarove príznaky, AdaBoost, extrakca príznakov, klasifikátor, trénovacia tvár, testovacia tvár, databáza
Abstrakt Táto diplomová práca sa zaoberá identifikáciu tvárií v reálnych podmienkach. Obsahuje preh ad sú asných metód detekcie tvárií pomocou klasifikátorov. Taktiež obsahuje rôzne metódy na detekciu
More informationthe tree till a class assignment is reached
Decision Trees Decision Tree for Playing Tennis Prediction is done by sending the example down Prediction is done by sending the example down the tree till a class assignment is reached Definitions Internal
More informationENVIRONMENTÁLNE FAKTORY V HODNOTENÍ EFEKTÍVNOSTI V POĽNOHOSPODÁRSTVE ENVIRONMENTAL FACTORS IN EFFICIENCY ASSESMENT IN AGRICULTURE.
ENVIRONMENTÁLNE FAKTORY V HODNOTENÍ EFEKTÍVNOSTI V POĽNOHOSPODÁRSTVE ENVIRONMENTAL FACTORS IN EFFICIENCY ASSESMENT IN AGRICULTURE Peter FANDEL The paper focuses on the analysis of environmental factors
More informationŠtatisticky tolerančný interval nazýva ISO Statistics. Vocabulary and symbols. Part 1: Probability and general statistical terms ako štatistick
Použitie štatistických tolerančných intervalov v riadení kvality Ivan Janiga Katedra matematiky SjF STU v Bratislave Štatisticky tolerančný interval nazýva ISO 3534-1 Statistics. Vocabulary and symbols.
More informationDecision trees. Special Course in Computer and Information Science II. Adam Gyenge Helsinki University of Technology
Decision trees Special Course in Computer and Information Science II Adam Gyenge Helsinki University of Technology 6.2.2008 Introduction Outline: Definition of decision trees ID3 Pruning methods Bibliography:
More informationEECS 349:Machine Learning Bryan Pardo
EECS 349:Machine Learning Bryan Pardo Topic 2: Decision Trees (Includes content provided by: Russel & Norvig, D. Downie, P. Domingos) 1 General Learning Task There is a set of possible examples Each example
More informationBias Correction in Classification Tree Construction ICML 2001
Bias Correction in Classification Tree Construction ICML 21 Alin Dobra Johannes Gehrke Department of Computer Science Cornell University December 15, 21 Classification Tree Construction Outlook Temp. Humidity
More informationBayesian Learning. Bayesian Learning Criteria
Bayesian Learning In Bayesian learning, we are interested in the probability of a hypothesis h given the dataset D. By Bayes theorem: P (h D) = P (D h)p (h) P (D) Other useful formulas to remember are:
More informationDecision Trees. Tirgul 5
Decision Trees Tirgul 5 Using Decision Trees It could be difficult to decide which pet is right for you. We ll find a nice algorithm to help us decide what to choose without having to think about it. 2
More informationRadka Sabolová Znaménkový test
Univerzita Karlova v Praze Matematicko-fyzikální fakulta BAKALÁŘSKÁ PRÁCE Radka Sabolová Znaménkový test Katedra pravděpodobnosti a matematické statistiky Vedoucí bakalářské práce: Mgr. Martin Schindler
More informationData Mining Classification: Basic Concepts, Decision Trees, and Model Evaluation
Data Mining Classification: Basic Concepts, Decision Trees, and Model Evaluation Lecture Notes for Chapter 4 Part I Introduction to Data Mining by Tan, Steinbach, Kumar Adapted by Qiang Yang (2010) Tan,Steinbach,
More informationDecision Trees. Each internal node : an attribute Branch: Outcome of the test Leaf node or terminal node: class label.
Decision Trees Supervised approach Used for Classification (Categorical values) or regression (continuous values). The learning of decision trees is from class-labeled training tuples. Flowchart like structure.
More informationMEZINÁRODNÍ VĚDECKÝ SEMINÁŘ NOVÉ TRENDY V EKONOMETRII A OPERAČNÍM VÝZKUMU
Katedra ekonometrie Fakulty informatiky a statistiky VŠE v Prahe a Katedra operačného výskumu a ekonometrie Fakulty hospodárskej informatiky EU v Bratislave a Slovenská spoločnosť pre operačný výskum MEZINÁRODNÍ
More informationBayesian Classification. Bayesian Classification: Why?
Bayesian Classification http://css.engineering.uiowa.edu/~comp/ Bayesian Classification: Why? Probabilistic learning: Computation of explicit probabilities for hypothesis, among the most practical approaches
More informationLearning Decision Trees
Learning Decision Trees Machine Learning Spring 2018 1 This lecture: Learning Decision Trees 1. Representation: What are decision trees? 2. Algorithm: Learning decision trees The ID3 algorithm: A greedy
More informationSupervised Learning: Regression & Classifiers. Fall 2010
Supervised Learning: Regression & Classifiers Fall 2010 Problem Statement Given training data of the form: {( xi, yi)...( xm, ym)} X: the space of input features/attributes Y: the space of output values
More informationUNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY DETEKOVANIE KOMUNÍT V SOCIÁLNYCH SIEŤACH Patricia SVITKOVÁ
UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY DETEKOVANIE KOMUNÍT V SOCIÁLNYCH SIEŤACH BAKALÁRSKA PRÁCA 2017 Patricia SVITKOVÁ UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY,
More informationClassification Lecture 2: Methods
Classification Lecture 2: Methods Jing Gao SUNY Buffalo 1 Outline Basics Problem, goal, evaluation Methods Nearest Neighbor Decision Tree Naïve Bayes Rule-based Classification Logistic Regression Support
More informationClassification and Prediction
Classification Classification and Prediction Classification: predict categorical class labels Build a model for a set of classes/concepts Classify loan applications (approve/decline) Prediction: model
More informationQuiz3_NaiveBayesTest
Quiz3_NaiveBayesTest November 8, 2018 In [1]: import numpy as np import pandas as pd data = pd.read_csv("weatherx.csv") data Out[1]: Outlook Temp Humidity Windy 0 Sunny hot high False no 1 Sunny hot high
More informationClassification and Regression Trees
Classification and Regression Trees Ryan P Adams So far, we have primarily examined linear classifiers and regressors, and considered several different ways to train them When we ve found the linearity
More informationCSE-4412(M) Midterm. There are five major questions, each worth 10 points, for a total of 50 points. Points for each sub-question are as indicated.
22 February 2007 CSE-4412(M) Midterm p. 1 of 12 CSE-4412(M) Midterm Sur / Last Name: Given / First Name: Student ID: Instructor: Parke Godfrey Exam Duration: 75 minutes Term: Winter 2007 Answer the following
More information}w!"#$%&'()+,-./012345<ya
Masarykova univerzita Fakulta informatiky }w!"#$%&'()+,-./012345
More informationVYSOKÉ UČENÍ TECHNICKÉ V BRNĚ
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY FAKULTA ELEKTROTECHNIKY A KOMUNIKAČNÍCH TECHNOLOGIÍ ÚSTAV TELEKOMUNIKACÍ FACULTY OF ELECTRICAL ENGINEERING AND COMMUNICATION DEPARTMENT OF TELECOMMUNICATIONS
More informationDecision Trees / NLP Introduction
Decision Trees / NLP Introduction Dr. Kevin Koidl School of Computer Science and Statistic Trinity College Dublin ADAPT Research Centre The ADAPT Centre is funded under the SFI Research Centres Programme
More informationNaïve Bayes Lecture 6: Self-Study -----
Naïve Bayes Lecture 6: Self-Study ----- Marina Santini Acknowledgements Slides borrowed and adapted from: Data Mining by I. H. Witten, E. Frank and M. A. Hall 1 Lecture 6: Required Reading Daumé III (015:
More informationDecision Support. Dr. Johan Hagelbäck.
Decision Support Dr. Johan Hagelbäck johan.hagelback@lnu.se http://aiguy.org Decision Support One of the earliest AI problems was decision support The first solution to this problem was expert systems
More informationThe Golden Ratio and Signal Quantization
The Golden Ratio and Signal Quantization Tom Hejda, tohecz@gmail.com based on the work of Ingrid Daubechies et al. Doppler Institute & Department of Mathematics, FNSPE, Czech Technical University in Prague
More information11. prednáška ( ) Greedy algoritmy. Programovanie, algoritmy, zložitosť (Ústav informatiky, PF UPJŠ v Košiciach)
11. prednáška (15. 5. 2012) Greedy algoritmy 1 Obsah Greedy stratégia, greedy algoritmus Minimálna kostra grafu Úloha o zastávkach autobusu Problém plnenia batoha Jednoduchý rozvrhový problém 2 Motivácia
More informationFakulta Matematiky, Fyziky a Informatiky Univerzita Komenského, Bratislava THEILOVA REGRESIA
Fakulta Matematiky, Fyziky a Informatiky Univerzita Komenského, Bratislava THEILOVA REGRESIA Róbert Tóth Bratislava 2013 Fakulta Matematiky, Fyziky a Informatiky Univerzita Komenského, Bratislava THEILOVA
More informationDecision Tree Learning Mitchell, Chapter 3. CptS 570 Machine Learning School of EECS Washington State University
Decision Tree Learning Mitchell, Chapter 3 CptS 570 Machine Learning School of EECS Washington State University Outline Decision tree representation ID3 learning algorithm Entropy and information gain
More informationErrors-in-variables models
Univerzita Karlova v Praze Matematicko-fyzikální fakulta BAKALÁŘSKÁ PRÁCE Ida Fürjesová Errors-in-variables models Katedra pravděpodobnosti a matematické statistiky Vedoucí bakalářské práce: RNDr. Michal
More informationGENEROVANIE STABILNÝCH MODELOV VYUŽÍVANÍM CUDA TECHNOLÓGIE
UNIVERZITA KOMENSKÉHO FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY KATEDRA INFORMATIKY GENEROVANIE STABILNÝCH MODELOV VYUŽÍVANÍM CUDA TECHNOLÓGIE BAKALÁRSKA PRÁCA PETER CIEKER Štúdijný odbor : Vedúci : 9.2.1
More informationThe Naïve Bayes Classifier. Machine Learning Fall 2017
The Naïve Bayes Classifier Machine Learning Fall 2017 1 Today s lecture The naïve Bayes Classifier Learning the naïve Bayes Classifier Practical concerns 2 Today s lecture The naïve Bayes Classifier Learning
More informationAnalýza multispektrálnych dát z konfokálnej mikroskopie. DIPLOMOVÁ PRÁCA
Analýza multispektrálnych dát z konfokálnej mikroskopie. DIPLOMOVÁ PRÁCA Kamil Paulíny UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY FYZIKY A INFORMATIKY KATEDRA APLIKOVANEJ INFORMATIKY Študijný
More informationODHAD PARAMETROV VŠEOBECNÉHO PARETOVHO ROZDELENIA SOFTVÉROM EVA V PROSTREDÍ JAZYKA R.
ODHAD PARAMETROV VŠEOBECNÉHO PARETOVHO ROZDELENIA SOFTVÉROM EVA V PROSTREDÍ JAZYKA R. Abstrakt V prípade výskyt extrémnych hodnôt v databáze údajov je možné na ich popísanie zvoliť model prekročenia prah
More informationInteligência Artificial (SI 214) Aula 15 Algoritmo 1R e Classificador Bayesiano
Inteligência Artificial (SI 214) Aula 15 Algoritmo 1R e Classificador Bayesiano Prof. Josenildo Silva jcsilva@ifma.edu.br 2015 2012-2015 Josenildo Silva (jcsilva@ifma.edu.br) Este material é derivado dos
More informationLecture 7 Decision Tree Classifier
Machine Learning Dr.Ammar Mohammed Lecture 7 Decision Tree Classifier Decision Tree A decision tree is a simple classifier in the form of a hierarchical tree structure, which performs supervised classification
More informationDecision Trees Part 1. Rao Vemuri University of California, Davis
Decision Trees Part 1 Rao Vemuri University of California, Davis Overview What is a Decision Tree Sample Decision Trees How to Construct a Decision Tree Problems with Decision Trees Classification Vs Regression
More informationIntuition Bayesian Classification
Intuition Bayesian Classification More ockey fans in Canada tan in US Wic country is Tom, a ockey ball fan, from? Predicting Canada as a better cance to be rigt Prior probability P(Canadian=5%: reflect
More informationOd zmiešavacieho kalorimetra k ultra citlivej modulovanej kalorimetrii. Jozef Kačmarčík
Od zmiešavacieho kalorimetra k ultra citlivej modulovanej kalorimetrii CENTRUM FYZIKY VEĽMI NÍZKYCH TEPLÔT Ústavu experimentálnej fyziky SAV a Univerzity P.J.Šafárika Centrum excelentnosti SAV Jozef Kačmarčík
More informationLecture 24: Other (Non-linear) Classifiers: Decision Tree Learning, Boosting, and Support Vector Classification Instructor: Prof. Ganesh Ramakrishnan
Lecture 24: Other (Non-linear) Classifiers: Decision Tree Learning, Boosting, and Support Vector Classification Instructor: Prof Ganesh Ramakrishnan October 20, 2016 1 / 25 Decision Trees: Cascade of step
More informationDecision-Tree Learning. Chapter 3: Decision Tree Learning. Classification Learning. Decision Tree for PlayTennis
Decision-Tree Learning Chapter 3: Decision Tree Learning CS 536: Machine Learning Littman (Wu, TA) [read Chapter 3] [some of Chapter 2 might help ] [recommended exercises 3.1, 3.2] Decision tree representation
More informationUniverzita Komenského v Bratislave Fakulta Managementu Katedra stratégie a podnikania. Aplikácia nekooperatívnej teórie hier v
Univerzita Komenského v Bratislave Fakulta Managementu Katedra stratégie a podnikania Aplikácia nekooperatívnej teórie hier v manažérskom rozhodovaní Diplomová práca Tomáš Kubiš Odbor: Manažment Špecializácia:
More informationImagine we ve got a set of data containing several types, or classes. E.g. information about customers, and class=whether or not they buy anything.
Decision Trees Defining the Task Imagine we ve got a set of data containing several types, or classes. E.g. information about customers, and class=whether or not they buy anything. Can we predict, i.e
More informationAdministrative notes February 27, 2018
Administrative notes February 27, 2018 Welcome back! Reminder: In the News Call #2 due tomorrow Reminder: Midterm #2 is on March 13 Project proposals are all marked. You can resubmit your proposal after
More informationLazy Rule Learning Nikolaus Korfhage
Lazy Rule Learning Nikolaus Korfhage 19. Januar 2012 TU-Darmstadt Nikolaus Korfhage 1 Introduction Lazy Rule Learning Algorithm Possible Improvements Improved Lazy Rule Learning Algorithm Implementation
More informationDecision Tree Learning - ID3
Decision Tree Learning - ID3 n Decision tree examples n ID3 algorithm n Occam Razor n Top-Down Induction in Decision Trees n Information Theory n gain from property 1 Training Examples Day Outlook Temp.
More informationCOMP61011! Probabilistic Classifiers! Part 1, Bayes Theorem!
COMP61011 Probabilistic Classifiers Part 1, Bayes Theorem Reverend Thomas Bayes, 1702-1761 p ( T W ) W T ) T ) W ) Bayes Theorem forms the backbone of the past 20 years of ML research into probabilistic
More informationEinführung in Web- und Data-Science
Einführung in Web- und Data-Science Prof. Dr. Ralf Möller Universität zu Lübeck Institut für Informationssysteme Tanya Braun (Übungen) Inductive Learning Chapter 18/19 Chapters 3 and 4 Material adopted
More informationInductive Learning. Chapter 18. Material adopted from Yun Peng, Chuck Dyer, Gregory Piatetsky-Shapiro & Gary Parker
Inductive Learning Chapter 18 Material adopted from Yun Peng, Chuck Dyer, Gregory Piatetsky-Shapiro & Gary Parker Chapters 3 and 4 Inductive Learning Framework Induce a conclusion from the examples Raw
More informationCS145: INTRODUCTION TO DATA MINING
CS145: INTRODUCTION TO DATA MINING 4: Vector Data: Decision Tree Instructor: Yizhou Sun yzsun@cs.ucla.edu October 10, 2017 Methods to Learn Vector Data Set Data Sequence Data Text Data Classification Clustering
More informationRule Generation using Decision Trees
Rule Generation using Decision Trees Dr. Rajni Jain 1. Introduction A DT is a classification scheme which generates a tree and a set of rules, representing the model of different classes, from a given
More informationComputation of Information Value for Credit Scoring Models
Jedovnice 20 Computation of Information Value for Credit Scoring Models Martin Řezáč, Jan Koláček Dept. of Mathematics and Statistics, Faculty of Science, Masaryk University Information value The special
More information