Umjetne neuronske mreže

Size: px
Start display at page:

Download "Umjetne neuronske mreže"

Transcription

1 Umjetne neuronske mreže Umjetna ntelgencja Matko Bošnjak, 2010.

2 Uvod Automatzrana obrada podataka pogodna za zvršavanje na računalu Neautomatzrane obrade podataka zvršavaju žvčan sustav procesranje prrodnoga jezka rješavanje problema prepoznavanje lca čovjek obavlja u ms (100ms potrebno za raspoznavanje lca majke!) računalu treba vše vremena, a točnost je uptna td. Tražmo koncept obrade podataka slčan funkconranju mozga...da l je moguće koprat rad mozga? krenmo s jednostavnjm Bološke neuronske mreže bološk organzm, žvčan sustav Umjetne neuronske mreže prmtvne mtacje bološkh neuronskh mreža pokušavaju prblžt računala mogućnostma mozga mtacjom njegovh procesnh elemenata na jako pojednostavljen načna

3 Usporedba mozak -računalo Mozak zvršava obradu podataka na potpuno drugačj načn od konvenconalnh dgtalnh računala (von Neumannova računala) gradben element broj veza energetska Potrošnja Mozak neurona snaps (10 3 po neuronu) Računalo 781M tranzstora (Core 7) J po operacj 10-6 J po operacj brzna prjenosa ms cklus ns cklus načn rada serjsk paralelno uglavnom serjsk tolerancja na pogreške da ne sgnal analogn dgtaln sposoban učt da malo svjestan/ntelgentan u većn slučajeva ne (još?)

4 Bološka pozadna Dendrt prmaju sgnale drugh neurona Akson prenos mpulse do snaptčkh termnala On zatm prenose sgnale na dendrte drugh neurona

5 Umjetn ekvvalent McCulloch-Ptts model neurona (1943.) Threshold Logc Unt (TLU) Analogja: sgnal su numerčke vrjednost (x n ), jakost snapse opsuje težnsk faktor (w n ), tjelo neurona je zbrajalo (Σ), a akson aktvacjska funkcja (ϕ) x 1 x 0 =1 x 2 w 2 w 1 w 0 net = n = 0 w x aktvacjska funkcja φ(.) zlaz o = ϕ( n = 0 w x ) w n x n

6 Perceptron Najjednostavnj oblk neuronske mreže Umjetn neuron s funkcjom praga kao aktvacjskom funkcjom 1957, Rosenblatt x 1 x 0 =1 w 1 w 0 x 2 w 2 net = n = 0 w x 1 o = 0 n = 0 n = 0 w x w x 0 < 0 w n x n

7 Reprezentacjska moć perceptrona Pogledajmo malo poblže zlaz perceptrona 1 o = 0 n = 0 n = 0 w x w x 0 < 0 To je jednadžba deczjske hperravnne u n-dmenzonalnom prostoru n = 0 n = 0 w x w x 0 x C < 0 x C n = 0 w x = 0 Perceptron omogućava klasfkacju! SAMO lnearno odvojvh razreda 1 2 x 2 C 1 x 1 U dvje dmenzje deczjsk pravac: w 0 + w1 x2 + w2 x2 = 0 C 2

8 Perceptron? I što ćemo s perceptronom? Naučt ga! Čovjek uč tj. usvaja znanja, vještne...navke A neuronska mreža (za početak perceptron)? Hebbova teorja Učt znač mjenjat jakost veza adaptacja slobodnh parametara mreže (težna) kroz kontnuranu stmulacju okolne Paradgme učenja: učenje pod nadzorom učenje bez nadzora... Znač trebamo mjenjat težnske faktore

9 Učenje perceptrona Prmjer za učenje: (x, t) xje ulazn vektor, tje željen zlaz Perceptron za određen prmjer daje zlaz (o), a m znamo što želmo dobt na zlazu (t) razlka nam govor o potreb korgranja težna ukolko nema razlke, sve je u redu ukolko ma, moramo radt korekcju x 1 w 1 x 0 =1 w 0 w w + w w = η( t o) x stopa učenja x 2 w 2 net = n = 0 w x 1 o = 0 n = 0 n = 0 w x w x 0 < 0 w n x n

10 Učenje perceptrona -algortam PERCEPTRON(skup za učenje, η) Postav težne na nasumčno odabrane vrjednost dok nsu sv uzorc spravno klasfcran za svak uzorak z skupa učenja Klasfcraj uzorak perceptronom ako je uzorak spravno klasfcran nastav sa sljedećm uzorkom nače prmjen korekcju: w w + η( t o) x Algortam konvergra u konačnom broju koraka ako su prmjer za učenje lnearno separabln ako je η dovoljno malen (Mnsky Papert, 1969.)

11 Zašto baš tako? x 2 w w + η( t o) x x 2 (-1,3) (-1,3) (1,1) x 1 (1,1) x 1 (-2,-1) (5,-2) -3 + x 1 + x 2 = 0 (-2,-1) (5,-2) x 1 +2x 2 = 0 x 2 x x 1 +4x 2 = 0 (-1,3) (-1,3) (1,1) (1,1) x 1 x 1 (-2,-1) (5,-2) (-2,-1) (5,-2) x 1 +2x 2 = 0

12 Gradjentn spust delta pravlo Prethodn algortam ne konvergra za lnearno neseparablne prmjere Zato uvodmo gradjentn spust pretraga prostora hpoteza (težna) za pronalazak težna koje najbolje odgovaraju podacma za učenje U ovom slučaju korstmo perceptron BEZ aktvacjske funkcje lnearna jednca (tzv. Adalne) o n = = 0 w x Pogreška učenja hpoteza (težna), gdje je D skup za učenje: 1 2 E( w r E ) = ( t d o d ) w = η w = η ( td od ) x 2 d D w d D Gradjentn spust mnmzra E teratvnm modfcranjem težna u malm koracma. U svakom koraku, vektor težna se mjenja u smjeru najvećeg spusta nz plohu pogreške. Proces se nastavlja sve dok se ne dostgne globaln mnmum pogreške d

13 Gradjentn spust algortam GRADIJENTNI-SPUST(skup za učenje, η) Postav težne na nasumčno odabrane vrjednost dok nje zadovoljen krterj zaustavljanja za svak uzorak z skupa učenja Klasfcraj uzorak perceptronom za svakutežnu w zračunaj za svakutežnu w začunaj w w w + η( t o) x w + w Gradjentn spust (delta pravlo) asmptotsk konvergra prema mnmumu pogreške (bez obzra da l su prmjer za učenje lnearno separabln l ne)

14 Stohastčk gradjentn spust Problem gradjentnog spusta spora konvergencja u mnmum ne garantra pronalazak globalnog mnmuma u slučaju vše lokalnh mnmuma Stohastčk gradjentn spust gradjentn spust korgra težne nakon zračuna nad svm prmjerma stohastčk gradjentn spust aproksmra gradjentn spust nkrementalnom korekcjom težna Razlke gradjentn spust je sporj jer zahtjeva vše računanja (sve težne odjednom), međutm kako korst prav gradjent, rad veće korake stohastčk gradjentn spust može ponekad zbjeć lokalne mnmume jer korst vše manjh gradjenata pogreške umjesto globalnog

15 Stoh. Gradjentn spust algortam STOHASTIČKI-GRADIJENTNI-SPUST(skup za učenje, η) Postav težne na nasumčno odabrane vrjednost dok nje zadovoljen krterj zaustavljanja za svak uzorak z skupa učenja Klasfcraj uzorak perceptronom za svakutežnu w zračunaj w w + η( t o) x Delta pravlo još je poznato kao LMS (least-mean-square), Adalne pravlo l Wdrow-Hoff pravlo

16 Prmjer Neural Networks AND OR XOR

17 Neuronske mreže Defnral smo umjetn neuron, vdjel smo perceptron sa step funkcjom lnearnu jedncu (Adalne) bez aktvacjske funkcje Sve što smo do sada radl je blo vezano uz jedan procesn element Nameće nam se mogućnost povezvanja vše procesnh elemenata No, koj procesn element ćemo korstt kao gradben element takve mreže? lnearnu jedncu? lnearna kombnacja lnearnh funkcja je opet lnearna funkcja nšta od vše ekspresvnost perceptron? aktvacjska funkcja perceptrona (step funkcja) je nedferencjablna pa ne možemo korstt gradjentn spust Treba nam element s nelnearnom dferencjablnom aktvacjskom funkcjom

18 Sgmodna funkcja Sgmodna (logstčka) funkcja σ(y) σ ( y ) = e ky 1 y glatka funkcja praga nelnearna dferencjablna posjeduje zgodno svojstvo da je monotono raste s ulazom konstanta k utječe na strmnu d σ ( y ) dy = σ ( y )( 1 σ ( y )) No možemo korstt druge funkcje: tanh, lnearna po odsječcma, td.

19 Topologja neuronskh mreža Ok, mamo nov tp umjetnog neurona, al kako ćemo ga povezat s ostalm neuronma? Izlaz jednog neurona predstavlja (može predstavljat) ulaz sljedećem Podjela neuronskh mreža po topologj (arhtektur mreže) Osnovna podjela acklčke ne sadrže povratne veze cklčke sadrže povratne veze (tema za sebe)

20 Topologja neuronskh mreža Po broju slojeva jednoslojne ulazn sloj se ne računa jer nje procesn sloj Izlazn sloj Ulazn sloj všeslojne sadrže jedan l vše skrvenh slojeva Ulazn sloj Skrven slojev Izlazn sloj

21 Topologja neuronskh mreža Po povezanost djelomčno povezane potpuno povezane svak neuron prethodnog sloja povezan je sa svakm neuronom sljedećeg sloja

22 Topologja neuronskh mreža Prozvoljna acklčka mreža Topologju moguće naučt!! recmo genetskm algortmom Savladal smo gradben element, savladal smo topologju Kako ćemo sada učt mreže?

23 Učenje neuronskh mreža U slučaju jednoslojne neuronske mreže prlčno jednostavno gradjentn spust Al kako ćemo učt všeslojnu neuronsku mrežu? sto gradjentnm spustom? Tu nalazmo na problem: znamo korgrat težne zlaznh neurona jer kod njh točno znamo znos pogreške, međutm kolka je pogreška za skrvene neurone? Iz čega nju računat? Formula pogreške učenja hpoteza (težna) E 1 ( w r 2 ) = ( t kd o kd ) d 2 j d D k output w j problem všestrukh lokalnh mnmuma zato ćemo korstt stohastčk gradjentn spust ovs o zlaznom sloju...a skrven? w E = η

24 Backpropagaton Problem: nepoznat željen odzv neurona u skrvenom sloju Rješenje: pogreška se može procjent na temelju pogrešaka neurona u sljedećem sloju s kojma je skrven neuron spojen

25 Backpropagaton algortam BACKPROPAGATION(skup za učenje, η) Incjalzraj težnske faktore na male slučajne vrjednost dok nje spunjen uvjet zaustavljanja za svak(x, t) z skupa za učenje Izračunaj zlaz o u za svaku jedncu umreže za svaku zlaznu jedncu k zračunaj pogrešku δ k o k ( 1 ok )( tk ok ) za svaku skrvenu jedncu h zračunaj pogrešku δ h o h (1 o h ) w δ sh s s Downstream( h) Ugod svak težnsk faktor w j w j w j + w j gdje je w j = ηδ x j j

26 Konvergencja lokaln mnmum Backpropagaton garantra konvergencju SAMO u lokaln mnmum ne mora nužno doseć globaln mnmum Unatoč tome, backpropagaton je u praks zuzetno efektvna metoda aproksmacje funkcja Tu se možemo osvrnut na korak algortma Incjalzraj težnske faktore na male slučajne vrjednost Zašto na male slučajne vrjednost? na početku gradjentnog spusta, mreža predstavlja vrlo glatku funkcju pogledat sgmodnu funkcju (18) Heurstke za nadjačavanje problema lokalnh mnmuma dodavanje momenta u pravlo korekcje težna uporaba stohastčkog gradjentnog spusta učenje všestrukh mreža pa odabr najbolje (l upotreba ansambla)

27 Reprezentacjska moć Kakve sve funkcje mogu neuronske mreže reprezentrat? odgovor dakako ovs o topologj mreže generalno: boolean funkcje kontnurane funkcje prozvoljne funkcje Neuronske mreže mogu aproksmrat prozvoljnu funkcju prozvoljnom precznošću (Kolmogorovljev egzstencjaln teorem)

28 Reprezentacja skrvenog sloja Interesantno je zagledat se u skrven sloj znamo što su zlazn ulazn sloj, al što je skrven? Backpropagaton korgra težne tako da defnra neurone skrvenog sloja što efektvnje u svrhu mnmzacje kvadratne pogreške E To ga vod prema defncj skrvenog sloja koja nje eksplctno zadana ulazom, al je zgrađena tako da na najbolj načn predstav značajke prmjera za učenje koj su najvažnj za učenje cljne funkcje Automatsko otkrvanje korsne reprezentacje skrvenog sloja je ključna sposobnost všeslojnh mreža

29 Dekoder Prmjer

30 Krterj zaustavljanja Fksn broj teracja petlje ok, al što možemo očekvat od takve mreže ako o grešc ne znamo nšta unaprjed? Unaprjed određena pogreška skupa za učenje zaustavljamo učenje kada pogreška padne spod praga Unaprjed određena pogreška skupa za testranje također zaustavljamo učenje kada pogreška padne spod zadanog praga Krterj zaustavljanja je dostan važan jer premalo teracja može neznatno smanjt pogrešku tme dobvamo lošju mrežu nego bsmo mogl prevše može odvest u overfttng

31 Generalzacja overfttng Svojstvo dobre klasfkacje za nepoznate ulaze zove se generalzacja Clj generalzacje: nterpolrat raspoložve podatke najjednostavnjom krvuljom Prenaučenost (eng. overfttng) prevelk broj prmjera za učenje (eng. overfttng) uzrokuje gubtak svojstva generalzacje, UNM postaje stručnjak za podatke z skupa za učenje forsranje što manje pogrešne na skupu za učenje mreža postaje ekspert za naučeno (štreber), al loše generalzra zlaz zlaz ulaz ulaz

32 Overfttng Kako se rješt overfttnga? weght decay smanjvanje težna u svakoj teracj za nek malen faktor (sprječavamo kompleksne aproksmacje) uvođenje seta za valdacju daje nam mjeru pogreške za vrjeme učenja počnje rast kada mreža uč posebnost skupa za učenje pogreška valdacja učenje br. teracja

33 Prmjer XOR XOR

34 Mal readng Prmjer

35 Malo detaljnj prmjer ZmajMathOCR prepoznavanje evaluacja rukom psanh matematčkh zraza scrtavanje funkcja jedne varjable

36 Malo detaljnj prmjer ulazn sloj skrven sloj zlazn sloj z zlazn vektor 255 var 16

37 Prmjene Klasfkacja uzoraka optčko prepoznavanje znakova raspoznavanje govora/govornka detekcja QRS kompleksa Klasterranje (engl. clusterng) rudarenje podataka kompresja podataka Aproksmacja funkcja Predvđanja kretanje cjena donca vremenske prognoze Optmzacje problem putujućeg putnka (engl. TSP) Asocjatvne memorje Upravljanje kontrola brzne vrtnje motora

38 Što dalje? Kohonen self-organzng network SOM Radal bass functon (RBF) Recurrent networks Hopfeld Echo state network Long short term memory network Assocatve memory Stochastc neural network Weghtless networks Instantaneously traned networks Neuro-fuzzy networks...

39 Lteratura Machne learnng, Tom. M. Mtchell, McGraw-Hll, 1997 Predavanja z kolegja Strojno učenje Tom M. Mtchell, Carnege Mellon Unversty Neuronske mreže, predavanja, Sven Lončarć Pogledajte: Neural AIspace

Umjetne neuronske mreže

Umjetne neuronske mreže . Motvacja Umjetne neuronske mreže Automatzranu obradu odataka danas uglavnom rade dgtalna računala. Iak, još je uvjek daleko vše odataka čja obrada nje automatzrana. Te odatke obrađuju žvčan sustav žvh

More information

Upravljački prometni sustavi

Upravljački prometni sustavi Upravljačk prometn sustav Predvđanje prometnh parametara Izv. prof. dr. sc. Nko Jelušć Doc. dr. sc. Edouard Ivanjko Upravljačk prometn sustav :: Predvđanje prometnh parametara 2017 Ivanjko, Jelušć Sadržaj

More information

Hibridni inteligentni sustav

Hibridni inteligentni sustav Sveučlšte u Zagrebu Fakultet prometnh znanost Dplomsk studj Umjetna ntelgencja - Hbrdn ntelgentn sustav 47895/4786 UMINTELI HG/008-009 Hbrdn ntelgentn sustav Sustav sastavljen od vše ntelgentnh tehnologja

More information

DETEKCIJA I RASPOZNAVANJE PROMETNIH ZNAKOVA U VIDEO SNIMCI

DETEKCIJA I RASPOZNAVANJE PROMETNIH ZNAKOVA U VIDEO SNIMCI SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA Igor Bonač Ivan Kovaček Ivan Kusalć DETEKCIJA I RASPOZNAVANJE PROMETNIH ZNAKOVA U VIDEO SNIMCI Zagreb, 2010 Ovaj rad zrađen je u Zavodu za elektronku,

More information

NEURONSKE MREŽE 1. predavanje

NEURONSKE MREŽE 1. predavanje NEURONSKE MREŽE 1. predavanje dr Zoran Ševarac sevarac@gmail.com FON, 2014. CILJ PREDAVANJA I VEŽBI IZ NEURONSKIH MREŽA Upoznavanje sa tehnologijom - osnovni pojmovi i modeli NM Mogućnosti i primena NM

More information

Strojno učenje 7 Linearne metode & SVM. Tomislav Šmuc

Strojno učenje 7 Linearne metode & SVM. Tomislav Šmuc Srojno učenje 7 Lnearne meode & Tomslav Šmuc Leraura Lnearne meode The Elemens of Sascal Learnng Hase, Tbshran, Fredman s ed - ch. 4 The Elemens of Sascal Learnng Hase, Tbshran, Fredman s ed - ch. A Tuoral

More information

Projektovanje paralelnih algoritama II

Projektovanje paralelnih algoritama II Projektovanje paralelnih algoritama II Primeri paralelnih algoritama, I deo Paralelni algoritmi za množenje matrica 1 Algoritmi za množenje matrica Ovde su data tri paralelna algoritma: Direktan algoritam

More information

Artificial Neural Networks

Artificial Neural Networks Artificial Neural Networks Short introduction Bojana Dalbelo Bašić, Marko Čupić, Jan Šnajder Faculty of Electrical Engineering and Computing University of Zagreb Zagreb, June 6, 2018 Dalbelo Bašić, Čupić,

More information

FIZIKALNA KOZMOLOGIJA VII. VRLO RANI SVEMIR & INFLACIJA

FIZIKALNA KOZMOLOGIJA VII. VRLO RANI SVEMIR & INFLACIJA FIZIKALNA KOZMOLOGIJA VII. VRLO RANI SVEMIR & INFLACIJA KOZMIČKI SAT ranog svemira Ekstra zračenje u mjerenju CMB Usporedba s rezultatima LEP-a Usporedba CMB i neutrina Vj.: Pozadinsko zračenje neutrina

More information

SPH SIMULACIJA POISEULLEOVOG STRUJANJA PRI NISKIM REYNOLDSOVIM BROJEVIMA

SPH SIMULACIJA POISEULLEOVOG STRUJANJA PRI NISKIM REYNOLDSOVIM BROJEVIMA Vuko, VUKČEVIĆ, Sveučlšte u Zagrebu, Fakultet strojarstva brodogradnje, Zagreb Andreja, WERER, Sveučlšte u Zagrebu, Fakultet strojarstva brodogradnje, Zagreb asta, DEGIULI, Sveučlšte u Zagrebu, Fakultet

More information

Heuristika i generalizacija Heronove formule u dva smjera

Heuristika i generalizacija Heronove formule u dva smjera MAT-KOL (Banja Luka) XXIII ()(07), 49-60 http://www.mvbl.org/dmbl/dmbl.htm DOI: 0.75/МК70049S ISSN 0354-6969 (o) ISSN 986-588 (o) Heurstka generalzacja Heronove formule u dva smjera Petar Svrčevć Zagreb,

More information

O homomorfizam-homogenim geometrijama ranga 2

O homomorfizam-homogenim geometrijama ranga 2 UNIVERZITET U NOVOM SADU PRIRODN0-MATEMATIČKI FAKULTET DEPARTMAN ZA MATEMATIKU I INFORMATIKU Eva Jungael O homomorfzam-homogenm geometrjama ranga 2 -završn rad- Nov Sad, oktoar 2009 Predgovor Za strukturu

More information

EKSPERIMENTALNA EVALUACIJA UTJECAJA ODABIRA ZNAČAJKI NA REZULTATE RASPOZNAVANJA PROMETNIH ZNAKOVA

EKSPERIMENTALNA EVALUACIJA UTJECAJA ODABIRA ZNAČAJKI NA REZULTATE RASPOZNAVANJA PROMETNIH ZNAKOVA VEUČILIŠE U ZAGREBU FAKULE ELEKROEHIKE I RAČUARVA DIPLOMKI RAD br. 35 EKPERIMEALA EVALUACIJA UJECAJA ODABIRA ZAČAJKI A REZULAE RAPOZAVAJA PROMEIH ZAKOVA Ivana učć Zagreb, lpanj 0. Zahvala Zahvaljuje se

More information

TEORIJA SKUPOVA Zadaci

TEORIJA SKUPOVA Zadaci TEORIJA SKUPOVA Zadai LOGIKA 1 I. godina 1. Zapišite simbolima: ( x nije element skupa S (b) d je član skupa S () F je podskup slupa S (d) Skup S sadrži skup R 2. Neka je S { x;2x 6} = = i neka je b =

More information

UMJETNE NEURONSKE MREŽE

UMJETNE NEURONSKE MREŽE SVEUČILIŠTE U RIJECI FILOZOFSKI FAKULTET U RIJECI Odsjek za politehniku Stella Paris UMJETNE NEURONSKE MREŽE (završni rad) Rijeka, 207. godine SVEUČILIŠTE U RIJECI FILOZOFSKI FAKULTET U RIJECI Studijski

More information

SVEUČILIŠTE U ZAGREBU FAKULTET STROJARSTVA I BRODOGRADNJE

SVEUČILIŠTE U ZAGREBU FAKULTET STROJARSTVA I BRODOGRADNJE SVEUČILIŠTE U ZAGREBU FAKULTET STROJARSTVA I BRODOGRADNJE Vuko Vukčevć, Mhael Lobrovć Teorjsko numerčk prstup problemu lamnarnog grančnog sloja oko ravne ploče Zagreb, 2011. Ovaj rad zrađen je na Katedr

More information

Introduction to the Introduction to Artificial Neural Network

Introduction to the Introduction to Artificial Neural Network Introducton to the Introducton to Artfcal Neural Netork Vuong Le th Hao Tang s sldes Part of the content of the sldes are from the Internet (possbly th modfcatons). The lecturer does not clam any onershp

More information

Algoritam za množenje ulančanih matrica. Alen Kosanović Prirodoslovno-matematički fakultet Matematički odsjek

Algoritam za množenje ulančanih matrica. Alen Kosanović Prirodoslovno-matematički fakultet Matematički odsjek Algoritam za množenje ulančanih matrica Alen Kosanović Prirodoslovno-matematički fakultet Matematički odsjek O problemu (1) Neka je A 1, A 2,, A n niz ulančanih matrica duljine n N, gdje su dimenzije matrice

More information

PRIPADNOST RJEŠENJA KVADRATNE JEDNAČINE DANOM INTERVALU

PRIPADNOST RJEŠENJA KVADRATNE JEDNAČINE DANOM INTERVALU MAT KOL Banja Luka) ISSN 0354 6969 p) ISSN 1986 58 o) Vol. XXI )015) 105 115 http://www.imvibl.org/dmbl/dmbl.htm PRIPADNOST RJEŠENJA KVADRATNE JEDNAČINE DANOM INTERVALU Bernadin Ibrahimpašić 1 Senka Ibrahimpašić

More information

Metode praćenja planova

Metode praćenja planova Metode praćenja planova Klasična metoda praćenja Suvremene metode praćenja gantogram mrežni dijagram Metoda vrednovanja funkcionalnosti sustava Gantogram VREMENSKO TRAJANJE AKTIVNOSTI A K T I V N O S T

More information

Red veze za benzen. Slika 1.

Red veze za benzen. Slika 1. Red veze za benzen Benzen C 6 H 6 je aromatično ciklično jedinjenje. Njegove dve rezonantne forme (ili Kekuléove structure), prema teoriji valentne veze (VB) prikazuju se uobičajeno kao na slici 1 a),

More information

KLASIFIKACIJA NAIVNI BAJES. NIKOLA MILIKIĆ URL:

KLASIFIKACIJA NAIVNI BAJES. NIKOLA MILIKIĆ   URL: KLASIFIKACIJA NAIVNI BAJES NIKOLA MILIKIĆ EMAIL: nikola.milikic@fon.bg.ac.rs URL: http://nikola.milikic.info ŠTA JE KLASIFIKACIJA? Zadatak određivanja klase kojoj neka instanca pripada instanca je opisana

More information

Numeričko modeliranje elektromagnetskih pojava

Numeričko modeliranje elektromagnetskih pojava Slavko Vjevć Nmerčko modelranje elektromagnetskh pojava Zagreb, 3. ožjka 07. Sadržaj predavanja: Osnovna lema varjacjskog račna. Aproksmacja fnkcja. Lokalzacja baza - tehnka konačnh elemenata. Rješavanje

More information

Raspoznavanje objekata dubokim neuronskim mrežama

Raspoznavanje objekata dubokim neuronskim mrežama SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA DIPLOMSKI RAD br. 696 Raspoznavanje objekata dubokim neuronskim mrežama Vedran Vukotić Zagreb, lipanj 2014. Zahvala Zahvaljujem se svom mentoru,

More information

Slika 1. Slika 2. Da ne bismo stalno izbacivali elemente iz skupa, mi ćemo napraviti još jedan niz markirano, gde će

Slika 1. Slika 2. Da ne bismo stalno izbacivali elemente iz skupa, mi ćemo napraviti još jedan niz markirano, gde će Permutacije Zadatak. U vreći se nalazi n loptica različitih boja. Iz vreće izvlačimo redom jednu po jednu lopticu i stavljamo jednu pored druge. Koliko različitih redosleda boja možemo da dobijemo? Primer

More information

Vrednovanje raspoznavanja znamenki i slova konvolucijskim neuronskim mrežama

Vrednovanje raspoznavanja znamenki i slova konvolucijskim neuronskim mrežama SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA ZAVRŠNI RAD br. 3945 Vrednovanje raspoznavanja znamenki i slova konvolucijskim neuronskim mrežama Mislav Larva Zagreb, lipanj 2015. Sadržaj

More information

Rješavanje simultanih jednadžbi kao ekonometrijskog modela pomoću programskog paketa EViews

Rješavanje simultanih jednadžbi kao ekonometrijskog modela pomoću programskog paketa EViews Rješavanje smultanh jednadžb kao ekonometrjskog modela pomoću programskog paketa EVews Sažetak - U ovom radu se analzra rješavanje sustava smultanh jednadžb kao ekonometrjskog modela. Između razlčh mogućnost

More information

Other NN Models. Reinforcement learning (RL) Probabilistic neural networks

Other NN Models. Reinforcement learning (RL) Probabilistic neural networks Other NN Models Renforcement learnng (RL) Probablstc neural networks Support vector machne (SVM) Renforcement learnng g( (RL) Basc deas: Supervsed dlearnng: (delta rule, BP) Samples (x, f(x)) to learn

More information

Conditional stability of Larkin methods with non-uniform grids

Conditional stability of Larkin methods with non-uniform grids Theoret. Appl. Mech., Vol.37, No., pp.139-159, Belgrade 010 Conditional stability of Larkin methods with non-uniform grids Kazuhiro Fukuyo Abstract Stability analysis based on the von Neumann method showed

More information

Miroslav Josipović. Množenje vektora i struktura 3D euklidskog prostora

Miroslav Josipović. Množenje vektora i struktura 3D euklidskog prostora Mroslav Jospovć Množenje vektora struktura D eukldskog prostora I naljut se Bog na ljudsk rod dade m da govore razlčtm jezcma da jedn druge ne razumju Vrus Svjetska zdravstvena organzacja je objavla postojanje

More information

Networks of McCulloch-Pitts Neurons

Networks of McCulloch-Pitts Neurons s Lecture 4 Netorks of McCulloch-Pitts Neurons The McCulloch and Pitts (M_P) Neuron x x sgn x n Netorks of M-P Neurons One neuron can t do much on its on, but a net of these neurons x i x i i sgn i ij

More information

Decepcijski i teški optimizacijski problemi za genetske algoritme

Decepcijski i teški optimizacijski problemi za genetske algoritme Decepcjsk tešk optmzacjsk problem za genetske algortme Stjepan Pcek Rng Datacom d.o.o. Trg J. J. Strossmayera 5, Zagreb 10000 stjepan@rng.hr Sažetak Genetsk algortm (GA) predstavljaju robusnu adaptvnu

More information

Admin NEURAL NETWORKS. Perceptron learning algorithm. Our Nervous System 10/25/16. Assignment 7. Class 11/22. Schedule for the rest of the semester

Admin NEURAL NETWORKS. Perceptron learning algorithm. Our Nervous System 10/25/16. Assignment 7. Class 11/22. Schedule for the rest of the semester 0/25/6 Admn Assgnment 7 Class /22 Schedule for the rest of the semester NEURAL NETWORKS Davd Kauchak CS58 Fall 206 Perceptron learnng algorthm Our Nervous System repeat untl convergence (or for some #

More information

Multilayer Perceptrons and Backpropagation. Perceptrons. Recap: Perceptrons. Informatics 1 CG: Lecture 6. Mirella Lapata

Multilayer Perceptrons and Backpropagation. Perceptrons. Recap: Perceptrons. Informatics 1 CG: Lecture 6. Mirella Lapata Multlayer Perceptrons and Informatcs CG: Lecture 6 Mrella Lapata School of Informatcs Unversty of Ednburgh mlap@nf.ed.ac.uk Readng: Kevn Gurney s Introducton to Neural Networks, Chapters 5 6.5 January,

More information

Multi-layer neural networks

Multi-layer neural networks Lecture 0 Mult-layer neural networks Mlos Hauskrecht mlos@cs.ptt.edu 5329 Sennott Square Lnear regresson w Lnear unts f () Logstc regresson T T = w = p( y =, w) = g( w ) w z f () = p ( y = ) w d w d Gradent

More information

Uvod u planiranje i analizu pokusa

Uvod u planiranje i analizu pokusa Uvod u planranje analzu pokusa Uvod u planranje analzu pokusa 1. Uvod u statstčku analzu Statstka - znanost koja daje potporu pr donošenju odluka zaključaka u slučaju kada je prsutna varjablnost. Inženjersk

More information

Internet Engineering. Jacek Mazurkiewicz, PhD Softcomputing. Part 3: Recurrent Artificial Neural Networks Self-Organising Artificial Neural Networks

Internet Engineering. Jacek Mazurkiewicz, PhD Softcomputing. Part 3: Recurrent Artificial Neural Networks Self-Organising Artificial Neural Networks Internet Engneerng Jacek Mazurkewcz, PhD Softcomputng Part 3: Recurrent Artfcal Neural Networks Self-Organsng Artfcal Neural Networks Recurrent Artfcal Neural Networks Feedback sgnals between neurons Dynamc

More information

KVADRATNE INTERPOLACIJSKE METODE ZA JEDNODIMENZIONALNU BEZUVJETNU LOKALNU OPTIMIZACIJU 1

KVADRATNE INTERPOLACIJSKE METODE ZA JEDNODIMENZIONALNU BEZUVJETNU LOKALNU OPTIMIZACIJU 1 MAT KOL (Banja Luka) ISSN 0354 6969 (p), ISSN 1986 5228 (o) Vol. XXII (1)(2016), 5 19 http://www.imvibl.org/dmbl/dmbl.htm KVADRATNE INTERPOLACIJSKE METODE ZA JEDNODIMENZIONALNU BEZUVJETNU LOKALNU OPTIMIZACIJU

More information

Odre divanje smjera gledanja konvolucijskim neuronskim mrežama

Odre divanje smjera gledanja konvolucijskim neuronskim mrežama SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA DIPLOMSKI RAD br. 1013 Odre divanje smjera gledanja konvolucijskim neuronskim mrežama Mirko Jurić-Kavelj Zagreb, veljača 2015. Želim se zahvaliti

More information

ZANIMLJIV NAČIN IZRAČUNAVANJA NEKIH GRANIČNIH VRIJEDNOSTI FUNKCIJA. Šefket Arslanagić, Sarajevo, BiH

ZANIMLJIV NAČIN IZRAČUNAVANJA NEKIH GRANIČNIH VRIJEDNOSTI FUNKCIJA. Šefket Arslanagić, Sarajevo, BiH MAT-KOL (Banja Luka) XXIII ()(7), -7 http://wwwimviblorg/dmbl/dmblhtm DOI: 75/МК7A ISSN 5-6969 (o) ISSN 986-588 (o) ZANIMLJIV NAČIN IZRAČUNAVANJA NEKIH GRANIČNIH VRIJEDNOSTI FUNKCIJA Šefket Arslanagić,

More information

Šime Šuljić. Funkcije. Zadavanje funkcije i područje definicije. š2004š 1

Šime Šuljić. Funkcije. Zadavanje funkcije i područje definicije. š2004š 1 Šime Šuljić Funkcije Zadavanje funkcije i područje definicije š2004š 1 Iz povijesti Dvojica Francuza, Pierre de Fermat i Rene Descartes, posebno su zadužila matematiku unijevši ideju koordinatne metode

More information

Povratne neuronske mreže. Martin Tutek 6. Prosinac, 2017.

Povratne neuronske mreže. Martin Tutek 6. Prosinac, 2017. Povratne neuronske mreže Martin Tutek 6. Prosinac, 2017. Uvod U prvom ciklusu Obradili smo: Modele za podatke s fiksnom dimenzionalnošću Modele za podatke s eksplicitnom međuovisnošću Primjeri slika iz

More information

COMP9444 Neural Networks and Deep Learning 2. Perceptrons. COMP9444 c Alan Blair, 2017

COMP9444 Neural Networks and Deep Learning 2. Perceptrons. COMP9444 c Alan Blair, 2017 COMP9444 Neural Networks and Deep Learning 2. Perceptrons COMP9444 17s2 Perceptrons 1 Outline Neurons Biological and Artificial Perceptron Learning Linear Separability Multi-Layer Networks COMP9444 17s2

More information

Introduction to Neural Networks

Introduction to Neural Networks Introduction to Neural Networks What are (Artificial) Neural Networks? Models of the brain and nervous system Highly parallel Process information much more like the brain than a serial computer Learning

More information

Geometrijski smisao rješenja sustava od tri linearne jednadžbe s tri nepoznanice

Geometrijski smisao rješenja sustava od tri linearne jednadžbe s tri nepoznanice Osječki matematički list 6(2006), 79 84 79 Geometrijski smisao rješenja sustava od tri linearne jednadžbe s tri nepoznanice Zlatko Udovičić Sažetak. Geometrijski smisao rješenja sustava od dvije linearne

More information

Multilayer Perceptron (MLP)

Multilayer Perceptron (MLP) Multlayer Perceptron (MLP) Seungjn Cho Department of Computer Scence and Engneerng Pohang Unversty of Scence and Technology 77 Cheongam-ro, Nam-gu, Pohang 37673, Korea seungjn@postech.ac.kr 1 / 20 Outlne

More information

CHALMERS, GÖTEBORGS UNIVERSITET. SOLUTIONS to RE-EXAM for ARTIFICIAL NEURAL NETWORKS. COURSE CODES: FFR 135, FIM 720 GU, PhD

CHALMERS, GÖTEBORGS UNIVERSITET. SOLUTIONS to RE-EXAM for ARTIFICIAL NEURAL NETWORKS. COURSE CODES: FFR 135, FIM 720 GU, PhD CHALMERS, GÖTEBORGS UNIVERSITET SOLUTIONS to RE-EXAM for ARTIFICIAL NEURAL NETWORKS COURSE CODES: FFR 35, FIM 72 GU, PhD Tme: Place: Teachers: Allowed materal: Not allowed: January 2, 28, at 8 3 2 3 SB

More information

Termodinamika. FIZIKA PSS-GRAD 29. studenog Copyright 2015 John Wiley & Sons, Inc. All rights reserved.

Termodinamika. FIZIKA PSS-GRAD 29. studenog Copyright 2015 John Wiley & Sons, Inc. All rights reserved. Termodinamika FIZIKA PSS-GRAD 29. studenog 2017. 15.1 Thermodynamic Systems and Their Surroundings Thermodynamics is the branch of physics that is built upon the fundamental laws that heat and work obey.

More information

EEE 241: Linear Systems

EEE 241: Linear Systems EEE : Lnear Systems Summary #: Backpropagaton BACKPROPAGATION The perceptron rule as well as the Wdrow Hoff learnng were desgned to tran sngle layer networks. They suffer from the same dsadvantage: they

More information

Multilayer neural networks

Multilayer neural networks Lecture Multlayer neural networks Mlos Hauskrecht mlos@cs.ptt.edu 5329 Sennott Square Mdterm exam Mdterm Monday, March 2, 205 In-class (75 mnutes) closed book materal covered by February 25, 205 Multlayer

More information

Artificial Neural Networks

Artificial Neural Networks Artificial Neural Networks 鮑興國 Ph.D. National Taiwan University of Science and Technology Outline Perceptrons Gradient descent Multi-layer networks Backpropagation Hidden layer representations Examples

More information

1 Input-Output Mappings. 2 Hebbian Failure. 3 Delta Rule Success.

1 Input-Output Mappings. 2 Hebbian Failure. 3 Delta Rule Success. Task Learnng 1 / 27 1 Input-Output Mappngs. 2 Hebban Falure. 3 Delta Rule Success. Input-Output Mappngs 2 / 27 0 1 2 3 4 5 6 7 8 9 Output 3 8 2 7 Input 5 6 0 9 1 4 Make approprate: Response gven stmulus.

More information

1. A discrete-time recurrent network is described by the following equation: y(n + 1) = A y(n) + B x(n)

1. A discrete-time recurrent network is described by the following equation: y(n + 1) = A y(n) + B x(n) Neuro-Fuzzy, Revision questions June, 25. A discrete-time recurrent network is described by the following equation: y(n + ) = A y(n) + B x(n) where A =.7.5.4.6, B = 2 (a) Sketch the dendritic and signal-flow

More information

Supervised Learning NNs

Supervised Learning NNs EE788 Robot Cognton and Plannng, Prof. J.-H. Km Lecture 6 Supervsed Learnng NNs Robot Intellgence Technolog Lab. From Jang, Sun, Mzutan, Ch.9, Neuro-Fuzz and Soft Computng, Prentce Hall Contents. Introducton.

More information

Lab 5: 16 th April Exercises on Neural Networks

Lab 5: 16 th April Exercises on Neural Networks Lab 5: 16 th April 01 Exercises on Neural Networks 1. What are the values of weights w 0, w 1, and w for the perceptron whose decision surface is illustrated in the figure? Assume the surface crosses the

More information

Machine Learning CS-527A ANN ANN. ANN Short History ANN. Artificial Neural Networks (ANN) Artificial Neural Networks

Machine Learning CS-527A ANN ANN. ANN Short History ANN. Artificial Neural Networks (ANN) Artificial Neural Networks Machne Learnng CS-57A Artfcal Neural Networks Burchan (bourch-khan) Bayazt http://www.cse.wustl.edu/~bayazt/courses/cs57a/ Malng lst: cs-57a@cse.wustl.edu Artfcal Neural Networks (ANN) Neural network nspred

More information

Neural Networks. Perceptrons and Backpropagation. Silke Bussen-Heyen. 5th of Novemeber Universität Bremen Fachbereich 3. Neural Networks 1 / 17

Neural Networks. Perceptrons and Backpropagation. Silke Bussen-Heyen. 5th of Novemeber Universität Bremen Fachbereich 3. Neural Networks 1 / 17 Neural Networks Perceptrons and Backpropagaton Slke Bussen-Heyen Unverstät Bremen Fachberech 3 5th of Novemeber 2012 Neural Networks 1 / 17 Contents 1 Introducton 2 Unts 3 Network structure 4 Snglelayer

More information

Summary Modeling of nonlinear reactive electronic circuits using artificial neural networks

Summary Modeling of nonlinear reactive electronic circuits using artificial neural networks Summary Modeling of nonlinear reactive electronic circuits using artificial neural networks The problem of modeling of electronic components and circuits has been interesting since the first component

More information

Uvod u numericku matematiku

Uvod u numericku matematiku Uvod u numericku matematiku M. Klaricić Bakula Oujak, 2009. Uvod u numericku matematiku 2 1 Uvod Jedan od osnovnih problema numericke matematike je rješavanje linearnih sustava jednadbi. U ovom poglavlju

More information

Modified Zagreb M 2 Index Comparison with the Randi} Connectivity Index for Benzenoid Systems

Modified Zagreb M 2 Index Comparison with the Randi} Connectivity Index for Benzenoid Systems CROATICA CHEMICA ACTA CCACAA 7 (2) 83 87 (2003) ISSN-00-3 CCA-2870 Note Modified Zagreb M 2 Index Comparison with the Randi} Connectivity Index for Benzenoid Systems Damir Vuki~evi} a, * and Nenad Trinajsti}

More information

Model of Neurons. CS 416 Artificial Intelligence. Early History of Neural Nets. Cybernetics. McCulloch-Pitts Neurons. Hebbian Modification.

Model of Neurons. CS 416 Artificial Intelligence. Early History of Neural Nets. Cybernetics. McCulloch-Pitts Neurons. Hebbian Modification. Page 1 Model of Neurons CS 416 Artfcal Intellgence Lecture 18 Neural Nets Chapter 20 Multple nputs/dendrtes (~10,000!!!) Cell body/soma performs computaton Sngle output/axon Computaton s typcally modeled

More information

Mjerenje snage. Na kraju sata student treba biti u stanju: Spojevi za jednofazno izmjenično mjerenje snage. Ak. god. 2008/2009

Mjerenje snage. Na kraju sata student treba biti u stanju: Spojevi za jednofazno izmjenično mjerenje snage. Ak. god. 2008/2009 Mjerenje snae Ak. od. 008/009 1 Na kraju sata student treba biti u stanju: Opisati i analizirati metode mjerenja snae na niskim i visokim frekvencijama Odabrati optimalnu metodu mjerenja snae Analizirati

More information

Grupiranje podataka u skupine 1 Rudolf Scitovski, Odjela za matematiku, Sveučilište u Osijeku 2

Grupiranje podataka u skupine 1 Rudolf Scitovski, Odjela za matematiku, Sveučilište u Osijeku 2 Klaster analiza 1 U tekstu vjerojatno ima pogrešaka. Ako ih uočite, molim da mi to javite Grupiranje podataka u skupine 1 Rudolf Scitovski, Odjela za matematiku, Sveučilište u Osijeku 2 1 Formulacija problema

More information

Gradient Descent Learning and Backpropagation

Gradient Descent Learning and Backpropagation Artfcal Neural Networks (art 2) Chrstan Jacob Gradent Descent Learnng and Backpropagaton CSC 533 Wnter 200 Learnng by Gradent Descent Defnton of the Learnng roble Let us start wth the sple case of lnear

More information

Plan. Perceptron Linear discriminant. Associative memories Hopfield networks Chaotic networks. Multilayer perceptron Backpropagation

Plan. Perceptron Linear discriminant. Associative memories Hopfield networks Chaotic networks. Multilayer perceptron Backpropagation Neural Networks Plan Perceptron Linear discriminant Associative memories Hopfield networks Chaotic networks Multilayer perceptron Backpropagation Perceptron Historically, the first neural net Inspired

More information

Formule za udaljenost točke do pravca u ravnini, u smislu lp - udaljenosti math.e Vol 28.

Formule za udaljenost točke do pravca u ravnini, u smislu lp - udaljenosti math.e Vol 28. 1 math.e Hrvatski matematički elektronički časopis Formule za udaljenost točke do pravca u ravnini, u smislu lp - udaljenosti Banachovi prostori Funkcija udaljenosti obrada podataka optimizacija Aleksandra

More information

Metoda parcijalnih najmanjih kvadrata: Regresijski model

Metoda parcijalnih najmanjih kvadrata: Regresijski model Sveučilište u Zagrebu Prirodoslovno-matematički fakultet Matematički odsjek Tamara Sente Metoda parcijalnih najmanjih kvadrata: Regresijski model Diplomski rad Voditelj rada: Izv.prof.dr.sc. Miljenko Huzak

More information

Ekonometrija 6. Ekonometrija, Osnovne studije. Predavač: Aleksandra Nojković

Ekonometrija 6. Ekonometrija, Osnovne studije. Predavač: Aleksandra Nojković Ekonometrja 6 Ekonometrja, Osnovne studje Predavač: Aleksandra Nojkovć Struktura predavanja Klasčn všestruk lnearn regreson model-posebne teme: Multkolnearnost - pojam posledce - metod otkrvanja otklanjanja

More information

Nelder Meadova metoda: lokalna metoda direktne bezuvjetne optimizacije

Nelder Meadova metoda: lokalna metoda direktne bezuvjetne optimizacije Osječki matematički list (2), 131-143 Nelder Meadova metoda: lokalna metoda direktne bezuvjetne optimizacije Lucijana Grgić, Kristian Sabo Sažetak U radu je opisana poznata Nelder Meadova metoda, koja

More information

Strojno učenje. Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc

Strojno učenje. Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc Strojno učenje Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc Generativni i diskriminativni modeli Diskriminativni Generativni (Učenje linije koja razdvaja klase) Učenje modela za

More information

Primjena Fuzzy ARTMAP neuronske mreže za indeksiranje i klasifikaciju dokumenata

Primjena Fuzzy ARTMAP neuronske mreže za indeksiranje i klasifikaciju dokumenata SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA DIPLOMSKI RAD br. 568 Primjena Fuzzy ARTMAP neuronske mreže za indeksiranje i klasifikaciju dokumenata Stjepan Buljat Zagreb, studeni 2005. ...mojoj

More information

Neural Networks (Part 1) Goals for the lecture

Neural Networks (Part 1) Goals for the lecture Neural Networks (Part ) Mark Craven and David Page Computer Sciences 760 Spring 208 www.biostat.wisc.edu/~craven/cs760/ Some of the slides in these lectures have been adapted/borrowed from materials developed

More information

Kontrolni uređaji s vremenskom odgodom za rasvjetu i klimu

Kontrolni uređaji s vremenskom odgodom za rasvjetu i klimu KOTROI SKOPOVI ZA RASVJETU I KIMA UREĐAJE Kontrolni i s vremenskom odgodom za rasvjetu i klimu Modularni dizajn, slobodna izmjena konfiguracije Sigurno. iski napon V Efikasno čuvanje energije Sigurnost.

More information

TEORIJE IZBORA U UVJETIMA NEIZVJESNOSTI

TEORIJE IZBORA U UVJETIMA NEIZVJESNOSTI Perca Vojnć, mag. Asstentca Odjel za ekonomju poslovnu ekonomju Sveučlšte u Dubrovnku E-mal: perca.vojnc@undu.hr TEORIJE IZBORA U UVJETIMA NEIZVJESNOSTI UDK / UDC: 330.131.7 JEL klasfkacja / JEL classfcaton:

More information

Mass transfer between a fluid and an immersed object in liquid solid packed and fluidized beds

Mass transfer between a fluid and an immersed object in liquid solid packed and fluidized beds J. Serb. Chem. Soc. 70 (11) 1373 1379 (2005) UDC 66.021.3:66.040.36:66.096.5 JSCS 3377 Original scientific paper Mass transfer between a fluid and an immersed object in liquid solid packed and fluidized

More information

Artificial Neural Networks Examination, March 2002

Artificial Neural Networks Examination, March 2002 Artificial Neural Networks Examination, March 2002 Instructions There are SIXTY questions (worth up to 60 marks). The exam mark (maximum 60) will be added to the mark obtained in the laborations (maximum

More information

PARALELNI ALGORITMI ZA PROBLEM GRUPIRANJA PODATAKA

PARALELNI ALGORITMI ZA PROBLEM GRUPIRANJA PODATAKA SVEUČILIŠTE U ZAGREBU PRIRODOSLOVNO MATEMATIČKI FAKULTET MATEMATIČKI ODSJEK Anto Čabraja PARALELNI ALGORITMI ZA PROBLEM GRUPIRANJA PODATAKA Diplomski rad Voditelj rada: doc. dr. sc. Goranka Nogo Zagreb,

More information

Neural networks. Chapter 19, Sections 1 5 1

Neural networks. Chapter 19, Sections 1 5 1 Neural networks Chapter 19, Sections 1 5 Chapter 19, Sections 1 5 1 Outline Brains Neural networks Perceptrons Multilayer perceptrons Applications of neural networks Chapter 19, Sections 1 5 2 Brains 10

More information

Course 395: Machine Learning - Lectures

Course 395: Machine Learning - Lectures Course 395: Machine Learning - Lectures Lecture 1-2: Concept Learning (M. Pantic) Lecture 3-4: Decision Trees & CBC Intro (M. Pantic & S. Petridis) Lecture 5-6: Evaluating Hypotheses (S. Petridis) Lecture

More information

Neural networks. Chapter 20, Section 5 1

Neural networks. Chapter 20, Section 5 1 Neural networks Chapter 20, Section 5 Chapter 20, Section 5 Outline Brains Neural networks Perceptrons Multilayer perceptrons Applications of neural networks Chapter 20, Section 5 2 Brains 0 neurons of

More information

Neural Networks. Chapter 18, Section 7. TB Artificial Intelligence. Slides from AIMA 1/ 21

Neural Networks. Chapter 18, Section 7. TB Artificial Intelligence. Slides from AIMA   1/ 21 Neural Networks Chapter 8, Section 7 TB Artificial Intelligence Slides from AIMA http://aima.cs.berkeley.edu / 2 Outline Brains Neural networks Perceptrons Multilayer perceptrons Applications of neural

More information

Adaptation of Neural Networks Using Genetic Algorithms

Adaptation of Neural Networks Using Genetic Algorithms CROATICA CHEMICA ACTA CCACAA68 (1) 29-38 (1995) ISSN 0011-1643 CCA-2209 Conference Paper Adaptation of Neural Networks Using Genetic Algorithms Tin Ilakovac Ruđer Bošković Institute, POB 1016, HR-41001

More information

Modelling of Parameters of the Air Purifying Process With a Filter- Adsorber Type Puri er by Use of Neural Network

Modelling of Parameters of the Air Purifying Process With a Filter- Adsorber Type Puri er by Use of Neural Network Strojarstvo 53 (3) 165-170 (2011) M. RAOS et. al., Modelling of Parameters of the Air... 165 CODEN STJSAO ISSN 0562-1887 ZX470/1507 UDK 697.941:532.52:004.032.26 Modelling of Parameters of the Air Purifying

More information

MATH 567: Mathematical Techniques in Data Science Lab 8

MATH 567: Mathematical Techniques in Data Science Lab 8 1/14 MATH 567: Mathematcal Technques n Data Scence Lab 8 Domnque Gullot Departments of Mathematcal Scences Unversty of Delaware Aprl 11, 2017 Recall We have: a (2) 1 = f(w (1) 11 x 1 + W (1) 12 x 2 + W

More information

Multigradient for Neural Networks for Equalizers 1

Multigradient for Neural Networks for Equalizers 1 Multgradent for Neural Netorks for Equalzers 1 Chulhee ee, Jnook Go and Heeyoung Km Department of Electrcal and Electronc Engneerng Yonse Unversty 134 Shnchon-Dong, Seodaemun-Ku, Seoul 1-749, Korea ABSTRACT

More information

Neural Networks & Learning

Neural Networks & Learning Neural Netorks & Learnng. Introducton The basc prelmnares nvolved n the Artfcal Neural Netorks (ANN) are descrbed n secton. An Artfcal Neural Netorks (ANN) s an nformaton-processng paradgm that nspred

More information

CALCULATION OF VELOCITY DISPERSION OF THE NEARBY GALAXIES USING DIFFERENT STELLAR TEMPLATE LIBRARIES

CALCULATION OF VELOCITY DISPERSION OF THE NEARBY GALAXIES USING DIFFERENT STELLAR TEMPLATE LIBRARIES Serb. Astron. J. 180 (2010), 57-69 UDC 524.7 325 17 DOI: 10.2298/SAJ1080057L Original scientific paper CALCULATION OF VELOCITY DISPERSION OF THE NEARBY GALAXIES USING DIFFERENT STELLAR TEMPLATE LIBRARIES

More information

Back-Propagation Algorithm. Perceptron Gradient Descent Multilayered neural network Back-Propagation More on Back-Propagation Examples

Back-Propagation Algorithm. Perceptron Gradient Descent Multilayered neural network Back-Propagation More on Back-Propagation Examples Back-Propagation Algorithm Perceptron Gradient Descent Multilayered neural network Back-Propagation More on Back-Propagation Examples 1 Inner-product net =< w, x >= w x cos(θ) net = n i=1 w i x i A measure

More information

ANALYTICAL AND NUMERICAL PREDICTION OF SPRINGBACK IN SHEET METAL BENDING

ANALYTICAL AND NUMERICAL PREDICTION OF SPRINGBACK IN SHEET METAL BENDING ANALYTICAL AND NUMERICAL PREDICTION OF SPRINGBACK IN SHEET METAL BENDING Slota Ján, Jurčišin Miroslav Department of Technologies and Materials, Faculty of Mechanical Engineering, Technical University of

More information

MEĐIMURSKO VELEUČILIŠTE U ČAKOVCU STRUČNI STUDIJ RAČUNARSTVO KRISTIJAN FIŠTREK MODEL NEURO-FUZZY SUSTAVA ZA PROCJENU ZAPOSLJIVOSTI STUDENATA MEV-A

MEĐIMURSKO VELEUČILIŠTE U ČAKOVCU STRUČNI STUDIJ RAČUNARSTVO KRISTIJAN FIŠTREK MODEL NEURO-FUZZY SUSTAVA ZA PROCJENU ZAPOSLJIVOSTI STUDENATA MEV-A MEĐIMURSKO VELEUČILIŠTE U ČAKOVCU STRUČNI STUDIJ RAČUNARSTVO KRISTIJAN FIŠTREK MODEL NEURO-FUZZY SUSTAVA ZA PROCJENU ZAPOSLJIVOSTI STUDENATA MEV-A ZAVRŠNI RAD ČAKOVEC, 2017. MEĐIMURSKO VELEUČILIŠTE U ČAKOVCU

More information

Strojno učenje. Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc

Strojno učenje. Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc Strojno učenje Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc Generativni i diskriminativni modeli Diskriminativni Generativni (Učenje linije koja razdvaja klase) Učenje modela za

More information

Machine Learning

Machine Learning Machine Learning 10-601 Maria Florina Balcan Machine Learning Department Carnegie Mellon University 02/10/2016 Today: Artificial neural networks Backpropagation Reading: Mitchell: Chapter 4 Bishop: Chapter

More information

Nova robusna metoda za QSAR analizu temeljena na multivarijatnoj regresiji i normi L 1

Nova robusna metoda za QSAR analizu temeljena na multivarijatnoj regresiji i normi L 1 Sveučilište u Zagrebu Fakultet Elektrotehnike i Računarstva Ivan Sović, Matija Piškorec, Igor Čanadi Nova robusna metoda za QSAR analizu temeljena na multivarijatnoj regresiji i normi L 1 3. svibnja 2010.

More information

Oracle Spatial Koordinatni sustavi, projekcije i transformacije. Dalibor Kušić, mag. ing. listopad 2010.

Oracle Spatial Koordinatni sustavi, projekcije i transformacije. Dalibor Kušić, mag. ing. listopad 2010. Oracle Spatial Koordinatni sustavi, projekcije i transformacije Dalibor Kušić, mag. ing. listopad 2010. Pregled Uvod Koordinatni sustavi Transformacije Projekcije Modeliranje 00:25 Oracle Spatial 2 Uvod

More information

Matrice u Maple-u. Upisivanje matrica

Matrice u Maple-u. Upisivanje matrica Matrice u Maple-u Tvrtko Tadić U prošlom broju upoznali ste se s matricama, a u ovom broju vidjeli ste neke njihove primjene. Mnoge je vjerojatno prepalo računanje s matricama. Pa tko će raditi svo to

More information

Artificial Neural Networks Examination, June 2004

Artificial Neural Networks Examination, June 2004 Artificial Neural Networks Examination, June 2004 Instructions There are SIXTY questions (worth up to 60 marks). The exam mark (maximum 60) will be added to the mark obtained in the laborations (maximum

More information

Neural Networks. Associative memory 12/30/2015. Associative memories. Associative memories

Neural Networks. Associative memory 12/30/2015. Associative memories. Associative memories //5 Neural Netors Associative memory Lecture Associative memories Associative memories The massively parallel models of associative or content associative memory have been developed. Some of these models

More information

Strojno učenje 3 (II dio) Struktura metoda/algoritama strojnog učenja. Tomislav Šmuc

Strojno učenje 3 (II dio) Struktura metoda/algoritama strojnog učenja. Tomislav Šmuc Strojno učenje 3 (II dio) Struktura metoda/algoritama strojnog učenja Tomislav Šmuc PMF, Zagreb, 2013 Sastavnice (nadziranog) problema učenja Osnovni pojmovi Ulazni vektor varijabli (engl. attributes,

More information

Last update: October 26, Neural networks. CMSC 421: Section Dana Nau

Last update: October 26, Neural networks. CMSC 421: Section Dana Nau Last update: October 26, 207 Neural networks CMSC 42: Section 8.7 Dana Nau Outline Applications of neural networks Brains Neural network units Perceptrons Multilayer perceptrons 2 Example Applications

More information

Uvod u relacione baze podataka

Uvod u relacione baze podataka Uvod u relacione baze podataka Ana Spasić 2. čas 1 Mala studentska baza dosije (indeks, ime, prezime, datum rodjenja, mesto rodjenja, datum upisa) predmet (id predmeta, sifra, naziv, bodovi) ispitni rok

More information