Umjetne neuronske mreže
|
|
- Victor Milton Ryan
- 5 years ago
- Views:
Transcription
1 Umjetne neuronske mreže Umjetna ntelgencja Matko Bošnjak, 2010.
2 Uvod Automatzrana obrada podataka pogodna za zvršavanje na računalu Neautomatzrane obrade podataka zvršavaju žvčan sustav procesranje prrodnoga jezka rješavanje problema prepoznavanje lca čovjek obavlja u ms (100ms potrebno za raspoznavanje lca majke!) računalu treba vše vremena, a točnost je uptna td. Tražmo koncept obrade podataka slčan funkconranju mozga...da l je moguće koprat rad mozga? krenmo s jednostavnjm Bološke neuronske mreže bološk organzm, žvčan sustav Umjetne neuronske mreže prmtvne mtacje bološkh neuronskh mreža pokušavaju prblžt računala mogućnostma mozga mtacjom njegovh procesnh elemenata na jako pojednostavljen načna
3 Usporedba mozak -računalo Mozak zvršava obradu podataka na potpuno drugačj načn od konvenconalnh dgtalnh računala (von Neumannova računala) gradben element broj veza energetska Potrošnja Mozak neurona snaps (10 3 po neuronu) Računalo 781M tranzstora (Core 7) J po operacj 10-6 J po operacj brzna prjenosa ms cklus ns cklus načn rada serjsk paralelno uglavnom serjsk tolerancja na pogreške da ne sgnal analogn dgtaln sposoban učt da malo svjestan/ntelgentan u većn slučajeva ne (još?)
4 Bološka pozadna Dendrt prmaju sgnale drugh neurona Akson prenos mpulse do snaptčkh termnala On zatm prenose sgnale na dendrte drugh neurona
5 Umjetn ekvvalent McCulloch-Ptts model neurona (1943.) Threshold Logc Unt (TLU) Analogja: sgnal su numerčke vrjednost (x n ), jakost snapse opsuje težnsk faktor (w n ), tjelo neurona je zbrajalo (Σ), a akson aktvacjska funkcja (ϕ) x 1 x 0 =1 x 2 w 2 w 1 w 0 net = n = 0 w x aktvacjska funkcja φ(.) zlaz o = ϕ( n = 0 w x ) w n x n
6 Perceptron Najjednostavnj oblk neuronske mreže Umjetn neuron s funkcjom praga kao aktvacjskom funkcjom 1957, Rosenblatt x 1 x 0 =1 w 1 w 0 x 2 w 2 net = n = 0 w x 1 o = 0 n = 0 n = 0 w x w x 0 < 0 w n x n
7 Reprezentacjska moć perceptrona Pogledajmo malo poblže zlaz perceptrona 1 o = 0 n = 0 n = 0 w x w x 0 < 0 To je jednadžba deczjske hperravnne u n-dmenzonalnom prostoru n = 0 n = 0 w x w x 0 x C < 0 x C n = 0 w x = 0 Perceptron omogućava klasfkacju! SAMO lnearno odvojvh razreda 1 2 x 2 C 1 x 1 U dvje dmenzje deczjsk pravac: w 0 + w1 x2 + w2 x2 = 0 C 2
8 Perceptron? I što ćemo s perceptronom? Naučt ga! Čovjek uč tj. usvaja znanja, vještne...navke A neuronska mreža (za početak perceptron)? Hebbova teorja Učt znač mjenjat jakost veza adaptacja slobodnh parametara mreže (težna) kroz kontnuranu stmulacju okolne Paradgme učenja: učenje pod nadzorom učenje bez nadzora... Znač trebamo mjenjat težnske faktore
9 Učenje perceptrona Prmjer za učenje: (x, t) xje ulazn vektor, tje željen zlaz Perceptron za određen prmjer daje zlaz (o), a m znamo što želmo dobt na zlazu (t) razlka nam govor o potreb korgranja težna ukolko nema razlke, sve je u redu ukolko ma, moramo radt korekcju x 1 w 1 x 0 =1 w 0 w w + w w = η( t o) x stopa učenja x 2 w 2 net = n = 0 w x 1 o = 0 n = 0 n = 0 w x w x 0 < 0 w n x n
10 Učenje perceptrona -algortam PERCEPTRON(skup za učenje, η) Postav težne na nasumčno odabrane vrjednost dok nsu sv uzorc spravno klasfcran za svak uzorak z skupa učenja Klasfcraj uzorak perceptronom ako je uzorak spravno klasfcran nastav sa sljedećm uzorkom nače prmjen korekcju: w w + η( t o) x Algortam konvergra u konačnom broju koraka ako su prmjer za učenje lnearno separabln ako je η dovoljno malen (Mnsky Papert, 1969.)
11 Zašto baš tako? x 2 w w + η( t o) x x 2 (-1,3) (-1,3) (1,1) x 1 (1,1) x 1 (-2,-1) (5,-2) -3 + x 1 + x 2 = 0 (-2,-1) (5,-2) x 1 +2x 2 = 0 x 2 x x 1 +4x 2 = 0 (-1,3) (-1,3) (1,1) (1,1) x 1 x 1 (-2,-1) (5,-2) (-2,-1) (5,-2) x 1 +2x 2 = 0
12 Gradjentn spust delta pravlo Prethodn algortam ne konvergra za lnearno neseparablne prmjere Zato uvodmo gradjentn spust pretraga prostora hpoteza (težna) za pronalazak težna koje najbolje odgovaraju podacma za učenje U ovom slučaju korstmo perceptron BEZ aktvacjske funkcje lnearna jednca (tzv. Adalne) o n = = 0 w x Pogreška učenja hpoteza (težna), gdje je D skup za učenje: 1 2 E( w r E ) = ( t d o d ) w = η w = η ( td od ) x 2 d D w d D Gradjentn spust mnmzra E teratvnm modfcranjem težna u malm koracma. U svakom koraku, vektor težna se mjenja u smjeru najvećeg spusta nz plohu pogreške. Proces se nastavlja sve dok se ne dostgne globaln mnmum pogreške d
13 Gradjentn spust algortam GRADIJENTNI-SPUST(skup za učenje, η) Postav težne na nasumčno odabrane vrjednost dok nje zadovoljen krterj zaustavljanja za svak uzorak z skupa učenja Klasfcraj uzorak perceptronom za svakutežnu w zračunaj za svakutežnu w začunaj w w w + η( t o) x w + w Gradjentn spust (delta pravlo) asmptotsk konvergra prema mnmumu pogreške (bez obzra da l su prmjer za učenje lnearno separabln l ne)
14 Stohastčk gradjentn spust Problem gradjentnog spusta spora konvergencja u mnmum ne garantra pronalazak globalnog mnmuma u slučaju vše lokalnh mnmuma Stohastčk gradjentn spust gradjentn spust korgra težne nakon zračuna nad svm prmjerma stohastčk gradjentn spust aproksmra gradjentn spust nkrementalnom korekcjom težna Razlke gradjentn spust je sporj jer zahtjeva vše računanja (sve težne odjednom), međutm kako korst prav gradjent, rad veće korake stohastčk gradjentn spust može ponekad zbjeć lokalne mnmume jer korst vše manjh gradjenata pogreške umjesto globalnog
15 Stoh. Gradjentn spust algortam STOHASTIČKI-GRADIJENTNI-SPUST(skup za učenje, η) Postav težne na nasumčno odabrane vrjednost dok nje zadovoljen krterj zaustavljanja za svak uzorak z skupa učenja Klasfcraj uzorak perceptronom za svakutežnu w zračunaj w w + η( t o) x Delta pravlo još je poznato kao LMS (least-mean-square), Adalne pravlo l Wdrow-Hoff pravlo
16 Prmjer Neural Networks AND OR XOR
17 Neuronske mreže Defnral smo umjetn neuron, vdjel smo perceptron sa step funkcjom lnearnu jedncu (Adalne) bez aktvacjske funkcje Sve što smo do sada radl je blo vezano uz jedan procesn element Nameće nam se mogućnost povezvanja vše procesnh elemenata No, koj procesn element ćemo korstt kao gradben element takve mreže? lnearnu jedncu? lnearna kombnacja lnearnh funkcja je opet lnearna funkcja nšta od vše ekspresvnost perceptron? aktvacjska funkcja perceptrona (step funkcja) je nedferencjablna pa ne možemo korstt gradjentn spust Treba nam element s nelnearnom dferencjablnom aktvacjskom funkcjom
18 Sgmodna funkcja Sgmodna (logstčka) funkcja σ(y) σ ( y ) = e ky 1 y glatka funkcja praga nelnearna dferencjablna posjeduje zgodno svojstvo da je monotono raste s ulazom konstanta k utječe na strmnu d σ ( y ) dy = σ ( y )( 1 σ ( y )) No možemo korstt druge funkcje: tanh, lnearna po odsječcma, td.
19 Topologja neuronskh mreža Ok, mamo nov tp umjetnog neurona, al kako ćemo ga povezat s ostalm neuronma? Izlaz jednog neurona predstavlja (može predstavljat) ulaz sljedećem Podjela neuronskh mreža po topologj (arhtektur mreže) Osnovna podjela acklčke ne sadrže povratne veze cklčke sadrže povratne veze (tema za sebe)
20 Topologja neuronskh mreža Po broju slojeva jednoslojne ulazn sloj se ne računa jer nje procesn sloj Izlazn sloj Ulazn sloj všeslojne sadrže jedan l vše skrvenh slojeva Ulazn sloj Skrven slojev Izlazn sloj
21 Topologja neuronskh mreža Po povezanost djelomčno povezane potpuno povezane svak neuron prethodnog sloja povezan je sa svakm neuronom sljedećeg sloja
22 Topologja neuronskh mreža Prozvoljna acklčka mreža Topologju moguće naučt!! recmo genetskm algortmom Savladal smo gradben element, savladal smo topologju Kako ćemo sada učt mreže?
23 Učenje neuronskh mreža U slučaju jednoslojne neuronske mreže prlčno jednostavno gradjentn spust Al kako ćemo učt všeslojnu neuronsku mrežu? sto gradjentnm spustom? Tu nalazmo na problem: znamo korgrat težne zlaznh neurona jer kod njh točno znamo znos pogreške, međutm kolka je pogreška za skrvene neurone? Iz čega nju računat? Formula pogreške učenja hpoteza (težna) E 1 ( w r 2 ) = ( t kd o kd ) d 2 j d D k output w j problem všestrukh lokalnh mnmuma zato ćemo korstt stohastčk gradjentn spust ovs o zlaznom sloju...a skrven? w E = η
24 Backpropagaton Problem: nepoznat željen odzv neurona u skrvenom sloju Rješenje: pogreška se može procjent na temelju pogrešaka neurona u sljedećem sloju s kojma je skrven neuron spojen
25 Backpropagaton algortam BACKPROPAGATION(skup za učenje, η) Incjalzraj težnske faktore na male slučajne vrjednost dok nje spunjen uvjet zaustavljanja za svak(x, t) z skupa za učenje Izračunaj zlaz o u za svaku jedncu umreže za svaku zlaznu jedncu k zračunaj pogrešku δ k o k ( 1 ok )( tk ok ) za svaku skrvenu jedncu h zračunaj pogrešku δ h o h (1 o h ) w δ sh s s Downstream( h) Ugod svak težnsk faktor w j w j w j + w j gdje je w j = ηδ x j j
26 Konvergencja lokaln mnmum Backpropagaton garantra konvergencju SAMO u lokaln mnmum ne mora nužno doseć globaln mnmum Unatoč tome, backpropagaton je u praks zuzetno efektvna metoda aproksmacje funkcja Tu se možemo osvrnut na korak algortma Incjalzraj težnske faktore na male slučajne vrjednost Zašto na male slučajne vrjednost? na početku gradjentnog spusta, mreža predstavlja vrlo glatku funkcju pogledat sgmodnu funkcju (18) Heurstke za nadjačavanje problema lokalnh mnmuma dodavanje momenta u pravlo korekcje težna uporaba stohastčkog gradjentnog spusta učenje všestrukh mreža pa odabr najbolje (l upotreba ansambla)
27 Reprezentacjska moć Kakve sve funkcje mogu neuronske mreže reprezentrat? odgovor dakako ovs o topologj mreže generalno: boolean funkcje kontnurane funkcje prozvoljne funkcje Neuronske mreže mogu aproksmrat prozvoljnu funkcju prozvoljnom precznošću (Kolmogorovljev egzstencjaln teorem)
28 Reprezentacja skrvenog sloja Interesantno je zagledat se u skrven sloj znamo što su zlazn ulazn sloj, al što je skrven? Backpropagaton korgra težne tako da defnra neurone skrvenog sloja što efektvnje u svrhu mnmzacje kvadratne pogreške E To ga vod prema defncj skrvenog sloja koja nje eksplctno zadana ulazom, al je zgrađena tako da na najbolj načn predstav značajke prmjera za učenje koj su najvažnj za učenje cljne funkcje Automatsko otkrvanje korsne reprezentacje skrvenog sloja je ključna sposobnost všeslojnh mreža
29 Dekoder Prmjer
30 Krterj zaustavljanja Fksn broj teracja petlje ok, al što možemo očekvat od takve mreže ako o grešc ne znamo nšta unaprjed? Unaprjed određena pogreška skupa za učenje zaustavljamo učenje kada pogreška padne spod praga Unaprjed određena pogreška skupa za testranje također zaustavljamo učenje kada pogreška padne spod zadanog praga Krterj zaustavljanja je dostan važan jer premalo teracja može neznatno smanjt pogrešku tme dobvamo lošju mrežu nego bsmo mogl prevše može odvest u overfttng
31 Generalzacja overfttng Svojstvo dobre klasfkacje za nepoznate ulaze zove se generalzacja Clj generalzacje: nterpolrat raspoložve podatke najjednostavnjom krvuljom Prenaučenost (eng. overfttng) prevelk broj prmjera za učenje (eng. overfttng) uzrokuje gubtak svojstva generalzacje, UNM postaje stručnjak za podatke z skupa za učenje forsranje što manje pogrešne na skupu za učenje mreža postaje ekspert za naučeno (štreber), al loše generalzra zlaz zlaz ulaz ulaz
32 Overfttng Kako se rješt overfttnga? weght decay smanjvanje težna u svakoj teracj za nek malen faktor (sprječavamo kompleksne aproksmacje) uvođenje seta za valdacju daje nam mjeru pogreške za vrjeme učenja počnje rast kada mreža uč posebnost skupa za učenje pogreška valdacja učenje br. teracja
33 Prmjer XOR XOR
34 Mal readng Prmjer
35 Malo detaljnj prmjer ZmajMathOCR prepoznavanje evaluacja rukom psanh matematčkh zraza scrtavanje funkcja jedne varjable
36 Malo detaljnj prmjer ulazn sloj skrven sloj zlazn sloj z zlazn vektor 255 var 16
37 Prmjene Klasfkacja uzoraka optčko prepoznavanje znakova raspoznavanje govora/govornka detekcja QRS kompleksa Klasterranje (engl. clusterng) rudarenje podataka kompresja podataka Aproksmacja funkcja Predvđanja kretanje cjena donca vremenske prognoze Optmzacje problem putujućeg putnka (engl. TSP) Asocjatvne memorje Upravljanje kontrola brzne vrtnje motora
38 Što dalje? Kohonen self-organzng network SOM Radal bass functon (RBF) Recurrent networks Hopfeld Echo state network Long short term memory network Assocatve memory Stochastc neural network Weghtless networks Instantaneously traned networks Neuro-fuzzy networks...
39 Lteratura Machne learnng, Tom. M. Mtchell, McGraw-Hll, 1997 Predavanja z kolegja Strojno učenje Tom M. Mtchell, Carnege Mellon Unversty Neuronske mreže, predavanja, Sven Lončarć Pogledajte: Neural AIspace
Umjetne neuronske mreže
. Motvacja Umjetne neuronske mreže Automatzranu obradu odataka danas uglavnom rade dgtalna računala. Iak, još je uvjek daleko vše odataka čja obrada nje automatzrana. Te odatke obrađuju žvčan sustav žvh
More informationUpravljački prometni sustavi
Upravljačk prometn sustav Predvđanje prometnh parametara Izv. prof. dr. sc. Nko Jelušć Doc. dr. sc. Edouard Ivanjko Upravljačk prometn sustav :: Predvđanje prometnh parametara 2017 Ivanjko, Jelušć Sadržaj
More informationHibridni inteligentni sustav
Sveučlšte u Zagrebu Fakultet prometnh znanost Dplomsk studj Umjetna ntelgencja - Hbrdn ntelgentn sustav 47895/4786 UMINTELI HG/008-009 Hbrdn ntelgentn sustav Sustav sastavljen od vše ntelgentnh tehnologja
More informationDETEKCIJA I RASPOZNAVANJE PROMETNIH ZNAKOVA U VIDEO SNIMCI
SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA Igor Bonač Ivan Kovaček Ivan Kusalć DETEKCIJA I RASPOZNAVANJE PROMETNIH ZNAKOVA U VIDEO SNIMCI Zagreb, 2010 Ovaj rad zrađen je u Zavodu za elektronku,
More informationNEURONSKE MREŽE 1. predavanje
NEURONSKE MREŽE 1. predavanje dr Zoran Ševarac sevarac@gmail.com FON, 2014. CILJ PREDAVANJA I VEŽBI IZ NEURONSKIH MREŽA Upoznavanje sa tehnologijom - osnovni pojmovi i modeli NM Mogućnosti i primena NM
More informationStrojno učenje 7 Linearne metode & SVM. Tomislav Šmuc
Srojno učenje 7 Lnearne meode & Tomslav Šmuc Leraura Lnearne meode The Elemens of Sascal Learnng Hase, Tbshran, Fredman s ed - ch. 4 The Elemens of Sascal Learnng Hase, Tbshran, Fredman s ed - ch. A Tuoral
More informationProjektovanje paralelnih algoritama II
Projektovanje paralelnih algoritama II Primeri paralelnih algoritama, I deo Paralelni algoritmi za množenje matrica 1 Algoritmi za množenje matrica Ovde su data tri paralelna algoritma: Direktan algoritam
More informationArtificial Neural Networks
Artificial Neural Networks Short introduction Bojana Dalbelo Bašić, Marko Čupić, Jan Šnajder Faculty of Electrical Engineering and Computing University of Zagreb Zagreb, June 6, 2018 Dalbelo Bašić, Čupić,
More informationFIZIKALNA KOZMOLOGIJA VII. VRLO RANI SVEMIR & INFLACIJA
FIZIKALNA KOZMOLOGIJA VII. VRLO RANI SVEMIR & INFLACIJA KOZMIČKI SAT ranog svemira Ekstra zračenje u mjerenju CMB Usporedba s rezultatima LEP-a Usporedba CMB i neutrina Vj.: Pozadinsko zračenje neutrina
More informationSPH SIMULACIJA POISEULLEOVOG STRUJANJA PRI NISKIM REYNOLDSOVIM BROJEVIMA
Vuko, VUKČEVIĆ, Sveučlšte u Zagrebu, Fakultet strojarstva brodogradnje, Zagreb Andreja, WERER, Sveučlšte u Zagrebu, Fakultet strojarstva brodogradnje, Zagreb asta, DEGIULI, Sveučlšte u Zagrebu, Fakultet
More informationHeuristika i generalizacija Heronove formule u dva smjera
MAT-KOL (Banja Luka) XXIII ()(07), 49-60 http://www.mvbl.org/dmbl/dmbl.htm DOI: 0.75/МК70049S ISSN 0354-6969 (o) ISSN 986-588 (o) Heurstka generalzacja Heronove formule u dva smjera Petar Svrčevć Zagreb,
More informationO homomorfizam-homogenim geometrijama ranga 2
UNIVERZITET U NOVOM SADU PRIRODN0-MATEMATIČKI FAKULTET DEPARTMAN ZA MATEMATIKU I INFORMATIKU Eva Jungael O homomorfzam-homogenm geometrjama ranga 2 -završn rad- Nov Sad, oktoar 2009 Predgovor Za strukturu
More informationEKSPERIMENTALNA EVALUACIJA UTJECAJA ODABIRA ZNAČAJKI NA REZULTATE RASPOZNAVANJA PROMETNIH ZNAKOVA
VEUČILIŠE U ZAGREBU FAKULE ELEKROEHIKE I RAČUARVA DIPLOMKI RAD br. 35 EKPERIMEALA EVALUACIJA UJECAJA ODABIRA ZAČAJKI A REZULAE RAPOZAVAJA PROMEIH ZAKOVA Ivana učć Zagreb, lpanj 0. Zahvala Zahvaljuje se
More informationTEORIJA SKUPOVA Zadaci
TEORIJA SKUPOVA Zadai LOGIKA 1 I. godina 1. Zapišite simbolima: ( x nije element skupa S (b) d je član skupa S () F je podskup slupa S (d) Skup S sadrži skup R 2. Neka je S { x;2x 6} = = i neka je b =
More informationUMJETNE NEURONSKE MREŽE
SVEUČILIŠTE U RIJECI FILOZOFSKI FAKULTET U RIJECI Odsjek za politehniku Stella Paris UMJETNE NEURONSKE MREŽE (završni rad) Rijeka, 207. godine SVEUČILIŠTE U RIJECI FILOZOFSKI FAKULTET U RIJECI Studijski
More informationSVEUČILIŠTE U ZAGREBU FAKULTET STROJARSTVA I BRODOGRADNJE
SVEUČILIŠTE U ZAGREBU FAKULTET STROJARSTVA I BRODOGRADNJE Vuko Vukčevć, Mhael Lobrovć Teorjsko numerčk prstup problemu lamnarnog grančnog sloja oko ravne ploče Zagreb, 2011. Ovaj rad zrađen je na Katedr
More informationIntroduction to the Introduction to Artificial Neural Network
Introducton to the Introducton to Artfcal Neural Netork Vuong Le th Hao Tang s sldes Part of the content of the sldes are from the Internet (possbly th modfcatons). The lecturer does not clam any onershp
More informationAlgoritam za množenje ulančanih matrica. Alen Kosanović Prirodoslovno-matematički fakultet Matematički odsjek
Algoritam za množenje ulančanih matrica Alen Kosanović Prirodoslovno-matematički fakultet Matematički odsjek O problemu (1) Neka je A 1, A 2,, A n niz ulančanih matrica duljine n N, gdje su dimenzije matrice
More informationPRIPADNOST RJEŠENJA KVADRATNE JEDNAČINE DANOM INTERVALU
MAT KOL Banja Luka) ISSN 0354 6969 p) ISSN 1986 58 o) Vol. XXI )015) 105 115 http://www.imvibl.org/dmbl/dmbl.htm PRIPADNOST RJEŠENJA KVADRATNE JEDNAČINE DANOM INTERVALU Bernadin Ibrahimpašić 1 Senka Ibrahimpašić
More informationMetode praćenja planova
Metode praćenja planova Klasična metoda praćenja Suvremene metode praćenja gantogram mrežni dijagram Metoda vrednovanja funkcionalnosti sustava Gantogram VREMENSKO TRAJANJE AKTIVNOSTI A K T I V N O S T
More informationRed veze za benzen. Slika 1.
Red veze za benzen Benzen C 6 H 6 je aromatično ciklično jedinjenje. Njegove dve rezonantne forme (ili Kekuléove structure), prema teoriji valentne veze (VB) prikazuju se uobičajeno kao na slici 1 a),
More informationKLASIFIKACIJA NAIVNI BAJES. NIKOLA MILIKIĆ URL:
KLASIFIKACIJA NAIVNI BAJES NIKOLA MILIKIĆ EMAIL: nikola.milikic@fon.bg.ac.rs URL: http://nikola.milikic.info ŠTA JE KLASIFIKACIJA? Zadatak određivanja klase kojoj neka instanca pripada instanca je opisana
More informationNumeričko modeliranje elektromagnetskih pojava
Slavko Vjevć Nmerčko modelranje elektromagnetskh pojava Zagreb, 3. ožjka 07. Sadržaj predavanja: Osnovna lema varjacjskog račna. Aproksmacja fnkcja. Lokalzacja baza - tehnka konačnh elemenata. Rješavanje
More informationRaspoznavanje objekata dubokim neuronskim mrežama
SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA DIPLOMSKI RAD br. 696 Raspoznavanje objekata dubokim neuronskim mrežama Vedran Vukotić Zagreb, lipanj 2014. Zahvala Zahvaljujem se svom mentoru,
More informationSlika 1. Slika 2. Da ne bismo stalno izbacivali elemente iz skupa, mi ćemo napraviti još jedan niz markirano, gde će
Permutacije Zadatak. U vreći se nalazi n loptica različitih boja. Iz vreće izvlačimo redom jednu po jednu lopticu i stavljamo jednu pored druge. Koliko različitih redosleda boja možemo da dobijemo? Primer
More informationVrednovanje raspoznavanja znamenki i slova konvolucijskim neuronskim mrežama
SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA ZAVRŠNI RAD br. 3945 Vrednovanje raspoznavanja znamenki i slova konvolucijskim neuronskim mrežama Mislav Larva Zagreb, lipanj 2015. Sadržaj
More informationRješavanje simultanih jednadžbi kao ekonometrijskog modela pomoću programskog paketa EViews
Rješavanje smultanh jednadžb kao ekonometrjskog modela pomoću programskog paketa EVews Sažetak - U ovom radu se analzra rješavanje sustava smultanh jednadžb kao ekonometrjskog modela. Između razlčh mogućnost
More informationOther NN Models. Reinforcement learning (RL) Probabilistic neural networks
Other NN Models Renforcement learnng (RL) Probablstc neural networks Support vector machne (SVM) Renforcement learnng g( (RL) Basc deas: Supervsed dlearnng: (delta rule, BP) Samples (x, f(x)) to learn
More informationConditional stability of Larkin methods with non-uniform grids
Theoret. Appl. Mech., Vol.37, No., pp.139-159, Belgrade 010 Conditional stability of Larkin methods with non-uniform grids Kazuhiro Fukuyo Abstract Stability analysis based on the von Neumann method showed
More informationMiroslav Josipović. Množenje vektora i struktura 3D euklidskog prostora
Mroslav Jospovć Množenje vektora struktura D eukldskog prostora I naljut se Bog na ljudsk rod dade m da govore razlčtm jezcma da jedn druge ne razumju Vrus Svjetska zdravstvena organzacja je objavla postojanje
More informationNetworks of McCulloch-Pitts Neurons
s Lecture 4 Netorks of McCulloch-Pitts Neurons The McCulloch and Pitts (M_P) Neuron x x sgn x n Netorks of M-P Neurons One neuron can t do much on its on, but a net of these neurons x i x i i sgn i ij
More informationDecepcijski i teški optimizacijski problemi za genetske algoritme
Decepcjsk tešk optmzacjsk problem za genetske algortme Stjepan Pcek Rng Datacom d.o.o. Trg J. J. Strossmayera 5, Zagreb 10000 stjepan@rng.hr Sažetak Genetsk algortm (GA) predstavljaju robusnu adaptvnu
More informationAdmin NEURAL NETWORKS. Perceptron learning algorithm. Our Nervous System 10/25/16. Assignment 7. Class 11/22. Schedule for the rest of the semester
0/25/6 Admn Assgnment 7 Class /22 Schedule for the rest of the semester NEURAL NETWORKS Davd Kauchak CS58 Fall 206 Perceptron learnng algorthm Our Nervous System repeat untl convergence (or for some #
More informationMultilayer Perceptrons and Backpropagation. Perceptrons. Recap: Perceptrons. Informatics 1 CG: Lecture 6. Mirella Lapata
Multlayer Perceptrons and Informatcs CG: Lecture 6 Mrella Lapata School of Informatcs Unversty of Ednburgh mlap@nf.ed.ac.uk Readng: Kevn Gurney s Introducton to Neural Networks, Chapters 5 6.5 January,
More informationMulti-layer neural networks
Lecture 0 Mult-layer neural networks Mlos Hauskrecht mlos@cs.ptt.edu 5329 Sennott Square Lnear regresson w Lnear unts f () Logstc regresson T T = w = p( y =, w) = g( w ) w z f () = p ( y = ) w d w d Gradent
More informationUvod u planiranje i analizu pokusa
Uvod u planranje analzu pokusa Uvod u planranje analzu pokusa 1. Uvod u statstčku analzu Statstka - znanost koja daje potporu pr donošenju odluka zaključaka u slučaju kada je prsutna varjablnost. Inženjersk
More informationInternet Engineering. Jacek Mazurkiewicz, PhD Softcomputing. Part 3: Recurrent Artificial Neural Networks Self-Organising Artificial Neural Networks
Internet Engneerng Jacek Mazurkewcz, PhD Softcomputng Part 3: Recurrent Artfcal Neural Networks Self-Organsng Artfcal Neural Networks Recurrent Artfcal Neural Networks Feedback sgnals between neurons Dynamc
More informationKVADRATNE INTERPOLACIJSKE METODE ZA JEDNODIMENZIONALNU BEZUVJETNU LOKALNU OPTIMIZACIJU 1
MAT KOL (Banja Luka) ISSN 0354 6969 (p), ISSN 1986 5228 (o) Vol. XXII (1)(2016), 5 19 http://www.imvibl.org/dmbl/dmbl.htm KVADRATNE INTERPOLACIJSKE METODE ZA JEDNODIMENZIONALNU BEZUVJETNU LOKALNU OPTIMIZACIJU
More informationOdre divanje smjera gledanja konvolucijskim neuronskim mrežama
SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA DIPLOMSKI RAD br. 1013 Odre divanje smjera gledanja konvolucijskim neuronskim mrežama Mirko Jurić-Kavelj Zagreb, veljača 2015. Želim se zahvaliti
More informationZANIMLJIV NAČIN IZRAČUNAVANJA NEKIH GRANIČNIH VRIJEDNOSTI FUNKCIJA. Šefket Arslanagić, Sarajevo, BiH
MAT-KOL (Banja Luka) XXIII ()(7), -7 http://wwwimviblorg/dmbl/dmblhtm DOI: 75/МК7A ISSN 5-6969 (o) ISSN 986-588 (o) ZANIMLJIV NAČIN IZRAČUNAVANJA NEKIH GRANIČNIH VRIJEDNOSTI FUNKCIJA Šefket Arslanagić,
More informationŠime Šuljić. Funkcije. Zadavanje funkcije i područje definicije. š2004š 1
Šime Šuljić Funkcije Zadavanje funkcije i područje definicije š2004š 1 Iz povijesti Dvojica Francuza, Pierre de Fermat i Rene Descartes, posebno su zadužila matematiku unijevši ideju koordinatne metode
More informationPovratne neuronske mreže. Martin Tutek 6. Prosinac, 2017.
Povratne neuronske mreže Martin Tutek 6. Prosinac, 2017. Uvod U prvom ciklusu Obradili smo: Modele za podatke s fiksnom dimenzionalnošću Modele za podatke s eksplicitnom međuovisnošću Primjeri slika iz
More informationCOMP9444 Neural Networks and Deep Learning 2. Perceptrons. COMP9444 c Alan Blair, 2017
COMP9444 Neural Networks and Deep Learning 2. Perceptrons COMP9444 17s2 Perceptrons 1 Outline Neurons Biological and Artificial Perceptron Learning Linear Separability Multi-Layer Networks COMP9444 17s2
More informationIntroduction to Neural Networks
Introduction to Neural Networks What are (Artificial) Neural Networks? Models of the brain and nervous system Highly parallel Process information much more like the brain than a serial computer Learning
More informationGeometrijski smisao rješenja sustava od tri linearne jednadžbe s tri nepoznanice
Osječki matematički list 6(2006), 79 84 79 Geometrijski smisao rješenja sustava od tri linearne jednadžbe s tri nepoznanice Zlatko Udovičić Sažetak. Geometrijski smisao rješenja sustava od dvije linearne
More informationMultilayer Perceptron (MLP)
Multlayer Perceptron (MLP) Seungjn Cho Department of Computer Scence and Engneerng Pohang Unversty of Scence and Technology 77 Cheongam-ro, Nam-gu, Pohang 37673, Korea seungjn@postech.ac.kr 1 / 20 Outlne
More informationCHALMERS, GÖTEBORGS UNIVERSITET. SOLUTIONS to RE-EXAM for ARTIFICIAL NEURAL NETWORKS. COURSE CODES: FFR 135, FIM 720 GU, PhD
CHALMERS, GÖTEBORGS UNIVERSITET SOLUTIONS to RE-EXAM for ARTIFICIAL NEURAL NETWORKS COURSE CODES: FFR 35, FIM 72 GU, PhD Tme: Place: Teachers: Allowed materal: Not allowed: January 2, 28, at 8 3 2 3 SB
More informationTermodinamika. FIZIKA PSS-GRAD 29. studenog Copyright 2015 John Wiley & Sons, Inc. All rights reserved.
Termodinamika FIZIKA PSS-GRAD 29. studenog 2017. 15.1 Thermodynamic Systems and Their Surroundings Thermodynamics is the branch of physics that is built upon the fundamental laws that heat and work obey.
More informationEEE 241: Linear Systems
EEE : Lnear Systems Summary #: Backpropagaton BACKPROPAGATION The perceptron rule as well as the Wdrow Hoff learnng were desgned to tran sngle layer networks. They suffer from the same dsadvantage: they
More informationMultilayer neural networks
Lecture Multlayer neural networks Mlos Hauskrecht mlos@cs.ptt.edu 5329 Sennott Square Mdterm exam Mdterm Monday, March 2, 205 In-class (75 mnutes) closed book materal covered by February 25, 205 Multlayer
More informationArtificial Neural Networks
Artificial Neural Networks 鮑興國 Ph.D. National Taiwan University of Science and Technology Outline Perceptrons Gradient descent Multi-layer networks Backpropagation Hidden layer representations Examples
More information1 Input-Output Mappings. 2 Hebbian Failure. 3 Delta Rule Success.
Task Learnng 1 / 27 1 Input-Output Mappngs. 2 Hebban Falure. 3 Delta Rule Success. Input-Output Mappngs 2 / 27 0 1 2 3 4 5 6 7 8 9 Output 3 8 2 7 Input 5 6 0 9 1 4 Make approprate: Response gven stmulus.
More information1. A discrete-time recurrent network is described by the following equation: y(n + 1) = A y(n) + B x(n)
Neuro-Fuzzy, Revision questions June, 25. A discrete-time recurrent network is described by the following equation: y(n + ) = A y(n) + B x(n) where A =.7.5.4.6, B = 2 (a) Sketch the dendritic and signal-flow
More informationSupervised Learning NNs
EE788 Robot Cognton and Plannng, Prof. J.-H. Km Lecture 6 Supervsed Learnng NNs Robot Intellgence Technolog Lab. From Jang, Sun, Mzutan, Ch.9, Neuro-Fuzz and Soft Computng, Prentce Hall Contents. Introducton.
More informationLab 5: 16 th April Exercises on Neural Networks
Lab 5: 16 th April 01 Exercises on Neural Networks 1. What are the values of weights w 0, w 1, and w for the perceptron whose decision surface is illustrated in the figure? Assume the surface crosses the
More informationMachine Learning CS-527A ANN ANN. ANN Short History ANN. Artificial Neural Networks (ANN) Artificial Neural Networks
Machne Learnng CS-57A Artfcal Neural Networks Burchan (bourch-khan) Bayazt http://www.cse.wustl.edu/~bayazt/courses/cs57a/ Malng lst: cs-57a@cse.wustl.edu Artfcal Neural Networks (ANN) Neural network nspred
More informationNeural Networks. Perceptrons and Backpropagation. Silke Bussen-Heyen. 5th of Novemeber Universität Bremen Fachbereich 3. Neural Networks 1 / 17
Neural Networks Perceptrons and Backpropagaton Slke Bussen-Heyen Unverstät Bremen Fachberech 3 5th of Novemeber 2012 Neural Networks 1 / 17 Contents 1 Introducton 2 Unts 3 Network structure 4 Snglelayer
More informationSummary Modeling of nonlinear reactive electronic circuits using artificial neural networks
Summary Modeling of nonlinear reactive electronic circuits using artificial neural networks The problem of modeling of electronic components and circuits has been interesting since the first component
More informationUvod u numericku matematiku
Uvod u numericku matematiku M. Klaricić Bakula Oujak, 2009. Uvod u numericku matematiku 2 1 Uvod Jedan od osnovnih problema numericke matematike je rješavanje linearnih sustava jednadbi. U ovom poglavlju
More informationModified Zagreb M 2 Index Comparison with the Randi} Connectivity Index for Benzenoid Systems
CROATICA CHEMICA ACTA CCACAA 7 (2) 83 87 (2003) ISSN-00-3 CCA-2870 Note Modified Zagreb M 2 Index Comparison with the Randi} Connectivity Index for Benzenoid Systems Damir Vuki~evi} a, * and Nenad Trinajsti}
More informationModel of Neurons. CS 416 Artificial Intelligence. Early History of Neural Nets. Cybernetics. McCulloch-Pitts Neurons. Hebbian Modification.
Page 1 Model of Neurons CS 416 Artfcal Intellgence Lecture 18 Neural Nets Chapter 20 Multple nputs/dendrtes (~10,000!!!) Cell body/soma performs computaton Sngle output/axon Computaton s typcally modeled
More informationMjerenje snage. Na kraju sata student treba biti u stanju: Spojevi za jednofazno izmjenično mjerenje snage. Ak. god. 2008/2009
Mjerenje snae Ak. od. 008/009 1 Na kraju sata student treba biti u stanju: Opisati i analizirati metode mjerenja snae na niskim i visokim frekvencijama Odabrati optimalnu metodu mjerenja snae Analizirati
More informationGrupiranje podataka u skupine 1 Rudolf Scitovski, Odjela za matematiku, Sveučilište u Osijeku 2
Klaster analiza 1 U tekstu vjerojatno ima pogrešaka. Ako ih uočite, molim da mi to javite Grupiranje podataka u skupine 1 Rudolf Scitovski, Odjela za matematiku, Sveučilište u Osijeku 2 1 Formulacija problema
More informationGradient Descent Learning and Backpropagation
Artfcal Neural Networks (art 2) Chrstan Jacob Gradent Descent Learnng and Backpropagaton CSC 533 Wnter 200 Learnng by Gradent Descent Defnton of the Learnng roble Let us start wth the sple case of lnear
More informationPlan. Perceptron Linear discriminant. Associative memories Hopfield networks Chaotic networks. Multilayer perceptron Backpropagation
Neural Networks Plan Perceptron Linear discriminant Associative memories Hopfield networks Chaotic networks Multilayer perceptron Backpropagation Perceptron Historically, the first neural net Inspired
More informationFormule za udaljenost točke do pravca u ravnini, u smislu lp - udaljenosti math.e Vol 28.
1 math.e Hrvatski matematički elektronički časopis Formule za udaljenost točke do pravca u ravnini, u smislu lp - udaljenosti Banachovi prostori Funkcija udaljenosti obrada podataka optimizacija Aleksandra
More informationMetoda parcijalnih najmanjih kvadrata: Regresijski model
Sveučilište u Zagrebu Prirodoslovno-matematički fakultet Matematički odsjek Tamara Sente Metoda parcijalnih najmanjih kvadrata: Regresijski model Diplomski rad Voditelj rada: Izv.prof.dr.sc. Miljenko Huzak
More informationEkonometrija 6. Ekonometrija, Osnovne studije. Predavač: Aleksandra Nojković
Ekonometrja 6 Ekonometrja, Osnovne studje Predavač: Aleksandra Nojkovć Struktura predavanja Klasčn všestruk lnearn regreson model-posebne teme: Multkolnearnost - pojam posledce - metod otkrvanja otklanjanja
More informationNelder Meadova metoda: lokalna metoda direktne bezuvjetne optimizacije
Osječki matematički list (2), 131-143 Nelder Meadova metoda: lokalna metoda direktne bezuvjetne optimizacije Lucijana Grgić, Kristian Sabo Sažetak U radu je opisana poznata Nelder Meadova metoda, koja
More informationStrojno učenje. Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc
Strojno učenje Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc Generativni i diskriminativni modeli Diskriminativni Generativni (Učenje linije koja razdvaja klase) Učenje modela za
More informationPrimjena Fuzzy ARTMAP neuronske mreže za indeksiranje i klasifikaciju dokumenata
SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA DIPLOMSKI RAD br. 568 Primjena Fuzzy ARTMAP neuronske mreže za indeksiranje i klasifikaciju dokumenata Stjepan Buljat Zagreb, studeni 2005. ...mojoj
More informationNeural Networks (Part 1) Goals for the lecture
Neural Networks (Part ) Mark Craven and David Page Computer Sciences 760 Spring 208 www.biostat.wisc.edu/~craven/cs760/ Some of the slides in these lectures have been adapted/borrowed from materials developed
More informationKontrolni uređaji s vremenskom odgodom za rasvjetu i klimu
KOTROI SKOPOVI ZA RASVJETU I KIMA UREĐAJE Kontrolni i s vremenskom odgodom za rasvjetu i klimu Modularni dizajn, slobodna izmjena konfiguracije Sigurno. iski napon V Efikasno čuvanje energije Sigurnost.
More informationTEORIJE IZBORA U UVJETIMA NEIZVJESNOSTI
Perca Vojnć, mag. Asstentca Odjel za ekonomju poslovnu ekonomju Sveučlšte u Dubrovnku E-mal: perca.vojnc@undu.hr TEORIJE IZBORA U UVJETIMA NEIZVJESNOSTI UDK / UDC: 330.131.7 JEL klasfkacja / JEL classfcaton:
More informationMass transfer between a fluid and an immersed object in liquid solid packed and fluidized beds
J. Serb. Chem. Soc. 70 (11) 1373 1379 (2005) UDC 66.021.3:66.040.36:66.096.5 JSCS 3377 Original scientific paper Mass transfer between a fluid and an immersed object in liquid solid packed and fluidized
More informationArtificial Neural Networks Examination, March 2002
Artificial Neural Networks Examination, March 2002 Instructions There are SIXTY questions (worth up to 60 marks). The exam mark (maximum 60) will be added to the mark obtained in the laborations (maximum
More informationPARALELNI ALGORITMI ZA PROBLEM GRUPIRANJA PODATAKA
SVEUČILIŠTE U ZAGREBU PRIRODOSLOVNO MATEMATIČKI FAKULTET MATEMATIČKI ODSJEK Anto Čabraja PARALELNI ALGORITMI ZA PROBLEM GRUPIRANJA PODATAKA Diplomski rad Voditelj rada: doc. dr. sc. Goranka Nogo Zagreb,
More informationNeural networks. Chapter 19, Sections 1 5 1
Neural networks Chapter 19, Sections 1 5 Chapter 19, Sections 1 5 1 Outline Brains Neural networks Perceptrons Multilayer perceptrons Applications of neural networks Chapter 19, Sections 1 5 2 Brains 10
More informationCourse 395: Machine Learning - Lectures
Course 395: Machine Learning - Lectures Lecture 1-2: Concept Learning (M. Pantic) Lecture 3-4: Decision Trees & CBC Intro (M. Pantic & S. Petridis) Lecture 5-6: Evaluating Hypotheses (S. Petridis) Lecture
More informationNeural networks. Chapter 20, Section 5 1
Neural networks Chapter 20, Section 5 Chapter 20, Section 5 Outline Brains Neural networks Perceptrons Multilayer perceptrons Applications of neural networks Chapter 20, Section 5 2 Brains 0 neurons of
More informationNeural Networks. Chapter 18, Section 7. TB Artificial Intelligence. Slides from AIMA 1/ 21
Neural Networks Chapter 8, Section 7 TB Artificial Intelligence Slides from AIMA http://aima.cs.berkeley.edu / 2 Outline Brains Neural networks Perceptrons Multilayer perceptrons Applications of neural
More informationAdaptation of Neural Networks Using Genetic Algorithms
CROATICA CHEMICA ACTA CCACAA68 (1) 29-38 (1995) ISSN 0011-1643 CCA-2209 Conference Paper Adaptation of Neural Networks Using Genetic Algorithms Tin Ilakovac Ruđer Bošković Institute, POB 1016, HR-41001
More informationModelling of Parameters of the Air Purifying Process With a Filter- Adsorber Type Puri er by Use of Neural Network
Strojarstvo 53 (3) 165-170 (2011) M. RAOS et. al., Modelling of Parameters of the Air... 165 CODEN STJSAO ISSN 0562-1887 ZX470/1507 UDK 697.941:532.52:004.032.26 Modelling of Parameters of the Air Purifying
More informationMATH 567: Mathematical Techniques in Data Science Lab 8
1/14 MATH 567: Mathematcal Technques n Data Scence Lab 8 Domnque Gullot Departments of Mathematcal Scences Unversty of Delaware Aprl 11, 2017 Recall We have: a (2) 1 = f(w (1) 11 x 1 + W (1) 12 x 2 + W
More informationMultigradient for Neural Networks for Equalizers 1
Multgradent for Neural Netorks for Equalzers 1 Chulhee ee, Jnook Go and Heeyoung Km Department of Electrcal and Electronc Engneerng Yonse Unversty 134 Shnchon-Dong, Seodaemun-Ku, Seoul 1-749, Korea ABSTRACT
More informationNeural Networks & Learning
Neural Netorks & Learnng. Introducton The basc prelmnares nvolved n the Artfcal Neural Netorks (ANN) are descrbed n secton. An Artfcal Neural Netorks (ANN) s an nformaton-processng paradgm that nspred
More informationCALCULATION OF VELOCITY DISPERSION OF THE NEARBY GALAXIES USING DIFFERENT STELLAR TEMPLATE LIBRARIES
Serb. Astron. J. 180 (2010), 57-69 UDC 524.7 325 17 DOI: 10.2298/SAJ1080057L Original scientific paper CALCULATION OF VELOCITY DISPERSION OF THE NEARBY GALAXIES USING DIFFERENT STELLAR TEMPLATE LIBRARIES
More informationBack-Propagation Algorithm. Perceptron Gradient Descent Multilayered neural network Back-Propagation More on Back-Propagation Examples
Back-Propagation Algorithm Perceptron Gradient Descent Multilayered neural network Back-Propagation More on Back-Propagation Examples 1 Inner-product net =< w, x >= w x cos(θ) net = n i=1 w i x i A measure
More informationANALYTICAL AND NUMERICAL PREDICTION OF SPRINGBACK IN SHEET METAL BENDING
ANALYTICAL AND NUMERICAL PREDICTION OF SPRINGBACK IN SHEET METAL BENDING Slota Ján, Jurčišin Miroslav Department of Technologies and Materials, Faculty of Mechanical Engineering, Technical University of
More informationMEĐIMURSKO VELEUČILIŠTE U ČAKOVCU STRUČNI STUDIJ RAČUNARSTVO KRISTIJAN FIŠTREK MODEL NEURO-FUZZY SUSTAVA ZA PROCJENU ZAPOSLJIVOSTI STUDENATA MEV-A
MEĐIMURSKO VELEUČILIŠTE U ČAKOVCU STRUČNI STUDIJ RAČUNARSTVO KRISTIJAN FIŠTREK MODEL NEURO-FUZZY SUSTAVA ZA PROCJENU ZAPOSLJIVOSTI STUDENATA MEV-A ZAVRŠNI RAD ČAKOVEC, 2017. MEĐIMURSKO VELEUČILIŠTE U ČAKOVCU
More informationStrojno učenje. Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc
Strojno učenje Metoda potpornih vektora (SVM Support Vector Machines) Tomislav Šmuc Generativni i diskriminativni modeli Diskriminativni Generativni (Učenje linije koja razdvaja klase) Učenje modela za
More informationMachine Learning
Machine Learning 10-601 Maria Florina Balcan Machine Learning Department Carnegie Mellon University 02/10/2016 Today: Artificial neural networks Backpropagation Reading: Mitchell: Chapter 4 Bishop: Chapter
More informationNova robusna metoda za QSAR analizu temeljena na multivarijatnoj regresiji i normi L 1
Sveučilište u Zagrebu Fakultet Elektrotehnike i Računarstva Ivan Sović, Matija Piškorec, Igor Čanadi Nova robusna metoda za QSAR analizu temeljena na multivarijatnoj regresiji i normi L 1 3. svibnja 2010.
More informationOracle Spatial Koordinatni sustavi, projekcije i transformacije. Dalibor Kušić, mag. ing. listopad 2010.
Oracle Spatial Koordinatni sustavi, projekcije i transformacije Dalibor Kušić, mag. ing. listopad 2010. Pregled Uvod Koordinatni sustavi Transformacije Projekcije Modeliranje 00:25 Oracle Spatial 2 Uvod
More informationMatrice u Maple-u. Upisivanje matrica
Matrice u Maple-u Tvrtko Tadić U prošlom broju upoznali ste se s matricama, a u ovom broju vidjeli ste neke njihove primjene. Mnoge je vjerojatno prepalo računanje s matricama. Pa tko će raditi svo to
More informationArtificial Neural Networks Examination, June 2004
Artificial Neural Networks Examination, June 2004 Instructions There are SIXTY questions (worth up to 60 marks). The exam mark (maximum 60) will be added to the mark obtained in the laborations (maximum
More informationNeural Networks. Associative memory 12/30/2015. Associative memories. Associative memories
//5 Neural Netors Associative memory Lecture Associative memories Associative memories The massively parallel models of associative or content associative memory have been developed. Some of these models
More informationStrojno učenje 3 (II dio) Struktura metoda/algoritama strojnog učenja. Tomislav Šmuc
Strojno učenje 3 (II dio) Struktura metoda/algoritama strojnog učenja Tomislav Šmuc PMF, Zagreb, 2013 Sastavnice (nadziranog) problema učenja Osnovni pojmovi Ulazni vektor varijabli (engl. attributes,
More informationLast update: October 26, Neural networks. CMSC 421: Section Dana Nau
Last update: October 26, 207 Neural networks CMSC 42: Section 8.7 Dana Nau Outline Applications of neural networks Brains Neural network units Perceptrons Multilayer perceptrons 2 Example Applications
More informationUvod u relacione baze podataka
Uvod u relacione baze podataka Ana Spasić 2. čas 1 Mala studentska baza dosije (indeks, ime, prezime, datum rodjenja, mesto rodjenja, datum upisa) predmet (id predmeta, sifra, naziv, bodovi) ispitni rok
More information