NEURONSKE MREŽE 1. predavanje

Similar documents
Projektovanje paralelnih algoritama II

Artificial Neural Networks

UMJETNE NEURONSKE MREŽE

Summary Modeling of nonlinear reactive electronic circuits using artificial neural networks

TEORIJA SKUPOVA Zadaci

APPROPRIATENESS OF GENETIC ALGORITHM USE FOR DISASSEMBLY SEQUENCE OPTIMIZATION

Red veze za benzen. Slika 1.

Algoritam za množenje ulančanih matrica. Alen Kosanović Prirodoslovno-matematički fakultet Matematički odsjek

AIR CURTAINS VAZDU[NE ZAVESE V H

ANALYSIS OF INFLUENCE OF PARAMETERS ON TRANSFER FUNCTIONS OF APERIODIC MECHANISMS UDC Života Živković, Miloš Milošević, Ivan Ivanov

Mathcad sa algoritmima

Artificial Neural Network

Vrednovanje raspoznavanja znamenki i slova konvolucijskim neuronskim mrežama

Raspoznavanje objekata dubokim neuronskim mrežama

Adaptation of Neural Networks Using Genetic Algorithms

Rešenja zadataka za vežbu na relacionoj algebri i relacionom računu

CSC Neural Networks. Perceptron Learning Rule

DEVELOPMENT OF MATHEMATICAL MODELS TO PREDICT THE EFFECT OF INPUT PARAMETERS ON FEED RATE OF A RECIPROCATORY TUBE FUNNEL FEEDER

Odre divanje smjera gledanja konvolucijskim neuronskim mrežama

Modelling of Parameters of the Air Purifying Process With a Filter- Adsorber Type Puri er by Use of Neural Network

Diplomski rad br. 1396

The existence theorem for the solution of a nonlinear least squares problem

Preliminarno ispitivanje sadrž aja slike pomoć u histograma slike koris ć enjem SVM algoritma i neuronske mrež e

Neural Networks (Part 1) Goals for the lecture

The Bond Number Relationship for the O-H... O Systems

Lecture 10. Neural networks and optimization. Machine Learning and Data Mining November Nando de Freitas UBC. Nonlinear Supervised Learning

y(x n, w) t n 2. (1)

Introduction to Neural Networks

Introduction to Natural Computation. Lecture 9. Multilayer Perceptrons and Backpropagation. Peter Lewis

KLASIFIKACIJA NAIVNI BAJES. NIKOLA MILIKIĆ URL:

Šta je to mašinsko učenje?

Uvod u relacione baze podataka

4. Multilayer Perceptrons

Artificial Neural Network

Artificial Neural Networks. Edward Gatt

Artifical Neural Networks

Artificial Neural Network : Training

Computational Intelligence Winter Term 2017/18

Multilayer Perceptrons and Backpropagation

Νεςπο-Ασαυήρ Υπολογιστική Neuro-Fuzzy Computing

Neural Networks Task Sheet 2. Due date: May

ADAPTIVE NEURO-FUZZY MODELING OF THERMAL VOLTAGE PARAMETERS FOR TOOL LIFE ASSESSMENT IN FACE MILLING

COGS Q250 Fall Homework 7: Learning in Neural Networks Due: 9:00am, Friday 2nd November.

Artificial Neural Networks. Historical description

Primjena Fuzzy ARTMAP neuronske mreže za indeksiranje i klasifikaciju dokumenata

Chapter ML:VI (continued)

(Feed-Forward) Neural Networks Dr. Hajira Jabeen, Prof. Jens Lehmann

Preliminary Program for PHD students- English language

Mathematics and Computer-Aided Modeling in Sciences Intensive School Novi Sad Preliminary Program for PHD students- English language

Security Analytics. Topic 6: Perceptron and Support Vector Machine

Šime Šuljić. Funkcije. Zadavanje funkcije i područje definicije. š2004š 1

ECE 471/571 - Lecture 17. Types of NN. History. Back Propagation. Recurrent (feedback during operation) Feedforward

In the Name of God. Lecture 11: Single Layer Perceptrons

Artificial Neural Networks The Introduction

Introduction to Convolutional Neural Networks (CNNs)

ANALYTICAL AND NUMERICAL PREDICTION OF SPRINGBACK IN SHEET METAL BENDING

Neural Networks. Fundamentals Framework for distributed processing Network topologies Training of ANN s Notation Perceptron Back Propagation

CMSC 421: Neural Computation. Applications of Neural Networks

Fajl koji je korišćen može se naći na

Chapter ML:VI. VI. Neural Networks. Perceptron Learning Gradient Descent Multilayer Perceptron Radial Basis Functions

1. A discrete-time recurrent network is described by the following equation: y(n + 1) = A y(n) + B x(n)

Artificial Neural Networks Examination, June 2005

Lab 5: 16 th April Exercises on Neural Networks

Chapter ML:VI (continued)

CS 6501: Deep Learning for Computer Graphics. Basics of Neural Networks. Connelly Barnes

Computational Intelligence

EEE 241: Linear Systems

Simple Neural Nets For Pattern Classification

Simple neuron model Components of simple neuron

DESIGN AND CALCULATION OF RING SPRINGS AS SPRING ELEMENTS OF THE WAGON BUFFER UDC : Jovan Nešović

Administration. Registration Hw3 is out. Lecture Captioning (Extra-Credit) Scribing lectures. Questions. Due on Thursday 10/6

The perceptron learning algorithm is one of the first procedures proposed for learning in neural network models and is mostly credited to Rosenblatt.

AN EXPERIMENTAL METHOD FOR DETERMINATION OF NATURAL CIRCULAR FREQUENCY OF HELICAL TORSIONAL SPRINGS UDC:

Neural Networks and Deep Learning

DYNAMIC HEAT TRANSFER IN WALLS: LIMITATIONS OF HEAT FLUX METERS

Networks of McCulloch-Pitts Neurons

Introduction to Artificial Neural Networks

Introduction Neural Networks - Architecture Network Training Small Example - ZIP Codes Summary. Neural Networks - I. Henrik I Christensen

PMR5406 Redes Neurais e Lógica Fuzzy Aula 3 Single Layer Percetron

HISTORY. In the 70 s vs today variants. (Multi-layer) Feed-forward (perceptron) Hebbian Recurrent

VELOCITY PROFILES AT THE OUTLET OF THE DIFFERENT DESIGNED DIES FOR ALUMINIUM EXTRUSION

100 inference steps doesn't seem like enough. Many neuron-like threshold switching units. Many weighted interconnections among units

Strojno učenje 3 (II dio) Struktura metoda/algoritama strojnog učenja. Tomislav Šmuc

Đorđe Đorđević, Dušan Petković, Darko Živković. University of Niš, The Faculty of Civil Engineering and Architecture, Serbia

Apprentissage, réseaux de neurones et modèles graphiques (RCP209) Neural Networks and Deep Learning

Tutorial on Machine Learning for Advanced Electronics

COMP-4360 Machine Learning Neural Networks

McGill University > Schulich School of Music > MUMT 611 > Presentation III. Neural Networks. artificial. jason a. hockman

Learning strategies for neuronal nets - the backpropagation algorithm

Machine Learning

STA 414/2104: Lecture 8

Artificial Intelligence

Artificial Neural Networks Examination, June 2004

Machine Learning. Neural Networks. Le Song. CSE6740/CS7641/ISYE6740, Fall Lecture 7, September 11, 2012 Based on slides from Eric Xing, CMU

8. Lecture Neural Networks

6 th INTERNATIONAL CONFERENCE

Neuro-Fuzzy Comp. Ch. 4 March 24, R p

Neural Networks in Structured Prediction. November 17, 2015

Obavezan predmet za sve studijske programe

Chapter 2 Single Layer Feedforward Networks

Transcription:

NEURONSKE MREŽE 1. predavanje dr Zoran Ševarac sevarac@gmail.com FON, 2014.

CILJ PREDAVANJA I VEŽBI IZ NEURONSKIH MREŽA Upoznavanje sa tehnologijom - osnovni pojmovi i modeli NM Mogućnosti i primena NM Upoznavanje i ovladavanje Java Neural Network Framework-om Neuroph Na kraju ćete biti osposobljeni da prepoznate probleme koji se mogu rešavati pomoću NM kao i da uspešno implementirate odgovarajuća rešenja Razvoj Neuroph framework-a

PLAN PREDAVANJA I VEŽBI Predavanja 1. Osnovni pojmovi, vrste i elementi neuronskih mreža 2. Višeslojni perceptron i Backpropagation algoritam 3. Procedura rešavanja problema pomoću neuronskih mreža 4. Unapredjenja Backpropagation algoritma Vežbe 1. i 2. Softver za neuronske mreže Neuroph i primeri korišćenja za prepoznavanje slika i OCR 3. i 4. Upoznavanje sa internom arhitekturom Neuroph softvera i načinima proširenja

ŠTA SU NEURONSKE MREŽE Matematički modeli po uzoru na mozak Biološka i veštačka NM

Biološki neuron

Biološka neuronska mreža

MOZAK I VNM Mozak: 10 10 neurona 10 13 veza između neurona Brzina rada na nivou milisec Potpuno paralelni rad VNM: Do 20 000 neurona Brzina rada na nivou nanosec Simulacija paralelnog rada

ŠTA JE VEŠTAČKA NEURONSKA MREŽA - DEFINICIJE DARPA: Neuronska mreža je sistem koji se sastoji od velikog broja međusobno povezanih, jednostavnih elemenata procesiranja koji rade paralelno. Funkcija NM je određena strukturom mreže, težinom veza, i obradom u elementima procesiranja. Haykin: Neuronska mreža je paralelni distribuirani procesor koji ima prirodnu sposobnost čuvanja i korišćenja iskustvenog znanja. Sličnost sa mozgom se ogleda kroz dve osobine: mreža stiče znanje kroz proces učenja znanje se čuva u vezama između neurona (sinaptičkim težinama) Zurada: Veštački neuro sistemi ili neuronske mreže, su ćelijski sistemi koji mogu da stiču, čuvaju i koriste iskustveno znanje.

Biološki i veštački neuron Osnovni delovi: telo(soma), dendriti(ulazi), akson(izlaz), sinapse(spojevi)

Veštački neuron output = f (w 1 in 1 + +w n in n )

Osnovni elementi veštačkog neurona Ulazna funkcija sumiranja Funkcija transfera Ulazi sa težinskim koeficijentima Izlaz

FUNKCIJE TRANSFERA Linearna Odskočna Sigmoidna

McCulloch Pits Neuron Threshold Logic Unit Σ y = STEP (w 1 u 1 + +w n u n )

Vrste NM prema arhitekturi

UČENJE/TRENING NM Učenje: procedura podešavanja težina veza tako da mreža dobije željeno ponašanje/funkcionalnost Učenje sa učiteljem supervised Učenje bez učitelja unsupervised

SUPERVIZORNO UČENJE (SUPERVISED LEARNING) Opšti princip: minimizacija greške kroz iterativnu proceduru Željeni izlaz d(x) Greška Ulaz X Neuronska mreža Stvarni izlaz y(x) e(x) = d(x) y(x)

ADALINE u 1 w 1 u 2 w 2 w 3 y u 3 Linearna funkcija transfera Linearna kombinacija ulaza y = w 1 u 1 +w 2 u 2 + +w n u n, Učenje metodom najmanjih kvadrata

LMS UČENJE LMS pravilo se može izraziti kroz sledeće jednačine: (1) greška izlaznog neurona za p-ti uzorak iz skupa za trening ε p =d p -y p (2) promena težine veze proporcionalno grešci (3) ukupna greška mreže za sve uzorke iz skupa za trening (kriterijum za zaustavljanje treninga mreža je naučila kada je greška svedena na prihvatljivu meru)

PERCEPTRON y 1 u 1 y 2 u 2 y 3 Step funkcija transfera Perceptron learning - prvi algoritam za učenje nelinearnih sistema Samo za linearno separabilne probleme

Višeslojni perceptron Proširenje osnovnog perceptrona ima jedan ili više skrivenih slojeva neurona između ulaznog i izlaznog Glatke/diferencijabilne funkcije transfera u neuronima (tanh, sigmoid) Koristi Backpropagation algoritam za učenje koji se zasniva na LMS algoritmu. Mogu da rešavaju složene probleme

Backpropagation algoritam Služi za trening višeslojnog perceptrona može da podešava težine u skrivenim slojevima Predstavlja supervizorni algoritam koji se zasniva na LMS algoritmu Višeslojni perceptron sa BP algoritmom predstavlja univerzalni aproksimator

Backpropagation algoritam Ključna je formula za podešavanje skrivenih slojeva neurona

Parametri backpropagation algoritam Max error Max iterations Learning rate Batch mode

Backpropagation algoritam Problem lokalnog minimuma Zaustavljanje algoritma: broj iteracija, greška ispod definisanog min, smanjanje greške tokom treninga je suviše malo, ukupna greška za određeni test set

LINKOVI I LITERATURA Sajt predmeta Inteligentni sistemi http://is.fon.rs/neuronske_mreze Sajt Neuroph projekta http://neuroph.sourceforge.net Izborni predmet Razvoj softvera otvorenog koda http://opensource.fon.bg.ac.rs Neural Networks - A Systematic Introduction, besplatna online knjiga Introduction to Neural Computation