Apprentissage automatique Machine à vecteurs de support - motivation
|
|
- Alexia Harrell
- 6 years ago
- Views:
Transcription
1 Apprentissage automatique Machine à vecteurs de support - motivation
2 RÉGRESSION À NOYAU régression à noyau Algorithme de régression à noyau entraînement : prédiction : a = (K + λi N ) 1 t. y(x) =k(x) T a RAPPEL Pour exécuter cet algorithme, on a seulement besoin de calculer les produits scalaires du noyau φ(x n ) T φ(x m ) = k(x n, x m ) 2 Par contre, on doit toujours avoir accès aux entrées de l ensemble d entraînement
3 RÉGRESSION À NOYAU régression à noyau Algorithme de régression à noyau entraînement : prédiction : a = (K + λi N ) 1 t. y(x) =k(x) T a comparaison avec tout l ensemble d entraînement RAPPEL Pour exécuter cet algorithme, on a seulement besoin de calculer les produits scalaires du noyau φ(x n ) T φ(x m ) = k(x n, x m ) 2 Par contre, on doit toujours avoir accès aux entrées de l ensemble d entraînement
4 MACHINE À VECTEURS DE SUPPORT machine à vecteurs de support, support vector machine On va voir la machine à vecteur de support (support vector machine, SVM) un nouvel algorithme pour la classification binaire après l entraînement, va garder seulement un sous-ensemble des données d entraînement plusieurs des a n dans a vont être à 0 3
5 CLASSIFICATION classification binaire, séparabilité linéaire Cas spécial : classification binaire C 1 classe correspond à t = 1 R 1 RAPPEL classe C 2 correspond à t = 0 (ou t = -1) R 2 Cas spécial : classification linéaire la surface de décision entre chaque paire de régions de décision est linéaire, i.e. un hyperplan (droite pour D=2) on dit qu un problème est linéairement séparable si une surface linéaire permet de classifier parfaitement 4
6 CLASSIFICATION classification binaire, séparabilité linéaire Cas spécial : classification binaire C 1 classe correspond à t = 1 R 1 RAPPEL classe C 2 correspond à t = 0 (ou t = -1) R 2 Cas spécial : classification linéaire la surface de décision entre chaque paire de régions de décision est linéaire, i.e. un hyperplan (droite pour D=2) on dit qu un problème est linéairement séparable si une surface linéaire permet de classifier parfaitement 4
7 Apprentissage automatique Machine à vecteurs de support - marge
8 MACHINE À VECTEURS DE SUPPORT machine à vecteurs de support, support vector machine On va voir la machine à vecteur de support (support vector machine, SVM) un nouvel algorithme pour la classification binaire après l entraînement, va garder seulement un sous-ensemble des données d entraînement plusieurs des a n dans a vont être à 0 Au centre du SVM est la notion de marge 6
9 FONCTION DISCRIMINANTE y > 0 y = 0 y < 0 fonction discriminante, vecteur de poids, biais x 2 R 2 R 1 y(x) = w T x + w 0 RAPPEL w x y(x) w = r x 7 x = x + r w w w w 0 w x 1
10 FONCTION DISCRIMINANTE y > 0 y = 0 y < 0 fonction discriminante, vecteur de poids, biais x 2 R 2 R 1 y(x) = w T x + w 0 RAPPEL w t x y(x) w = r distance signée x x 1 x = x + r w w w 0 w 7 w
11 MARGE D UN CLASSIFIEUR marge La marge est la plus petite distance signée entre la surface de décision et les entrées de l ensemble d entraînement > 0 < 0 8
12 Apprentissage automatique Machine à vecteurs de support - classifieur à marge maximale
13 MACHINE À VECTEURS DE SUPPORT machine à vecteurs de support, support vector machine On va voir la machine à vecteur de support (support vector machine, SVM) un nouvel algorithme pour la classification binaire après l entraînement, va garder seulement un sous-ensemble des données d entraînement plusieurs des a n dans a vont être à 0 On va commencer par décrire la version paramétrique linéaire (sans noyau) 10
14 MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale La distance signée pour un exemple (x n,t n ) est t n y(x n ) w = t n(w T φ(x n ) + b) w (b est équivalent à w 0 ) Un SVM cherche à maximiser la marge cherche le classifieur à marge maximale arg max { 1 w min n [ tn ( w T φ(x n ) + b )]} 11
15 MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale La marge est la même si on multiplie w et b par un constante (a) > 0 < 0 t n (aw T (x n )+ab) a w On va donc contraindre la solution pour que t n ( w T φ(x n ) + b ) = 1 pour (x n,t n ) le plus proche de la surface de décision 12 )
16 MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale La marge est la même si on multiplie w et b par un constante (a) > 0 < 0 t n (aw T (x n )+ab) a w On va donc contraindre la solution pour que t n ( w T φ(x n ) + b ) = 1 pour (x n,t n ) le plus proche de la surface de décision 12 )
17 MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale La marge est la même si on multiplie w et b par un constante (a) t n (aw T (x n )+ab) a w On va donc contraindre la solution pour que t n ( w T φ(x n ) + b ) = 1 pour (x n,t n ) le plus proche de la surface de décision 12 )
18 MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale Exemple : 13
19 MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale En supposant que l ensemble d entraînement est linéairement séparable, on a : arg max { 1 w min n [ tn ( w T φ(x n ) + b )]} Ce problème d optimisation est un programme quadratique il existe des librairies pouvant le résoudre numériquement en O(D 3 ) 14
20 MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale En supposant que l ensemble d entraînement est linéairement séparable, on a : arg max { 1 w min n [ tn ( w T φ(x n ) + b )]} =1 Ce problème d optimisation est un programme quadratique il existe des librairies pouvant le résoudre numériquement en O(D 3 ) 14
21 ) MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale En supposant que l ensemble d entraînement est linéairement séparable, on a : arg max { 1 w min n [ tn ( w T φ(x n ) + b )]} =1 devient t.q. arg min ( 1 2 w 2 t n ( w T φ(x n ) + b ) 1, spour the canonical n = 1,.. representati., N. Ce problème d optimisation est un programme quadratique il existe des librairies pouvant le résoudre numériquement en O(D 3 ) 14
22 Apprentissage automatique Machine à vecteurs de support - représentation duale
23 ) MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale Si on suppose la séparabilité linéaire, on doit optimiser arg min ( 1 2 w 2 ( t.q. t n w T φ(x n ) + b ) 1, spour the canonical n = 1,.. representati., N. C est un problème d optimisation (quadratique) avec N contraintes 16
24 MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale On peut enlever les contraintes en introduisant des multiplicateurs de Lagrange (voir Bishop, appendice E) L(w, b, a) = 1 2 w 2 N a n { tn (w T φ(x n ) + b) 1 } où les multiplicateurs sont a n 0 17
25 MACHINE À VECTEURS DE SUPPORT { On peut enlever les contraintes en introduisant des multiplicateurs de Lagrange (voir Bishop, appendice E) L(w, b, a) = classifieur à marge maximale 1 2 w 2 N a n { tn (w T φ(x n ) + b) 1 } En annulant les dérivées, on obtient les conditions N N w = a n t n φ(x n ) 0 = a n t n. 18
26 MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale { On peut enlever les contraintes en introduisant des multiplicateurs de Lagrange (voir Bishop, appendice E) L(w, b, a) = 1 2 w 2 N on peut exprimer w comme une En annulant les dérivées, on obtient les conditions combinaison linéaire des entées a n { tn (w T φ(x n ) + b) 1 } N { N w = a n t n φ(x n ) 0 = a n t n. 18
27 REPRÉSENTATION DUALE représentation duale, astuce du noyau On peut alors réécrire L(,a) comme suit : φ(x n ) T φ(x m ) = k(x n, x m ) N L(a) = a n 1 2 N N a où on a toujours a n 0 et m=1 Programme quadratique de complexité dans O(N 3 ) N C est la représentation duale du SVM nous permet d utiliser l astuce du noyau a n a m t n t m k(x n, x m ) a n t n = 0. { 19
28 VECTEURS DE SUPPORT classifieur à marge maximale On peut démontrer que la solution satisfait a n 0 t n y(x n ) 1 0 a n {t n y(x n ) 1} = Lié avec les conditions Karush-Kuhn-Tucker (KKT) (voir Bishop, appendice E) Les x n tels que a n > 0 sont appelés vecteurs de support
29 VECTEURS DE SUPPORT classifieur à marge maximale On peut démontrer que la solution satisfait a n 0 Pour chaque n t n y(x n ) 1 0 implique a n = 0 ou t n y(x n ) = 1 a n {t n y(x n ) 1} = 0. e sum in ( 13) and hence pl Lié avec les conditions Karush-Kuhn-Tucker (KKT) (voir Bishop, appendice E) Les x n tels que a n > 0 sont appelés vecteurs de support 20
30 VECTEURS DE SUPPORT classifieur à marge maximale, vecteurs de support Exemple : t n y(x n ) = 1 13) and hence pl vecteurs de support 21
31 VECTEURS DE SUPPORT classifieur à marge maximale, vecteurs de support Exemple : t n y(x n ) = 1 13) and hence pl a n = 0 e sum in ( vecteurs de support 21
32 VECTEURS DE SUPPORT classifieur à marge maximale, vecteurs de support Exemple : t n y(x n ) = 1 13) and hence pl a n = 0 e sum in ( vecteurs de support 21
33 VECTEURS DE SUPPORT classifieur à marge maximale, vecteurs de support Exemple : t n y(x n ) = 1 13) and hence pl a n = 0 e sum in ( vecteurs de support Solution aurait été identique, même si les points n avaient pas été dans l ensemble d entraînement! 21
34 MACHINE À VECTEURS DE SUPPORT À NOYAU SVM à noyau Prédiction, dans la représentation duale y(x) =w T (x)+b NX = a n t n (x n )! T (x)+b NX = a n t n k(x n, x)+b 22 seulement les vecteurs de support vont voter!
35 MACHINE À VECTEURS DE SUPPORT À NOYAU SVM à noyau Exemple avec noyau gaussien vecteurs de support y(x) = NX a n t n k(x n, x)+b 23
36 MACHINE À VECTEURS DE SUPPORT À NOYAU SVM à noyau Exemple avec noyau gaussien vecteurs de support y(x) = NX a n t n k(x n, x)+b 23
37 Apprentissage automatique Machine à vecteurs de support - chevauchement de classes
38 ) MACHINE À VECTEURS DE SUPPORT En supposant que l ensemble d entraînement est linéairement séparable, on a : arg max classifieur à marge maximale { 1 w min n [ tn ( w T φ(x n ) + b )]} =1 devient t.q. arg min ( 1 2 w 2 t n ( w T φ(x n ) + b ) 1, spour the canonical n = 1,.. representati., N. RAPPEL Ce problème d optimisation est un programme quadratique il existe des librairies pouvant le résoudre numériquement 25
39 ) MACHINE À VECTEURS DE SUPPORT classifieur à marge maximale En supposant que l ensemble d entraînement est linéairement séparable, on a : arg max { Quoi 1 faire w min [ s il ( y a : tn w T φ(x n ) + b )]} n - des erreurs dans l ensemble d entraînement devient t.q. arg min ( 1 2 w 2 t n ( w T φ(x n ) + b ) 1, - des exemples =1 exceptionnellement difficiles à classifier spour the canonical n = 1,.. representati., N. RAPPEL Ce problème d optimisation est un programme quadratique il existe des librairies pouvant le résoudre numériquement 25
40 CHEVAUCHEMENT DE CLASSES chevauchement de classes Quoi s il y a chevauchement entre les classes?
41 ) ) CHEVAUCHEMENT DE CLASSES variables de ressort (slack variables) On va permettre que des exemples ne respectent pas la contrainte de marge Les n t.q. arg min ( 1 2 w 2 t n ( w T φ(x n ) + b ) 1, spour the canonical n = 1,.. representati., N. devient arg min sont des variables variables de ressort elles correspondent aux violations des contraintes de marge n ( 1 2 w 2 + ( t.q. t n w T φ(x n ) + b ) 1, ξ n s the canonical representati ξ n 0. margin pour n = 1,..., N. C N ξ n 27
42 ) ) CHEVAUCHEMENT DE CLASSES variables de ressort (slack variables) On va permettre que des exemples ne respectent pas la contrainte de marge Les n t.q. arg min ( 1 2 w 2 t n ( w T φ(x n ) + b ) 1, spour the canonical n = 1,.. representati., N. devient arg min sont des variables variables de ressort elles correspondent aux violations des contraintes de marge n ( 1 2 w 2 + ( t.q. t n w T φ(x n ) + b ) 1, ξ n s the canonical representati ξ n 0. margin pour n = 1,..., N. C N ξ n 27
43 ) ) CHEVAUCHEMENT DE CLASSES variables de ressort (slack variables) On va permettre que des exemples ne respectent pas la contrainte de marge Si n classifié t.q. arg min ( 1 2 w 2 t n ( w T φ(x n ) + b ) 1, spour the canonical n = 1,.. representati., N. devient arg min est entre 0 et 1, l exemple est quand même bien n ( 1 2 w 2 + ( t.q. t n w T φ(x n ) + b ) 1, ξ n s the canonical representati ξ n 0. margin pour n = 1,..., N. C N ξ n 28
44 ) ) CHEVAUCHEMENT DE CLASSES variables de ressort (slack variables) On va permettre que des exemples ne respectent pas la contrainte de marge Si n t.q. arg min ( 1 2 w 2 t n ( w T φ(x n ) + b ) 1, spour the canonical n = 1,.. representati., N. devient est plus grand que 1, l exemple est du mauvais côté de la surface de décision et est mal classifié arg min n ( 1 2 w 2 + ( t.q. t n w T φ(x n ) + b ) 1, ξ n s the canonical representati ξ n 0. margin pour n = 1,..., N. C N ξ n 29
45 ) ) CHEVAUCHEMENT DE CLASSES variables de ressort (slack variables) On va permettre que des exemples ne respectent pas la contrainte de marge t.q. arg min ( 1 2 w 2 t n ( w T φ(x n ) + b ) 1, spour the canonical n = 1,.. representati., N. devient La constante C > 0 est un hyper-paramètre arg min plus il est petit, plus la capacité diminue (C= revient au prob. original) n ( 1 2 w 2 + ( t.q. t n w T φ(x n ) + b ) 1, ξ n s the canonical representati ξ n 0. margin pour n = 1,..., N. C N ξ n 30
46 CHEVAUCHEMENT DE CLASSES variables de ressort (slack variables) Exemple : vecteurs de support Les entrées qui violent les contraintes de marge sont aussi des vecteurs de support 31
47 REPRÉSENTATION DUALE représentation duale On peut montrer que la représentation duale devient N N N L(a) = a n 1 2 m=1 aoù on a toujours C a n 0 et a n a m t n t m k(x n, x m ) N a n t n = 0. Reste un problème de programmation quadratique, mais les contraintes changent 32
48 REPRÉSENTATION DUALE représentation duale On peut montrer que la représentation duale devient N N N L(a) = a n 1 2 m=1 aoù on a toujours C a n 0 et a n a m t n t m k(x n, x m ) N a n t n = 0. Reste un problème de programmation quadratique, mais les contraintes changent 32
49 Apprentissage automatique Machine à vecteurs de support - lien avec régression logistique
50 ) MACHINE À VECTEURS DE SUPPORT hinge loss On peut réécrire l entraînement d un SVM sous une forme sans contraintes arg min n 1 2 w 2 + C N ξ n t.q. t n y(x n ) 1 n ξ n 0. margin pour n = 1,..., N. 34
51 ) MACHINE À VECTEURS DE SUPPORT hinge loss On peut réécrire l entraînement d un SVM sous une forme sans contraintes arg min n 1 2 w 2 + C N ξ n t.q. n 1 t n y(x n ) ξ n 0. margin pour n = 1,..., N. 35
52 ) MACHINE À VECTEURS DE SUPPORT hinge loss On peut réécrire l entraînement d un SVM sous une forme sans contraintes t.q. arg min n 1 2 w 2 n 1 + ξ n 0. margin pour n = 1,..., N. C N t n y(x n ) ξ n équivaut arg min NX max(0, 1 t n y(x n )) + w 2 ( =1/(2C) ) 35
53 ) MACHINE À VECTEURS DE SUPPORT hinge loss On peut réécrire l entraînement d un SVM sous une forme sans contraintes t.q. arg min n 1 2 w 2 n 1 + ξ n 0. margin pour n = 1,..., N. C N t n y(x n ) ξ n équivaut arg min NX = [1 y n t n ] + (hinge loss) { max(0, 1 t n y(x n )) + w 2 ( =1/(2C) ) 35
54 APPROCHE PROBABILISTE DISCRIMINANTE cross-entropie Maximiser la vraisemblance est équivalent à minimiser la logvraisemblance négative RAPPEL E(w) = ln p(t w) = Malheureusement, minimiser cette fonction ne se fait pas analytiquement N on va devoir trouver le minimum de façon numérique {t n ln y n + (1 t n ) ln(1 y n )} { cross-entropie (binaire) 36
55 ) MACHINE À VECTEURS DE SUPPORT hinge loss On peut réécrire l entraînement d un SVM sous une forme sans contraintes t.q. arg min 1 2 w 2 n 1 + ξ n 0. margin pour n = 1,..., N. C N t n y(x n ) ξ n équivaut arg min NX = [1 y n t n ] + (hinge loss) { max(0, 1 t n y(x n )) + w 2 37
56 ) MACHINE À VECTEURS DE SUPPORT hinge loss On peut réécrire l entraînement d un SVM sous une forme sans contraintes t.q. arg min 1 2 w 2 n 1 + ξ n 0. margin pour n = 1,..., N. C N t n y(x n ) ξ n équivaut arg min arg min NX NX = [1 y n t n ] + (hinge loss) { max(0, 1 t n y(x n )) + w 2 ln(1 + exp( t n y(x n ))) + w 2 { forme équivalente à la régression logistique 37
57 MACHINE À VECTEURS DE SUPPORT hinge loss La régression logistique est donc une version «lisse» d un SVM E(z) 1[ty(x < 0] max(0, 1 (i.e. erreur 0/1) ty(x)) ln(1 + exp( ty(x))) (t y(x)) z ty(x) (distance signée) 38
58 Apprentissage automatique Machine à vecteurs de support - résumé
59 ) MACHINE À VECTEURS DE SUPPORT résumé du SVM (sans noyau) Modèle : y(x) =w T (x)+b Entraînement : résoudre programme quadratique arg min 1 2 w 2 + C N ξ n t.q. t n y(x n ) 1 n ξ n 0. margin pour n = 1,..., N. Hyper-paramètre : C 40 Prédiction : si y(x) 0, sinon C 1 C 2
60 MACHINE À VECTEURS DE SUPPORT résumé du SVM (avec noyau) Modèle : y(x) =w T (x)+b Entraînement : résoudre programme quadratique (voir équation 7.36 pour obtenir b) arg L(a) min= a N a n 1 2 Hyper-paramètre : C N N a n a m t n t m k(x n, x m ) m=1 t.q. a0 a n C pour n = 1,..., N. N a n t n = 0 plusieurs des a n seront 0! 41 Prédiction : si y(x) 0, sinon C 1 C 2
61 ( ) CAPACITÉ lien entre capacité et C / noyau ( ) Plus C est petit, plus la capacité diminue Noyau polynomial k(x, x ( ) = x T x ) M + c bining kernels we see that plus M est grand, plus le modèle a de la capacité Noyau gaussien k(x, x ( ) = exp x x 2 /2σ 2) 2 plus est petit, plus le modèle a de la capacité 42
62 EXTENSIONS extensions des SVMs Peut étendre à l estimation d une probabilité voir fin de section (Platt scaling) p(t = 1 x) = σ (Ay(x) + B) Peut étendre à la régression voir section y(x) ξ > 0 y + ϵ y y ϵ ξ > 0 x 43
Apprentissage automatique Méthodes à noyaux - motivation
Apprentissage automatique Méthodes à noyaux - motivation MODÉLISATION NON-LINÉAIRE prédicteur non-linéaire On a vu plusieurs algorithmes qui produisent des modèles linéaires (régression ou classification)
More informationApprentissage automatique Classification linéaire - fonction discriminante
Apprentissage automatique Classification linéaire - fonction discriminante TYPES D APPRENTISSAGE apprentissage supervisé, classification, régression L apprentissage supervisé est lorsqu on a une cible
More informationOutils de Recherche Opérationnelle en Génie MTH Astuce de modélisation en Programmation Linéaire
Outils de Recherche Opérationnelle en Génie MTH 8414 Astuce de modélisation en Programmation Linéaire Résumé Les problèmes ne se présentent pas toujours sous une forme qui soit naturellement linéaire.
More informationIntroduction to Machine Learning
Introduction to Machine Learning 1 Balázs Kégl Département d informatique et recherche opérationnelle Université de Montréal September 10-17, 2004 Outline 2 Introduction, motivating examples The supervised
More informationCheng Soon Ong & Christian Walder. Canberra February June 2018
Cheng Soon Ong & Christian Walder Research Group and College of Engineering and Computer Science Canberra February June 2018 Outlines Overview Introduction Linear Algebra Probability Linear Regression
More informationExercise sheet n Compute the eigenvalues and the eigenvectors of the following matrices. C =
L2 - UE MAT334 Exercise sheet n 7 Eigenvalues and eigenvectors 1. Compute the eigenvalues and the eigenvectors of the following matrices. 1 1 1 2 3 4 4 1 4 B = 1 1 1 1 1 1 1 1 1 C = Which of the previous
More informationSupport Vector Machine (continued)
Support Vector Machine continued) Overlapping class distribution: In practice the class-conditional distributions may overlap, so that the training data points are no longer linearly separable. We need
More informationPattern Recognition 2018 Support Vector Machines
Pattern Recognition 2018 Support Vector Machines Ad Feelders Universiteit Utrecht Ad Feelders ( Universiteit Utrecht ) Pattern Recognition 1 / 48 Support Vector Machines Ad Feelders ( Universiteit Utrecht
More informationChapitre 2 : Sélection de variables et pénalisations. Agathe Guilloux Professeure au LaMME - Université d Évry - Paris Saclay
Chapitre 2 : Sélection de variables et pénalisations Agathe Guilloux Professeure au LaMME - Université d Évry - Paris Saclay Avant de commencer Les documents du cours sont disponibles ici : http://www.math-evry.
More informationICS-E4030 Kernel Methods in Machine Learning
ICS-E4030 Kernel Methods in Machine Learning Lecture 3: Convex optimization and duality Juho Rousu 28. September, 2016 Juho Rousu 28. September, 2016 1 / 38 Convex optimization Convex optimisation This
More informationKato s inequality when u is a measure. L inégalité de Kato lorsque u est une mesure
Kato s inequality when u is a measure L inégalité de Kato lorsque u est une mesure Haïm Brezis a,b, Augusto C. Ponce a,b, a Laboratoire Jacques-Louis Lions, Université Pierre et Marie Curie, BC 187, 4
More informationRandom variables. Florence Perronnin. Univ. Grenoble Alpes, LIG, Inria. September 28, 2018
Random variables Florence Perronnin Univ. Grenoble Alpes, LIG, Inria September 28, 2018 Florence Perronnin (UGA) Random variables September 28, 2018 1 / 42 Variables aléatoires Outline 1 Variables aléatoires
More informationSupport Vector Machine (SVM) & Kernel CE-717: Machine Learning Sharif University of Technology. M. Soleymani Fall 2012
Support Vector Machine (SVM) & Kernel CE-717: Machine Learning Sharif University of Technology M. Soleymani Fall 2012 Linear classifier Which classifier? x 2 x 1 2 Linear classifier Margin concept x 2
More informationOptimisation par réduction d incertitudes : application à la recherche d idéotypes
: application à la recherche d idéotypes Victor Picheny 1, D. Da Silva et E. Costes 2 Rencontres du réseau Mexico, Toulouse 23 mai 2014 1. INRA MIAT 2. INRA GAP Plan de l exposé 1 Introduction : recherche
More informationSupport Vector Machine
Support Vector Machine Kernel: Kernel is defined as a function returning the inner product between the images of the two arguments k(x 1, x 2 ) = ϕ(x 1 ), ϕ(x 2 ) k(x 1, x 2 ) = k(x 2, x 1 ) modularity-
More informationKernel Methods and Support Vector Machines
Kernel Methods and Support Vector Machines Oliver Schulte - CMPT 726 Bishop PRML Ch. 6 Support Vector Machines Defining Characteristics Like logistic regression, good for continuous input features, discrete
More informationarxiv:cs/ v1 [cs.dm] 21 Apr 2005
arxiv:cs/0504090v1 [cs.dm] 21 Apr 2005 Abstract Discrete Morse Theory for free chain complexes Théorie de Morse pour des complexes de chaines libres Dmitry N. Kozlov Eidgenössische Technische Hochschule,
More informationLinear classifiers selecting hyperplane maximizing separation margin between classes (large margin classifiers)
Support vector machines In a nutshell Linear classifiers selecting hyperplane maximizing separation margin between classes (large margin classifiers) Solution only depends on a small subset of training
More informationAn explicit formula for ndinv, a new statistic for two-shuffle parking functions
FPSAC 2012, Nagoya, Japan DMTCS proc AR, 2012, 147 156 An explicit formula for ndinv, a new statistic for two-shuffle parking functions Angela Hicks and Yeonkyung Kim Mathematics Department, University
More informationSupport Vector Machine (SVM) and Kernel Methods
Support Vector Machine (SVM) and Kernel Methods CE-717: Machine Learning Sharif University of Technology Fall 2014 Soleymani Outline Margin concept Hard-Margin SVM Soft-Margin SVM Dual Problems of Hard-Margin
More informationDETERMINING HIGH VOLTAGE CABLE CONDUCTOR TEMPERATURES. Guy Van der Veken. Euromold, Belgium. INVESTIGATIONS. INTRODUCTION.
DETERMINING HIGH VOLTAGE CABLE CONDUCTOR TEMPERATURES. Guy Van der Veken. Euromold, Belgium. INTRODUCTION. INVESTIGATIONS. Type tests on MV cable accessories are described in CENELEC HD68 and HD69 documents.
More informationMax Margin-Classifier
Max Margin-Classifier Oliver Schulte - CMPT 726 Bishop PRML Ch. 7 Outline Maximum Margin Criterion Math Maximizing the Margin Non-Separable Data Kernels and Non-linear Mappings Where does the maximization
More informationIt s a Small World After All Calculus without s and s
It s a Small World After All Calculus without s and s Dan Sloughter Department of Mathematics Furman University November 18, 2004 Smallworld p1/39 L Hôpital s axiom Guillaume François Antoine Marquis de
More informationA set of formulas for primes
A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always
More informationLinear classifiers selecting hyperplane maximizing separation margin between classes (large margin classifiers)
Support vector machines In a nutshell Linear classifiers selecting hyperplane maximizing separation margin between classes (large margin classifiers) Solution only depends on a small subset of training
More informationSoft-Margin Support Vector Machine
Soft-Margin Support Vector Machine Chih-Hao Chang Institute of Statistics, National University of Kaohsiung @ISS Academia Sinica Aug., 8 Chang (8) Soft-margin SVM Aug., 8 / 35 Review for Hard-Margin SVM
More informationSupport Vector Machine (SVM) and Kernel Methods
Support Vector Machine (SVM) and Kernel Methods CE-717: Machine Learning Sharif University of Technology Fall 2016 Soleymani Outline Margin concept Hard-Margin SVM Soft-Margin SVM Dual Problems of Hard-Margin
More informationLinear vs Non-linear classifier. CS789: Machine Learning and Neural Network. Introduction
Linear vs Non-linear classifier CS789: Machine Learning and Neural Network Support Vector Machine Jakramate Bootkrajang Department of Computer Science Chiang Mai University Linear classifier is in the
More informationSupport Vector Machine (SVM) and Kernel Methods
Support Vector Machine (SVM) and Kernel Methods CE-717: Machine Learning Sharif University of Technology Fall 2015 Soleymani Outline Margin concept Hard-Margin SVM Soft-Margin SVM Dual Problems of Hard-Margin
More informationLinear & nonlinear classifiers
Linear & nonlinear classifiers Machine Learning Hamid Beigy Sharif University of Technology Fall 1394 Hamid Beigy (Sharif University of Technology) Linear & nonlinear classifiers Fall 1394 1 / 34 Table
More informationA set of formulas for primes
A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always
More informationContent. Content. Introduction. T. Chateau. Computer Vision. Introduction. Outil projectif permettant l acquisition d une scène 3D sur un plan 2D
Content Modèle de caméra T Chateau Lamea/Gravir/ComSee, Blaie Pacal Univerit Computer Viion 2 Content La projection perpective Changement de repère objet/caméra Changement de repère caméra/image Changement
More informationMini cours sur les mesures de Gibbs I
25 octobre 2013 Documents de références (1972) M. Keane, Strongly mixing g-measures, Invent. Math. (1974) R. Bowen, Equilibrium states and the ergodic theory of Anosov diffeomorphisms, Lecture Notes in
More informationREVUE FRANÇAISE D INFORMATIQUE ET DE
REVUE FRANÇAISE D INFORMATIQUE ET DE RECHERCHE OPÉRATIONNELLE, SÉRIE ROUGE SURESH CHANDRA Decomposition principle for linear fractional functional programs Revue française d informatique et de recherche
More informationMachine Learning. Support Vector Machines. Manfred Huber
Machine Learning Support Vector Machines Manfred Huber 2015 1 Support Vector Machines Both logistic regression and linear discriminant analysis learn a linear discriminant function to separate the data
More informationCS-E4830 Kernel Methods in Machine Learning
CS-E4830 Kernel Methods in Machine Learning Lecture 3: Convex optimization and duality Juho Rousu 27. September, 2017 Juho Rousu 27. September, 2017 1 / 45 Convex optimization Convex optimisation This
More informationLearning with kernels and SVM
Learning with kernels and SVM Šámalova chata, 23. května, 2006 Petra Kudová Outline Introduction Binary classification Learning with Kernels Support Vector Machines Demo Conclusion Learning from data find
More informationCS798: Selected topics in Machine Learning
CS798: Selected topics in Machine Learning Support Vector Machine Jakramate Bootkrajang Department of Computer Science Chiang Mai University Jakramate Bootkrajang CS798: Selected topics in Machine Learning
More informationBest linear unbiased prediction when error vector is correlated with other random vectors in the model
Best linear unbiased prediction when error vector is correlated with other random vectors in the model L.R. Schaeffer, C.R. Henderson To cite this version: L.R. Schaeffer, C.R. Henderson. Best linear unbiased
More informationMECHANICAL FAULT RECOGNITION RESEARCH BASED ON LMD-LSSVM
MECHANICAL FAULT RECOGNITION RESEARCH BASED ON LMD-LSSVM Zengshou Dong 1, Zhaojing Ren 1 and You Dong 3 1 School of Electronic Information Engineering, Taiyuan University of Science and Technology, Taiyuan,
More informationLa question posée (en français, avec des mots justes ; pour un calcul, l'objectif doit être clairement écrit formellement)
Exercise : You have to make one ton of mayonnaise sauce using 95 % oil, 2.5 % egg yolk, 2.5 % vinegar. What is the minimum energy that you have to spend? Calculation for mayonnaise Hervé 4th October 2013
More informationSupport Vector Machines for Regression
COMP-566 Rohan Shah (1) Support Vector Machines for Regression Provided with n training data points {(x 1, y 1 ), (x 2, y 2 ),, (x n, y n )} R s R we seek a function f for a fixed ɛ > 0 such that: f(x
More informationLinear classifiers selecting hyperplane maximizing separation margin between classes (large margin classifiers)
Support vector machines In a nutshell Linear classifiers selecting hyperplane maximizing separation margin between classes (large margin classifiers) Solution only depends on a small subset of training
More information(Kernels +) Support Vector Machines
(Kernels +) Support Vector Machines Machine Learning Torsten Möller Reading Chapter 5 of Machine Learning An Algorithmic Perspective by Marsland Chapter 6+7 of Pattern Recognition and Machine Learning
More informationSupport Vector Machine
Andrea Passerini passerini@disi.unitn.it Machine Learning Support vector machines In a nutshell Linear classifiers selecting hyperplane maximizing separation margin between classes (large margin classifiers)
More informationANNALES. FLORENT BALACHEFF, ERAN MAKOVER, HUGO PARLIER Systole growth for finite area hyperbolic surfaces
ANNALES DE LA FACULTÉ DES SCIENCES Mathématiques FLORENT BALACHEFF, ERAN MAKOVER, HUGO PARLIER Systole growth for finite area hyperbolic surfaces Tome XXIII, n o 1 (2014), p. 175-180.
More informationA Stochastic Approach For The Range Evaluation
A Stochastic Approach For The Range Evaluation Andrei Banciu To cite this version: Andrei Banciu. A Stochastic Approach For The Range Evaluation. Signal and Image processing. Université Rennes 1, 2012.
More informationTHÈSE. présentée et soutenue publiquement le 04/10/2013 pour l obtention du. Doctorat de l Université de Lorraine. spécialité automatique par
Ecole doctorale IAEM Lorraine Département de formation doctorale en automatique UFR ESSTIN Identification de Systèmes Dynamiques Hybrides : géométrie, parcimonie, et non-linéarités Hybrid Dynamical System
More informationMesurer des déplacements ET des contraintes par correlation mécanique d images
Mesurer des déplacements ET des contraintes par correlation mécanique d images J. RÉTHORÉ a, A. LEYGUE a, M. CORET a, L. STAINIER a, E. VERRON a a. Institut de Recherche en Génie Civil et Mécanique (GeM)
More informationINFORMATIQUE THÉORIQUE ET APPLICATIONS
INFORMATIQUE THÉORIQUE ET APPLICATIONS FOTO AFRATI STAVROS COSMADAKIS CHRISTOS H. PAPADIMITRIOU GEORGE PAPAGEORGIOU NADIA PAPAKOSTANTINOU The complexity of the travelling repairman problem Informatique
More informationPoisson s ratio effect of slope stability calculations
Poisson s ratio effect of slope stability calculations Murray Fredlund, & Robert Thode SoilVision Systems Ltd., Saskatoon, SK, Canada ABSTRACT This paper presents the results of a study on the effect of
More informationEE613 Machine Learning for Engineers. Kernel methods Support Vector Machines. jean-marc odobez 2015
EE613 Machine Learning for Engineers Kernel methods Support Vector Machines jean-marc odobez 2015 overview Kernel methods introductions and main elements defining kernels Kernelization of k-nn, K-Means,
More informationJOURNAL DE THÉORIE DES NOMBRES DE BORDEAUX
JOURNAL DE THÉORIE DES NOMBRES DE BORDEAUX MASANOBU KANEKO Poly-Bernoulli numbers Journal de Théorie des Nombres de Bordeaux, tome 9, n o 1 (1997), p. 221-228
More informationIntroduction 1. Partie II : Cosmologie
Introduction 1 Partie II : Cosmologie Introduction 2 Only 5% of universe is ordinary matter! For the first time in human history we believe we have an inventory of the constituents of the universe. Rapid
More informationMGDA II: A direct method for calculating a descent direction common to several criteria
MGDA II: A direct method for calculating a descent direction common to several criteria Jean-Antoine Désidéri To cite this version: Jean-Antoine Désidéri. MGDA II: A direct method for calculating a descent
More informationSupport Vector Machines and Kernel Methods
2018 CS420 Machine Learning, Lecture 3 Hangout from Prof. Andrew Ng. http://cs229.stanford.edu/notes/cs229-notes3.pdf Support Vector Machines and Kernel Methods Weinan Zhang Shanghai Jiao Tong University
More informationA Singularity-Free Method for the Time-Dependent Schrödinger Equation for Nonlinear Molecules
A Singularity-Free Method for the Time-Dependent Schrödinger Equation for Nonlinear Molecules A.D.Bandrauk a,, Hui-Zhong Lu a a Labo. de Chimie Théorique, Faculté des Sciences, Université de Sherbrooke,
More informationCommande prédictive robuste par des techniques d observateurs à base d ensembles zonotopiques
N d ordre : 2012-16-TH THÈSE DE DOCTORAT DOMAINE : STIC Spécialité : Automatique Ecole Doctorale «Sciences et Technologies de l Information des Télécommunications et des Systèmes» Présentée par : Vu Tuan
More informationANNALES DE LA FACULTÉ DES SCIENCES DE TOULOUSE
ANNALES DE LA FACULTÉ DES SCIENCES DE TOULOUSE ALEX BIJLSMA A note on elliptic functions approximation by algebraic numbers of bounded degree Annales de la faculté des sciences de Toulouse 5 e série, tome
More informationTHE RESOLUTION OF SAFFARI S PHASE PROBLEM. Soit K n := { p n : p n (z) = n
Comptes Rendus Acad. Sci. Paris Analyse Fonctionnelle Titre français: Solution du problème de la phase de Saffari. THE RESOLUTION OF SAFFARI S PHASE PROBLEM Tamás Erdélyi Abstract. We prove a conjecture
More informationConstrained Optimization and Support Vector Machines
Constrained Optimization and Support Vector Machines Man-Wai MAK Dept. of Electronic and Information Engineering, The Hong Kong Polytechnic University enmwmak@polyu.edu.hk http://www.eie.polyu.edu.hk/
More informationSupport vector machines
Support vector machines Guillaume Obozinski Ecole des Ponts - ParisTech SOCN course 2014 SVM, kernel methods and multiclass 1/23 Outline 1 Constrained optimization, Lagrangian duality and KKT 2 Support
More informationModélisation & simulation de la génération de champs magnetiques par des écoulements de métaux liquides. Wietze Herreman
Modélisation & simulation de la génération de champs magnetiques par des écoulements de métaux liquides Wietze Herreman 19ième Colloque Alain Bouyssy!!"#$%&'()*+(,#-*.#*+( )/01+"2(!!!!!!! Origine des champs
More informationRegression on Parametric Manifolds: Estimation of Spatial Fields, Functional Outputs, and Parameters from Noisy Data
Regression on Parametric Manifolds: Estimation of Spatial Fields, Functional Outputs, and Parameters from Noisy Data Anthony T. Patera a, Einar M. Rønquist b a Department of Mechanical Engineering, Massachusetts
More informationA DIFFERENT APPROACH TO MULTIPLE CORRESPONDENCE ANALYSIS (MCA) THAN THAT OF SPECIFIC MCA. Odysseas E. MOSCHIDIS 1
Math. Sci. hum / Mathematics and Social Sciences 47 e année, n 86, 009), p. 77-88) A DIFFERENT APPROACH TO MULTIPLE CORRESPONDENCE ANALYSIS MCA) THAN THAT OF SPECIFIC MCA Odysseas E. MOSCHIDIS RÉSUMÉ Un
More informationLinear & nonlinear classifiers
Linear & nonlinear classifiers Machine Learning Hamid Beigy Sharif University of Technology Fall 1396 Hamid Beigy (Sharif University of Technology) Linear & nonlinear classifiers Fall 1396 1 / 44 Table
More informationChapter 9. Support Vector Machine. Yongdai Kim Seoul National University
Chapter 9. Support Vector Machine Yongdai Kim Seoul National University 1. Introduction Support Vector Machine (SVM) is a classification method developed by Vapnik (1996). It is thought that SVM improved
More informationSupport Vector Machines. Introduction to Data Mining, 2 nd Edition by Tan, Steinbach, Karpatne, Kumar
Data Mining Support Vector Machines Introduction to Data Mining, 2 nd Edition by Tan, Steinbach, Karpatne, Kumar 02/03/2018 Introduction to Data Mining 1 Support Vector Machines Find a linear hyperplane
More informationConvex Optimization and Support Vector Machine
Convex Optimization and Support Vector Machine Problem 0. Consider a two-class classification problem. The training data is L n = {(x 1, t 1 ),..., (x n, t n )}, where each t i { 1, 1} and x i R p. We
More informationStatistical Machine Learning from Data
Samy Bengio Statistical Machine Learning from Data 1 Statistical Machine Learning from Data Support Vector Machines Samy Bengio IDIAP Research Institute, Martigny, Switzerland, and Ecole Polytechnique
More informationIntroduction to Support Vector Machines
Introduction to Support Vector Machines Shivani Agarwal Support Vector Machines (SVMs) Algorithm for learning linear classifiers Motivated by idea of maximizing margin Efficient extension to non-linear
More informationΦ B. , into the page. 2π ln(b/a).
Chapitre 29 Induction électromagnétique [13 au 15 juin] DEVOIR : 29.8; 29.20; 29.22; 29.30; 29.36 29.1. Expériences d'induction Il n est pas nécessaire de lire cette section. Ce qu il faut retenir de la
More informationarxiv: v1 [math.ca] 16 Jul 2018
arxiv:1807.0566v1 [math.ca] 16 Jul 2018 1 2 4 Contents Introduction (Français) 7 Introduction (English) 1 1 Minimal sets 19 1.1 Area minimisers......................... 19 1.2 Minimal cones..........................
More informationData Mining. Linear & nonlinear classifiers. Hamid Beigy. Sharif University of Technology. Fall 1396
Data Mining Linear & nonlinear classifiers Hamid Beigy Sharif University of Technology Fall 1396 Hamid Beigy (Sharif University of Technology) Data Mining Fall 1396 1 / 31 Table of contents 1 Introduction
More informationA set of formulas for primes
A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always
More informationSupport Vector Machines for Classification and Regression. 1 Linearly Separable Data: Hard Margin SVMs
E0 270 Machine Learning Lecture 5 (Jan 22, 203) Support Vector Machines for Classification and Regression Lecturer: Shivani Agarwal Disclaimer: These notes are a brief summary of the topics covered in
More informationarxiv: v2 [math.dg] 13 Feb 2018
HOLOMORPHIC CARTAN GEOMETRIES ON COMPLEX TORI INDRANIL BISWAS AND SORIN DUMITRESCU arxiv:1710.05874v2 [math.dg] 13 Feb 2018 Abstract. In [DM] it was asked whether all flat holomorphic Cartan geometries(g,
More informationSéminaire Équations aux dérivées partielles École Polytechnique
Séminaire Équations aux dérivées partielles École Polytechnique S. KWAPIEN Enflo s example of a Banach space without the approximation property Séminaire Équations aux dérivées partielles (Polytechnique)
More informationAssimilation de Données, Observabilité et Quantification d Incertitudes appliqués à l hydraulique à surface libre
Assimilation de Données, Observabilité et Quantification d Incertitudes appliqués à l hydraulique à surface libre Pierre-Olivier Malaterre, Igor Gejadze, Hind Oubanas UMR G-EAU, Irstea, Montpellier, France
More informationOn a multivariate implementation of the Gibbs sampler
Note On a multivariate implementation of the Gibbs sampler LA García-Cortés, D Sorensen* National Institute of Animal Science, Research Center Foulum, PB 39, DK-8830 Tjele, Denmark (Received 2 August 1995;
More informationREVUE FRANÇAISE D INFORMATIQUE ET DE
REVUE FRANÇAISE D INFORMATIQUE ET DE RECHERCHE OPÉRATIONNELLE, SÉRIE ROUGE G. MITRA D. B. C. RICHARDS K. WOLFENDEN An improved algorithm for the solution of integer programs by the solution of associated
More informationReachability Analysis of Hybrid Systems with Linear Continuous Dynamics
Reachability Analysis of Hybrid Systems with Linear Continuous Dynamics Colas Le Guernic To cite this version: Colas Le Guernic. Reachability Analysis of Hybrid Systems with Linear Continuous Dynamics.
More informationOn the direct kinematics of planar parallel manipulators: special architectures and number of solutions
On the direct kinematics of planar parallel manipulators: special architectures and number of solutions by Clément M. Gosselin and Jean-Pierre Merlet Département de Génie Mécanique Université Laval Ste-Foy,
More informationA new lack-of-fit test for quantile regression models using logistic regression
A new lack-of-fit test for quantile regression models using logistic regression Mercedes Conde-Amboage 1 & Valentin Patilea 2 & César Sánchez-Sellero 1 1 Department of Statistics and O.R.,University of
More informationSVM and Kernel machine
SVM and Kernel machine Stéphane Canu stephane.canu@litislab.eu Escuela de Ciencias Informáticas 20 July 3, 20 Road map Linear SVM Linear classification The margin Linear SVM: the problem Optimization in
More informationExpression of Dirichlet boundary conditions in terms of the strain tensor in linearized elasticity
Expression of Dirichlet boundary conditions in terms of the strain tensor in linearized elasticity Philippe Ciarlet a, Cristinel Mardare b a Department of Mathematics, City University of Hong Kong, 83
More informationMachine Learning Support Vector Machines. Prof. Matteo Matteucci
Machine Learning Support Vector Machines Prof. Matteo Matteucci Discriminative vs. Generative Approaches 2 o Generative approach: we derived the classifier from some generative hypothesis about the way
More informationRAIRO MODÉLISATION MATHÉMATIQUE
RAIRO MODÉLISATION MATHÉMATIQUE ET ANALYSE NUMÉRIQUE D. D. BAINOV A. B. DISHLIEV Population dynamics control in regard to minimizing the time necessary for the regeneration of a biomass taken away from
More informationInvitation to a Family Reunion
1 Invitation to a Family Reunion Jacques: Bonjour! Ça va Marie? Hi! How are you, Marie? Marie: Bonjour, Jacques! Ça va très bien, merci. Hi, Jacques, Very well, thank you. Jacques: Qu est ce que tu fais
More informationA set of formulas for primes
A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always
More informationΓ -convergence and Sobolev norms
C. R. Acad. Sci. Paris, Ser. I 345 (2007) 679 684 http://france.elsevier.com/direct/crass1/ Partial Differential Equations Γ -convergence and Sobolev norms Hoai-Minh Nguyen Rutgers University, Department
More informationIntroduction à la mécanique quantique. Emmanuel Fromager
ECPM, Strasbourg, France Page 1 Emmanuel Fromager Institut de Chimie de Strasbourg - Laboratoire de Chimie Quantique - Université de Strasbourg /CNRS http://quantique.u-strasbg.fr/doku.php?id=fr:start
More informationarxiv: v3 [stat.me] 24 Nov 2016 École Doctorale de Science Mathématiques de Paris Centre Thèse de Doctorat Discipline: Mathématiques
arxiv:1611.07247v3 [stat.me] 24 Nov 2016 École Doctorale de Science Mathématiques de Paris Centre Thèse de Doctorat Discipline: Mathématiques Spécialité: Statistiques présentée par Diaa AL MOHAMAD Esimation
More informationLecture 10: A brief introduction to Support Vector Machine
Lecture 10: A brief introduction to Support Vector Machine Advanced Applied Multivariate Analysis STAT 2221, Fall 2013 Sungkyu Jung Department of Statistics, University of Pittsburgh Xingye Qiao Department
More informationSparse Kernel Machines - SVM
Sparse Kernel Machines - SVM Henrik I. Christensen Robotics & Intelligent Machines @ GT Georgia Institute of Technology, Atlanta, GA 30332-0280 hic@cc.gatech.edu Henrik I. Christensen (RIM@GT) Support
More informationDANGEREUSEMENT HEUREUX (FRENCH EDITION) BY VARIAN KRYLOV DOWNLOAD EBOOK : DANGEREUSEMENT HEUREUX (FRENCH EDITION) BY VARIAN KRYLOV PDF
Read Online and Download Ebook DANGEREUSEMENT HEUREUX (FRENCH EDITION) BY VARIAN KRYLOV DOWNLOAD EBOOK : DANGEREUSEMENT HEUREUX (FRENCH EDITION) BY Click link bellow and free register to download ebook:
More informationSelection on selected records
Selection on selected records B. GOFFINET I.N.R.A., Laboratoire de Biometrie, Centre de Recherches de Toulouse, chemin de Borde-Rouge, F 31320 Castanet- Tolosan Summary. The problem of selecting individuals
More informationTOLERABLE HAZARD RATE FOR FUNCTION WITH INDEPENDENT SAFETY BARRIER ACTING AS FAILURE DETECTION AND NEGATION MECHANISM
e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo -3 octobre 6 TOLERABLE HAZARD RATE FOR FUNCTION WITH INDEPENDENT SAFETY BARRIER ACTING AS FAILURE DETECTION AND NEGATION MECHANISM
More information2 nd EDITION. CANADIAN GEOSCIENCE MAP 230 SURFICIAL GEOLOGY KUGLUKTUK Nunavut NTS 86-O east half. Preliminary
2 nd EDITION CANADIAN GEOSCIENCE MAP 230 SURFICIAL GEOLOGY KUGLUKTUK Nunavut NTS 86-O east half Preliminary 2016 MAP NUMBER Natural Resources Canada, Geological Survey of Canada Canadian Geoscience Map
More informationAutour des Triangles Cassés
Actes JFPC 2015 Autour des Triangles Cassés Martin C. Cooper 1 Achref El Mouelhi 2 Cyril Terrioux 2 Bruno Zanuttini 3 1 IRIT, Université de Toulouse III, 31062 Toulouse, France 2 LSIS, Aix-Marseille Université,
More information