Apprentissage automatique Classification linéaire - fonction discriminante

Size: px
Start display at page:

Download "Apprentissage automatique Classification linéaire - fonction discriminante"

Transcription

1 Apprentissage automatique Classification linéaire - fonction discriminante

2 TYPES D APPRENTISSAGE apprentissage supervisé, classification, régression L apprentissage supervisé est lorsqu on a une cible à prédire RAPPEL classification : la cible est un indice de classe t {1,..., K} - exemple : reconnaissance de caractères x : vecteur des intensités de tous les pixels de l image t : identité du caractère régression : la cible est un nombre réel t R - exemple : prédiction de la valeur d une action à la bourse x : vecteur contenant l information sur l activité économique de la journée t : valeur d une action à la bourse le lendemain 2

3 TYPES D APPRENTISSAGE apprentissage supervisé, classification, régression L apprentissage supervisé est lorsqu on a une cible à prédire RAPPEL classification : la cible est un indice de classe t {1,..., K} - exemple : reconnaissance de caractères x : vecteur des intensités de tous les pixels de l image t : identité du caractère régression : la cible est un nombre réel t R - exemple : prédiction de la valeur d une action à la bourse x : vecteur contenant l information sur l activité économique de la journée t : valeur d une action à la bourse le lendemain 2

4 CLASSIFICATION surface de décision, région de décision On chercher à diviser l espace des entrées x en différentes régions de décision R k chaque région de décision est associée à une classe les frontières entre les régions sont des surfaces de décision C k R j R i R k x B 3 x A ˆx

5 CLASSIFICATION classification binaire, séparabilité linéaire Cas spécial : classification binaire C 1 classe correspond à t = 1 R 1 classe C 2 correspond à t = 0 (ou t = -1) R 2 Cas spécial : classification linéaire la surface de décision entre chaque paire de régions de décision est linéaire, i.e. un hyperplan (droite pour D=2) on dit qu un problème est linéairement séparable si une surface linéaire permet de classifier parfaitement 4

6 FONCTION DISCRIMINANTE fonction discriminante, vecteur de poids, biais On souhaite apprendre une fonction discriminante qui prend x en entrée et donne sa classe en sortie Dans le cas binaire, on va s intéresser aux fonctions discriminantes qui : 1. calculent une transformation linéaire de l entrée C k y(x) = w T x + w 0 vecteur de poids biais 5 2. retourne si y(x) 0 ou retourne sinon C 1 C 2

7 FONCTION DISCRIMINANTE fonction discriminante, vecteur de poids, biais y > 0 y = 0 y < 0 x 2 R 2 R 1 y(x) = w T x + w 0 w x y(x) w = r x 6 x = x + r w w w w 0 w x 1

8 SÉPARABILITÉ LINÉAIRE séparabilité linéaire Est-ce que l hypothèse de séparabilité linéaire est raisonnable? en haute dimensionnalité (grande valeur de D), possiblement! Théorème : soit D+1 entrées x n, on peut toujours les séparer linéairement en 2 classes, quelque soit la valeur de leurs cibles t n Condition : chaque sous-ensemble de D entrées est linéairement indépendant On peut également utiliser une représentation elle est non-linéaire φ(x) qui 7

9 FONCTION DISCRIMINANTE entraînement Idéalement, on voudrait entraîner y(x) en minimisant directement le taux d erreur de classification sur l ensemble d entraînement malheureusement, on peut démontrer que c est un problème NP-difficile On va donc devoir attaquer le problème indirectement ceci va donner lieu à différents algorithmes d apprentissage 8

10 Apprentissage automatique Classification linéaire - méthode des moindres carrés

11 MÉTHODE DES MOINDRES CARRÉS méthode des moindres carrés On va traiter la classification comme un problème de régression on pourrait prédire directement la valeur de la cible (t = 1 vs. t = -1) C 1 C 2 si y(x) 0 on classifie dans sinon On parle de moindres carrés puisque la régression minimise la différence au carré entre t et y(x) 10

12 RÉGULARISATION régularisation, weight decay, régression de Ridge On peut montrer que la solution (maximum a posteriori) est alors : RAPPEL w = ( λi + Φ T Φ ) 1 Φ T t. dans le cas λ = 0, on retrouve la solution tu maximum de vraisemblance si λ > 0, permet également d avoir une solution plus stable numériquement (si n est pas inversible) Φ T Φ 11

13 MÉTHODE DES MOINDRES CARRÉS méthode des moindres carrés Pour la cas à plus de deux classes, on va traiter la classification comme un problème de régression à prédiction multiple la cible va être un vecteur binaire indiquant à quelle classe appartient l entrée exemple : s il y a K=5 classes et qu une entrée est de la classe C 2 t = (0, 1, 0, 0, 0) T on classifie dans la classe C k dont la valeur de y(x) k est la plus élevée 12

14 MÉTHODE DES MOINDRES CARRÉS méthode des moindres carrés Pour la cas à plus de deux classes, on va traiter la classification comme un problème de régression à prédiction multiple la cible va être un vecteur binaire indiquant à quelle classe appartient l entrée exemple : s il y a K=5 classes et qu une entrée est de la classe C 2 t = (0, 1, 0, 0, 0) T on classifie dans la classe C k dont la valeur de y(x) k est la plus élevée 12

15 PRÉDICTIONS MULTIPLES modèle pour prédictions multiples Le modèle doit maintenant prédire un vecteur : RAPPEL y(x, w) = W T φ(x) où W est une matrice M K Chaque colonne de W peut être vu comme le vecteur w k du modèle y(x,w k ) pour la k e cible 13

16 PRÉDICTIONS MULTIPLES modèle pour prédictions multiples Le modèle doit maintenant prédire un vecteur : RAPPEL y(x, w) = W T φ(x) où W est une matrice M K Chaque colonne de W peut être vu comme le vecteur w k du modèle y(x,w k ) pour la k e cible classe 13

17 MAXIMUM DE VRAISEMBLANCE formulation probabiliste pour prédictions multiples On peut démontrer que le maximum de vraisemblance est : ( ) RAPPEL W ML = ( Φ T Φ ) 1 Φ T T On peut voir le résultat comme la concaténation (colonne par colonne) des solutions pour chaque tâche ( ) w k = ( Φ T Φ ) 1 Φ T t k 14 où t k = (t 1,k,..., t N,k ) T iva

18 Apprentissage automatique Classification linéaire - analyse discriminante linéaire

19 ANALYSE DISCRIMINANTE LINÉAIRE analyse discriminante linéaire En classification binaire, on cherche en fait une projection y = w T x. telle que le seuil projetées possible y w 0 lassifier di sépare bien le plus d entrées 16

20 ANALYSE DISCRIMINANTE LINÉAIRE analyse discriminante linéaire L analyse discriminante linéaire cherche plutôt à bien séparer la projection de moyennes, i.e. on maximise : w T (m 2 m 1 ) où m k = w T m k et C m 1 = 1 N 1 n C 1 x n, m 2 = 1 N 2 n C 2 x n. 17

21 ANALYSE DISCRIMINANTE LINÉAIRE variance intra-classe Jusqu à maintenant, le problème est mal posé il suffit d augmenter w infiniment pour maximiser on pourrait imposer que w soit de norme 1, mais ceci n est pas entièrement satisfaisant En plus, on C va tenter de réduire les variances intraclasse des entrées projetées s 2 k = n C k (y n m k ) 2 18

22 ANALYSE DISCRIMINANTE LINÉAIRE variance intra-classe, inter-classe On combine ces idées en maximisant plutôt J(w) = (m 2 m 1 ) 2 s s2 2 On peut montrer que la solution est telle que w / S 1 W (m 1 m 2 ) où la matrice de covariance intra-classe est S W = n C 1 (x n m 1 )(x n m 1 ) T + n C 2 (x n m 2 )(x n m 2 ) T 19

23 ANALYSE DISCRIMINANTE LINÉAIRE variance intra-classe, inter-classe On combine ces idées en maximisant plutôt J(w) = (m 2 m 1 ) 2 s s2 2 On peut montrer que la solution est telle que w / S 1 W (m 1 m 2 ) où la matrice de covariance intra-classe est équivalent à une variance inter-classe S W = n C 1 (x n m 1 )(x n m 1 ) T + n C 2 (x n m 2 )(x n m 2 ) T 19

24 ANALYSE DISCRIMINANTE LINÉAIRE analyse discriminante linéaire Sans minimisation intra-classe w / (m 1 m 2 ) Avec minimisation intra-classe w / S 1 W (m 1 m 2 ) 20

25 ANALYSE DISCRIMINANTE LINÉAIRE analyse discriminante linéaire Une fois w calculé, il suffit de trouver un seuil de classification un chois possible est (w T m 1 + w T m 2 )/2 On peut voir l analyse discriminante linéaire comme un cas particulier des moindres carrés voir section Il est possible de généraliser au cas à plus de 2 classes voir section

26 Apprentissage automatique Classification linéaire - approche probabiliste générative

27 APPROCHE PROBABILISTE approche probabiliste Prenons plutôt une approche probabiliste on suppose que nos données ont été générées d un modèle probabiliste donné on cherche les paramètres de ce modèle qui maximisent la vraisemblance des données d entraînement Deux options : approche générative : on choisit un modèle pour p(x,t) approche discriminante : on choisit un modèle pour p(t x) 23

28 APPROCHE PROBABILISTE approche probabiliste Prenons plutôt une approche probabiliste on suppose que nos données ont été générées d un modèle probabiliste donné on cherche les paramètres de ce modèle qui maximisent la vraisemblance des données d entraînement Deux options : approche générative : on choisit un modèle pour p(x,t) approche discriminante : on choisit un modèle pour p(t x) 23

29 APPROCHE PROBABILISTE GÉNÉRATIVE approche probabiliste générative On va supposer que les données ont été générées selon le processus suivant (cas binaire) : pour n = 1... N 1 denotes c and t n = 0 deno - assigne t n =1 avec probabilité p(c 1 ) = π, et t n =0 avec probabilité p(c 2 ) = 1 π. 1 and hence - si t n =1, génère x n de la loi de probabilité )p(x n C 1 ) = N (x n µ 1, Σ). - sinon (t n =0), génère x n de la loi de probabilité p(x n C 2 ) = )N (x n µ 2, Σ) En mots : les entrées sont des échantillons d une loi gaussienne, mais de moyennes différentes pour les différentes classes 24

30 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Pour entraîner le classifieur, on cherche les paramètres maximise la (log-)vraisemblance (, µ 1, µ 2, ) 25

31 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas : on prend le logarithme et garde les termes avec N {t n ln π + (1 t n ) ln(1 π)} n=1 26

32 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas : puis cherche le maximum en annulant la dérivée N 27 π = 1 N n=1 t n = N 1 N = N 1 N 1 + N 2 nb. de la classe nb. de la classe C 1 C 2

33 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas N µ 1 : on prend le logarithme et garde les termes avec µ 1 N t n ln N (x n µ 1, Σ) = 1 2 t n (x n µ 1 ) T Σ 1 (x n µ 1 ) + const. n=1 n=1 28

34 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas µ 1 : puis cherche le maximum en annulant la dérivée µ 1 = 1 N 1 N t n x n n=1 29

35 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas µ 2 : de façon similaire, on obtient pour µ 2 µ 2 = 1 N (1 t n )x n N 2 n=1 30

36 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance Cas : plus compliqué à démontrer, mais on obtient = N 1 N S 1 + N 2 N S 2 1 S 1 = 1 N 1 n C 1 (x n µ 1 )(x n µ 1 ) T covariance empirique de classe C 1 covariance empirique de classe C2 S 2 = 1 N 2 n C 2 (x n µ 2 )(x n µ 2 ) T 31

37 APPROCHE PROBABILISTE GÉNÉRATIVE règle de Bayes Une fois, µ 1, µ 2, calculés, on peut classifier de nouvelles entrées à l aide de la règle de Bayes p(c 1 x) = p(x C 1 )p(c 1 ) p(x C 1 )p(c 1 ) + p(x C 2 )p(c 2 ) Si p(c 1 x) 0.5, on classifie dans la classe C 1, sinon on classifie dans la classe C

38 APPROCHE PROBABILISTE GÉNÉRATIVE fonction sigmoïde 1 On peut aussi écrire C C C p(c 1 x) = exp( a) = σ(a) 0.5 où fonction sigmoïde a = ln p(x C 1)p(C 1 ) p(x C 2 )p(c 2 ) d function defined by σ(a) = exp( a) 33

39 { APPROCHE PROBABILISTE GÉNÉRATIVE { forme classification linéaire Dans le cas où )p(x n C 1 ) et p(x n C 2 ) sont gaussiennes p(c 1 x) = σ(w T x + w 0 ) où w = Σ 1 (µ 1 µ 2 ) w 0 = 1 2 µt 1 Σ 1 µ µt 2 Σ 1 µ 2 + ln p(c 1) p(c 2 ). 34

40 { APPROCHE PROBABILISTE GÉNÉRATIVE { forme classification linéaire Dans le cas où )p(x n C 1 ) et p(x n C 2 ) sont gaussiennes p(c 1 x) = σ(w T x + w 0 ) où w = Σ 1 (µ 1 µ 2 ) w 0 = 1 2 µt 1 Σ 1 µ µt 2 Σ 1 µ 2 + ln p(c 1) p(c 2 ). 1 34

41 APPROCHE PROBABILISTE GÉNÉRATIVE forme classification linéaire Puisque (0) = 0.5, alors la règle p(c 1 x) 0.5 est w T x + w 0 équivalente à 0 On retrouve donc la forme d un classifieur linéaire 35

42 APPROCHE PROBABILISTE GÉNÉRATIVE extensions On peut généraliser au cas à multiples classes voir fin des sections 4.2 et On peut généraliser à des lois )p(x n C 1 ) et p(x n C 2 ) autre que gaussiennes observations binaires, voir section cas général (famille exponentielle), voir section

43 Apprentissage automatique Classification linéaire - approche probabiliste discriminante

44 APPROCHE PROBABILISTE approche probabiliste Prenons plutôt une approche probabiliste on suppose que nos données ont été générées d un modèle probabiliste donné on cherche les paramètres de ce modèle qui maximisent la vraisemblance des données d entraînement Deux options : approche générative : on choisit un modèle pour p(x,t) approche discriminante : on choisit un modèle pour p(t x) 38

45 APPROCHE PROBABILISTE approche probabiliste Prenons plutôt une approche probabiliste on suppose que nos données ont été générées d un modèle probabiliste donné on cherche les paramètres de ce modèle qui maximisent la vraisemblance des données d entraînement Deux options : approche générative : on choisit un modèle pour p(x,t) approche discriminante : on choisit un modèle pour p(t x) 38

46 APPROCHE PROBABILISTE DISCRIMINANTE { approche probabiliste discriminante, régression logistique Dans le cas génératif, on a vu que la probabilité de classifier dans la classe prend la forme C 1 p(c 1 x) = σ(w T x + w 0 ) Dans le cas discriminant, l idée est d utiliser directement cette forme comme modèle de p(t x) plutôt que maximiser la probabilité jointe p(x,t), on maximise la probabilité conditionnelle p(t x) 39 on appel ce modèle la régression logistique

47 APPROCHE PROBABILISTE DISCRIMINANTE maximum de vraisemblance Cas génératif : on cherche (, µ 1, µ 2, ) qui maximise N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas discriminant : on cherche directement w qui maximise p(t w) = N n=1 y t n n {1 y n } 1 t n où y n = p(c 1 x n ) 40

48 APPROCHE PROBABILISTE DISCRIMINANTE fonctions de bases On peut facilement remplacer la représentation de l entrée à l aide de fonctions de bases (comme pour la régression) p(c 1 φ) = y(φ) = σ ( w T φ ) est équivalent à (x) ). Here ( ) is the Si les fonctions de bases sont non-linéaires, peut rendre les classes linéairement séparables 41

49 APPROCHE PROBABILISTE DISCRIMINANTE fonctions de bases fonctions de bases gaussiennes j x 2 φ 2 { (x µ j) 2 } 0 µ exp 2s 2 1 µ x 1 espace représenté par x φ 1 espace représenté par 42

50 APPROCHE PROBABILISTE DISCRIMINANTE cross-entropie Maximiser la vraisemblance est équivalent à minimiser la logvraisemblance négative E(w) = ln p(t w) = Malheureusement, minimiser cette fonction ne se fait pas analytiquement N n=1 on va devoir trouver le minimum de façon numérique {t n ln y n + (1 t n ) ln(1 y n )} { cross-entropie (binaire) 43

51 APPROCHE PROBABILISTE DISCRIMINANTE descente de gradient Descente de gradient initialise la valeur de w aléatoirement durant I itérations - déplace w dans la direction opposée du gradient, w w re(w) E(w) w 1 w 0 44

52 APPROCHE PROBABILISTE DISCRIMINANTE descente de gradient On peut montrer que le gradient est simplement N E(w) = (y n t n )φ n n=1 où y n = p(c 1 φ n ) e logarithm of th Le nombre d itérations (I) de descente de gradient est un hyper-paramètre on utilise un ensemble de validation pour déterminer quand arrêter 45

53 APPROCHE PROBABILISTE DISCRIMINANTE extensions La descente de gradient stochastique est souvent préférée en pratique, parce que plus rapide à converger on met à jour w individuellement pour chaque exemple voir section (description pour la régression) On peut aussi généraliser au cas à multiples classes voir section

54 Apprentissage automatique Classification linéaire - classification à multiples classes

55 CLASSIFICATION À MULTIPLES CLASSES classification à multiples classes Il est possible d utiliser plusieurs classifieurs binaires pour résoudre un problème de classification à plus de 2 classes Approche one-versus-rest : entraîne K-1 classifieurs, chacun distinguant les entrées d une classe vs. les entrées de toutes les autres classes Approche one-versus-one : entraîne K(K-1)/2 classifieurs, chacun distinguant les entrées d une classe vs. les entrées d une seule autre classe 48

56 CLASSIFICATION À MULTIPLES CLASSES one-versus-rest? R 1 R 2 C 1 R 3 not C 1 C 2 49 not C 2

57 CLASSIFICATION À MULTIPLES CLASSES one-versus-one C 1 C 3 R 1 C 1? R 3 C 3 R 2 C 2 C 2 50

58 CLASSIFICATION À MULTIPLES CLASSES classification à multiples classes Il est possible de résoudre les ambiguïtés en pondérant les votes des classifieurs binaires cas probabiliste : pondérer par la probabilité p(c 1 x) L idéal serait d utiliser la version de l algorithme adaptée à la classification à multiples classes directement 51

59 Apprentissage automatique Classification linéaire - résumé

60 MÉTHODE DES MOINDRES CARRÉS résumé de la méthode des moindres carrés Modèle : y(x, w) =w T x + w 0 p(t x, w, β) = N (t y(x, w), β 1 ) ( Entraînement : w = λi + Φ T ) 1 Φ Φ T t. (t = 1 vs. t = -1) (maximum de vraisemblance si λ=0 ou maximum a posteriori si λ>0) Hyper-paramètre : λ Prédiction : si y(x,w) 0, sinon C 1 C 2 53

61 ANALYSE DISCRIMINANTE LINÉAIRE résumé de l analyse discriminante Modèle : Entraînement : w S 1 W (m 1 m 2 ) w y(x, w) =w T x + w 0 w w 2 w 0 = (w T m 1 + w T m 2 )/2 m 1 = 1 N 1 C n C 1 x n, m 2 = 1 N 2 n C 2 x n. S W = n C 1 (x n m 1 )(x n m 1 ) T + n C 2 (x n m 2 )(x n m 2 ) T Prédiction : si y(x,w) 0, sinon C 1 C 2 54

62 APPROCHE PROBABILISTE GÉNÉRATIVE { résumé de l approche probabiliste générative Modèle : y(x, w) =w T x + w 0 p(xc n, C 1 ) = πn (x n µ 1, Σ). µ 1 = 1 N 1 N n=1 t n x n µ 2 = 1 N (1 t n )x n N 2 n=1 p(x C n, C 2 ) = (1 π)n (x n µ 2, Σ) Entraînement : (t = 1 vs. t = 0) w = Σ 1 (µ 1 µ 2 ) = N 1 N S 1 + N 2 N S 2 1 p(c 1 )= N 1 N =1 p(c 2) w 0 = 1 2 µt 1 Σ 1 µ µt 2 Σ 1 µ 2 + ln p(c 1) p(c 2 ). 55 Prédiction : si y(x,w) 0, sinon C 1 C 2

63 APPROCHE { PROBABILISTE DISCRIMINANTE résumé de l approche probabiliste discriminante (régression logistique) Modèle : y(x, w) =w T x + w 0 p(c 1 x) = σ(w T x + w 0 ) Entraînement : descente de gradient (t = 1 vs. t = 0) initialise la valeur de w aléatoirement durant I itérations - X w w (y n t n ) n n 56 Prédiction : si y(x,w) 0, sinon C 1 C 2

64 MOINDRES CARRÉS VS. RÉGRESSION LOGISTIQUE moindres carrés vs. régression logistique Les résultats pourront être différents entre les algorithmes 4 4 moindres carrés 2 2 rég. logistique

Apprentissage automatique Machine à vecteurs de support - motivation

Apprentissage automatique Machine à vecteurs de support - motivation Apprentissage automatique Machine à vecteurs de support - motivation RÉGRESSION À NOYAU régression à noyau Algorithme de régression à noyau entraînement : prédiction : a = (K + λi N ) 1 t. y(x) =k(x) T

More information

Apprentissage automatique Méthodes à noyaux - motivation

Apprentissage automatique Méthodes à noyaux - motivation Apprentissage automatique Méthodes à noyaux - motivation MODÉLISATION NON-LINÉAIRE prédicteur non-linéaire On a vu plusieurs algorithmes qui produisent des modèles linéaires (régression ou classification)

More information

Outils de Recherche Opérationnelle en Génie MTH Astuce de modélisation en Programmation Linéaire

Outils de Recherche Opérationnelle en Génie MTH Astuce de modélisation en Programmation Linéaire Outils de Recherche Opérationnelle en Génie MTH 8414 Astuce de modélisation en Programmation Linéaire Résumé Les problèmes ne se présentent pas toujours sous une forme qui soit naturellement linéaire.

More information

Random variables. Florence Perronnin. Univ. Grenoble Alpes, LIG, Inria. September 28, 2018

Random variables. Florence Perronnin. Univ. Grenoble Alpes, LIG, Inria. September 28, 2018 Random variables Florence Perronnin Univ. Grenoble Alpes, LIG, Inria September 28, 2018 Florence Perronnin (UGA) Random variables September 28, 2018 1 / 42 Variables aléatoires Outline 1 Variables aléatoires

More information

Optimisation par réduction d incertitudes : application à la recherche d idéotypes

Optimisation par réduction d incertitudes : application à la recherche d idéotypes : application à la recherche d idéotypes Victor Picheny 1, D. Da Silva et E. Costes 2 Rencontres du réseau Mexico, Toulouse 23 mai 2014 1. INRA MIAT 2. INRA GAP Plan de l exposé 1 Introduction : recherche

More information

Introduction to Machine Learning

Introduction to Machine Learning Introduction to Machine Learning 1 Balázs Kégl Département d informatique et recherche opérationnelle Université de Montréal September 10-17, 2004 Outline 2 Introduction, motivating examples The supervised

More information

Chapitre 2 : Sélection de variables et pénalisations. Agathe Guilloux Professeure au LaMME - Université d Évry - Paris Saclay

Chapitre 2 : Sélection de variables et pénalisations. Agathe Guilloux Professeure au LaMME - Université d Évry - Paris Saclay Chapitre 2 : Sélection de variables et pénalisations Agathe Guilloux Professeure au LaMME - Université d Évry - Paris Saclay Avant de commencer Les documents du cours sont disponibles ici : http://www.math-evry.

More information

arxiv:cs/ v1 [cs.dm] 21 Apr 2005

arxiv:cs/ v1 [cs.dm] 21 Apr 2005 arxiv:cs/0504090v1 [cs.dm] 21 Apr 2005 Abstract Discrete Morse Theory for free chain complexes Théorie de Morse pour des complexes de chaines libres Dmitry N. Kozlov Eidgenössische Technische Hochschule,

More information

A set of formulas for primes

A set of formulas for primes A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always

More information

A DIFFERENT APPROACH TO MULTIPLE CORRESPONDENCE ANALYSIS (MCA) THAN THAT OF SPECIFIC MCA. Odysseas E. MOSCHIDIS 1

A DIFFERENT APPROACH TO MULTIPLE CORRESPONDENCE ANALYSIS (MCA) THAN THAT OF SPECIFIC MCA. Odysseas E. MOSCHIDIS 1 Math. Sci. hum / Mathematics and Social Sciences 47 e année, n 86, 009), p. 77-88) A DIFFERENT APPROACH TO MULTIPLE CORRESPONDENCE ANALYSIS MCA) THAN THAT OF SPECIFIC MCA Odysseas E. MOSCHIDIS RÉSUMÉ Un

More information

DETERMINING HIGH VOLTAGE CABLE CONDUCTOR TEMPERATURES. Guy Van der Veken. Euromold, Belgium. INVESTIGATIONS. INTRODUCTION.

DETERMINING HIGH VOLTAGE CABLE CONDUCTOR TEMPERATURES. Guy Van der Veken. Euromold, Belgium. INVESTIGATIONS. INTRODUCTION. DETERMINING HIGH VOLTAGE CABLE CONDUCTOR TEMPERATURES. Guy Van der Veken. Euromold, Belgium. INTRODUCTION. INVESTIGATIONS. Type tests on MV cable accessories are described in CENELEC HD68 and HD69 documents.

More information

Exercise sheet n Compute the eigenvalues and the eigenvectors of the following matrices. C =

Exercise sheet n Compute the eigenvalues and the eigenvectors of the following matrices. C = L2 - UE MAT334 Exercise sheet n 7 Eigenvalues and eigenvectors 1. Compute the eigenvalues and the eigenvectors of the following matrices. 1 1 1 2 3 4 4 1 4 B = 1 1 1 1 1 1 1 1 1 C = Which of the previous

More information

Best linear unbiased prediction when error vector is correlated with other random vectors in the model

Best linear unbiased prediction when error vector is correlated with other random vectors in the model Best linear unbiased prediction when error vector is correlated with other random vectors in the model L.R. Schaeffer, C.R. Henderson To cite this version: L.R. Schaeffer, C.R. Henderson. Best linear unbiased

More information

A set of formulas for primes

A set of formulas for primes A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always

More information

Selection on selected records

Selection on selected records Selection on selected records B. GOFFINET I.N.R.A., Laboratoire de Biometrie, Centre de Recherches de Toulouse, chemin de Borde-Rouge, F 31320 Castanet- Tolosan Summary. The problem of selecting individuals

More information

Content. Content. Introduction. T. Chateau. Computer Vision. Introduction. Outil projectif permettant l acquisition d une scène 3D sur un plan 2D

Content. Content. Introduction. T. Chateau. Computer Vision. Introduction. Outil projectif permettant l acquisition d une scène 3D sur un plan 2D Content Modèle de caméra T Chateau Lamea/Gravir/ComSee, Blaie Pacal Univerit Computer Viion 2 Content La projection perpective Changement de repère objet/caméra Changement de repère caméra/image Changement

More information

Kato s inequality when u is a measure. L inégalité de Kato lorsque u est une mesure

Kato s inequality when u is a measure. L inégalité de Kato lorsque u est une mesure Kato s inequality when u is a measure L inégalité de Kato lorsque u est une mesure Haïm Brezis a,b, Augusto C. Ponce a,b, a Laboratoire Jacques-Louis Lions, Université Pierre et Marie Curie, BC 187, 4

More information

Regression on Parametric Manifolds: Estimation of Spatial Fields, Functional Outputs, and Parameters from Noisy Data

Regression on Parametric Manifolds: Estimation of Spatial Fields, Functional Outputs, and Parameters from Noisy Data Regression on Parametric Manifolds: Estimation of Spatial Fields, Functional Outputs, and Parameters from Noisy Data Anthony T. Patera a, Einar M. Rønquist b a Department of Mechanical Engineering, Massachusetts

More information

La question posée (en français, avec des mots justes ; pour un calcul, l'objectif doit être clairement écrit formellement)

La question posée (en français, avec des mots justes ; pour un calcul, l'objectif doit être clairement écrit formellement) Exercise : You have to make one ton of mayonnaise sauce using 95 % oil, 2.5 % egg yolk, 2.5 % vinegar. What is the minimum energy that you have to spend? Calculation for mayonnaise Hervé 4th October 2013

More information

Variable selection in model-based clustering for high-dimensional data

Variable selection in model-based clustering for high-dimensional data Variable selection in model-based clustering for high-dimensional data Caroline Meynet To cite this version: Caroline Meynet. Variable selection in model-based clustering for high-dimensional data. General

More information

Mini cours sur les mesures de Gibbs I

Mini cours sur les mesures de Gibbs I 25 octobre 2013 Documents de références (1972) M. Keane, Strongly mixing g-measures, Invent. Math. (1974) R. Bowen, Equilibrium states and the ergodic theory of Anosov diffeomorphisms, Lecture Notes in

More information

arxiv: v3 [stat.me] 24 Nov 2016 École Doctorale de Science Mathématiques de Paris Centre Thèse de Doctorat Discipline: Mathématiques

arxiv: v3 [stat.me] 24 Nov 2016 École Doctorale de Science Mathématiques de Paris Centre Thèse de Doctorat Discipline: Mathématiques arxiv:1611.07247v3 [stat.me] 24 Nov 2016 École Doctorale de Science Mathématiques de Paris Centre Thèse de Doctorat Discipline: Mathématiques Spécialité: Statistiques présentée par Diaa AL MOHAMAD Esimation

More information

A new lack-of-fit test for quantile regression models using logistic regression

A new lack-of-fit test for quantile regression models using logistic regression A new lack-of-fit test for quantile regression models using logistic regression Mercedes Conde-Amboage 1 & Valentin Patilea 2 & César Sánchez-Sellero 1 1 Department of Statistics and O.R.,University of

More information

It s a Small World After All Calculus without s and s

It s a Small World After All Calculus without s and s It s a Small World After All Calculus without s and s Dan Sloughter Department of Mathematics Furman University November 18, 2004 Smallworld p1/39 L Hôpital s axiom Guillaume François Antoine Marquis de

More information

The multi-terminal vertex separator problem : Complexity, Polyhedra and Algorithms

The multi-terminal vertex separator problem : Complexity, Polyhedra and Algorithms The multi-terminal vertex separator problem : Complexity, Polyhedra and Algorithms Youcef Magnouche To cite this version: Youcef Magnouche. The multi-terminal vertex separator problem : Complexity, Polyhedra

More information

Thèse de Doctorat de L'Université Paris-Saclay. L'Université Paris-Sud. Inria Saclay Ile-de-France

Thèse de Doctorat de L'Université Paris-Saclay. L'Université Paris-Sud. Inria Saclay Ile-de-France NNT : 2016SACLS459 Thèse de Doctorat de L'Université Paris-Saclay préparée à L'Université Paris-Sud au sein de Inria Saclay Ile-de-France ÉCOLE DOCTORALE N 580 Sciences et technologies de l'information

More information

( ) 2 ( kg) ( 9.80 m/s 2

( ) 2 ( kg) ( 9.80 m/s 2 Chapitre 1 Charges et champs électriques [9 au 1 mai] DEVOIR : 1.78, 1.84, 1.56, 1.90, 1.71 1.1. Charge électrique et structure de la matière À lire rapidement. Concepts déjà familiers. 1.. Conducteurs,

More information

Linear Models for Classification

Linear Models for Classification Linear Models for Classification Oliver Schulte - CMPT 726 Bishop PRML Ch. 4 Classification: Hand-written Digit Recognition CHINE INTELLIGENCE, VOL. 24, NO. 24, APRIL 2002 x i = t i = (0, 0, 0, 1, 0, 0,

More information

A Stochastic Approach For The Range Evaluation

A Stochastic Approach For The Range Evaluation A Stochastic Approach For The Range Evaluation Andrei Banciu To cite this version: Andrei Banciu. A Stochastic Approach For The Range Evaluation. Signal and Image processing. Université Rennes 1, 2012.

More information

Extending Zagier s Theorem on Continued Fractions and Class Numbers

Extending Zagier s Theorem on Continued Fractions and Class Numbers Extending Zagier s Theorem on Continued Fractions and Class Numbers Colin Weir University of Calgary Joint work with R. K. Guy, M. Bauer, M. Wanless West Coast Number Theory December 2012 The Story of

More information

The epsilon method: analysis of seepage beneath an impervious dam with sheet pile on a layered soil

The epsilon method: analysis of seepage beneath an impervious dam with sheet pile on a layered soil The epsilon method: analysis of seepage beneath an impervious dam with sheet pile on a layered soil Zheng-yi Feng and Jonathan T.H. Wu 59 Abstract: An approximate solution method, referred to as the epsilon

More information

Invitation to a Family Reunion

Invitation to a Family Reunion 1 Invitation to a Family Reunion Jacques: Bonjour! Ça va Marie? Hi! How are you, Marie? Marie: Bonjour, Jacques! Ça va très bien, merci. Hi, Jacques, Very well, thank you. Jacques: Qu est ce que tu fais

More information

Learning Decision Trees

Learning Decision Trees Outline Learning Decision Trees 1. Decision trees 2. Learning decision trees 3. Various problems and their solutions Antoine Cornuéjols AgroParisTech INRA MIA 518 antoine.cornuejols@agroparistech.fr 2

More information

Construction et Analyse de Fonctions de Hachage

Construction et Analyse de Fonctions de Hachage Université Paris Diderot (Paris 7) École Normale Supérieure Équipe Crypto Thèse de doctorat Construction et Analyse de Fonctions de Hachage Spécialité : Informatique présentée et soutenue publiquement

More information

Mesurer des déplacements ET des contraintes par correlation mécanique d images

Mesurer des déplacements ET des contraintes par correlation mécanique d images Mesurer des déplacements ET des contraintes par correlation mécanique d images J. RÉTHORÉ a, A. LEYGUE a, M. CORET a, L. STAINIER a, E. VERRON a a. Institut de Recherche en Génie Civil et Mécanique (GeM)

More information

LES MODELES A VARIABLES LATENTES

LES MODELES A VARIABLES LATENTES LES MODELES A VARIABLES LATENTES Les modèles à variables latentes (ou facteurs) postulent l existence de variables inobservables directement telles l intelligence, l engagement religieux, etc. mais dont

More information

MGDA II: A direct method for calculating a descent direction common to several criteria

MGDA II: A direct method for calculating a descent direction common to several criteria MGDA II: A direct method for calculating a descent direction common to several criteria Jean-Antoine Désidéri To cite this version: Jean-Antoine Désidéri. MGDA II: A direct method for calculating a descent

More information

Introduction à la mécanique quantique. Emmanuel Fromager

Introduction à la mécanique quantique. Emmanuel Fromager ECPM, Strasbourg, France Page 1 Emmanuel Fromager Institut de Chimie de Strasbourg - Laboratoire de Chimie Quantique - Université de Strasbourg /CNRS http://quantique.u-strasbg.fr/doku.php?id=fr:start

More information

Classification des triples de Manin pour les algebres ` de Lie reductives complexes

Classification des triples de Manin pour les algebres ` de Lie reductives complexes Ž. Journal of Algebra 246, 97174 2001 doi:10.1006jabr.2001.8887, available online at http:www.idealibrary.com on Classification des triples de Manin pour les algebres ` de Lie reductives complexes Patrick

More information

On a multivariate implementation of the Gibbs sampler

On a multivariate implementation of the Gibbs sampler Note On a multivariate implementation of the Gibbs sampler LA García-Cortés, D Sorensen* National Institute of Animal Science, Research Center Foulum, PB 39, DK-8830 Tjele, Denmark (Received 2 August 1995;

More information

Nadir Castañeda Palomino

Nadir Castañeda Palomino Thèse de Présentée pour obtenir le grade de docteur l École Nationale Supérieure des Télécommunications Spécialité : Signal et Images par Nadir Castañeda Palomino Titre : Géo-localisation et poursuite

More information

Doctorat ParisTech. TELECOM ParisTech. Analyse de stratégies bayésiennes et fréquentistes pour l allocation séquentielle de ressources

Doctorat ParisTech. TELECOM ParisTech. Analyse de stratégies bayésiennes et fréquentistes pour l allocation séquentielle de ressources 204-ENST-0056 EDITE - ED 30 Doctorat ParisTech T H È S E pour obtenir le grade de docteur délivré par TELECOM ParisTech Spécialité «Signal et Images» présentée et soutenue publiquement par Emilie KAUFMANN

More information

An explicit formula for ndinv, a new statistic for two-shuffle parking functions

An explicit formula for ndinv, a new statistic for two-shuffle parking functions FPSAC 2012, Nagoya, Japan DMTCS proc AR, 2012, 147 156 An explicit formula for ndinv, a new statistic for two-shuffle parking functions Angela Hicks and Yeonkyung Kim Mathematics Department, University

More information

A pointwise equivalence of gradients on configuration spaces

A pointwise equivalence of gradients on configuration spaces A pointwise equivalence of gradients on configuration spaces Nicolas Privault Equipe d Analyse et Probabilités, Université d Evry-Val d Essonne Boulevard F. Mitterrand, 91025 Evry Cedex, France e-mail:

More information

Bandit feedback in Classification and Multi-objective Optimization

Bandit feedback in Classification and Multi-objective Optimization Bandit feedback in Classification and Multi-objective Optimization Hongliang Zhong To cite this version: Hongliang Zhong. Bandit feedback in Classification and Multi-objective Optimization. Automatic Control

More information

Bandits Games and Clustering Foundations

Bandits Games and Clustering Foundations Bandits Games and Clustering Foundations Sébastien Bubeck To cite this version: Sébastien Bubeck. Bandits Games and Clustering Foundations. Statistics [math.st]. Université des Sciences et Technologie

More information

Modélisation & simulation de la génération de champs magnetiques par des écoulements de métaux liquides. Wietze Herreman

Modélisation & simulation de la génération de champs magnetiques par des écoulements de métaux liquides. Wietze Herreman Modélisation & simulation de la génération de champs magnetiques par des écoulements de métaux liquides Wietze Herreman 19ième Colloque Alain Bouyssy!!"#$%&'()*+(,#-*.#*+( )/01+"2(!!!!!!! Origine des champs

More information

THÈSE. présentée et soutenue publiquement le 04/10/2013 pour l obtention du. Doctorat de l Université de Lorraine. spécialité automatique par

THÈSE. présentée et soutenue publiquement le 04/10/2013 pour l obtention du. Doctorat de l Université de Lorraine. spécialité automatique par Ecole doctorale IAEM Lorraine Département de formation doctorale en automatique UFR ESSTIN Identification de Systèmes Dynamiques Hybrides : géométrie, parcimonie, et non-linéarités Hybrid Dynamical System

More information

Γ -convergence and Sobolev norms

Γ -convergence and Sobolev norms C. R. Acad. Sci. Paris, Ser. I 345 (2007) 679 684 http://france.elsevier.com/direct/crass1/ Partial Differential Equations Γ -convergence and Sobolev norms Hoai-Minh Nguyen Rutgers University, Department

More information

Φ B. , into the page. 2π ln(b/a).

Φ B. , into the page. 2π ln(b/a). Chapitre 29 Induction électromagnétique [13 au 15 juin] DEVOIR : 29.8; 29.20; 29.22; 29.30; 29.36 29.1. Expériences d'induction Il n est pas nécessaire de lire cette section. Ce qu il faut retenir de la

More information

arxiv: v1 [stat.ml] 8 Sep 2015

arxiv: v1 [stat.ml] 8 Sep 2015 Modelling time evolving interactions in networks through a non stationary extension of stochastic block models Marco Corneli, Pierre Latouche and Fabrice Rossi arxiv:1509.02347v1 [stat.ml] 8 Sep 2015 Université

More information

Thèse de Doctorat. Donata Puplinskaitė. Agrégation de processus autorégressifs et de champs aléatoires de variance finie ou infinie

Thèse de Doctorat. Donata Puplinskaitė. Agrégation de processus autorégressifs et de champs aléatoires de variance finie ou infinie Thèse de Doctorat Mémoire présenté en vue de l obtention du grade de Docteur de l Université de Nantes Docteur de l Université de Vilnius sous le label de l Université de Nantes Angers Le Mans École doctorale

More information

Reachability Analysis of Hybrid Systems with Linear Continuous Dynamics

Reachability Analysis of Hybrid Systems with Linear Continuous Dynamics Reachability Analysis of Hybrid Systems with Linear Continuous Dynamics Colas Le Guernic To cite this version: Colas Le Guernic. Reachability Analysis of Hybrid Systems with Linear Continuous Dynamics.

More information

The use of L-moments for regionalizing flow records in the Rio Uruguai basin: a case study

The use of L-moments for regionalizing flow records in the Rio Uruguai basin: a case study Regionalization in Ifylwltm (Proceedings of the Ljubljana Symposium, April 1990). IAHS Publ. no. 191, 1990. The use of L-moments for regionalizing flow records in the Rio Uruguai basin: a case study ROBM

More information

Resumé. 1 Introduction Motivation Thesis outline... 2

Resumé. 1 Introduction Motivation Thesis outline... 2 Contents Resumé xi 1 Introduction 1 1.1 Motivation................................... 1 1.2 Thesis outline................................. 2 2 Wavelet Transforms 3 2.1 Introduction..................................

More information

Game-theoretic approaches to randomness: unpredictability and stochasticity.

Game-theoretic approaches to randomness: unpredictability and stochasticity. Game-theoretic approaches to randomness: unpredictability and stochasticity. Laurent Bienvenu To cite this version: Laurent Bienvenu. Game-theoretic approaches to randomness: unpredictability and stochasticity..

More information

The effect of joint condition and block volume on GSI and rockmass strength estimation

The effect of joint condition and block volume on GSI and rockmass strength estimation The effect of joint condition and block volume on GSI and rockmass strength estimation M. Pitts & M. Diederichs Dept. of Geological Sciences and Geological Engineering Queen s University, Kingston, Ontario

More information

Commande prédictive robuste par des techniques d observateurs à base d ensembles zonotopiques

Commande prédictive robuste par des techniques d observateurs à base d ensembles zonotopiques N d ordre : 2012-16-TH THÈSE DE DOCTORAT DOMAINE : STIC Spécialité : Automatique Ecole Doctorale «Sciences et Technologies de l Information des Télécommunications et des Systèmes» Présentée par : Vu Tuan

More information

A set of formulas for primes

A set of formulas for primes A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always

More information

Uncertainty learning for noise robust ASR

Uncertainty learning for noise robust ASR Uncertainty learning for noise robust ASR Dung Tien Tran To cite this version: Dung Tien Tran. Uncertainty learning for noise robust ASR. Sound [cs.sd]. Université de Lorraine, 2015. English. .

More information

Lecture 2: The figures of the city, 1: interactions

Lecture 2: The figures of the city, 1: interactions Lecture 2: The figures of the city, 1: interactions Introduction I. «Moral density» Density, co-presence, opportunities Serendipity writing exercise II. Social position and social identities Common definition

More information

Study of Localization for Disordered Systems on Quantum Graphs

Study of Localization for Disordered Systems on Quantum Graphs Study of ocalization for Disordered Systems on Quantum Graphs Mostafa Sabri To cite this version: Mostafa Sabri. Study of ocalization for Disordered Systems on Quantum Graphs. Mathematical Physics [math-ph].

More information

REVUE FRANÇAISE D INFORMATIQUE ET DE

REVUE FRANÇAISE D INFORMATIQUE ET DE REVUE FRANÇAISE D INFORMATIQUE ET DE RECHERCHE OPÉRATIONNELLE, SÉRIE ROUGE SURESH CHANDRA Decomposition principle for linear fractional functional programs Revue française d informatique et de recherche

More information

cedram Article mis en ligne dans le cadre du Centre de diffusion des revues académiques de mathématiques

cedram Article mis en ligne dans le cadre du Centre de diffusion des revues académiques de mathématiques Paul FILI On the heights of totally p-adic numbers Tome 26, n o 1 (2014), p. 103-109. Société Arithmétique de Bordeaux, 2014, tous droits réservés.

More information

THE OLYMPIAD CORNER No. 305

THE OLYMPIAD CORNER No. 305 THE OLYMPIAD CORNER / 67 THE OLYMPIAD CORNER No. 305 Nicolae Strungaru The solutions to the problems are due to the editor by 1 January 014. Each problem is given in English and French, the official languages

More information

Prediction of response to selection within families

Prediction of response to selection within families Note Prediction of response to selection within families WG Hill A Caballero L Dempfle 2 1 Institzite of Cell, Animal and Population Biology, University of Edinburgh, West Mains Road, Edinburgh, EH9 3JT,

More information

Which tools for which purposes?

Which tools for which purposes? Which tools for which purposes? An historical perspective on data recollection, transportation modeling and economic assessment Hadrien Commenges Quanturb Seminar 29 octobre 2014 Hadrien Commenges Which

More information

Introduction 1. Partie II : Cosmologie

Introduction 1. Partie II : Cosmologie Introduction 1 Partie II : Cosmologie Introduction 2 Only 5% of universe is ordinary matter! For the first time in human history we believe we have an inventory of the constituents of the universe. Rapid

More information

A set of formulas for primes

A set of formulas for primes A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always

More information

Logistic Regression. COMP 527 Danushka Bollegala

Logistic Regression. COMP 527 Danushka Bollegala Logistic Regression COMP 527 Danushka Bollegala Binary Classification Given an instance x we must classify it to either positive (1) or negative (0) class We can use {1,-1} instead of {1,0} but we will

More information

Poisson s ratio effect of slope stability calculations

Poisson s ratio effect of slope stability calculations Poisson s ratio effect of slope stability calculations Murray Fredlund, & Robert Thode SoilVision Systems Ltd., Saskatoon, SK, Canada ABSTRACT This paper presents the results of a study on the effect of

More information

ANNALES. FLORENT BALACHEFF, ERAN MAKOVER, HUGO PARLIER Systole growth for finite area hyperbolic surfaces

ANNALES. FLORENT BALACHEFF, ERAN MAKOVER, HUGO PARLIER Systole growth for finite area hyperbolic surfaces ANNALES DE LA FACULTÉ DES SCIENCES Mathématiques FLORENT BALACHEFF, ERAN MAKOVER, HUGO PARLIER Systole growth for finite area hyperbolic surfaces Tome XXIII, n o 1 (2014), p. 175-180.

More information

Stéphane Chrétien. To cite this version: HAL Id: tel https://tel.archives-ouvertes.fr/tel

Stéphane Chrétien. To cite this version: HAL Id: tel https://tel.archives-ouvertes.fr/tel Contribution à l analyse et à l amélioration de certaines méthodes pour l inférence statistique par vraisemblance pénalisée : Méthodes Bregman-proximales et LASSO Stéphane Chrétien To cite this version:

More information

Basis Function Selection Criterion for Modal Monitoring of Non Stationary Systems ABSTRACT RÉSUMÉ

Basis Function Selection Criterion for Modal Monitoring of Non Stationary Systems ABSTRACT RÉSUMÉ Basis Function Selection Criterion for Modal Monitoring of Non Stationary Systems Li W. 1, Vu V. H. 1, Liu Z. 1, Thomas M. 1 and Hazel B. 2 Zhaoheng.Liu@etsmtl.ca, Marc.Thomas@etsmtl.ca 1 Dynamo laboratory,

More information

Analyse de stabilité de systèmes à coefficients dépendant du retard

Analyse de stabilité de systèmes à coefficients dépendant du retard Analyse de stabilité de systèmes à coefficients dépendant du retard Chi Jin To cite this version: Chi Jin. Analyse de stabilité de systèmes à coefficients dépendant du retard. Automatique / Robotique.

More information

Numerical solution of the Monge-Ampère equation by a Newton s algorithm

Numerical solution of the Monge-Ampère equation by a Newton s algorithm Numerical solution of the Monge-Ampère equation by a Newton s algorithm Grégoire Loeper a, Francesca Rapetti b a Département de Mathématiques, Ecole Polytechnique Fédérale de Lausanne, 1015 Lausanne, CH

More information

THE RESOLUTION OF SAFFARI S PHASE PROBLEM. Soit K n := { p n : p n (z) = n

THE RESOLUTION OF SAFFARI S PHASE PROBLEM. Soit K n := { p n : p n (z) = n Comptes Rendus Acad. Sci. Paris Analyse Fonctionnelle Titre français: Solution du problème de la phase de Saffari. THE RESOLUTION OF SAFFARI S PHASE PROBLEM Tamás Erdélyi Abstract. We prove a conjecture

More information

Divers aspects des arbres aléatoires : des arbres de fragmentation aux cartes planaires infinies

Divers aspects des arbres aléatoires : des arbres de fragmentation aux cartes planaires infinies ÉCOLE DOCTORALE DE DAUPHINE THÈSE DE DOCTORAT pour obtenir le grade de Docteur en sciences de l université Paris-Dauphine présentée par Robin STEPHENSON Divers aspects des arbres aléatoires : des arbres

More information

Machine Learning. 7. Logistic and Linear Regression

Machine Learning. 7. Logistic and Linear Regression Sapienza University of Rome, Italy - Machine Learning (27/28) University of Rome La Sapienza Master in Artificial Intelligence and Robotics Machine Learning 7. Logistic and Linear Regression Luca Iocchi,

More information

Cheng Soon Ong & Christian Walder. Canberra February June 2018

Cheng Soon Ong & Christian Walder. Canberra February June 2018 Cheng Soon Ong & Christian Walder Research Group and College of Engineering and Computer Science Canberra February June 2018 (Many figures from C. M. Bishop, "Pattern Recognition and ") 1of 305 Part VII

More information

A Singularity-Free Method for the Time-Dependent Schrödinger Equation for Nonlinear Molecules

A Singularity-Free Method for the Time-Dependent Schrödinger Equation for Nonlinear Molecules A Singularity-Free Method for the Time-Dependent Schrödinger Equation for Nonlinear Molecules A.D.Bandrauk a,, Hui-Zhong Lu a a Labo. de Chimie Théorique, Faculté des Sciences, Université de Sherbrooke,

More information

THESE. En vue de l'obtention du. Délivré par l'université Toulouse III - Paul Sabatier. Discipline ou spécialité : Informatique

THESE. En vue de l'obtention du. Délivré par l'université Toulouse III - Paul Sabatier. Discipline ou spécialité : Informatique THESE En vue de l'obtention du DOCTORAT DE L UNIVERSITÉ DE TOULOUSE Délivré par l'université Toulouse III - Paul Sabatier Discipline ou spécialité : Informatique Présentée et soutenue par Meghyn GARNER

More information

Lily Yen and Mogens Hansen

Lily Yen and Mogens Hansen 409 SKOLID No. 136 Lily Yen and Mogens Hansen Please send your solutions to problems in this Skoliad by October 1, 2012. copyofcrux with Mayhemwill be sentto onepre-universityreaderwhosends in solutions

More information

On Metric and Statistical Properties of Topological Descriptors for geometric Data

On Metric and Statistical Properties of Topological Descriptors for geometric Data On Metric and Statistical Properties of Topological Descriptors for geometric Data Mathieu Carriere To cite this version: Mathieu Carriere. On Metric and Statistical Properties of Topological Descriptors

More information

NORME INTERNATIONALE INTERNATIONAL STANDARD

NORME INTERNATIONALE INTERNATIONAL STANDARD NORME INTERNATIONALE INTERNATIONAL STANDARD CEI IEC 60027-1 1992 AMENDEMENT 1 AMENDMENT 1 1997-05 Amendement 1 Symboles littéraux à utiliser en électrotechnique Partie 1: Généralités Amendment 1 Letter

More information

(Generalized) Polynomial Chaos representation

(Generalized) Polynomial Chaos representation (Generalized) Polynomial Chaos representation Didier Lucor Laboratoire de Modélisation en Mécanique UPMC Paris VI www.lmm.jussieu.fr Outline Context & Motivation Polynomial Chaos and generalized Polynomial

More information

présentée pour obtenir LE GRADE DE DOCTEUR EN SCIENCES DE L UNIVERSITÉ PARIS-SUD 11 par

présentée pour obtenir LE GRADE DE DOCTEUR EN SCIENCES DE L UNIVERSITÉ PARIS-SUD 11 par Université Pierre et Marie Curie École Doctorale de Sciences Département de Mathématiques Mathématiques de Paris Centre et Applications UMR 8553 THÈSE École Normale Supérieure, Paris présentée pour obtenir

More information

BAVER OKUTMUSTUR. pour l obtention du titre de. Sujet : MÉTHODES DE VOLUMES FINIS POUR LES LOIS DE CONSERVATION HYPERBOLIQUES NON-LINÉAIRES

BAVER OKUTMUSTUR. pour l obtention du titre de. Sujet : MÉTHODES DE VOLUMES FINIS POUR LES LOIS DE CONSERVATION HYPERBOLIQUES NON-LINÉAIRES THÈSE DE L UNIVERSITÉ PIERRE ET MARIE CURIE PARIS VI SPÉCIALITÉ MATHÉMATIQUES présentée par BAVER OUTMUSTUR pour l obtention du titre de DOCTEUR DE L UNIVERSITÉ PIERRE ET MARIE CURIE PARIS VI Sujet : MÉTHODES

More information

Doctorat ParisTech T H È S E. TELECOM ParisTech. Analyse stochastique de processus ponctuels : au-delà du processus de Poisson

Doctorat ParisTech T H È S E. TELECOM ParisTech. Analyse stochastique de processus ponctuels : au-delà du processus de Poisson 2013-ENST-0085 EDITE - ED 130 Doctorat ParisTech T H È S E pour obtenir le grade de docteur délivré par TELECOM ParisTech Spécialité «Informatique et réseaux» présentée et soutenue publiquement par Ian

More information

ANNALES DE L I. H. P., SECTION B

ANNALES DE L I. H. P., SECTION B ANNALES DE L I. H. P., SECTION B MICHAEL B. MARCUS JAY ROSEN Laws of the iterated logarithm for the local times of recurrent random walks on Z2 and of Lévy processes and Random walks in the domain of attraction

More information

Analysis of the quality of suspended sediment data

Analysis of the quality of suspended sediment data Sediment Budgets (Proceedings of the Porto Alegre Symposium, December 1988). IAHS Publ. no. 174, 1988. Analysis of the quality of suspended sediment data F. R. SEMMELMANN & A. E. LANNA Institute of Hydraulic

More information

Stable bundles on non-algebraic surfaces giving rise to compact moduli spaces

Stable bundles on non-algebraic surfaces giving rise to compact moduli spaces Analytic Geometry/ Géométrie analytique Stable bundles on non-algebraic surfaces giving rise to compact moduli spaces Matei Toma Abstract We prove the existence of a class of holomorphic vector bundles

More information

Holomorphic torsion on Hermitian symmetric spaces

Holomorphic torsion on Hermitian symmetric spaces Géométrie différentielle/differential geometry Holomorphic torsion on Hermitian symmetric spaces Kai Köhler Abstract We calculate explicitly the equivariant holomorphic Ray-Singer torsion for all equivariant

More information

Autour des Triangles Cassés

Autour des Triangles Cassés Actes JFPC 2015 Autour des Triangles Cassés Martin C. Cooper 1 Achref El Mouelhi 2 Cyril Terrioux 2 Bruno Zanuttini 3 1 IRIT, Université de Toulouse III, 31062 Toulouse, France 2 LSIS, Aix-Marseille Université,

More information

Modelling the dependence of order statistics and nonparametric estimation.

Modelling the dependence of order statistics and nonparametric estimation. Modelling the dependence of order statistics and nonparametric estimation. Richard Fischer To cite this version: Richard Fischer. Modelling the dependence of order statistics and nonparametric estimation..

More information

Sur le groupe d automorphismes du groupe libre I. Transvections

Sur le groupe d automorphismes du groupe libre I. Transvections Journal of Algebra 222, 621677 1999 doi:10.1006jabr.1999.8036, available online at http:www.idealibrary.com on Sur le groupe d automorphismes du groupe libre I. Transvections Daniel Piollet* Uniersite

More information

On the coverage probability of the Clopper-Pearson confidence interval

On the coverage probability of the Clopper-Pearson confidence interval On the coverage probability of the Clopper-Pearson confidence interval Sur la probabilité de couverture de l intervalle de confiance de Clopper-Pearson Rapport Interne GET / ENST Bretagne Dominique Pastor

More information

Un résultat de consistance pour des SVM fonctionnels par interpolation spline. A consistency result for functional SVM by spline interpolation

Un résultat de consistance pour des SVM fonctionnels par interpolation spline. A consistency result for functional SVM by spline interpolation Un résultat e consistance pour es SVM fonctionnels par interpolation spline A consistency result for functional SVM by spline interpolation Natalie Villa a Fabrice Rossi b a Équipe GRIMM, Université Toulouse

More information

Pablo Enrique Sartor Del Giudice

Pablo Enrique Sartor Del Giudice THÈSE / UNIVERSITÉ DE RENNES 1 sous le sceau de l Université Européenne de Bretagne en cotutelle internationale avec PEDECIBA - Université de la République, Uruguay pour le grade de DOCTEUR DE L UNIVERSITÉ

More information

Paris 13 University - Sorbonne Paris Cité. Computer Science Laboratory of Paris-North (LIPN) UMR 7030, CNRS. Thesis. presented by.

Paris 13 University - Sorbonne Paris Cité. Computer Science Laboratory of Paris-North (LIPN) UMR 7030, CNRS. Thesis. presented by. N d Ordre : D.U.... EDSPIC :... Paris 13 University - Sorbonne Paris Cité Computer Science Laboratory of Paris-North (LIPN) UMR 7030, CNRS Thesis presented by Redko Ievgen for the degree of DOCTOR OF COMPUTER

More information