Apprentissage automatique Classification linéaire - fonction discriminante
|
|
- Julius Parsons
- 6 years ago
- Views:
Transcription
1 Apprentissage automatique Classification linéaire - fonction discriminante
2 TYPES D APPRENTISSAGE apprentissage supervisé, classification, régression L apprentissage supervisé est lorsqu on a une cible à prédire RAPPEL classification : la cible est un indice de classe t {1,..., K} - exemple : reconnaissance de caractères x : vecteur des intensités de tous les pixels de l image t : identité du caractère régression : la cible est un nombre réel t R - exemple : prédiction de la valeur d une action à la bourse x : vecteur contenant l information sur l activité économique de la journée t : valeur d une action à la bourse le lendemain 2
3 TYPES D APPRENTISSAGE apprentissage supervisé, classification, régression L apprentissage supervisé est lorsqu on a une cible à prédire RAPPEL classification : la cible est un indice de classe t {1,..., K} - exemple : reconnaissance de caractères x : vecteur des intensités de tous les pixels de l image t : identité du caractère régression : la cible est un nombre réel t R - exemple : prédiction de la valeur d une action à la bourse x : vecteur contenant l information sur l activité économique de la journée t : valeur d une action à la bourse le lendemain 2
4 CLASSIFICATION surface de décision, région de décision On chercher à diviser l espace des entrées x en différentes régions de décision R k chaque région de décision est associée à une classe les frontières entre les régions sont des surfaces de décision C k R j R i R k x B 3 x A ˆx
5 CLASSIFICATION classification binaire, séparabilité linéaire Cas spécial : classification binaire C 1 classe correspond à t = 1 R 1 classe C 2 correspond à t = 0 (ou t = -1) R 2 Cas spécial : classification linéaire la surface de décision entre chaque paire de régions de décision est linéaire, i.e. un hyperplan (droite pour D=2) on dit qu un problème est linéairement séparable si une surface linéaire permet de classifier parfaitement 4
6 FONCTION DISCRIMINANTE fonction discriminante, vecteur de poids, biais On souhaite apprendre une fonction discriminante qui prend x en entrée et donne sa classe en sortie Dans le cas binaire, on va s intéresser aux fonctions discriminantes qui : 1. calculent une transformation linéaire de l entrée C k y(x) = w T x + w 0 vecteur de poids biais 5 2. retourne si y(x) 0 ou retourne sinon C 1 C 2
7 FONCTION DISCRIMINANTE fonction discriminante, vecteur de poids, biais y > 0 y = 0 y < 0 x 2 R 2 R 1 y(x) = w T x + w 0 w x y(x) w = r x 6 x = x + r w w w w 0 w x 1
8 SÉPARABILITÉ LINÉAIRE séparabilité linéaire Est-ce que l hypothèse de séparabilité linéaire est raisonnable? en haute dimensionnalité (grande valeur de D), possiblement! Théorème : soit D+1 entrées x n, on peut toujours les séparer linéairement en 2 classes, quelque soit la valeur de leurs cibles t n Condition : chaque sous-ensemble de D entrées est linéairement indépendant On peut également utiliser une représentation elle est non-linéaire φ(x) qui 7
9 FONCTION DISCRIMINANTE entraînement Idéalement, on voudrait entraîner y(x) en minimisant directement le taux d erreur de classification sur l ensemble d entraînement malheureusement, on peut démontrer que c est un problème NP-difficile On va donc devoir attaquer le problème indirectement ceci va donner lieu à différents algorithmes d apprentissage 8
10 Apprentissage automatique Classification linéaire - méthode des moindres carrés
11 MÉTHODE DES MOINDRES CARRÉS méthode des moindres carrés On va traiter la classification comme un problème de régression on pourrait prédire directement la valeur de la cible (t = 1 vs. t = -1) C 1 C 2 si y(x) 0 on classifie dans sinon On parle de moindres carrés puisque la régression minimise la différence au carré entre t et y(x) 10
12 RÉGULARISATION régularisation, weight decay, régression de Ridge On peut montrer que la solution (maximum a posteriori) est alors : RAPPEL w = ( λi + Φ T Φ ) 1 Φ T t. dans le cas λ = 0, on retrouve la solution tu maximum de vraisemblance si λ > 0, permet également d avoir une solution plus stable numériquement (si n est pas inversible) Φ T Φ 11
13 MÉTHODE DES MOINDRES CARRÉS méthode des moindres carrés Pour la cas à plus de deux classes, on va traiter la classification comme un problème de régression à prédiction multiple la cible va être un vecteur binaire indiquant à quelle classe appartient l entrée exemple : s il y a K=5 classes et qu une entrée est de la classe C 2 t = (0, 1, 0, 0, 0) T on classifie dans la classe C k dont la valeur de y(x) k est la plus élevée 12
14 MÉTHODE DES MOINDRES CARRÉS méthode des moindres carrés Pour la cas à plus de deux classes, on va traiter la classification comme un problème de régression à prédiction multiple la cible va être un vecteur binaire indiquant à quelle classe appartient l entrée exemple : s il y a K=5 classes et qu une entrée est de la classe C 2 t = (0, 1, 0, 0, 0) T on classifie dans la classe C k dont la valeur de y(x) k est la plus élevée 12
15 PRÉDICTIONS MULTIPLES modèle pour prédictions multiples Le modèle doit maintenant prédire un vecteur : RAPPEL y(x, w) = W T φ(x) où W est une matrice M K Chaque colonne de W peut être vu comme le vecteur w k du modèle y(x,w k ) pour la k e cible 13
16 PRÉDICTIONS MULTIPLES modèle pour prédictions multiples Le modèle doit maintenant prédire un vecteur : RAPPEL y(x, w) = W T φ(x) où W est une matrice M K Chaque colonne de W peut être vu comme le vecteur w k du modèle y(x,w k ) pour la k e cible classe 13
17 MAXIMUM DE VRAISEMBLANCE formulation probabiliste pour prédictions multiples On peut démontrer que le maximum de vraisemblance est : ( ) RAPPEL W ML = ( Φ T Φ ) 1 Φ T T On peut voir le résultat comme la concaténation (colonne par colonne) des solutions pour chaque tâche ( ) w k = ( Φ T Φ ) 1 Φ T t k 14 où t k = (t 1,k,..., t N,k ) T iva
18 Apprentissage automatique Classification linéaire - analyse discriminante linéaire
19 ANALYSE DISCRIMINANTE LINÉAIRE analyse discriminante linéaire En classification binaire, on cherche en fait une projection y = w T x. telle que le seuil projetées possible y w 0 lassifier di sépare bien le plus d entrées 16
20 ANALYSE DISCRIMINANTE LINÉAIRE analyse discriminante linéaire L analyse discriminante linéaire cherche plutôt à bien séparer la projection de moyennes, i.e. on maximise : w T (m 2 m 1 ) où m k = w T m k et C m 1 = 1 N 1 n C 1 x n, m 2 = 1 N 2 n C 2 x n. 17
21 ANALYSE DISCRIMINANTE LINÉAIRE variance intra-classe Jusqu à maintenant, le problème est mal posé il suffit d augmenter w infiniment pour maximiser on pourrait imposer que w soit de norme 1, mais ceci n est pas entièrement satisfaisant En plus, on C va tenter de réduire les variances intraclasse des entrées projetées s 2 k = n C k (y n m k ) 2 18
22 ANALYSE DISCRIMINANTE LINÉAIRE variance intra-classe, inter-classe On combine ces idées en maximisant plutôt J(w) = (m 2 m 1 ) 2 s s2 2 On peut montrer que la solution est telle que w / S 1 W (m 1 m 2 ) où la matrice de covariance intra-classe est S W = n C 1 (x n m 1 )(x n m 1 ) T + n C 2 (x n m 2 )(x n m 2 ) T 19
23 ANALYSE DISCRIMINANTE LINÉAIRE variance intra-classe, inter-classe On combine ces idées en maximisant plutôt J(w) = (m 2 m 1 ) 2 s s2 2 On peut montrer que la solution est telle que w / S 1 W (m 1 m 2 ) où la matrice de covariance intra-classe est équivalent à une variance inter-classe S W = n C 1 (x n m 1 )(x n m 1 ) T + n C 2 (x n m 2 )(x n m 2 ) T 19
24 ANALYSE DISCRIMINANTE LINÉAIRE analyse discriminante linéaire Sans minimisation intra-classe w / (m 1 m 2 ) Avec minimisation intra-classe w / S 1 W (m 1 m 2 ) 20
25 ANALYSE DISCRIMINANTE LINÉAIRE analyse discriminante linéaire Une fois w calculé, il suffit de trouver un seuil de classification un chois possible est (w T m 1 + w T m 2 )/2 On peut voir l analyse discriminante linéaire comme un cas particulier des moindres carrés voir section Il est possible de généraliser au cas à plus de 2 classes voir section
26 Apprentissage automatique Classification linéaire - approche probabiliste générative
27 APPROCHE PROBABILISTE approche probabiliste Prenons plutôt une approche probabiliste on suppose que nos données ont été générées d un modèle probabiliste donné on cherche les paramètres de ce modèle qui maximisent la vraisemblance des données d entraînement Deux options : approche générative : on choisit un modèle pour p(x,t) approche discriminante : on choisit un modèle pour p(t x) 23
28 APPROCHE PROBABILISTE approche probabiliste Prenons plutôt une approche probabiliste on suppose que nos données ont été générées d un modèle probabiliste donné on cherche les paramètres de ce modèle qui maximisent la vraisemblance des données d entraînement Deux options : approche générative : on choisit un modèle pour p(x,t) approche discriminante : on choisit un modèle pour p(t x) 23
29 APPROCHE PROBABILISTE GÉNÉRATIVE approche probabiliste générative On va supposer que les données ont été générées selon le processus suivant (cas binaire) : pour n = 1... N 1 denotes c and t n = 0 deno - assigne t n =1 avec probabilité p(c 1 ) = π, et t n =0 avec probabilité p(c 2 ) = 1 π. 1 and hence - si t n =1, génère x n de la loi de probabilité )p(x n C 1 ) = N (x n µ 1, Σ). - sinon (t n =0), génère x n de la loi de probabilité p(x n C 2 ) = )N (x n µ 2, Σ) En mots : les entrées sont des échantillons d une loi gaussienne, mais de moyennes différentes pour les différentes classes 24
30 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Pour entraîner le classifieur, on cherche les paramètres maximise la (log-)vraisemblance (, µ 1, µ 2, ) 25
31 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas : on prend le logarithme et garde les termes avec N {t n ln π + (1 t n ) ln(1 π)} n=1 26
32 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas : puis cherche le maximum en annulant la dérivée N 27 π = 1 N n=1 t n = N 1 N = N 1 N 1 + N 2 nb. de la classe nb. de la classe C 1 C 2
33 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas N µ 1 : on prend le logarithme et garde les termes avec µ 1 N t n ln N (x n µ 1, Σ) = 1 2 t n (x n µ 1 ) T Σ 1 (x n µ 1 ) + const. n=1 n=1 28
34 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas µ 1 : puis cherche le maximum en annulant la dérivée µ 1 = 1 N 1 N t n x n n=1 29
35 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance La probabilité des données d entraînement devient N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas µ 2 : de façon similaire, on obtient pour µ 2 µ 2 = 1 N (1 t n )x n N 2 n=1 30
36 APPROCHE PROBABILISTE GÉNÉRATIVE maximum de vraisemblance Cas : plus compliqué à démontrer, mais on obtient = N 1 N S 1 + N 2 N S 2 1 S 1 = 1 N 1 n C 1 (x n µ 1 )(x n µ 1 ) T covariance empirique de classe C 1 covariance empirique de classe C2 S 2 = 1 N 2 n C 2 (x n µ 2 )(x n µ 2 ) T 31
37 APPROCHE PROBABILISTE GÉNÉRATIVE règle de Bayes Une fois, µ 1, µ 2, calculés, on peut classifier de nouvelles entrées à l aide de la règle de Bayes p(c 1 x) = p(x C 1 )p(c 1 ) p(x C 1 )p(c 1 ) + p(x C 2 )p(c 2 ) Si p(c 1 x) 0.5, on classifie dans la classe C 1, sinon on classifie dans la classe C
38 APPROCHE PROBABILISTE GÉNÉRATIVE fonction sigmoïde 1 On peut aussi écrire C C C p(c 1 x) = exp( a) = σ(a) 0.5 où fonction sigmoïde a = ln p(x C 1)p(C 1 ) p(x C 2 )p(c 2 ) d function defined by σ(a) = exp( a) 33
39 { APPROCHE PROBABILISTE GÉNÉRATIVE { forme classification linéaire Dans le cas où )p(x n C 1 ) et p(x n C 2 ) sont gaussiennes p(c 1 x) = σ(w T x + w 0 ) où w = Σ 1 (µ 1 µ 2 ) w 0 = 1 2 µt 1 Σ 1 µ µt 2 Σ 1 µ 2 + ln p(c 1) p(c 2 ). 34
40 { APPROCHE PROBABILISTE GÉNÉRATIVE { forme classification linéaire Dans le cas où )p(x n C 1 ) et p(x n C 2 ) sont gaussiennes p(c 1 x) = σ(w T x + w 0 ) où w = Σ 1 (µ 1 µ 2 ) w 0 = 1 2 µt 1 Σ 1 µ µt 2 Σ 1 µ 2 + ln p(c 1) p(c 2 ). 1 34
41 APPROCHE PROBABILISTE GÉNÉRATIVE forme classification linéaire Puisque (0) = 0.5, alors la règle p(c 1 x) 0.5 est w T x + w 0 équivalente à 0 On retrouve donc la forme d un classifieur linéaire 35
42 APPROCHE PROBABILISTE GÉNÉRATIVE extensions On peut généraliser au cas à multiples classes voir fin des sections 4.2 et On peut généraliser à des lois )p(x n C 1 ) et p(x n C 2 ) autre que gaussiennes observations binaires, voir section cas général (famille exponentielle), voir section
43 Apprentissage automatique Classification linéaire - approche probabiliste discriminante
44 APPROCHE PROBABILISTE approche probabiliste Prenons plutôt une approche probabiliste on suppose que nos données ont été générées d un modèle probabiliste donné on cherche les paramètres de ce modèle qui maximisent la vraisemblance des données d entraînement Deux options : approche générative : on choisit un modèle pour p(x,t) approche discriminante : on choisit un modèle pour p(t x) 38
45 APPROCHE PROBABILISTE approche probabiliste Prenons plutôt une approche probabiliste on suppose que nos données ont été générées d un modèle probabiliste donné on cherche les paramètres de ce modèle qui maximisent la vraisemblance des données d entraînement Deux options : approche générative : on choisit un modèle pour p(x,t) approche discriminante : on choisit un modèle pour p(t x) 38
46 APPROCHE PROBABILISTE DISCRIMINANTE { approche probabiliste discriminante, régression logistique Dans le cas génératif, on a vu que la probabilité de classifier dans la classe prend la forme C 1 p(c 1 x) = σ(w T x + w 0 ) Dans le cas discriminant, l idée est d utiliser directement cette forme comme modèle de p(t x) plutôt que maximiser la probabilité jointe p(x,t), on maximise la probabilité conditionnelle p(t x) 39 on appel ce modèle la régression logistique
47 APPROCHE PROBABILISTE DISCRIMINANTE maximum de vraisemblance Cas génératif : on cherche (, µ 1, µ 2, ) qui maximise N p(t π, µ 1, µ 2, Σ) = [πn (x n µ 1, Σ)] t n [(1 π)n (x n µ 2, Σ)] 1 t n n=1 Cas discriminant : on cherche directement w qui maximise p(t w) = N n=1 y t n n {1 y n } 1 t n où y n = p(c 1 x n ) 40
48 APPROCHE PROBABILISTE DISCRIMINANTE fonctions de bases On peut facilement remplacer la représentation de l entrée à l aide de fonctions de bases (comme pour la régression) p(c 1 φ) = y(φ) = σ ( w T φ ) est équivalent à (x) ). Here ( ) is the Si les fonctions de bases sont non-linéaires, peut rendre les classes linéairement séparables 41
49 APPROCHE PROBABILISTE DISCRIMINANTE fonctions de bases fonctions de bases gaussiennes j x 2 φ 2 { (x µ j) 2 } 0 µ exp 2s 2 1 µ x 1 espace représenté par x φ 1 espace représenté par 42
50 APPROCHE PROBABILISTE DISCRIMINANTE cross-entropie Maximiser la vraisemblance est équivalent à minimiser la logvraisemblance négative E(w) = ln p(t w) = Malheureusement, minimiser cette fonction ne se fait pas analytiquement N n=1 on va devoir trouver le minimum de façon numérique {t n ln y n + (1 t n ) ln(1 y n )} { cross-entropie (binaire) 43
51 APPROCHE PROBABILISTE DISCRIMINANTE descente de gradient Descente de gradient initialise la valeur de w aléatoirement durant I itérations - déplace w dans la direction opposée du gradient, w w re(w) E(w) w 1 w 0 44
52 APPROCHE PROBABILISTE DISCRIMINANTE descente de gradient On peut montrer que le gradient est simplement N E(w) = (y n t n )φ n n=1 où y n = p(c 1 φ n ) e logarithm of th Le nombre d itérations (I) de descente de gradient est un hyper-paramètre on utilise un ensemble de validation pour déterminer quand arrêter 45
53 APPROCHE PROBABILISTE DISCRIMINANTE extensions La descente de gradient stochastique est souvent préférée en pratique, parce que plus rapide à converger on met à jour w individuellement pour chaque exemple voir section (description pour la régression) On peut aussi généraliser au cas à multiples classes voir section
54 Apprentissage automatique Classification linéaire - classification à multiples classes
55 CLASSIFICATION À MULTIPLES CLASSES classification à multiples classes Il est possible d utiliser plusieurs classifieurs binaires pour résoudre un problème de classification à plus de 2 classes Approche one-versus-rest : entraîne K-1 classifieurs, chacun distinguant les entrées d une classe vs. les entrées de toutes les autres classes Approche one-versus-one : entraîne K(K-1)/2 classifieurs, chacun distinguant les entrées d une classe vs. les entrées d une seule autre classe 48
56 CLASSIFICATION À MULTIPLES CLASSES one-versus-rest? R 1 R 2 C 1 R 3 not C 1 C 2 49 not C 2
57 CLASSIFICATION À MULTIPLES CLASSES one-versus-one C 1 C 3 R 1 C 1? R 3 C 3 R 2 C 2 C 2 50
58 CLASSIFICATION À MULTIPLES CLASSES classification à multiples classes Il est possible de résoudre les ambiguïtés en pondérant les votes des classifieurs binaires cas probabiliste : pondérer par la probabilité p(c 1 x) L idéal serait d utiliser la version de l algorithme adaptée à la classification à multiples classes directement 51
59 Apprentissage automatique Classification linéaire - résumé
60 MÉTHODE DES MOINDRES CARRÉS résumé de la méthode des moindres carrés Modèle : y(x, w) =w T x + w 0 p(t x, w, β) = N (t y(x, w), β 1 ) ( Entraînement : w = λi + Φ T ) 1 Φ Φ T t. (t = 1 vs. t = -1) (maximum de vraisemblance si λ=0 ou maximum a posteriori si λ>0) Hyper-paramètre : λ Prédiction : si y(x,w) 0, sinon C 1 C 2 53
61 ANALYSE DISCRIMINANTE LINÉAIRE résumé de l analyse discriminante Modèle : Entraînement : w S 1 W (m 1 m 2 ) w y(x, w) =w T x + w 0 w w 2 w 0 = (w T m 1 + w T m 2 )/2 m 1 = 1 N 1 C n C 1 x n, m 2 = 1 N 2 n C 2 x n. S W = n C 1 (x n m 1 )(x n m 1 ) T + n C 2 (x n m 2 )(x n m 2 ) T Prédiction : si y(x,w) 0, sinon C 1 C 2 54
62 APPROCHE PROBABILISTE GÉNÉRATIVE { résumé de l approche probabiliste générative Modèle : y(x, w) =w T x + w 0 p(xc n, C 1 ) = πn (x n µ 1, Σ). µ 1 = 1 N 1 N n=1 t n x n µ 2 = 1 N (1 t n )x n N 2 n=1 p(x C n, C 2 ) = (1 π)n (x n µ 2, Σ) Entraînement : (t = 1 vs. t = 0) w = Σ 1 (µ 1 µ 2 ) = N 1 N S 1 + N 2 N S 2 1 p(c 1 )= N 1 N =1 p(c 2) w 0 = 1 2 µt 1 Σ 1 µ µt 2 Σ 1 µ 2 + ln p(c 1) p(c 2 ). 55 Prédiction : si y(x,w) 0, sinon C 1 C 2
63 APPROCHE { PROBABILISTE DISCRIMINANTE résumé de l approche probabiliste discriminante (régression logistique) Modèle : y(x, w) =w T x + w 0 p(c 1 x) = σ(w T x + w 0 ) Entraînement : descente de gradient (t = 1 vs. t = 0) initialise la valeur de w aléatoirement durant I itérations - X w w (y n t n ) n n 56 Prédiction : si y(x,w) 0, sinon C 1 C 2
64 MOINDRES CARRÉS VS. RÉGRESSION LOGISTIQUE moindres carrés vs. régression logistique Les résultats pourront être différents entre les algorithmes 4 4 moindres carrés 2 2 rég. logistique
Apprentissage automatique Machine à vecteurs de support - motivation
Apprentissage automatique Machine à vecteurs de support - motivation RÉGRESSION À NOYAU régression à noyau Algorithme de régression à noyau entraînement : prédiction : a = (K + λi N ) 1 t. y(x) =k(x) T
More informationApprentissage automatique Méthodes à noyaux - motivation
Apprentissage automatique Méthodes à noyaux - motivation MODÉLISATION NON-LINÉAIRE prédicteur non-linéaire On a vu plusieurs algorithmes qui produisent des modèles linéaires (régression ou classification)
More informationOutils de Recherche Opérationnelle en Génie MTH Astuce de modélisation en Programmation Linéaire
Outils de Recherche Opérationnelle en Génie MTH 8414 Astuce de modélisation en Programmation Linéaire Résumé Les problèmes ne se présentent pas toujours sous une forme qui soit naturellement linéaire.
More informationRandom variables. Florence Perronnin. Univ. Grenoble Alpes, LIG, Inria. September 28, 2018
Random variables Florence Perronnin Univ. Grenoble Alpes, LIG, Inria September 28, 2018 Florence Perronnin (UGA) Random variables September 28, 2018 1 / 42 Variables aléatoires Outline 1 Variables aléatoires
More informationOptimisation par réduction d incertitudes : application à la recherche d idéotypes
: application à la recherche d idéotypes Victor Picheny 1, D. Da Silva et E. Costes 2 Rencontres du réseau Mexico, Toulouse 23 mai 2014 1. INRA MIAT 2. INRA GAP Plan de l exposé 1 Introduction : recherche
More informationIntroduction to Machine Learning
Introduction to Machine Learning 1 Balázs Kégl Département d informatique et recherche opérationnelle Université de Montréal September 10-17, 2004 Outline 2 Introduction, motivating examples The supervised
More informationChapitre 2 : Sélection de variables et pénalisations. Agathe Guilloux Professeure au LaMME - Université d Évry - Paris Saclay
Chapitre 2 : Sélection de variables et pénalisations Agathe Guilloux Professeure au LaMME - Université d Évry - Paris Saclay Avant de commencer Les documents du cours sont disponibles ici : http://www.math-evry.
More informationarxiv:cs/ v1 [cs.dm] 21 Apr 2005
arxiv:cs/0504090v1 [cs.dm] 21 Apr 2005 Abstract Discrete Morse Theory for free chain complexes Théorie de Morse pour des complexes de chaines libres Dmitry N. Kozlov Eidgenössische Technische Hochschule,
More informationA set of formulas for primes
A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always
More informationA DIFFERENT APPROACH TO MULTIPLE CORRESPONDENCE ANALYSIS (MCA) THAN THAT OF SPECIFIC MCA. Odysseas E. MOSCHIDIS 1
Math. Sci. hum / Mathematics and Social Sciences 47 e année, n 86, 009), p. 77-88) A DIFFERENT APPROACH TO MULTIPLE CORRESPONDENCE ANALYSIS MCA) THAN THAT OF SPECIFIC MCA Odysseas E. MOSCHIDIS RÉSUMÉ Un
More informationDETERMINING HIGH VOLTAGE CABLE CONDUCTOR TEMPERATURES. Guy Van der Veken. Euromold, Belgium. INVESTIGATIONS. INTRODUCTION.
DETERMINING HIGH VOLTAGE CABLE CONDUCTOR TEMPERATURES. Guy Van der Veken. Euromold, Belgium. INTRODUCTION. INVESTIGATIONS. Type tests on MV cable accessories are described in CENELEC HD68 and HD69 documents.
More informationExercise sheet n Compute the eigenvalues and the eigenvectors of the following matrices. C =
L2 - UE MAT334 Exercise sheet n 7 Eigenvalues and eigenvectors 1. Compute the eigenvalues and the eigenvectors of the following matrices. 1 1 1 2 3 4 4 1 4 B = 1 1 1 1 1 1 1 1 1 C = Which of the previous
More informationBest linear unbiased prediction when error vector is correlated with other random vectors in the model
Best linear unbiased prediction when error vector is correlated with other random vectors in the model L.R. Schaeffer, C.R. Henderson To cite this version: L.R. Schaeffer, C.R. Henderson. Best linear unbiased
More informationA set of formulas for primes
A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always
More informationSelection on selected records
Selection on selected records B. GOFFINET I.N.R.A., Laboratoire de Biometrie, Centre de Recherches de Toulouse, chemin de Borde-Rouge, F 31320 Castanet- Tolosan Summary. The problem of selecting individuals
More informationContent. Content. Introduction. T. Chateau. Computer Vision. Introduction. Outil projectif permettant l acquisition d une scène 3D sur un plan 2D
Content Modèle de caméra T Chateau Lamea/Gravir/ComSee, Blaie Pacal Univerit Computer Viion 2 Content La projection perpective Changement de repère objet/caméra Changement de repère caméra/image Changement
More informationKato s inequality when u is a measure. L inégalité de Kato lorsque u est une mesure
Kato s inequality when u is a measure L inégalité de Kato lorsque u est une mesure Haïm Brezis a,b, Augusto C. Ponce a,b, a Laboratoire Jacques-Louis Lions, Université Pierre et Marie Curie, BC 187, 4
More informationRegression on Parametric Manifolds: Estimation of Spatial Fields, Functional Outputs, and Parameters from Noisy Data
Regression on Parametric Manifolds: Estimation of Spatial Fields, Functional Outputs, and Parameters from Noisy Data Anthony T. Patera a, Einar M. Rønquist b a Department of Mechanical Engineering, Massachusetts
More informationLa question posée (en français, avec des mots justes ; pour un calcul, l'objectif doit être clairement écrit formellement)
Exercise : You have to make one ton of mayonnaise sauce using 95 % oil, 2.5 % egg yolk, 2.5 % vinegar. What is the minimum energy that you have to spend? Calculation for mayonnaise Hervé 4th October 2013
More informationVariable selection in model-based clustering for high-dimensional data
Variable selection in model-based clustering for high-dimensional data Caroline Meynet To cite this version: Caroline Meynet. Variable selection in model-based clustering for high-dimensional data. General
More informationMini cours sur les mesures de Gibbs I
25 octobre 2013 Documents de références (1972) M. Keane, Strongly mixing g-measures, Invent. Math. (1974) R. Bowen, Equilibrium states and the ergodic theory of Anosov diffeomorphisms, Lecture Notes in
More informationarxiv: v3 [stat.me] 24 Nov 2016 École Doctorale de Science Mathématiques de Paris Centre Thèse de Doctorat Discipline: Mathématiques
arxiv:1611.07247v3 [stat.me] 24 Nov 2016 École Doctorale de Science Mathématiques de Paris Centre Thèse de Doctorat Discipline: Mathématiques Spécialité: Statistiques présentée par Diaa AL MOHAMAD Esimation
More informationA new lack-of-fit test for quantile regression models using logistic regression
A new lack-of-fit test for quantile regression models using logistic regression Mercedes Conde-Amboage 1 & Valentin Patilea 2 & César Sánchez-Sellero 1 1 Department of Statistics and O.R.,University of
More informationIt s a Small World After All Calculus without s and s
It s a Small World After All Calculus without s and s Dan Sloughter Department of Mathematics Furman University November 18, 2004 Smallworld p1/39 L Hôpital s axiom Guillaume François Antoine Marquis de
More informationThe multi-terminal vertex separator problem : Complexity, Polyhedra and Algorithms
The multi-terminal vertex separator problem : Complexity, Polyhedra and Algorithms Youcef Magnouche To cite this version: Youcef Magnouche. The multi-terminal vertex separator problem : Complexity, Polyhedra
More informationThèse de Doctorat de L'Université Paris-Saclay. L'Université Paris-Sud. Inria Saclay Ile-de-France
NNT : 2016SACLS459 Thèse de Doctorat de L'Université Paris-Saclay préparée à L'Université Paris-Sud au sein de Inria Saclay Ile-de-France ÉCOLE DOCTORALE N 580 Sciences et technologies de l'information
More information( ) 2 ( kg) ( 9.80 m/s 2
Chapitre 1 Charges et champs électriques [9 au 1 mai] DEVOIR : 1.78, 1.84, 1.56, 1.90, 1.71 1.1. Charge électrique et structure de la matière À lire rapidement. Concepts déjà familiers. 1.. Conducteurs,
More informationLinear Models for Classification
Linear Models for Classification Oliver Schulte - CMPT 726 Bishop PRML Ch. 4 Classification: Hand-written Digit Recognition CHINE INTELLIGENCE, VOL. 24, NO. 24, APRIL 2002 x i = t i = (0, 0, 0, 1, 0, 0,
More informationA Stochastic Approach For The Range Evaluation
A Stochastic Approach For The Range Evaluation Andrei Banciu To cite this version: Andrei Banciu. A Stochastic Approach For The Range Evaluation. Signal and Image processing. Université Rennes 1, 2012.
More informationExtending Zagier s Theorem on Continued Fractions and Class Numbers
Extending Zagier s Theorem on Continued Fractions and Class Numbers Colin Weir University of Calgary Joint work with R. K. Guy, M. Bauer, M. Wanless West Coast Number Theory December 2012 The Story of
More informationThe epsilon method: analysis of seepage beneath an impervious dam with sheet pile on a layered soil
The epsilon method: analysis of seepage beneath an impervious dam with sheet pile on a layered soil Zheng-yi Feng and Jonathan T.H. Wu 59 Abstract: An approximate solution method, referred to as the epsilon
More informationInvitation to a Family Reunion
1 Invitation to a Family Reunion Jacques: Bonjour! Ça va Marie? Hi! How are you, Marie? Marie: Bonjour, Jacques! Ça va très bien, merci. Hi, Jacques, Very well, thank you. Jacques: Qu est ce que tu fais
More informationLearning Decision Trees
Outline Learning Decision Trees 1. Decision trees 2. Learning decision trees 3. Various problems and their solutions Antoine Cornuéjols AgroParisTech INRA MIA 518 antoine.cornuejols@agroparistech.fr 2
More informationConstruction et Analyse de Fonctions de Hachage
Université Paris Diderot (Paris 7) École Normale Supérieure Équipe Crypto Thèse de doctorat Construction et Analyse de Fonctions de Hachage Spécialité : Informatique présentée et soutenue publiquement
More informationMesurer des déplacements ET des contraintes par correlation mécanique d images
Mesurer des déplacements ET des contraintes par correlation mécanique d images J. RÉTHORÉ a, A. LEYGUE a, M. CORET a, L. STAINIER a, E. VERRON a a. Institut de Recherche en Génie Civil et Mécanique (GeM)
More informationLES MODELES A VARIABLES LATENTES
LES MODELES A VARIABLES LATENTES Les modèles à variables latentes (ou facteurs) postulent l existence de variables inobservables directement telles l intelligence, l engagement religieux, etc. mais dont
More informationMGDA II: A direct method for calculating a descent direction common to several criteria
MGDA II: A direct method for calculating a descent direction common to several criteria Jean-Antoine Désidéri To cite this version: Jean-Antoine Désidéri. MGDA II: A direct method for calculating a descent
More informationIntroduction à la mécanique quantique. Emmanuel Fromager
ECPM, Strasbourg, France Page 1 Emmanuel Fromager Institut de Chimie de Strasbourg - Laboratoire de Chimie Quantique - Université de Strasbourg /CNRS http://quantique.u-strasbg.fr/doku.php?id=fr:start
More informationClassification des triples de Manin pour les algebres ` de Lie reductives complexes
Ž. Journal of Algebra 246, 97174 2001 doi:10.1006jabr.2001.8887, available online at http:www.idealibrary.com on Classification des triples de Manin pour les algebres ` de Lie reductives complexes Patrick
More informationOn a multivariate implementation of the Gibbs sampler
Note On a multivariate implementation of the Gibbs sampler LA García-Cortés, D Sorensen* National Institute of Animal Science, Research Center Foulum, PB 39, DK-8830 Tjele, Denmark (Received 2 August 1995;
More informationNadir Castañeda Palomino
Thèse de Présentée pour obtenir le grade de docteur l École Nationale Supérieure des Télécommunications Spécialité : Signal et Images par Nadir Castañeda Palomino Titre : Géo-localisation et poursuite
More informationDoctorat ParisTech. TELECOM ParisTech. Analyse de stratégies bayésiennes et fréquentistes pour l allocation séquentielle de ressources
204-ENST-0056 EDITE - ED 30 Doctorat ParisTech T H È S E pour obtenir le grade de docteur délivré par TELECOM ParisTech Spécialité «Signal et Images» présentée et soutenue publiquement par Emilie KAUFMANN
More informationAn explicit formula for ndinv, a new statistic for two-shuffle parking functions
FPSAC 2012, Nagoya, Japan DMTCS proc AR, 2012, 147 156 An explicit formula for ndinv, a new statistic for two-shuffle parking functions Angela Hicks and Yeonkyung Kim Mathematics Department, University
More informationA pointwise equivalence of gradients on configuration spaces
A pointwise equivalence of gradients on configuration spaces Nicolas Privault Equipe d Analyse et Probabilités, Université d Evry-Val d Essonne Boulevard F. Mitterrand, 91025 Evry Cedex, France e-mail:
More informationBandit feedback in Classification and Multi-objective Optimization
Bandit feedback in Classification and Multi-objective Optimization Hongliang Zhong To cite this version: Hongliang Zhong. Bandit feedback in Classification and Multi-objective Optimization. Automatic Control
More informationBandits Games and Clustering Foundations
Bandits Games and Clustering Foundations Sébastien Bubeck To cite this version: Sébastien Bubeck. Bandits Games and Clustering Foundations. Statistics [math.st]. Université des Sciences et Technologie
More informationModélisation & simulation de la génération de champs magnetiques par des écoulements de métaux liquides. Wietze Herreman
Modélisation & simulation de la génération de champs magnetiques par des écoulements de métaux liquides Wietze Herreman 19ième Colloque Alain Bouyssy!!"#$%&'()*+(,#-*.#*+( )/01+"2(!!!!!!! Origine des champs
More informationTHÈSE. présentée et soutenue publiquement le 04/10/2013 pour l obtention du. Doctorat de l Université de Lorraine. spécialité automatique par
Ecole doctorale IAEM Lorraine Département de formation doctorale en automatique UFR ESSTIN Identification de Systèmes Dynamiques Hybrides : géométrie, parcimonie, et non-linéarités Hybrid Dynamical System
More informationΓ -convergence and Sobolev norms
C. R. Acad. Sci. Paris, Ser. I 345 (2007) 679 684 http://france.elsevier.com/direct/crass1/ Partial Differential Equations Γ -convergence and Sobolev norms Hoai-Minh Nguyen Rutgers University, Department
More informationΦ B. , into the page. 2π ln(b/a).
Chapitre 29 Induction électromagnétique [13 au 15 juin] DEVOIR : 29.8; 29.20; 29.22; 29.30; 29.36 29.1. Expériences d'induction Il n est pas nécessaire de lire cette section. Ce qu il faut retenir de la
More informationarxiv: v1 [stat.ml] 8 Sep 2015
Modelling time evolving interactions in networks through a non stationary extension of stochastic block models Marco Corneli, Pierre Latouche and Fabrice Rossi arxiv:1509.02347v1 [stat.ml] 8 Sep 2015 Université
More informationThèse de Doctorat. Donata Puplinskaitė. Agrégation de processus autorégressifs et de champs aléatoires de variance finie ou infinie
Thèse de Doctorat Mémoire présenté en vue de l obtention du grade de Docteur de l Université de Nantes Docteur de l Université de Vilnius sous le label de l Université de Nantes Angers Le Mans École doctorale
More informationReachability Analysis of Hybrid Systems with Linear Continuous Dynamics
Reachability Analysis of Hybrid Systems with Linear Continuous Dynamics Colas Le Guernic To cite this version: Colas Le Guernic. Reachability Analysis of Hybrid Systems with Linear Continuous Dynamics.
More informationThe use of L-moments for regionalizing flow records in the Rio Uruguai basin: a case study
Regionalization in Ifylwltm (Proceedings of the Ljubljana Symposium, April 1990). IAHS Publ. no. 191, 1990. The use of L-moments for regionalizing flow records in the Rio Uruguai basin: a case study ROBM
More informationResumé. 1 Introduction Motivation Thesis outline... 2
Contents Resumé xi 1 Introduction 1 1.1 Motivation................................... 1 1.2 Thesis outline................................. 2 2 Wavelet Transforms 3 2.1 Introduction..................................
More informationGame-theoretic approaches to randomness: unpredictability and stochasticity.
Game-theoretic approaches to randomness: unpredictability and stochasticity. Laurent Bienvenu To cite this version: Laurent Bienvenu. Game-theoretic approaches to randomness: unpredictability and stochasticity..
More informationThe effect of joint condition and block volume on GSI and rockmass strength estimation
The effect of joint condition and block volume on GSI and rockmass strength estimation M. Pitts & M. Diederichs Dept. of Geological Sciences and Geological Engineering Queen s University, Kingston, Ontario
More informationCommande prédictive robuste par des techniques d observateurs à base d ensembles zonotopiques
N d ordre : 2012-16-TH THÈSE DE DOCTORAT DOMAINE : STIC Spécialité : Automatique Ecole Doctorale «Sciences et Technologies de l Information des Télécommunications et des Systèmes» Présentée par : Vu Tuan
More informationA set of formulas for primes
A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always
More informationUncertainty learning for noise robust ASR
Uncertainty learning for noise robust ASR Dung Tien Tran To cite this version: Dung Tien Tran. Uncertainty learning for noise robust ASR. Sound [cs.sd]. Université de Lorraine, 2015. English. .
More informationLecture 2: The figures of the city, 1: interactions
Lecture 2: The figures of the city, 1: interactions Introduction I. «Moral density» Density, co-presence, opportunities Serendipity writing exercise II. Social position and social identities Common definition
More informationStudy of Localization for Disordered Systems on Quantum Graphs
Study of ocalization for Disordered Systems on Quantum Graphs Mostafa Sabri To cite this version: Mostafa Sabri. Study of ocalization for Disordered Systems on Quantum Graphs. Mathematical Physics [math-ph].
More informationREVUE FRANÇAISE D INFORMATIQUE ET DE
REVUE FRANÇAISE D INFORMATIQUE ET DE RECHERCHE OPÉRATIONNELLE, SÉRIE ROUGE SURESH CHANDRA Decomposition principle for linear fractional functional programs Revue française d informatique et de recherche
More informationcedram Article mis en ligne dans le cadre du Centre de diffusion des revues académiques de mathématiques
Paul FILI On the heights of totally p-adic numbers Tome 26, n o 1 (2014), p. 103-109. Société Arithmétique de Bordeaux, 2014, tous droits réservés.
More informationTHE OLYMPIAD CORNER No. 305
THE OLYMPIAD CORNER / 67 THE OLYMPIAD CORNER No. 305 Nicolae Strungaru The solutions to the problems are due to the editor by 1 January 014. Each problem is given in English and French, the official languages
More informationPrediction of response to selection within families
Note Prediction of response to selection within families WG Hill A Caballero L Dempfle 2 1 Institzite of Cell, Animal and Population Biology, University of Edinburgh, West Mains Road, Edinburgh, EH9 3JT,
More informationWhich tools for which purposes?
Which tools for which purposes? An historical perspective on data recollection, transportation modeling and economic assessment Hadrien Commenges Quanturb Seminar 29 octobre 2014 Hadrien Commenges Which
More informationIntroduction 1. Partie II : Cosmologie
Introduction 1 Partie II : Cosmologie Introduction 2 Only 5% of universe is ordinary matter! For the first time in human history we believe we have an inventory of the constituents of the universe. Rapid
More informationA set of formulas for primes
A set of formulas for primes by Simon Plouffe December 31, 2018 Abstract In 1947, W. H. Mills published a paper describing a formula that gives primes : if A 1.3063778838630806904686144926 then A is always
More informationLogistic Regression. COMP 527 Danushka Bollegala
Logistic Regression COMP 527 Danushka Bollegala Binary Classification Given an instance x we must classify it to either positive (1) or negative (0) class We can use {1,-1} instead of {1,0} but we will
More informationPoisson s ratio effect of slope stability calculations
Poisson s ratio effect of slope stability calculations Murray Fredlund, & Robert Thode SoilVision Systems Ltd., Saskatoon, SK, Canada ABSTRACT This paper presents the results of a study on the effect of
More informationANNALES. FLORENT BALACHEFF, ERAN MAKOVER, HUGO PARLIER Systole growth for finite area hyperbolic surfaces
ANNALES DE LA FACULTÉ DES SCIENCES Mathématiques FLORENT BALACHEFF, ERAN MAKOVER, HUGO PARLIER Systole growth for finite area hyperbolic surfaces Tome XXIII, n o 1 (2014), p. 175-180.
More informationStéphane Chrétien. To cite this version: HAL Id: tel https://tel.archives-ouvertes.fr/tel
Contribution à l analyse et à l amélioration de certaines méthodes pour l inférence statistique par vraisemblance pénalisée : Méthodes Bregman-proximales et LASSO Stéphane Chrétien To cite this version:
More informationBasis Function Selection Criterion for Modal Monitoring of Non Stationary Systems ABSTRACT RÉSUMÉ
Basis Function Selection Criterion for Modal Monitoring of Non Stationary Systems Li W. 1, Vu V. H. 1, Liu Z. 1, Thomas M. 1 and Hazel B. 2 Zhaoheng.Liu@etsmtl.ca, Marc.Thomas@etsmtl.ca 1 Dynamo laboratory,
More informationAnalyse de stabilité de systèmes à coefficients dépendant du retard
Analyse de stabilité de systèmes à coefficients dépendant du retard Chi Jin To cite this version: Chi Jin. Analyse de stabilité de systèmes à coefficients dépendant du retard. Automatique / Robotique.
More informationNumerical solution of the Monge-Ampère equation by a Newton s algorithm
Numerical solution of the Monge-Ampère equation by a Newton s algorithm Grégoire Loeper a, Francesca Rapetti b a Département de Mathématiques, Ecole Polytechnique Fédérale de Lausanne, 1015 Lausanne, CH
More informationTHE RESOLUTION OF SAFFARI S PHASE PROBLEM. Soit K n := { p n : p n (z) = n
Comptes Rendus Acad. Sci. Paris Analyse Fonctionnelle Titre français: Solution du problème de la phase de Saffari. THE RESOLUTION OF SAFFARI S PHASE PROBLEM Tamás Erdélyi Abstract. We prove a conjecture
More informationDivers aspects des arbres aléatoires : des arbres de fragmentation aux cartes planaires infinies
ÉCOLE DOCTORALE DE DAUPHINE THÈSE DE DOCTORAT pour obtenir le grade de Docteur en sciences de l université Paris-Dauphine présentée par Robin STEPHENSON Divers aspects des arbres aléatoires : des arbres
More informationMachine Learning. 7. Logistic and Linear Regression
Sapienza University of Rome, Italy - Machine Learning (27/28) University of Rome La Sapienza Master in Artificial Intelligence and Robotics Machine Learning 7. Logistic and Linear Regression Luca Iocchi,
More informationCheng Soon Ong & Christian Walder. Canberra February June 2018
Cheng Soon Ong & Christian Walder Research Group and College of Engineering and Computer Science Canberra February June 2018 (Many figures from C. M. Bishop, "Pattern Recognition and ") 1of 305 Part VII
More informationA Singularity-Free Method for the Time-Dependent Schrödinger Equation for Nonlinear Molecules
A Singularity-Free Method for the Time-Dependent Schrödinger Equation for Nonlinear Molecules A.D.Bandrauk a,, Hui-Zhong Lu a a Labo. de Chimie Théorique, Faculté des Sciences, Université de Sherbrooke,
More informationTHESE. En vue de l'obtention du. Délivré par l'université Toulouse III - Paul Sabatier. Discipline ou spécialité : Informatique
THESE En vue de l'obtention du DOCTORAT DE L UNIVERSITÉ DE TOULOUSE Délivré par l'université Toulouse III - Paul Sabatier Discipline ou spécialité : Informatique Présentée et soutenue par Meghyn GARNER
More informationLily Yen and Mogens Hansen
409 SKOLID No. 136 Lily Yen and Mogens Hansen Please send your solutions to problems in this Skoliad by October 1, 2012. copyofcrux with Mayhemwill be sentto onepre-universityreaderwhosends in solutions
More informationOn Metric and Statistical Properties of Topological Descriptors for geometric Data
On Metric and Statistical Properties of Topological Descriptors for geometric Data Mathieu Carriere To cite this version: Mathieu Carriere. On Metric and Statistical Properties of Topological Descriptors
More informationNORME INTERNATIONALE INTERNATIONAL STANDARD
NORME INTERNATIONALE INTERNATIONAL STANDARD CEI IEC 60027-1 1992 AMENDEMENT 1 AMENDMENT 1 1997-05 Amendement 1 Symboles littéraux à utiliser en électrotechnique Partie 1: Généralités Amendment 1 Letter
More information(Generalized) Polynomial Chaos representation
(Generalized) Polynomial Chaos representation Didier Lucor Laboratoire de Modélisation en Mécanique UPMC Paris VI www.lmm.jussieu.fr Outline Context & Motivation Polynomial Chaos and generalized Polynomial
More informationprésentée pour obtenir LE GRADE DE DOCTEUR EN SCIENCES DE L UNIVERSITÉ PARIS-SUD 11 par
Université Pierre et Marie Curie École Doctorale de Sciences Département de Mathématiques Mathématiques de Paris Centre et Applications UMR 8553 THÈSE École Normale Supérieure, Paris présentée pour obtenir
More informationBAVER OKUTMUSTUR. pour l obtention du titre de. Sujet : MÉTHODES DE VOLUMES FINIS POUR LES LOIS DE CONSERVATION HYPERBOLIQUES NON-LINÉAIRES
THÈSE DE L UNIVERSITÉ PIERRE ET MARIE CURIE PARIS VI SPÉCIALITÉ MATHÉMATIQUES présentée par BAVER OUTMUSTUR pour l obtention du titre de DOCTEUR DE L UNIVERSITÉ PIERRE ET MARIE CURIE PARIS VI Sujet : MÉTHODES
More informationDoctorat ParisTech T H È S E. TELECOM ParisTech. Analyse stochastique de processus ponctuels : au-delà du processus de Poisson
2013-ENST-0085 EDITE - ED 130 Doctorat ParisTech T H È S E pour obtenir le grade de docteur délivré par TELECOM ParisTech Spécialité «Informatique et réseaux» présentée et soutenue publiquement par Ian
More informationANNALES DE L I. H. P., SECTION B
ANNALES DE L I. H. P., SECTION B MICHAEL B. MARCUS JAY ROSEN Laws of the iterated logarithm for the local times of recurrent random walks on Z2 and of Lévy processes and Random walks in the domain of attraction
More informationAnalysis of the quality of suspended sediment data
Sediment Budgets (Proceedings of the Porto Alegre Symposium, December 1988). IAHS Publ. no. 174, 1988. Analysis of the quality of suspended sediment data F. R. SEMMELMANN & A. E. LANNA Institute of Hydraulic
More informationStable bundles on non-algebraic surfaces giving rise to compact moduli spaces
Analytic Geometry/ Géométrie analytique Stable bundles on non-algebraic surfaces giving rise to compact moduli spaces Matei Toma Abstract We prove the existence of a class of holomorphic vector bundles
More informationHolomorphic torsion on Hermitian symmetric spaces
Géométrie différentielle/differential geometry Holomorphic torsion on Hermitian symmetric spaces Kai Köhler Abstract We calculate explicitly the equivariant holomorphic Ray-Singer torsion for all equivariant
More informationAutour des Triangles Cassés
Actes JFPC 2015 Autour des Triangles Cassés Martin C. Cooper 1 Achref El Mouelhi 2 Cyril Terrioux 2 Bruno Zanuttini 3 1 IRIT, Université de Toulouse III, 31062 Toulouse, France 2 LSIS, Aix-Marseille Université,
More informationModelling the dependence of order statistics and nonparametric estimation.
Modelling the dependence of order statistics and nonparametric estimation. Richard Fischer To cite this version: Richard Fischer. Modelling the dependence of order statistics and nonparametric estimation..
More informationSur le groupe d automorphismes du groupe libre I. Transvections
Journal of Algebra 222, 621677 1999 doi:10.1006jabr.1999.8036, available online at http:www.idealibrary.com on Sur le groupe d automorphismes du groupe libre I. Transvections Daniel Piollet* Uniersite
More informationOn the coverage probability of the Clopper-Pearson confidence interval
On the coverage probability of the Clopper-Pearson confidence interval Sur la probabilité de couverture de l intervalle de confiance de Clopper-Pearson Rapport Interne GET / ENST Bretagne Dominique Pastor
More informationUn résultat de consistance pour des SVM fonctionnels par interpolation spline. A consistency result for functional SVM by spline interpolation
Un résultat e consistance pour es SVM fonctionnels par interpolation spline A consistency result for functional SVM by spline interpolation Natalie Villa a Fabrice Rossi b a Équipe GRIMM, Université Toulouse
More informationPablo Enrique Sartor Del Giudice
THÈSE / UNIVERSITÉ DE RENNES 1 sous le sceau de l Université Européenne de Bretagne en cotutelle internationale avec PEDECIBA - Université de la République, Uruguay pour le grade de DOCTEUR DE L UNIVERSITÉ
More informationParis 13 University - Sorbonne Paris Cité. Computer Science Laboratory of Paris-North (LIPN) UMR 7030, CNRS. Thesis. presented by.
N d Ordre : D.U.... EDSPIC :... Paris 13 University - Sorbonne Paris Cité Computer Science Laboratory of Paris-North (LIPN) UMR 7030, CNRS Thesis presented by Redko Ievgen for the degree of DOCTOR OF COMPUTER
More information