– PhD defense : Thomas Peel (LIF) – Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour l’apprentissage statistique

Carte non disponible

Date/heure
Date(s) - 29 novembre 2013

Catégories Pas de Catégories


Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour l’apprentissage statistique Soutenance de thèse de/PhD defense by Thomas Peel, LIF, Marseille. Resume: La premie?re partie de cette the?se introduit de nouveaux algorithmes de de?composition parcimonieuse de signaux. Base?s sur Matching Pursuit (MP), ils re?pondent au proble?me suivant : comment re?duire le temps de calcul de l’e?tape de se?lection de MP, souvent tre?s cou?teuse. En re?ponse, nous sous-e?chantillonnons le dictionnaire a? chaque ite?ration, en lignes et en colonnes. Nous montrons que cette approche fonde?e the?oriquement affiche de bons re?sultats en pratique. Nous proposons ensuite un algorithme ite?ratif de descente de gradient par blocs de coordonne?es pour se?lectionner des caracte?ristiques en classification multi-classes. Celui-ci s’appuie sur l’utilisation de codes correcteurs d’erreurs transformant le proble?me en un proble?me de repre?sentation parcimonieuse simultane?e de signaux. La deuxie?me partie expose de nouvelles ine?galite?s de concentration empiriques de type Bernstein. En premier, elles concernent la the?orie des U-statistiques et sont utilise?es pour e?laborer des bornes en ge?ne?ralisation dans le cadre d’algorithmes de ranking. Ces bornes tirent parti d’un estimateur de variance pour lequel nous proposons un algorithme de calcul efficace. Ensuite, nous pre?sentons une version empirique de l’ine?galite? de type Bernstein propose?e par Freedman [1975] pour les martingales. Ici encore, la force de notre borne re?side dans l’introduction d’un estimateur de variance calculable a? partir des donne?es. Cela nous permet de proposer des bornes en ge?ne?ralisation pour l’ensemble des algorithmes d’apprentissage en ligne, ame?liorant l’e?tat de l’art et ouvrant la voie a? une nouvelle famille d’algorithmes d’apprentissage tirant parti de cette information empirique.

– PhD defense : Thomas Peel (LIF) – Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour l’apprentissage statistique

Carte non disponible

Date/heure
Date(s) - 29 novembre 2013

Catégories Pas de Catégories


Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour l’apprentissage statistique\n\nSoutenance de thèse de/PhD defense by Thomas Peel, LIF, Marseille.\n\nResume :\nLa premie?re partie de cette the?se introduit de nouveaux algorithmes de de?composition parcimonieuse de signaux. Base?s sur Matching Pursuit (MP), ils re?pondent au proble?me suivant : comment re?duire le temps de calcul de l’e?tape de se?lection de MP, souvent tre?s cou?teuse. En re?ponse, nous sous-e?chantillonnons le dictionnaire a? chaque ite?ration, en lignes et en colonnes. Nous montrons que cette approche fonde?e the?oriquement affiche de bons re?sultats en pratique. Nous proposons ensuite un algorithme ite?ratif de descente de gradient par blocs de coordonne?es pour se?lectionner des caracte?ristiques en classification multi-classes. Celui-ci s’appuie sur l’utilisation de codes correcteurs d’erreurs transformant le proble?me en un proble?me de repre?sentation parcimonieuse simultane?e de signaux. La deuxie?me partie expose de nouvelles ine?galite?s de concentration empiriques de type Bernstein. En premier, elles concernent la the?orie des U-statistiques et sont utilise?es pour e?laborer des bornes en ge?ne?ralisation dans le cadre d’algorithmes de ranking. Ces bornes tirent parti d’un estimateur de variance pour lequel nous proposons un algorithme de calcul efficace. Ensuite, nous pre?sentons une version empirique de l’ine?galite? de type Bernstein propose?e par Freedman [1975] pour les martingales. Ici encore, la force de notre borne re?side dans l’introduction d’un estimateur de variance calculable a? partir des donne?es. Cela nous permet de proposer des bornes en ge?ne?ralisation pour l’ensemble des algorithmes d’apprentissage en ligne, ame?liorant l’e?tat de l’art et ouvrant la voie a? une nouvelle famille d’algorithmes d’apprentissage tirant parti de cette information empirique.[

– PhD defense : Thomas Peel (LIF) – Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour l’apprentissage statistique

Carte non disponible

Date/heure
Date(s) - 29 novembre 2013

Catégories Pas de Catégories


Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour l’apprentissage statistique\n\nSoutenance de thèse de/PhD defense by Thomas Peel, LIF, Marseille.\n\nResume :\nLa premie?re partie de cette the?se introduit de nouveaux algorithmes de de?composition parcimonieuse de signaux. Base?s sur Matching Pursuit (MP), ils re?pondent au proble?me suivant : comment re?duire le temps de calcul de l’e?tape de se?lection de MP, souvent tre?s cou?teuse. En re?ponse, nous sous-e?chantillonnons le dictionnaire a? chaque ite?ration, en lignes et en colonnes. Nous montrons que cette approche fonde?e the?oriquement affiche de bons re?sultats en pratique. Nous proposons ensuite un algorithme ite?ratif de descente de gradient par blocs de coordonne?es pour se?lectionner des caracte?ristiques en classification multi-classes. Celui-ci s’appuie sur l’utilisation de codes correcteurs d’erreurs transformant le proble?me en un proble?me de repre?sentation parcimonieuse simultane?e de signaux. La deuxie?me partie expose de nouvelles ine?galite?s de concentration empiriques de type Bernstein. En premier, elles concernent la the?orie des U-statistiques et sont utilise?es pour e?laborer des bornes en ge?ne?ralisation dans le cadre d’algorithmes de ranking. Ces bornes tirent parti d’un estimateur de variance pour lequel nous proposons un algorithme de calcul efficace. Ensuite, nous pre?sentons une version empirique de l’ine?galite? de type Bernstein propose?e par Freedman [1975] pour les martingales. Ici encore, la force de notre borne re?side dans l’introduction d’un estimateur de variance calculable a? partir des donne?es. Cela nous permet de proposer des bornes en ge?ne?ralisation pour l’ensemble des algorithmes d’apprentissage en ligne, ame?liorant l’e?tat de l’art et ouvrant la voie a? une nouvelle famille d’algorithmes d’apprentissage tirant parti de cette information empirique.[