– PhD defense : Thomas Peel (LIF) – Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour lapprentissage statistique Carte non disponible Date/heure Date(s) - 29 novembre 2013 Catégories Pas de Catégories Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour lapprentissage statistique Soutenance de thèse de/PhD defense by Thomas Peel, LIF, Marseille. Resume: La premie?re partie de cette the?se introduit de nouveaux algorithmes de de?composition parcimonieuse de signaux. Base?s sur Matching Pursuit (MP), ils re?pondent au proble?me suivant : comment re?duire le temps de calcul de le?tape de se?lection de MP, souvent tre?s cou?teuse. En re?ponse, nous sous-e?chantillonnons le dictionnaire a? chaque ite?ration, en lignes et en colonnes. Nous montrons que cette approche fonde?e the?oriquement affiche de bons re?sultats en pratique. Nous proposons ensuite un algorithme ite?ratif de descente de gradient par blocs de coordonne?es pour se?lectionner des caracte?ristiques en classification multi-classes. Celui-ci sappuie sur lutilisation de codes correcteurs derreurs transformant le proble?me en un proble?me de repre?sentation parcimonieuse simultane?e de signaux. La deuxie?me partie expose de nouvelles ine?galite?s de concentration empiriques de type Bernstein. En premier, elles concernent la the?orie des U-statistiques et sont utilise?es pour e?laborer des bornes en ge?ne?ralisation dans le cadre dalgorithmes de ranking. Ces bornes tirent parti dun estimateur de variance pour lequel nous proposons un algorithme de calcul efficace. Ensuite, nous pre?sentons une version empirique de line?galite? de type Bernstein propose?e par Freedman [1975] pour les martingales. Ici encore, la force de notre borne re?side dans lintroduction dun estimateur de variance calculable a? partir des donne?es. Cela nous permet de proposer des bornes en ge?ne?ralisation pour lensemble des algorithmes dapprentissage en ligne, ame?liorant le?tat de lart et ouvrant la voie a? une nouvelle famille dalgorithmes dapprentissage tirant parti de cette information empirique.
– PhD defense : Thomas Peel (LIF) – Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour lapprentissage statistique Carte non disponible Date/heure Date(s) - 29 novembre 2013 Catégories Pas de Catégories Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour lapprentissage statistique\n\nSoutenance de thèse de/PhD defense by Thomas Peel, LIF, Marseille.\n\nResume :\nLa premie?re partie de cette the?se introduit de nouveaux algorithmes de de?composition parcimonieuse de signaux. Base?s sur Matching Pursuit (MP), ils re?pondent au proble?me suivant : comment re?duire le temps de calcul de le?tape de se?lection de MP, souvent tre?s cou?teuse. En re?ponse, nous sous-e?chantillonnons le dictionnaire a? chaque ite?ration, en lignes et en colonnes. Nous montrons que cette approche fonde?e the?oriquement affiche de bons re?sultats en pratique. Nous proposons ensuite un algorithme ite?ratif de descente de gradient par blocs de coordonne?es pour se?lectionner des caracte?ristiques en classification multi-classes. Celui-ci sappuie sur lutilisation de codes correcteurs derreurs transformant le proble?me en un proble?me de repre?sentation parcimonieuse simultane?e de signaux. La deuxie?me partie expose de nouvelles ine?galite?s de concentration empiriques de type Bernstein. En premier, elles concernent la the?orie des U-statistiques et sont utilise?es pour e?laborer des bornes en ge?ne?ralisation dans le cadre dalgorithmes de ranking. Ces bornes tirent parti dun estimateur de variance pour lequel nous proposons un algorithme de calcul efficace. Ensuite, nous pre?sentons une version empirique de line?galite? de type Bernstein propose?e par Freedman [1975] pour les martingales. Ici encore, la force de notre borne re?side dans lintroduction dun estimateur de variance calculable a? partir des donne?es. Cela nous permet de proposer des bornes en ge?ne?ralisation pour lensemble des algorithmes dapprentissage en ligne, ame?liorant le?tat de lart et ouvrant la voie a? une nouvelle famille dalgorithmes dapprentissage tirant parti de cette information empirique.[
– PhD defense : Thomas Peel (LIF) – Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour lapprentissage statistique Carte non disponible Date/heure Date(s) - 29 novembre 2013 Catégories Pas de Catégories Algorithmes de poursuite stochastique et ine?galite?s de concentration empiriques pour lapprentissage statistique\n\nSoutenance de thèse de/PhD defense by Thomas Peel, LIF, Marseille.\n\nResume :\nLa premie?re partie de cette the?se introduit de nouveaux algorithmes de de?composition parcimonieuse de signaux. Base?s sur Matching Pursuit (MP), ils re?pondent au proble?me suivant : comment re?duire le temps de calcul de le?tape de se?lection de MP, souvent tre?s cou?teuse. En re?ponse, nous sous-e?chantillonnons le dictionnaire a? chaque ite?ration, en lignes et en colonnes. Nous montrons que cette approche fonde?e the?oriquement affiche de bons re?sultats en pratique. Nous proposons ensuite un algorithme ite?ratif de descente de gradient par blocs de coordonne?es pour se?lectionner des caracte?ristiques en classification multi-classes. Celui-ci sappuie sur lutilisation de codes correcteurs derreurs transformant le proble?me en un proble?me de repre?sentation parcimonieuse simultane?e de signaux. La deuxie?me partie expose de nouvelles ine?galite?s de concentration empiriques de type Bernstein. En premier, elles concernent la the?orie des U-statistiques et sont utilise?es pour e?laborer des bornes en ge?ne?ralisation dans le cadre dalgorithmes de ranking. Ces bornes tirent parti dun estimateur de variance pour lequel nous proposons un algorithme de calcul efficace. Ensuite, nous pre?sentons une version empirique de line?galite? de type Bernstein propose?e par Freedman [1975] pour les martingales. Ici encore, la force de notre borne re?side dans lintroduction dun estimateur de variance calculable a? partir des donne?es. Cela nous permet de proposer des bornes en ge?ne?ralisation pour lensemble des algorithmes dapprentissage en ligne, ame?liorant le?tat de lart et ouvrant la voie a? une nouvelle famille dalgorithmes dapprentissage tirant parti de cette information empirique.[