Kernel spectral learning and inference in random geometric graphs - TEL - Thèses en ligne Accéder directement au contenu
Thèse Année : 2020

Kernel spectral learning and inference in random geometric graphs

Apprentissage spectral des noyaux et inférence des graphes aléatoires géométriques

Résumé

This thesis has two main objectives. The first is to investigate the concentration properties of random kernel matrices, which are central in the study of kernel methods. The second objective is to study statistical inference problems on random geometric graphs. Both objectives are connected by the graphon formalism, which allows to represent a graph by a kernel function. We briefly recall the basics of the graphon model in the first chapter. In chapter two, we present a set of accurate concentration inequalities for individual eigenvalues of the kernel matrix, where our main contribution is to obtain inequalities that scale with the eigenvalue in consideration, implying convergence rates that are faster than parametric and often exponential, which hitherto has only been establish under assumptions which are too restrictive for graph applications. We specialized our results to the case of dot products kernels, highlighting its relation with the random geometric graph model. In chapter three, we study the problem of latent distances estimation on random geometric graphs on the Euclidean sphere. We propose an efficient spectral algorithm that use the adjacency matrix to construct an estimator for the latent distances, and prove finite sample guaranties for the estimation error, establishing its convergence rate. In chapter four, we extend the method developed in the previous chapter to the case of random geometric graphs on the Euclidean ball, a model that despite its formal similarities with the spherical case it is more flexible for modelling purposes. In particular, we prove that for certain parameter choices its degree profile is power law distributed, which has been observed in many real life networks. All the theoretical findings of the last two chapters are verified and complemented by numerical experiments.
Cette thèse comporte deux objectifs. Un premier objectif concerne l’étude des propriétés de concentration des matrices à noyau, qui sont fondamentales dans l’ensemble des méthodes à noyau. Le deuxième objectif repose quant à lui sur l’étude des problèmes d’inférence statistique dans le modèle des graphes aléatoires géométriques. Ces deux objectifs sont liés entre eux par le formalisme du graphon, qui permet représenter un graphe par un noyau. Nous rappelons les rudiments du modèle du graphon dans le premier chapitre. Le chapitre 2 présente des bornes précises pour les valeurs propres individuelles d’une matrice à noyau, où notre principale contribution est d’obtenir des inégalités à l’échelle de la valeur propre en considération. Ceci donne des vitesses de convergence qui sont meilleures que la vitesse paramétrique et, en occasions, exponentielles. Jusqu’ici cela n’avait été établi qu’avec des hypothèses contraignantes dans le contexte des graphes. Nous spécialisons les résultats au cas de noyaux de produit scalaire, en soulignant sa relation avec le modèle des graphes géométriques. Le chapitre 3 étudie le problème d’estimation des distances latentes pour le modèle des graphes aléatoires géométriques dans la sphère Euclidienne. Nous proposons un algorithme spectral efficace qui utilise la matrice d’adjacence pour construire un estimateur de la matrice des distances latentes, et des garanties théoriques pour l’erreur d’estimation, ainsi que la vitesse de convergence, sont montrées. Le chapitre 4 étend les méthodes développées dans le chapitre précédent au cas des graphes aléatoires géométriques dans la boule Euclidienne, un modèle qui, en dépit des similarités formelles avec le cas sphérique, est plus flexible en termes de modélisation. En particulier, nous montrons que pour certains choix des paramètres le profil des dégrées est distribué selon une loi de puissance, ce qui a été vérifié empiriquement dans plusieurs réseaux réels. Tous les résultats théoriques des deux derniers chapitres sont confirmés par des expériences numériques.
Fichier principal
Vignette du fichier
92912_ARAYA_VALDIVIA_2020_archivage.pdf (66.43 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-03128645 , version 1 (02-02-2021)

Identifiants

  • HAL Id : tel-03128645 , version 1

Citer

Ernesto Araya Valdivia. Kernel spectral learning and inference in random geometric graphs. Statistics [math.ST]. Université Paris-Saclay, 2020. English. ⟨NNT : 2020UPASM020⟩. ⟨tel-03128645⟩
121 Consultations
11 Téléchargements

Partager

Gmail Facebook X LinkedIn More