Algorithmic and theoretical aspects of sparse deep neural networks - Thèses de l'INSA Lyon Accéder directement au contenu
Thèse Année : 2023

Algorithmic and theoretical aspects of sparse deep neural networks

Aspects algorithmiques et th ́eoriques des r ́eseaux de neurones profonds parcimonieux

Résumé

Sparse deep neural networks offer a compelling practical opportunity to reduce the cost of training, inference and storage, which is growing exponentially in the state of the art of deep learning. In this presentation, we will introduce an approach to study sparse deep neural networks through the lens of another related problem: sparse matrix factorization, i.e., the problem of approximating a (dense) matrix by the product of (multiple) sparse factors. In particular, we identify and investigate in detail some theoretical and algorithmic aspects of a variant of sparse matrix factorization named fixed support matrix factorization (FSMF) in which the set of non-zero entries of sparse factors are known. Several fundamental questions of sparse deep neural networks such as the existence of optimal solutions of the training problem or topological properties of its function space can be addressed using the results of (FSMF). In addition, by applying the results of (FSMF), we also study the butterfly parametrization, an approach that consists of replacing (large) weight matrices by the products of extremely sparse and structured ones in sparse deep neural networks.
Les réseaux de neurones profonds parcimonieux offrent une opportunité pratique convaincante pour réduire le coût de l'entraînement, de l'inférence et du stockage, qui augmente de manière exponentielle dans l'état de l'art de l'apprentissage profond. Dans cette présentation, nous introduirons une approche pour étudier les réseaux de neurones profonds parcimonieux à travers le prisme d'un autre problème: la factorisation de matrices sous constraints de parcimonie, c'est-à-dire le problème d'approximation d'une matrice (dense) par le produit de facteurs (multiples) parcimonieux. En particulier, nous identifions et étudions en détail certains aspects théoriques et algorithmiques d'une variante de la factorisation de matrices parcimonieux appelée factorisation de matrices à support fixe (FSMF), dans laquelle l'ensemble des entrées non nulles des facteurs parcimonieux est connu. Plusieurs questions fondamentales des réseaux de neurones profonds parcimonieux, telles que l'existence de solutions optimales du problème d'entraînement ou les propriétés topologiques de son espace fonctionnel, peuvent être abordées à l'aide des résultats de la (FSMF). De plus, en appliquant les résultats de la (FSMF), nous étudions également la paramétrisation du type "butterfly", une approche qui consiste à remplacer les matrices de poids (larges) par le produit de matrices extrêmement parcimonieuses et structurées dans les réseaux de neurones profonds parcimonieux.
Fichier principal
Vignette du fichier
main_tung.pdf (3.58 Mo) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

tel-04329531 , version 1 (07-12-2023)
tel-04329531 , version 2 (24-01-2024)

Licence

Paternité

Identifiants

  • HAL Id : tel-04329531 , version 1

Citer

Quoc-Tung Le. Algorithmic and theoretical aspects of sparse deep neural networks. Computer Science [cs]. Ecole Normale Supérieure de Lyon, 2023. English. ⟨NNT : ⟩. ⟨tel-04329531v1⟩

Collections

ANR
163 Consultations
84 Téléchargements

Partager

Gmail Facebook X LinkedIn More