ChatGPT, modèles de langage et données personnelles : quels risques pour nos vies privées ? - Université de Lyon Access content directly
Scientific Blog Post Year : 2023

ChatGPT, modèles de langage et données personnelles : quels risques pour nos vies privées ?

Abstract

Les grands modèles de langage ont récemment attiré beaucoup d'attention, notamment grâce à l'agent conversationnel ChatGPT. Cette plate-forme est devenue virale en seulement quelques mois et a déclenché une course effrénée pour développer de nouveaux modèles de langage toujours plus efficaces et puissants, rivalisant avec l'humain pour certaines tâches. Cette croissance phénoménale est d'ailleurs jugée dangereuse par de nombreux acteurs du domaine, qui plaident pour une pause afin d'avoir le temps de débattre sur l'éthique en IA et de mettre à jour les réglementations. Une des grandes questions qui se pose est l'articulation entre intelligence artificielle et vie privée des utilisateurs. En particulier, les prouesses des grands modèles de langage sont dues à un entraînement intensif sur d'énormes ensembles de données, qui contiennent potentiellement des informations à caractère personnel, car il n'y a pas d'obligation d'anonymiser les données d'entraînement. Il est alors difficile de garantir en pratique que le modèle ne compromet pas la confidentialité des données lors de son utilisation. Par exemple, un modèle pourrait générer des phrases contenant des informations personnelles qu'il a vues pendant sa phase d'entraînement.
Fichier principal
Vignette du fichier
TheConversation___chatGPT.pdf (128.99 Ko) Télécharger le fichier
Origin : Files produced by the author(s)

Dates and versions

hal-04371691 , version 1 (03-01-2024)

Licence

Attribution

Identifiers

  • HAL Id : hal-04371691 , version 1

Cite

Gaspard Berthelier, Antoine Boutet. ChatGPT, modèles de langage et données personnelles : quels risques pour nos vies privées ?. 2023. ⟨hal-04371691⟩
32 View
24 Download

Share

Gmail Facebook X LinkedIn More