
Meta et l’IA : une enquête révèle que seuls 7 % des utilisateurs européens soutiennent l’usage de leurs données

Meta s’expose à une nouvelle tempête réglementaire en Europe. Le groupe de Mark Zuckerberg a commencé à utiliser les données personnelles des utilisateurs européens de Facebook et Instagram pour entraîner ses modèles d’intelligence artificielle. Contrairement à ce que prévoit le Règlement général sur la protection des données (RGPD), l’entreprise n’a pas sollicité de consentement explicite. Elle invoque plutôt la base juridique de « l’intérêt légitime ».
Or, une enquête commandée par l’association de défense de la vie privée noyb auprès de l’institut Gallup montre que cette justification est loin de refléter les attentes réelles des utilisateurs.
Des résultats accablants : une large majorité rejette le projet
L’étude, menée auprès de 1 000 utilisateurs allemands, révèle que :
- seuls 7 % acceptent que leurs données personnelles servent à entraîner l’IA de Meta ;
- 27 % n’étaient même pas au courant de l’existence de ce projet ;
- extrapolé à l’échelle européenne, cela représente environ 68 millions de personnes tenues totalement dans l’ignorance.
Pour rappel, le RGPD exige, lorsqu’une entreprise invoque « l’intérêt légitime », que les attentes raisonnables des personnes concernées soient respectées. Or, l’enquête confirme que la grande majorité des Européens ne considèrent pas ce traitement comme acceptable.
Une information volontairement limitée
Un autre enseignement de l’étude concerne la communication de Meta. Si environ deux tiers des utilisateurs disent avoir entendu parler de l’initiative, ce n’est pas principalement grâce à l’entreprise elle-même. Une information volontairement limitée
Un autre enseignement de l’étude concerne la communication de Meta. Si environ deux tiers des utilisateurs disent avoir entendu parler de l’initiative, ce n’est pas principalement grâce à l’entreprise elle-même.
- Seuls 40 % des utilisateurs d’Instagram se rappellent avoir vu une notification intégrée à l’application – notification qui était en réalité dissimulée dans un menu secondaire.
- Côté Facebook, seuls 39 % se souviennent d’un e-mail d’information, envoyé avec un objet qui incitait à passer le message sous silence.
- L’âge joue également un rôle : à peine 21 % des 16-30 ans se souviennent d’avoir été informés par Meta, contre 48 % des plus de 60 ans.

RGPD : une base légale très fragile
En vertu de l’article 6 du RGPD, deux bases juridiques pourraient, en théorie, permettre à Meta d’utiliser les données :
- le consentement (article 6-1 a), qui suppose une information claire, un choix libre et la possibilité de retrait ;
- l’intérêt légitime (article 6-1 f), à condition que l’entreprise puisse démontrer que ses intérêts prévalent sans porter atteinte aux droits fondamentaux des utilisateurs.
Dans ce dossier, la balance semble déséquilibrée. L’entraînement de systèmes d’IA à des fins commerciales pèse difficilement face au droit fondamental à la protection des données personnelles. De plus, la communication jugée trompeuse (notifications peu visibles, e-mails dissimulés) fragilise encore la position de Meta.
L’AI Act : un nouveau cadre qui resserre l’étau
Au-delà du RGPD, l’entrée en application progressive du Règlement européen sur l’intelligence artificielle (AI Act) va compliquer la situation pour Meta. Ce texte impose notamment :
- des obligations de transparence sur l’utilisation des données pour l’entraînement des systèmes ;
- une attention particulière lorsque les données proviennent d’utilisateurs européens, afin d’éviter des usages abusifs ou non souhaités ;
- des contrôles renforcés par les autorités nationales et la Commission européenne.
Dans ce contexte, le fait de continuer à exploiter massivement les données personnelles sans consentement explicite pourrait placer Meta en position de non-conformité simultanée avec le RGPD et l’AI Act.
L’enquête met aussi en lumière certaines disparités :
- seuls 21 % des jeunes de 16 à 30 ans se souviennent d’avoir reçu une notification de Meta, contre près de la moitié des plus de 60 ans ;
- 10 % des hommes se disent favorables à l’usage de leurs données, contre seulement 4 % des femmes.
Ces chiffres traduisent à la fois un déficit d’information et une réticence générale à l’idée de voir ses données sociales utilisées pour améliorer des modèles d’IA.
Quels risques pour Meta ?
Les conséquences pour Meta pourraient être multiples :
- réglementaires, avec des enquêtes probables des autorités de protection des données (CNIL, DPC en Irlande, etc.) ;
- juridiques, puisque noyb envisage une action collective pour obtenir réparation ;
- financières, l’ONG estimant que le préjudice moral pourrait être valorisé à 500 € par utilisateur, soit un risque théorique de plus de 130 milliards d’euros pour 274 millions d’Européens concernés ;
- réputationnelles, enfin, car l’étude montre clairement que la stratégie de Meta va à l’encontre des attentes de ses propres utilisateurs.
Une tension croissante entre innovation et droits fondamentaux
L’affaire illustre un dilemme central : comment concilier les ambitions des géants du numérique en matière d’IA avec les exigences européennes de protection des données ?
Si Meta persiste dans une interprétation extensive de l’ »intérêt légitime », elle risque de se heurter non seulement aux garde-fous du RGPD, mais aussi au nouvel arsenal de l’AI Act. À terme, cette approche pourrait coûter bien plus cher que la mise en place d’un consentement clair et respectueux des choix des utilisateurs.
Meta, déjà plusieurs fois sanctionnée pour non-respect du RGPD, semble rejouer la même stratégie, au risque d’un bras de fer encore plus coûteux.
Envie d’aller plus loin ?
Une formation spécialement dédié sur l’AI ACT et le RGPD est déjà disponible.
Besoin de mettre en conformité vos pratiques ? : contactez-nous
Articles similaires

