ChatGPT : OpenAI est accusé d’enfreindre les réglementations de l’UE sur la vie privée

OpenAI fait l’objet d’une plainte en Autriche pour violation présumée des lois européennes sur la protection des données, accusé par Noyb de fournir des informations erronées via ChatGPT.
worldcoin france regulation enquete
Possédez ce bout d'histoire
Profitez de nombreux avantages en collectionnant nos actualités
Getting your Trinity Audio player ready...
  1. Le Centre européen pour les droits numériques accuse OpenAI d'enfreindre les réglementations de l'UE sur la vie privée.
  2. Noyb accuse OpenAI de fournir des informations incorrectes par le biais de ChatGPT et de refuser de corriger les données ou de divulguer ses sources d'information.
  3. La plainte demande une enquête sur la manière dont OpenAI traite les données personnelles et garantit leur exactitude.

OpenAI, développeur du fameux ChatGPT, fait face à une plainte pour atteinte à la vie privée déposée par le Centre européen pour les droits numériques en Autriche, Noyb. Cette organisation accuse le chatbot génératif de l'entreprise, de fournir des informations erronées et de potentiellement enfreindre les réglementations européennes sur la vie privée.

Accusations de fourniture d'informations inexactes

Le 29 avril, Noyb a ouvert une plainte alléguant qu'OpenAI n'avait pas corrigé les informations fausses fournies par ChatGPT. Selon le groupe, un personnage public, dont le nom n'a pas été divulgué, a demandé des informations à propos de lui-même via le chatbot d'OpenAI et a reçu des données systématiquement incorrectes.

OpenAI aurait refusé la demande du personnage public de corriger ou d'effacer les données, affirmant que cela n'était pas possible. L'entreprise a également refusé de révéler des informations concernant ses données d'entraînement et leurs sources.

Implications légales et actions de Noyb

Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur les personnes. La technologie doit suivre les exigences légales, et non l'inverse.

Maartje de Graaf, avocate du Centre européen pour les droits numériques

Maartje de Graaf, avocate spécialisée dans la protection des données chez Noyb, a commenté l'affaire, soulignant que si un système ne peut pas produire des résultats précis et transparents, il ne devrait pas être utilisé pour générer des données sur des individus.

Elle insiste sur le fait que la technologie doit se conformer aux exigences légales. Noyb a porté sa plainte devant l'autorité autrichienne de protection des données, demandant une enquête sur le traitement des données par OpenAI et sur la manière dont elle garantit l'exactitude des données personnelles traitées par ses modèles de langage.

Contexte réglementaire et affaires d'OpenAI

Noyb, également connu sous le nom de Centre européen pour les droits numériques, basé à Vienne, s'engage à lancer des « cas judiciaires stratégiques et des initiatives médiatiques » qui soutiennent les lois du Règlement général sur la protection des données de l'Union européenne. Ce n'est pas la première fois que ChatGPT ou des chatbots sont pointés du doigt en Europe par des activistes ou des chercheurs.

En décembre 2023, une étude menée par deux organisations à but non lucratif européennes a révélé que le chatbot AI de Bing de Microsoft, rebaptisé Copilot, fournissait des informations trompeuses ou inexactes concernant des élections locales en Allemagne et en Suisse. Le chatbot donnait des réponses inexactes sur les informations des candidats, les sondages, les scandales et le vote tout en citant mal ses sources.

Un autre cas, bien que non spécifique à l'UE, a été observé avec le chatbot AI Gemini de Google, qui fournissait des imageries étranges par rapport à l'ethnie demandée dans son générateur d'images. Google a présenté des excuses pour l'incident et a annoncé une mise à jour de son modèle.

Articles qui pourraient vous intéresser