OpenAI et ChatGPT ont 10 jours se conformer aux lois sur la confidentialité de l’UE

OpenAI (ChatGPT) pourrait avoir du mal à se conformer aux réglementations italiennes et européennes en matière de protection des données d’ici la date limite du 30 avril, ce qui pose des défis pour les opérations de l’entreprise en Europe.
ia europe
Possédez ce bout d'histoire
Profitez de nombreux avantages en collectionnant nos actualités

Dernière modification effectuée le 09.10.2023 14:25

Les régulateurs italiens ont fixé au 30 avril la date limite pour qu'OpenAI se conforme aux lois locales et européennes en matière de protection des données et de confidentialité. Cela fait suite à l'interdiction totale des produits GPT d'OpenAI en Italie fin mars, à la suite d'une violation de données impliquant des clients de ChatGPT et GPT API. Atteindre la conformité avec le Règlement général sur la protection des données (RGPD) de l'UE et les réglementations italiennes sur la confidentialité pourrait s'avérer une tâche ardue pour OpenAI en raison de la nature de l'architecture de son modèle d'IA et des processus de collecte de données.

L'ordre italien exige qu'OpenAI fournisse des informations aux utilisateurs dont les données sont collectées, établisse une base légale pour la collecte massive et le traitement des données personnelles, et mette en place des mesures de vérification de l'âge pour se conformer aux conditions d'utilisation de l'entreprise.

Complexités de la collecte de données dans les modèles d'IA

Les modèles d'OpenAI sont formés sur des ensembles de données volumineux provenant d'Internet, ce qui rend difficile la conformité aux exigences du RGPD. Selon le RGPD, les entreprises doivent obtenir le consentement des utilisateurs pour utiliser leurs données personnelles à des fins de formation et offrir aux utilisateurs la possibilité de se désinscrire de la collecte et du partage de données. Le défi pour OpenAI réside dans le paradigme “d'émergence” de son modèle, où des traits utiles apparaissent de manière imprévisible en raison de la formation en boîte noire. Ce processus rend presque impossible pour les développeurs de connaître les spécificités de leur ensemble de données et de modifier des éléments de données individuels.

L'experte en éthique de l'IA, Margaret Mitchell, suggère qu'OpenAI trouvera “presque impossible d'identifier les données individuelles et de les supprimer de ses modèles“. Pour atteindre la conformité, OpenAI doit soit démontrer que le consentement de l'utilisateur a été obtenu, soit prouver un “intérêt légitime” à collecter les données.

Bataille juridique potentielle et extension des actions réglementaires

Lilian Edwards, professeure de droit de l'Internet à l'Université de Newcastle, estime que l'affaire OpenAI pourrait atteindre la Cour de justice de l'Union européenne, la plus haute juridiction de l'UE, en raison de la gravité des violations. Si OpenAI ne parvient pas à identifier et supprimer les données individuelles ou à rectifier les données erronées, il se peut qu'elle ne puisse pas exploiter les produits ChatGPT en Italie après la date limite du 30 avril.

De plus, les régulateurs français, allemands, irlandais et de l'UE envisagent également des mesures pour réguler ChatGPT, ce qui indique que les défis d'OpenAI pourraient s'étendre au-delà de l'Italie. Alors que l'entreprise est aux prises avec des problèmes de conformité, cet examen réglementaire pourrait avoir un impact significatif sur les opérations européennes d'OpenAI et l'avenir des modèles d'IA dans la région.

Articles qui pourraient vous intéresser