OpenAI est sommé de se conformer aux lois de l'UE avant le mois de mai
À la fin de mars, les autorités italiennes ont sommé OpenAI d’arrêter complètement son service d’IA. La décision a été prise après une violation de données des clients de ChatGPT et de GPT API. L’Italie est alors devenue le premier pays occidental à rejeter purement et simplement les produits GPT d’OpenAI. À présent, le pays impose un ultimatum à OpenAI.
Une mesure qui pourrait être difficile à respecter
OpenAI, qui poursuit son expansion malgré la controverse, doit faire face à un nouveau défi. Les autorités italiennes ont accordé à l’entreprise jusqu’au 30 avril pour rendre ChatGPT conforme aux lois de l’UE. Le service d’intelligence artificielle devra respecter les réglementations locales et GDPR en matière de confidentialité. Pour les experts en IA, cette tâche est presque impossible à réaliser, en raison de la complexité de l’architecture des modèles de la plateforme.
Les experts ont expliqué que les modèles d’OpenAI sont entraînés à partir de données massives obtenues via Internet. Ces dernières sont regroupées dans des ensembles d’entraînement afin de créer un paradigme appelé « émergence ». Dans ce paradigme, les modèles montrent leurs caractéristiques de manière imprévisible.
Cela signifie qu’il est rare que les développeurs réussissent à savoir exactement ce que contient l’ensemble de données. De plus, la plateforme d’IA fusionne plusieurs points de données pour générer des résultats. Dans ce contexte, il est difficile pour les développeurs d’extraire ou de modifier des éléments de données individuels.
Retour sur ce que l’Italie reproche à OpenAI
Les autorités avaient publié une ordonnance pour faire arrêter les activités d’OpenAI. « Dans son ordonnance, la SA italienne souligne qu’aucune information n’est fournie aux utilisateurs et aux personnes concernées dont les données sont collectées par OpenAI », ont-elles expliqué.
Aussi, l’ordonnance a révélé que la collecte et le traitement massifs de données personnelles avec ChatGPT ne sont soumis à aucune base juridique. Pourtant, cette dernière devrait exister pour « entraîner les algorithmes sur lesquels la plateforme s’appuie ».
À présent, OpenAI doit fournir une base juridique pour la collecte de données à grande échelle, afin de devenir conforme en Italie. L’entreprise doit également mettre en œuvre des mesures de vérification de l’âge. Il convient de souligner que les problèmes de confidentialité n’affectent pas que le secteur de l’IA. Ils touchent aussi la crypto, et pour preuve, des organismes militent pour qu’une législation sur la confidentialité s’impose dans le secteur.
Maximisez votre expérience Cointribune avec notre programme 'Read to Earn' ! Pour chaque article que vous lisez, gagnez des points et accédez à des récompenses exclusives. Inscrivez-vous dès maintenant et commencez à cumuler des avantages.
Diplômé de Sciences Po Toulouse et titulaire d'une certification consultant blockchain délivrée par Alyra, j'ai rejoint l'aventure Cointribune en 2019. Convaincu du potentiel de la blockchain pour transformer de nombreux secteurs de l'économie, j'ai pris l'engagement de sensibiliser et d'informer le grand public sur cet écosystème en constante évolution. Mon objectif est de permettre à chacun de mieux comprendre la blockchain et de saisir les opportunités qu'elle offre. Je m'efforce chaque jour de fournir une analyse objective de l'actualité, de décrypter les tendances du marché, de relayer les dernières innovations technologiques et de mettre en perspective les enjeux économiques et sociétaux de cette révolution en marche.
Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.