in

L’Italie interdit ChatGPT en raison des risques de données personnelles


# L’ITALIE BANNIT CHATGPT EN RAISON DU RISQUE DE DONNÉES PERSONNELLES

L’autorité italienne de protection des données, Garante, a bloqué ChatGPT dans le pays et lancé une enquête sur l’utilisation de données personnelles par le chatbot soutenu par Microsoft. Le régulateur a déclaré qu’il était préoccupé par les énormes quantités de données collectées par ChatGPT auprès de ses utilisateurs et qu’il n’y avait pas de base légale pour justifier une “collecte et un stockage massifs de données personnelles dans le but de ‘former’ les algorithmes sous-jacents au fonctionnement de la plateforme”. L’Italie devient ainsi le premier pays occidental à interdire OpenAI’s ChatGPT, qui est déjà bloqué dans des pays tels que la Chine, la Corée du Nord, l’Iran et la Russie.

## UNE VIOLATION DE DONNÉES PERSONNELLES

La Garante a signalé un bug logiciel dans ChatGPT le 20 mars, qui a exposé des parties des conversations des utilisateurs et des informations de paiement à d’autres utilisateurs pendant environ neuf heures. Cette violation a confirmé les avertissements précédents des observateurs de l’industrie : des informations sensibles entrées dans le chatbot peuvent être en danger. La Garante a ajouté que, étant donné que ChatGPT n’a pas de mécanisme de vérification de l’âge, il “expose les mineurs à des réponses absolument inappropriées par rapport à leur degré de développement et de conscience”. OpenAI dispose de 20 jours pour répondre à ces préoccupations ou devra payer une amende de 20 millions d’euros ou jusqu’à 4 % de ses revenus annuels.

## LA RÉGLEMENTATION DE L’IA

OpenAI a déclaré avoir bloqué ChatGPT en Italie et être convaincu qu’il est conforme au RGPD et à d’autres lois sur la protection des données. L’entreprise a travaillé à réduire les données personnelles utilisées dans la formation des systèmes d’IA et a ajouté que “la réglementation de l’IA est nécessaire – nous sommes impatients de travailler en étroite collaboration avec la Garante et de les éduquer sur la façon dont nos systèmes sont construits et utilisés”. L’Italie avait déjà interdit Replika.ai en février, qui est alimenté par le même système que ChatGPT.

Les avocats de la protection des données ont averti des risques de non-conformité réglementaire. Selon l’entreprise de cybersécurité Cyberhaven, des données sensibles représentent 11 % de ce que les employés de l’entreprise entreraient dans ChatGPT. Le cabinet d’avocats britannique spécialisé dans les violations de données, Hayes Connor, a également émis une mise en garde, déclarant que “les modèles de langage de grande taille tels que ceux qui alimentent ChatGPT étant encore à leurs ‘étapes de jeunesse’, les entreprises qui les utilisent se trouvent ‘en terrain inconnu’ en termes de conformité au RGPD”. Les entreprises qui utilisent ChatGPT sans une formation adéquate et des mesures réglementaires s’exposent à des violations de données RGPD, entraînant des amendes importantes, des dommages de réputation et des poursuites judiciaires.

Sources :

1. Silicon UK : https://www.silicon.co.uk/e-innovation/artificial-intelligence/italian-regulator-blocks-chatgpt-investigation-launched-over-personal-data-use-360260
2. Garante Privacy : https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9641175
3. Silicon UK : https://www.silicon.co.uk/e-innovation/artificial-intelligence/openai-fixes-bug-with-chatgpt-that-exposed-user-chats-503046
4. Silicon UK : https://www.silicon.co.uk/e-innovation/artificial-intelligence/italy-joins-countries-banning-replika-chatbot-over-data-fears-355423
5. Cyberhaven : https://cyberhaven.com/the-risks-of-chatbots/
6. Hayes Connor : https://www.hayesconnor.co.uk/can-you-trust-chatbots-with-your-personal-data/

What do you think?

Written by Barbara

Leave a Reply

Your email address will not be published. Required fields are marked *

Diffusion Stable XL – Des images plus riches et une esthétique améliorée à partir de prompts plus courts.

Liaison de puces avec la lumière pour une IA plus rapide