in

Les géants de la technologie nous alertent déjà sur les problèmes de confidentialité liés à l’IA.

APPLE RESTRICTS USE OF OPENAI AND MICROSOFT’S AI TECHNOLOGIES

Selon le Wall Street Journal, Apple a restreint l’utilisation de ChatGPT d’OpenAI et de Copilot de Microsoft. Le ChatGPT est resté sur la liste d’interdiction pendant des mois, a ajouté Bloomberg’s Mark Gurman. Ce n’est pas seulement Apple, mais aussi Samsung et Verizon dans le monde de la tech et une liste de grandes banques (Bank of America, Citi, Deutsche Bank, Goldman, Wells Fargo et JPMorgan) pour éviter tout éventuel vol ou fuite de données sensibles. Dans tous les cas, la politique de confidentialité de ChatGPT indique explicitement que les données personnelles peuvent être utilisées pour améliorer les modèles d’apprentissage de l’intelligence artificielle, sauf si les utilisateurs optent pour la confidentialité. Cette crainte de fuite de données n’est pas infondée, en mars, une faille dans le ChatGPT a exposé les données d’autres utilisateurs.

LE PROBLEME DE L’IA CHATBOTS

L’une des utilisations évidentes de cette technologie est le service client, où les entreprises cherchent à minimiser les coûts. Cependant, pour que ce service fonctionne, les clients doivent fournir des informations privées, parfois sensibles. Comment les entreprises prévoient-elles de sécuriser leurs robots de service client ? Ce n’est pas seulement un problème pour le service client. Imaginons que Disney ait décidé de laisser l’IA écrire ses films Marvel au lieu des départements VFX. Est-ce que Disney voudrait que des spoilers de Marvel fuitent ?

Les entreprises early-stage – comme une jeune version de Facebook, par exemple – ne prêtent généralement pas beaucoup attention à la sécurité des données. Dans ce cas, il est logique de limiter l’exposition des matériaux sensibles, comme le suggère OpenAI lui-même. (“S’il vous plaît, ne partagez aucune information sensible dans vos conversations.”) Ce n’est pas uniquement un problème spécifique à l’IA.

LES RISQUES D’EXPLOITATION

En outre, il y a la possibilité de l’espionnage d’entreprise délibéré. Initialement, cela semble être un problème pour l’industrie technologique – après tout, le vol de secrets commerciaux est l’un des risques ici. Cependant, les géants de la tech se sont lancés sur le marché du streaming, donc je me demande si cela ne pose pas également un problème pour le côté créatif des choses. Il y a toujours un compromis entre la confidentialité et l’utilité lorsqu’il s’agit de produits technologiques. Dans de nombreux cas – par exemple, celui de Google et de Facebook – les utilisateurs ont échangé leur vie privée contre des produits gratuits. Google’s BERT est explicite sur le fait que les requêtes seront utilisées pour “améliorer et développer les produits, services et technologies de machine learning de Google”.

CONCLUSION

Si les entreprises les plus obsédées par la sécurité verrouillent leur utilisation de l’IA, il pourrait y avoir une bonne raison pour que le reste d’entre nous le fasse aussi. Le risque de confondre succès de l’IA avec la metaverse qui n’a pas eu le succès escompté. Les entreprises qui veulent utiliser l’IA devront peut-être construire leur propre modèle propriétaire ou, au minimum, exécuter leur propre traitement, ce qui semble être trop coûteux et difficile à mettre à l’échelle.

What do you think?

Written by Pierre T.

Leave a Reply

Your email address will not be published. Required fields are marked *

Voici le nouveau concurrent de Twitter lancé par Instagram.

La NASA choisit Blue Origin pour concevoir une seconde navette lunaire habitée.