in

Quatre investisseurs expliquent pourquoi l’éthique de l’IA ne peut pas être une réflexion secondaire.


FOUR INVESTISSEURS EXPLIQUENT POURQUOI L’ÉTHIQUE DE L’IA NE PEUT PAS ÊTRE UNE PENSÉE ACCESSOIRE

L’IA reçoit des milliards de dollars d’investissements. Pourtant, les modèles d’IA sont déjà affectés par des préjugés, comme en témoigne la discrimination hypothécaire envers les futurs propriétaires noirs. Il est raisonnable de se demander quel rôle joue l’éthique dans la construction de cette technologie, et, peut-être plus important encore, où les investisseurs se situent alors qu’ils cherchent à la financer.

DILIGENCE RAISONNABLE ET REFLEXION SUR L’ÉTHIQUE

Certains investisseurs disent qu’ils abordent cela en faisant une diligence raisonnable sur l’éthique du fondateur pour déterminer s’il continuera à prendre des décisions que la société peut soutenir. “L’empathie du fondateur est un énorme signal vert pour nous”, déclare Alexis Alston, principal chez Lightship Capital. “Ces personnes comprennent que, bien que nous cherchions des retours de marché, nous cherchons également à ce que nos investissements n’aient pas d’impact négatif sur la planète.”

D’autres investisseurs pensent que poser des questions difficiles peut aider à séparer le bon grain de l’ivraie. “Toute technologie apporte avec elle des conséquences imprévues, qu’il s’agisse de préjugés, de réduction de l’agence humaine, de violations de la vie privée ou autre”, explique Deep Nishar, directeur général chez General Catalyst. “Notre processus d’investissement consiste à identifier de telles conséquences imprévues, à en discuter avec les équipes fondatrices et à évaluer si des mesures de sauvegarde sont ou seront en place pour les atténuer.”

RÉGLEMENTATION ET LÉGISLATION DE L’IA

Les politiques gouvernementales s’attaquent également à l’IA : l’Union européenne a adopté des lois sur l’apprentissage automatique, et les États-Unis ont introduit des plans pour une force opérationnelle sur l’IA pour commencer à examiner les risques associés à l’IA. Cela s’ajoute à la Déclaration des droits de l’IA présentée l’année dernière. Avec de nombreuses grandes sociétés de capital-risque injectant de l’argent dans des projets d’IA en Chine, il est important de se demander comment l’éthique mondiale de l’IA peut être appliquée à travers les frontières également.

Alexis Alston de Lightship Capital estime que la législation aux États-Unis n’aura pas un impact majeur sur le développement de l’AI, vu la manque de connaissance technique et de sophistication dans le gouvernement américain. En revanche, il est important de renforcer la due diligence sur l’éthique des fondateurs et de lutter contre les préjugés dans les modèles d’AI.

Les investisseurs jouent un rôle crucial dans le développement éthique de l’IA, en exigeant des fondateurs de prendre en compte les conséquences imprévues de leurs projets. Les politiques gouvernementales sont également nécessaires pour limiter les préjugés et garantir l’éthique mondiale de la technologie.

SOURCES :

– L’UE passe des lois sur l’apprentissage automatique : https://artificialintelligenceact.eu/
– Les États-Unis introduisent des plans pour une force opérationnelle sur l’IA : https://www.reuters.com/technology/us-senator-introduces-bill-targeting-ais-shortfalls-2023-04-28/
– Déclaration des droits de l’IA : https://www.whitehouse.gov/ostp/ai-bill-of-rights/
– Sequoia et d’autres sociétés de capital-risque financent des projets d’IA en Chine : https://www.theinformation.com/articles/sequoia-and-other-u-s-backed-vcs-are-funding-chinas-answer-to-openai

What do you think?

Written by Pierre T.

Leave a Reply

Your email address will not be published. Required fields are marked *

Guide d’intégration Fintech 2023 – Plus de 20 biais cognitifs à éviter et à utiliser pour votre intégration.

Sparkmesh – Suivez facilement tous vos artistes musicaux préférés.