Economie

L’IA sera la source de «la crise de 2027 ou 2032» selon Gensler (SEC)



Investing.com — Gary Gensler, président de la Securities and Exchange Commission (SEC), s’est exprimé à propos des dangers de l’IA, estimant que cette nouvelle technologie pourrait être la source de «la crise de 2027 ou 2032».

À l’occasion d’une séance de questions-réponses lors d’une conférence de la Federal Reserve Bank of Atlanta lundi, il a été interrogé sur divers sujets, dont les risques potentiels de l’intelligence artificielle pour la stabilité financière.

«Je pense que nous vivons l’une des périodes les plus transformatrices de ma vie, et même une période tout aussi transformatrice que l’internet lui-même», a-t-il déclaré. Il a par ailleurs souligné que l’intelligence artificielle a déjà commencé à transformer un certain nombre de domaines, y compris celui de la finance.

Or, le patron de la SEC estime que la concentration de ces outils et la dépendance du secteur financier à leur égard pourraient entraîner des risques importants. «La concentration et l’interconnexion vont-elles s’intensifier ?», a-t-il demandé. «Combien de couches génératives basées sur l’IA allons-nous avoir aux États-Unis ? Est-ce que ce sera deux, trois, quatre ? Ce sera probablement très concentré.»

Selon M. Gensler, l’opacité est un autre problème récurrent dans l’histoire des crises financières, et c’est également un problème avec les IA, dont même leurs créateurs admettent ne pas totalement comprendre comment elles fonctionnent.

«On parle d’explicabilité ou d’opacité, et nous avons vu des crises financières au fil des décennies qui en découlent, qu’il s’agisse de l’opacité du marché hypothécaire et du marché des swaps de défaut de crédit, ou d’autres opacités que nous avons constatées dans l’explicabilité des modèles eux-mêmes», a-t-il déclaré.

M. Gensler a ainsi estimé que «la crise de 2027 ou 2032» pourrait être causée par des personnes qui s’appuient sur le même agrégateur de données hypothécaires basé sur l’IA, sur le même outil de souscription ou sur le même niveau d’analyse des sentiments, avec des résultats catastrophiques.

«Il s’agit simplement d’une économie de réseau de base associée à cette technologie remarquable» a-t-il résumé.

Enfin, Gensler a estimé que la technologie IA pourrait poser un risque systémique dans un avenir très proche, plus précisément «le risque que l’ensemble du système s’appuie sur des agrégateurs de données concentrés, une IA générative concentrée qui est susceptible d’apparaître assez rapidement».

Source

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»