Anuncio

Opinión: Por qué debemos estar preocupados por la inteligencia artificial en wall street

El Watson de IBM es un sistema de aprendizaje automático conocido por ganar "Jeopardy" mientras juega contra humanos, y una señal de cuán lejos ha llegado la inteligencia artificial.
El Watson de IBM es un sistema de aprendizaje automático conocido por ganar “Jeopardy” mientras juega contra humanos, y una señal de cuán lejos ha llegado la inteligencia artificial.
(Washington Post)

A medida que AI se afiance en Wall Street, podría cambiar fundamentalmente la forma en que funciona nuestro sistema financiero. También podría causar caos financiero.

Share

Hasta hace poco, la inteligencia artificial ha luchado por establecerse en Wall Street. No más.

En los últimos años, los grandes bancos de inversión como Goldman Sachs y JP Morgan han contratado especialistas en inteligencia artificial fuera de la academia y los han puesto a cargo de sus divisiones internas de inteligencia artificial. Las nuevas empresas de tecnología financiera han comenzado a utilizar algoritmos de aprendizaje automático para modelar calificaciones crediticias y detectar fraudes. Y los fondos de cobertura y los operadores de alta frecuencia están utilizando IA para tomar decisiones de inversión.

Los políticos están empezando a darse cuenta. A mediados de octubre, el recién formado Grupo de Trabajo sobre Inteligencia Artificial del Comité de Servicios Financieros de la Cámara celebró audiencias sobre cómo AI podría plantear preocupaciones sobre la privacidad de los datos en la industria financiera. En junio, la senadora Elizabeth Warren hizo un llamado a los reguladores federales para tomar medidas enérgicas contra la “discriminación algorítmica” por parte de las instituciones financieras, señalando que las compañías de tecnología financiera a menudo cobran a las minorías tasas de interés más altas.

Anuncio

La inteligencia artificial también podría cambiar fundamentalmente la forma en que funciona nuestro sistema financiero. Y hasta que comprendamos cómo podrían desarrollarse esos cambios, estaremos mal equipados para enfrentarlos. En la última década, el campo más amplio de la inteligencia artificial ha avanzado notablemente. Hemos visto a la IA vencer a los mejores jugadores del mundo de “Jeopardy” y el antiguo juego de mesa Go, identificar genes desconocidos relacionados con la enfermedad de Lou Gehrig y conducir autos sin conductor en las calles de Phoenix. Estos logros han sido permitidos por mejores algoritmos, computadoras más potentes y conjuntos de datos cada vez más grandes.

Por muchas razones, el aumento de la inteligencia financiera artificial en Wall Street debería ser aplaudido. Es bueno si podemos encontrar formas de desplegar capital de manera más eficiente, identificar el riesgo con mayor precisión o simplemente ganar dinero más rápido. Puede suavizar los engranajes del comercio.

Pero cada nueva herramienta tiene sus peculiaridades y sus riesgos, y la IA no es una excepción.

Los problemas con la IA en las finanzas provienen de la forma en que funcionan los algoritmos de IA. Hoy, cuando las personas hablan de IA, realmente están hablando de un campo específico de la informática conocido como aprendizaje automático. Los algoritmos de aprendizaje automático reciben grandes cantidades de información y predicen eventos futuros mediante la identificación de patrones en la información. En la base de este complejo sistema se encuentran los datos, que impulsan la IA.

Pero las características de la IA que le han permitido tener tanto éxito en otros ámbitos también lo hacen peligroso cuando se aplica al mundo financiero. Estas amenazas reflejan los problemas que crearon la última crisis financiera, cuando los derivados complejos y las hipotecas subprime mal entendidas enviaron al mundo a una profunda depresión, y deben tomarse en serio.

Por un lado, la IA podría provocar que las burbujas financieras crezcan o duren más al alimentar las llamas de la exuberancia irracional. Los algoritmos de aprendizaje automático se basan en grandes conjuntos de datos para hacer predicciones sobre el mundo.

Si los datos utilizados para hacer estas predicciones no están actualizados, podría producirse un caos financiero.

Imagínese si entrenara a una IA en un conjunto de datos que incluía los rendimientos del mercado de valores de 1992 a 2000, podría concluir que las acciones tecnológicas siempre superaron a las acciones no tecnológicas porque eso fue cierto durante ese lapso de tiempo. No influiría en la información de la explosión de la burbuja ‘puntocom’ en 2002 que alteraría esta conclusión. Los algoritmos de IA entrenados en datos asimétricos podrían invertir aún más dinero en acciones tecnológicas, lo que infla aún más la burbuja.

Los optimistas de la IA dirían que, claro, la IA tiene limitaciones, pero los responsables de la toma de decisiones son conscientes de ellas y responderán adecuadamente. La IA es simplemente otra herramienta en la herramienta.

Pero debido a que los algoritmos de IA son tan complejos y dependientes de los datos, es extremadamente difícil entender cómo funcionan. La difusión de instrumentos financieros complejos e inescrutables fue la raíz de la crisis financiera de 2007 y bien puede ser la raíz de la próxima.

Aprendimos del último colapso que cuando algo es difícil de entender, como las obligaciones de deuda colaterales que agrupaban colecciones de hipotecas de alto riesgo de una manera que pretendía hacerlas seguras, también es difícil de adivinar. Si los tomadores de decisiones financieras tienen una recomendación de IA, que contiene una “respuesta” clara y pretende estar basada en millones de datos, será difícil ignorarla. Podría convertirse no tanto en una herramienta como en una muleta.

Quizás lo más importante es que no estamos seguros de cómo los algoritmos de IA interactuarán entre sí en las selvas de Wall Street. En los mercados de capitales, los precios de las acciones dependen en gran medida de las decisiones de otros participantes en el mercado. Si la mayoría de los participantes son impulsados por la inteligencia artificial y adoptan estrategias de aprendizaje automático ampliamente similares, podrían crear efectos de eco donde todos se acumulen (o salgan) de un stock en cualquier momento. Los bloqueos repentinos pueden volverse más frecuentes como resultado.

Esto es particularmente preocupante dado el surgimiento de estrategias adversas simples pero devastadoramente efectivas que intentan engañar a los algoritmos de IA para que se comporten de maneras inesperadas. Por ejemplo, un estudio descubrió que pegar unas pequeñas etiquetas adhesivas en blanco y negro en una señal de alto engañaba a un algoritmo de reconocimiento de imágenes para que nunca lo reconociera.

Si bien esto crea un problema importante para los automóviles autónomos, podría causar estragos en el mundo financiero. Los malos actores pueden difundir información financiera que se sabe que hace que los algoritmos de inversión fallen, o manipulan intencionalmente datos para ocultar el fraude.

Warren tenía razón al llamar la atención sobre los problemas de la IA en las finanzas, y los reguladores federales deberían tomar en serio sus preocupaciones. Esto es mucho más que un simple juego de “Jeopardy” o Go. Se trata de garantizar que la tecnología haga que las finanzas sean mejores, más justas y más eficientes para todos.

William Magnuson es profesor asociado en la Facultad de Derecho de Texas A&M, donde investiga tecnología, corporaciones y regulación financiera.

Para leer esta nota en inglés, haga clic aquí.

Anuncio