Nuevas Tecnologías y ProductosTecnología

3 predicciones de IA para 2023 y más allá

> El campo de la inteligencia artificial (IA) ha experimentado un gran crecimiento en los últimos años.

> Las empresas que buscan aprovechar la IA deben superar las preocupaciones sociales clave.

> Las predicciones clave describen cómo lograr valor a partir del crecimiento responsable de la IA.

Si hay algo que sabemos con certeza al mirar el próximo año, es que las organizaciones que están preparadas para asumir la incertidumbre, desde las condiciones del mercado hasta los disturbios geopolíticos y todo lo demás, serán las más adecuadas para atender a sus clientes, empleados y accionistas.

El campo de la inteligencia artificial (IA) ha experimentado un crecimiento increíble en los últimos cinco años porque ha proporcionado nuevas capacidades para mitigar la incertidumbre al aprovechar los datos para responder rápidamente a entornos cambiantes tan pronto como llegan nuevos datos.

La tecnología y sus beneficios ya no son un gran desconocido para la mayoría, sino que muchos han visto de primera mano la capacidad que tiene la IA para trabajar de manera rápida y eficiente para resolver muchos de los desafíos más apremiantes de la sociedad. Lo hemos visto desempeñar un papel en la velocidad récord a la que se entregaron las vacunas contra el COVID-19, ayudar a los hospitales a identificar y tratar a sus pacientes con mayor riesgo y, en términos más generales, reducir enormemente la cantidad de errores humanos en los datos.

A medida que miramos hacia el próximo año, creemos que las ramificaciones de una mayor conciencia social sobre la IA, una mayor presión regulatoria, el mayor impulso de las inversiones en el espacio y cómo la IA seguirá aumentando la productividad de los empleados pueden llegar a un punto crítico. Las preocupaciones prácticas y aplicadas de la IA serán primordiales para permitir el valor continuo del crecimiento de la IA.

1. Mayor conciencia y preocupaciones éticas

El sesgo algorítmico ha sido un tema creciente de discusión y debate en el uso de la IA. Es un tema difícil de navegar, tanto por la complejidad potencial de identificar, analizar y mitigar matemáticamente la presencia de sesgo en los datos como por las implicaciones sociales de determinar qué significa ser «justo» en la toma de decisiones.

La equidad depende de la situación, además de ser un reflejo de los valores, la ética y las normas legales. Dicho esto, hay formas claras de abordar las cuestiones de equidad de la IA mediante el uso de datos y modelos con medidas de seguridad, así como los pasos sugeridos que las organizaciones pueden tomar para mitigar los problemas de sesgo descubierto.

La mayor fuente de sesgo en un sistema de IA son los datos con los que se entrenó. Esos datos pueden tener patrones históricos de sesgo codificados en sus resultados. En última instancia, el aprendizaje automático obtiene conocimiento de los datos, pero esos datos provienen de nosotros: nuestras decisiones y sistemas.

Debido al uso cada vez mayor de la tecnología y la mayor conciencia de la sociedad sobre la IA, es de esperar que las organizaciones auditen sus sistemas y los gobiernos locales trabajen para garantizar que el sesgo de la IA no afecte negativamente a sus residentes. En la ciudad de Nueva York, por ejemplo, entrará en vigencia una nueva ley en 2023 que penalizará a las organizaciones que tienen sesgo de IA en sus herramientas de contratación.

2. Mayor presión regulatoria

En el próximo año, espero que las empresas enfrenten una mayor presión regulatoria en torno a sus modelos de IA. Es probable que los cambios regulatorios incluyan requisitos en torno a las explicaciones de las predicciones individuales, así como registros detallados y seguimiento de la historia y el linaje de cómo se entrenaron los modelos.

En última instancia, la industria dará la bienvenida a una mayor regulación de la IA, como lo demuestra el 81% de los líderes tecnológicos que dijeron que les gustaría ver una mayor regulación gubernamental en una encuesta reciente de DataRobot. Sin embargo, el reciente Blueprint for an AI Bill of Rights, que proporciona un conjunto de cinco principios y prácticas asociadas para proteger los derechos del público estadounidense en la era de la IA, ha llevado a las empresas a actuar. Más empresas ahora son conscientes de tener que reaccionar ante la posible conversión de pautas voluntarias en regulaciones en industrias reguladas y los costos potenciales de lograr el cumplimiento de manera reactiva en un corto período de tiempo.

Debido a esto, predigo que la mayoría de las empresas necesitarán invertir en sistemas con un modelo de gobierno implementado. Al invertir en sistemas que cuentan con las medidas de protección adecuadas, las empresas pueden continuar enfocándose en la innovación tecnológica con la tranquilidad de saber que sus sistemas cumplen con las obligaciones legales y reglamentarias.

3. Más inversiones en el espacio

En 2023, espero ver un impulso continuo en las inversiones en IA, particularmente entre las empresas más directamente afectadas por las interrupciones económicas y de la cadena de suministro, así como industrias maduras que generalmente pueden escalar más la adopción de IA, como servicios financieros, comercio minorista, atención médica y fabricación. Sin embargo, también predigo que, si bien algunas inversiones progresarán, algunas tendencias de tecnología de IA seguirán siendo experimentales.

En cuanto a los servicios financieros, por ejemplo, espero que los casos de uso recurran a los sistemas de inteligencia artificial que pueden mejorar la precisión de la detección de fraudes y acelerar los laboriosos procesos de informes. Con expectativas crecientes y una avalancha de brechas de seguridad, los servicios financieros necesitan asegurar una ventaja competitiva con tecnologías de IA que puedan ayudar a mitigar estos problemas perjudiciales. Además, la IA ayudará a mejorar la satisfacción laboral y liberará a los empleados para que se concentren en agregar valor al cliente.

En cuanto a las tendencias tecnológicas, la IA generativa está recibiendo un gran interés en función de los modelos de aprendizaje profundo recientemente desarrollados (de OpenAI y otros). Sin embargo, predigo que estos modelos aún son demasiado nuevos para ser prácticos para la mayoría de las empresas debido a algunos desafíos. El primero es el hecho de que es difícil garantizar su comportamiento en cuestiones necesarias como la parcialidad y la equidad; a pesar de los esfuerzos, las versiones actuales pueden romperse fácilmente. Esto significa que las empresas deberán confiar verdaderamente en los proveedores de estos modelos, ya que no tendrán ninguna esperanza de construir o crear los suyos propios.

La adaptación de estos modelos para los casos de uso deseados también es difícil para la mayoría de hacerlo bien. Si bien espero ver que las empresas continúen trabajando con IA generativa, creo que las aplicaciones seguirán siendo experimentales para muchas empresas en el próximo año hasta que se comprendan mejor los casos comerciales y el retorno esperado de la inversión.

Sin embargo, en general, las empresas que se centren en desarrollar una mentalidad de IA en toda la organización al continuar realizando inversiones en el espacio e integrando completamente la IA en sus operaciones (incluida la evaluación de nuevos desarrollos) estarán mejor preparadas para manejar la incertidumbre del mercado e impulsar el éxito a largo plazo.

Autor: Michael Schmidt – Chief Technology Officer, DataRobot.

Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International Public License.

Imagen de cabecera: Getty Images/iStockphoto.

Este articulo es parte de:

Shaping the Future of Technology Governance: Artificial Intelligence and Machine Learning.

https://www.weforum.org/platforms/shaping-the-future-of-artificial-intelligence-and-machine-learning

Publicaciones relacionadas

Botón volver arriba