Quitarle el velo a la inteligencia artificial

La inteligencia artificial está presente en muchas de las actividades que realizamos día a día, pero tal vez no de la manera en que la imaginamos: todavía hay mucho camino por recorrer y es importante saber cuáles son las posibilidades y los riesgos de su desarrollo y utilización.

¿Cómo regular tecnologías que apenas podemos entender?

Cuando hablamos de algoritmos que hacen recomendaciones en plataformas de videos o en redes sociales, falsifican videos de famosos con deepfake o permiten la autonomía funcional de los autos, estamos hablando de los progresos más recientes de la inteligencia artificial (IA). Aunque en realidad estos desarrollos preceden por muchas décadas a su popularidad actual, el nuevo auge de la IA se debe al avance de la tecnología que vimos durante los últimos años.

El objetivo original de la IA es dar lugar a computadoras pensantes o, al menos, computadoras que puedan resolver problemas semejantes a los que resuelve la cognición en el cerebro humano, de maneras cada vez más flexibles. En ese sentido, los avances de la Inteligencia Artificial en la última década son impresionantes, pero las computadoras no están todavía cerca de aprender a pensar y resolver problemas como lo hacemos los humanos, sino que son y hacen otras cosas.

Los avances recientes que se popularizan con el nombre de Inteligencia Artificial se tratan de un maridaje entre la estadística y las ciencias de la computación, o sea, son el resultado de computadoras modernas que, con el uso de algoritmos, tratan de aprender patrones a partir de muchos datos. En esta poderosa combinación nace lo que se llama el aprendizaje de máquina o aprendizaje automático (machine learning), que es el área de la IA que ha mostrado recientemente mayores progresos.

Entrenar un modelo para una maratón desconocida

Los avances recientes en machine learning dieron lugar a la resolución de problemas específicos —problemas de diverso grado de complejidad— por parte de las computadoras, y las científicas de datos y los desarrolladores que las programan. Estos sistemas funcionan en general ajustando los parámetros ―un gran conjunto de números― de un modelo matemático (a partir de ahora lo llamaremos simplemente “modelo”) según un gran conjunto de datos de entrada.

El modelo busca minimizar el error en sus predicciones en otro conjunto de datos separados con fines de testeo. A este proceso se le llama “entrenar” un modelo con datos: podemos pensarlo como aprender a cocinar variando cada vez los ingredientes y los condimentos, pero poniendo el foco en tratar de maximizar el buen gusto del plato resultante.

Para lograr un buen modelo es necesario contar con una gran cantidad y variedad de datos ―big data― que le permitan al modelo generalizar el problema y llegar a un resultado en las condiciones del mundo real, que en general son más diversas e impredecibles que las condiciones de los datos con los que contamos. Los modelos son entonces la forma que tenemos de ordenar la gran cantidad de información que extraemos del mundo, liberarnos de los casos particulares y quedarnos solo con las grandes regularidades, extrayendo la señal y separándola del ruido.

A medida que los problemas se van complejizando, los modelos se complejizan también y, a medida que estos se complejizan, siguen logrando resolver los problemas planteados, generando un ciclo de retroalimentación positiva cuyo límite no está claro hasta el momento. Esto genera una enorme expectativa en términos de las aplicaciones que se podrán desarrollar en el futuro.

En la actualidad, este tipo de modelos se usan como sistemas de recomendación en plataformas de video, e-commerce y redes sociales ―definen qué nos puede llegar a atraer más según lo que consumimos anteriormente―; como clasificadores de usuarios, con fines de aumentar el consumo, fines bancarios o financieros; y también con fines de gobierno, o se usan en sistemas de detección de objetos o reconocimiento facial. A estas se suma otra gran cantidad de aplicaciones que nos atañen como ciudadanos y personas sobre las cuales estos modelos se usan, y por eso entender mejor cómo funcionan es cada vez más importante.

Cajas negras

Una característica importante de la mayoría de los modelos de machine learning es que son tan grandes y tan flexibles que ni siquiera podemos entender ni explicar ―a priori― cómo es que realmente codifican la información necesaria para resolver los problemas planteados. Los modelos van encontrando paulatina y automáticamente los patrones escondidos en los millones de datos que usualmente se utilizan durante su entrenamiento. En la jerga científica se dice que estos modelos son de caja negra, o black-box, porque resuelven los problemas para los cuáles fueron diseñados, pero son tan complejos que no tenemos formas intuitivas de interpretarlos ni de dar explicaciones razonables de cómo llegan a resultados exitosos. 

Que un modelo sea de caja negra no quiere decir que el código de programación que lo genera sea secreto o no se pueda ver: de hecho el código que los construye es totalmente visible en general, es decir, un modelo puede ser al mismo tiempo de caja negra y de código abierto (u open source).

Un modelo de caja negra es aquel que resuelve los problemas planteados, pero lo hace codificando esa información en un gran conjunto de parámetros, de tal manera que resultan indescifrables ―a priori― para los humanos los detalles de esa codificación. Sin embargo, en algunos casos ejemplares, estudios exhaustivos posteriores logran reconocer dónde y cómo los modelos codifican los patrones que encuentran.

Esta característica hace que evaluar modelos de caja negra sea muy complejo. “¿Cómo hace el modelo exactamente para resolver este problema?” o “¿cómo codifica la información necesaria para tener éxito?” son preguntas extremadamente difíciles de responder, incluso cuando el modelo ya funciona con éxito.

En los casos más estudiados, como la detección de rostros en imágenes, estudios posteriores muestran cómo es que los modelos codifican primero información sobre los contornos y los cambios de colores, para luego ir codificando más detalles de las características particulares de la cara. Pero una cosa es programar un modelo de machine learning que funcione bien, y otra muy distinta ―y más compleja― es entender exactamente por qué y cómo funciona. Y luego traducirlo en palabras.

Durante su aplicación estos modelos presentan riesgos asociados: es posible, por ejemplo, decodificar datos supuestamente anónimos con los que estos fueron entrenados; también presentan sesgos y fallos en sus predicciones, que en el peor de los casos pueden resultar en aplicaciones con resultados dramáticos o discriminatorios hacia los usuarios finales. Si bien estos sesgos dependen fuertemente de aquellos que contienen los datos de entrenamiento ―es decir, reproducen los mismos sesgos ya presentes en la sociedad―, los fallos en los modelos son responsabilidad de los equipos desarrolladores. Estos son los difíciles y legítimos problemas que se tratan en el estudio de la ética en Inteligencia Artificial: asegurarse que los modelos se desarrollen y utilicen éticamente.

Si un arma autónoma comandada por una IA mata a una persona civil, el problema es que la agencia militar que la desplegó fue descuidada o indiferente durante su diseño y prueba, además de que esta no se reguló fehacientemente. Es decir, a medida que le damos a los algoritmos más poder, es cada vez más importante evaluarlos y regularlos. Pero, ¿cómo podemos evaluar y regular modelos de machine learning que no podemos entender con exactitud?

Sandboxes regulatorios

Tal cual el método de preguntas que utilizaba el mago James “el asombroso” Randi para desbaratar en vivo a personas que clamaban tener poderes paranormales, acerca de todo modelo de machine learning debería poder responderse al menos las siguientes tres preguntas:

inteligencia artificial. James Randi
James Randi era un pionero: nos ayuda a regular modelos de caja negra desde antes que esto sea un problema
  1. ¿Qué es exactamente lo que el modelo puede hacer? ¿Con qué fin fue diseñado?
  2. ¿En qué contexto puede hacerlo? Es decir, ¿en qué datos? Y, ¿en qué datos no?
  3. ¿Con qué nivel de precisión puede hacerlo? (Esta medida, que puede ser más de una, debe ser de especial interés para evaluadores y usuarios finales).

No obstante, este es solo un comienzo. Una tendencia a la hora de regular estos modelos es la de los llamados “sandboxes regulatorios”, que se pueden pensar como una fase de “ensayos clínicos”: se refieren a espacios monitoreados de experimentación, prueba, y desarrollo de un ecosistema de innovación regulatoria para los modelos de Inteligencia Artificial, antes de que estos sean lanzados al mercado o utilizados sobre el público general.

Algunas ventajas de la utilización de sandboxes regulatorios son la adaptabilidad y flexibilidad que permitirían a la hora de entender cómo funcionan los modelos, ya que se tratan de espacios abiertos y colaborativos de experimentación según enfoques multidisciplinarios: habilitan una reducción drástica de la asimetría de la información entre los desarrolladores, los reguladores y el público interesado en general; y también permiten realizar análisis detallados de riesgos y beneficios de estas tecnologías en un estado de prueba constante, permitiendo entender los límites de las políticas regulatorias. Además, los objetivos de la regulación, sus tiempos y costos, y los criterios de elegibilidad de los modelos pueden ser totalmente flexibles y transparentes.

Una gran parte de este trabajo implica regular los datos de entrada que son utilizados para el entrenamiento y prueba de los algoritmos, la provisión de documentación y la generación de acuerdos de confidencialidad. Ello implica observar qué datos se pueden conseguir sobre las personas, qué preprocesamientos se realizan sobre esos datos y si se registran violaciones a las reglas de privacidad. En particular, sistemas para aplicaciones particularmente riesgosas deben ser entrenados con datos de alta calidad, satisfacer ciertos niveles de precisión y ser robustos frente a ataques.

Sin embargo, la puesta en marcha de sandboxes regulatorios de propósito general presenta desafíos que países como Colombia, por dar un ejemplo, han tenido que afrontar durante su implementación. Después de establecerse ciertas regulaciones y normativas por el Estado colombiano durante 2019, los esfuerzos por llevar a cabo estos desarrollos fueron sectorizados y con un entendimiento diverso de los diseños y objetivos a perseguir.

En concreto, se detectó una falta de coordinación requerida para la regulación de estas tecnologías emergentes, ya que tienen efectos transversales en una diversidad de sectores. Las entidades reguladoras financieras, de salud, transporte, industria y comercio deben lograr acuerdos sobre la forma de proteger la información y a los usuarios finales de estas tecnologías. La puesta en práctica requiere además un recuento de las experiencias concretas realizadas a nivel internacional, y debe tener en cuenta la perspectiva de una diversidad de sectores.

Estos sistemas de experimentación son solo una primera etapa frente a los objetivos de largo plazo de los sandboxes regulatorios, que implican llegar a estándares claros en la implementación de pruebas, de manera que estas puedan ser llevadas a cabo sin que las compañías desarrolladoras puedan elegir qué mostrar y qué no. Recorrer el camino hacia la estandarización de las regulaciones sobre los modelos de Inteligencia Artificial presenta enormes desafíos, sobre todo teniendo en cuenta la gran diversidad y complejidad de aplicaciones y desarrollos que estos integran. Es fundamental persistir con estos avances: aunque son exploratorios, hacen camino al andar.

Publicaciones relacionadas