Ética y datos: definiciones fundamentales – Glosario

El mundo de los datos está cada vez más involucrado en nuestra vida cotidiana. Datos, algoritmos o inteligencia artificial son palabras que resuenan cada vez más seguido en cada vez en más lugares y más ámbitos. Desde Fundar, creemos que los datos pueden ser un pilar para mejorar la vida de las personas: de eso no tenemos duda, pero tenemos que bajar a tierra conceptos que a veces son difíciles. Para que tengas a mano una herramienta con definiciones sencillas pero precisas, armamos nuestro glosario, como un complemento de nuestras publicaciones. Esta es una primera lista que va ir creciendo con el tiempo. Te invitamos a tenerla en tu mesa de luz.

Hablemos de ética

Ética viene de la palabra griega ethos, que significa carácter o costumbre. Es la rama de la filosofía que trabaja sobre el bien y el mal y cómo aplicar estos conceptos a la conducta. Los datos tienen que tener en cuenta los valores comunes dentro de una sociedad, para que se utilicen bien, sin reproducir sesgos ni ocultar información.

Cuando hablamos de datos e Inteligencia Artificial, la ética también tiene que entrar en el juego. Los datos y algoritmos necesitan incorporar valores que garanticen su buen uso, porque pueden llegar a reproducir prejuicios y limitaciones de quienes los crearon.

Ahora bien, ¿cómo se relacionan ética y datos? Hoy traemos algunas definiciones clave para entender esta relación.

Sesgos

Esta palabra viene de la estadística y refiere a los errores sistemáticos que alteran los datos o los análisis sobre ellos. Existen distintos tipos, según dónde esté esa distorsión.

El sesgo estadístico se detecta en los resultados de un estudio. Puede surgir de la recolección, el análisis, la interpretación o la revisión de los datos. También puede estar ligado a la representatividad de la muestra o a su selección. Cuando las muestras no se eligen de manera aleatoria y no se utilizan técnicas estadísticas para evitarlo, hablamos de sesgos de selección.

Por otra parte, el sesgo cognitivo es un efecto que altera la manera en la que procesamos la información según las propias creencias. Puede influir en la forma en la que vemos el mundo, emitimos juicios o tomamos decisiones. Este sesgo es fruto de la cultura, la sociedad, las emociones y los valores que manejamos. También puede deberse a distorsiones en la memoria y los recuerdos o atajos en el procesamiento de datos, por ejemplo.

Algoritmos de caja negra

Estos algoritmos tienen una particularidad: conocemos los datos originales y la información que brindó el algoritmo, pero los resultados son difíciles de interpretar. No hay formas intuitivas de hacerlo ni explicaciones razonables de cómo se llegó a esos resultados. La regulación de tecnologías que recién estamos comenzando a entender tiene muchas dificultades

FATE: Fairness, Accountability, Transparency and Explicability

Estas siglas en inglés resumen algunos principios clave para seguir  a la hora de diseñar y entrenar nuestros algoritmos. Con ellos se busca que no hereden sesgos propios de los datos o de los humanos que los desarrollan. Además, la idea es que  su funcionamiento pueda ser comprendido por los demás. 

Fairness: Justicia Algorítmica

 El primer punto invita a reconocer que la IA puede perpetuar patrones y conductas discriminatorias propias de los humanos que los diseñaron o de los datos que la entrenó. Por ello hablamos de justicia algorítmica o fairness. Para evitar que nuestros algoritmos sean sesgados o exclusivos de ciertos grupos de la sociedad tenemos que tener en cuenta buenas prácticas a la hora de  diseñarlos 

Cuando entrenamos a los modelos tenemos que considerar la opinión de expertos en muchas disciplinas, sociales y humanas. Esto nos permitirá entender el impacto que la  tecnología va a tener en la sociedad y evaluar qué tan representativos son los datos con los que entrenamos los modelos. Luego, a la hora de evaluar los modelos y su performance debemos tener  en cuenta los diferentes subgrupos que componen la población objetivo: ¿el algoritmo funciona bien para todos los géneros? ¿Para todas las edades? ¿Para todas las nacionalidades? Si tenemos en cuenta estas cuestiones a la hora de entrenar los algoritmos vamos a lograr resultados justos e inclusivos 

Accountability: Rendición de cuentas

Este principio resalta la responsabilidad que tenemos al diseñar los modelos de IA y cómo sus decisiones impactarán en la sociedad. Por un lado, significa que la toma de decisiones que se hizo para diseñar un sistema de IA debe poder ser justificada y explicada. Además, se debe conocer el origen de los datos que se usaron y de su gobernanza. Para hacer que un algoritmo sea justo, parte de las buenas prácticas implica que debemos hacernos responsables y responder por ellos.

Transparency: Transparencia 

 La falta de transparencia es una de las razones por las cuales muchos desconfían de los sistemas de IA, especialmente porque la mayoría de las nuevas aplicaciones son en modelos de caja negra. Por este motivo es importante dar a conocer cómo fueron entrenados estos modelos, qué datos de entrada les fueron suministrados y cómo se llegó al proceso final de toma de decisiones. 

Si bien la transparencia puede no implicar la completa comprensión del algoritmo o su interpretabilidad (tema que nos importa también en el último principio), es importante que sea lo más transparente posible, para que los usuarios puedan evaluar los algoritmos y sus resultados.

Explainability: Explicabilidad

 Los sistemas de IA que creamos tienen que ser diseñados de manera tal que podamos entender la toma de decisiones que llevan a cabo. Es importante saber por qué un modelo pudo haber llegado a distintas conclusiones para distintos usuarios para entender su proceso decisorio, sin que eso signifique que el algoritmo sea interpretable. 

Hay muchos modelos de caja negra que tienen poca o nula interpretación, pero,sin embargo, pueden ser explicables. Esto depende de cada problema en particular, de conocer los features o inputs que tienen los modelos y de quién está demandando la explicación. Hay sistemas de IA que ayudan a usuarios en temas sensibles, como pueden ser temas médicos, por lo que en esos casos es muy relevante que como quienes crearon estas soluciones nos den herramientas para entender cómo funcionan.

 

Estos principios son una puerta de entrada para comprender los desafíos a los que se enfrentan las personas que trabajan con datos. Para quien no está familiarizado con el inglés, la palabra que forman las siglas es “FATE”, que en español quiere decir «destino». Comprender y respetar estos 4 principios es clave para que el destino del uso de  datos como instrumento sea beneficioso para la sociedad en la que vivimos. No hay destino, sino aquel que construimos.

Publicaciones relacionadas