«Una computadora nunca puede ser considerada responsable. Por lo tanto, una computadora nunca debe tomar una decisión de gestión».
– IBM, 1979
¿Cómo lo podemos hacer? De hecho ya hay instituciones que reconocen esta necesidad. La National Center for State Courts (NCSC), por ejemplo, ha señalado la importancia de que las cortes desarrollen una política interna sobre el uso de la IA que garantice su utilización responsable y ética. Esta política no sólo debe minimizar los riesgos, sino también permitir a las cortes aprender y beneficiarse de las ventajas de la IA. Se trata de encontrar un balance entre proteger derechos y aprovechar las oportunidades que estas herramientas nos brindan.
Existen varias estrategias para enfrentar estos riesgos, y ninguna debe descartarse a priori. Algunas propuestas incluyen la creación de autoridades independientes que supervisen el uso de la IA, regulando su implementación y estableciendo límites claros. Otras sugieren que la clave está en la capacitación, asegurando que jueces, fiscales y abogados entiendan tanto las capacidades como las limitaciones de la IA. También hay quienes piensan que guías de uso bien definidas son cruciales para garantizar que las herramientas tecnológicas se utilicen de manera ética y transparente. Lo fundamental es que la gran mayoría de estas alternativas no busca detener el avance de la tecnología, sino guiar su integración de manera responsable.
Entonces, para abordar esos riesgos, la clave está en adoptar las tecnologías con responsabilidad. Debemos asegurarnos de que las herramientas de IA se utilicen de forma transparente y clara, con salvaguardas que garanticen que los derechos fundamentales no se vean comprometidos.
En definitiva, el futuro de la IA en ámbitos decisivos como la justicia dependerá de la capacidad de actores clave, desde el ámbito judicial hasta el académico y las organizaciones de la sociedad civil, de sobreponerse a los temores y ser capaces de crear un entorno que minimice estos riesgos. El temor a lo desconocido es natural, pero no debe ser un freno para adoptar nuevas tecnologías. Al contrario, es necesario abrir una conversación pública liderada por estos sectores, que se centre en cómo aprovechar las oportunidades que ofrece la IA, sin ignorar los riesgos que conlleva. Lo importante es que demos cuanto antes esta discusión de una manera abierta y sin prejuicios, considerando las diferentes alternativas que existen y se proponen, pero con la certeza de que el objetivo común debe ser un uso responsable y ético de la IA, especialmente en ámbitos tan sensibles como la justicia.
Ninguna tecnología es neutral: lo sabíamos, pero la revolución digital vino a desafiar, tal vez como nunca antes, nuestra capacidad de poner en práctica este aprendizaje. Como lo advertía IBM en 1979, “una computadora nunca debe tomar una decisión de gestión” porque, en última instancia, no puede asumir responsabilidad alguna. Esto no se trata sólo de la inteligencia artificial o de su capacidad para tomar decisiones en soledad, sino de nuestro papel en no delegar decisiones importantes a sistemas automáticos sin cuestionarlos. La verdadera pregunta es si nosotros, como sociedad, decidimos validar los resultados de un algoritmo, inteligente o no, sin la supervisión y el criterio humano. Por eso, debemos dejar de pensar en la IA como una amenaza y comenzar a verla como lo que realmente es: una herramienta. Una herramienta que, como cualquier otra, puede ser usada para bien o para mal, dependiendo de cómo decidamos implementarla. El camino no es retroceder, sino avanzar con responsabilidad.
Esta columna fue publicada originalmente en Ámbito el 23 de noviembre de 2024.