Capitulo 1
Los límites de la IA

La inteligencia artificial puede hacer daño a pesar de las buenas intenciones, dice la Unión Europea

Saber lo que sucede por detrás de la IA es necesario para evitar que se convierta en una caja negra

Raphael Hernandes

Los primeros pasos hacia la aparición de un mayor control sobre el uso de la IA (inteligencia artificial) se dieron en 2019. Una de las principales entidades que primero lanzó un documento fue la propia Unión Europea, con sus "Directrices éticas para una IA confiable".

El texto pide que su aplicación se comprometa con la humanidad y el bien común, y dice que es necesario garantizar la fiabilidad y la transparencia. Señala que, incluso con buenas intenciones, los sistemas de IA pueden causar daños.

Uno de los problemas más comunes de la IA es que funciona como una especie de caja negra, algo debatido en el seno de la Unión Europea.

Los sistemas llegan a una conclusión a partir del análisis de los datos que se les presentan, pero no siempre es posible verificar exactamente qué factores se tuvieron en cuenta.

Las reglas en estudio refuerzan la importancia de que ingenieros y empresas crean mecanismos que muestren cómo una IA alcanzó cierto resultado. Con esta información, una persona podría impugnar los resultados de un examen, de un juicio, de una selección para un puesto de trabajo, etc.

La UE también recomienda salvaguardas en cuanto al proceso de datos personales, así como en el análisis de la fuente de datos utilizada para impulsar la inteligencia artificial. Se llama "sesgo": cuando la información del mundo real termina inclinándose hacia un lado y perjudicando a grupos de personas.

Un sistema de IA basado en datos de una compañía que nunca ha contado con muchas mujeres en el equipo tenderá a recomendar menos mujeres que hombres a la hora de contratar si esta tendencia no se corrige.

Un caso clásico es el de Eric Loomis. En 2013, fue sentenciado a seis años de prisión por múltiples cargos relacionados con el robo de un automóvil. El juez responsable de la sentencia admitió haber utilizado un sistema de inteligencia artificial llamado Compas para respaldar su veredicto.

La defensa de Loomis apeló la decisión argumentando que no era posible saber qué criterios adoptó el sistema a la hora de dictar el veredicto. La Justicia negó el recurso diciendo que el resultado sería el mismo si no se hubiera utilizado el sistema.

Tres años después, un análisis de la web ProPublica mostró que Compas era más estricto con los negros, la mayoría de las veces clasificados como imputados ​​de "alto riesgo". Además, el sistema acertó en apenas el 20% de los casos cuando trató de anticipar quién cometería delitos violentos en el futuro.

En casos delicados como el de Loomis o en el diagnóstico médico, por ejemplo, los expertos argumentan que los sistemas de IA tienen que actuar como auxiliar a la hora de tomar decisiones. No obstante, al final el que toma la decisión debe ser de carne y hueso.

Traducido por AZAHARA MARTÍN ORTEGA

Lea el artículo original