Capitulo 1
Los límites de la IA

La inteligencia artificial se enfrenta a problemas éticos en busca de una evolución responsable

Dejar que las computadoras tomen sus propias decisiones deja espacio para errores

Raphael Hernandes

¿Es una buena idea tener armas que detecten sus objetivos automáticamente y disparen solas? ¿Y dejar que un robot seleccione candidatos para vacantes en una empresa? ¿Cómo garantizar que la tecnología sea buena para los seres humanos?

Estos son algunos de los problemas presentes en el debate ético que gira en torno a la IA (inteligencia artificial). El crecimiento del área se acelera y a menudo incurre en aplicaciones cuestionables.

Varios países se apresuran a dominar la tecnología para obtener beneficios comerciales y militares. Con este fin, crean políticas nacionales para fomentar la investigación y la creación de empresas especializadas en el área. Estados Unidos, China y la Unión Europea son puntos destacados en este mundo.

El caso chino es el más emblemático, con startups que desarrollan sofisticados sistemas de reconocimiento facial. El gobierno utiliza la tecnología para rastrear a algunas minorías, como los uigures, de mayoría musulmana.

Desde 2014, de acuerdo con la ONU, las personas de este grupo han sido llevadas a campos de detención y sometidas a la propaganda del Partido Comunista.

Las cámaras de las calles y las aplicaciones de teléfonos celulares monitorean los pasos de los ciudadanos. La justificación china es la seguridad nacional cuyo objetivo es prevenir ataques extremistas. Y este sistema de vigilancia ya se ha vendido a gobiernos de África, como el de Zimbabwe.

Un informe del periódico South China Morning Post muestra que los intentos del Ministerio de Educación de China para promover la adopción de tecnología en las escuelas y universidades prohibir el reconocimiento facial en áreas públicas por un período de tres a cinco años. En este plazo, deben ser creadas reglas más robustas.

Los primeros pasos hacia la aparición de un mayor control sobre el uso de la IA se dieron en 2019. Una de las principales entidades que primero lanzó un documento fue la propia Unión Europea, con sus "Directrices éticas para una IA confiable".

El texto pide que su aplicación se comprometa con la humanidad y el bien común, y dice que es necesario garantizar la fiabilidad y la transparencia. Señala que, incluso con buenas intenciones, los sistemas de IA pueden causar daños.

Traducido por AZAHARA MARTÍN ORTEGA

Lea el artículo original