Capitulo 1
Los límites de la IA

Entienda los riesgos y si una inteligencia artificial puede conducir al fin de la humanidad

Según los expertos, el apocalipsis causado por la IA puede no ser como en el cine

Raphael Hernandes

Al pensar en una eventual ascensión de las máquinas, una imagen que viene a la mente es la de un grupo de robots humanoides que aniquilan personas. Es decir, "hasta la vista, baby".

El fin de la humanidad motivado por una optimización de las capacidades de la IA (inteligencia artificial) no debería ser así.

Investigadores del Instituto para el Futuro de la Humanidad vinculados a la Universidad de Oxford estudian los llamados riesgos existenciales. La lista de posibles causas de un apocalipsis, además de la IA, incluye desastres naturales, nanotecnología y biotecnología.

Según Nick Bostrom, profesor de Oxford y director fundador del instituto, parte del riesgo generado por la inteligencia artificial proviene del uso del desarrollo de otras cosas potencialmente dañinas.

"Al igual que muchas otras tecnologías poderosas se utilizan de manera nociva, la IA también podría convertirse en una herramienta para la guerra y la opresión", dice Bostrom. Una de las preocupaciones es el uso de la tecnología para crear armas.

Los investigadores Stephen Cave y Kanta Dihal, de la Universidad de Cambridge, rastrean la historia de las armas autónomas. El estudio incluso considera una obra de ficción escrita en la antigua Grecia. En el texto "Argonautica", que data del siglo III a. C., un gigante de bronce trabajó solo para defender a Europa de los invasores.

"Recientemente, se han hecho grandes esfuerzos para convertir estos mitos en realidad, financiados con fondos militares destinados a proyectos de inteligencia artificial", escriben Cave y Dihal en el artículo "Esperanzas y miedos a las máquinas inteligentes en la ficción y la realidad" ("Hopes and fears for intelligent machines in fiction and reality").

En un documento de la Unión Europea que ofrece recomendaciones para trabajar con IA, las armas autónomas se definen como máquinas capaces de decidir "quién, cuándo y dónde luchar".

La IA se puede utilizar para automatizar la detección de objetivos de drones, por ejemplo. Pero ?hasta dónde puede decidir un robot por su cuenta el momento de apretar el gatillo? Cada país puede tener una opinión diferente.

Brad Smith, presidente de Microsoft, escribe en su libro "Herramientas y armas"(Tools and Weapons") que los líderes militares de todo el mundo están de acuerdo en una cosa, al menos: "Nadie quiere despertarse un día y descubrir que las máquinas han comenzado una guerra".

Sin embargo, el tipo de inteligencia artificial que se presenta en las películas "Terminator", "Matrix" y "I, Robot" solo existe en la ficción. Es la llamada IA general, que abarca una amplia gama de tópicos.

Algunos expertos dicen que nunca existirá, otros que aparecerá en las próximas décadas. Al menos, es algo que está lejos de ocurrir.

"Al pensar en la IA, las personas tienen muchas esperanzas depositadas, miedos y expectativas que no reflejan el estado actual de la tecnología", dice la investigadora holandesa Kanta Dihal, de la Universidad de Cambridge.

La tecnología que existe hoy en día es una IA reducida, capaz de operaciones altamente específicas. Un ejemplo práctico es el mecanismo capaz de detectar imágenes de gatos.

A partir de bases de datos con varias fotos y dibujos, es posible hacer que el sistema asimile patrones, analizando así si otras imágenes muestran animales o no. Ese mismo robot no podría identificar perros o jugar al ajedrez.

La parte central de la teoría de Bostrom para el fin de la humanidad a través de la inteligencia artificial gira en torno a lo que él llama superinteligencia. Teóricamente, sería la última tecnología que la humanidad tendría que crear.

"Realizaría las actividades de la invención de manera mucho más eficiente que los humanos", dice el profesor.

El mecanismo podría crear otras máquinas o sistemas, y eso incluye hacer mejoras en sí mismo. A partir de un determinado momento, con el aumento de la capacidad, la inteligencia de esta máquina sería tan descomunal que un ser humano no podría entenderla. Si se pierde el control...

Algunos colegas critican el pensamiento de Bostrom, quienes dicen que este tipo de discusión desvía la atención de problemas más tangibles. El mismo filósofo reconoce que es difícil establecer un intervalo de tiempo para que la tecnología alcance un nivel tan alto.

"Algunas personas están convencidas de que la superinteligencia aparecerá en 10 a 15 años, otras están igualmente convencidas de que ello nunca sucederá o de que llevará cientos de años", dice Bostrom, que argumenta que es importante estar preparado.

La parábola de los humanos que se convierten en clips de papel

Para ilustrar el fenómeno sobre el cual la superinteligencia debería despertar preocupación, Bostrom creó la parábola del maximizador de clips.

Durante toda la historia, la humanidad ha creado un sistema de IA cuyo objetivo es producir tantos clips como sea posible. El sistema necesita más y más agua y metal para mantener la fabricación, por lo que puede comprender que las personas están formadas por átomos, que podrían usarse para hacer clips.

Hasta que llega un momento en que todo, tanto la Tierra como las personas, se convierte en clips de papel (hecho de la forma más eficiente posible).

Para Bostrom, el punto es que el sistema no fue diseñado para dañar a los seres humanos. "No se tiene que programar el instinto de supervivencia o el deseo de poder y riqueza para que la IA vaya detrás de ello, ya que esto sería el medio para el objetivo final de obtener más clips de papel", explica.

Para que ocurra una catástrofe, sería necesario una inteligencia artificial muy poderosa que buscase objetivos específicos. Por lo tanto, argumenta Bostrom, cuando se programa un sistema con este potencial, es importante ponerlo a hacer algo que realmente importe a los humanos, de una manera más amplia.

Traducido por AZAHARA MARTÍN ORTEGA

Lea el artículo original