Capítulo 4
Entrevistas

La ética cobra importancia en un mundo menos religioso, dice Luciano Floridi

El filósofo de la Universidad de Oxford critica la idea del colega Nick Bostrom, quien habla sobre el fin del mundo a través de la inteligencia artificial

Raphael Hernandes

Ser pionero en una de las ramas de un área del conocimiento que tiene milenios de existencia, como la filosofía, no es para muchos. Y ese es el caso del italiano Luciano Floridi, de 55 años, profesor de ética de la información en la Universidad de Oxford.

Es uno de los primeros y más destacados nombres en los campos de la filosofía y la ética de la información. Estas ramas estudian temas relacionados con la informática y la tecnología. Es asesor del área en el gobierno británico y desempeñó esta función en las empresas del sector, como Google y la china Tencent.

También se destaca cuando el tema es específicamente IA (inteligencia artificial). Floridi fue uno de los 52 autores de las "Directrices éticas para una inteligencia artificial fiable" de la Unión Europea.

Luciano Floridi, profesor de ética de la información en la Universidad de Oxford
Luciano Floridi, profesor de ética de la información en la Universidad de Oxford - Reprodução

En una entrevista concedida a Folha, habló sobre temas que van desde la parte elemental de su área, como la definición de inteligencia artificial, hasta discusiones más complejas, sobre cómo pensar la ética en la tecnología.

De acuerdo con él, la ética gana importancia en la era digital. "Tenemos menos religión. La gente tiende a asociar la ética con la religión un poco menos que en el pasado ", dice. "La ética debe ser independiente".

La conversación por videollamada duró aproximadamente una hora y se interrumpió solo una vez: cuando la esposa de Floridi, de nacionalidad brasileña, embarcó en un avión para visitar su país de origen y quería desearle buen viaje.

El discurso paciente y cortés adoptó un tono más áspero cuando fue abordado el tema de la teoría de Nick Bostrom, también filósofo de la Universidad de Oxford, que habla sobre el peligro de que la IA alcance el estado de superinteligencia y destruya a la humanidad.

"La inteligencia artificial descrita en la singularidad y superinteligencia de Nick Bostrom no es imposible", dice. "Así como es posible que una civilización extraterrestre llegue aquí, domine y esclavice a la humanidad. ¿Imposible? No. ¿Vamos a prepararnos por si ocurre? Solo puede ser una broma.

*

¿Cómo definir la IA? Son artefactos hechos por el hombre capaces de hacer cosas en nuestro lugar, para nosotros y, a veces, mejor que nosotros, con una habilidad especial que no encontramos en otros artefactos mecánicos: aprender de su desempeño y mejorar.
Una forma de describir la IA es como una especie de depósito de operaciones para hacer cosas que podemos aplicar en diferentes contextos. Podemos aplicarla para ahorrar electricidad en el hogar, para encontrar información interesante sobre las personas que visitan una tienda, para mejorar la cámara de mi teléfono celular, para recomendar en una página web otros productos que le gustaría al consumidor.

Académicamente hay muchas opiniones contrastantes sobre lo que es la IA. ¿Es importante la definición de IA para discutir la ética? Una definición dice "esto es eso" y "aquello es lo otro", como "el agua es H2O" y "H2O es agua" y no hay ningún error. No obstante, no tenemos una definición de IA de esa forma, pero tampoco tenemos una definición de muchas cosas importantes en la vida como el amor, la inteligencia, ni siquiera la democracia, la confianza, la amistad, etc. A menudo tenemos una buena comprensión, podemos reconocer estas cosas cuando las vemos. Es crucial conseguir un buen entendimiento de la tecnología porque así aseguraremos unas reglas y el control de algo que entendemos.

¿Cómo de importante es la ética actualmente, una era digital? La ética se ha vuelto cada vez más importante porque tenemos algo más y algo menos. Tenemos menos religión. La ética se ha vuelto más importante porque necesita mantenerse a sí misma. No se puede justificar algo diciendo "porque la Iglesia lo dice" o porque "Dios lo ordenó". Un poco menos de religión hizo que el debate ético fuera más difícil, pero más urgente.
Y hay algo más: hablamos mucho más entre nosotros que en el pasado. Se trata de la globalización. De repente, diferentes puntos de vista sobre lo que está bien y lo que está mal están colisionando de una manera que nunca sucedió. Cuanta más tecnología, ciencia y poder tengamos sobre cualquier cosa (sociedad, medio ambiente, nuestras propias vidas), más urgentes se vuelven las cuestiones éticas.

¿Y por qué hablar de ética e IA? Hasta hace poco, entendíamos en términos de "intervenciones divinas" (para personas del pasado que creían en Dios), "intervenciones humanas" o "intervenciones animales". Estas eran las posibles fuerzas. Es como si tuviéramos un tablero de ajedrez en el que, de repente, aparece una nueva pieza. Claramente, esta pieza cambia toda la partida. Es la IA.
Si tienes algo que puede hacer cosas en el mundo de forma autónoma y aprendiendo, para que pueda cambiar sus propios programas, su actividad requiere una comprensión de lo correcto y lo incorrecto. Ética.

¿Cómo respondemos estas preguntas y definimos los límites? El debate inicial sobre la ética en la IA se remonta a la década de 1960, con las primeras formas de IA simbólica surgiendo.
El resultado es que en el último año han florecido códigos éticos aplicados a la IA. Dos en particular tienen un alcance muy importante. Uno es el de la Unión Europea. Hicimos un buen trabajo, creo, y tenemos una buena estructura en Europa para entender una buena y no tan buena inteligencia artificial. El otro es de la OCDE, una estructura similar, en la que se pueden encontrar cinco principios en cualquier lugar: benevolencia, sin autonomía del mal, posibilidad de explicación...

Los críticos dicen que estos documentos no son lo suficientemente específicos. ¿Usted los ves como un primer paso o cree que son suficientes? Muestra que al menos algunas personas en algún lugar se preocupan lo suficiente como para producir un documento sobre toda esta historia. Esto es mejor que nada, pero es eso: mejor que nada. Algunos de ellos son completamente inútiles.
Lo que ocurre ahora es que cada compañía, cada institución, cada gobierno siente que no se puede dejar atrás. Si 100 empresas tienen un documento con sus estructuras y reglas para la IA, si soy la empresa 102 también necesito tenerlo. No puedo ser el único sin él.
Necesitamos hacer mucho más. Por lo tanto, las verdaderas directrices son elaboradas por gobiernos, organizaciones o instituciones internacionales. Si tiene instituciones internacionales, como la OCDE, la Unión Europea, la Unesco, interviniendo, damos un nuevo paso en la dirección correcta.
Tomemos, por ejemplo, la IA aplicada al reconocimiento facial. Ya hemos tenido este debate. ?Utilizo el reconocimiento facial en mi tienda? ?En el aeropuerto? Este agujero tiene que ser tapado y la gente lo está tapando. Tiendo a ser un poco optimista.

¿Y cómo nos va en la traducción de directrices en política prácticas? En un contexto general, veo grandes empresas que desarrollan servicios de consultoría para sus clientes y ayudan a verificar que estén de acuerdo con las normas y reglamentos, teniendo en cuenta las cuestiones éticas.
Hay lagunas y hay que hacer más, pero ya hay algo disponible. Las personas se están moviendo en términos de legislación, autorregulación, políticas o herramientas digitales para traducir los principios en prácticas. Lo que puede hacer es asegurarse de que los errores ocurran tan raramente como sea posible y que, cuando lo hagan, haya una forma de rectificarlos.

Con diferentes entidades, gobiernos, instituciones y compañías que crean sus reglas para el uso de la IA, ¿no corremos el riesgo de perdernos a la hora de escoger qué documento seguir? Un poco sí. Al principio puede existir desacuerdos o diferentes puntos de vista, pero esto es algo que hemos experimentado en el pasado.
Toda la historia de los estándares de la industria y la ética empresarial está llena de estos desacuerdos y después reconciliación y búsqueda de una plataforma común para que todos estén de acuerdo. El hecho de que hayamos acordado las directrices [sobre la IA] para Europa y luego la OCDE haya adoptado una similar a nivel internacional ya muestra que hay convergencia.

Las grandes empresas de tecnología están pidiendo regulación, lo cual es extraño, ya que generalmente lo que intentan es la autorregulación. Usted ha estado con una de ellas, Google, para trabajar en una especie de comité para asesorar sobre cuestiones éticas. ¿Por qué estas compañías de tecnología están interesadas? Hay algunas razones para esto. Lo primero es la certeza: quieren estar seguros de lo que está bien y lo que está mal. A las empresas les gusta más la certeza que las reglas buenas. Es mejor tener malas reglas que ninguna regla en absoluto. Lo segundo es que entienden que la opinión pública exige una buena aplicación de la IA. Dado que es la opinión pública, tiene que salir de la sociedad lo que es aceptable y lo que no. A las empresas les gustan las regulaciones siempre que ayuden.

¿Hay alguna diferencia al pensar en regulaciones para sistemas con diferentes propósitos? Por ejemplo, ¿es diferente pensar en la regulación de la IA para vehículos autónomos y la IA para sugerencias de canciones? Sí y no. Hay regulaciones que son comunes a muchas áreas. Piense en las normas de seguridad relacionadas con la electricidad. No importa si se trata de un taladro eléctrico, un horno o un automóvil eléctricos. Es electricidad y, por lo tanto, están sujetos a normas de seguridad. Esto se aplicaría igualmente a la IA. Pero entonces hay algo específico: la seguridad está relacionada con los frenos del automóvil, no con el microondas, o las medidas de seguridad para las puertas de microondas que son diferentes de las elaboradas para las puertas del coche. Esto es muy especifico. Entonces, pienso en una combinación de los dos: principios éticos que cubren varias áreas diferentes, pautas que se extienden horizontalmente, pero también verticalmente pensando en sector por sector. Es a la vez general y específico.

Luciano Floridi, profesor de ética de la información en la Universidad de Oxford
Luciano Floridi, profesor de ética de la información en la Universidad de Oxford - Reprodução

¿Cómo de lejos estamos de establecer estas pautas? ¿Estamos hablando de meses, años, una generación? Algunos años. No me sorprendería que tuviéramos esta conversación en cinco años y lo que hemos dicho ya sea historia. Creo que la tecnología se está desarrollando tan rápido, con un impacto tan extendido y profundo, que aumentará rápidamente la voluntad sociopolítica para regular y crear un sentido claro de lo que está bien y lo que está mal.

¿Y cómo funciona este proceso de pensamiento en la práctica? Por ejemplo, en el caso de los vehículos autónomos, ¿cómo se llega a una conclusión sobre la responsabilidad en caso de accidente: ¿es del conductor, del fabricante o de quién? Hay muchos contextos en la vida donde sucede algo y depende de muchos agentes, más o menos relacionados. Pasaba esto en muchos otros contextos antes de la IA. La recomendación es distribuir la responsabilidad entre todos los agentes, a menos que puedan probar que no tuvieron nada que ver con el accidente.
Un ejemplo muy concreto, una analogía: en Holanda, si vas en bicicleta al lado de alguien, no hay problema. Puedes ir por la calle, al lado de alguien y no pasa nada. Si una tercera persona se une a usted, es ilegal.
No pueden ir tres personas juntas en una calle pública. ¿Quién recibe la multa? Los tres, porque cuando A y B estaban uno al lado del otro y C los alcanzaba, A y B podían reducir la velocidad o detenerse por completo para que C los adelantara. Ahora, en los mismos Países Bajos, otro ejemplo, si dos barcos están parados al lado del río, es legal. Si llega un tercer bote y se detiene a su lado, es ilegal. En ese caso, solo el tercer bote sería multado. ¿Por qué? Debido a que los otros dos barcos no pueden frenar en ese caso, no pueden ir a ninguna parte. No es su culpa. Puede ver que estos son dos ejemplos muy elementales, muy claros, con tres agentes. En un caso se distribuye la responsabilidad y la responsabilidad por igual, en el otro solo hay un responsable.
Con la IA es lo mismo. En contextos en el que hay una persona loca que usa la IA para algo malo, es culpa de esa persona. No hay mucho debate. En muchos otros contextos, con muchos agentes, muchas circunstancias, muchos actores, ¿quién tiene la culpa? Todos, a menos que prueben que no han hecho nada malo. Así que, el fabricante de automóviles, el fabricante del software, el conductor, incluso la persona que cruzó la calle en el lugar equivocado. Puede existir una corresponsabilidad que debe distribuirse entre ellos.

¿Siempre habría que hacer un análisis específico de cada caso? Creo que son más tipos de casos. No solo un caso aislado, sino una familia de casos. No es como si cada vez que un ciclista se une a otro vamos a esperara a ver qué pasa. No. Este es un tipo de caso. La familia de tres barcos es otra decisión.
Vamos a un ejemplo realista. Si una persona que conduce un automóvil autónomo no puede conducir, usar un volante, nada. Es lo mismo que cuando voy en tren, no tengo control. Entonces el coche se ve involucrado en un accidente. ¿De quién es la culpa? ¿Culparías a un pasajero por el accidente que tuvo el tren? Claro que no. No tenía el control. En un caso donde hay un volante, donde hay un gran botón rojo que dice "si algo sale mal, presione el botón"... ¿Quién es responsable? El fabricante del automóvil y el conductor que no presionó el botón.
Tenemos que ser muy concretos y asegurarnos de que existan tipologías y, no exactamente caso por caso, sino entender que ese caso pertenece a este tipo u otro. Así tendremos una idea clara de lo que está sucediendo.

En sus conferencias, usted menciona el uso excesivo y la infrautilización de la IA. ¿Cuáles son los problemas en estas situaciones? El uso excesivo, con un ejemplo concreto, es como el debate que tenemos hoy sobre el reconocimiento facial. No necesitamos esa cantidad de reconocimiento facial en cada esquina. Es como matar mosquitos con una granada.
La subutilización es típica, por ejemplo, en el sector de la salud. No la usamos porque la regulación no es muy clara, la gente teme las consecuencias.

La IA creará el futuro, ¿estará en todo? Tenemos una gran oportunidad para hacer un buen trabajo, tanto por nuestros problemas sociales, la desigualdad en particular, como por el medio ambiente, particularmente el calentamiento global. Es una tecnología muy poderosa que, en las manos correctas y con la gestión correcta, podría hacer cosas fantásticas. Me preocupa un poco que no estemos haciendo esto, estamos perdiendo la oportunidad.
La razón por la que la ética es tan importante es precisamente porque la buena gestión de la IA, la aplicación correcta de esta tecnología necesitará un proyecto general sobre nuestra sociedad. Me gusta llamarlo "proyecto humano". Lo que la sociedad querrá. Qué futuro queremos dejar para las próximas generaciones. Esto es ética. Pero nos interesan otras cosas, básicamente, como usar la IA para generar más dinero.

¿Qué pasa con los derechos de los robots? ¿Deberíamos estar pensando en ello? [Risas] No, esto es una broma. ¿Le darías derechos a tu lavavajillas? Es una pieza de ingeniería. Es un buen entretenimiento [hablar sobre la ley de robots], podemos bromear al respecto, pero no hablemos de Star Wars.

Usted es crítico con la ciencia ficción cuando trata el fin del mundo a partir de la inteligencia artificial o la superinteligencia. ¿No ves la idea de la superinteligencia de Nick Bostrom como una posibilidad? Creo que la gente ha estado jugando con algunos trucos. Estos son trucos que enseñamos a los estudiantes de filosofía el primer año. El truco es hablar sobre la posibilidad y esa es exactamente la palabra que usan.
Déjame darte un ejemplo: imagina que compro un boleto de lotería. ¿Es posible que gane? Claro. Absolutamente. Compro otro boleto de otra lotería. ¿Es posible que gane la segunda vez? Sí. Si comprendo lo que significa "posible", debemos decir que sí. Pero no va a suceder. Es poco probable, es insignificantemente posible. Este es el tipo de razonamiento hecho por Nick Bostrom. " Pero no puedes excluir la posibilidad..." No, no puedo. La inteligencia artificial descrita en la singularidad y superinteligencia de Nick Bostrom no es imposible. Estoy de acuerdo ?Significa que es posible? No.
Así como es posible que una civilización extraterrestre llegue aquí, domine y esclavice a la humanidad. ¿Imposible? Hmmm No. ¿Vamos a prepararnos por si sucede? Solo puede ser una broma.

¿Es la IA una fuerza para el bien? Creo que sí. Como la mayoría de las tecnologías que ya hemos desarrollado, lo son. Cuando hablamos de la Edad del Hierro, por supuesto tenemos en mente las armas, pero la verdad es que la Edad del Hierro introdujo la forma de hacer herramientas que pueden romper piedras, sembrar. Cuando hablamos de la rueda, el alfabeto, las computadoras, la electricidad ... Todas estas son cosas buenas. Internet. Todo ello es bueno. ¿Podemos usarlo para algo malo? Absolutamente.
Soy más optimista sobre la tecnología y menos sobre la humanidad. Creo que vamos a estropearla. Por lo tanto, discusiones como la de Nick Bostrom, singularidad, etc. No solo son graciosas. Son una distracción, y esto es grave.
Mientras hablamos, tenemos 700 millones de personas sin acceso a agua limpia que podrían usar la IA para conseguir una oportunidad. ¿Y realmente quieres preocuparte por Terminator? ¿Skynet? Éticamente hablando, es irresponsable. Deja de ver Netflix y sé realista.

Traducido por AZAHARA MARTÍN ORTEGA

Lea el artículo original