Estamos donde tú estás. Síguenos en:

Facebook Youtube Twitter Spotify Instagram

Acceso suscriptores

Jueves, 28 de mayo de 2020
Debate internacional

¿Deben los gobiernos poner límites a la inteligencia artificial?

José A. Ruipérez Valiente (The Conversation)

portada_the_conversation.jpg

IR Stone/Shutterstock
IR Stone/Shutterstock

La Comisión Europea ha publicado esta semana el Libro Blanco sobre Inteligencia Artificial, donde recoge los retos y los beneficios que ofrece esta tecnología. Entre otras cuestiones, plantea una serie de restricciones al uso de reconocimiento facial en espacios públicos, pues puede vulnerar los derechos de los ciudadanos.

Esta tecnología nos ha brindado maravillosas aplicaciones, como la detección temprana de cáncer, la educación personalizada o la optimización del consumo energético. Pero también otras aterradoras, como la generación de vídeos ficticios de personas reales, la identificación de una persona a través de una simple foto o la creación de soldados cibernéticos. ¿Cómo controlar el avance de una tecnología que tiene potencial para tanto bien y mal?

Límites éticos

La película Minority Report ya nos presentaba un mundo futurista en el que podíamos predecir cuándo se iba a cometer un crimen para evitarlo. Un universo que puede no ser tan lejano, teniendo en cuenta las aplicaciones actuales de la inteligencia artificial para predecir las probabilidades de delinquir y para identificar personas a través de cámaras de vídeo.

La película planteaba el conflicto ético de condenar a alguien por algo que todavía no había hecho: ¿y si la predicción está equivocada?

foto_1_th.jpg

La película Minority Report plantea dilemas éticos de la inteligencia artificial.
La película Minority Report plantea dilemas éticos de la inteligencia artificial.

Las preguntas sobre límites éticos y científicos históricamente asociadas a las vías biosanitarias o de las ciencias sociales se han trasladado también a la inteligencia artificial. Tradicionalmente, los comités de ética han sido los encargados de aprobar las investigaciones que podían desarrollarse.

Mientras que los límites en otros contextos se encuentran más claramente definidos, el rápido avance de la inteligencia artificial los está haciendo muy borrosos. ¿Dónde está la línea que separa una aplicación de la inteligencia artificial positiva para la sociedad de una que afecta a la libertad y privacidad de los ciudadanos?

Estableciendo las fronteras

Esta cuestión se encuentra en la intersección de múltiples disciplinas, como la filosofía, la privacidad, la ética y la seguridad. Por eso, deberán ser comités multidisciplinares de expertos a nivel europeo los que sienten las bases del tipo de sociedad en la que queremos convertirnos en unas décadas.

Estas decisiones pueden trasladarse a los investigadores a través del tipo de proyectos que se financian en convocatorias competitivas y ser reguladas a través de los comités de ética de cada institución investigadora.

Por su parte, los estados deberán de aplicarlas en sus programas nacionales, una cuestión que puede surgir cuando tengan que tomar decisiones sensibles en competencias de seguridad ciudadana o defensa.

“La tecnología es un siervo útil, pero un amo peligroso”.

Christian Lous Lange, Premio Nobel de la Paz.

Introducir programas para evaluar las iniciativas de inteligencia artificial implementadas a gran escala y situar a la sociedad en el centro de estas aplicaciones serán dos claves fundamentales para que no generen rechazo y nos desviemos del camino correcto.

La línea establecida no debe ser inamovible, y deberá revisarse de forma periódica conforme la investigación y las aplicaciones de la inteligencia artificial vayan evolucionando y se pueda analizar el impacto que tienen sobre la sociedad.

foto_3_th.png

Requisitos para una IA fiable que deben ser aplicados durante todo su ciclo de vida. 'Directrices éticas para una IA fiable'/Grupo de Independiente de Expertos de Alto Nivel Sobre Inteligencia Artificial/CE
Requisitos para una IA fiable que deben ser aplicados durante todo su ciclo de vida. 'Directrices éticas para una IA fiable'/Grupo de Independiente de Expertos de Alto Nivel Sobre Inteligencia Artificial/CE

Requisitos para una IA fiable que deben ser aplicados durante todo su ciclo de vida. 'Directrices éticas para una IA fiable'/Grupo de Independiente de Expertos de Alto Nivel Sobre Inteligencia Artificial/CE

El papel de la ciudadanía

Estas directrices podrán guiar el tipo de propuestas que se plantean e implementan en las instituciones públicas y privadas, pero, ¿se debe controlar aquello que ya está al alcance del ciudadano medio?

La democratización de la tecnología esta permitiendo al ciudadano utilizar en ambientes domésticos herramientas que antes solo eran accesibles para científicos.

El documental de Netflix Unnatural Selection refleja esta tendencia al mostrar cómo algunas personas adquieren kits para realizar edición genética en casa con CRISPR. Plantea así la problemática de establecer los límites éticos de otra tecnología que tiene potencial para tantos beneficios sociales, pero que también puede utilizarse para jugar a ser dioses.

Antes se necesitaban superordenadores que ocupaban habitaciones enteras para recopilar datos a gran escala. Ahora, gracias a los avances de la inteligencia artificial y de otros campos, basta con el ordenador de un usuario medio y la información públicamente accesible en Internet.

Aunque una bomba también se puede fabricar en casa fácilmente, no es una práctica muy común en la sociedad. La mayoría conocemos sus posibles fines dañinos. Por eso, también en el caso de la IA, las instituciones educacionales a todos los niveles y divulgadores tendrán el papel fundamental de educar y concienciar socialmente sobre dónde se encuentran los límites. Es importante que centren su discurso en los posibles beneficios para evitar el rechazo social y las aplicaciones que generen conflictos éticos.

Mirando hacia el futuro

Como cualquier otra tecnología, la inteligencia artificial no es perversa o bondadosa en sí misma. Son las aplicaciones que los humanos le damos las que dictan su posible impacto positivo o negativo en la sociedad.

No podemos retrasar más las discusiones necesarias para establecer los límites y determinar cuáles son las direcciones correctas para avanzar. Por eso la Comisión Europea ya se ha puesto en marcha.

En materia de reconocimiento facial o generación automática de contenido, si no se establecen pronto unos límites éticos, correremos el riesgo de no saber diferenciar lo que proviene del mundo real de lo generado por una máquina.The Conversation

José A. Ruipérez Valiente, Investigador Juan de la Cierva, Universidad de Murcia

Lee el artículo original publicado en The Conversation.

Ya que estás aquí, te queremos invitar a ser parte de Interferencia. Suscríbete. Gracias a lectores como tú, financiamos un periodismo libre e independiente. Te quedan artículos gratuitos este mes.

Comentarios

Comentarios

Añadir nuevo comentario