Authorization Required

This server could not verify that you are authorized to access the document requested. Either you supplied the wrong credentials (e.g., bad password), or your browser doesn't understand how to supply the credentials required.

¿Por qué debe regularse cuanto antes la inteligencia artificial? La ciencia gallega ofrece las claves

Raúl Romar García
r. romar REDACCIÓN / LA VOZ

CON C DE CIENCIA Y CULTURA

Andreu Dalmau

Los investigadores gallegos en IA aseguran que es la tecnología con mayor capacidad de transformar la sociedad y que sus beneficios son muy superiores a sus riesgos, por lo que urgen a aprobar una ley que controle sus usos. La normativa europea aún tardará en entrar en vigor

05 jun 2023 . Actualizado a las 05:00 h.

Imagínese un mundo dominado por una especie de Gran Hermano. Por un sistema que manipula sus opiniones a conveniencia; que influye en sus decisiones falseando la realidad; que lo vigila en cada una de sus acciones y supervisa sus emociones para establecer la reputación social de los ciudadanos y clasificarlos en buenos y malos; que decide quién accede a la salud, a la educación o a un trabajo o que discrimina a determinadas personas por su raza o condición social.

Y ahora imagínese ese mismo mundo entrenado con un sistema fiable y confiable que ofrece los mejores y más rápidos diagnósticos médicos para cada paciente, que determina tratamientos óptimos individualizados para cada persona y con capacidad para diseñar fármacos más eficaces; que se encarga de forma eficiente y sostenible de la planificación del transporte y energía de las ciudades; que elige los procesos adecuados para que las empresas obtengan una mayor rentabilidad; que contribuye al desarrollo de nuevos materiales para la industria; que ayuda a prevenir el cambio climático y establece las mejores estrategias de prevención ante desastres naturales; que contribuye al aprendizaje de los estudiantes o que racionalice los trabajos y permita una mejor conciliación.

Los dos escenarios son posibles con el desarrollo de la inteligencia artificial, la tecnología con mayor poder de transformación social. Y que nos dirijamos hacia uno u otro, aunque el primero pueda parecer apocalíptico, dependerá de la regulación de sus usos. Es lo que vienen pidiendo sus propios creadores y otros líderes mundiales, asustados algunos porque los avances son más rápidos de lo que presuponían. Y es lo que hará la Unión Europea, que prepara, desde hace ya dos años, una legislación pionera a nivel mundial que clasifica en cuatro tipos los riesgos de la herramienta y que establece una regulación para cada uno de ellos. La normativa, que a mediados de junio se llevará al Parlamento, no se aprobará previsiblemente hasta el próximo año y probablemente no entre en vigor hasta el 2025.

Los beneficios son mayores

¿Es demasiado tarde? Algunos de los mayores expertos en inteligencia artificial en Galicia insisten en que aún estamos a tiempo, pero urgen a acelerar las negociaciones. Todos coinciden: no existe prácticamente ninguna área que no pueda ser influida por la inteligencia artificial y sus beneficios son mucho mayores que sus potenciales riesgos. Pero sus usos, que no sus innovaciones, deben legislarse. Y debe formarse a la sociedad en este proceso. «É necesario regular xa, igual que foi necesario con outros avances do pasado, porque se non é imposible controlar que o uso da IA non sexa inadecuado e se protexan os dereitos da cidadanía», advierte la profesora de Computación e IA de la Universidade da Coruña Verónica Bolón, que trabaja en el desarrollo de algoritmos verdes.

Coincide Senén Barro, director del Citius, el centro especializado en inteligencia artificial de la USC y referente en España: «É imprescindible —dice— regular a IA para garantir a súa equidade, a non discriminación, a privacidade, a seguridade, a protección, a transparencia ou a responsabilidade da mesma». ¿El objetivo? «Conseguir unha IA fiable, centrada nas persoas e que atenda ao ben común». Un argumento similar esgrime Manuel González Penedo, director del Citic, el centro de investigación en tecnologías TIC de la Universidade da Coruña, quien cree necesario que instituciones y gobiernos «acometan de verdad un proceso de análisis serio, analizando todos los puntos de vista y se posicionen como los garantes del buen uso de la IA mediante regulaciones y leyes». No le vale que las grandes compañías garanticen el buen uso y la privacidad de los datos de los ciudadanos, porque «¿cuántas auditorías se han realizado sobre esos sistemas?, ¿quién es el que comprueba que tales afirmaciones son correctas».

Carlos Calvo, director del Instituto Tecnológico de Galicia (ITG), centro de excelencia investigadora en IA de la red nacional Cervera, entiende que esta tecnología abre «un nuevo escenario de revolución industrial» que acarreará cambios globales en la sociedad ante los que habrá que adaptarse, pero como aún no se conocen sus límites «es necesario marcar las reglas de juego que permitan un desarrollo y evolución sostenible, a la vez que una implantación ordenada en la sociedad».

Incluso más contundente de muestra Alberto Bugarín, catedrático de Ciencia de la Computación e Inteligencia Artificial en la USC y coordinador del grado: «Sin duda de ningún tipo es necesario regular la IA y, en realidad, cualquier tecnología que pueda suponer un impacto grande en las personas». Y entiende que «es muy bueno que Europa haya tomado la delantera hace años y sea referencia en el tema». Pero falta por aprobar la regulación.

«Tiene un enorme potencial, pero debemos abordar sus desafíos»

  

La inteligencia artificial no es buena ni mala por sí misma. Todo depende de los usos que se le den y de los límites que se le impongan. Y esta es la filosofía de la que parte la propuesta europea que, «sin duda», urge aprobar, a juicio de Carlos Gómez, profesor de Computación e IA en la Universidade da Coruña y Premio Nacional de Investigación en TIC. Lo considera así porque a pesar de que «los avances rápidos e inesperados que se están produciendo en los últimos años tienen un enorme potencial para transformar la sociedad, mejorando nuestra calidad de vida», también presentan «desafíos éticos y sociales que tenemos que abordar, y es ahí donde debe entrar en juego la legislación».

Considera que el proyecto «acierta al poner el foco, sobre todo, en el uso de la tecnología», por lo que «intenta buscar un equilibrio entre prevenir riesgos y no obstaculizar los avances tecnológicos». Una opinión similar comparte Carlos Calvo, director del ITG. «La nueva regulación —dice— debería centrarse en el cómo y en el para qué se aplica, y no en incidir en la evolución tecnológica que, por otro lado, podría suponer una desventaja competitiva con China o EE.UU.».

Senén Barro, director del Citius, asegura que «esta regulación difícilmente estará operativa antes do 2025», aunque entiende que «o enfoque é o axeitado. Vai dirixido a regular usos. Os sistemas de puntuación social, por exemplo, deben ser prohibidos». Aun coincidiendo con este juicio, Alberto Bugarín advierte que «no pone demasiados obstáculos a aquellos usos que no supongan un riesgo o que estos sean mínimos, a priori». Pero cree que «lo esencial es que se ponga la normativa en marcha y por fin pasemos de la IA ética, que deja la responsabilidad en manos de los usuarios, a la regulada».

ANÁLISIS: LA PROPUESTA EUROPEA

Ni un Gran Hermano ni que se vulneren los derechos de autor

La normativa que prepara la UE prohibirá los sistemas de reconocimiento facial en directo y los de reputación social

r. romar

Europa no quiere un Gran Hermano. Los sistemas de vigilancia biométrica en espacios públicos que permiten el reconocimiento facial y de las emociones de los individuos quedarán prohibidos. Y tampoco se permitirán los de puntuación social que establezcan una reputación a los ciudadanos y que puede impedir a muchos acceder a un trabajo, al sistema sanitario, a los cuidados médicos, a un seguro o a servicios públicos y privados. Ni siquiera se aceptarán las tecnologías de predicción de delitos.

Son usos de la inteligencia artificial que la futura ley comunitaria clasificará como de riesgo inaceptable según la propuesta que debe ser aprobada este mes por el Parlamento, aunque todavía quedará por delante un trabajo de meses entre la Comisión y los gobiernos para definir la letra pequeña que se determinará para cada uno de los cuatro niveles de riesgo previstos y, sobre todo, qué tecnologías en concreto se establecerán en cada uno de ellos.

Como marco general, la legislación reforzará las normas sobre calidad de los datos que alimentan a los algoritmos para lograr una IA fiable y confiable; apostará por la transparencia, que obligará según los casos a advertir que se está utilizando una inteligencia artificial; incorporará la supervisión humana en aquellos supuestos donde sea necesario y establecerá una rendición de cuentas. Las multas por incumplimiento de la ley pueden llegar a los 30 millones de euros o al 6 % de los ingresos globales de las compañías afectadas.

El objetivo es garantizar los derechos fundamentales de los ciudadanos, como la seguridad, la privacidad o la no discriminación. Así, aparte de los riesgos inaceptables, que impedirán el uso de las tecnologías salvo excepciones puntuales relacionadas con la seguridad, se establecen otras tres categorías: riesgo alto, limitado o mínimo.

En el nivel alto se sitúan tecnologías con impacto en la seguridad y en los derechos fundamentales. Los proveedores deberán someterse a una evaluación de la conformidad. Esto les permitirá demostrar que su sistema cumple los requisitos obligatorios de una IA digna de confianza: calidad de los datos, documentación y trazabilidad, transparencia, supervisión humana, exactitud y solidez.

Un ejemplo serían los motores deepfake, que permiten suplantar la identidad de otra persona en un vídeo, ya sea modificando su rostro o su voz, de forma que el resultado parezca original y real. Un caso inocuo fue el montaje en el que se pudo ver al papa con un abrigo blanco de Balenciaga, pero en su reverso está dando lugar a chantajes, extorsiones y fraudes.

 Y qué ocurre con las aplicaciones de IA generativa como ChatGPT. Aún no está claro, pero la propuesta de la presidencia francesa fue que se incluyese en la categoría de riesgo alto, ya que puede manipular opiniones o generar información falsa con un uso inadecuado. OpenAI, la empresa creadora, estará obligada a notificar a sus usuarios que están interactuando con una máquina. Y Midjourney tendrá que aclarar que sus imágenes han sido creadas artificialmente. En ambos casos deberán respetar los derechos de autor de los datos que utilicen para generar contenidos.

«Hai quen lle pide a ChatGPT unha dieta para adelgazar, o que é algo superperigoso»

 

r. r.

A veces da la sensación de que la inteligencia artificial irrumpió en nuestras vidas con el lanzamiento de ChatGPT en noviembre del pasado año. Pero nada más lejos de la realidad. La utilizamos cuando planificamos una ruta con el móvil, recibimos una sugerencia cuando consultamos Internet o empleamos el asistente de voz, cuando limpiamos el hogar con un robot aspirador o manejamos un dron... Los ejemplos en la vida cotidiana son múltiples y casi infinitos en los usos que realiza la industria, el sector energético o el médico. Y son solo la punta del iceberg de lo que está por llegar.

Sus beneficios son enormes, pero, también lo son sus riesgos. Y para evitarlos una clave en la que insisten los expertos es la eliminación de los sesgos de los datos que nutren a los algoritmos, lo que puede llevar a manipular opiniones, influir en decisiones o generar información e imágenes falsas.

«La regulación busca que no se introduzcan sesgos en la información con la que se entrenan los modelos y que esta no afecte a la toma de decisiones. Aspectos como raza o género son algunos de los casos que más impacto social tienen, como, por ejemplo, en aplicaciones para la concesión de un préstamo bancario, para formalizar una póliza de seguros o para acceder al mercado laboral», advierte Carlos Calvo, director del Instituto Tecnológico de Galicia.

Son riesgos que es necesario controlar, pero para la investigadora en IA Verónica Bolón existen dos amenazas principales. «A primeira —dice— é que sistemas como chatGPT non pasaron controis de calidade e seguridade e, como aínda están en desenvolvemento, cometen moitos fallos, aínda que a xente non é consciente». Y se abusa de ellos «Hai vídeos en TikTok de persoas pedíndolle a ChatGPT que lles recomende unha dieta para adelgazar. Isto paréceme superperigoso, porque obviamente non é un nutricionista. Simplemente cuspe un texto con sentido que pode parecer unha dieta», explica. La otra amenaza viene porque «replican e magnifican os sesgos humanos. Se imos utilizar esta tecnoloxía para determinar a que persoa se lle concede un préstamo ou as posibilidades de sobrevivir dun paciente, é absolutamente necesario asegurarnos de que non ten sesgos».

A Senén Barro le preocupan los sistemas de vigilancia ciudadana basados en IA, «que poden ser moi tentadores para moitos gobernos, pero moi lesivos para as persoas de a pé». También «a facilidade coa que podemos ser enganados a través da IA, da xenerativa en particular, capaz de construír artificialmente contidos que parecen reais». Y, por último, «as armas autónomas, que deberían prohibirse».

Cura de enfermedades

Para Alberto Bugarín, los dos mayores riesgos no son tecnológicos. El primero es que «estamos dejando en manos de multinacionales privadas y foráneas los avances más recientes, que se han desarrollado de forma opaca muchos de ellos». Y el segundo es «el temor infundado a la IA que se está instalando en la población en general», por lo que cree necesario formar a la población. Y lamenta que la atención del público se centre en modelos generativos para la creación de contenidos como ChatGPT o Dall-E y no se hable de otros avances importantes. Pone un ejemplo: «DeemMind ha mejorado las técnicas de predicción de las propiedades de una proteína a partir de su secuencia genética, lo que puede ser una herramienta de gran ayuda en el diseño de nuevos métodos para la cura de enfermedades».

Para Manuel González, director del Citic «el principal riesgo es la falta de control en la verificación de los sistemas desarrollados bajo la IA», lo que puede llevar a vulnerar derechos fundamentales como la privacidad, seguridad o responsabilidad».