La ministra delegada para la Transición Digital y la Reforma de la Administración, Amal El Fallah Seghrouchni, subrayó el martes en París la relevancia de incorporar las dimensiones cognitivas y perceptivas al evaluar las tecnologías de inteligencia artificial (IA).
Según la ministra, esta integración permitirá «enmarcar mejor las tecnologías de la IA y proteger de manera duradera la libertad de expresión y la formación del juicio en nuestras democracias». Estas declaraciones fueron realizadas durante la tercera reunión del Comité de Expertos sobre las Implicaciones de la Inteligencia Artificial Generativa para la Libertad de Expresión (MSI-AI) del Consejo de Europa.
Al compartir sus reflexiones sobre las transformaciones invisibles que la IA generativa está provocando en nuestras sociedades, Seghrouchni destacó que, aunque algunos impactos son cuantificables, otros, especialmente los cognitivos y perceptivos, son mucho más difíciles de medir.
Uno de los principales desafíos, explicó, radica en la capacidad de estas tecnologías para potenciar mecanismos de influencia sutil, como el "nudging", a través de la voz, las expresiones faciales o la interacción afectiva simulada.
La ministra precisó que la IA generativa no solo produce contenido, sino que amplifica nuestra percepción del mundo y modifica nuestra forma de reaccionar ante él. Como ejemplo, mencionó la creación de un vínculo afectivo entre un adulto y un robot con apariencia infantil en menos de 30 minutos, ilustrando cómo el apego, la percepción e incluso los comportamientos pueden verse rápidamente influenciados sin que los usuarios sean conscientes de ello.
En este contexto, cuestionó la capacidad de las sociedades para evaluar estos efectos, especialmente en los grupos más vulnerables: niños, personas con discapacidad o ciudadanos en situaciones de fragilidad cognitiva. Se preguntó si, una vez que la mentalidad ha sido modificada por estas tecnologías, ¿es posible revertir el proceso? ¿Podemos concebir una forma de «desintoxicación cognitiva» de la IA generativa?, se interrogó.
Esta intervención se enmarca en un contexto ético y jurídico en evolución, mientras que algunos países han reconocido desde 2020 derechos cognitivos, abriendo un nuevo campo de reflexión sobre las libertades fundamentales en la era algorítmica.
El Comité de Expertos sobre el Impacto de la Inteligencia Artificial Generativa en la Libertad de Expresión tiene la tarea de elaborar un proyecto de directrices sobre las implicaciones de la inteligencia artificial generativa para la libertad de expresión, antes de finales de 2025.