ADICAE advierte: La regulación de la IA llega con fechas clave y riesgos para los consumidores si no hay control efectivo
Para regular los riesgos que conlleva la Inteligencia Artificial (IA), la UE ha puesto en marcha un marco normativo progresivo desde 2024. El Reglamento de Inteligencia Artificial prohíbe ciertos tipos de Inteligencia Artificial y establece obligaciones estrictas para los sistemas de alto riesgo. Estas se impondrán a partir de agosto de 2025. ADICAE advierte que su efectividad dependerá de una supervisión rigurosa y la aplicación de las sanciones previstas. La asociación también subraya que la educación en IA es clave para un uso seguro y responsable. ADICAE exige control en la regulación de la IA para proteger a los consumidores.
El 2 de febrero entraron en vigor las prohibiciones de ciertas prácticas de IA consideradas “inaceptables”, entre estas prácticas se encuentran: El usarla para influir en las personas de manera engañosa o manipuladora (deepfakes, algoritmos que explotan sesgos cognitivos para manipular decisiones). La publicidad hiper personalizada que explota emociones, o los ataques cibernéticos automatizados. Sistemas que asignan una calificación a individuos en función de su comportamiento, interacciones o historial. Como el sistema de crédito social en China. O la identificación biométrica para deducir determinadas características protegidas y en espacios de acceso público en tiempo real; entre otras. Estas restricciones buscan evitar un uso abusivo de la IA que pueda influir en las decisiones de los consumidores sin su consentimiento.
Inicialmente, el 2 de mayo de 2025 estaba programado el establecimiento de Códigos de Buenas Prácticas, aunque su implementación se ha adelantado y ya está en marcha. Este código tiene como objetivo proporcionar directrices voluntarias para el desarrollo y uso responsable de sistemas de IA. Así se promueven la rendición de cuentas y el respeto a los derechos fundamentales de los consumidores.
El siguiente hito clave será el 2 de agosto de 2025. En esta fecha entrarán en vigor las obligaciones para los sistemas de IA de alto riesgo y para los sistemas de IA de riesgo sistémico.
Entre los sistemas IA de alto riesgo se encuentran usos de IA como los utilizados en biometría en ámbitos de empleo, servicios esenciales y justicia. Un ejemplo son los empleados para exámenes automatizados de solicitudes de visado, para preparar resoluciones judiciales, etc. La integración de la IA en infraestructuras críticas, como el transporte, es cada vez más común. Por ejemplo, los sistemas de control de tráfico aéreo y ferroviario utilizan algoritmos de IA para optimizar rutas y horarios, un fallo en estos sistemas podría tener consecuencias catastróficas.
Entre los sistemas IA de riesgo sistémico, se encuentran modelos funcionales de IA con gran impacto, como pueden ser ChatGPT, Gemini, Copilot o Siri, que aunque no se consideren de alto riesgo poseen gran capacidad de cálculo o impacto en múltiples sectores. La adopción de estas herramientas ha crecido y sigue creciendo significativamente: En agosto de 2024, ChatGPT alcanzó más de 200 millones de usuarios semanales, duplicando sus cifras respecto al año anterior. Google tiene como objetivo expandir la base de usuarios de su tecnología de IA, Gemini, a 500 millones de personas para finales de 2025. Con la introducción de Apple Intelligence, se espera que Siri incorpore capacidades de IA más avanzadas para competir con herramientas como ChatGPT y Gemini. El uso masivo de estas herramientas puede influir en la opinión pública, impactar elecciones o generar crisis de confianza en la información.
Entre las obligaciones para todos estos sistemas, destacan la evaluación de impacto sobre los derechos fundamentales, la documentación exhaustiva sobre su funcionamiento, la supervisión humana obligatoria y la implementación de mecanismos de gestión de riesgos.
El 2 de agosto también entra en vigor el régimen sancionatorio, y por tanto ADICAE insta a la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) y a los organismos europeos supervisores a establecer mecanismos de control efectivos y a aplicar sanciones proporcionales a las empresas que no cumplan con sus obligaciones de transparencia. ADICAE exige control en la regulación de la IA para proteger a los consumidores.
ADICAE continuará vigilando el desarrollo de la normativa y fomentando la capacitación del consumidor para el adecuado aprovechamiento de las aplicaciones de Inteligencia artificial a su alcance a través de su portal informativo.
Para más información de actualizada acudir a La Economía del Consumidor y a la web de ADICAE.