El pasado 7 de noviembre, el Consejo de Ministros dio luz verde al Real Decreto 817/2023, estableciendo así un entorno controlado de pruebas que complementará la futura Ley de Inteligencia Artificial en España.
Este sandbox, desarrollado en colaboración con la Comisión Europea, tiene como objetivo evaluar el cumplimiento de la propuesta de Reglamento de la Unión Europea sobre Inteligencia Artificial. En este análisis, desglosaremos su funcionamiento y objetivos, así como los detalles de la Proposición de Ley Orgánica relacionada con simulaciones generadas por IA.
Explorando el Sandbox Regulatorio
Con la expansión de la Inteligencia Artificial, el Parlamento y el Consejo Europeo se esfuerzan por establecer normativas que regulen esta tecnología en los países de la Unión Europea. En paralelo, el Gobierno de España, en colaboración con la Comisión Europea, lidera la implementación del primer entorno controlado de pruebas. Este entorno tiene como objetivo evaluar la efectividad de los requisitos para sistemas de Inteligencia Artificial de alto riesgo.
Este sandbox proporciona un marco regulatorio para garantizar la confianza, seguridad y privacidad de datos en el uso de herramientas basadas en IA. Se trata de un espacio controlado donde las empresas y participantes pueden experimentar con soluciones de IA bajo la supervisión de las autoridades competentes, validando así aquellas que cumplen con los requisitos establecidos. El primer entorno de pruebas se centrará en evaluar los requisitos aplicables a sistemas de inteligencia artificial de alto riesgo, como productos sanitarios, educación o gestión de recursos humanos.
Objetivos del Entorno de Pruebas para la IA de Alto Riesgo
Los principales objetivos incluyen:
- Facilitar la cooperación entre usuarios y proveedores de IA.
- Definir guías de buenas prácticas para mejorar las comunicaciones entre autoridades y empresas.
- Fomentar la claridad en los requisitos normativos relacionados con la IA.
- Transferir conocimientos técnicos sobre el cumplimiento de la legislación.
- Estimular la innovación.
- La creación de un comité asesor de expertos para supervisar y desarrollar las pruebas, garantizando estándares y resultados valiosos.
Requisitos para Participar en el Entorno de Pruebas
La participación está abierta a proveedores de IA y usuarios residentes en España o con establecimiento permanente en el país. También pueden participar agrupaciones de entidades con representación en territorio español, personas jurídicas privadas, administraciones públicas y entidades del sector público institucional que utilicen sistemas de IA de alto riesgo. Los proveedores deben presentar solicitudes electrónicas, proponiendo uno o varios sistemas de inteligencia artificial.
Este proyecto busca crear directrices para implementar el nuevo reglamento, generando un informe con buenas prácticas y lecciones aprendidas a través de pruebas y experimentación práctica. El objetivo es garantizar la correcta implementación y funcionamiento de los sistemas de IA en la futura normativa sobre Inteligencia Artificial.
Ley Orgánica de Regulación de Simulaciones de Imágenes y Voces Generadas con IA
En octubre, se presentó en el Congreso la Proposición de Ley Orgánica para regular las simulaciones de imágenes y voces generadas por IA. Esta propuesta busca frenar las deepfakes o vídeos hiperrealistas, una forma de manipulación audiovisual que simula la realidad.
Deepfakes: Simulación de la Realidad mediante la Inteligencia Artificial
Una deepfake es una pieza visual, auditiva o audiovisual que simula la realidad, generando imágenes y voces falsas de personas. La Proposición de Ley Orgánica, registrada el 13 de octubre, tiene como objetivo abordar los riesgos asociados a estas manipulaciones.
Puntos Clave de la Proposición de Ley Orgánica
La IA tiene efectos positivos pero también presenta riesgos, especialmente al discernir entre lo verdadero y lo falso. La dificultad para distinguir acciones reales de simulaciones generadas por IA plantea desafíos, incluyendo difamación, intimidación, fraude, manipulación mediática y electoral, robo de identidad, entre otros.
La generación de contenidos mediante IA, especialmente imágenes y voces, plantea desafíos significativos en términos de privacidad e intimidad. La falta de disposiciones específicas en el marco normativo español actual para abordar la autorización de la difusión de alteraciones de imágenes o voces generadas por IA hace crucial la implementación de regulaciones claras y específicas.
Estas regulaciones podrían ofrecer directrices sobre la obtención del consentimiento adecuado y establecer medidas para prevenir y sancionar el uso indebido de contenidos generados por IA en el ámbito audiovisual.
La Futura Ley de Inteligencia Artificial: Marco Legal Integral
La propuesta de la Comisión Europea en abril de 2021 reflejó un enfoque integral hacia la regulación de la inteligencia artificial. Clasificó los productos basados en IA en diferentes categorías según el riesgo y estableció estándares para cada umbral. Abordó la necesidad de regulación en la interacción con personas y la generación de contenidos por sistemas de IA.
La generación de contenidos visuales, auditivos o audiovisuales, según la propuesta, requerirá que los usuarios etiqueten correctamente el contenido generado artificialmente. La transparencia en la creación y manipulación de imágenes, archivos de audio o vídeos generados por IA es esencial para mantener la integridad y confianza en la información.
Modificaciones Propuestas por la Ley Orgánica sobre Inteligencia Artificial
La Proposición de Ley Orgánica contempla modificaciones en varias leyes existentes:
- Ley 13/2022, de 7 de julio, General de Comunicación Audiovisual: Modificaciones para delimitar las infracciones relacionadas con el uso de IA que vulneren la normativa.
- Código Penal: Creación de un artículo para clasificar como injuria la simulación de imágenes o voces generadas por IA sin autorización.
- Ley 1/2022, de 7 de enero, de Enjuiciamiento Civil: Inclusión de medidas cautelares para facilitar la retirada urgente de contenido generado con IA sin autorización.
- Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales: Creación de un nuevo artículo para brindar mayor protección al tratamiento de datos generados por IA.
- Ley Orgánica 5/1985, de 19 de junio, del Régimen Electoral General: Inclusión de un nuevo delito electoral para sancionar la difusión maliciosa de imágenes o audios alterados mediante IA durante procesos electorales.
Además, se propone la creación del Consejo de Participación Ciudadana para supervisar y evaluar la IA, y el establecimiento del Consejo Consultivo sobre el uso de la Inteligencia Artificial.
¿ChatGPT Cumple con la Ley de Protección de Datos?
La principal preocupación radica en que ChatGPT no solicita el consentimiento para el tratamiento de los datos generados durante su uso. La falta de información sobre la finalidad de la información recabada y la posibilidad de transferir la información a terceros son temas destacados.
Un problema técnico reciente expuso los títulos de sesiones de chats de algunos usuarios, generando una brecha de datos personales al exponer las conversaciones de unos a otros. La Agencia Española de Protección de Datos (AEPD) está investigando posibles incumplimientos normativos.
En términos de datos personales, al utilizar ChatGPT, se requiere la creación de una cuenta con información como nombre, correo electrónico, número de móvil y contraseña. Además, la herramienta recopila consultas, lo que podría revelar información sobre el comportamiento en línea de los usuarios. La falta de medidas de verificación de la edad llevó a una prohibición temporal en Italia.
La posibilidad de que ChatGPT pueda vender datos a terceros sin necesidad de consentimiento plantea inquietudes sobre la privacidad. Aunque se puede desactivar el historial de datos, su conservación durante 30 días genera preocupaciones.
En cuanto a la veracidad de los datos proporcionados por ChatGPT, la falta de filtro y origen verificable aumenta el riesgo de información sesgada y la propagación de noticias falsas. Las preocupaciones sobre la privacidad de datos sugieren posibles incumplimientos normativos según el Reglamento (UE) 2016/679.
Aunque aún no existe un Reglamento específico, la Unión Europea trabaja en una normativa que tendrá como objetivo asegurar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
Conclusiones
La implementación del entorno de pruebas para la Ley de Inteligencia Artificial marca un paso significativo hacia la regulación efectiva de esta tecnología en España. La evaluación de ChatGPT en el contexto del RGPD y la atención a los riesgos asociados a la generación de contenidos falsos por IA subrayan la importancia de abordar los desafíos éticos y legales en el desarrollo de estas herramientas.
A medida que avanzamos hacia un futuro más impulsado por la Inteligencia Artificial, es esencial equilibrar la innovación con la protección de la privacidad y la seguridad de los datos. La colaboración entre gobiernos, empresas y reguladores desempeñará un papel crucial en la formulación de norma
Si tienes preguntas o deseas compartir nuevas ideas sobre el contenido del post, no dudes en dejar tus comentarios. ¡En Grupo Garantía apreciamos tu participación!