El Parlamento Europeo inicia los trabajos para armonizar la regulación de la Inteligencia Artificial junto a los Estados miembros, con la Ley de Inteligencia Artificial pionera en el mundo.
Ahora, considerando la irrupción de los desarrollos de Inteligencia Artificial como como ChatGPT o Midjourney entre otros, ha adoptado su posición negociadora sobre la Ley de Inteligencia Artificial. De las conversaciones con los Estados miembros se obtendrá el texto definitivo de la futura Ley de Inteligencia Artificial.
¿Qué es la Inteligencia Artificial?
La inteligencia artificial es un conjunto de tecnologías de rápida evolución que puede generar un amplio abanico de beneficios económicos y sociales en todos los sectores y las actividades sociales.
La inteligencia artificial es, en definitiva, y como prevé el LIBRO BLANCO sobre la inteligencia artificial, una combinación de tecnologías que agrupa datos, algoritmos y capacidad informática.
Haciendo uso de la inteligencia artificial, los sistemas tecnológicos perciben su entorno, se relacionen con él y resuelven incidencias actuando con un fin específico.
En definitiva, el sistema recibe datos, que han sido preparados o recopilados previamente a través de sus propios sensores, por ejemplo, una cámara, los procesa y responde a ellos, todo ello sin interacción de una decisión humana.
Mediante la mejora y optimización de la predicción, las operaciones y de la asignación de los recursos y la personalización de la prestación de servicios, la inteligencia artificial puede:
- Facilitar la consecución de resultados positivos desde el punto de vista social y medioambiental.
- Proporcionar ventajas competitivas esenciales a las empresas y en esencia a la economía.
Resulta esto especialmente relevante en sectores importantes como el cambio climático, el medio ambiente y la salud. También en relación con el sector público, las finanzas, la movilidad, los asuntos internos y la agricultura.
Sin embargo, los mismos elementos y técnicas que potencian estas ventajas y beneficios socioeconómicos de la Inteligencia Artificial también pueden generar nuevos riesgos o consecuencias negativas para personas concretas o para la sociedad en su conjunto.
La Comisión Europea distingue los siguientes tipos de inteligencia artificial
- Software: asistentes virtuales, software de análisis de imágenes, motores de búsqueda, sistemas de reconocimiento de voz y rostro.
- Inteligencia artificial integrada: robots, drones, vehículos autónomos, Internet de las Cosas.
¿Por qué interviene en la regulación de la Inteligencia Artificial la Unión Europea?
La Unión Europea quiere regular, con la Ley de Inteligencia Artificial, la Inteligencia Artificial, con el objetivo de:
- Garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora, además de partir de un conjunto normativo armonizado para los Estados Miembros.
En vista de la velocidad a la que cambia la tecnología y las dificultades que podrían surgir, la Unión Europea trabaja en pro de buscar un enfoque equilibrado.
El interés de la Unión Europea es el de, además de establecer las primeras bases que permitan armonizar la legislación europea en materia de Inteligencia Artificial mantener su liderazgo tecnológico y garantizar que los ciudadanos europeos puedan aprovechar nuevas tecnologías que se desarrollen. Y que estas, funcionen de acuerdo con los valores, los derechos fundamentales y los principios de la Unión Europea.
En definitiva, la pretensión de la Unión Europea es la de dotar de normas armonizadas para el desarrollo, la introducción en el mercado y la utilización de sistemas de Inteligencia Artificial en la Unión a partir de un enfoque proporcionado basado en los riesgos.
La propuesta planteada por la Comisión Europea al Parlamento, teniendo en consideración entre otras las previsiones del Libro Blanco sobre Inteligencia Artificial, se limita a establecer los requisitos mínimos necesarios para subsanar los riesgos y problemas vinculados a la Inteligencia Artificial, sin obstaculizar ni impedir indebidamente el desarrollo tecnológico y sin aumentar de un modo desproporcionado el coste de introducir soluciones de Inteligencia Artificial en el mercado.
Riesgos relacionados con el uso de la Inteligencia Artificial
Los daños relacionados un uso indebido o una deficiente regulación de la Inteligencia Artificial pueden ser, de acuerdo con las conclusiones del Parlamento Europeo:
- Materiales: para la seguridad y la salud de las personas, con consecuencias como la muerte, y menoscabos al patrimonio.
- Inmateriales: pérdida de privacidad, limitaciones del derecho de libertad de expresión, dignidad humana, discriminación en el acceso al empleo, etc.
- Pueden estar vinculados a una gran variedad de riesgos.
- Los principales riesgos relacionados con el uso de la inteligencia artificial afectan a la aplicación de las normas diseñadas para proteger los derechos fundamentales (como la protección de los datos personales y la privacidad, o la no discriminación) y la seguridad, así como a las cuestiones relativas a la responsabilidad civil.
El marco regulador debe centrarse en cómo minimizar los distintos riesgos de sufrir daños, especialmente los más significativos.
Ley de Inteligencia Artificial. Se proponen los siguientes objetivos específicos:
El Parlamento Europeo fija los siguientes objetivos a conseguir por la futura Ley de Inteligencia Artificial:
- Garantizar que los sistemas de Inteligencia Artificial introducidos y usados en el mercado de la Unión Europea sean seguros y respeten la legislación vigente en materia de derechos fundamentales y valores de la Unión.
- Garantizar la seguridad jurídica para facilitar la inversión e innovación en Inteligencia Artificial.
- Mejorar la gobernanza y la aplicación efectiva de la legislación vigente en materia de derechos fundamentales y los requisitos de seguridad aplicables a los sistemas de Inteligencia Artificial.
- Facilitar el desarrollo de un mercado único para hacer un uso legal, seguro y fiable de las aplicaciones de Inteligencia Artificial y evitar la fragmentación del mercado.
La prioridad es que los sistemas de Inteligencia Artificial utilizados en la Unión Europea sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
Además se insiste en que los sistemas de Inteligencia Artificial deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales.
Primeros pasos en la Ley de Inteligencia Artificial
Sobre esta propuesta y fijación de objetivos, el pleno del Parlamento Europeo adopta su posición sobre las nuevas reglas para contener los riesgos asociados a la inteligencia artificial y garantizar un uso ético de la misma.
El debate de los eurodiputados se ha centrado en este proyecto de Ley de Inteligencia Artificial, pionero en el mundo, que pretende gestionar la Inteligencia Artificial e impulsar su utilización bajo la supervisión humana y en consonancia con los valores de la UE, incluidos el respeto de la privacidad y la no discriminación.
En este debate se plantea para la configurar la futura Ley de Inteligencia Artificial como tema candente los últimos desarrollos de Inteligencia Artificial generativas, como ChatGPT o Midjourney.
La popularización de estas herramientas de Inteligencia Artificial ha abierto un gran debate sobre la desprotección de los usuarios ante cuestiones de privacidad, desinformación, o de la propiedad intelectual de los materiales utilizados para el entrenamiento de estos modelos.
Prácticas prohibidas en la futura Ley de Inteligencia Artificial
Prohibiciones que se refieren a los usos intrusivos y discriminatorios de la Inteligencia Artificial:
- Sistemas de identificación biométrica remota, en tiempo real, en espacios públicos.
- Los sistemas de identificación biométrica remota, a posteriori, con la única excepción de usos policiales en investigaciones por delitos graves y con autorización judicial.
- Los sistemas de categorización biométrica que utilicen características identitarias. Como pueden ser el género, la raza, la etnia, el estatus de ciudadanía, la religión o la orientación política.
- Los sistemas policiales predictivos, basados en la elaboración de perfiles, la ubicación o el historial delictivo. Imagino que a todos nos viene a la cabeza la película de 2002 dirigida por Steven Spielberg y protagonizada por Tom Cruise Minority Report.
- Los sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza.
- El rastreo indiscriminado de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial (estas prácticas violan los derechos humanos y el derecho a la intimidad).
Diferentes niveles de riesgo en la IA: Ley de Inteligencia Artificial
El texto alcanzado en el Parlamento Europeo establece una serie de obligaciones para proveedores y usuarios de la Inteligencia Artificial en función del nivel de riesgo de la misma.
Encontramos tres niveles de riesgo: Riesgo inaceptable, Alto riesgo y Riesgo limitado.
Inteligencia Artificial de riesgo inaceptable
Los sistemas de Inteligencia Artificial de riesgo inaceptable son los que se consideran una amenaza para las personas y serán prohibidos.
Tienen la consideración de Inteligencia Artificial de riesgo inaceptable en la Ley de Inteligencia Artificial:
- La manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos. Como ejemplo podemos citar los juguetes activados por voz que fomentan comportamientos peligrosos en los niños.
- La puntuación social. Esto es, la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales.
- Los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.
Como excepción a esta calificación. Tenemos el ejemplo, de los sistemas de identificación biométrica a distancia "a posteriori", en los que la identificación se produce tras un retraso significativo, pues se permitirán para perseguir delitos graves y sólo cuando haya previa aprobación judicial.
Inteligencia Artificial de alto riesgo
Serán considerados de alto riesgo y se dividirán en las categorías siguientes, los sistemas de Inteligencia Artificial que afecten negativamente a la seguridad o a los derechos fundamentales.
Categoría 1. Productos sujetos a la legislación de la Unión Europea sobre seguridad de los productos
Cuando en productos sujetos a la legislación de la Unión Europea sobre seguridad de los productos se utilicen sistemas de Inteligencia Artificial. Por ejemplo, los juguetes, aviación, automóviles, dispositivos médicos y ascensores.
Categoría 2. Sistemas de Inteligencia Artificial en ámbitos específicos
Estos, deberán registrarse en una base de datos de la Unión Europea, son los siguientes:
- Identificación biométrica y categorización de personas físicas
- Gestión y explotación de infraestructuras críticas
- Educación y formación profesional
- Empleo, gestión de trabajadores y acceso al autoempleo
- Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas
- Aplicación de la ley
- Gestión de la migración, el asilo y el control de fronteras
- Asistencia en la interpretación jurídica y aplicación de la ley.
Todos los sistemas de Inteligencia Artificial de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida.
IA de riesgo limitado
Los sistemas de Inteligencia Artificial de riesgo limitado deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa.
Los usuarios, tras interactuar con las aplicaciones, puede decidir si desean seguir utilizándolas. En el uso de las aplicaciones, los usuarios deben ser conscientes de cuándo están interactuando con la Inteligencia Artificial.
Se incluyen aquí los sistemas de Inteligencia Artificial que generan o manipulan contenidos de imagen, audio o vídeo como pueden ser las deepfakes.
ChatGPT obligaciones específicas en la Ley de Inteligencia Artificial
La Inteligencia Artificial Generativa, como puede ser ChatGPT, tendría que cumplir con unos requisitos de transparencia adicionales:
- Deberán revelar que el contenido ha sido generado por Inteligencia Artificial, con el objetivo de distinguir falsificaciones de imágenes auténticas.
- El modelo debe diseñarse de forma que evite la generación de contenidos ilegales.
- Tendrán que publicar resúmenes detallados de los datos protegidos por derechos de autor utilizados para su desarrollo y entrenamiento.
Resulta casi inevitable mencionar ahora el capítulo 1 “Joan es horrible” de la sexta temporada de la serie de Netflix creada por Charlie Brooker, Black Mirror.
Categorizado en:
Jurídico