ALMERÍA HOY / 11·12·2023
La Comisión se congratula del acuerdo político alcanzado entre el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial (Ley de IA), propuesta por la Comisión en abril de 2021.
En palabras de la presidenta de la Comisión Europea, Ursula von der Leyen: «La inteligencia artificial ya está cambiando nuestra vida cotidiana, y esto tan solo es el principio. Utilizada de forma sensata y generalizada, la inteligencia artificial promete enormes beneficios para nuestra economía y nuestra sociedad. Por lo tanto, celebro con gran satisfacción el acuerdo político alcanzado hoy por el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial. La Ley de IA de la UE es el primer marco jurídico global en materia de inteligencia artificial en todo el mundo. Así pues, se trata de un momento histórico. La Ley de IA lleva los valores europeos a una nueva era. Al centrar la regulación en los riesgos identificables, el acuerdo alcanzado hoy fomentará la innovación responsable en Europa. Al velar por la seguridad y los derechos fundamentales de las personas y las empresas, sostendrá el desarrollo, la implantación y la aceptación de una inteligencia artificial fiable en la UE. Nuestra Ley de IA contribuirá de manera sustancial a la formulación de normas y principios mundiales sobre una inteligencia artificial centrada en el ser humano».
El planteamiento europeo sobre una inteligencia artificial fiable
Las nuevas normas se aplicarán directamente de la misma manera en todos los Estados miembros sobre la base de una definición de inteligencia artificial a prueba de futuro. Siguen un planteamiento basado en el riesgo, como se explica a continuación.
Riesgo mínimo: La inmensa mayoría de los sistemas de inteligencia artificial entra en esta categoría. Las aplicaciones de riesgo mínimo, tales como los sistemas de recomendación o los filtros de correo no deseado basados en la inteligencia artificial, disfrutarán de libertad y ninguna obligación al respecto, ya que estos sistemas presentan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos. No obstante, de forma voluntaria, las empresas pueden suscribir códigos de conducta adicionales sobre estos sistemas de inteligencia artificial.
Alto riesgo: Los sistemas de inteligencia artificial definidos como de alto riesgo deberán cumplir requisitos estrictos, tales como sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, registro de actividad, documentación detallada, información clara a los usuarios supervisión humana y un alto grado de solidez, precisión y ciberseguridad. Los espacios controlados de pruebas facilitarán la innovación responsable y el desarrollo de sistemas de inteligencia artificial conformes.
Algunos ejemplos de estos sistemas de inteligencia artificial de alto riesgo son determinadas infraestructuras críticas, por ejemplo, en los ámbitos del agua, el gas y la electricidad; productos sanitarios; sistemas para determinar el acceso a instituciones educativas o para la contratación de personas; o determinados sistemas utilizados en los ámbitos de la policía, el control fronterizo, la administración de justicia y los procesos democráticos. Además, los sistemas de identificación biométrica, categorización y reconocimiento de emociones también se consideran de alto riesgo.
Riesgo inadmisible: Se prohibirán los sistemas de inteligencia artificial que se consideren una clara amenaza para los derechos fundamentales de las personas. Esto abarca los sistemas o las aplicaciones de inteligencia artificial que manipulen el comportamiento humano para eludir la voluntad de los usuarios, por ejemplo, juguetes que utilicen asistencia vocal para incitar a comportamientos peligrosos a los menores y sistemas que permitan la «puntuación social» por parte de Gobiernos o empresas, así como determinadas aplicaciones de actuación policial predictiva. Además, se prohibirán algunos usos de sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones en el lugar de trabajo, algunos sistemas para clasificar a las personas o la identificación biométrica remota en tiempo real con fines policiales en lugares públicos (con excepciones limitadas).
Riesgo específico de transparencia: Al utilizar sistemas de inteligencia artificial como robots conversacionales, los usuarios deben ser conscientes de que están interactuando con una máquina. Las ultrafalsificaciones y otros contenidos generados por la inteligencia artificial deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o de reconocimiento de emociones. Además, los proveedores tendrán que diseñar los sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes se marquen en un formato legible por máquina y puedan reconocerse como generados o manipulados artificialmente.
Multas
Se impondrán multas a las empresas que no cumplan las normas. Las multas oscilarían entre 35 millones de euros o el 7 % del volumen de negocios anual mundial (si esta cifra es superior) por infracciones relacionadas con aplicaciones de inteligencia artificial prohibidas, 15 millones de euros o el 3 % por incumplimiento de otras obligaciones y 7,5 millones de euros o el 1,5 % por la presentación de información incorrecta. Se prevén topes más proporcionados para las multas administrativas para las pymes y las empresas emergentes en caso de infracción de la Ley de IA.
Inteligencia artificial de uso general
La Ley de IA introduce normas específicas sobre los modelos de inteligencia artificial de uso general que garantizarán la transparencia en toda la cadena de valor. En el caso de modelos muy potentes que puedan plantear riesgos sistémicos, habrá obligaciones vinculantes suplementarias relacionadas con la gestión de riesgos y el seguimiento de incidentes graves, la realización de la evaluación de modelos y emulación de adversarios (adversarial testing). Estas nuevas obligaciones se pondrán en práctica mediante códigos de prácticas elaborados por la industria, la comunidad científica, la sociedad civil y otras partes interesadas, junto con la Comisión.
Desde el punto de vista de la gobernanza, las autoridades nacionales competentes de vigilancia del mercado supervisarán la aplicación de las nuevas normas a nivel nacional, mientras que la creación de una nueva Oficina Europea de Inteligencia Artificial dentro de la Comisión Europea se encargará de la coordinación a nivel europeo. La nueva Oficina de Inteligencia Artificial también supervisará la aplicación y el cumplimiento de las nuevas normas sobre modelos de inteligencia artificial de uso general. Junto con las autoridades nacionales de vigilancia del mercado, la Oficina de Inteligencia Artificial será el primer organismo mundial que aplique normas vinculantes en la materia y, por lo tanto, se prevé que se convierta en una referencia internacional. Para los modelos de finalidad general, un grupo científico de expertos independientes desempeñará un papel central al emitir alertas sobre los riesgos sistémicos y contribuir a la clasificación y el ensayo de los modelos.
Próximas etapas
El acuerdo político está ahora sujeto a la aprobación formal del Parlamento Europeo y del Consejo y entrará en vigor a los veinte días de su publicación en el Diario Oficial. La Ley de IA pasaría a ser aplicable dos años después de su entrada en vigor, excepto en el caso de algunas disposiciones específicas: las prohibiciones ya se aplicarán transcurridos seis meses, mientras que las normas sobre la inteligencia artificial de finalidad general se aplicarán transcurridos doce meses.
Para salvar el período transitorio antes de que el Reglamento sea de aplicación general, la Comisión pondrá en marcha un Pacto sobre la inteligencia artificial, el cual reunirá a desarrolladores de inteligencia artificial de Europa y de todo el mundo que se comprometerán voluntariamente a cumplir las obligaciones fundamentales de la Ley de IA antes de los plazos legales.
Para promover internacionalmente normas sobre una inteligencia artificial fiable, la Unión Europea seguirá trabajando en foros como el G7, la OCDE, el Consejo de Europa, el G20 y las Naciones Unidas. Recientemente apoyamos el acuerdo alcanzado por los dirigentes del G7 en el marco del proceso de la inteligencia artificial de Hiroshima sobre unos principios rectores internacionales y un código de conducta voluntario para los sistemas avanzados de inteligencia artificial.
Antecedentes
La Comisión ha facilitado e intensificado durante años la cooperación en materia de inteligencia artificial en toda la UE para impulsar su competitividad y garantizar la confianza sobre la base de los valores de la UE.
Tras la publicación de la Estrategia europea sobre la inteligencia artificial en 2018 y previa amplia consulta de las partes interesadas, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial formuló en 2019 unas directrices sobre una inteligencia artificial fiable y una lista de evaluación para una inteligencia artificial fiable en 2020. Paralelamente, en diciembre de 2018 se publicó el primer plan coordinado sobre la inteligencia artificial como compromiso conjunto con los Estados miembros.
El Libro Blanco sobre la inteligencia artificial de la Comisión, publicado en 2020, expone una visión clara de la inteligencia artificial fiable en Europa: un ecosistema de excelencia y confianza, que sienta las bases del acuerdo político alcanzado hoy. La consulta pública sobre el Libro Blanco sobre la inteligencia artificial fiable contó con una amplia participación procedente de todo el mundo. El Libro Blanco iba acompañado de un «Informe sobre las implicaciones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica», en el que se concluye que la legislación vigente en materia de seguridad de los productos contiene una serie de lagunas que deben subsanarse, sobre todo en la Directiva sobre máquinas.
La investigación independiente y basada en datos contrastados realizada por el Centro Común de Investigación (JRC) ha sido fundamental para configurar las políticas de la UE en materia de inteligencia artificial y garantizar su aplicación efectiva. A través de una investigación y un análisis rigurosos, el JRC ha apoyado la elaboración de la Ley de IA, influyendo en la terminología de la inteligencia artificial, la clasificación de riesgos, los requisitos técnicos y la formulación permanente de normas armonizadas.
En palabras de la presidenta de la Comisión Europea, Ursula von der Leyen: «La inteligencia artificial ya está cambiando nuestra vida cotidiana, y esto tan solo es el principio. Utilizada de forma sensata y generalizada, la inteligencia artificial promete enormes beneficios para nuestra economía y nuestra sociedad. Por lo tanto, celebro con gran satisfacción el acuerdo político alcanzado hoy por el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial. La Ley de IA de la UE es el primer marco jurídico global en materia de inteligencia artificial en todo el mundo. Así pues, se trata de un momento histórico. La Ley de IA lleva los valores europeos a una nueva era. Al centrar la regulación en los riesgos identificables, el acuerdo alcanzado hoy fomentará la innovación responsable en Europa. Al velar por la seguridad y los derechos fundamentales de las personas y las empresas, sostendrá el desarrollo, la implantación y la aceptación de una inteligencia artificial fiable en la UE. Nuestra Ley de IA contribuirá de manera sustancial a la formulación de normas y principios mundiales sobre una inteligencia artificial centrada en el ser humano».
El planteamiento europeo sobre una inteligencia artificial fiable
Las nuevas normas se aplicarán directamente de la misma manera en todos los Estados miembros sobre la base de una definición de inteligencia artificial a prueba de futuro. Siguen un planteamiento basado en el riesgo, como se explica a continuación.
Riesgo mínimo: La inmensa mayoría de los sistemas de inteligencia artificial entra en esta categoría. Las aplicaciones de riesgo mínimo, tales como los sistemas de recomendación o los filtros de correo no deseado basados en la inteligencia artificial, disfrutarán de libertad y ninguna obligación al respecto, ya que estos sistemas presentan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos. No obstante, de forma voluntaria, las empresas pueden suscribir códigos de conducta adicionales sobre estos sistemas de inteligencia artificial.
Alto riesgo: Los sistemas de inteligencia artificial definidos como de alto riesgo deberán cumplir requisitos estrictos, tales como sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, registro de actividad, documentación detallada, información clara a los usuarios supervisión humana y un alto grado de solidez, precisión y ciberseguridad. Los espacios controlados de pruebas facilitarán la innovación responsable y el desarrollo de sistemas de inteligencia artificial conformes.
Algunos ejemplos de estos sistemas de inteligencia artificial de alto riesgo son determinadas infraestructuras críticas, por ejemplo, en los ámbitos del agua, el gas y la electricidad; productos sanitarios; sistemas para determinar el acceso a instituciones educativas o para la contratación de personas; o determinados sistemas utilizados en los ámbitos de la policía, el control fronterizo, la administración de justicia y los procesos democráticos. Además, los sistemas de identificación biométrica, categorización y reconocimiento de emociones también se consideran de alto riesgo.
Riesgo inadmisible: Se prohibirán los sistemas de inteligencia artificial que se consideren una clara amenaza para los derechos fundamentales de las personas. Esto abarca los sistemas o las aplicaciones de inteligencia artificial que manipulen el comportamiento humano para eludir la voluntad de los usuarios, por ejemplo, juguetes que utilicen asistencia vocal para incitar a comportamientos peligrosos a los menores y sistemas que permitan la «puntuación social» por parte de Gobiernos o empresas, así como determinadas aplicaciones de actuación policial predictiva. Además, se prohibirán algunos usos de sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones en el lugar de trabajo, algunos sistemas para clasificar a las personas o la identificación biométrica remota en tiempo real con fines policiales en lugares públicos (con excepciones limitadas).
Riesgo específico de transparencia: Al utilizar sistemas de inteligencia artificial como robots conversacionales, los usuarios deben ser conscientes de que están interactuando con una máquina. Las ultrafalsificaciones y otros contenidos generados por la inteligencia artificial deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o de reconocimiento de emociones. Además, los proveedores tendrán que diseñar los sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes se marquen en un formato legible por máquina y puedan reconocerse como generados o manipulados artificialmente.
Multas
Se impondrán multas a las empresas que no cumplan las normas. Las multas oscilarían entre 35 millones de euros o el 7 % del volumen de negocios anual mundial (si esta cifra es superior) por infracciones relacionadas con aplicaciones de inteligencia artificial prohibidas, 15 millones de euros o el 3 % por incumplimiento de otras obligaciones y 7,5 millones de euros o el 1,5 % por la presentación de información incorrecta. Se prevén topes más proporcionados para las multas administrativas para las pymes y las empresas emergentes en caso de infracción de la Ley de IA.
Inteligencia artificial de uso general
La Ley de IA introduce normas específicas sobre los modelos de inteligencia artificial de uso general que garantizarán la transparencia en toda la cadena de valor. En el caso de modelos muy potentes que puedan plantear riesgos sistémicos, habrá obligaciones vinculantes suplementarias relacionadas con la gestión de riesgos y el seguimiento de incidentes graves, la realización de la evaluación de modelos y emulación de adversarios (adversarial testing). Estas nuevas obligaciones se pondrán en práctica mediante códigos de prácticas elaborados por la industria, la comunidad científica, la sociedad civil y otras partes interesadas, junto con la Comisión.
Desde el punto de vista de la gobernanza, las autoridades nacionales competentes de vigilancia del mercado supervisarán la aplicación de las nuevas normas a nivel nacional, mientras que la creación de una nueva Oficina Europea de Inteligencia Artificial dentro de la Comisión Europea se encargará de la coordinación a nivel europeo. La nueva Oficina de Inteligencia Artificial también supervisará la aplicación y el cumplimiento de las nuevas normas sobre modelos de inteligencia artificial de uso general. Junto con las autoridades nacionales de vigilancia del mercado, la Oficina de Inteligencia Artificial será el primer organismo mundial que aplique normas vinculantes en la materia y, por lo tanto, se prevé que se convierta en una referencia internacional. Para los modelos de finalidad general, un grupo científico de expertos independientes desempeñará un papel central al emitir alertas sobre los riesgos sistémicos y contribuir a la clasificación y el ensayo de los modelos.
Próximas etapas
El acuerdo político está ahora sujeto a la aprobación formal del Parlamento Europeo y del Consejo y entrará en vigor a los veinte días de su publicación en el Diario Oficial. La Ley de IA pasaría a ser aplicable dos años después de su entrada en vigor, excepto en el caso de algunas disposiciones específicas: las prohibiciones ya se aplicarán transcurridos seis meses, mientras que las normas sobre la inteligencia artificial de finalidad general se aplicarán transcurridos doce meses.
Para salvar el período transitorio antes de que el Reglamento sea de aplicación general, la Comisión pondrá en marcha un Pacto sobre la inteligencia artificial, el cual reunirá a desarrolladores de inteligencia artificial de Europa y de todo el mundo que se comprometerán voluntariamente a cumplir las obligaciones fundamentales de la Ley de IA antes de los plazos legales.
Para promover internacionalmente normas sobre una inteligencia artificial fiable, la Unión Europea seguirá trabajando en foros como el G7, la OCDE, el Consejo de Europa, el G20 y las Naciones Unidas. Recientemente apoyamos el acuerdo alcanzado por los dirigentes del G7 en el marco del proceso de la inteligencia artificial de Hiroshima sobre unos principios rectores internacionales y un código de conducta voluntario para los sistemas avanzados de inteligencia artificial.
Antecedentes
La Comisión ha facilitado e intensificado durante años la cooperación en materia de inteligencia artificial en toda la UE para impulsar su competitividad y garantizar la confianza sobre la base de los valores de la UE.
Tras la publicación de la Estrategia europea sobre la inteligencia artificial en 2018 y previa amplia consulta de las partes interesadas, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial formuló en 2019 unas directrices sobre una inteligencia artificial fiable y una lista de evaluación para una inteligencia artificial fiable en 2020. Paralelamente, en diciembre de 2018 se publicó el primer plan coordinado sobre la inteligencia artificial como compromiso conjunto con los Estados miembros.
El Libro Blanco sobre la inteligencia artificial de la Comisión, publicado en 2020, expone una visión clara de la inteligencia artificial fiable en Europa: un ecosistema de excelencia y confianza, que sienta las bases del acuerdo político alcanzado hoy. La consulta pública sobre el Libro Blanco sobre la inteligencia artificial fiable contó con una amplia participación procedente de todo el mundo. El Libro Blanco iba acompañado de un «Informe sobre las implicaciones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica», en el que se concluye que la legislación vigente en materia de seguridad de los productos contiene una serie de lagunas que deben subsanarse, sobre todo en la Directiva sobre máquinas.
La investigación independiente y basada en datos contrastados realizada por el Centro Común de Investigación (JRC) ha sido fundamental para configurar las políticas de la UE en materia de inteligencia artificial y garantizar su aplicación efectiva. A través de una investigación y un análisis rigurosos, el JRC ha apoyado la elaboración de la Ley de IA, influyendo en la terminología de la inteligencia artificial, la clasificación de riesgos, los requisitos técnicos y la formulación permanente de normas armonizadas.