La UE aprueba una pionera ley de IA pionera que ya contempla «riesgos inaceptables» para nuestra seguridad. Esto es lo que permite

La UE aprueba una pionera ley de IA pionera que ya contempla

El Parlamento Europeo acaba de marcar un hito histórico aprobando la primera Ley de Inteligencia Artificial a nivel mundial, una norma que se alza ahora como referencia en la regulación de esta tecnología emergente.

El texto, que ha sido objeto de intensos debates y deliberaciones desde su propuesta inicial por la Comisión Europea en abril de 2021, ha sido finalmente ratificado con un amplio respaldo: 523 votos a favor, 46 en contra y 49 abstenciones.

Eso sí, su publicación en el Diario Oficial de la UE no está prevista hasta mayo, con lo que será entonces cuando dé comienzo esta ‘nueva era’ en la regulación de la IA. Aunque, incluso entonces, pasarán todavía algunos meses mientras todos los países miembros aprueban la implementación de la norma en sus países

Eso no ha impedido al comisario europeo de Mercado Interno, Thierry Breton, destacar que la votación de hoy en el Parlamento Europeo posiciona a la UE como un «definidor de estándares» en materia de inteligencia artificial.

Los europarlamentarios han hecho todo lo posible para aprobar esta ley antes de que finalizara la legislatura (ha faltado poco)

Qué plantea esta nueva normativa

Esta legislación pionera se basa en un marco regulatorio que pretende clasificar los sistemas de IA en cuatro niveles de riesgo, desde mínimo hasta inaceptable, estableciendo estrictos requisitos y certificaciones para los sistemas de IA que se consideran de alto riesgo, con el objetivo de que sólo aquellos que han sido aprobados por las autoridades reguladoras puedan comercializarse.

OpenAI presionó a la UE para flexibilizar la normativa sobre IA mientras su CEO seguía pidiendo más regulación en público

En Genbeta

OpenAI presionó a la UE para flexibilizar la normativa sobre IA mientras su CEO seguía pidiendo más regulación en público

Estos son los cuatro niveles:

  • Riesgo inaceptable: Este nivel incluye los sistemas de IA que representan una clara amenaza para la seguridad, medios de vida y derechos de las personas, y que por ello estarán prohibidos en la UE. Ejemplos de ello serían desde los juguetes con asistencia por voz que promuevan comportamientos peligrosos, a los sistemas de reconocimiento masivo.
  • Alto riesgo: Los sistemas clasificados como de alto riesgo están sujetos a obligaciones estrictas antes de su comercialización, como la evaluación y mitigación de riesgos, requisitos de alta calidad para los datasets de entrenamiento, registro de actividades para trazabilidad, documentación detallada y supervisión humana. Esto incluye la identificación biométrica remota y sistemas usados en áreas críticas (justicia, control de fronteras, seguridad de productos, gestión laboral, servicios esenciales…).
  • Riesgo limitado: Este nivel se refiere a los sistemas de IA que requieren transparencia en su uso, como los chatbots (que deben identificarse claramente como tales), y el contenido generado por IA (textos, vídeos e imágenes), que deben ser etiquetados como generados artificialmente. La idea es que los usuarios sean conscientes de que están consumiendo contenido generado por IA.
  • Riesgo mínimo o nulo: Este nivel permite el uso libre de sistemas de IA que no representan un riesgo significativo, como los utilizados para filtrar spam en correos electrónicos o en ciertos videojuegos. La mayoría de los sistemas de IA en uso hoy en día en la UE caen dentro de esta categoría, por lo que no enfrentarán nuevas obligaciones legales.

Riesgos

Imagen: Xataka

Se pretende, así, equilibrar la protección de los derechos elementales de los ciudadanos con la promoción de la innovación tecnológica en Europa.

La Ley de IA también establece una Oficina Europea de IA encargada de supervisar la implementación de la norma y garantizar el cumplimiento, con poder para imponer multas significativas a las empresas que violen sus disposiciones.

La burocracia favorece a los grandes (de Silicon Valley)

Sin embargo, su aprobación no ha estado exenta de controversia: ciertos sectores de la industria han expresado su temor sobre cómo las nuevas normas podrían ralentizar el desarrollo y la implementación de aplicaciones innovadoras de IA, temiendo un posible freno a la innovación.

Pero no sólo la industria: gobiernos como los de Francia, Alemania e Italia, en particular, defendieron ‘abrir la mano’ con las startups y pymes, con el fin de no obstaculizar su capacidad para competir con gigantes tecnológicos como Google y OpenAI.

Google y OpenAI los temen, pero la UE puede hundirlos: así afectará este nuevo reglamento europeo a los proyectos de IA open source

En Genbeta

Google y OpenAI los temen, pero la UE puede hundirlos: así afectará este nuevo reglamento europeo a los proyectos de IA open source

También se pedía desde diversos sectores favorables al código abierto que los proyectos que se acogieran a este tipo de licencia estuvieran sometidos a una regulación diferenciada en cuanto a requisitos y pagos, pues temen que, a efectos prácticos, la burocracia a la que quieren someter a los proyectos de IA, pensada para grandes compañías, terminaría sacando del mercado europeo a proyectos más pequeños, llenos de desarrolladores voluntarios. Todo ello, en favor, de nuevo, de los gigantes ya establecidos en el mercado.

Imagen | Marcos Merino mediante IA

En Genbeta | La UE impone una multa histórica a Apple de 1.800 millones de euros tras la demanda de Spotify por «abusar de su posición dominante»


La noticia

La UE aprueba una pionera ley de IA pionera que ya contempla «riesgos inaceptables» para nuestra seguridad. Esto es lo que permite

fue publicada originalmente en

Genbeta

por
Marcos Merino

.

Europa aprueba la primera ley de regulación de inteligencia artificial: siete aplicaciones prohibidas, dos reguladas y excepciones

Europa aprueba la primera ley de regulación de inteligencia artificial: siete aplicaciones prohibidas, dos reguladas y excepciones

Aunque esta es una cuestión peliaguda y de largo recorrido donde Alemania, Francia e Italia ya establecieron inicialmente sus bases, en los últimos días conocíamos el estado y alcance de las conversaciones para establecer una regulación de la inteligencia artificial en la Unión Europea que ha culminado en   un acuerdo provisional, en tanto en cuanto que deberá ser ratificado tanto por los estados miembros como por el Parlamento. ¿El resultado? Una definición de obligaciones y normativa para la inteligencia artificial en la nueva IA Act: estos son sus puntos más importantes.

Entre la noche del viernes y el sábado se cerraba este acuerdo provisional de esta ley de inteligencia artificial pionera en el mundo, algo de lo que el comisario Thierry Breton se jactaba en su perfil de X/Twitter. De forma más solemne, la presidencia española del Consejo de la UE explicaba en la misma red social que este acuerdo provisional tiene como objetivo ‘garantizar que los sistemas de IA comercializados y usados en la UE sean seguros y respeten los derechos fundamentales y los valores UE.’ De este modo, la presidencia europea cumple uno de sus objetivos previstos antes de terminar su ciclo a finales de este año.

Captura De Pantalla 2023 12 09 A Las 11 33 13

Este acuerdo provisional comenzaba a cocerse el miércoles y, horas y horas de duras negociaciones después por cuestiones clave como hasta dónde permitir la autorregulación del sector y dónde intervenir, prohibiciones y excepciones o simple y llanamente por detalles que todavía no se han revelado. Vamos a ver las aplicaciones prohibidas, excepciones y obligaciones fundamentales de esta ley.

Lo esencial: transparencia y clasificación por riesgos

Transparencia en la presencia de la IA en el día a día. Chatbots, deepfakes y otros contenidos generados por inteligencia artificial deberán ser claramente etiquetados, de forma que usuarios y usuarias sepan que están frente a una inteligencia artificial. Aquellos contenidos made in IA, además deberán estar marcados para que sea detectado como tal. Asimismo, en caso de usar sistemas de categorización biométricas o reconocimiento de emociones, las personas deberán ser informadas.

La clasificación de usos y aplicaciones inteligencia artificial se definirá en función de su riesgo:

  • De riesgo mínimo, en el que entran la mayoría. Aquí tiene cabida los sistemas de recomendación o filtros de spam. Se considera que suponen un riesgo mínimo o nulo para los derechos o la seguridad de la ciudadanía y como tal, carecerán de obligaciones. Sin embargo, quien así lo desee puede comprometerse a adoptar códigos de conducta voluntarios.
  • De alto riesgo. Se considerarán como tal por su potencial  daño a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho (por ejemplo, aquellos que pueden usarse para influir en el resultado de las elecciones), como pueden ser infraestructuras energéticas, dispositivos médicos, control de fronteras, administración de justicia, sistemas biométricos. Los que se clasifiquen en este nivel tendrán que cumplir una serie de requisitos como registro de actividad, documentación detallada, información clara del usuario, supervisión humana y un alto nivel de robustez, precisión y ciberseguridad. La ciudadanía podrá presentar quejas sobre estos sistemas y recibir explicaciones sobre decisiones basadas en IA de alto riesgo que afecten a sus derechos.
  • De riesgo inaceptable porque se consideren una clara amenaza a los derechos fundamentales de las personas, como aquellas que manipulen el comportamiento humano para eludir el libre albedrío, juguetes que fomenten comportamientos peligrosos, sistemas de puntuación social, vigilancia policial predictiva o algunos usos biométricos como para el trabajo o vigilancia. Estas IA serán prohibidas.

Estas son las aplicaciones prohibidas o muy reguladas de la IA

Mención especial merecen esas aplicaciones de la inteligencia artificial que constituyen una amenaza para los derechos, la ciudadanía y la democracia, cuya consecuencia implica su prohibición:

  • Sistemas de categorización biométrica que utilizan características sensibles (como puede ser credo, religión, orientación sexual o raza).
  • Sistemas de extracción para bases de datos captando información indiscriminadamente a través de internet, TV o CCTV.
  • Reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
  • Social scoring, o lo que es lo mismo, la puntuación social basada en comportamiento social o características personales.
  • Sistemas de IA que manipulan el comportamiento humano para alterar su libre voluntad.
  • Sistemas de IA que explotan las vulnerabilidades humanas, por ejemplo, la edad, discapacidad, situación social o económica.

La excepción de los sistemas de identificación biométrica. Ojo porque la identificación biométrica es un tema peliagudo ya que no está totalmente prohibida:  podrá usarse con fines policiales previa autorización judicial y para una serie de delitos claramente estipulados. Así, se emplearía incluso en tiempo real para búsqueda selectiva de una persona sospechosa o condenada,  víctimas (secuestro, trata, explotación sexual) o amenaza terrorista, entre otros casos.

¿Qué parte de la ley aplica a ChatGPT y similares? Aquellos sistemas de inteligencia artificial de propósito general tendrán que cumplir criterios de transparencia anteriormente mencionados, pero también la elaboración de documentación técnica, el cumplimiento de la ley de derechos de autor de la UE y la difusión de resúmenes detallados sobre el contenido utilizado para la formación.

¿Qué pasa si no se cumple con la ley?

Como recoge la nota de prensa de este acuerdo provisional de la ley, el no cumplimiento de estas normas puede traducirse en multas que van desde 7,5 millones o el 1,5% del volumen de negocios hasta los 35 millones de euros o el 7% del volumen, en función del tipo de infracción cometida y el tamaño de la empresa.

¿Cuándo entrará esta ley en vigor?

Este acuerdo provisional no deja de ser un paso más, un hito cumplido a un largo recorrido que lleva más de dos años en el horno y al que todavía le queda. La IA Act comenzó a fraguarse en la primavera de 2021, como recordó ayer Ursula Von der Leyen.

Después, los estados miembros y el Parlamento Europeo deberá ratificar el texto final antes de que entre en vigor. Este proceso previsiblemente demorará la entrada en vigor de la ley hasta previsiblemente 2026, aunque algunas de estas secciones estarán operativas antes.

Portada | Jernej Furman | Tingey Injury Law Firm vía Xataka

En Genbeta | La controversia en la regulación de la IA: los creadores piden regulación a los gobiernos pero estos no saben qué está por llegar


La noticia

Europa aprueba la primera ley de regulación de inteligencia artificial: siete aplicaciones prohibidas, dos reguladas y excepciones

fue publicada originalmente en

Genbeta

por
Eva Rodriguez de Luis

.

Cataluña aprueba un nuevo decreto diseñado para que Uber y Cabify no puedan seguir en Barcelona: estos son todos los detalles

Cataluña aprueba un nuevo decreto diseñado para que Uber y Cabify no puedan seguir en Barcelona: estos son todos los detalles

Las VTC en España poco a poco van descubriendo el marco legal en el que se van a poder mover. Tras la aprobación de 9.000 nuevas licencias en la Comunidad de Madrid, ahora es el turno del Govern de Catalunya con una nueva regulación que no es tan favorable para el funcionamiento de las VTC.

Continuar leyendo «Cataluña aprueba un nuevo decreto diseñado para que Uber y Cabify no puedan seguir en Barcelona: estos son todos los detalles»