Los legisladores de la Unión Europea han realizado algunos cambios en el proyecto de ley de inteligencia artificial (IA) de la UE que impondrá una normativa más estricta sobre esta tecnología.

Las revisiones incluyen una prohibición de la tecnología en la vigilancia biométrica y para que los sistemas de IA generativa divulguen el contenido generado.

"Mientras que las grandes empresas tecnológicas hacen sonar la alarma sobre sus propias creaciones, Europa se ha adelantado y ha propuesto una respuesta concreta a los riesgos que la IA está empezando a plantear", dijo Brando Benifei, coponente del proyecto de ley.

La UE no es la única organización que expresa preocupaciones. Los principales científicos de IA y ejecutivos de empresas, incluido Elon Musk, firmaron una carta abierta en marzo de 2023 en la que decían que "la inteligencia humana-competitiva puede plantear riesgos profundos para la sociedad y la humanidad" y pedían una pausa en el desarrollo de sistemas de IA. Sin embargo Musk reunió un equipo y compró 10.000 GPU para el proyecto de IA de Twitter.

La UE dice que es necesaria una prohibición de las tecnologías de vigilancia biométrica, como las herramientas policiales predictivas o los sistemas de puntuación social como los que se utilizan en China, para proteger los derechos humanos de posibles abusos. Esta decisión, sin embargo, puede chocar con algunos países de la UE que se oponen a una prohibición total de la IA en los sistemas de vigilancia.

El Comisionado de Derechos Humanos del Consejo de Europa aborda esto en el informe Derechos humanos desde el diseño, que sugiere que, si bien muchas empresas y naciones no han considerado los derechos humanos cuando se trata de la implementación de la IA, 21 de los 46 estados miembros del Consejo de Europa han tomado medidas al respecto.

“Algunos Planes de Acción Nacionales (NAP), incluido el de Noruega, hacen referencia a los impactos en los derechos humanos de tecnologías específicas, incluidas tecnologías militares y de vigilancia que requieren regímenes de licencias de exportación más estrictos para evitar abusos”, dice el informe.

“Otros, incluidos los PAN de Lituania, Polonia e Italia, hacen referencia a la promoción en particular de tecnologías renovables, respetuosas con el medio ambiente y ecológicamente racionales. El NAP de Suiza menciona trabajar con instituciones internacionales para establecer "directrices autorizadas sobre la aplicación de los Principios Rectores de la ONU a cuestiones fundamentales en relación con el desarrollo, uso y gobernanza de las tecnologías digitales".

La Ley de IA de la UE también hará que cualquier empresa que utilice tecnología de IA generativa divulgue material protegido por derechos de autor utilizado para entrenar sus sistemas y para empresas que trabajan en "aplicaciones de alto riesgo" para evaluar el impacto potencial en los derechos y el medio ambiente.

Además, se requerirá que los sistemas de IA generativa divulguen que el contenido fue generado por IA. Esto ha llevado a OpenAI a decir que, dependiendo del texto final de la ley, la empresa puede verse obligada a retirarse de Europa.

La respuesta de las empresas ha sido mixta. Microsoft e IBM aprueban los cambios, y Microsoft ha dicho que: "Creemos que la IA requiere medidas de protección legislativas, esfuerzos de alineación a nivel internacional y acciones voluntarias significativas por parte de las empresas que desarrollan e implementan la IA". Otros, como Meta, han descartado que la IA tenga un riesgo, y el científico jefe de IA de la compañía, Yann LeCu, calificó a la IA de "intrínsecamente buena".

La Ley sobre la Inteligencia Artificial de la UE lleva dos años en proceso, ya que se propuso por primera vez en 2021. Actualmente se espera que se adopte a principios de 2024.