La Eurocámara apuesta por obligar a advertir de los contenidos generados por Inteligencia Artificial como ChapGPT

La Eurocámara apuesta por obligar a advertir de los contenidos generados por Inteligencia Artificial como ChapGPT

Si quieres ponerle al papa un abrigo moderno o difundir una imagen de Donald Trump arrestado por la policía, será necesario que dejes claro que lo has hecho utilizando sistemas de Inteligencia Artificial. Es una de las medidas que el Parlamento Europeo quiere introducir en la legislación que impulsó la Comisión Europea en abril de 2021. Nadie hace unos años se había imaginado que se tendría que regular algo así. Cuando Bruselas lanzó su propuesta legislativa aún no se había popularizado ChatGPT, el programa que podría estar redactando esta noticia. Los eurodiputados han incluido los denominados sistemas generativos en los elementos que deben ser regulados.

La creación de contenidos (textos, vídeos, imágenes...) a través de Inteligencia Artificial deberán cumplir una serie de obligaciones de transparencia. Básicamente informar de que se han creado mediante ese método. Es una forma de evitar la desinformación. Además, los desarrolladores tendrán que diseñar el modelo para evitar que se genere contenido ilegal. Proteger el copyright de los materiales utilizados también es uno de los objetivos: habrá que publicar resúmenes de datos protegidos por derechos de autor que han sido utilizados.

Los eurodiputados también quieren poner límites al uso de la Inteligencia Artificial, por ejemplo, en el entorno laboral. Si una empresa lo quiere utilizar para hacer seguimiento de sus empleados, estos tendrán que estar al menos informados. "Antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo, los implementadores consultarán a los representantes de los trabajadores con el fin de llegar a un acuerdo e informar a los empleados afectados de que estarán sujetos al sistema", recoge el texto aprobado en las comisiones de Mercado y de Libertades Civiles, que ahora tendrá que ser aprobado definitivamente en el Pleno para comenzar la negociación con los estados y la Comisión.

Otra de las preocupaciones de los legisladores europeos es el uso de la IA para el reconocimiento de las emociones. "Existen serias preocupaciones sobre la base científica de los sistemas de IA destinados a detectar emociones, características físicas o fisiológicas, como expresiones faciales, movimientos, frecuencia del pulso o voz", expresa el texto, que amplía los supuestos en los que prohibir su utilización. De salir adelanto, no podrá usarse por parte de la policía, en la gestión de fronteras, en el lugar de trabajo o en instituciones educativas.

wpChatIcon