Crear imágenes con Inteligencia Artificial, para luego venderlas, no es una buena idea

robot artista

Durante los últimos meses hemos visto varias plataformas que son capaces de crear imágenes a partir de texto. Dall-E es la más impresionante, pero aún no puede probarse de forma pública. Tenemos a Dall-E 2, eso sí, o a Stable Difusion v1.5, que no es menos sorprendente.

Hace unas semanas escribí Stable Diffusion Vs DALL·E mini, probando dos generadores de imágenes a partir de texto, para que veáis el potencial que tienen.

El caso es que hay mucha gente que consigue hacer maravillas con estos motores de IA, y después usan las imágenes generadas para ponerlas en bancos como GETTY Images, entre otros.

Eso no es una buena idea.

Getty Images ha prohibido la carga y venta de ilustraciones generadas con herramientas de arte de IA como DALL-E, Midjourney y Stable Diffusion, algo que ya hicieron antes sitios como Newgrounds , PurplePort y FurAffinity. El motivo es obvio, ya que muchas de las nuevas imágenes son generadas usando componentes existentes en imágenes ya publicadas y protegidas, por lo que se puede estar violando derechos de autor.

Hay preocupación sobre la legalidad del contenido generado por IA, problemas de derechos no abordados con respecto a las imágenes, los metadatos de las imágenes y las personas contenidas en las imágenes, por lo que un usuario que suba una imagen generada por IA, puede acabar recibiendo una notificación de abogados para pagar indemnizaciones.

Stable Diffusion, sin ir más lejos, crea imágenes usando contenido extraído de la web, incluyendo blogs de arte personales, sitios de noticias y sitios de fotos de archivo como Getty Images. Hay una ley de «uso justo» que brinda cierta protección, pero no incluye la venta de imágenes.

De momento no se sabe si ya ha habido algún proceso legal con imágenes creadas por IA, pero Getty Images prefiere ir bloqueando antes de que llegue un problema en el futuro.

Shutterstock, por otro lado, no ha publicado políticas específicas que prohíban el material, pero han limitado los resultados en las búsquedas.

Crear contenido usando lo que cientos de artistas han hecho antes, no es una buena idea si se tiene la venta como objetivo. La Inteligencia Artificial no crea desde cero, crea a partir de algo que ha aprendido, y ese algo sí puede estar protegido por derechos autorales.

El problema es que ninguna plataforma sabrá si una imagen ha sido creada por IA o no, de forma que tendrán que confiar en las denuncias realizadas por otros usuarios para reportar tales imágenes. Ahora están trabajando con C2PA (la Coalición para la Procedencia y Autenticidad del Contenido) para crear filtros, pero parece que tardarán en ser realmente efectivos.