Gracias a la Inteligencia Artificial, con una simple descripción, podemos generar textos, imágenes e incluso vídeos con una excelente calidad y que realmente cuesta mucho diferenciar del tradicional CGI o animación. En el momento en el que nos encontramos, ha llegado un momento en el que cuesta diferencia de lo que es una imagen real y una imagen creada por Inteligencia Artificial.
Esto se ha convertido en un problema a nivel mundial y de momento, no hay un consenso claro para establecer una marca visible o no, que permita identificar este tipo de contenido para evitar, principalmente, la desinformación. Adobe está trabajando en una tecnología que permite identificar una imagen de este tipo a través de una marca no visible para el ojo humano y, aunque no es el único, Google también está en ello, no hay un método único.
El contenido generado por IA en China incluirá marcas
China no quiere que el contenido generado a través de la Inteligencia Artificial sea un «problema» para sus ciudadanos. La Administración del Ciberespacio de China ha presentado un borrador de lo que será la hoja de ruta obligatoria que deben cumplir todo el contenido generado por IA en el país y que se publique en Internet. Todo el contenido que se genere debe ser reconocible fácilmente a través de una marca visible, tanto si se trata de imágenes como si son vídeos o incluso contenido en formato audio.
Dominic Lee 李梓敬@dominictszThis AI generated viral video online is pretty hilarious 🤣 https://t.co/gc9Md9UdLD18 de agosto, 2024 • 05:54
82.7K
4.5K
Como método alternativo, los usuarios que no quieran mostrar una marca visible en su contenido podrán hacerlo a través de los metadatos del archivo. Si el contenido no está marcado utilizando el método de los metadatos o una marca de agua, ya podemos imaginar lo que le puede pasar a su creador y no será precisamente bueno.
En las últimas semanas se han publicado, principalmente en X (Twitter) un gran número de imágenes generadas por IA con Donald Trump, Elon Musk, Bill Gates y Kamala Harris generadas a través de Grok-2, la IA de Elon Musk disponible en su red social, una IA que, de momento, no tiene establecido ninguna barrera ética a la hora de generar contenido, ya que, como siempre dice Musk, es la red social donde la libertad de expresión está por encima de todo.
sid@siddaniagigrok 2.0 image generation is better than llama’s and has no dumb guardrails.ftw @elonmusk @grok https://t.co/5wanVLrQyc
14 de agosto, 2024 • 06:28
40
11
China no quiere que su Internet se llene de contenido generado por IA que muestre a algunos de los responsables del gobierno, en especial Xin-Jin Ping, realizando acciones no apropiadas que pueda sublevar al pueblo. Es muy poco probable que la intención del gobierno chino pase por regular la IA para que se encargue de sustituir a personal cualificado, como está sucediendo en algunos medios en los que una IA se encarga de generar e incluso traducir el contenido de forma automática y sin ningún tipo de supervisión.
Sin embargo, el principal problema de cualquier Inteligencia Artificial es la imposibilidad de entrenar sin utilizar contenido protegido por derechos de autor, ya sean fotografías, libros, publicaciones o incluso vídeos de YouTube como hace NVIDIA reconocido oficialmente por la compañía y por OpenAI, aunque este último no lo ha confirmado.