Difunden imágenes explícitas de Taylor Swift creadas con inteligencia artificial en redes sociales

Imágenes falsas de carácter explícito de la cantante Taylor Swift fueron creadas con inteligencia artificial y se viralizaron en redes.

Imágenes pornográficas generadas por inteligencia artificial de Taylor Swift, la estrella más famosa del mundo, se difundieron por las redes sociales esta semana, subrayando el potencial dañino que plantea la tecnología de inteligencia artificial dominante: su capacidad para crear imágenes convincentemente reales y dañinas.

Las imágenes falsas de Taylor Swift circulaban sobre todo en la red social X, antes conocida como Twitter. Las imágenes, que mostraban a la cantante en posturas sexualmente sugerentes y explícitas, fueron vistas decenas de millones de veces antes de ser retiradas de las plataformas sociales. Pero nada en Internet desaparece para siempre, y sin duda seguirán compartiéndose en otros canales menos regulados.

El portavoz de Swift no respondió a la solicitud de comentarios.

Como la mayoría de las principales plataformas de medios sociales, las políticas de X prohíben compartir «medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a la gente y provocar daños».

La empresa no respondió a la solicitud de comentarios de CNN.

El incidente se produce en un momento en que Estados Unidos se adentra en un año de elecciones presidenciales, y crece la preocupación sobre cómo podrían utilizarse imágenes y videos engañosos generados por IA para encabezar esfuerzos de desinformación y, en última instancia, interferir con la votación.

«Este es un excelente ejemplo de cómo se está utilizando la inteligencia artificial con fines nefastos, sin que existan suficientes salvaguardas para proteger la esfera pública», declaró a CNN Ben Decker, director de Memetica, una agencia de investigación digital.

Decker dijo que la explotación de herramientas de IA generativa para crear contenido potencialmente dañino dirigido a todo tipo de figuras públicas está aumentando rápidamente y se está extendiendo más rápido que nunca a través de las redes sociales.

«Las empresas de redes sociales no disponen realmente de planes eficaces para supervisar el contenido», afirma.

X, por ejemplo, ha eliminado en gran medida su equipo de moderación de contenidos y confía en sistemas automatizados y en los informes de los usuarios. (En la Unión Europea se está investigando a X por sus prácticas de moderación de contenidos).

Meta también ha recortado sus equipos de lucha contra la desinformación y las campañas coordinadas de trolls y acoso en sus plataformas, según han declarado a CNN personas con conocimiento directo de la situación, lo que suscita preocupación de cara a las cruciales elecciones de 2024 en Estados Unidos y en todo el mundo.

No está claro de dónde proceden las imágenes relacionadas con Taylor Swift. Aunque algunas imágenes se encontraron en sitios como Instagram y Reddit, fueron un tema generalizado en X en particular.

El incidente también coincide con el auge de herramientas de generación de IA como ChatGPT y Dall-E. Sin embargo, según Decker, también existe un mundo mucho más amplio de modelos de IA no moderados y no seguros para el trabajo en plataformas de código abierto.

«Esto es indicativo de un tipo de fractura mayor en la moderación de contenidos y la gobernanza de las plataformas, porque si todas las partes interesadas: las empresas de IA, las empresas de redes sociales, los reguladores y la sociedad civil, no están hablando de las mismas cosas y en la misma página sobre cómo abordar estas cuestiones, este tipo de contenido simplemente va a seguir proliferando», añadió.

Decker dijo, sin embargo, que el hecho de que Swift esté en el punto de mira podría llamar más la atención sobre los crecientes problemas en torno a las imágenes generadas por inteligencia artificial. El enorme contingente de «Swifties» fieles a Swift expresó su indignación en las redes sociales esta semana, poniendo el tema en primera plana.

Fuente: CNN