Pornhub y Twitter contra los ‘deepfakes’, vídeos porno falsos creados por IA

Los 'deepfakes', vídeos porno donde se agregan rostros de famosas, serán eliminados del mayor portal porno del mundo

Por ,
La actriz Daisy Ridley en un 'deepfake'. Fuente: Reddit

Uno de los gigantes de internet, Pornhub, dice un rotundo no a los vídeos creados por inteligencia artificial que cambian los rostros de actrices porno por actrices famosas. Los llamados “deepfakes” han logrado captar la atención de todo el mundo, incluidos los enormes portales dedicados al porno, que lo ponen al mismo nivel del “porno por venganza”.

La aplicación FakeApp es una de las soluciones más fáciles para cambiar la cara a una persona por otra, gratuitamente siempre y cuando tengas un ordenador potente y tiempo para que la inteligencia artificial aprenda de sus errores. Aunque es una herramienta que se puede usar para cualquier tipo de vídeos, su uso en vídeos porno es lo que más llama la atención.

FakeApp, la app que crea falsos vídeos porno de famosas

Por eso es importante que Pornhub, como uno de los líderes de los portales pornográficos, elimine estos vídeos porque las actrices y actores reemplazados no han dado su consentimiento para estar en estos vídeos, según han confirmado en Motherboard.

Perfil de vídeos ‘deepfakes’ en PornHub. Captura: Motherboard

Es más, Pornhub lo califica como vídeos similares al porno por venganza, un fenómeno prohibido por el portal.

Otras plataformas, como Discord (comunidades de chat) y Gfycat (almacenamiento de GIFs) han dicho no a este tipo de vídeos, tanto en alojarlos como en compartirlos.

También se ha confirmado la eliminación de este tipo de contenido en Twitter, que pese a permitir contenido para adultos siempre y cuando se etiquete como tal, los “deepfakes” van en contra de sus términos de uso.

Quien por ahora no se ha pronunciado es el subreddit dedicado a este fenómeno en Reddit (r/deepfakes), el origen desde donde se publicaron los primeros vídeos y el programa capaz de generarlos.

¿Qué es un ‘deepfake?

Los “DeepFakes” son vídeos que combinan el origen, normalmente un vídeo donde hay una persona en un acto sexual, con un vídeo donde se muestra una cara de un actriz o actor que se reemplaza en el vídeo final.

Por ahora se han visto ejemplos mayoritarios en vídeos porno, cambiando la cara de la actriz en el acto por la de una famosa. Estos vídeos se generan con una aplicación gratuita creada por un anónimo que usa algoritmos de “aprendizaje profundo”.

Detecta el rostro que quieres cambiar usando dos fuentes, reemplaza los ojos, nariz, boca y otras facciones de la cara de forma automática, aunque requiere mucho tiempo a base de pruebas y errores.

La mayoría de estos vídeos se comparten en Reeddit y portales de vídeos porno.

+ Info | Motherboard

Compartir en:

2 respuestas a “Pornhub y Twitter contra los ‘deepfakes’, vídeos porno falsos creados por IA”

  1. Redditer dice:

    Reddit ha baneado la comunidad de Deepfakes, podéis actualizar la noticia.

  2. entre hipocresías y culpabilizaciones dice:

    Pero si el porno no lo ve nadie!!!…
    Si eso no existe!!! que perturba a la gente y crea violadores y todo eso que dicen!!!!
    ¿No han visto cómo culpan a las azafatas y a los disfraces de Carnavales de abusos uy violaciones y todas las barbaridades del universo?
    Si incluso tendrán la culpa las gentes guapas y sexys de que se caigan meteoritos y estrellas.
    Cuánto más será la destrucción universla viedo estas cosas que nadie dice ver nunca!!!
    Ohhh estamos perdidos.
    Al final todo esto es divertido, que par eso está la inteligencia, para saber diferenciar ficción de realidad y no culpar a nadie por sus apariencias.
    Pobres azafatas, pobres gentes sexys, víctima sde la estúpida irracionalidad humana.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Últimos vídeos