Krypton Solid

Gfycat está comenzando a eliminar GIF pornográficos de IA falsos de su plataforma

El popular sitio de creación y alojamiento de GFycat, Gfycat, se ha manifestado en contra de la nueva tendencia creciente de pornografía falsa generada por inteligencia artificial. Coloquialmente conocidos como «deepfakes», en honor al usuario de Reddit que popularizó la técnica en diciembre, estos videos cortos suelen presentar estrellas porno con rostros de celebridades, el intercambio de rostros se realiza alimentando una red neuronal con miles de fotos y videos. y luego capacitación en red utilizando técnicas populares de aprendizaje automático de código abierto.

La noticia de la posición de Gfycat sobre deepfakes fue reportada por primera vez por tarjeta madre, que todo primero informó sobre la existencia de deepfakes, al igual que subreddit dedicado a su creciente práctica y popularidad.

«Nuestros términos y condiciones nos permiten eliminar contenido que consideramos inaceptable. Estamos eliminando activamente este contenido «, dijo un portavoz de Gfycat. El borde. Poco menos de dos meses después de que los deepfakes se volvieran virales, la práctica se volvió más generalizada e incluso más fácil de lograr, con otro Redditor que creó un software fácil de usar, conocido como FakeApp, que permite que prácticamente cualquier persona comience a entrenar una red neuronal para que funcione. estas caras. intercambios.

Como tarjeta madre informes, los usuarios del subreddit deepfakes han comenzado a notar enlaces Gfycat muertos en lo que algunos usuarios llaman depuración. Gfycat, una de las plataformas GIF más populares en la web, es una forma común de traducir videos a un formato fácil de digerir y compartir, dándoles un enlace de Gfycat alojado en vivo que luego se puede compartir fácilmente en Reddit y otros. plataformas. El hecho de que la compañía se oponga a la práctica, que se realiza sin el consentimiento de las celebridades involucradas, muchas de las cuales son mujeres, habla del problema más importante de la legalidad en torno a los deepfakes y el futuro de la tecnología ahora accesible utilizada para crearlos. .

Aún no está del todo claro si pegar la cara de alguien al cuerpo desnudo de otra persona es ilegal, aunque entra en la categoría de difamación y derechos de autor. El borde informó ayer. Sin embargo, las empresas de tecnología de plataformas a menudo toman posiciones contra muchas prácticas desagradables y dañinas, pero por lo demás legales, como el acoso y el abuso verbal. Gfycat ni siquiera es la primera plataforma en prohibir efectivamente los deepfakes La aplicación de chat de voz Discord cerró sus servidores dedicados de deepfakes la semana pasada a medida que la práctica gana más exposición.

Sin embargo, Reddit sigue siendo el pilar del movimiento, y el sitio ha guardado un silencio visible sobre el tema, a pesar de que la comunidad de deepfakes ha crecido de unos 15.000 miembros la semana pasada a 55.000 en la actualidad. La compañía a menudo ha roto una delgada línea entre proteger la libertad de expresión y albergar contenido cuestionable, cruel e inaceptable.

En raras ocasiones a lo largo de los años, el sitio se ha opuesto a cierto contenido, como cuando cerró un subreddit dedicado a alojar imágenes horribles de mujeres en público tomadas sin su consentimiento en un caso infame de 2012. El sitio actuó solo en respuesta a investigación de bomba de la primera Gawker escritor Adrian Chen, que ahora escribe para El neoyorquino.) Más recientemente, Reddit ha tomado medidas contra el subreddit utilizado para albergar fotos desnudas de celebridades pirateadas y ha cerrado varias comunidades de odio como parte de una iniciativa más amplia contra el acoso. Reddit no respondió a una solicitud de comentarios.

Tal como está ahora, el proverbial genio ha salido del cristal, y los deepfakes se volverán más sofisticados y generalizados a medida que la tecnología de IA se comprenda, mejore y se haga más accesible. Las implicaciones son de gran alcance en el campo de las noticias y la política, y existe una posibilidad real de que los videos falsificados se conviertan en algo tan común como las imágenes de Photoshop en un futuro próximo. Empresas como Reddit, con la defensa del anonimato, son esenciales para la creciente popularidad del uso de IA con fines dañinos. Por lo tanto, es solo cuestión de tiempo antes de que se establezca más firmemente una definición cultural y legal más amplia de dónde se encuentra la línea de deepfakes.

Deja un comentario