Crear un deepfake: cómo funciona, cuánto tiempo lleva

Crear un deepfake: cómo funciona, cuánto tiempo lleva

falsificaciones profundas

0

ACTUALIZAR

Crear un deepfake: cómo funciona, cuánto tiempo lleva

14/02/2021

Maximiliano Schreiner

ACTUALIZAR

Actualizado 19/09/2021

Contenido revisado, actualización a nuevos estándares de software

Referencia integrada a DeepFaceLive

El artículo solo se puede mostrar con JavaScript activado. Habilite JavaScript en su navegador y vuelva a cargar la página.

Cree deepfakes rápida y fácilmente con programas como Reface o DeepFaceLab. Así es como los usas.

Sin publicidad, iremos a la quiebra. Con una suscripción MIXTA, puede leer nuestro sitio sin publicidad.

Cuando los videos deepfake aparecieron por primera vez a gran escala en el otoño de 2017, estaba claro: la inteligencia artificial había llegado de las granjas de servidores sofisticados entre los usuarios domésticos.

A principios de 2018, la "FakeApp" comenzó a extenderse, lo que permite a los usuarios intercambiar rostros en videos con relativa facilidad. Además de las falsificaciones de Nicolas Cage, la aplicación fue utilizada principalmente por celebridades para la pornografía falsa. Esto provocó protestas en línea. Al final, se eliminaron los subforos y canales correspondientes en Reddit y otras plataformas. El sitio web oficial de FakeApp ya no es accesible.

Pero la caja de Pandora permaneció abierta y surgieron alternativas a la FakeApp. Algunos han aprendido de los errores de la primera aplicación deepfake. Las aplicaciones fáciles de usar, como Reface (anteriormente Doublicat) o Impressions, prohíben explícitamente los videos cuestionables o dependen de la detección y el bloqueo automáticos de dicho contenido.

Estas aplicaciones crean deepfakes respetables en unos pocos minutos. Pero si realmente quiere deepfakes creíbles, puede usar DeepFaceLab, el mejor software de deepfake actualmente. Te mostramos el camino hacia tu propio deepfake convincente.

contenido

Reface & Impressions: la forma más rápida de crear tu propio deepfake

DeepFaceLab 2.0: la mejor aplicación de deepfake

DeepFaceLab 2.0: Cuatro pasos para su propio deepfake

Paso 1: preparar datos de entrenamiento (15 a 30 minutos)

Paso 2: entrenamiento de IA (alrededor de 17 horas)

Paso 3: Copia la cara (unos 20 minutos)

Paso 4: armar el video (de 5 minutos a varios días)

Conclusión: Deepfake 2019 vs. 2021: mejor calidad con menos esfuerzo de entrenamiento

¿No tienes una tarjeta gráfica Nvidia rápida? No hay problema

Reface & Impressions: la forma más rápida de crear tu propio deepfake

Ambas aplicaciones han llevado con éxito las falsificaciones profundas a la corriente principal: Reface es una de las aplicaciones de Android más descargadas y, según el desarrollador Neocortext, se encuentra entre las 5 mejores aplicaciones en casi 100 países.

Reface te permite colocar tu propia cara como un deepfake sobre toda una serie de videos en formato GIF con poco esfuerzo, totalmente automatizado. Es fácil de usar: descargue la aplicación, tome una selfie o cargue una foto de una persona y seleccione uno de los innumerables videos. También puede seleccionar sus propios videos si tiene una cuenta premium.

Con solo tocar un botón, la aplicación carga la foto en la nube de Google y una red GAN intercambia la cara en el video de destino en solo unos segundos. Según Neocortext, las fotos de los usuarios se eliminan después de una hora como máximo.

Impressions adopta un enfoque diferente: los usuarios graban videos cortos e intercambian su propia cara con la de una celebridad. La aplicación ofrece una amplia gama de perfiles prefabricados para elegir, desde Nicolas Cage hasta Barack Obama.

El intercambio de rostros en Impresiones lleva desde unos pocos minutos hasta media hora, según el estado de su cuenta. Se prefieren los usuarios premium y pueden crear videos ilimitados.

Sin publicidad, iremos a la quiebra. Con una suscripción MIXTA, puede leer nuestro sitio sin publicidad.

La tecnología de Reface e Impressions es comida rápida falsa: fácil de conseguir, rápida de hacer y los resultados pueden ser engañosos si no se mira muy de cerca. Sin embargo, si quiere más y espera la calidad de los videos falsos profundos de los grandes canales de YouTube, está en el lugar equivocado.

DeepFaceLab 2.0: la mejor aplicación de deepfake

DeepFaceLab no ofrece una interfaz fácil de usar como Reface, pero ofrece algoritmos más actualizados y más opciones de configuración que permiten mejores resultados.

La mayor diferencia: mientras que Reface usa el mismo modelo de IA para cada cambio de cara, puede usar DeepFaceLab para entrenar su propio algoritmo para cada cara.

Una versión funcional de DeepFaceLab para Windows está disponible de forma gratuita en Github. Se basa en el marco de aprendizaje automático de Google TensorFlow y requiere una tarjeta gráfica Nvidia. Las versiones anteriores son compatibles con las tarjetas AMD.

Con DeepFaceLive, ahora hay una rama de DeepFaceLab, con la que los deepfakes se pueden integrar en aplicaciones de videoconferencia y transmisión en vivo. DeepFaceLive se basa en DeepFaceLab y también está disponible como código abierto en Github.

DeepFaceLab 2.0: Cuatro pasos para su propio deepfake

DeepFaceLab no ofrece una interfaz de escritorio clásica. En su lugar, debe ejecutar el software a través de algunos archivos .bat que puede encontrar en la carpeta descargada. Con él puedes llevar a cabo todos los pasos de trabajo deepfake necesarios. El código de Python almacenado en el archivo .bat se ejecuta con un clic.

Paso 1: preparar datos de entrenamiento (15 a 30 minutos)

Para el deepfake, primero se debe definir y almacenar el video de origen y de destino en la carpeta del espacio de trabajo de DeepFaceLab. El video de origen ("data_src.mp4") proporciona la cara que desea falsificar y superponer en el video de destino ("data_dst.mp4"). Alternativamente, puede usar un conjunto de datos faciales ya preparado en lugar de un video de origen.

Para mi demostración utilizo los videos incluidos de Robert Downey Jr. y Elon Musk. Una vez que ambos videos estén listos, deben dividirse en cuadros individuales y luego sus respectivos rostros deben detectarse y extraerse en fotos separadas. Hay un archivo .bat separado para el video de origen y de destino para cada paso.

Dependiendo de la duración del video de origen, puede ser suficiente tocar solo cada segunda o cuarta imagen. Sin embargo, para el video de destino, cada cuadro individual debe dividirse, ya que la cara en cada cuadro finalmente se intercambiará.

Extraer y verificar caras

Después de dividir el video, extraigo las caras. DeepFaceLab ofrece tres opciones: "Cara" incluye la cara sin frente, "Toda la cara" incluye la cara incluyendo la frente y "Cabeza" incluye un área definida manualmente. Esto también permite incluir cabello en el deepfake. Para esto, sin embargo, se debe usar la herramienta XSeg para marcar manualmente la máscara facial deseada en unas pocas docenas de fotos. Luego se puede entrenar una red XSeg, que usa los ejemplos para aprender a cortar la cabeza en las fotos restantes. Por lo tanto, "Head" requiere mucho más trabajo e incluso después de entrenar la red XSeg, a menudo tiene que volver a trabajarse manualmente.

Un algoritmo reconoce los rostros y recorta las fotos.

Por lo tanto, elijo "Toda la cara" y luego compruebo las fotos con la herramienta XnView suministrada, que empiezo a través de un archivo .bat separado. Todas las imágenes de la cara se muestran en la vista. Las imágenes borrosas y las imágenes en las que el rostro está oscurecido o se extiende más allá del marco deben eliminarse.

Los profesionales suelen utilizar conjuntos de datos de alrededor de 5000 fotos de rostros desde diferentes ángulos. Cuanto mejor sea el conjunto de datos, mejor será el resultado. Solo usé 650 fotos para mi prueba. Sin embargo, dado que mi video objetivo es una toma frontal de Elon Musk con pocos cambios en el ángulo de disparo o la iluminación, la pequeña cantidad de datos aún es suficiente para obtener un resultado aceptable.

Funciona muy bien, solo algunas fotos no muestran una cara. Los borro manualmente. Mis datos de entrenamiento están listos.

Extraigo casi 650 fotos de rostros de mi video fuente.

Paso 2: entrenamiento de IA (alrededor de 17 horas)

Ahora comienza el entrenamiento real de la IA, al final del cual debería haber un modelo maduro de deepfake. Vuelvo a entrenar completamente a mi modelo para documentar el proceso.

Sin embargo, normalmente es más fácil descargar un modelo previamente entrenado que se adapte a sus necesidades y hardware. Luego, el modelo puede especializarse en el deepfake deseado. El proceso de entrenamiento es idéntico al procedimiento descrito. Todo lo que tiene que hacer es configurar la variable "preentrenamiento" en "falso" en la configuración del algoritmo antes del inicio del entrenamiento.

MIXED.de sin banners publicitarios

Acceso a más de 9.000 artículos

modo oscuro exclusivo

Cancelación posible en línea en cualquier momento

desde 2,80 € / mes

Soporte ahora

Primera ronda de entrenamiento

DeepFaceLab ofrece dos algoritmos diferentes que tienen diferentes requisitos de hardware y brindan resultados diferentes. Elijo el algoritmo SAEHD recomendado. Produce las falsificaciones más creíbles, pero necesita un hardware fuerte. El algoritmo Quick96 solo se recomienda para experimentos rápidos.

Antes del entrenamiento, el algoritmo se puede modificar con numerosos ajustes. Elijo una resolución de 256 x 256 píxeles para la cara generada en el modo "Toda la cara", configuro el número de imágenes entrenadas simultáneamente en tres (tamaño del lote). Las resoluciones más altas o los tamaños de lote requieren más memoria GPU. Entreno en mi RTX 3060 Ti con 8 gigas.

Puedo seguir el progreso del entrenamiento a través de una ventana. Las caras se volverán más realistas con el tiempo.

También habilito random_flip y random_warp. Como resultado, el algoritmo refleja y cambia las fotos de entrenamiento al azar. Esto hace que el entrenamiento de la IA sea más variado y mejore el resultado. No cambio ninguna otra configuración.

Comienza el entrenamiento y puedo ver el progreso en números e imágenes. Al principio solo veo una papilla esponjosa de píxeles. Después de algunas iteraciones, emergen las primeras caras. La recomendación habitual para un buen resultado es de 50 000 a 100 000 iteraciones más un posible reentrenamiento.

Sin publicidad, iremos a la quiebra. Con una suscripción MIXTA, puede leer nuestro sitio sin publicidad.

Post-entrenamiento para un mejor resultado

Hago una pausa después de unas 45 000 iteraciones y modifico algunas configuraciones para refinar el resultado. Desactivo random_warp y habilito eyes_mouth_prio. Esto ayuda con la posición de la boca y los ojos.

La opción "gan_power" trae la mejora más significativa. Esto obliga a la red neuronal a aprender los detalles finos de la cara. Establezco el valor en 0,15 y vuelvo a iniciar el entrenamiento. Después de unas 2500 iteraciones, las caras falsas en la vista previa se vuelven mucho más nítidas.

Después de casi 100.000 iteraciones y unas 17 horas, detengo el entrenamiento. Los rostros de Elon Musk y Robert Downey Jr. se pueden ver claramente en las imágenes.

Mi modelo de IA está listo.

Paso 3: Copia la cara (unos 20 minutos)

Ahora aplico el modelo de IA para mi deepfake: inicio el comando de conversión ("merge SAEHD.bat"). Si lo desea, la IA ahora coloca automáticamente rostros coincidentes de Downey Jr. sobre todas las imágenes extraídas del video de destino.

Sin embargo, elijo la "Fusión interactiva". La fusión se abre en una ventana separada. Allí, todas las imágenes se pueden editar manualmente usando el teclado. Por ejemplo, puede elegir diferentes perfiles de color para la cara falsa, cambiar la imagen completa o solo la cara con efectos de nitidez o desenfoque, o cambiar el tamaño de la cara.

La cara falsa es más nítida que la de Elon Musk en el video de destino, por lo que necesita procesamiento posterior.

Ajusto el color y agrego un poco de desenfoque a la cara: mi Deepfake Robert es más nítido que el resto del video de Musk.

Una vez que estoy satisfecho con el resultado, termino la conversión. Ahora tengo casi 1.600 fotografías individuales con caras intercambiadas.

Paso 4: armar el video (de 5 minutos a varios días)

En este punto, a más tardar, los profesionales y los aficionados toman caminos diferentes. Si bien puedo ensamblar todas las fotos automáticamente a través de un archivo .bat en unos pocos minutos haciendo doble clic, los profesionales usan software de composición como Adobe After Effects o Davinci Resolve para embellecer las transiciones entre la cara falsa y la cabeza o para ajustar el coloración en iluminación dinámica.

Sin publicidad, iremos a la quiebra. Con una suscripción MIXTA, puede leer nuestro sitio sin publicidad.

Dependiendo de la duración y el tipo de clip, esto puede demorar varias horas o algunos días. Las instrucciones para el proceso profesional están disponibles en YouTube.

Conclusión: Deepfake 2019 vs. 2021: mejor calidad con menos esfuerzo de entrenamiento

Pero incluso sin herramientas profesionales, un gran conjunto de datos y un modelo previamente entrenado: mi nuevo deepfake es un claro paso adelante en comparación con mi primer intento con Deepfacelab 1.0.

Deepfake 2019

Deepfake 2021

Esto demuestra que los avances en inteligencia artificial en los últimos años han facilitado mucho la creación de deepfakes creíbles. DeepFaceLab 2.0 ofrece resoluciones más altas, detalles faciales más finos, entrenamiento más eficiente y muchas otras mejoras con respecto a la primera versión del software.

Sin embargo, DeepFaceLab no se ha vuelto más accesible. El emergente "Machine Video Editor" quiere cambiar eso: integra DeepFaceLab con otras funciones de edición de video y ofrece una interfaz que reúne las funciones individuales. El desarrollo del editor aún está en pañales y ni siquiera existe un manual de usuario rudimentario. Pero en unos pocos meses, estos editores de IA podrían hacer que la falsificación profunda sea mucho más fácil, especialmente para los principiantes.

¿No tienes una tarjeta gráfica Nvidia rápida? No hay problema

Si no tiene una tarjeta Nvidia o solo tiene una GPU lenta, también puede usar DeepFaceLab a través de Google Colab. Colab es un cuaderno Jupyter gratuito que puede contener código de computadora y elementos de texto y se ejecuta en la nube.

De modo que puede ejecutar cualquier código imaginable, incluso DeepFaceLab. Google permite hasta doce horas de entrenamiento de IA a la vez. El cuaderno de Colab correspondiente se puede encontrar aquí. Las instrucciones detalladas para la configuración están disponibles en el foro de mrdeepfakes.

Sin embargo, la capacitación de Colab está dirigida a aquellos que ya comprenden el proceso básico de deepfake. Los principiantes tendrán dificultades con el entrenamiento en la nube y deberían experimentar primero con el entrenamiento local, o leer mucho sobre Colab y el entrenamiento deepfake.

Leer más sobre Inteligencia Artificial

Descripción general de todos los temas de deepfake

Estos 12 videos deepfake son impresionantes

Deepfake muestra “Tron: Legacy” como debería haber sido

Nota: Los enlaces a las tiendas en línea en los artículos pueden ser los llamados enlaces de afiliados. Si compra a través de este enlace, MIXED.de recibirá una comisión del vendedor. El precio no cambia para usted.