Artículo publicado originalmente por Motherboard Estados Unidos.
Hay un placer genuino en poder capturar en cámara lenta cualquier cosa: ya sea un momento deportivo, una sorpresa graciosa, o un puño fulminante. El problema es saber antes de tiempo si va a ocurrir algo digno de la cámara lenta, ya que convertir un video normal en slow-mo es un proceso muy irregular.
Para esto ha llegado la estructura de IA de super cámara lenta, del laboratorio de investigación de Nvidia. Los investigadores un equipo de GPUs Tesla V100 de alta potencia y una red neuronal de alto aprendizaje para generar un video fluido y casi perfecto de cámara lenta sobre cualquier video clip estándar.
Una breve explicación sobre videos en cámara lenta: la mayoría de video que grabas en la cámara de tu teléfono, por ejemplo, captura imágenes a 30 fotogramas por segundo, o fps. Luego ese video se reproduce a la misma velocidad, resultando en un video "normal". Si usaras una cámara de alta velocidad para capturar 240fps, y luego lo reprodujeras a 30fps, la diferencia en escalas de tiempo te daría el efecto de cámara lenta. El efecto de cámara lenta viene de cómo se graba el material y cómo se reproduce.
Lo difícil de convertir video "normal" en video en cámara lenta, entonces, es encontrar los fotogramas adicionales para mostrar. Sin importar lo que hagas, un video de cuatro segundos grabado a 30fps solo tendrá 120 fotogramas en él. Si lo reproduces muy lento, verás una fina línea en la que se ve como un video en cámara lenta, o como una presentación de fotos en stop-motion.
Nvidia solucionó ese problema al pedirle a su IA que creara los fotogramas restantes basándose en su mejor estimación posible. "El equipo entrenó su sistema con más de 11.000 videos de actividades cotidianas y deportivas grabadas a 240 fotogramas por segundo", dice en el blog de investigación de Nvidia. "Una vez entrenado, la red neuronal convolucional predijo los fotogramas restantes".
Es un efecto increíble —especialmente cuando toman clips de los Slow Mo Guys y los ralentizan aún más— pero no puedo evitar sentir una preocupación siniestra por este tipo de manipulación de imágenes. Ya pasamos el punto en el que una inocente foto de Instagram pudiese convertirse en porno sin el consentimiento del sujeto de la foto. El rastreo de imágenes y la síntesis de voz, nuevamente utilizando redes neuronales y aprendizaje profundo, puede terminar creando falsos discursos presidenciales y animar labios para sincronizarlos. ¿Es real un video si uno de cada diez fotogramas es generado por computador? ¿Y uno de cada tres? ¿Cuenta como CGI si se genera por computador un fotograma de por medio?
Solo formulo las preguntas, porque no tengo ni idea de las respuestas.
Ian Birnbaum https://ift.tt/eA8V8J
No hay comentarios:
Publicar un comentario