Microsoft anunció este miércoles la puesta en marcha de una nueva tecnología para combatir la desinformación a través de Video Authenticator, una plataforma inteligente que puede analizar una foto o un vídeo para proporcionar un porcentaje de probabilidad, o una calificación de confianza frente a manipulaciones.
En el caso de un vídeo, la tecnología indica este porcentaje en tiempo real sobre cada frame a medida que se reproduce el vídeo, identificando así elementos que tal vez no puedan ser detectados por el ojo humano.
Esta tecnología fue desarrollada inicialmente por Microsoft Research, en coordinación con el equipo de Inteligencia Artificial Responsable de Microsoft, y el Comité de IA, Ética y efectos en ingeniería e investigación (AETHER, por sus siglas en inglés) de Microsoft, un consejo asesor en Microsoft que ayuda a asegurar que la nueva tecnología sea desarrollada e integrada de manera responsable.
Video Authenticator ha sido creado con ayuda de la base de datos pública de Face Forensic++ y probado en el DeepFake Detection Challenge Dataset, ambos modelos líderes para el entrenamiento y evaluación de tecnologías de detección de deepfakes.
La compañía también dio a conocer una nueva tecnología que puede detectar contenido manipulado y garantizar a los usuarios que los contenidos que visualizan son auténticos. Esta tecnología ha sido desarrollada por Microsoft Research y Microsoft Azure, en asociación con el Programa Defending Democracy, y va a impulsar una iniciativa anunciada recientemente por la BBC, llamada Project Origin.