Según los datos de una reciente investigación realizada en Princeton con la colaboración de Microsoft, la desinformación online continúa con el objetivo de difamar a personalidades, dirigir la opinión pública o polarizar los debates.
Dicho estudio catalogó 96 campañas de influencia extranjera dirigidas a 30 países entre 2013 y 2019. Alrededor del 93% de estas campañas incluyeron la creación de contenido original, 86% amplificaron contenido preexistente, y 74% distorsionaron hechos verificables de manera objetiva.
La pandemia de COVID-19, también se ha encontrado en el foco de las campañas de desinformación, produciendo muertes y hospitalizaciones de personas que, buscando posibles tratamientos, han puesto en riesgo su salud por seguir recomendaciones peligrosas.
Para luchar contra estas situaciones, Microsoft acaba de anunciar nuevas tecnologías encaminadas a combatir la desinformación, así como colaboraciones para continuar avanzando en el desarrollo tecnológico en este ámbito, e iniciativas para ayudar a la sociedad a comprender el impacto que genera y diferenciar los contenidos originales de los deepfakes.
Deepfakes, la diferencia entre lo real y lo manipulado
Uno de los grandes problemas a los que se enfrenta actualmente la sociedad es el de los deepfakes, es decir, fotos, vídeos o archivos de audio manipulados por inteligencia artificial (IA) con mucha precisión, de forma que es difícil detectar su alteración. De este modo, se pueden iniciar campañas con material audiovisual falseado de personajes públicos, colocándolos en situaciones irreales o realizando declaraciones que nunca han hecho.
Para luchar contra esta situación Microsoft acaba de anunciar Video Authenticator, una plataforma inteligente que puede analizar una foto o un vídeo para proporcionar un porcentaje de probabilidad, o una calificación de confianza frente a manipulaciones. En el caso de un vídeo, la tecnología indica este porcentaje en tiempo real sobre cada frame a medida que se reproduce el vídeo, identificando así elementos que tal vez no puedan ser detectados por el ojo humano.
Esta tecnología fue desarrollada inicialmente por Microsoft Research, en coordinación con el equipo de Inteligencia Artificial Responsable de Microsoft, y el Comité de IA, Ética y efectos en ingeniería e investigación (AETHER, por sus siglas en inglés) de Microsoft, un consejo asesor en Microsoft que ayuda a asegurar que la nueva tecnología sea desarrollada e integrada de manera responsable.
Video Authenticator ha sido creado con ayuda de la base de datos pública de Face Forensic++ y probado en el DeepFake Detection Challenge Dataset, ambos modelos líderes para el entrenamiento y evaluación de tecnologías de detección de deepfakes.
La compañía también ha anunciado una nueva tecnología que puede detectar contenido manipulado y garantizar a los usuarios que los contenidos que visualizan son auténticos. Esta tecnología tiene dos componentes. El primero es una herramienta integrada en Microsoft Azure, que permite a los productores de contenido agregar hashes (que identifican los archivos de forma inequívoca) y certificados a sus piezas, quedando integrados en sus metadatos y dejando una huella de confianza allá donde se alojen los ficheros online.
El segundo es un lector, que puede utilizarse como una extensión de navegador o en otras formas alternativas, que precisamente verifica la huella incluida en los archivos para que los consumidores de contenido, con alto grado de precisión, puedan saber que el contenido es auténtico y que no ha sido modificado, así como proporcionar detalles sobre quién lo produjo.