La lotta alla disinformazione online sta trovandosi già da questi mesi davanti a un avversario temibile da affrontare: i deepfake, le manipolazioni video realizzate automaticamente da algoritmi di intelligenza artificiale che sovrappongono il volto di una persona alle movenze di un'altra, con un realismo capace di ingannare l'occhio umano. Questi contenuti sono sempre più semplici da realizzare, ma fortunatamente stanno nascendo anche strumenti appositi che serviranno a combatterli. L'ultimo lo ha presentato Microsoft in queste ore e si chiama Video Authenticator: si tratta di un sistema di analisi che riesce a capire quando una foto o un video sono stati modificati per mostrare qualcosa che non esiste o non è realmente avvenuto.

I deepfake e in generale le modifiche apportate a foto e video sono realizzati appositamente affinché il trucco non risulti evidente all'occhio umano, ma questo non vuol dire che non abbiano punti deboli. Gli algoritmi alla base del sistema messo a punto dai ricercatori Microsoft vanno proprio alla ricerca di questi talloni d'Achille: piccole increspature nei pressi del volto dei soggetti sovrapposti artificialmente e cambiamenti nelle tonalità dei colori impercettibili fanno parte degli indizi che il software è stato addestrato a rilevare dopo un duro addestramento. Esattamente come i sistemi deputati a creare deepfake, anche Video Authenticator è infatti basato su sistemi di intelligenza artificiale, e continuerà a farsi più accurato man mano che sarà messo di fronte a nuove sfide.

L'idea insomma è che con il diffondersi e l'affinarsi delle tecnologie dietro ai deepfake, anche le contromisure saranno sempre più in grado di tenere loro testa, in una sorta di inseguimento continuo tra intelligenze artificiali. La posta in gioco del resto è alta: nel mondo interconnesso di oggi, un video in cui una personalità di rilievo (magari un politico) pronuncia parole in realtà mai dette può avere effetti devastanti e di lunga durata, anche se rimane online per poche ore. Il rischio è che simili contenuti, realizzati in modo concertato, possano influenzare le tornate elettorali di molti Paesi democratici, a partire dagli Stati Uniti che si ritroveranno alle urne a breve.

La casa di Redmond sperimenterà il suo software in tandem con un sistema di certificazione per i video risultati privi di manipolazione: le due soluzioni dovrebbero debuttare in un futuro prossimo sotto forma di un'estensione per il browser che potrà dire agli utenti se i filmati provenienti dai siti che frequentano stiano effettivamente mostrando la realtà o siano il risultato di manipolazioni digitali.