22 CONDIVISIONI
video suggerito
video suggerito

TikTok: “Stiamo lavorando a come intercettare velocemente le sfide pericolose per i bambini”

TikTok ha annunciato nuove misure di sicurezza all’interno dell’app e promosso una ricerca sul tema. Fanpage.it ha parlato con la responsabile europea di queste modifiche.
A cura di Lorenzo Longhitano
22 CONDIVISIONI
Immagine

Il tema dei comportamenti rischiosi osservati online ed emulati da bambini e ragazzi coinvolge ormai tutte le piattaforme del web fequentate da questa tipologia di utenti. Su TikTok però le sfide e i contenuti replicati a catena costituiscono un aspetto preponderante del successo dell'app, motivo per cui anche i rischi connessi ad eventuali sfide pericolose non possono essere presi sottogamba dai gestori. Il social in questi giorni ha pubblicato una ricerca nella quale analizza il tema e annunciato nuove misure di prevenzione in arrivo all'interno dell'app, come ad esmpio nuove risorse nel Centro Sicurezza dedicato a esplorare questi fenomeni insieme agli utenti e messaggi di avviso più efficaci legati ai contenuti potenzialmente pericolosi; Fanpage.it ne ha parlato con Alexandra Evans, responsabile europea per le politiche sulla sicurezza all'interno della piattaforma.

Dalla ricerca emerge che l'11 percento degli utenti che si è imbattuto in una challenge online ha raccontato che si è trattato di un'esperienza negativa. Cosa vuol dire questo per TikTok e per la salute dei bambini online?
Su TikTok siamo sempre stati molto chiari sul fatto che le sfide ad alto rischio non hanno spazio sulla piattaforma. Per non dare loro spazio utilizziamo una combinazione di algoritmi e moderatori in carne e ossa che lavorano sia sui contenuti che sui risultati di ricerca, in modo tale che se cerchi Blackout challenge o Skullbreaker o qualunque altra di queste sfide non ottieni alcun risultato. Ciò che faremo in più sarà indirizzare le persone che cercano questi video a pagine di informazione e consigli, traducendo tutto anche in Italiano e nelle altre lingue. Il tema comune a questi avvisi sarà un invito a fermarsi, pensare, decidere ed eventualmente procedere.

Come si può lavorare però per fermare i contenuti pericolosi prima che diventino virali?
In alcuni casi i nostri algoritmi possono prevedere in quale modo queste violazioni si possono manifestare: nudità, estremismi violenti sono alcuni esempi perché le violazioni che pertengono a questi ambiti hanno tratti simili. Nell'emulazione di un comportamento pericoloso però il punto fondamentale è proprio accorgersene in tempo: stiamo lavorando a come intercettare il prima possibile i nuovi fenomeni prima che ne emerga consapevolezza, e in particolare i nostri sistemi di identificazione rapida saranno migliorati in modo tale che quando stiamo seguendo l'evoluzione di un hashtag e vediamo improvvisamente un picco imprevisto e anomalo verrà tutto veicolato a un sistema di allerta che ci permetterà di verificare velocemente cosa sta succedendo.

Nel rapporto pubblicato viene menzionata anche la possibilità di uno sforzo coordinato tra più piattaforme per bloccare i contenuti pericolosi attraverso le app. Avete intenzione di lavorarci?
È un'idea molto interessante. È ancora presto per parlarne a nome di altri soggetti perché lo studio è appena stato pubblicato, ma siamo sicuramente aperti a questa possibilità.

Parte della strategia di sensibilizzazione dei ragazzi passa da banner e specchietti informativi che rischiano di passare inosservati in un'app che fa dei video la sua arma principale. Qual è l'impatto impatto di questi elementi sul comportamento degli utenti?
Quello che ci dicono dati ed esperti è che il linguaggio che utilizziamo in questi specchi informativi è terribilmente importante: se riusciamo a mostrare empatia e a concentrarci sul punto di vista degli utenti, dovremmo riuscire ad avere un impatto positivo sulla risposta che speriamo di ottenere. La scienza della prevenzione è una materia promettente sulla quale dobbiamo puntare sempre di più.

Mentire sull'età per iscriversi a TikTok è fin troppo facile, e i bambini lo sanno. Come pensate di migliorare i sistemi di verifica dell'età?
Al momento usiamo una combinazione di prevenzione e rilevazioni: la prevenzione è costituita dalla limitazione per età sugli store digitali (che dà modo ai genitori di bloccare il download dai dispositivi dei più piccoli) e dall'autodichiarazione. Sappiamo però che dobbiamo fare di più e che dobbiamo trovare le violazioni anche all'interno della piattaforma: per questo usiamo strategie per determinare l'età generica degli utenti, come l'analisi di parole chiave e moderatori che vagliano le segnalazioni pervenute in merito dagli altri utenti; più in generale, i nostri team di moderatori in tutto il mondo sono addestrati a tenere conto della possibilità che gli autori dei video che valutano potrebbero essere più piccoli rispetto all'età minima ammessa sul social.

22 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views