Perché Sundar Pichai di Google ha paura dell’intelligenza artificiale
Con tutto il parlare che si fa di intelligenza artificiale nel settore dell'elettronica di consumo, il rischio è che il grande pubblico perda di vista di che tipo di opportunità si tratti per la popolazione globale: lo sa bene Sundar Pichai, numero uno di Google che nel corso di un'intervista al Washington Post ha parlato brevemente dei benefici che le applicazioni di intelligenza artificiale possono portare al mondo, ma anche dei rischi ai quali quest'ultimo andrebbe incontro se non ne supervisionasse attentamente lo sviluppo. In particolare, secondo Pichai, i timori che le applicazioni di questo tipo di tecnologia possano rivelarsi dannose sono "decisamente fondati".
Nell'intervista il numero uno di Google afferma che le società al lavoro su questi sistemi dovrebbero autoregolamentarsi per assicurarsi che le intelligenze artificiali con facoltà di agire per conto proprio lo facciano sempre nell'interesse dell'umanità, senza danneggiarla. Governi e popolazioni del resto — aggiunge — sembra stiano sottovalutando i cambiamenti di medio e lungo termine che l'intelligenza artificiale è in grado di portare nel mondo.
Non è la prima volta che Pichai manifesta questi timori, e la sua posizione del resto non è inedita nel panorama scientifico e tecnologico. Tra le personalità più in vista che hanno già lanciato i primi allarmi sul tema ci sono il compianto Stephen Hawking, l'imprenditore e inventore Elon Musk, il fondatore di Microsoft Bill Gates e molti altri. Tutti concordano sul fatto che il treno dell'intelligenza artificiale, se lasciato incontrollato, può diventare impossibile da fermare, e i più apocalittici arrivano a parlarne come di minaccia esistenziale.
Per Pichai l'importante resta darsi delle linee guida e mantenere il controllo su ciò che si sta sviluppando. Google del resto è all'avanguardia nella ricerca in questo campo e ne sta facendo il suo campo di maggior interesse; sarebbe bizzarro che il suo CEO si limitasse a descrivere l'intelligenza artificiale come una minaccia per l'umanità. Ecco dunque che nel corso dell'intervista Pichai ha parlato del pensiero sintetico come di una conquista potenzialmente più importante di quelle "del fuoco e dell'elettricità".
Alcuni riflessi di questo dualismo del resto sono chiari già da ora, anche se quelli che oggi chiamiamo algoritmi di intelligenza artificiale sono ben lontani dalle macchine pensanti immaginate da Pichai. Ecco perché Google si sta dotando di un complesso di regole da seguire sul tema, tra i quali un divieto nello sviluppo di sistemi che possano causare danni agli esseri umani o violarne i diritti (come armi e sistemi di sorveglianza) e invita tutte le aziende coinvolte nella ricerca a fare lo stesso. Ogni passo del percorso insomma va studiato con svariate mosse di anticipo, in un approccio radicalmente diverso rispetto a quello tipico della Silicon Valley. Questo insomma "non è il tipo di tecnologia che si può lanciare e adottare in massa e poi — eventualmente — perfezionare una volta in funzione".