Vera, il robot che assume dipendenti umani
Dopo la ginoide Sophia che ha scatenato grandi polemiche sui diritti delle donne nei paesi islamici, arriva l’intelligenza artificiale che ruberà il lavoro ai selezionatori del personale; quasi come in una sorta di legge del contrappasso ora a soffrire per trovare un posto potrebbero essere proprio loro. Parliamo di robot Vera, l’AI reclutatrice russa della start-up Stafory. I suoi sviluppatori la metterebbero al servizio dei suoi 300 clienti, tra questi anche grossi marchi come Pepsi, Ikea e L’Oréal. I cofondatori Vladimir Sveshnikov e Alexander Uraksin sono due ragazzi di 28 e 30 anni originari di San Pietroburgo. Dopo diversi anni di esperienza nell’esame di candidature per vari posti di lavoro, si sono resi conto che gran parte del processo avrebbe potuto essere automatizzato. Secondo quanto riportato anche su Bloomberg starebbero ora lavorando per insegnare a Vera come riconoscere certe emozioni, quali rabbia, piacere e delusione.
I limiti dell'AI oggi
A parte la suggestiva idea di marketing per promuovere un software in grado di analizzare un grande numero di candidati in tempi notevolmente più brevi, sono almeno due i dubbi che questa iniziativa lascia in sospeso: è sufficiente convertire gli impulsi analogici in digitali – da far processare a un programma che rilascia poi dei feedback – per chiamarla intelligenza artificiale? Come abbiamo avuto già modo di spiegare, occorre distinguere tra una AI in senso forte (non ancora raggiunta) ed una in senso debole, che magari riesce a battere un campione mondiale di Scacchi o di Go. Superare il test di Turing non è una garanzia; infine, come pensano di arginare i problemi che questo genere di sistemi hanno manifestato anche in studi scientifici, per quanto riguarda la discriminazione dei candidati? Il problema è reale e abbiamo cominciato a porcelo due anni fa, quando l’AI della Microsoft è stata trollata su Twitter da diversi utenti, i quali bombardandola di messaggi razzisti sono riusciti a indurla a pubblicare frasi dove addirittura inneggiava a Hitler.
Il problema degli algoritmi razzisti
Ma il problema non sono meramente i troll che potrebbero interagire con l’AI – specialmente se parliamo di selezione del personale – questo c’è già a monte, parte dalla fase di programmazione. Uno studio pubblicato l’anno scorso dai ricercatori dell’Università di Princeton, ha concluso che gli stessi programmatori possono contagiare con i loro pregiudizi i software. A cosa servono degli algoritmi capaci di riconoscere i nostri desideri ed emozioni, se poi scartano un candidato perché appartenente ad una categoria di persone che statisticamente non ha potuto esprimere efficienza? Cosa ne sanno gli algoritmi se questo è dovuto a ragioni di discriminazione razziale o di genere. Ma i sistemi di calcolo possono incamerare di default pregiudizi che portano a decisioni discutibili, come in una sorta di eterogenesi dei fini applicata ai robot.
Nell’esperimento condotto dai ricercatori di Princeton si è arrivati senza problemi a risultati che discriminavano termini più facilmente associabili agli afroamericani. Problemi non banali quando vogliamo affidare ad un bot la selezione del personale. Ed effettivamente robot Vera non ha l’ultima parola. Per stessa ammissione degli sviluppatori saranno sempre degli esaminatori umani a effettuare gli ultimi controlli. Insomma, stiamo chiamando AI un bot sofisticato che dovrebbe aiutare a velocizzare le operazioni di archivio e di prima scrematura, non di un robot intelligente in senso forte, a cui affidare la carriera di numerosi candidati, almeno per ora.