Nel vastissimo ambito del dibattito sull’IA nella gestione del personale ci limitiamo qui a una domanda: dove sta la responsabilità quando in una decisione che riguarda la relazione lavorativa c’è di mezzo l’Intelligenza Artificiale?
È il momento di chiedercelo perché i sistemi di automazione decisionale stanno arrivando massicciamente nel mondo HR e sembrano essere ben accolti non solo perché più economici, ma anche per l’aspettativa di scaricare sulla macchina i fastidi della relazione e della responsabilità (valutare, assumere, dirimere, concordare, sanzionare, privilegiare, licenziare, ecc.).
Se una persona subisce un danno da una macchina, per il risarcimento si cercano le prove della responsabilità di chi governa la macchina, della decisione umana che ha causato il danno perché si assume che la macchina non può decidere né avere responsabilità.
Cosa succede però se un segmento di un processo decisionale viene affidato a un sistema di IA? Le capacità e l’autonomia delle tecnologie IA possono diventare uno schermo buio che interrompe la linea causale esplicita e rende difficile o impossibile concatenare specifiche decisioni umane a monte e a valle del sistema.
Maria Rossi è entrata nella lista degli esuberabili perché è finita in fondo a una graduatoria di potenziale prestazionale: anche se resterà in azienda il suo percorso di carriera è finito. Il sistema di ‘human capital management’ basato su IA e data analytics ha predetto che le performance di Maria negli anni a venire saranno inferiori ad altri. Il manager HR non sa come è stato ottenuto questo risultato, ma le ha spiegato che non poteva ignorare o cambiare una graduatoria “oggettiva”.
Chi ha “silurato” Maria? Di chi è la responsabilità della decisione? Provate anche voi a creare esperimenti mentali analoghi nel vostro contesto.
Se mettiamo una scatola nera in mezzo al processo decisionale viene meno la possibilità di spiegare causalità e consequenzialità logica: ma poter spiegare come e perché «a porta a b» è proprio ciò che sta alla base delle considerazioni legali, normative ed etiche del nostro vivere insieme.
Si tratta dunque di estendere a qualunque tecnologia che interviene nel processo decisionale che coinvolge gli individui e il loro accesso ai diritti e ai lavori (e alla finanza, all’assistenza sanitaria, agli esami, all’istruzione, ecc.) gli stessi requisiti che applichiamo al processo decisionale e al sistema di responsabilità umano. Dovrebbero insomma essere soddisfatte le stesse preoccupazioni legali, normative ed etiche che applichiamo per garantire la conformità negli ambiti regolati.
Riflettiamo che se un sistema non permette di ripercorrere il processo con cui è stato prodotto un output (cioè è una scatola nera), allora non dovrebbe essere un determinante del processo decisionale. Se il manager HR lo vuol consultare, faccia pure, ma la responsabilità di silurare Rossi resta tutta sua, e non della scatola nera che ha stilato la graduatoria.
Ma quale aiuto, quali indicazioni riceviamo dalle norme, visto che ne abbiamo invocato l’applicabilità? L’Unione Europea ha dichiarato nel 2020 di voler diventare il leader globale della «Intelligenza Artificiale incentrata sull’Uomo» con un imponente piano coordinato di investimenti e proponendo un sistema di regolazione, per ora unico al mondo.
Il sistema legislativo proposto con l’obiettivo di assicurare lo sviluppo di una “IA di cui ci si possa fidare e che metta le persone al primo posto”, stabilisce ambiti in cui l’utilizzo della IA è vietato e ambiti “ad alto rischio” ai quali si applicano restrizioni, controlli, sanzioni.
I sistemi IA utilizzati nel settore dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo sono definiti ad alto rischio. In particolare lo sono “(a) i sistemi di IA destinati a essere utilizzati per l’assunzione o la selezione di persone fisiche, in particolare per pubblicizzare i posti vacanti, vagliare o filtrare le candidature, valutare i candidati nel corso di colloqui o prove; (b) l’IA destinata a essere utilizzata per adottare decisioni in materia di promozione e cessazione dei rapporti contrattuali di lavoro, per l’assegnazione dei compiti e per il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone nell’ambito di tali rapporti di lavoro.” [Proposta di Regolamento del Parlamento europeo e del Consiglio del 21.4.2021 COM(2021) 206 final].
Si risolve così la questione di Maria Rossi? La norma proposta imporrebbe al fornitore che il sistema di human capital management debba permettere di essere efficacemente supervisionato dall’utente. Ma chiederebbe anche all’utente (il manager HR di Maria) di comprendere appieno le capacità e i limiti del sistema IA, di interpretarne correttamente l’output e di essere in grado di decidere di non usarlo, o di ignorarne, annullarne o ribaltarne l’output, fino a interromperne il funzionamento.
Saranno delusi quanti speravano di scaricarsi di molte responsabilità: dovranno anzi assumersi l’onere di nuove competenze (e responsabilità). Per chi invece guarda alla sfida delle possibilità della IA in ambito HR si apre una stagione in cui la trasparenza richiesta ai sistemi può diventare anche occasione di trasparenza organizzativa e di responsabilizzazione e competenza nell’adozione di questa famiglia di tecnologie. Cari manager, imprenditrici, sindacalisti, formatori, lavoratrici: se non l’avete già fatto, cominciate a riflettere, informarvi, studiare. Ne va della vostra capacità di governare le relazioni di lavoro, perché ben difficilmente l’intelligenza artificiale ne resterà fuori.