Le promesse dell’Intelligenza Artificiale hanno da qualche tempo iniziato ad attrarre l’interesse di molti settori. La gestione delle persone è certamente uno di questi: l’utilizzo di sistemi – o meglio, algoritmi, modelli – di IA è percepito da alcuni come una grossa opportunità in grado di rivoluzionare l’intero comparto, da altri come un rischio difficile da calcolare e forse troppo pericoloso da correre.
Come stanno, dunque, le cose? Come sarebbe meglio procedere? Le alte aspettative nei confronti di modelli IA sono ampiamente giustificate dai risultati impressionanti che questa tecnologia ha raggiunto negli ultimi anni, stravolgendo applicazioni come la visione artificiale e l’elaborazione del linguaggio naturale. In particolare, questi progressi sono stati resi possibili grazie al fulmineo sviluppo di un filone moderno dell’IA, chiamato apprendimento automatico. L’apprendimento automatico ha progressivamente sostituito la “buona vecchia IA” come tecnologia più promettente. La principale differenza tra i due approcci risiede nel modo in cui la conoscenza necessaria per prendere decisioni viene acquisita: in modo autonomo dai dati esistenti (l’apprendimento automatico) o da regole e conoscenze strutturate a priori da esperti della materia (la buona vecchia IA).
Cosa ha a che fare tutto questo con la gestione del personale? In realtà, molto. Quando si parla di IA, il rischio di fare di tutta l’erba un fascio è alto e ha profonde conseguenze sia per gli utenti finali (che ne subiscono, nel bene o nel male, le decisioni) sia per i proprietari (che potrebbero esserne ritenuti responsabili).
Un’applicazione basata su IA che apprende automaticamente dai dati può ottenere prestazioni molto soddisfacenti su compiti molto,moltospecifici (con cui, a dire il vero, l’intelligenza ha spesso ben poco a che fare). Lo svantaggio di questo approccio è una pressoché inesistente capacità di comprendere i motivi delle decisioni prese dal modello IA e un controllo sul modello stesso molto marginale, limitato a quali e quanti dati può macinare. La problematica della qualità dei dati è seria: un modello che riceva in ingresso dei dati spazzatura restituirà in uscita decisioni della stessa consistenza e profumazione.
L’impiego di modelli di apprendimento automatico ha come precondizione l’esistenza di un set di dati il più possibile completo e di buona qualità. Dall’altro lato, il comportamento di algoritmi della buona vecchia IA è guidato da regole facilmente comprensibili che sono state raccolte da esseri umani. Il backtracking delle decisioni, processo che consente di risalire al percorso razionale che le ha generate, è in questo caso disponibile. Tali algoritmi, però, non riescono in genere a trattare problemi complessi, per cui la conoscenza necessaria è latente, non facilmente formalizzabile ed estremamente vasta.
Con un esempio concreto, l’idea di selezionare un candidato a partire dal suo video-curriculum tramite modelli di IA è attraente (e non certo impensabile).
Ma cosa succede se da un lato (apprendimento automatico) il solo fatto di sostituire nello sfondo del video un muro bianco con una libreria aumenta le probabilità del candidato di essere valutato positivamente e, dall’altro (buona vecchia IA), non esiste un insieme di regole efficaci per la selezione dei candidati che coprano tutti i casi possibili? Il pericolo di trovarsi con un sistema a tratti inaffidabile che non sa come comportarsi in situazioni ambigue o che è soggetto a clamorosi abbagli senza nessuna possibilità di appello non è trascurabile.
Meglio gettare la spugna, per ora.
Lasciare che il tempo faccia il suo corso e che le tecnologie migliorino in affidabilità e robustezza. O no? In effetti, la possibilità di combinare algoritmi di buona vecchia IA con modelli di apprendimento automatico esiste ed è una delle strade più promettenti per lo sviluppo di sistemi che possiedano i benefici di entrambi gli approcci senza sperabilmente ereditarne troppi difetti.
Mentre un prodotto tuttofare integrato che combini efficacemente al suo interno queste soluzioni è ancora oggetto di intensa ricerca (uno dei Sacri Graal dell’IA), una via già percorribile è quella di risolvere problemi diversi (meglio se indipendenti l’uno dall’altro) con tecnologie diverse per poi combinare le soluzioni. Approccio, questo, molto apprezzato da informatici e ingegneri (che vi si riferiscono con la locuzione divide et impera).
Forti del fatto che, come abbiamo visto, l’IA non è un concetto monolitico bensì sfaccettato, possiamo descrivere il nostro problema (anche) ad esperti che siano in grado di identificare i sottoproblemi principali e capire quale tipologia di IA abbia più probabilità di successo in ciascuno di essi (quanti dati hai? sapresti dirmi come risolveresti il problema tu?).
Con un’ammonizione: questi sistemi sono terribilmente difficili da valutare quando ancora in stato prototipale. Un eventuale beneficio si palesa su applicazioni reali, in cui i dati da trattare sono rappresentativi dell’intero problema o in cui si è esposti ad un numero sufficiente di casi.
Siete disposti a scommettere sull’IA? Allora preparatevi a investire per qualche anno su un obiettivo sperimentale molto specifico, mettendo in conto possibili fallimenti, consapevoli del fatto che saranno necessari diversi tentativi prima di approdare ad un esito operativo. L’alternativa è aspettare che il vantaggio se lo prenda qualcun altro.