Di Marco Mambrini
Proprio nelle ore in cui, insieme a uno stimato collega, preparo un nuovo corso in tema di #AI, #Etica e #DataProtection, giungono notizie di aziende che vietano ai dipendenti o addirittura bloccano (come nel caso di JPMorgan) l’impiego del chatbot (apparentemente) gratuito #ChatGPT.
“Buffo”, penso: proprio i rischi connessi al potenziale impiego “sfrenato” di questi strumenti, insieme alla crescente (e genuina) curiosità sui temi legati all’#IA, mi hanno spinto a formulare pochi giorni fa questa proposta formativa.
Ma veniamo al punto: inutile allarmismo o saggia decisione, quella adottata da queste aziende?
Come in ogni cosa, possiamo dire che in medio stat virtus. Il divieto assoluto e soprattutto il blocco di questi sistemi dovrebbero essere l’extrema ratio, da adottarsi esclusivamente quando viene meno la fiducia nei propri dipendenti e nelle proprie capacità di #formazione e di sensibilizzazione, sia delle figure apicali che del personale tutto.
Vero è che su ChatGPT, così come su ogni altro sistema terzo (gratuito o meno) basato sull’#IntelligenzaArtificiale, v’è ancora molto (troppo) poca consapevolezza in relazione a come avviene “l’addestramento continuo” di questi strumenti, nonché quali dati e informazioni regaliamo – è proprio il caso di dirlo – a terzi quando impieghiamo questi sistemi, con il rischio di compromettere l’#InformationSecurity aziendale.
Oltre a questi problemi ve n’è un’altro altrettanto preoccupante, ovverosia il fatto che ChatGPT ha dimostrato in molteplici (anche qui, troppe) occasioni di non essere affidabile e di fornire riscontri completamente errati. Ecco allora che non solo (se non facciamo attenzione) consegniamo nella mani di terzi informazioni aziendali e dati personali (con buona pace tanto della fiducia dei nostri clienti o utenti, quanto del #GDPR e in generale della normativa #privacy territorialmente applicabile), ma rischiamo anche di compromettere seriamente le performance e la reputazione aziendali.