L’IA, una responsabilità dell’HR
Nelle grandi imprese, quando si parla di intelligenza artificiale, il primo riflesso organizzativo è quasi sempre lo stesso: il tema viene intercettato dalla funzione ICT. È una reazione comprensibile. L’ICT seleziona le tecnologie, dialoga con i vendor, governa le architetture e si occupa della formazione specialistica necessaria a far funzionare i sistemi. Tuttavia, con l’entrata in vigore delle nuove normative europee, questa impostazione mostra tutti i suoi limiti.
L’AI Act e lo standard ISO/IEC 42001 non chiedono alle organizzazioni di diventare più esperte di tecnologia. Chiedono qualcosa di diverso e più profondo: governare l’impatto dell’intelligenza artificiale sulle decisioni che riguardano le persone. Ed è qui che la funzione HR diventa centrale. L’intelligenza artificiale è già entrata nei processi HR delle grandi imprese: selezione dei candidati, analisi delle performance, mappatura dei talenti, supporto alle decisioni manageriali, people analytics. Spesso lo ha fatto in modo progressivo, quasi invisibile, come un’estensione “naturale” dei sistemi informativi esistenti.
Ma ogni volta che un algoritmo suggerisce, classifica o prevede, non sta solo elaborando dati: sta influenzando una decisione umana. Il punto non è se questi strumenti siano utili o meno, il punto è chi governa il modo in cui vengono utilizzati, chi è responsabile delle scelte finali e chi presidia i rischi cognitivi, organizzativi ed etici che ne derivano. In altre parole, l’IA non è solo una questione tecnologica: è una questione di governance delle persone, delle competenze e dei processi decisionali, ed è per questo l’IA diventa responsabilità dell’HR.
AI Act: cosa chiede davvero alle Risorse Umane
L’AI Act introduce un principio chiave che segna una svolta culturale: l’intelligenza artificiale non è neutra quando incide sulle persone. Per questo la normativa europea adotta un approccio basato sul rischio, distinguendo le applicazioni di IA in base al loro potenziale impatto sui diritti, sulla sicurezza e sull’equità.
Molti sistemi utilizzati in ambito HR rientrano tra quelli considerati ad alto rischio. Non perché siano intrinsecamente pericolosi, ma perché influenzano decisioni che hanno conseguenze concrete sulla vita professionale delle persone. La norma non vieta questi sistemi, ma introduce obblighi stringenti: valutazione del rischio, trasparenza, supervisione umana, tracciabilità delle decisioni.
Qui emerge un punto spesso frainteso: l’AI Act non chiede all’HR di diventare esperto di algoritmi, chiede all’organizzazione di dimostrare che le decisioni prese con il supporto dell’IA sono comprensibili, giustificabili e attribuibili. In altre parole, chiede che qualcuno sia in grado di rispondere a domande come: perché questo strumento viene utilizzato? In quali casi? Con quali limiti? E soprattutto: chi decide davvero?
Queste non sono domande tecniche, sono domande organizzative e culturali ed è qui che l’IA diventa responsabilità dell’HR.
ISO 42001: la governance dell’IA come sistema, non come progetto
Se l’AI Act definisce il quadro normativo, la ISO 42001 offre alle organizzazioni uno strumento per tradurlo in pratica. Lo standard introduce il concetto di sistema di gestione dell’intelligenza artificiale, riconoscendo che l’IA non è un’iniziativa isolata, ma un insieme di scelte che attraversano processi, ruoli e competenze.
Uno degli elementi centrali della ISO 42001 è l’analisi del rischio. Non si tratta di un’analisi puramente tecnica, ma di una valutazione continua degli impatti che l’IA genera lungo il suo ciclo di vita. Questo include rischi legati alla qualità dei dati o alla sicurezza, ma anche rischi più sottili e spesso trascurati: l’automatizzazione del giudizio, la riduzione del pensiero critico, la delega implicita delle decisioni.
Per la funzione HR, la ISO 42001 rappresenta un cambio di prospettiva. Non richiede di scegliere tecnologie o configurare sistemi, ma di contribuire alla definizione delle regole che governano l’uso dell’IA sulle persone. È un passaggio dalla gestione degli strumenti alla governance dei comportamenti decisionali.
Analisi del rischio e pensiero critico: ciò che l’ICT non può fare
Quando si parla di analisi del rischio legata all’intelligenza artificiale, il rischio più comune è ridurla a un esercizio di conformità. Ma il vero valore dell’analisi del rischio sta altrove: sta nella capacità di rendere visibili i meccanismi decisionali che spesso rimangono impliciti.
Ogni sistema di IA che supporta una decisione introduce una nuova dinamica: l’output algoritmico tende a essere percepito come oggettivo, neutro, affidabile. Senza un adeguato presidio culturale, questo porta a un rischio specifico: la rinuncia progressiva al giudizio umano. Il pensiero critico viene sostituito dall’efficienza, il dubbio viene visto come un ostacolo, la responsabilità si diluisce.
Questo tipo di rischio non è tecnico, non può essere governato dall’ICT. Richiede competenze trasversali, consapevolezza organizzativa e una cultura che legittimi il confronto e la supervisione umana. In altre parole, richiede una formazione trasversale.
GAIA: AI Literacy, pensiero critico e LAB di analisi del rischio
È in questo spazio che si colloca il progetto formativo GAIA. GAIA non è un corso tecnico sull’intelligenza artificiale e non si sovrappone alla formazione specialistica gestita dall’ICT. Il suo obiettivo è diverso: sviluppare AI Literacy e Pensiero critico nelle persone che prendono decisioni.
Accanto ai contenuti su AI Act e ISO 42001, GAIA integra un LAB di analisi del rischio pensato specificamente per le organizzazioni complesse. Nel LAB, i partecipanti lavorano su casi reali, analizzano processi decisionali concreti e mappano i punti in cui l’IA influenza — spesso in modo non dichiarato — le scelte che riguardano le persone.
Il valore del LAB non è fornire una checklist normativa, ma allenare una competenza: la capacità di leggere il rischio là dove nasce, cioè nelle decisioni quotidiane. Questo approccio consente all’HR di trasformare gli obblighi normativi in un’opportunità di sviluppo organizzativo.
Conclusioni
L’intelligenza artificiale sta cambiando il modo in cui le organizzazioni decidono. L’AI Act e la ISO 42001 rendono questo cambiamento esplicito e chiedono alle imprese di assumersi una responsabilità chiara. Non si tratta solo di rispettare nuove regole, ma di ridefinire il perimetro della governance interna.
Per i Responsabili delle Risorse Umane delle grandi imprese, questo scenario rappresenta una svolta, l’HR non è chiamata a sostituirsi all’ICT né a diventare un centro di competenza
tecnologica, è chiamata a fare ciò che nessun’altra funzione può fare al suo posto: governare l’impatto dell’IA sulle persone, sulle competenze e sul modo di prendere decisioni.
L’analisi del rischio, letta in questa chiave, smette di essere un adempimento e diventa uno strumento di maturità organizzativa. Il pensiero critico non è un optional culturale, ma una competenza strategica. Programmi come GAIA mostrano come sia possibile accompagnare le organizzazioni in questo passaggio, fornendo all’HR strumenti concreti per esercitare una vera leadership cognitiva.
In un contesto in cui l’innovazione tecnologica corre veloce, la vera opportunità per le grandi imprese non è semplicemente adottare l’IA, ma scegliere come usarla senza rinunciare al giudizio umano.
