Lavoro
Agenti di IA tra equità e giustizia
Gli Agenti di IA possono aumentare trasparenza ed equità nelle politiche retributive, ma non garantiscono giustizia. Se le skill agentiche restano concentrate in poche persone, si creano nuove disuguaglianze. Che fare? La domanda è per imprese, Parti Sociali e policy makers.
Gli Agenti di IA avranno un impatto positivo negli ambienti di lavoro?
In astratto, la risposta è positiva, perché ci sono tutti i presupposti per pensare che la loro adozione nella gestione delle risorse umane porti a meno arbitrarietà, più trasparenza, più equità.
Prendiamo ad esempio le politiche retributive che, nelle loro componenti monetarie e non monetarie e nelle loro dinamiche temporali, sintetizzano la relazione tra impresa, lavoratori e lavoratrici. Quando l’IA entra nelle decisioni sottese ai processi retributivi, la questione non si riduce all’efficienza operativa, ma si estende al modo in cui l’organizzazione definisce, argomenta e rende comprensibili le proprie scelte.
Marler [2024] individua quattro sfide chiave:
- quando usare l’AI per automatizzare o per aumentare il giudizio umano;
- come migliorarne l’impatto su fairness ed equity;
- come spiegare i suggerimenti forniti dal sistema;
- come integrare l’uso dell’IA applicata alla gestione delle risorse umane nella strategia d’impresa.
L’effetto leva dell’Agente di IA si manifesta quando l’impresa, oltre a usare l’IA per risparmiare lavoro umano o ridurre gli errori umani, coglie l’occasione per esplicitare criteri, ordinare dati, confrontare benchmark, chiarire le eccezioni da fare, rendere comprensibili le logiche che stanno alla base delle differenze retributive (monetarie e non).
Dal punto di vista organizzativo, ci sono le condizioni per uscire dalla zona grigia delle consuetudini implicite. Se le politiche retributive sono gestite da team composti da umani e Agenti di IA ed emergono scostamenti anomali, gap non giustificati, incoerenze rispetto ai ruoli o alle performance, la direzione del personale e il team di vertice devono interrogarsi sia su quanto paghiamo, sia sul perché paghiamo così.
Quindi?
Gli Agenti di IA possono supportare la creazione di ambienti di lavoro più equi attraverso la trasparenza dei processi sottostanti.
Questo punto è coerente con la letteratura più ampia sulla pay transparency. Un lavoro di Blundell, Duchini, Simion e Turrell [2024 e 2025] mostra che la trasparenza retributiva può ridurre una quota rilevante del gender pay gap, proprio perché aumenta la visibilità delle differenze e rende più difficile mantenerle quando non sono difendibili sul piano sostanziale.
È un ottimo spunto di riflessione per capire come implementare la Direttiva UE 2023/970, che in Italia sarà operativa da giugno 2026 e che trasforma l’equal pay da principio a sistema e come collegare Agenti di IA e pay transparency.
La traiettoria fin qui promette Equità. Ma ci porterà anche Giustizia? La risposta, almeno per ora, sembra che la risposta negativa.
Bone, González Ehlinger e Stephany [2025] mostrano che nei lavori legati all’AI pesa sempre di più la logica skill-based. La partita si sposta rapidamente dalla posizione ricoperta alla capacità concreta di progettare, configurare e usare sistemi intelligenti. Le persone che sanno lavorare con l’AI, che sanno progettare, addestrare e usare gli Agenti di IA migliorano il posizionamento competitivo nel mercato interno del lavoro (cioè, rispetto a colleghi e colleghe nell’organizzazione in cui lavorano in un certo momento) e in quello esterno (cioè, avranno un vantaggio in più quando decideranno di cambiare lavoro).
Quindi?
Gli Agenti di IA riducono le vecchie opacità, generano una nuova asimmetria e, se l’organizzazione non allarga l’accesso alle competenze agentiche, portano a una nuova segmentazione tra chi sa mettere al lavoro l’Agente di IA e chi no.
Uscendo dai confini dell’impresa, la questione diventa di politica pubblica.
Se vogliamo che l’agentizzazione del lavoro non allarghi le disuguaglianze, la classe dirigente è chiamata a definire politiche pubbliche per accompagnare nel minor tempo possibile il più alto numero di persone verso una dotazione di base di skill agentiche: come si istruisce un agente, come si verifica ciò che fa, come si trasferisce conoscenza operativa, come si presidiano errori, eccezioni e responsabilità.
Quindi?
Non tutti devono diventare sviluppatori, ma molti (o comunque molti più di oggi) devono essere messi nelle condizioni di imparare a lavorare dentro processi di lavoro in cui gli Agenti di IA sono un’infrastruttura con cui collaborare in modo consapevole.
In assenza di tali investimenti, i benefici di produttività si concentreranno in una minoranza e si aprirà un secondo tema, ancora più delicato: quello redistributivo.
Se gli Agenti di IA generano valore aggiunto crescente sostituendo quote di lavoro umano o comprimendo salari e opportunità, una parte di quel valore dovrà tornare alla collettività attraverso fiscalità, contribuzione e politiche di riequilibrio.
In altri termini?
O democratizziamo rapidamente le competenze agentiche, oppure dovremo tassare di più i rendimenti dell’agentizzazione per finanziare la coesione sociale.
Sullo stesso argomento
Agenti di IA in Consiglio di Amministrazione (28 marzo 2026)
Il gioco del potere tra Umani e Agenti di IA (14 marzo 2026)
I contributi per la pensione? Me li paga (anche) l’agente di intelligenza artificiale (15 febbraio 2026)
I contributi per la pensione? Me li paga (anche) l’agente di intelligenza artificiale
L’agente di intelligenza artificiale entra nella direzione del personale (8 febbraio 2026)
L’agente di intelligenza artificiale entra nella direzione del personale
Sei pronto a fare il capo di un agente di Intelligenza Artificiale? (25 gennaio 2026)
Sei pronto a fare il capo di un agente di Intelligenza Artificiale?
«Hai un grande amico in me», disse l’Agente di IA al collega umano (10 gennaio 2026)
«Hai un grande amico in me», disse l’Agente di IA al collega umano
Devi fare login per commentare
Accedi