Aggiornato: marzo 2026 · Di Álvaro Arrescurrenaga, CEO di Voicit
Nel 2018, Amazon ha scoperto che il suo sistema di reclutamento basato sull'intelligenza artificiale penalizzava sistematicamente le donne. Nel 2020, l'algoritmo di valutazione degli insegnanti del Regno Unito ha negato l'accesso all'università a migliaia di studenti provenienti da quartieri svantaggiati. E nel 2023, New York è diventata la prima giurisdizione al mondo a rendere obbligatorie le verifiche degli algoritmi di reclutamento. L'etica dell'uso della tecnologia nelle risorse umane non è un dibattito teorico, ma una necessità urgente con conseguenze concrete.
Si tratta dell'insieme di principi che guidano l'uso responsabile dell'intelligenza artificiale, dell'automazione e dell'analisi dei dati nella gestione delle risorse umane. Comprende tre pilastri: la privacy dei dati dei dipendenti e dei candidati, la trasparenza nelle decisioni automatizzate e l'equità algoritmica per prevenire la discriminazione. Nell'UE, l'AI Act (2024) classifica i sistemi di intelligenza artificiale nelle risorse umane come "ad alto rischio", con specifici obblighi legali.
- Perché l'etica tecnologica nelle risorse umane è importante oggi
- Privacy: quali dati è possibile e non è possibile raccogliere
- Trasparenza algoritmica: il diritto di sapere
- Equità: i pregiudizi reali e come individuarli
- 4 casi reali che hanno cambiato le regole
- Quadro giuridico: AI Act, GDPR e legge locale 144 di New York.
- Lista di controllo etica per i team delle risorse umane
- Strumenti per valutare l'etica della tua tecnologia
- Conclusione
🔍 Perché l'etica tecnologica nelle risorse umane è importante ora
L'adozione dell'IA nelle risorse umane ha subito una forte accelerazione. Secondo GartnerIl 76% dei responsabili delle risorse umane ritiene che, se non adotteranno l'intelligenza artificiale nei prossimi 12-24 mesi, rimarranno indietro. Ma la velocità di adozione ha superato le considerazioni etiche:
- L'83% delle aziende Utilizzano un qualche tipo di IA nei loro processi di selezione (fonte: SHRM, 2025)
- Solo il 32% Hanno una politica etica formale sull'IA per le risorse umane
- 1 candidato su 4 Sostiene di essere stato valutato da un sistema di intelligenza artificiale a sua insaputa.
- Multe fino a 35 milioni di euro per la mancata conformità alla legge europea sull'intelligenza artificiale nei sistemi ad alto rischio
Il problema non è la tecnologia in sé, ma il suo utilizzo senza adeguati controlli. L'intelligenza artificiale nelle risorse umane incide direttamente sulle decisioni che riguardano la vita delle persone: chi viene assunto, chi viene promosso, chi viene licenziato. Queste decisioni richiedono un solido quadro etico.
🔒 Privacy: quali dati puoi e non puoi raccogliere
I moderni sistemi di gestione delle risorse umane raccolgono un'enorme quantità di dati: dai curriculum vitae e dalle valutazioni delle prestazioni al monitoraggio della produttività, all'analisi del sentiment nelle comunicazioni interne e ai dati di controllo degli accessi biometrici.
Dati che richiedono particolare attenzione
| Tipo di dati | Esempio | Livello di rischio | Base giuridica necessaria (GDPR) |
| Dati di base | Nome, email, CV | Basso | Consenso o interesse legittimo |
| Dati sulle prestazioni | Valutazioni, KPI | Metà | Interesse legittimo + informazioni |
| Dati sulla produttività | Monitoraggio dello schermo, registrazione della pressione dei tasti | Alto | Interesse legittimo + proporzionalità |
| Dati biometrici | Impronta digitale, riconoscimento facciale | Molto alto | Consenso esplicito (Art. 9) |
| Dati sanitari | Congedo per malattia, analisi dello stress | Molto alto | Consenso esplicito + necessità |
| Analisi del sentiment | Analisi del tono nelle email e nelle chat tramite intelligenza artificiale | Molto alto | Vietato in molti contesti (Legge sull'IA) |
Principio di minimizzazione dei dati
Il GDPR richiede la raccolta dei soli dati strettamente necessario per lo scopo dichiarato. Se il tuo strumento di screening dei CV raccoglie la data di nascita ma non è necessaria per valutare le competenze, stai violando il principio di minimizzazione dei dati, anche se il candidato ha dato il suo consenso.
La regola generale: Se non riesci a spiegare esattamente perché ti serve una determinata informazione, non raccoglierla..
🔎 Trasparenza algoritmica: il diritto di sapere
Quando un algoritmo scarta un candidato o ne raccomanda il licenziamento, può spiegarne il motivo? La trasparenza algoritmica è uno dei pilastri più critici, e al contempo più trascurati, dell'etica tecnologica nelle risorse umane.
Ciò che la legge richiede
- GDPR (Art. 22): diritto a non essere soggetti a decisioni automatizzate con effetti significativi e diritto a ottenere una spiegazione della logica utilizzata.
- Legge sull'IA (Art. 13): I sistemi di intelligenza artificiale ad alto rischio devono essere "sufficientemente trasparenti" da permettere agli utenti di comprenderne e interpretarne i risultati.
- Legge locale n. 144 di New York: Richiede la pubblicazione di un riepilogo della verifica dei pregiudizi dell'algoritmo sul sito web dell'azienda.
Cosa significa in pratica?
- Informare i candidati e i dipendenti che l'IA venga utilizzata nel processo (nell'offerta di lavoro, nel contratto o nelle politiche interne).
- Spiegare i criteri che utilizza il sistema: "Questo candidato ha ottenuto un punteggio di 85/100 perché ha 5 anni di esperienza nel settore ed è competente in 3 dei 4 strumenti richiesti."
- Offrire un'alternativa umana: Chiunque ha il diritto di richiedere che una persona esamini la decisione automatizzata.
- Documentare il sistema: Scheda tecnica con dati di addestramento, metriche di prestazione e risultati dell'audit di bias.
Segnale di avvertimento: Se il tuo fornitore di intelligenza artificiale per le risorse umane non è in grado di spiegare il funzionamento del suo algoritmo o si rifiuta di condividere i risultati delle verifiche sui pregiudizi, questo è un campanello d'allarme. L'opacità algoritmica è incompatibile con la conformità all'AI Act.
⚖️ Equità: i pregiudizi reali e come individuarli
Gli algoritmi non sono neutrali. Apprendono dai dati storici e, se questi dati contengono pregiudizi (e quasi sempre li contengono), l'IA li riproduce e spesso li amplifica.
Tipologie di pregiudizi nell'IA per le risorse umane
- Distorsione dovuta ai dati storici: Se un'azienda assume prevalentemente uomini per 10 anni, l'intelligenza artificiale impara che "uomo" = "buon candidato". Questo è esattamente ciò che è successo con Amazon.
- Distorsione da parte del proxy: L'algoritmo non utilizza il "genere" come variabile, ma utilizza "capitano della squadra di rugby" (correlazione con il genere maschile) come predittore positivo.
- Pregiudizio di esclusione: I candidati con interruzioni nel curriculum (maternità, malattia, assistenza a familiari) vengono penalizzati dagli algoritmi che privilegiano i percorsi di carriera lineari.
- Pregiudizio socioeconomico: Dare priorità alle università prestigiose, alla conoscenza madrelingua dell'inglese o all'esperienza internazionale significa escludere talenti altrettanto validi provenienti da contesti meno privilegiati.
- Pregiudizio di accessibilità: Le videointerviste basate sull'intelligenza artificiale che valutano le espressioni facciali discriminano le persone neurodivergenti o con disabilità.
Come individuare i pregiudizi nel tuo sistema
L'unico modo affidabile è con audit quantitativiConfronta i risultati dell'algoritmo in base ai gruppi demografici (genere, età, etnia, disabilità) e misura:
- Tasso di selezione avversa (regola 4/5): Se il tasso di selezione di un gruppo protetto è inferiore all'80% di quello del gruppo maggioritario, si verifica un impatto negativo.
- Tasso di falsi negativi: Il sistema scarta un numero maggiore di candidati qualificati appartenenti a un gruppo rispetto a un altro?
- Distribuzione dei punteggi: I punteggi medi differiscono in modo significativo tra i gruppi?
📋 4 casi reali che hanno cambiato le regole
1. Amazon (2018) — Pregiudizi di genere nella selezione dei CV
Amazon ha sviluppato un'intelligenza artificiale per filtrare i curriculum, basata su 10 anni di dati storici sulle assunzioni. Poiché la maggior parte delle persone assunte erano uomini, il sistema ha imparato a penalizzare i curriculum contenenti la parola "femminile" (come ad esempio "capitano del circolo di scacchi femminile"). Amazon ha quindi abbandonato il sistema.
Lezione: I dati storici non sono neutrali. Senza un'analisi dei pregiudizi, l'intelligenza artificiale automatizza le discriminazioni passate.
2. HireVue (2019-2021) — Valutazione facciale nei colloqui
HireVue utilizzava l'analisi delle espressioni facciali nei colloqui video per valutare i candidati. In seguito alle pressioni dell'Electronic Privacy Information Center (EPIC), la FTC ha avviato un'indagine sul caso. Nel 2021 HireVue ha eliminato l'analisi facciale, ammettendo che i benefici non giustificavano i rischi di pregiudizio.
Lezione: Il fatto che una tecnologia sia possibile non significa che sia etica. Il riconoscimento facciale per il reclutamento del personale è sempre più oggetto di dibattito sia dal punto di vista legale che etico.
3. Algoritmo A-levels del Regno Unito (2020) — Pregiudizio socioeconomico
Durante la pandemia, il governo britannico ha utilizzato un algoritmo per assegnare i voti agli studenti. Il sistema penalizzava sistematicamente gli studenti provenienti da scuole statali e da quartieri svantaggiati. In seguito a massicce proteste, il governo ha scartato i risultati dell'algoritmo.
Lezione: Gli algoritmi possono apparire oggettivi, ma in realtà codificano disuguaglianze strutturali. La supervisione umana non è facoltativa.
4. Legge locale 144 di New York (2023) — Prima legge sull'audit algoritmico
New York ha approvato la prima legge che obbliga le aziende a sottoporre annualmente a verifica i propri strumenti di reclutamento basati sull'intelligenza artificiale, a pubblicarne i risultati e a informare i candidati. Altre città e l'UE (con l'AI Act) stanno seguendo l'esempio.
Lezione: La regolamentazione è arrivata. Le aziende che non sottopongono i propri algoritmi a verifiche rischiano multe e cause legali.
📜 Quadro giuridico: AI Act, GDPR e legge locale 144 di New York
Tre quadri normativi fondamentali che ogni team delle risorse umane dovrebbe conoscere:
| Regolamento | Ambito di applicazione | Requisiti chiave per le risorse umane | Sanzioni |
| Legge sull'intelligenza artificiale (UE) | Unione Europea | Valutazione della conformità, supervisione umana, trasparenza, registro delle attività | Fino a 35 milioni di euro o il 7% del fatturato globale |
| GDPR | UE + SEE | Minimizzazione dei dati, consenso, diritto alla spiegazione, diritto all'intervento umano (Art. 22) | Fino a 20 milioni di euro o il 4% del fatturato globale |
| Legge 144 di New York City | New York | Audit annuale sui pregiudizi, pubblicazione dei risultati, notifica ai candidati | Da 500 a 1.500 dollari al giorno per violazione |
Cosa classifica come "ad alto rischio" nell'ambito delle risorse umane la legge sull'intelligenza artificiale?
- Sistemi di intelligenza artificiale per selezione e filtraggio dei candidati
- Utensili valutazione automatizzata nelle interviste
- Sistemi di monitoraggio dei dipendenti
- IA per le decisioni su promozione, licenziamento o assegnazione di compiti
Se utilizzi uno qualsiasi di questi sistemi nell'UE, sei tenuto a rispettare i requisiti per i sistemi ad alto rischio previsti dalla legge sull'IA, che entrerà in vigore gradualmente tra il 2025 e il 2027.
✅ Lista di controllo etica per i team delle risorse umane
- Il fornitore può spiegare come funziona l'algoritmo?
- Fornisce report di verifica dell'imparzialità?
- I dati di addestramento sono rappresentativi e diversificati?
- È previsto un controllo umano nelle decisioni critiche?
- I candidati/dipendenti sono informati sull'utilizzo dell'intelligenza artificiale?
- Esiste una procedura per richiedere una revisione umana?
- Sono soddisfatti i requisiti del GDPR (minimizzazione, consenso, spiegazione)?
- Il sistema è classificato come ad alto rischio ai sensi della legge sull'intelligenza artificiale (se applicabile)?
Audit periodico (minimo trimestrale):
- Il tasso di selezione per gruppo demografico è conforme alla regola dei 4/5?
- Ci sono candidati qualificati che vengono scartati a causa di comportamenti sospetti?
- I criteri dell'algoritmo sono ancora in linea con i requisiti effettivi del lavoro?
- I pregiudizi individuati sono stati documentati e corretti?
- I dipendenti delle risorse umane ricevono una formazione aggiornata sull'etica dell'IA?
🛠️ Strumenti per verificare l'etica della tua tecnologia
- Aequitas (gratuito) — Framework open-source dell'Università di Chicago per la verifica dei pregiudizi nei sistemi decisionali automatizzati.
- AI Fairness 360 (IBM) (gratuito) — Toolkit open source con metriche di equità e algoritmi per la mitigazione dei pregiudizi.
- Strumento "What-If" (Google) (gratuito) — Uno strumento visivo per esplorare il comportamento dei modelli di machine learning senza scrivere codice.
- Intelligenza artificiale olistica (a pagamento) — Piattaforma di audit e governance basata sull'intelligenza artificiale, utilizzata dalle aziende per conformarsi alla legge 144 di New York e all'AI Act.
💡 Conclusion
L'etica nell'uso della tecnologia per le risorse umane non è un ostacolo all'innovazione, bensì ciò che distingue l'innovazione responsabile da quella irresponsabile. I casi di Amazon, HireVue e dell'algoritmo britannico dimostrano che l'intelligenza artificiale, senza controlli etici, causa danni reali a persone reali.
La buona notizia è che il quadro giuridico esiste già (AI Act, GDPR), gli strumenti di audit sono accessibili (molti gratuiti) e i team delle risorse umane che si distinguono per l'etica tecnologica instaurano un rapporto di maggiore fiducia con candidati e dipendenti.
La chiave sta in tre principi: raccogliere solo i dati necessari (privacy), spiegare come funzionano i sistemi (trasparenza) e verificare regolarmente i risultati (equità). E sempre, sempre: la supervisione umana nelle decisioni che riguardano la vita delle persone.
Se utilizzi l'intelligenza artificiale nel tuo processo di selezione, affianca allo screening strumenti che documentino i colloqui in modo trasparente. Voce Genera automaticamente report di intervista che fungono da registrazione oggettiva della valutazione, un complemento essenziale alla tracciabilità etica del processo.
📚 Articoli correlati
- Screening dei CV con intelligenza artificiale: una guida completa 2026
- Applicazioni basate sull'intelligenza artificiale per la trascrizione delle riunioni: le 12 migliori del 2026
- Come generare report di interviste con l'intelligenza artificiale
- Esperienza dei dipendenti: elementi chiave oltre l'onboarding
Amministratore delegato e co-fondatore di Voicit. Imprenditore specializzato nell'applicazione dell'intelligenza artificiale a riunioni e processi di reclutamento. Oltre 1.000 aziende utilizzano la piattaforma per trasformare riunioni e colloqui in report concreti e utilizzabili.
