Ètica en l'ús de tecnologia per a RRHH: privadesa, transparència i equitat (2026)

ètica en l'ús de tecnologia per a RRHH

El 2018, Amazon va descobrir que el seu sistema d'IA per a selecció de personal penalitzava sistemàticament les dones. El 2020, l'algorisme d'avaluació de professors al Regne Unit va deixar sense accés a la universitat milers d'estudiants de barris desafavorits. I el 2023, la ciutat de Nova York es va convertir en la primera jurisdicció del món a exigir auditories obligatòries dels algorismes usats en contractació. L'ètica en l'ús de tecnologia per a RRHH no és un debat teòric — és una necessitat urgent amb conseqüències reals.

Què és l'ètica tecnològica a RRHH?
És el conjunt de principis que guien l'ús responsable d'intel·ligència artificial, automatització i anàlisi de dades a la gestió de persones. Comprèn tres pilars: privadesa de les dades d'empleats i candidats, transparència en les decisions automatitzades, i equitat algorítmica per evitar discriminació. A la UE, l'AI Act (2024) classifica els sistemes d'IA a RRHH com a «alt risc», amb obligacions legals específiques.

🔍 Per què l'ètica tecnològica a RRHH importa ara

L'adopció d'IA a Recursos Humans s'ha accelerat dràsticament. Segons Gartner, el 76% dels líders de RRHH creuen que si no adopten IA en els propers 12-24 mesos, es quedaran enrere. Però la velocitat d'adopció ha superat la reflexió ètica:

  • 83% de les empreses usen algun tipus d'IA en els seus processos de selecció (font: SHRM, 2025)
  • Només el 32% tenen una política formal d'ètica a IA per a RRHH
  • 1 de cada 4 candidats afirma haver estat avaluat per un sistema d'IA sense saber-ho
  • Multes de fins a 35M€ per incompliment de l'AI Act de la UE en sistemes d'alt risc

El problema no és la tecnologia en si — és fer-la servir sense els controls adequats. La IA a RRHH toca decisions que afecten directament la vida de les persones: qui aconsegueix una ocupació, qui és ascendit, qui és acomiadat. Aquestes decisions exigeixen un marc ètic sòlid.

🔒 Privadesa: quines dades pots recollir i quines no

Els sistemes de RRHH moderns recopilen una quantitat enorme de dades: des de CVs i avaluacions d'acompliment fins a monitorització de productivitat, anàlisi de sentiment en comunicacions internes i dades biomètriques de control d'accés.

Dades que requereixen especial cura

Tipus de dadaExempleNivell de riscBase legal necessària (RGPD)
Dades bàsiquesNom, email, CVBaixConsentiment o interès legítim
Dades d'acomplimentAvaluacions, KPIsMitjàInterès legítim + informació
Dades de productivitatMonitorització de pantalla, keystroke loggingAltInterès legítim + proporcionalitat
Dades biomètriquesPetjada dactilar, reconeixement facialMolt altConsentiment explícit (Art. 9)
Dades de salutBaixes mèdiques, anàlisi d'estrèsMolt altConsentiment explícit + necessitat
Anàlisi de sentimentIA analitzant to en emails/xatsMolt altProhibit en molts contextos (AI Act)

Principi de minimització de dades

El RGPD exigeix recollir només les dades estrictament necessaris per a la finalitat declarada. Si la vostra eina de screening de CVs recull la data de naixement però no la necessita per avaluar competències, estàs incomplint el principi de minimització — encara que el candidat hagi donat consentiment.

La regla pràctica: si no pots explicar exactament per què necessites una dada, no ho recullis.

🔎 Transparència algorísmica: el dret a saber

Quan un algorisme descarta un candidat o recomana un acomiadament, pot explicar per què? La transparència algorísmica és un dels pilars més crítics —i més descurats— de l'ètica tecnològica a RRHH.

Què exigeix la llei

  • RGPD (Art. 22): dret a no ser objecte de decisions automatitzades amb efectes significatius; i dret a obtenir una explicació de la lògica utilitzada.
  • AI Act (Art. 13): els sistemes d'IA d'alt risc han de ser «prou transparents» perquè els usuaris comprenguin i interpretin els resultats.
  • NYC Local Law 144: obliga a publicar un resum de l'auditoria de biaix de l'algorisme a la web de l'empresa.

Què significa a la pràctica

  1. Informar candidats i empleats que s'usa IA en el procés (a l'oferta d'ocupació, al contracte, oa la política interna).
  2. Explicar els criteris que utilitza el sistema: «Aquest candidat va puntuar 85/100 perquè té 5 anys d'experiència al sector i domina 3 de les 4 eines requerides».
  3. Oferir alternativa humana: qualsevol persona té dret a sol·licitar que un humà revisi la decisió automatitzada.
  4. Documentar el sistema: fitxa tècnica amb dades d'entrenament, mètriques de rendiment, resultats d'auditoria de biaix.

Senyal d'alerta: Si el vostre proveïdor d'IA per a RRHH no us pot explicar com funciona el vostre algoritme, o es nega a compartir resultats d'auditories de biaix, és una bandera vermella. L'opacitat algorísmica és incompatible amb el compliment de l'AI Act.

⚖️ Equitat: biaixos reals i com detectar-los

Els algorismes no són neutrals. Aprenen de dades històriques — i si aquestes dades contenen biaixos (i gairebé sempre les contenen), la IA les reprodueix i sovint les amplifica.

Tipus de biaix a IA per a RRHH

  • Biaix de dades històriques: si una empresa va contractar majoritàriament homes durant 10 anys, la IA aprèn que «home» = «bon candidat». Això va ser exactament el que va passar amb Amazon.
  • Biaix de proxy: l'algorisme no fa servir «gènere» com a variable, però fa servir «capità de l'equip de rugbi» (correlació amb gènere masculí) com a predictor positiu.
  • Biaix d'exclusió: candidats amb gaps al CV (maternitat, malaltia, cura de familiars) són penalitzats per algorismes que prioritzen trajectòries lineals.
  • Biaix socioeconòmic: prioritzar universitats de prestigi, domini d'anglès nadiu o experiència internacional exclou talent igualment vàlid de contextos menys privilegiats.
  • Biaix d'accessibilitat: entrevistes en vídeo amb IA que avaluen expressions facials discriminen persones neurodivergents o amb discapacitats.

Com detectar biaixos al sistema

L'única forma fiable és amb auditories quantitatives. Compara els resultats de l'algorisme per grups demogràfics (gènere, edat, ètnia, discapacitat) i mesura:

  • Taxa de selecció adversa (4/5 rule): si la taxa de selecció dun grup protegit és menor al 80% de la del grup majoritari, hi ha impacte advers.
  • Ràtio de falsos negatius: el sistema descarta més candidats qualificats d'un grup que no pas un altre?
  • Distribució de puntuacions: les puntuacions mitjanes són significativament diferents entre grups?

📋 4 casos reals que van canviar les regles

1. Amazon (2018) — Biaix de gènere en screening de CVs

Amazon va desenvolupar una IA per filtrar CVs que va aprendre de 10 anys de contractacions històriques. Com que la majoria de contractats eren homes, el sistema va aprendre a penalitzar CVs que contenien la paraula women's (com women's chess club captain). Amazon va descartar el sistema.

Lliçó: les dades històriques no són neutrals. Sense auditoria de biaix, la IA automatitza la discriminació del passat.

2. HireVue (2019-2021) — Avaluació facial en entrevistes

HireVue feia servir anàlisi d'expressions facials en entrevistes en vídeo per avaluar candidats. Després de la pressió de l'Electronic Privacy Information Center (EPIC), la FTC va investigar el cas. HireVue va eliminar l'anàlisi facial el 2021, admetent que els beneficis no justificaven els riscos de biaix.

Lliçó: que una tecnologia sigui possible no vol dir que sigui ètica. L'anàlisi facial en selecció està cada cop més qüestionada legalment i èticament.

3. Algorisme A-levels UK (2020) — Biaix socioeconòmic

Durant la pandèmia, el govern britànic va fer servir un algorisme per assignar notes a estudiants. El sistema va penalitzar sistemàticament alumnes de centres públics i barris desafavorits. Després de protestes massives, el govern va descartar els resultats algorítmics.

Lliçó: els algorismes poden semblar objectius però codificar desigualtats estructurals. La supervisió humana no és opcional.

4. NYC Local Law 144 (2023) - Primera llei d'auditoria algorísmica

Nova York va aprovar la primera llei que obliga les empreses a auditar anualment les seves eines d'IA per a contractació, publicar els resultats i notificar als candidats. Altres ciutats i la UE (amb l'AI Act) estan seguint aquest model.

Lliçó: la regulació ja va arribar. Les empreses que no auditen els algorismes s'exposen a multes i demandes.

Tres marcs reguladors clau que tot equip de RRHH ha de conèixer:

RegulacióÀmbitRequisits clau per a RRHHSancions
AI Act (UE)Unió EuropeaAvaluació de conformitat, supervisió humana, transparència, registre d'activitatsFins a 35M€ o 7% facturació global
RGPDUE + EEEMinimització de dades, consentiment, dret a explicació, dret a intervenció humana (Art. 22)Fins a 20M€ o 4% facturació global
NYC Law 144Nova YorkAuditoria anual de biaix, publicació de resultats, notificació a candidats$500-$1,500/dia per violació

Què classifica l'AI Act com a «alt risc» a RRHH?

  • Sistemes d'IA per screening i filtratge de candidats
  • Eines de avaluació automatitzada en entrevistes
  • Sistemes de monitorització d'empleats
  • IA per a decisions sobre promoció, acomiadament o assignació de tasques

Si utilitzeu qualsevol d'aquests sistemes a la UE, esteu obligats a complir els requisits d'alt risc de l'AI Act, amb entrada en vigor progressiva entre el 2025 i el 2027.

✅ Checklist ètic per a equips de RRHH

Abans d'implementar una eina d'IA:

  • El proveïdor pot explicar com funciona l?algoritme?
  • Proporciona informes d'auditoria de biaix?
  • Les dades d'entrenament són representatives i diverses?
  • Hi ha supervisió humana en les decisions crítiques?
  • Els candidats/empleats són informats de l'ús d'IA?
  • Hi ha un procés per sol·licitar revisió humana?
  • Es compleixen els requisits del RGPD (minimització, consentiment, explicació)?
  • El sistema està registrat com a risc alt segons l'AI Act (si s'aplica)?

Auditoria periòdica (mínim trimestral):

  • La taxa de selecció per grup demogràfic compleix la regla 4/5?
  • Hi ha candidats qualificats descartats per patrons sospitosos?
  • Els criteris de l'algorisme continuen alineats amb els requisits reals del lloc?
  • S'han documentat i corregit els biaixos detectats?
  • Els empleats de RH reben formació actualitzada en ètica d'IA?

🛠️ Eines per auditar l'ètica de la teva tecnologia

  • Aequites (gratuïta) — Framework open-source de la Universitat de Chicago per auditar biaix en sistemes de decisió automatitzada.
  • AI Fairness 360 (IBM) (gratuïta) — Toolkit de codi obert amb mètriques d'equitat i algorismes de mitigació de biaix.
  • What-If Tool (Google) (gratuïta) — Eina visual per explorar el comportament de models de ML sense escriure codi.
  • Holistic AI (de pagament) — Plataforma d'auditoria i governança d'IA, utilitzada per empreses per complir amb NYC Law 144 i AI Act.

💡 Conclusió

L'ètica en l'ús de tecnologia per a RRHH no és un fre a la innovació — és el que separa la innovació responsable de la irresponsable. Els casos d'Amazon, HireVue i l'algorisme britànic demostren que la IA sense controls ètics causa danys reals a persones reals.

La bona notícia: el marc legal ja existeix (AI Act, RGPD), les eines d'auditoria són accessibles (moltes gratuïtes) i els equips de RH que lideren en ètica tecnològica construeixen més confiança amb candidats i empleats.

La clau està en tres principis: recollir només les dades necessàries (privadesa), explicar com funcionen els sistemes (transparència), i auditar regularment els resultats (equitat). I sempre, sempre: supervisió humana en les decisions que afecten la vida de les persones.

Si utilitzes IA en el teu procés de selecció, complementa l'screening amb eines que documentin les entrevistes de manera transparent. Voicit genera informes automàtics d'entrevistes que serveixen com a registre objectiu de l'avaluació – un complement essencial per a la traçabilitat ètica del procés.

Nota de transparència: Voicit és una eina de transcripció i informes de reunions amb IA. No és un sistema de screening ni davaluació automatitzada de candidats. Ho esmentem com a complement per a la documentació ètica del procés de selecció.

📚 Articles relacionats

Álvaro Arrescurrenaga, CEO de Voicit

Álvaro Arrescurrenaga
CEO i cofundador de Voicit. Emprenedor expert en IA aplicada a reunions i processos de selecció. Més de 1.000 empreses usen la plataforma per transformar reunions i entrevistes en informes accionables.

T'ha resultat interessant? Comparteix-t'ho!

Articles relacionats

Descobreix el poder de la documentació automàtica.

Gaudeix del pla gratis per sempre.