{"id":5864,"date":"2025-07-09T12:08:45","date_gmt":"2025-07-09T12:08:45","guid":{"rendered":"https:\/\/voicit.com\/?p=5864"},"modified":"2026-04-03T17:03:09","modified_gmt":"2026-04-03T17:03:09","slug":"etica-tecnologia-rrhh","status":"publish","type":"post","link":"https:\/\/voicit.com\/ca\/blog\/recursos-humanos\/etica-tecnologia-rrhh\/5864\/","title":{"rendered":"\u00c8tica en l'\u00fas de tecnologia per a RRHH: privadesa, transpar\u00e8ncia i equitat (2026)"},"content":{"rendered":"<style>\n@import url('https:\/\/fonts.googleapis.com\/css2?family=Manrope:wght@400;500;600;700&display=swap');\n.voicit-blog-content { font-family: 'Manrope', sans-serif; max-width: 780px; margin: 0 auto; color: #333; }\n.voicit-blog-content p { font-size: 18px; line-height: 1.7; margin-bottom: 20px; }\n.voicit-blog-content h2 { font-size: 26px; font-weight: 700; color: #111; border-bottom: 2px solid #f0f0f0; padding-bottom: 12px; margin-top: 48px; margin-bottom: 20px; }\n.voicit-blog-content h3 { font-size: 21px; font-weight: 600; color: #111; margin-top: 32px; margin-bottom: 14px; }\n.voicit-blog-content ul, .voicit-blog-content ol { font-size: 17px; line-height: 1.6; margin-bottom: 20px; padding-left: 24px; }\n.voicit-blog-content li { margin-bottom: 8px; }\n.voicit-byline { display: flex; align-items: center; gap: 12px; margin-bottom: 32px; font-size: 15px; color: #666; }\n.voicit-byline img { width: 36px; height: 36px; border-radius: 50%; }\n.snippet-bait { background: #f5f7fa; border-left: 4px solid #111; border-radius: 8px; padding: 16px 20px; margin: 24px 0; font-size: 17px; line-height: 1.6; }\n.snippet-bait strong { display: block; margin-bottom: 6px; }\n.toc-box { background: #f8f9fa; border: 1px solid #e5e5e5; border-radius: 12px; padding: 20px 28px; margin: 24px 0; }\n.toc-box ol { margin: 0; padding-left: 20px; }\n.toc-box li { margin-bottom: 6px; }\n.toc-box a { color: #333; text-decoration: none; border-bottom: 1px solid #ccc; }\n.stat-box { background: #f0f4ff; border-radius: 10px; padding: 20px 24px; margin: 24px 0; }\n.stat-box p { margin: 0; }\n.warning-box { background: #fff8f0; border-left: 4px solid #e65100; border-radius: 8px; padding: 16px 20px; margin: 24px 0; }\n.case-box { background: #f9f9f9; border: 1px solid #e5e5e5; border-radius: 10px; padding: 20px 24px; margin: 24px 0; }\n.checklist-box { background: #f8f9fa; border-radius: 10px; padding: 20px 24px; margin: 24px 0; }\n.comparison-table { width: 100%; border-collapse: collapse; border: 1px solid #ddd; border-radius: 8px; overflow: hidden; margin: 24px 0; font-size: 15px; }\n.comparison-table td { padding: 12px 16px; border: 1px solid #ddd; }\n.comparison-table tr:first-child td { background: #1a1a1a; color: #ffffff; font-weight: 700; }\n.comparison-table tr:nth-child(even) td { background: #fafafa; }\n.disclaimer-box { font-size: 14px; font-style: italic; color: #777; background: #f9f9f9; border-left: 3px solid #ccc; padding: 12px 16px; border-radius: 6px; margin: 24px 0; }\n.author-box { display: flex; gap: 20px; align-items: center; background: #f9f9f9; border-radius: 12px; padding: 24px 28px; margin: 32px 0; }\n.author-box img { width: 80px; height: 80px; border-radius: 50%; }\n.author-box-text { font-size: 15px; line-height: 1.5; }\n.author-box-text strong { font-size: 17px; display: block; margin-bottom: 4px; }\n.voicit-cta { display: block; text-align: center; margin: 32px auto; }\n.voicit-cta a { display: inline-block; background: #000; color: #fff; padding: 14px 28px; font-size: 16px; font-weight: 600; border-radius: 10px; text-decoration: none; }\n<\/style>\n<div class=\"voicit-blog-content\">\n<div class=\"voicit-byline\">\n<img decoding=\"async\" src=\"https:\/\/www.gravatar.com\/avatar\/9606a7cf8a077e463d66ccba5e8cd71f?s=96\" alt=\"\u00c1lvaro Arrescurrenaga\"><br \/>\nActualitzat: mar\u00e7 2026 \u00b7 Per \u00c1lvaro Arrescurrenaga, CEO de Voicit\n<\/div>\n<p>El 2018, Amazon va descobrir que el seu sistema d'IA per a selecci\u00f3 de personal penalitzava sistem\u00e0ticament les dones. El 2020, l'algorisme d'avaluaci\u00f3 de professors al Regne Unit va deixar sense acc\u00e9s a la universitat milers d'estudiants de barris desafavorits. I el 2023, la ciutat de Nova York es va convertir en la primera jurisdicci\u00f3 del m\u00f3n a exigir auditories obligat\u00f2ries dels algorismes usats en contractaci\u00f3. L'\u00e8tica en l'\u00fas de tecnologia per a RRHH no \u00e9s un debat te\u00f2ric \u2014 \u00e9s una necessitat urgent amb conseq\u00fc\u00e8ncies reals.<\/p>\n<div class=\"snippet-bait\">\n<strong>Qu\u00e8 \u00e9s l'\u00e8tica tecnol\u00f2gica a RRHH?<\/strong><br \/>\n\u00c9s el conjunt de principis que guien l'\u00fas responsable d'intel\u00b7lig\u00e8ncia artificial, automatitzaci\u00f3 i an\u00e0lisi de dades a la gesti\u00f3 de persones. Compr\u00e8n tres pilars: privadesa de les dades d'empleats i candidats, transpar\u00e8ncia en les decisions automatitzades, i equitat algor\u00edtmica per evitar discriminaci\u00f3. A la UE, l'AI Act (2024) classifica els sistemes d'IA a RRHH com a \u00abalt risc\u00bb, amb obligacions legals espec\u00edfiques.\n<\/div>\n<div class=\"toc-box\">\n<strong>En aquest article:<\/strong><\/p>\n<ol>\n<li><a href=\"#por-que-importa\">Per qu\u00e8 l'\u00e8tica tecnol\u00f2gica a RRHH importa ara<\/a><\/li>\n<li><a href=\"#privacidad\">Privadesa: quines dades pots recollir i quines no<\/a><\/li>\n<li><a href=\"#transparencia\">Transpar\u00e8ncia algor\u00edsmica: el dret a saber<\/a><\/li>\n<li><a href=\"#equidad\">Equitat: biaixos reals i com detectar-los<\/a><\/li>\n<li><a href=\"#casos\">4 casos reals que van canviar les regles<\/a><\/li>\n<li><a href=\"#marco-legal\">Marc legal: AI Act, RGPD i NYC Local Law 144<\/a><\/li>\n<li><a href=\"#checklist\">Checklist \u00e8tic per a equips de RRHH<\/a><\/li>\n<li><a href=\"#herramientas\">Eines per auditar l'\u00e8tica de la tecnologia<\/a><\/li>\n<li><a href=\"#conclusion\">Conclusi\u00f3<\/a><\/li>\n<\/ol>\n<\/div>\n<h2 id=\"por-que-importa\">\ud83d\udd0d Per qu\u00e8 l'\u00e8tica tecnol\u00f2gica a RRHH importa ara<\/h2>\n<p>L'adopci\u00f3 d'IA a Recursos Humans s'ha accelerat dr\u00e0sticament. Segons <a href=\"https:\/\/www.gartner.com\/en\/human-resources\" rel=\"nofollow noopener\" target=\"_blank\">Gartner<\/a>, el 76% dels l\u00edders de RRHH creuen que si no adopten IA en els propers 12-24 mesos, es quedaran enrere. Per\u00f2 la velocitat d'adopci\u00f3 ha superat la reflexi\u00f3 \u00e8tica:<\/p>\n<div class=\"stat-box\">\n<ul>\n<li><strong>83% de les empreses<\/strong> usen algun tipus d'IA en els seus processos de selecci\u00f3 (font: <a href=\"https:\/\/www.shrm.org\" rel=\"nofollow noopener\" target=\"_blank\">SHRM<\/a>, 2025)<\/li>\n<li><strong>Nom\u00e9s el 32%<\/strong> tenen una pol\u00edtica formal d'\u00e8tica a IA per a RRHH<\/li>\n<li><strong>1 de cada 4 candidats<\/strong> afirma haver estat avaluat per un sistema d'IA sense saber-ho<\/li>\n<li><strong>Multes de fins a 35M\u20ac<\/strong> per incompliment de l'AI Act de la UE en sistemes d'alt risc<\/li>\n<\/ul>\n<\/div>\n<p>El problema no \u00e9s la tecnologia en si \u2014 \u00e9s fer-la servir sense els controls adequats. La IA a RRHH toca decisions que afecten directament la vida de les persones: qui aconsegueix una ocupaci\u00f3, qui \u00e9s ascendit, qui \u00e9s acomiadat. Aquestes decisions exigeixen un marc \u00e8tic s\u00f2lid.<\/p>\n<h2 id=\"privacidad\">\ud83d\udd12 Privadesa: quines dades pots recollir i quines no<\/h2>\n<p>Els sistemes de RRHH moderns recopilen una quantitat enorme de dades: des de CVs i avaluacions d'acompliment fins a monitoritzaci\u00f3 de productivitat, an\u00e0lisi de sentiment en comunicacions internes i dades biom\u00e8triques de control d'acc\u00e9s.<\/p>\n<h3>Dades que requereixen especial cura<\/h3>\n<table class=\"comparison-table\">\n<tr>\n<td>Tipus de dada<\/td>\n<td>Exemple<\/td>\n<td>Nivell de risc<\/td>\n<td>Base legal necess\u00e0ria (RGPD)<\/td>\n<\/tr>\n<tr>\n<td>Dades b\u00e0siques<\/td>\n<td>Nom, email, CV<\/td>\n<td>Baix<\/td>\n<td>Consentiment o inter\u00e8s leg\u00edtim<\/td>\n<\/tr>\n<tr>\n<td>Dades d'acompliment<\/td>\n<td>Avaluacions, KPIs<\/td>\n<td>Mitj\u00e0<\/td>\n<td>Inter\u00e8s leg\u00edtim + informaci\u00f3<\/td>\n<\/tr>\n<tr>\n<td>Dades de productivitat<\/td>\n<td>Monitoritzaci\u00f3 de pantalla, keystroke logging<\/td>\n<td>Alt<\/td>\n<td>Inter\u00e8s leg\u00edtim + proporcionalitat<\/td>\n<\/tr>\n<tr>\n<td>Dades biom\u00e8triques<\/td>\n<td>Petjada dactilar, reconeixement facial<\/td>\n<td>Molt alt<\/td>\n<td>Consentiment expl\u00edcit (Art. 9)<\/td>\n<\/tr>\n<tr>\n<td>Dades de salut<\/td>\n<td>Baixes m\u00e8diques, an\u00e0lisi d'estr\u00e8s<\/td>\n<td>Molt alt<\/td>\n<td>Consentiment expl\u00edcit + necessitat<\/td>\n<\/tr>\n<tr>\n<td>An\u00e0lisi de sentiment<\/td>\n<td>IA analitzant to en emails\/xats<\/td>\n<td>Molt alt<\/td>\n<td>Prohibit en molts contextos (AI Act)<\/td>\n<\/tr>\n<\/table>\n<h3>Principi de minimitzaci\u00f3 de dades<\/h3>\n<p>El RGPD exigeix recollir nom\u00e9s les dades <strong>estrictament necessaris<\/strong> per a la finalitat declarada. Si la vostra eina de screening de CVs recull la data de naixement per\u00f2 no la necessita per avaluar compet\u00e8ncies, est\u00e0s incomplint el principi de minimitzaci\u00f3 \u2014 encara que el candidat hagi donat consentiment.<\/p>\n<p>La regla pr\u00e0ctica: <strong>si no pots explicar exactament per qu\u00e8 necessites una dada, no ho recullis<\/strong>.<\/p>\n<h2 id=\"transparencia\">\ud83d\udd0e Transpar\u00e8ncia algor\u00edsmica: el dret a saber<\/h2>\n<p>Quan un algorisme descarta un candidat o recomana un acomiadament, pot explicar per qu\u00e8? La transpar\u00e8ncia algor\u00edsmica \u00e9s un dels pilars m\u00e9s cr\u00edtics \u2014i m\u00e9s descurats\u2014 de l'\u00e8tica tecnol\u00f2gica a RRHH.<\/p>\n<h3>Qu\u00e8 exigeix la llei<\/h3>\n<ul>\n<li><strong>RGPD (Art. 22):<\/strong> dret a no ser objecte de decisions automatitzades amb efectes significatius; i dret a obtenir una explicaci\u00f3 de la l\u00f2gica utilitzada.<\/li>\n<li><strong>AI Act (Art. 13):<\/strong> els sistemes d'IA d'alt risc han de ser \u00abprou transparents\u00bb perqu\u00e8 els usuaris comprenguin i interpretin els resultats.<\/li>\n<li><strong>NYC Local Law 144:<\/strong> obliga a publicar un resum de l'auditoria de biaix de l'algorisme a la web de l'empresa.<\/li>\n<\/ul>\n<h3>Qu\u00e8 significa a la pr\u00e0ctica<\/h3>\n<ol>\n<li><strong>Informar candidats i empleats<\/strong> que s'usa IA en el proc\u00e9s (a l'oferta d'ocupaci\u00f3, al contracte, oa la pol\u00edtica interna).<\/li>\n<li><strong>Explicar els criteris<\/strong> que utilitza el sistema: \u00abAquest candidat va puntuar 85\/100 perqu\u00e8 t\u00e9 5 anys d'experi\u00e8ncia al sector i domina 3 de les 4 eines requerides\u00bb.<\/li>\n<li><strong>Oferir alternativa humana:<\/strong> qualsevol persona t\u00e9 dret a sol\u00b7licitar que un hum\u00e0 revisi la decisi\u00f3 automatitzada.<\/li>\n<li><strong>Documentar el sistema:<\/strong> fitxa t\u00e8cnica amb dades d'entrenament, m\u00e8triques de rendiment, resultats d'auditoria de biaix.<\/li>\n<\/ol>\n<div class=\"warning-box\">\n<p><strong>Senyal d'alerta:<\/strong> Si el vostre prove\u00efdor d'IA per a RRHH no us pot explicar com funciona el vostre algoritme, o es nega a compartir resultats d'auditories de biaix, \u00e9s una bandera vermella. L'opacitat algor\u00edsmica \u00e9s incompatible amb el compliment de l'AI Act.<\/p>\n<\/div>\n<h2 id=\"equidad\">\u2696\ufe0f Equitat: biaixos reals i com detectar-los<\/h2>\n<p>Els algorismes no s\u00f3n neutrals. Aprenen de dades hist\u00f2riques \u2014 i si aquestes dades contenen biaixos (i gaireb\u00e9 sempre les contenen), la IA les reprodueix i sovint les amplifica.<\/p>\n<h3>Tipus de biaix a IA per a RRHH<\/h3>\n<ul>\n<li><strong>Biaix de dades hist\u00f2riques:<\/strong> si una empresa va contractar majorit\u00e0riament homes durant 10 anys, la IA apr\u00e8n que \u00abhome\u00bb = \u00abbon candidat\u00bb. Aix\u00f2 va ser exactament el que va passar amb Amazon.<\/li>\n<li><strong>Biaix de proxy:<\/strong> l'algorisme no fa servir \u00abg\u00e8nere\u00bb com a variable, per\u00f2 fa servir \u00abcapit\u00e0 de l'equip de rugbi\u00bb (correlaci\u00f3 amb g\u00e8nere mascul\u00ed) com a predictor positiu.<\/li>\n<li><strong>Biaix d'exclusi\u00f3:<\/strong> candidats amb gaps al CV (maternitat, malaltia, cura de familiars) s\u00f3n penalitzats per algorismes que prioritzen traject\u00f2ries lineals.<\/li>\n<li><strong>Biaix socioecon\u00f2mic:<\/strong> prioritzar universitats de prestigi, domini d'angl\u00e8s nadiu o experi\u00e8ncia internacional exclou talent igualment v\u00e0lid de contextos menys privilegiats.<\/li>\n<li><strong>Biaix d'accessibilitat:<\/strong> entrevistes en v\u00eddeo amb IA que avaluen expressions facials discriminen persones neurodivergents o amb discapacitats.<\/li>\n<\/ul>\n<h3>Com detectar biaixos al sistema<\/h3>\n<p>L'\u00fanica forma fiable \u00e9s amb <strong>auditories quantitatives<\/strong>. Compara els resultats de l'algorisme per grups demogr\u00e0fics (g\u00e8nere, edat, \u00e8tnia, discapacitat) i mesura:<\/p>\n<ul>\n<li><strong>Taxa de selecci\u00f3 adversa (4\/5 rule):<\/strong> si la taxa de selecci\u00f3 dun grup protegit \u00e9s menor al 80% de la del grup majoritari, hi ha impacte advers.<\/li>\n<li><strong>R\u00e0tio de falsos negatius:<\/strong> el sistema descarta m\u00e9s candidats qualificats d'un grup que no pas un altre?<\/li>\n<li><strong>Distribuci\u00f3 de puntuacions:<\/strong> les puntuacions mitjanes s\u00f3n significativament diferents entre grups?<\/li>\n<\/ul>\n<h2 id=\"casos\">\ud83d\udccb 4 casos reals que van canviar les regles<\/h2>\n<div class=\"case-box\">\n<h3>1. Amazon (2018) \u2014 Biaix de g\u00e8nere en screening de CVs<\/h3>\n<p>Amazon va desenvolupar una IA per filtrar CVs que va aprendre de 10 anys de contractacions hist\u00f2riques. Com que la majoria de contractats eren homes, el sistema va aprendre a penalitzar CVs que contenien la paraula women's (com women's chess club captain). Amazon va descartar el sistema.<\/p>\n<p><strong>Lli\u00e7\u00f3:<\/strong> les dades hist\u00f2riques no s\u00f3n neutrals. Sense auditoria de biaix, la IA automatitza la discriminaci\u00f3 del passat.<\/p>\n<\/div>\n<div class=\"case-box\">\n<h3>2. HireVue (2019-2021) \u2014 Avaluaci\u00f3 facial en entrevistes<\/h3>\n<p>HireVue feia servir an\u00e0lisi d'expressions facials en entrevistes en v\u00eddeo per avaluar candidats. Despr\u00e9s de la pressi\u00f3 de l'Electronic Privacy Information Center (EPIC), la FTC va investigar el cas. HireVue va eliminar l'an\u00e0lisi facial el 2021, admetent que els beneficis no justificaven els riscos de biaix.<\/p>\n<p><strong>Lli\u00e7\u00f3:<\/strong> que una tecnologia sigui possible no vol dir que sigui \u00e8tica. L'an\u00e0lisi facial en selecci\u00f3 est\u00e0 cada cop m\u00e9s q\u00fcestionada legalment i \u00e8ticament.<\/p>\n<\/div>\n<div class=\"case-box\">\n<h3>3. Algorisme A-levels UK (2020) \u2014 Biaix socioecon\u00f2mic<\/h3>\n<p>Durant la pand\u00e8mia, el govern brit\u00e0nic va fer servir un algorisme per assignar notes a estudiants. El sistema va penalitzar sistem\u00e0ticament alumnes de centres p\u00fablics i barris desafavorits. Despr\u00e9s de protestes massives, el govern va descartar els resultats algor\u00edtmics.<\/p>\n<p><strong>Lli\u00e7\u00f3:<\/strong> els algorismes poden semblar objectius per\u00f2 codificar desigualtats estructurals. La supervisi\u00f3 humana no \u00e9s opcional.<\/p>\n<\/div>\n<div class=\"case-box\">\n<h3>4. NYC Local Law 144 (2023) - Primera llei d'auditoria algor\u00edsmica<\/h3>\n<p>Nova York va aprovar la primera llei que obliga les empreses a auditar anualment les seves eines d'IA per a contractaci\u00f3, publicar els resultats i notificar als candidats. Altres ciutats i la UE (amb l'AI Act) estan seguint aquest model.<\/p>\n<p><strong>Lli\u00e7\u00f3:<\/strong> la regulaci\u00f3 ja va arribar. Les empreses que no auditen els algorismes s'exposen a multes i demandes.<\/p>\n<\/div>\n<h2 id=\"marco-legal\">\ud83d\udcdc Marc legal: AI Act, RGPD i NYC Local Law 144<\/h2>\n<p>Tres marcs reguladors clau que tot equip de RRHH ha de con\u00e8ixer:<\/p>\n<table class=\"comparison-table\">\n<tr>\n<td>Regulaci\u00f3<\/td>\n<td>\u00c0mbit<\/td>\n<td>Requisits clau per a RRHH<\/td>\n<td>Sancions<\/td>\n<\/tr>\n<tr>\n<td><strong>AI Act (UE)<\/strong><\/td>\n<td>Uni\u00f3 Europea<\/td>\n<td>Avaluaci\u00f3 de conformitat, supervisi\u00f3 humana, transpar\u00e8ncia, registre d'activitats<\/td>\n<td>Fins a 35M\u20ac o 7% facturaci\u00f3 global<\/td>\n<\/tr>\n<tr>\n<td><strong>RGPD<\/strong><\/td>\n<td>UE + EEE<\/td>\n<td>Minimitzaci\u00f3 de dades, consentiment, dret a explicaci\u00f3, dret a intervenci\u00f3 humana (Art. 22)<\/td>\n<td>Fins a 20M\u20ac o 4% facturaci\u00f3 global<\/td>\n<\/tr>\n<tr>\n<td><strong>NYC Law 144<\/strong><\/td>\n<td>Nova York<\/td>\n<td>Auditoria anual de biaix, publicaci\u00f3 de resultats, notificaci\u00f3 a candidats<\/td>\n<td>$500-$1,500\/dia per violaci\u00f3<\/td>\n<\/tr>\n<\/table>\n<h3>Qu\u00e8 classifica l'AI Act com a \u00abalt risc\u00bb a RRHH?<\/h3>\n<ul>\n<li>Sistemes d'IA per <strong>screening i filtratge de candidats<\/strong><\/li>\n<li>Eines de <strong>avaluaci\u00f3 automatitzada<\/strong> en entrevistes<\/li>\n<li>Sistemes de <strong>monitoritzaci\u00f3 d'empleats<\/strong><\/li>\n<li>IA per a decisions sobre <strong>promoci\u00f3, acomiadament o assignaci\u00f3 de tasques<\/strong><\/li>\n<\/ul>\n<p>Si utilitzeu qualsevol d'aquests sistemes a la UE, esteu obligats a complir els requisits d'alt risc de l'AI Act, amb entrada en vigor progressiva entre el 2025 i el 2027.<\/p>\n<div class=\"voicit-cta\">\n<a href=\"https:\/\/app.voicit.com\/signup\">Prova Voicit gratis \u2192<\/a>\n<\/div>\n<h2 id=\"checklist\">\u2705 Checklist \u00e8tic per a equips de RRHH<\/h2>\n<div class=\"checklist-box\">\n<strong>Abans d'implementar una eina d'IA:<\/strong><\/p>\n<ul>\n<li>El prove\u00efdor pot explicar com funciona l?algoritme?<\/li>\n<li>Proporciona informes d'auditoria de biaix?<\/li>\n<li>Les dades d'entrenament s\u00f3n representatives i diverses?<\/li>\n<li>Hi ha supervisi\u00f3 humana en les decisions cr\u00edtiques?<\/li>\n<li>Els candidats\/empleats s\u00f3n informats de l'\u00fas d'IA?<\/li>\n<li>Hi ha un proc\u00e9s per sol\u00b7licitar revisi\u00f3 humana?<\/li>\n<li>Es compleixen els requisits del RGPD (minimitzaci\u00f3, consentiment, explicaci\u00f3)?<\/li>\n<li>El sistema est\u00e0 registrat com a risc alt segons l'AI Act (si s'aplica)?<\/li>\n<\/ul>\n<p><strong>Auditoria peri\u00f2dica (m\u00ednim trimestral):<\/strong><\/p>\n<ul>\n<li>La taxa de selecci\u00f3 per grup demogr\u00e0fic compleix la regla 4\/5?<\/li>\n<li>Hi ha candidats qualificats descartats per patrons sospitosos?<\/li>\n<li>Els criteris de l'algorisme continuen alineats amb els requisits reals del lloc?<\/li>\n<li>S'han documentat i corregit els biaixos detectats?<\/li>\n<li>Els empleats de RH reben formaci\u00f3 actualitzada en \u00e8tica d'IA?<\/li>\n<\/ul>\n<\/div>\n<h2 id=\"herramientas\">\ud83d\udee0\ufe0f Eines per auditar l'\u00e8tica de la teva tecnologia<\/h2>\n<ul>\n<li><strong><a href=\"https:\/\/aequitas.dssg.io\/\" rel=\"nofollow noopener\" target=\"_blank\">Aequites<\/a><\/strong> (gratu\u00efta) \u2014 Framework open-source de la Universitat de Chicago per auditar biaix en sistemes de decisi\u00f3 automatitzada.<\/li>\n<li><strong><a href=\"https:\/\/aif360.mybluemix.net\/\" rel=\"nofollow noopener\" target=\"_blank\">AI Fairness 360 (IBM)<\/a><\/strong> (gratu\u00efta) \u2014 Toolkit de codi obert amb m\u00e8triques d'equitat i algorismes de mitigaci\u00f3 de biaix.<\/li>\n<li><strong><a href=\"https:\/\/pair.withgoogle.com\/what-is-ml-fairness\" rel=\"nofollow noopener\" target=\"_blank\">What-If Tool (Google)<\/a><\/strong> (gratu\u00efta) \u2014 Eina visual per explorar el comportament de models de ML sense escriure codi.<\/li>\n<li><strong><a href=\"https:\/\/holistic.ai\/\" rel=\"nofollow noopener\" target=\"_blank\">Holistic AI<\/a><\/strong> (de pagament) \u2014 Plataforma d'auditoria i governan\u00e7a d'IA, utilitzada per empreses per complir amb NYC Law 144 i AI Act.<\/li>\n<\/ul>\n<h2 id=\"conclusion\">\ud83d\udca1 Conclusi\u00f3<\/h2>\n<p>L'\u00e8tica en l'\u00fas de tecnologia per a RRHH no \u00e9s un fre a la innovaci\u00f3 \u2014 \u00e9s el que separa la innovaci\u00f3 responsable de la irresponsable. Els casos d'Amazon, HireVue i l'algorisme brit\u00e0nic demostren que la IA sense controls \u00e8tics causa danys reals a persones reals.<\/p>\n<p>La bona not\u00edcia: el marc legal ja existeix (AI Act, RGPD), les eines d'auditoria s\u00f3n accessibles (moltes gratu\u00eftes) i els equips de RH que lideren en \u00e8tica tecnol\u00f2gica construeixen m\u00e9s confian\u00e7a amb candidats i empleats.<\/p>\n<p>La clau est\u00e0 en tres principis: <strong>recollir nom\u00e9s les dades necess\u00e0ries<\/strong> (privadesa), <strong>explicar com funcionen els sistemes<\/strong> (transpar\u00e8ncia), i <strong>auditar regularment els resultats<\/strong> (equitat). I sempre, sempre: supervisi\u00f3 humana en les decisions que afecten la vida de les persones.<\/p>\n<p>Si utilitzes IA en el teu proc\u00e9s de selecci\u00f3, complementa l'screening amb eines que documentin les entrevistes de manera transparent. <a href=\"https:\/\/voicit.com\/ca\/\">Voicit<\/a> genera informes autom\u00e0tics d'entrevistes que serveixen com a registre objectiu de l'avaluaci\u00f3 \u2013 un complement essencial per a la tra\u00e7abilitat \u00e8tica del proc\u00e9s.<\/p>\n<div class=\"disclaimer-box\">\n<strong>Nota de transpar\u00e8ncia:<\/strong> Voicit \u00e9s una eina de transcripci\u00f3 i informes de reunions amb IA. No \u00e9s un sistema de screening ni davaluaci\u00f3 automatitzada de candidats. Ho esmentem com a complement per a la documentaci\u00f3 \u00e8tica del proc\u00e9s de selecci\u00f3.\n<\/div>\n<h2>\ud83d\udcda Articles relacionats<\/h2>\n<ul>\n<li><a href=\"https:\/\/voicit.com\/ca\/bloc\/recursos-humans\/cribratge-cv-intel%c2%b7ligencia-artificial\/5770\/\">Cribratge de CV amb intel\u00b7lig\u00e8ncia artificial: guia completa 2026<\/a><\/li>\n<li><a href=\"https:\/\/voicit.com\/ca\/bloc\/recursos-humans\/apps-ia-transcriure\/6931\/\">Apps d'IA per transcriure reunions: les 12 millors el 2026<\/a><\/li>\n<li><a href=\"https:\/\/voicit.com\/ca\/bloc\/recursos-humans\/informes-entrevistes-ia\/6998\/\">Com generar informes d'entrevistes amb IA<\/a><\/li>\n<li><a href=\"https:\/\/voicit.com\/ca\/bloc\/recursos-humans\/employee-experience-claus-rrhh\/5714\/\">Employee Experience: claus m\u00e9s enll\u00e0 de l'onboarding<\/a><\/li>\n<\/ul>\n<div class=\"author-box\">\n<img decoding=\"async\" src=\"https:\/\/www.gravatar.com\/avatar\/9606a7cf8a077e463d66ccba5e8cd71f?s=160\" alt=\"\u00c1lvaro Arrescurrenaga, CEO de Voicit\"><\/p>\n<div class=\"author-box-text\">\n<strong>\u00c1lvaro Arrescurrenaga<\/strong><br \/>\nCEO i cofundador de Voicit. Emprenedor expert en IA aplicada a reunions i processos de selecci\u00f3. M\u00e9s de 1.000 empreses usen la plataforma per transformar reunions i entrevistes en informes accionables.\n<\/div>\n<\/div>\n<\/div>\n<p><script type=\"application\/ld+json\">{\n    \"@context\": \"https:\\\/\\\/schema.org\",\n    \"@type\": \"Article\",\n    \"headline\": \"\\u00c9tica en el uso de tecnolog\\u00eda para RRHH: privacidad, transparencia y equidad (2026)\",\n    \"description\": \"Gu\\u00eda completa sobre \\u00e9tica en IA para Recursos Humanos: privacidad de datos, sesgos algor\\u00edtmicos, AI Act, RGPD y casos reales. Con checklist descargable.\",\n    \"author\": {\n        \"@type\": \"Person\",\n        \"name\": \"\\u00c1lvaro Arrescurrenaga\",\n        \"url\": \"https:\\\/\\\/www.linkedin.com\\\/in\\\/alvaroarres\\\/\",\n        \"jobTitle\": \"CEO\",\n        \"worksFor\": {\n            \"@type\": \"Organization\",\n            \"name\": \"Voicit\"\n        }\n    },\n    \"publisher\": {\n        \"@type\": \"Organization\",\n        \"name\": \"Voicit\",\n        \"url\": \"https:\\\/\\\/voicit.com\",\n        \"logo\": {\n            \"@type\": \"ImageObject\",\n            \"url\": \"https:\\\/\\\/voicit.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/Logo-voicit-black.png\"\n        }\n    },\n    \"datePublished\": \"2025-07-09\",\n    \"dateModified\": \"2026-03-09\",\n    \"mainEntityOfPage\": \"https:\\\/\\\/voicit.com\\\/blog\\\/recursos-humanos\\\/etica-tecnologia-rrhh\\\/5864\\\/\",\n    \"wordCount\": 2200,\n    \"inLanguage\": \"es\"\n}<\/script><\/p>","protected":false},"excerpt":{"rendered":"<p>Actualizado: marzo 2026 \u00b7 Por \u00c1lvaro Arrescurrenaga, CEO de Voicit En 2018, Amazon descubri\u00f3 que su sistema de IA para selecci\u00f3n de personal penalizaba sistem\u00e1ticamente a las mujeres. En 2020, el algoritmo de evaluaci\u00f3n de profesores en el Reino Unido dej\u00f3 sin acceso a la universidad a miles de estudiantes de barrios desfavorecidos. Y en [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":5867,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""}},"footnotes":"","rank_math_title":"","rank_math_description":"Descubre la \u00e9tica en el uso de tecnolog\u00eda para RRHH y c\u00f3mo garantizar privacidad, transparencia y equidad en tu empresa.","rank_math_focus_keyword":"\u00e9tica en el uso de tecnolog\u00eda para RRHH"},"categories":[31,20],"tags":[],"class_list":["post-5864","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-consultoria","category-recursos-humanos"],"_links":{"self":[{"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/posts\/5864","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/comments?post=5864"}],"version-history":[{"count":11,"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/posts\/5864\/revisions"}],"predecessor-version":[{"id":7972,"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/posts\/5864\/revisions\/7972"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/media\/5867"}],"wp:attachment":[{"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/media?parent=5864"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/categories?post=5864"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/voicit.com\/ca\/wp-json\/wp\/v2\/tags?post=5864"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}