Digital recruitment

Uso dell’intelligenza artificiale nella selezione del personale: la meritocrazia non può essere automatizzata

L'analisi di Meritocrazia Italia sull’uso dei sistemi automatizzati nel lavoro e la necessità di una supervisione umana contro i bias discriminatori

Uso dell’intelligenza artificiale nella selezione del personale: la meritocrazia non può essere automatizzata

Negli ultimi anni il cosiddetto digital recruitment è entrato stabilmente nel linguaggio di convegni, forum e dibattiti nazionali.

Dietro questa espressione si cela una trasformazione profonda: l’utilizzo crescente di algoritmi e sistemi di Intelligenza Artificiale nei processi di selezione del personale, sia nel settore privato sia, progressivamente, nella pubblica amministrazione.

La meritocrazia non può essere automatizzata

Secondo numerose analisi di settore, una quota sempre più significativa di imprese ricorre a strumenti automatizzati per lo screening dei curriculum, il matching tra profili e posizioni aperte, la valutazione predittiva delle competenze e persino l’analisi dei colloqui video.

Il quadro normativo europeo, con l’AI Act, ha già qualificato i sistemi di selezione del personale come applicazioni ad alto rischio, riconoscendo l’impatto diretto che tali strumenti possono avere sui diritti e sulle opportunità delle persone.

Il movimento politico Meritocrazia Italia, che ha più volte evidenziato la necessità di un’Intelligenza Artificiale realmente al servizio dell’uomo e governata da principi di responsabilità e controllo democratico, ritiene oggi imprescindibile un approfondimento specifico sull’uso degli algoritmi nei processi di selezione.

Intelligenza artificiale nella selezione del personale

La domanda è semplice ma decisiva: gli algoritmi di selezione da che parte stanno? Un algoritmo non è neutrale. È il risultato di criteri, parametri e dati stabiliti da esseri umani. Se i dati storici incorporano distorsioni o disuguaglianze, l’algoritmo tenderà a riprodurle.

Se i criteri di valutazione non sono trasparenti, il rischio è quello di una selezione silenziosa e opaca, in cui candidature vengono escluse senza che il candidato possa comprendere le ragioni effettive della decisione.

La meritocrazia non può essere ridotta a un processo automatico. Può essere supportata dalla tecnologia, ma non sostituita.

Se progettati e utilizzati con rigore, gli strumenti di Intelligenza Artificiale possono contribuire a ridurre arbitrarietà e favoritismi; se governati in modo superficiale o esclusivamente efficientistico, possono invece consolidare nuove forme di esclusione.

Per questo Meritocrazia Italia chiede:

  • – piena trasparenza sui sistemi algoritmici impiegati nei processi di selezione, in particolare quando utilizzati da enti pubblici o società partecipate;
  • – un obbligo di supervisione umana effettiva nelle decisioni finali;
  • – audit indipendenti periodici per verificare l’assenza di bias discriminatori;
  • – che sia riconosciuto il diritto del candidato a ottenere informazioni sui criteri generali di valutazione e a richiedere revisione in caso di esclusione automatizzata;
  • – formazione specifica per professionisti delle risorse umane e dirigenti pubblici sull’uso responsabile dell’Intelligenza Artificiale.

L’innovazione tecnologica rappresenta un’opportunità straordinaria, ma solo se accompagnata da regole chiare, responsabilità definite e tutela della dignità della persona.