La tendenza. Sempre meno colloqui a quattr'occhi, la selezione passa dall'IA
Sempre più spesso le risorse umane utilizzano l'IA
Curriculum riveduti e corretti, se non scritti interamente, dall’intelligenza artificiale vengono sempre più spesso valutati e scremati da applicazioni della stessa tecnologia. Così la ricerca dell’impiego, che un tempo era fatta di colloqui a quattr’occhi, adesso è diventata una pratica virtuale. Uno dei campi in cui la rivoluzione tecnologica dell’Ia viaggia ad un ritmo decisamente sostenuto con i rischi connessi. Il 32% delle aziende intervistate in base ad un’indagine dell’Osservatorio HR Innovation Practice del Politecnico di Milano utilizza almeno una soluzione di Ia per scandagliare i curriculum o altre attività di gestione delle risorse umane. Una sorta di screening preventivo per valutare titoli di studio ed esperienze pregresse. Secondo un’indagine del Financial Times, la metà degli aspiranti dipendenti mette a punto le proprie candidature contando sull’aiuto dell’Intelligenza artificiale. Con il rischio di avere curriculum “goffi”, con un linguaggio spesso scorretto, se non si interviene per migliorarlo, o “gonfiati” in maniera anomala.
L’intelligenza artificiale si sta diffondendo sempre di più e, nell’ultimo anno, in Italia l’ha usata il 26% dei lavoratori sempre secondo l’Osservatorio del Politecnico, anche se solo il solo il 3% ogni giorno e il 7% un paio di volte a settimana. Secondo gli intervistati, il 24% delle attività da loro svolte può essere già fatto con il supporto dell’Ia. Tanto che quasi uno su due teme impatti negativi per il proprio lavoro. Possibili problemi sono riconosciuti anche da OpenAi, la società di ChatGpt, che in un documento tecnico ha indicato rischi da mitigare legati anche a disinformazione, pregiudizi e discriminazioni. Ci potrebbe essere per gli utenti persino il pericolo di sviluppare una dipendenza emotiva dall’intelligenza artificiale. I test preliminari di ChatGpt 4o - che ha introdotto la possibilità di conversazioni a voce - hanno indicato infatti, in alcuni utenti, un linguaggio che indica la formazione di un “legame” con l’intelligenza artificiale. In particolare la «generazione di contenuti con una voce simile a quella umana e ad alta fedeltà» potrebbe aggravare i problemi e portare a una fiducia «sempre più mal calibrata», secondo la System card diffusa nei giorni scorsi.
Nel documento si legge del rischio che gli utenti possano «ridurre le loro necessità di interazione umana» e che l’intelligenza artificiale possa incidere sulla salute delle loro relazioni. La System card è un documento che indica i principali parametri dell’Ia, i rischi a questa connessi e le misure assunte per mitigarli. Rientra nell’ambito degli impegni su base volontaria assunti dalla società con la Casa Bianca.Nel corso del Digital security festival che si è svolto a Lignano Pianeta in provincia di Udine nei giorni scorsi, è stato sottolineato come esista sicuramente un gap fra Europa da un lato e Cina e Stati Uniti nello sviluppo dei sistemi di intelligenza artificiale, dovuto a un ritardo nella partenza e a una minor capacità di investimento rispetto a quella delle sette sorelle del Big Tech Usa (Apple, Microsoft, Google, Amazon, Nvidia, Tesla e Meta Platform) e del governo cinese, oltre che alla mancanza di una strategia coordinata europea per lo sviluppo dell’Ia. Ma dall’altro canto molte aziende, pubbliche e private europee sanno fare un uso avanzato delle nuove tecnologie, tutelate anche da una normativa europea, l’Ai Act, molto ben pensata. L’Ia, hanno sottolineato i relatori, rappresenta un’opportunità economica senza precedenti, ma anche una sfida complessa. Le imprese che sapranno coglierne le potenzialità potranno incrementare la propria produttività, innovare i propri prodotti e servizi e conquistare nuove fette di mercato. Ma è necessario investire in formazione e riqualificazione professionale per preparare la forza lavoro ai cambiamenti in atto e mitigare i rischi di disoccupazione tecnologica.