Aste immobiliari

l’occasione giusta per il tuo investimento.

 

Intelligenza artificiale e HR: rischi e opportunità per le imprese


L’intelligenza artificiale sta rivoluzionando anche il mondo del lavoro.

Conto e carta

difficile da pignorare

 

Sono, infatti, molteplici gli ambiti aziendali in cui viene utilizzata, come – per citarne solo alcuni – lo sviluppo e la progettazione di prodotti, il controllo di qualità, l’automazione dei processi di produzione e l’assistenza ai clienti.

Strumenti basati sull’intelligenza artificiale (di seguito IA) sono utilizzati anche in ambito HR e offrono soluzioni innovative in grado – ad esempio – di ottimizzare i processi di ricerca e selezione del personale, di fornire valido supporto nella formazione dei collaboratori nonché nella valutazione delle performance.

Si pensi ai sistemi di IA in grado di identificare le competenze migliori per ogni posizione lavorativa e di realizzare le job description o ai chatbot di ultima generazione che conducono interviste preliminari con i candidati per valutare le risposte e fare una prima scrematura accelerando ed efficientando così il processo di selezione. 

Le imprese fanno anche ricorso a sistemi di IA capaci, ad esempio, di automatizzare attività come l’elaborazione delle buste paga e la gestione dei turni di lavoro, di monitorare ed analizzare gli indicatori di performance o di suggerire i percorsi formativi e adattarli alle esigenze e alle capacità di apprendimento dei singoli collaboratori.

L’ottimizzazione discende dal fatto che l’intelligenza artificiale è in grado di analizzare grandi quantità di dati e di effettuare previsioni e simulazioni, aiutando gli HR a prendere decisioni migliori e più efficaci a vantaggio dei risultati aziendali.

Microcredito

per le aziende

 

L’uso dell’IA, dunque, offre vantaggi competitivi alle imprese che, però, devono essere bilanciati da un utilizzo consapevole, responsabile e improntato al rispetto delle normative.

Come evidenziato dal Regolamento 2024/1689, l’abuso dell’intelligenza artificiale può pregiudicare gli interessi pubblici e i diritti fondamentali delle persone. 

Tra i principali rischi, in particolare, si segnalano quelli per la sicurezza informatica e per la privacy nonché il rischio di manipolazione delle persone, specie se appartenenti a gruppi più vulnerabili come minori e persone con disabilità.

Esiste, poi, il rischio che i sistemi di IA perpetuino modelli storici di discriminazione, ad esempio, nei confronti delle donne, di alcune fasce di età, delle persone con disabilità o delle persone aventi determinate origini etniche o un determinato orientamento sessuale.

Uno dei motivi è che l’IA “impara” estraendo informazioni da grandi quantità di dati e, se i dati forniti presentano pregiudizi e distorsioni cognitive (c.d. bias), il sistema li apprenderà e li replicherà risultando discriminatorio. Ad esempio, un sistema di IA utilizzato nell’ambito della selezione del personale può sviluppare una preferenza per i candidati di genere maschile se viene addestrato con dati in cui le posizioni di leadership sono prevalentemente occupate da uomini.

Il legislatore UE ha, pertanto, adottato un approccio basato sul rischio, classificando i sistemi di IA a seconda del livello di rischio per la salute, la sicurezza e i diritti fondamentali delle persone. In sostanza, l’approccio risk-based consiste nell’adattare la tipologia e il contenuto delle regole all’intensità e alla portata dei rischi che possono essere generati dai sistemi.

Sono, ad esempio, vietate specifiche pratiche di IA in quanto determinano un rischio inaccettabile per la salute e i diritti fondamentali delle persone e sono previsti molteplici obblighi a carico dei soggetti che facciano uso di sistemi qualificati come «ad alto rischio», obblighi che decorreranno da agosto 2026 (sul punto si veda il nostro approfondimento Intelligenza artificiale e lavoro. Un percorso tra innovazione e tutela dei diritti).

Dal 2 febbraio 2025, invece, decorre l’obbligo – previsto dall’art. 4 del Regolamento 2024/1689 – per fornitori e deployer di adottare misure per garantire un livello sufficiente di alfabetizzazione in materia di IA del personale nonché di qualsiasi altra persona che si occupi del funzionamento e dell’utilizzo dei sistemi di IA per loro conto. 

Opportunità unica

partecipa alle aste immobiliari.

 

È, dunque, necessaria l’adozione di misure concrete, idonee a garantire che chiunque operi con sistemi di IA abbia le competenze necessarie per comprenderne il funzionamento e acquisisca consapevolezza in merito alle opportunità, ai rischi e ai possibili danni che essi possono causare. La formazione deve tenere conto delle conoscenze tecniche, dell’esperienza pregressa, del livello di istruzione e del contesto specifico in cui i sistemi saranno utilizzati.

Si tratta di un obbligo di natura generale che prescinde dalla qualificazione attribuita ai sistemi di IA utilizzati dall’impresa, trovando applicazione anche in caso di utilizzo di sistemi non ad alto rischio. 

Le pratiche di IA vietate

Dal 2 febbraio 2025 trovano applicazione anche i divieti di cui all’art. 5 del Regolamento, in materia di pratiche di intelligenza artificiale vietate in quanto recanti un rischio inaccettabile per la salute, la sicurezza e i diritti fondamentali delle persone.

Tra le pratiche vietate si segnalano «l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA per inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro o degli istituti di istruzione, tranne laddove l’uso del sistema sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza». 

La ratio del divieto risiede nella natura invasiva dei suddetti sistemi e nei dubbi in merito al loro fondamento scientifico, in particolare perché l’espressione delle emozioni varia notevolmente in base alle culture e alle situazioni e persino in relazione a una stessa persona. Tra le principali carenze di tali sistemi, infatti, figurano la limitata affidabilità, la mancanza di specificità e la limitata generalizzabilità che possono portare a risultati discriminatori. 

Come evidenziato dalle linee guida della Commissione europea approvate a febbraio 2025, un sistema di IA è vietato se ricorrono tutte le seguenti condizioni:

  • è destinato a dedurre le emozioni delle persone sulla base dei loro dati biometrici (la nozione di emozione include stati quali felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento e non comprende stati fisici, quali dolore o affaticamento);
  • è utilizzato nei luoghi di lavoro e negli istituti di istruzione (la restrizione si applica solo a questi ambienti specifici in considerazione dello squilibrio di potere nel contesto del lavoro o dell’istruzione che può determinare un trattamento pregiudizievole o sfavorevole di alcune persone o di interi gruppi);
  • non rientra nelle eccezioni per motivi medici o di sicurezza (se l’uso è giustificato da finalità sanitarie o di protezione della vita e della salute, il divieto non si applica).

Le linee guida sopra citate propongono anche degli esempi per chiarire i requisiti dei sistemi vietati, tra i quali rientrano quelli che monitorano il tono emotivo delle conversazioni nei team di lavoro ibrido al fine, ad esempio, di prevenire i conflitti o che analizzano le espressioni facciali dei dipendenti per valutarne il livello di attenzione o stress. 

Conto e carta

difficile da pignorare

 

Invece, sono esclusi dal divieto e, quindi, legittimi i sistemi che rilevano l’affaticamento di un pilota o di un autista, al fine di avvisarlo e suggerirgli di fare pause per evitare incidenti, poiché – come detto – il riconoscimento delle emozioni non include stati fisici come dolore o affaticamento. 

Analogamente è consentito – in quanto giustificato da motivi di sicurezza – l’uso di sistemi finalizzati a prevenire incidenti sul lavoro mediante segnalazione di eventuali cali di concentrazione durante l’uso di macchinari pericolosi.

Conclusioni

Con l’avvento dell’intelligenza artificiale il concetto di controllo a distanza si è ampliato significativamente. Si pensi, ad esempio, ai sistemi di IA «ad alto rischio» tra i quali rientrano quelli utilizzati per l’assunzione o la selezione del personale, per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, per monitorare e valutare le prestazioni e il comportamento dei collaboratori (v. Allegato III al Regolamento IA). 

È, pertanto, indispensabile che i sistemi di IA in uso siano compatibili con la disciplina ex art. 4 dello Statuto dei Lavoratori secondo cui occorre distinguere tra strumenti usati per lo svolgimento della prestazione lavorativa e strumenti di controllo dell’attività lavorativa necessitati da esigenze organizzative, produttive e di tutela del patrimonio aziendale della società, distinzione che comporta una diversa disciplina applicabile per poter utilizzare i dati derivanti da tali strumenti.

È, inoltre, necessario per entrambe le tipologie di strumenti l’introduzione di procedure interne che in maniera precisa indichino le modalità di uso e di effettuazione dei controlli con riferimento a tutti i sistemi che possano consentire un controllo a distanza dell’attività lavorativa. Da ultimo, poiché i sistemi di IA possono profilare anche dati e informazioni personali, questi dovranno essere trattati nel rispetto della normativa privacy e, quindi, dei principî fissati dal Regolamento 2016/679 (GDPR).

Toffoletto De Luca Tamajo è a disposizione per qualsiasi chiarimento e per supportarvi nell’adozione di regole sicure per l’uso delle nuove tecnologie.

Opportunità uniche acquisto in asta

 ribassi fino al 70%

 

Per maggiori informazioni: comunicazione@toffolettodeluca.it



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Contributi e agevolazioni

per le imprese