Dopo le problematiche dovute alla mancanza di norme sulla protezione dei dati, l’Europa decide di anticipare possibili problematiche future.
A quanti è capitato di inviare un curriculum ed essere scartati quasi subito, per poi scoprire in un secondo momento di essere stati scartati da un robot? Questo meccanismo si chiama “Robot recruiting” e si occupa di selezionare i giusti curriculum in mezzo a un fascicolo di candidature estremamente folto. Un metodo utilizzato prevalentemente da grandi aziende, con centinaia di dipendenti, per fare una selezione più veloce dei candidati e sfoltire i curriculum che non corrispondono alla posizione richiesta.
Secondo queste modalità, molti lavoratori si ritrovano scartati senza conoscerne le reali motivazioni. Negli anni, questa tecnologia si è evoluta attraverso il miglioramento e l’integrazione dell’intelligenza artificiale, permettendo alle aziende di fare valutazioni ancora più accurate rispetto alle care vecchie parole chiave e migliorando al punto tale da poter sostituire il recruiter stesso.
Questi sviluppi però, ci hanno portato di fronte a nuovi problemi. Come tutti sappiamo, l’intelligenza artificiale è un software in grado di apprendere dalle proprie esperienze. Immaginate che questa intelligenza si trovi di fronte a una selezione che richiede uno specifico genere o una specifica etnia, imparando da questa esperienza, il nostro robot si imposterà per preferire un uomo rispetto a una donna, oppure decidere in base al colore della pelle o all’età anagrafica del richiedente. Ma come può un lavoratore difendersi da comportamenti discriminatori tenuti da una macchina?
L’Unione europea interviene
Mercoledì 28 settembre 2022, l’Unione europea ha cercato di rispondere per vie traverse a questo dubbio e lo ha fatto discutendo su una nuova proposta legislativa, la AI Liability Directive (Ald), ricollegando la responsabilità delle discriminazioni commesse dalle intelligenze artificiali direttamente alle aziende tech che commercializzano i prodotti. La AI Liability Directive si ripropone di limitare gli effetti più deleteri dell’AI, senza però incidere sulle aziende tecnologiche.
Dopo l’esperienza avvenuta con il mercato dei big data, insediatosi nel tessuto sociale sfruttando la mancanza di una regolamentazione chiara utilizzando i dati a scopi poco nobili, questa volta l’Europa vuole evitare la ripetizione delle circostanze, intervenendo tempestivamente. Certo, imbastire una soluzione equilibrata non è cosa semplice: tra gli sforzi di lobby, le minacce delle big tech e gli interessi delle singole nazioni, diventa difficile trovare una squadra che non basi le proprie fondamenta su di un’intesa corale.
Věra Jourová, vicepresidente della Commissione europea per i valori alla trasparenza, ha cercato immediatamente di allungare una mano verso i leader di settore, dipingendo la nuova legislazione come un’opportunità di crescita più che un ostacolo giuridico. “Desideriamo che le tecnologie AI prosperino in Europa. Ma perché questo accada, le persone devono fidarsi dell’innovazione digitale. Con la proposta sulla responsabilità civile delle AI forniamo ai consumatori gli strumenti per rimediare ai danni causati da queste e ci assicuriamo una certezza legale per il nostro mercato intero” ha sostenuto la diplomatica.
Cosa prevede l’AI Liability Directive
Già dai tempi dell’Artificial Intelligence Act, una bozza di legge che mirava a porre dei confini sull’applicazione del machine learning, la commissione europea aveva cominciato a manifestare la propria intenzione di regolamentare le intelligenze artificiali. Pertanto, la AI Liability Directive non è altro che un’estensione dell’AI Act. Ovviamente la proposta di legge non è in grado di prevenire abusi ed errori, piuttosto può offrire a utenti e aziende gli opportuni mezzi con cui richiedere un risarcimento in caso di danno. Inoltre, la normativa introdurrebbe due elementi di rilievo in particolare, ovvero la presunzione di causalità e il diritto della parte lesa di chiedere all’azienda con cui è in causa, la revisione delle prove del funzionamento delle AI sotto processo. Il primo permetterà di chiedere la riparazione del macchinario, mentre il secondo, applicabile solamente agli strumenti ad alto rischio, imporrà alle aziende tech di condividere con la commissione giuridica tutti i dati tecnici considerati rilevanti. A quanto pare, per il momento il rischio di una conquista robot sembra scampato.