L’argomento dell’IA è riuscito a convincere i 36 Paesi OCSE a firmare un documento sugli standard che tale materia dovrebbe avere ma al tavolo delle trattative era assente la Cina, che è il Paese che sembra utilizzare l’automazione a scopo di controllo ed entro il 2030 sarà leader globale nel deep learning. È comprensibile che ci siano stati molti compromessi, in quanto regolare questa materia è difficile e complesso. Hanno partecipato anche i Paesi non membri OCSE, quali Argentina, Brasile, Colombia, Costa Rica, Perù e Romania. La Cina, come noto, è la seconda economia al mondo ed ha un elevato programma sull’intelligenza artificiale, di cui vuole diventare leader mondiale.
L’OCSE ha discusso di 5 principi, partendo dal ricordare che l’intelligenza artificiale deve portare benefici ai popoli ed al pianeta generando crescita inclusiva, sviluppo sostenibile e welfare. Il secondo punto chiarisce che “i sistemi di intelligenza artificiale devono essere disegnati rispettando la legge, i diritti umani, i valori democratici e le diversità” e devono includere alcune salvaguardie che permettano l’intervento umano. Inoltre, devono essere trasparenti e ci deve essere una chiara comprensione del loro funzionamento: "devono funzionare in modo stabile e sicuro per tutta la loro esistenza ed i loro rischi potenziali devono essere costantemente valutati". Le organizzazioni e i singoli che sviluppano, distribuiscono o gestiscono sistemi di intelligenza artificiale sono responsabili del corretto funzionamento in linea con i principi descritti.
Le parole adottate dai 42 governi rivelano alcune incoerenze. Ad esempio, uno dei punti più discussi è quello della responsabilità degli algoritmi.
I sistemi che utilizzano l’intelligenza artificiale sono i software in grado di imparare in maniera autonoma o prendere una decisione senza l’intervento umano. Il principio OCSE sulla trasparenza si potrebbe tradurre in un “obbligo”, che gli Stati potrebbero recepire nelle prossime legislazioni, di disegnare un software autonomo che sia sempre comprensibile dall’uomo. L’intelligenza artificiale è una via ibrida che riguarda gran parte delle applicazioni già esistenti della tecnologia: il robot o il software non decide davvero ma arriva proporre una decisione al chirurgo, al trader, all’ingegnere meccanico, eccetera che poi sceglie e se ne assume la responsabilità. L’intelligenza artificiale è un settore trasversale per definizione ed è tra quelli che ricevono più attenzione dagli investitori.
L’OCSE ha provato a ragionare sulle conseguenze future: mostra di essere consapevole della sfida tecnologica ed innovativa ma la priorità è quella di portare i principi dal livello di policy al business.
Secondo la SI-IES e il DIHV, è necessario adottare un’etica dell’Innovazione che renda l’intelligenza artificiale trasparente e responsabile. Pertanto, il funzionamento degli algoritmi deve essere spiegabile.