L’intervento umano cruciale per la sicurezza
La maggior parte dei compiti assegnati all’IA riguardano mansioni pericolose o noiose per questo motivo l’aumento della produttività potrebbe generare la necessità di assumere personale umano per mansioni di controllo, equilibrando gli effetti sull’occupazione.
In evidenza

La maggior parte dei compiti assegnati all’IA riguardano mansioni pericolose o noiose per questo motivo l’aumento della produttività potrebbe generare la necessità di assumere personale umano per mansioni di controllo, equilibrando gli effetti sull’occupazione.
In un sondaggio globale condotto tra i gestori del rischio dalla multinazionale Accenture, il 58% identifica l’intelligenza artificiale come la principale causa potenziale di conseguenze indesiderate nei prossimi due anni. Solo l’11% afferma di essere pienamente in grado di valutare i rischi associati all’adozione dell’IA a livello di organizzazione.
“Se da una parte, Morgan Stanley, UBS e Deutsche Bank – spiega Luigi Pagliuca, Presidente della Cassa di previdenza dei ragionieri – sostengono che l’ingresso dell’IA nel mondo aziendale è attualmente limitato e lento, dall’altra sono in molti a sostenere che l’intervento umano rimane cruciale per la sicurezza, considerando i rischi associati alla fase sperimentale dell’IA”.
Gli esperti, però, prevedono che gli effetti dell’IA saranno inevitabili nel giro di pochi mesi.
“Secondo Accenture, globalmente – continua Pagliuca – il 40% del tempo di lavoro attuale sarà gestito solo dall’IA come dimostrano le aziende Duolingo e Chegg che sostituiscono dipendenti con applicazioni di IA e la scelta di IBM di bloccare le assunzioni fino a quando non sarà chiaro quali posti di lavoro saranno sostituibili da app di IA”.
“L’IA può portare molti benefici – sostiene il Parlamento europeo – ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un’energia più conveniente e sostenibile”.
Certo è che comunque va “governata” ed è per questo che nell’aprile 2021, la Commissione europea ha proposto il primo quadro normativo sull’IA, proponendo che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno una maggiore o minore regolamentazione.
La priorità per il Parlamento è quella di assicurarsi che i sistemi di intelligenza artificiale utilizzati siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente.
E soprattutto che “I sistemi di intelligenza artificiale dovrebbero essere supervisionati da persone, anziché da automazione, per evitare conseguenze dannose”.
Tratto da Adepp
Altre Notizie della sezione

La parola ai cittadini: cambiare le regole del gioco
15 Settembre 2025Dal voto diretto dei rappresentanti a un governo più forte: due proposte popolari arrivano in Parlamento per rimettere al centro la volontà degli elettori.

Il rapporto Education 2025 e la stampa italiana
12 Settembre 2025L’Italia fanalino di coda Ocse.

Chiediamo alla politica segnali concreti per trasformare le parole d’ordine in obiettivi reali
11 Settembre 2025Un contratto nuovo: la ricetta dell'Anaao Assomed.