RE-infodemia Consultant Book - N.6

TandC

IA ad Alto Rischio: Sanità,

giustizia, trasporti, istruzio­

ne, lavoro: settori delicati

dove l’IA può avere un im­

patto enorme. L’AI Act richie­

de test severi, tracciabilità e

supervisione umana costan­

te. Se un algoritmo diagno­

IA a Rischio Minimo: Filtri

spam e traduttori automatici

sembrano innocui, ma anche

qui vale il principio della re­

sponsabilità. Affidarci cieca­

La Responsabilità Collettiva:

Agire Insieme per il Bene Co­

mune: Coinvolge tutti gli at­

tori della società nel costru­

ire un ecosistema digitale

etico. Significa per sviluppa­

tori e aziende sviluppare IA

con un’etica intrinseca (“pri­

vacy by design”, “fairness

La Responsabilità Individuale: Un Atto Quotidiano. Si traduce

in azioni concrete per il singolo cittadino. Questo include ve­

rificare le fonti, sviluppare pensiero critico, segnalare abusi/

errori e formarsi per acquisire competenze digitali di base.

IA a Rischio Limitato: Chatbot, assistenti virtuali, generatori

di immagini e testi devono dichiararsi per quello che sono.

Capire se stiamo parlando con un umano o una macchina è

una nuova forma di alfabetizzazione digitale individuale.

Quando interagisci con un chatbot, ti fidi ciecamente delle ri­

sposte o verifichi le informazioni?

E i Modelli Generativi? Sistemi come ChatGPT rientrano tra

i modelli fondazionali, soggetti a norme specifiche. Le aziende

devono fornire documentazione chiara, rispettare il diritto d’au­

tore, prevenire abusi. Ma ogni utente ha un ruolo cruciale e re­

sponsabile: verificare, usare con criterio, segnalare gli errori.

La qualità dell’IA dipende anche dal nostro uso consapevole.

Per Aziende e Professionisti: Le imprese dovranno garantire la

conformità normativa, ma anche formare dipendenti e collaborato­

ri sull’uso responsabile dell’IA. I professionisti della comunicazione

e dell’educazione hanno una responsabilità ulteriore: promuovere

una cultura digitale fondata su etica, rispetto e consapevolezza. Il

progresso non è neutro, richiede una guida etica e responsabile.

L’AI Act è una chiamata all’azione per tutti noi. L’ascolto deve

essere attivo e l’azione consapevole. La tecnologia è un rifles­

so di chi siamo: sta a noi assumerci la piena responsabilità di

ciò che essa diventa.

UMANESIMO 5.0

stico in sanità suggerisce

una cura e un medico la se­

gue senza verificarla, di chi

è la responsabilità in caso

di errore? L’AI Act ci ricorda

che il controllo umano è fon­

damentale: il medico ha

la responsabilità finale.

mente agli strumenti, anche

quelli “banali”, può farci per­

dere il controllo su informa­

zioni e processi. Serve atten­

zione quotidiana

by design”). Per istituzioni e

governi, creare ecosistemi

normativi e di supporto che

favoriscano lo sviluppo re­

sponsabile. Per comunità e

società civile, partecipare at­

tivamente al dibattito pubbli­

co, promuovendo consapevo­

lezza e formazione.