Car* Tutt*,
sperando abbiate riposato e che siate pronti per affrontare l’ultimo quadrimestre di quest’anno, riprendiamo il filo del nostro percorso con alcune riflessioni.
1. Coesione
Il Parlamento europeo ha appena pubblicato un nuovo studio che indaga soluzioni e misure volte a mitigare il rischio di povertà e di esclusione sociale nei paesi dell’Unione europea. Nonostante i progressi degli ultimi anni, nel 2019 erano ancora oltre 91 milioni le persone in questa condizione di pericolo. Numeri destinati a salire con la crisi innescata dalla pandemia e dalle sue conseguenze economico-sociali.
Tuttavia, manca ancora, a livello europeo, un quadro normativo condiviso per contrastare efficacemente questo problema di dimensioni sempre più preoccupanti. Lo studio discute alcune tra le questioni che dovrebbero essere al centro della legislazione inerente, ad esempio: come misurare la povertà, come definire i criteri per l’assegnazione di un reddito minimo e quali caratteristiche esso debba avere a livello nazionale, cosa può fare in questo senso l’Unione europea come istituzione.
Le principali conclusioni confermano che, proprio a causa della sua natura multiforme, per definire la povertà sono necessari diversi indicatori e nessuna politica da sola è sufficiente per contrastarla. Servirebbe invece una combinazione di misure predistributive - che incidono cioè sui risultati del mercato e sullo sviluppo delle competenze - e misure puramente redistributive come i regimi di reddito minimo.
Noi come territorio e stakeholders locali che azioni mettiamo in campo?
Per agire la coesione sociale è o meno sempre indispensabile aspettare la definizione di un quadro normativo europeo, nazionale e regionale?
È il PNRR leva strutturale per rimuovere le condizioni che impediscono il pieno sviluppo delle persone nei loro territori?
2. Matematica o armi?
Le regole matematiche possono unirsi a quelle sociali per produrre divisioni e sofferenze. Gli algoritmi regolano la gestione di grandi quantità di dati che vengono infatti usati come strumenti per prevedere, con conseguenze buone o nefaste. Le persone che hanno certe caratteristiche, secondo i dati registrati da qualche piattaforma, vengono classificate come appartenenti a una categoria, questa catalogazione può essere spregiudicatamente usata per suggerire che tutte le persone rientranti in un determinato insieme siano destinate agli stessi successi e insuccessi.
In generale, gli algoritmi impiegati per prendere decisioni sono spesso usati nelle organizzazioni umane per trovare consenso intorno alle scelte sulla base della presunta oggettività della matematica. Ma gli algoritmi non sono mai oggettivi: in primo luogo perché utilizzano solo una tra le logiche possibili per giungere alle conclusioni, in secondo luogo perché gli elementi assunti sono unicamente quelli disponibili con tutte le distorsioni connesse al metodo con i quali sono stati raccolti.
A ciò si aggiunge l’uso, sovente strumentale, di tecniche altamente distorsive. Un esempio illuminante è fornito dai social network. Qui le regole sociali imposte da tribù definite intorno a pensieri convenzionali vengono fatte rispettare attraverso l’uso della vergogna, in contesti nei quali le forme più violente e dure di polemica sembrano essere valorizzate dagli algoritmi che selezionano quello che le persone vedono con maggiore probabilità.
Insomma, gli algoritmi possono diventare armi e nei social network possono unirsi alle regole sociali per produrre divisioni, privilegi, sofferenze.
Noi, come territorio e stakeholders locali, che anticorpi abbiamo?
Siamo culturalmente pronti per controdedurre posizioni sociali ed intellettuali per essere liberi ed autodeterminare formazione, informazione e substrato territoriale di livello?
3. Robotica
Le macchine possono imparare a comportarsi?
Al di là del fatto che siano senzienti, c’è un tema più pratico e immediatamente consequenziale sull’allineamento dei valori, cioè sul come le macchine mosse dall’intelligenza artificiale possano essere imbevute di valori umani. Questo pone una questione fondamentale sui modelli linguistici, sul fatto in particolare se possano o meno capire i concetti e, prima ancora, sul cosa significhi capire. Apparentemente, il meglio che possiamo fare è curare attentamente gli input di formazione per filtrare i contenuti tossici per rappresentare al meglio la diversità umana. Ci sono alcune sfide profonde implicate qui, inclusa la governance (chi può definire cosa è tossico?), il lavoro (è umano assumere persone per filtrare i contenuti tossici?) e la scala (come possiamo realisticamente costruire modelli di grandi dimensioni con tali vincoli?).
Questi sono problemi seri, i modelli di intelligenza artificiale di oggi stanno diventando molto più capaci di quanto si pensi.
Plasmare il linguaggio ha dimostrato di essere la chiave per fare il salto dalle applicazioni specializzate di machine learning degli anni 2010 alla tecnologia di intelligenza artificiale generica degli anni 2020.
Il risultato non è certo un’entità aliena con obiettivi imperscrutabili.
Affinché un modello di intelligenza artificiale si comporti secondo un determinato insieme di valori etici, deve essere in grado di capire quali sono quei valori proprio come faremmo noi, attraverso il linguaggio. Di per sé, la capacità di dotare un’IA di valori non è una panacea e non garantisce un giudizio perfetto. Alcuni valori sono migliori di altri? In che modo le IA, i loro creatori e i loro utenti dovrebbero essere ritenuti moralmente responsabili?
L’amore, l’amicizia, la cura per gli altri, l’empatia, l’altruismo, l’equità e la giustizia, e così via, non sono una moderna patina di invenzione razionale dipinta su una natura selvaggia e hobbesiana. Siamo solo animali altamente socievoli e loquaci che inventano cose.
Siamo sul punto di inventare macchine che possano essere socievoli e creative con noi.
La sfida che dobbiamo affrontare ora è duplice: quella di decidere come dovrebbero comportarsi queste macchine e quella di capire come dovremmo comportarci noi in merito. È molto più facile insegnare a un’IA come comportarsi.
L’aspetto più complesso sarà quello dell’allineamento del valore umano, compreso quello di cui gli esseri umani possono dire alle IA come comportarsi e a quali fini.
E noi che fabbriche di nuova generazione avremo? Ne avremo? E se sì, faremo in tempo a generare nuove generazioni di lavoratori per tempo?
È così che si chiude la 23° settimana del corrente mandato.
A settembre riprende anche il calendario degli eventi.
#staytuned vi aspettiamo!
Buon fine settimana e buone vacanze,
un sorriso,
Nicola