L'intelligenza artificiale è una minaccia ecologica?

Lorenzo Natale dell'Istituto Italiano di Tecnologia conferma le preoccupazioni che emergono dalla comunità scientifica USA. Ma spiega anche perché possiamo essere ragionevolmente ottimisti.

Questo articolo fa parte di una serie di contenuti che anticipano i temi che verranno discussi a domusforum 2019, il 10 ottobre a Milano.

Da molti anni ascoltiamo la comunità scientifica illustrare quasi all’unisono come l’intelligenza artificiale renderà possibili grandi risparmi energetici e quindi una società più ecosostenibile: veicoli autonomi, edifici intelligenti e utilities autoadattive daranno vita alla smart city nella quale sostenibilità ed efficienza saranno all’ordine del giorno e ogni spreco bandito.

Al di là però del precauzionale esercizio del dubbio cui ogni grande svolta dovrebbe essere sottoposta per principio, oggi proprio la comunità scientifica esprime qualche riserva non tanto sul risultato finale della rivoluzione in corso, quanto sui suoi costi a breve, brevissimo termine: negli ultimi mesi importanti riviste scientifiche hanno pubblicato i pareri di ricercatori che mettono in guardia circa l’enorme consumo richiesto dall’implementazione delle nuove tecnologie e soprattutto dall’aumento facilmente prevedibile per i prossimi anni.

L’edizione on-line dell’MIT Technology Review per esempio ha ospitato lo scorso 29 luglio un intervento del CEO di Applied Materials Gary Dickerson, una delle personalità più influenti della silicon valley. Secondo Dickerson già nel 2025 l’A.I. potrebbe essere responsabile di un decimo dell’intero consumo mondiale di elettricità. In sostanza proprio il machine learning potrebbe rappresentare – in un drammatico paradosso – una grave minaccia per l’ecosistema.

Abbiamo chiesto un parere a Lorenzo Natale, senior researcher dell’Istituto Italiano di Tecnologia ed esperto delle reti neurali alla base dell’Intelligenza Artificiale per applicazioni nel campo della robotica.

Un recente studio ha stimato che il lavoro necessario per sviluppare una grande rete neurale provochi un’emissione di gas serra paragonabile al ciclo di vita di cinque medie automobili americane

"Le preoccupazioni sono senza dubbio fondate", esordisce Natale, "basti pensare che un recente studio dell’Università del Massachusetts ha stimato che il lavoro necessario per sviluppare una grande rete neurale provochi un’emissione di gas serra paragonabile al ciclo di vita di cinque medie automobili americane (inclusa la costruzione del veicolo). Il fatto però che se ne stia parlando apertamente è un ottimo segnale del fatto che siamo coscienti del problema".

Ma come si esce da questo circolo vizioso, soprattutto in vista della scontata accelerazione del futuro prossimo? Parola ancora all’esperto: "Oggi quello dell’A.I. è un campo di ricerca spinta, nel quale cioè la scienza punta alla massima esplorazione possibile senza pensare troppo al rapporto costi-benefici. In futuro, quando l’applicazione pratica dovesse prendere il sopravvento sulla ricerca prettamente sperimentale, questo quadro dovrebbe cambiare in favore di una maggior parsimonia delle risorse.  Ma il condizionale è d’obbligo in un campo così fluido".

In generale è proprio la fase sperimentale a implicare grandi consumi.  Possiamo suddividere la vita di una rete neurale di tre fasi: prototipizzazione, addestramento ed inferenza. « La terza è quella dell’utilizzo vero e proprio della rete e richiede poca energia», sostiene il ricercatore dell’IIT, "mentre le prime due, soprattutto la prima, sono estremamente dispendiose perché richiedono volumi di calcolo immensi nella progettazione della rete e nel suo adattamento ai compiti previsti".

In futuro, quando l’applicazione pratica dovesse prendere il sopravvento sulla ricerca prettamente sperimentale, questo quadro dovrebbe cambiare in favore di una maggior parsimonia delle risorse

Nell’ottica di una maggiore efficienza dei sistemi, sono due i campi in cui operare: da un lato servono materiali nuovi e più performanti, dall’altro vanno elaborati algoritmi migliori che riescano a dare le medesime risposte con minor volume di calcolo.

Quali possano essere i maggiori agenti del cambiamento però non è facile dirlo. I giganti del big tech sono spesso associati a comportamenti poco etici ma in fin dei conti pagano le bollette e quindi hanno un forte interesse nella razionalizzazione dei consumi (per esempio dei servizi in cloud), così come le aziende dell’automotive impegnate nei veicoli a guida autonoma; le università e i centri di ricerca pubblici al contrario fanno ricerca pura e sono più interessati al conseguimento del risultato in sé piuttosto che alla sua efficienza pratica. Ma può essere vero anche il contrario: la ricerca accademica paga spesso la scarsità di fondi e proprio dall’esigenza di risparmio potrebbe sorgere una nuova linea di studio che massimizzi la resa contenendo il pegno energetico e quindi ambientale.

"Per quanto sia al momento quasi impossibile fare previsioni", conclude Lorenzo Natale, "è fondamentale non commettere lo stesso errore degli ultimi 150 anni. Se sottovalutiamo di nuovo l’impatto che le nostre tecnologie hanno sull’ecosistema, questa volta potremmo non avere modo di rimediare".

Leggi tutto
China Germany India Mexico, Central America and Caribbean Sri Lanka Korea icon-camera close icon-comments icon-down-sm icon-download icon-facebook icon-heart icon-heart icon-next-sm icon-next icon-pinterest icon-play icon-plus icon-prev-sm icon-prev Search icon-twitter icon-views icon-instagram