Sei strategie per rendere l’intelligenza artificiale meno energivora

Come rendere l’intelligenza artificiale meno energivora? In un recente studio di Roberto Verdecchia, June Sallou e Luís Cruzne vengono esaminati alcune strategie. Ve ne presentiamo sei.

Alcuni articoli  si concentrano sulle soluzioni per rendere fattibile il monitoraggio del carbonio in qualsiasi progetto di intelligenza artificiale (García-Martín et al., 2019). Ad esempio, Carbontracker offre un set di strumenti per tracciare e prevedere l’energia e l’impronta di carbonio dei modelli DL di addestramento (Wolff Anthony et al., 2020). Questi studi sostengono che è fondamentale riportare l’impronta energetica e di carbonio dello sviluppo e della formazione del modello insieme ai parametri di prestazione.

La maggior parte degli articoli si concentra sulla fase di addestramento, sono indipendenti dall’algoritmo o studiano le reti neurali e utilizzano dati di immagini. Gli esperimenti di laboratorio sono la strategia di ricerca più comune.

Zhang et al. (2018a) studiano come la rimozione dei neuroni dalle reti neurali influisce sia sulla precisione che sul consumo energetico. I risultati indicano che una buona parte dei neuroni è ridondante e può essere rimossa per ridurre il consumo energetico senza un impatto significativo sulla precisione. Allo stesso tempo, mostra che esiste un punto di svolta in cui la rimozione dei neuroni migliora l’efficienza energetica ma riduce significativamente la precisione. Pertanto i due parametri devono sempre essere analizzati insieme. Altri lavori optano per l’ottimizzazione dell’energia mantenendo la perdita di precisione entro un margine trascurabile (Yu et al., 2020).

Progettazione di nuovi algoritmi di addestramento che producano modelli significativamente più efficienti dal punto di vista energetico rispetto allo stato dell’arte.

Alcuni lavori propongono piccole modifiche agli algoritmi che fanno una grande differenza nel consumo energetico finale.

La nostra scelta delle librerie ha un impatto sull’impronta di carbonio finale dei sistemi di intelligenza artificiale.

Esiste una nuova tendenza nell’intelligenza artificiale che sta aumentando l’importanza di sviluppare migliori tecniche di raccolta ed elaborazione dei dati come un modo più efficace per fornire modelli di intelligenza artificiale migliori. Questa linea di pensiero all’interno della Green AI mira a ridurre l’impronta di carbonio dell’IA affrontando il problema a livello di dati.

Gli approcci incentrati sui dati per l’intelligenza artificiale verde mostrano che le tecniche di selezione delle caratteristiche e di sottocampionamento possono ridurre significativamente il consumo di energia nell’addestramento dei modelli di apprendimento automatico (Verdecchia et al., 2022b). Le strategie di sottocampionamento possono essere più sofisticate rimuovendo i punti dati che dovrebbero essere ridondanti in termini di acquisizione di conoscenza (Dhabe et al., 2021).

L’impatto di una rete distribuita sull’efficienza energetica dell’IA. I modelli di intelligenza artificiale vengono spesso implementati in un contesto distribuito, ad esempio IoT, edge computing e così via. Pertanto, la progettazione e l’architettura della rete svolgono un ruolo importante nello sfruttare modelli sostenibili.

Ad esempio, Kim e Wu (2020) propongono un motore di esecuzione adattivo che seleziona la strategia di inferenza in base alla potenza del segnale della rete in diversi dispositivi, poiché è noto influenzare l’efficienza energetica del sistema mobile edge.

Qui trovate lo studio completo: https://wires.onlinelibrary.wiley.com/doi/10.1002/widm.1507

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Un avatar nel metaverso consuma la stessa energia di un cittadino del Sud America

Può interessarti anche: Russia: il consumo di energia per le criptovalute supera quello per l’agricoltura

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

 

Related Posts