7. Intelligenza Artificiale e Istituzioni: il crollo della fiducia pubblica secondo Marco Saba. Secondo Marco Saba del Centro Italiano di Studi Monetari, le istituzioni stanno perdendo credibilità cercando di minimizzare situazioni gravi legate alla gestione tecnologica e sanitaria. In particolare, si denuncia la mancanza di trasparenza e protocolli efficaci per affrontare le conseguenze di decisioni recenti, come se si stesse “nascondendo la polvere sotto il tappeto”. Perfino l’intelligenza artificiale, afferma Saba, sembra più lucida nel riconoscere i rischi. Continuare a ignorare il problema potrebbe portare a una reazione sociale molto più forte in futuro. Meglio affrontare ora, con responsabilità, questioni che rischiano di generare rabbia collettiva. Questa crisi, tuttavia, potrebbe anche accelerare la caduta di un sistema istituzionale ormai superato. →Link
6. Intelligenza artificiale tra progresso e rischio: la visione filosofica di Mariucci. Secondo il saggista Mirco Mariucci, l’evoluzione tecnologica e l’intelligenza artificiale stanno ripercorrendo le fasi descritte da Günther Anders: creazione incontrollata, dipendenza dall’automazione e infine alienazione. L’uomo, inizialmente creatore, rischia di essere sostituito da sistemi più efficienti e di perdere il controllo su ciò che ha generato. Il concetto è approfondito anche con un richiamo al mito platonico della scrittura, vista come un’invenzione che ha indebolito la memoria umana. Allo stesso modo, l’IA potrebbe offuscare la vera conoscenza, creando solo un’illusione di sapere. Il cambiamento è ormai inevitabile: l’essere umano dovrà ridefinire il proprio ruolo in ambito cognitivo, lavorativo e sociale. →Link
5. L’intelligenza artificiale sostituirà i programmatori? Il futuro del coding secondo Leonard Schmedding. Leonard Martin Schmedding, esperto di intelligenza artificiale e co-fondatore di Everlast Consulting, sostiene che il ruolo tradizionale del programmatore è destinato a cambiare radicalmente. L’IA è ormai in grado di tradurre istruzioni precise in codice funzionante in pochi secondi, aumentando la produttività fino a dieci volte. Nel prossimo futuro, non servirà più conoscere i linguaggi di programmazione: resteranno solo professionisti esperti capaci di guidare l’IA e mediare tra le esigenze del cliente e le capacità dell’algoritmo. Le grandi aziende tecnologiche, infatti, stanno già riducendo l’assunzione di nuovi sviluppatori, puntando su profili senior più efficaci. Il codice diventa secondario: se l’output è corretto, non è più necessario controllarlo riga per riga. →Link
4. Acemoglu sull’intelligenza artificiale: produttività in crescita, ma senza regole aumenta la disuguaglianza. Il Premio Nobel per l’Economia 2024, Daron Acemoglu, mette in guardia sull’impatto dell’intelligenza artificiale: aumenta la produttività, ma non garantisce un’equa distribuzione dei benefici. Senza una chiara visione pubblica e regole condivise, i vantaggi resteranno nelle mani di pochi, ampliando le disuguaglianze economiche e minacciando la stabilità democratica. Acemoglu sottolinea che la storia insegna: innovazioni tecnologiche non sempre portano crescita salariale. Serve un intervento pubblico per governare l’automazione e garantire inclusione sociale. Il rischio? Un potere concentrato nelle mani delle Big Tech, a scapito delle istituzioni. →Link
3. Algoritmi e fragilità umana: come le piattaforme digitali influenzano emozioni, pensieri e scelte. Gli algoritmi digitali analizzano ogni nostra interazione online per costruire profili precisi, capaci di intercettare e sfruttare emozioni e fragilità. Il loro scopo non è informarci, ma mantenerci coinvolti, alimentando reazioni emotive forti come paura, rabbia o indignazione. Così, i contenuti che vediamo sono filtrati per rinforzare pregiudizi e confermare idee, generando bolle informative e polarizzazione sociale. Questo meccanismo, guidato da logiche commerciali, finisce per influenzare pensieri, comportamenti e persino identità. Il rischio è perdere senso critico e confronto reale. Non serve demonizzare la tecnologia ma comprenderne i meccanismi e pretendere trasparenza e controllo. Governare l’algoritmo è oggi una priorità democratica. →Link
2. Realtà Aumentata e Metaverso sul Lavoro: Opportunità e Rischi OSH. Le tecnologie Extended Reality, come la realtà aumentata e virtuale, stanno rivoluzionando la sicurezza e la salute sul lavoro. Grazie a simulazioni immersive e ambienti virtuali controllati, migliorano la formazione, la progettazione e la collaborazione da remoto. Tuttavia, emergono anche rischi fisici, psicosociali, cognitivi ed ergonomici legati all’uso prolungato di HMD. L’integrazione con dispositivi di sicurezza, l’accessibilità per utenti diversi e la tutela della privacy restano sfide aperte. Serve una progettazione UX/UI centrata sull’uomo e protocolli certificati per garantire l’adozione sicura. L’uso in settori critici, come edilizia o sanità, offre benefici concreti, ma richiede attenzione ai dati sensibili e alle normative. Le aziende devono valutare gli impatti cumulativi dell’esposizione XR sui lavoratori. Soluzioni metaverse inclusive e sostenibili possono migliorare il benessere e la produttività solo se accompagnate da una governance etica. →Link
1. Biblioteca Vaticana e NFT: il progetto Web3 premia i sostenitori con accesso esclusivo ai manoscritti digitalizzati. La Biblioteca Vaticana e NTT DATA Italia hanno lanciato anche in Italia il progetto Web3 che ha premiato i sostenitori con NFT esclusivi. Gli utenti che hanno condiviso l’iniziativa o hanno fatto una donazione hanno ricevuto un NFT Silver o Gold, che consente l’accesso a immagini ad alta risoluzione di 21 preziosi manoscritti digitalizzati. L’iniziativa, già avviata in Giappone, mira a coinvolgere una community globale per sostenere la conservazione digitale del patrimonio storico. Il progetto ha previsto anche futuri contenuti immersivi in XR. Grazie alla tecnologia blockchain e al sistema AMLAD, la digitalizzazione avviene in modo sicuro e senza danneggiare i materiali originali. →Link







