food for thought

eng
  • La Strategia italiana per le tecnologie quantistiche è stata recentemente pubblicata e rappresenta un passo fondamentale per rafforzare la posizione dell'Italia in questo ambito innovativo.

    La strategia è stata adottata dal Comitato Interministeriale per la Transizione Digitale (CITD) nel luglio 2025, dopo essere stata redatta da un gruppo di esperti e rappresentanti istituzionali.

    Si prevede che le tecnologie quantistiche influenzeranno vari settori, inclusi salute e lavoro, e genereranno significativi impatti sulla vita quotidiana.

    Tra le azioni proposte dalla Strategia, troviamo: incentivare la ricerca di base e applicata attraverso finanziamenti dedicati; migliorare l'accesso alle infrastrutture necessarie per lo sviluppo delle tecnologie quantistiche; stimolare gli investimenti privati nel settore, creando reti di collaborazione tra pubblico e privato; sviluppare programmi di formazione avanzati e dottorati industriali per formare una forza lavoro specializzata; promuovere l'internazionalizzazione degli ecosistemi nazionali per attrarre talenti e capitali esteri.

    Il gruppo di lavoro che ha redatto la strategia è stato istituito dal Ministero dell'Università e della Ricerca, in collaborazione con vari ministeri, tra cui quello delle Imprese e del Made in Italy, degli Affari Esteri e della Difesa. Tommaso Calarco, professore di Fisica all'Università di Bologna, ha coordinato il lavoro. Avendo avuto l’opportunità di partecipare ai lavori di redazione, posso testimoniare l’impegno e la serietà profusi dal gruppo di lavoro.

    La strategia si inserisce nel contesto della European Declaration on Quantum Technologies, evidenziando l'impegno dell'Italia a intensificare gli investimenti in ricerca e ad allinearsi agli obiettivi della Quantum Europe Strategy, che prevede la presentazione di un Quantum Act da parte della Commissione Europea entro la fine del 2025.

    Questa strategia rappresenta quindi un impegno significativo dell'Italia per diventare un attore chiave nel panorama delle tecnologie quantistiche a livello europeo e globale.

  • L’idea dell’uomo “post-vitruviano” rappresenta una transizione significativa nell’evoluzione della specie Homo sapiens, che si allontana dall’immagine rinascimentale dell’individuo come misura di tutte le cose. Il Vitruviano di Leonardo da Vinci è un celeberrimo disegno a penna e inchiostro su carta (1490 circa), conservato nel Gabinetto dei Disegni e delle Stampe delle Gallerie dell'Accademia di Venezia, che mostra un uomo nudo con le braccia e le gambe in due posizioni diverse sovrapposte, inscritto in un cerchio e in un quadrato. La figura si basa sulle proporzioni ideali del corpo umano descritte dall’architetto romano del I secolo a.C., Marco Vitruvio Pollione. 

    Il disegno simboleggia un ideale di proporzione e perfezione, ponendo l’uomo al centro dell’universo. Molti sostengono che Leonardo abbia integrato nel disegno il concetto di sezione aurea (1,618…), considerata una proporzione estetica perfetta. Il corpo umano, secondo questa teoria, sarebbe progettato secondo leggi matematiche universali, che Leonardo avrebbe voluto rivelare visivamente. Dal punto di vista del simbolismo, il cerchio rappresenterebbe il cielo, l’infinito, il divino; il quadrato la terra, il materiale, il finito: l’uomo che unisce entrambi sarebbe dunque il ponte tra spirito e materia, in linea con i concetti neoplatonici molto diffusi nel Rinascimento. 

    Da rilevare che i centri geometrici del cerchio e del quadrato non coincidono: il primo ha come centro l’ombelico, il quadrato i genitali, suggerendo l’interpretazione secondo la quale Leonardo voleva indicare la natura duale dell’uomo: razionale (spirito, ombelico come origine della vita) e sensuale (istinto, genitali).

    Alcuni studiosi come Carlo Pedretti (2009) hanno ipotizzato che l’Uomo Vitruviano leonardesco contenga una struttura geometrica armonica, basata su cerchi, quadrati e triangoli, usata per calcolare architetture e prospettive: un sistema codificato di rapporti e visionaria sintesi tra arte, scienza, filosofia classica, secondo l’ideale rinascimentale dell’uomo come misura di tutte le cose.

    Oggi, però, siamo testimoni di una metamorfosi radicale, in cui l’essere umano può essere considerato non più come un’entità isolata, ma come parte integrante di un sistema complesso che include elementi tecnologici come, ad esempio, l’intelligenza artificiale (IA) e i sistemi di interfaccia cervello-computer (Brain Computer Interface, BCI).

    Questa evoluzione può essere compresa attraverso vari ambiti, tra cui la filosofia, la biologia e la tecnologia. Con l’avvento dell’IA generativa la stessa concezione dell’individuo è cambiata: l’umanità sta iniziando a riconoscere che la propria identità non è unicamente definita da caratteristiche biologiche, ma anche da interazioni con “macchine intelligenti” sulla base delle teorie formulate da Alan Turing degli anni Cinquanta del secolo scorso. Se la logica di una macchina, argomentava il logico e matematico britannico, non è distinguibile da quella di un essere umano, essa deve essere di fatto e a tutti gli effetti considerata intelligente, “sia pure in modo artificiale” (Turing, 1950). Di qui, la sua profetica visione: «Credo che alla fine del secolo l’uso delle parole e l’opinione delle persone di cultura saranno cambiati a tal punto che si potrà parlare di macchine pensanti senza aspettarsi di essere contraddetti

    Secondo Yuval Noah Harari (2015), la nostra capacità di creare tecnologie sempre più sofisticate ha reso possibile una nuova forma di “co-evoluzione”, in cui Homo sapiens e IA si influenzano reciprocamente. Questo fenomeno porta a considerare l’essere umano come un’entità ibrida, in cui il confine tra naturale e artificiale diventa sempre più sfumato.

    Si tratta di una teoria che richiama concetti come quello del “trasumanar” di Dante, o il “Punto Omega” di Teilhard de Chardin.

    Il termine “trasumanar”, che Dante Alighieri utilizza nel verso 70 del Primo Canto del Paradiso, e che in un certo senso costituisce la più profonda chiave di lettura dell’intera Divina Commedia, evoca l’idea di una trasformazione dell’anima umana verso uno stato di perfezione divina. Questo concetto si inserisce in un contesto più ampio, in cui la dimensione spirituale e quella materiale si intrecciano, dando vita a una visione dell’esistenza che trascende le esperienze terrene.

    Nel Paradiso, Dante ci guida attraverso un viaggio straordinario nell’Aldilà, accompagnato da Beatrice, la sua musa e simbolo dell’amore di Dio. Qui, il “trasumanar” porta all’incontro con il divino e provoca una metamorfosi nell’anima. Non si tratta soltanto di un cambiamento fisico, ma di un’elevazione interiore che consente all’anima di avvicinarsi a Dio. La luce divina illumina l’intelletto umano, portandolo oltre la realtà quotidiana e materiale. Beatrice non è solo una figura di amore terreno, ma rappresenta anche il ponte verso l’amore divino, guidando Dante e, simbolicamente, ogni uomo verso la realizzazione completa del proprio potenziale spirituale. In questo senso, “trasumanar” diventa un simbolo di elevazione e di redenzione, un richiamo a far emergere il meglio di noi stessi attraverso la virtù e la fede, raggiungendo così la nostra destinazione ultima.

    Il concetto di “punto Omega”, elaborato dal filosofo francese Pierre Teilhard de Chardin (1955), postula l’anelito al raggiungimento del punto di arrivo finale dell’evoluzione umana, in cui la coscienza e la complessità raggiungono un apice sublime e insuperabile. Egli ci invita a considerare l’evoluzione non solo come un processo biologico, ma come un cammino spirituale e sociale che ci conduce verso una “noosfera”, un’armonia collettiva di pensiero e consapevolezza. In questo scenario, l’umanità non è isolata, ma si integra in un disegno più vasto che abbraccia il divino e il cosmico. 

    Queste visioni, ispirate a un profondo senso religioso, si intrecciano in modo intrigante con i principi del “transumanesimo”, la filosofia che sostiene che attraverso la tecnologia possiamo superare i limiti della condizione umana: quasi una nuova religione, che conta un crescente numero di adepti nella Silicon Valley e che postula la necessità di abbracciare con fiducia le innovazioni e spingere senza freni sul progresso, nella convinzione che ciò ci garantirà grandissimi benefici. Questa corrente di pensiero trae ispirazione delle teorie del biologo britannico Julian Huxley, che, più o meno nel periodo in cui Turing pubblicava i suoi studi, descriveva l’evoluzione dell’uomo verso un essere che, pur rimanendo umano, trascende sé stesso, e alla cui base vi è la convinzione che il progresso tecnologico-scientifico rappresenti lo strumento principale per il potenziamento supremo delle nostre capacità fisiche e cognitive. 

    Tra i più ferventi discepoli del transumanesimo troviamo Elon Musk, l’imprenditore statunitense di origine sudafricana, fondatore, amministratore delegato e direttore tecnico della compagnia aerospaziale SpaceX, cofondatore di Neuralink e OpenAI, amministratore delegato della multinazionale automobilistica Tesla, proprietario e presidente di X (ex Twitter), l’uomo più ricco del mondo, l’unico ad aver varcato la soglia dei 400 miliardi di dollari di patrimonio netto. 

    Secondo la visione del transumanesimo, l’integrazione dell’essere umano con i sistemi di intelligenza artificiale e altre tecnologie avanzate non è vista come una minaccia, ma come un’opportunità per accelerare la nostra evoluzione verso il raggiungimento di un punto “omega”. 

    Eccoci dunque che l’Homo sapiens è alle soglie di una trasformazione radicale, verso la realizzazione di un modello di umanità “post vitruviana”. 

    Si tratta di un concetto che è stato esplorato, tra gli altri, da Sampada Bhatnagar (2021), che sottolinea come la consapevolezza crescente che l’uomo non è più il fulcro dell’universo abbia portato a una ridefinizione stessa della nostra identità. Donna Haraway, nel suo A Cyborg Manifesto (1985), ha messo in discussione le rigide separazioni tra umano e macchie, suggerendo una visione in cui l’identità è fluida e interconnessa con la tecnologia. Francesca Ferrando (2016), descrive questa idea come un concetto aperto, dove la coesistenza non si limita solo agli esseri umani, ma si estende a tutte le forme di vita e all’ecosistema stesso.

    Le interfacce cervello-computer rappresentano un aspetto cruciale di questa transizione. Esse permettono una comunicazione diretta tra il cervello umano e i dispositivi digitali, aprendo la strada a nuove forme di interazione e di esperienza. Studi recenti (Lebedev & Nicolelis, 2006; Lebedev, 2017) hanno dimostrato che queste tecnologie non solo possono migliorare la qualità della vita delle persone con disabilità, ma anche potenziare le capacità cognitive degli individui sani. L’idea di “potenziamento umano” diventa quindi centrale, suggerendo che l’integrazione con le tecnologie non è solo una questione di accessibilità, ma di evoluzione.

    Nick Bostrom definisce il postumano come un’entità che possiede capacità superiori rispetto a quelle attualmente raggiungibili dall’uomo. Le sue riflessioni riguardano miglioramenti nella salute, nella cognizione e nelle emozioni, suggerendo che il futuro potrebbe vedere individui in grado di superare i limiti biologici attuali (Bostrom, 2008). Tecnologie emergenti come le interfacce cervello-computer, in particolare il progetto Neuralink di Elon Musk, promettono di trasformare radicalmente la nostra capacità di interazione con il mondo e di noi stessi, rendendo possibili esperienze e capacità precedentemente inimmaginabili.

    Un esempio emblematico di questa evoluzione è il prototipo di corpo Primo Posthuman, progettato per essere multifunzionale e aggiornabile, rappresentando una visione di umanità potenziata attraverso l’ingegneria genetica e la tecnologia avanzata (Bhatnagar, 2021). Questo modello si allinea con la filosofia transumanista, che considera l’essere umano come un’opera in continua evoluzione, capace di superare i propri limiti biologici.

    Il concetto di uomo post-vitruviano implica anche una riconsiderazione del libero arbitrio e dell’autonomia. Con l’avvento dell’IA, i processi decisionali umani sono sempre più influenzati da algoritmi e sistemi intelligenti, spesso al di là delle nostre capacità di controllo. Questo solleva interrogativi etici e filosofici riguardo alla responsabilità e alla libertà individuale: in un contesto in cui le scelte vengono sempre più mediate da sistemi algoritmici, si pone la questione se l’essere umano possa ancora considerarsi l’autore delle proprie decisioni. Come suggeriscono Bostrom e Yudkowsky (2014), la sfida non è solo quella di sviluppare tecnologie avanzate, ma di farlo in modo da preservare e amplificare la dignità umana.

    Infine, l’uomo post-vitruviano rappresenta un cambiamento di paradigma nella nostra comprensione della conoscenza e della creatività. L’IA sta trasformando il modo in cui produciamo arte, musica e letteratura, portando a una nuova era di collaborazione tra esseri umani e macchine. L’arte generativa, per esempio, sta sfidando le nozioni tradizionali di autore e originalità, suggerendo che persino la creatività non sia una prerogativa esclusivamente umana, ma possa emergere anche da interazioni con algoritmi (Elgammal et al., 2017). Questa evoluzione ci invita a riconsiderare il valore dell’esperienza umana in un contesto di “co-creazione”.

    In conclusione, l’uomo post-vitruviano rappresenta una nuova era in cui l’identità, l’autonomia e la creatività umana si intrecciano con le tecnologie avanzate. La sfida è quella di navigare in questo nuovo panorama in modo da preservare i valori fondamentali dell’umanità, mentre abbracciamo le potenzialità offerte dall’integrazione con l’intelligenza artificiale e le interfacce cervello-computer. Solo così potremo costruire un futuro in cui l’essere umano rimanga al centro, non come misura di tutte le cose, ma come parte di un ecosistema evolutivo complesso e interconnesso.

    Riferimenti

    - Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial Intelligence.

    - Bhatnagar, S. (2021). From a Vitruvian Man to a Primo Post Human: Understanding posthumanism. Nerd For Tech. (https://medium.com/nerd-for-tech/from-a-vitruvian-man-to-a-primo-post-human-understanding-posthumanism-ffa0c6d0c662).

    - Elgammal, A., Liu, B., Elhoseiny, M., & Mazzone, M. (2017). CAN: Creative Adversarial Networks

    Generating “Art” by Learning About Styles and Deviating from Style Norms. arXiv preprint arXiv:1706.07068.

    - Ferrando, F. (2016). Il Postumanesimo Filosofico e le sue Alterità. ETS 

    - Harari, Y. N. (2015). Sapiens: A Brief History of Humankind. Harper.

    - Lebedev, M. A., & Nicolelis, M. A. L. (2006). Brain–machine interfaces: past, present and future. Trends in Neurosciences, 29(9), 536-546.

    - Lebedev, M. A. (2017). Brain–machine interfaces: a review. Neuroscience & Biobehavioral Reviews, 86, 181-195.

    - Pedretti, C. (2009).  Premessa a Leonardo – L’Uomo Vitruviano fra Arte e Scienza. Catalogo della mostra. Marsilio Editori.

    - Teilhard de Chardin, P. (1955). L’energia umana. Edizioni Paoline.

    - Turing, A. M. (1950). Computing Machinery and Intelligence, Mind, (https://courses.cs.umbc.edu/471/papers/turing.pdf)

  • La Strategia Italiana 2024-2026 per l’intelligenza artificiale, adottata di recente, è un passo cruciale per il nostro Paese, che mira a assumere un ruolo di primo piano in materia di IA e transizione tecnologica, anche grazie all’importante ruolo svolto con la Presidenza del G7. Questo il testo integrale della Strategia Italiana per l’Intelligenza Artificiale 2024-2026. Il documento riflette l’impegno del Governo nel creare un ambiente in cui l’IA possa svilupparsi in modo sicuro, etico e inclusivo, massimizzando i benefici e minimizzando i potenziali effetti avversi. Dopo un’analisi del contesto globale e del posizionamento italiano, esso definisce le azioni strategiche, raggruppate in quattro macroaree: Ricerca, Pubblica Amministrazione, Imprese e Formazione. La strategia propone, inoltre, un sistema di monitoraggio della relativa attuazione e un’analisi del contesto regolamentare che traccia la cornice entro cui dovrà essere dispiegata.

  • Guerra, la fine della ragione

    Nel 1964 Norberto Bobbio decise di dedicare le sue lezioni di filosofia del diritto al tema della guerra e della pace, esplorando il concetto di guerra giusta, e arrivando tra l’altro a formulare la sua celebre tesi circa l’impossibilità di giustificare la guerra in un’epoca in cui l’uso di armi così potenti rischia di mettere in questione la stessa sopravvivenza del genere umano.

    «E dopo ogni guerra, pensava Dori, dopo ogni battaglia, non una, ma due, tre, dieci, cento versioni. Chi ha ragione, alla fine? Ciò che appare sembra una cosa, ma poi ne sembra un’altra, e poi ancora cambia di prospettiva. Alla fine, cosa conta chi ha ragione, se la ragione stessa è andata persa?»  (Diego Brasioli, il Caffè di Tamer, Mursia 2002, II ed. 2023)

  • La risposta è sì, attraverso il World Modelling.

    La visione di Yann LeCun (Meta, vincitore dell’Alan Turing Prize) sul futuro dell’intelligenza artificiale.

  • Il grande neuroscienziato Antonio Damasio, nei suoi studi sulle basi neuronali della cognizione e del comportamento, ha evidenziato l’importanza delle emozioni nel processo decisionale. Le sue teorie suggeriscono che sentire e percepire sono aspetti fondamentali nel guidare le scelte umane.

    L’intelligenza artificiale apre nuove frontiere nel campo della comprensione dei meccanismi che animano l’umanità. Attraverso l’analisi dei dati e l’apprendimento automatico, l’IA può comprendere e anticipare le reazioni emotive degli utenti. Questo non solo rende i sistemi digitali più efficaci, ma permette di aiutarci a sentire e percepire in modi unici e personali.

    «È tempo di riconoscere questi fatti e di aprire un nuovo capitolo nella storia dell’IA e della robotica. È evidente che possiamo sviluppare macchine operanti lungo le linee dei “sentimenti omeostatici”. Quello di cui abbiamo bisogno, per farlo, è di fornire ai robot un “corpo” che, per conservarsi, richieda regolazioni e aggiustamenti. In altre parole, quasi paradossalmente, dobbiamo aggiungere alla robustezza tanto apprezzata nella robotica un certo grado di vulnerabilità. Oggi è possibile farlo collocando dei sensori in tutta la struttura del robot e facendo in modo che essi rilevino e registrino gli stati più o meno efficienti del corpo, integrando le funzioni corrispondenti. […] Queste macchine “capaci di sentire” diventano allora “macchine coscienti”? Be’, non così in fretta. I loro “sentimenti” non sono come quelli delle creature viventi, benché sviluppino elementi funzionali legati alla coscienza (il sentire fa parte della via che conduce ad essa). Il grado di coscienza raggiunto infine da tali macchine dipenderà dalla complessità delle loro rappresentazioni interne, riguardanti sia “l’interno della macchina” sia il suo “ambiente circostante”. È molto probabile che […] questa nuova va generazione di macchine costituirebbe un laboratorio unico per lo studio del comportamento e della mente umani, in molti autentici scenari realistici.» (Antonio Damasio, Sentire e Conoscere. Storia delle menti coscienti, Adelphi, Milano, 2022, pp. 183-184)

  • Quando consideriamo la controversa nozione di macchine pensanti, vengono alla mente i veicoli di Braitenberg, un concetto affascinante introdotto quarant’anni fa dal neuropsicologo italiano Valentino Braitenberg (1926-2011) nel suo studio Vehicles: Experiments in Synthetic Psychology. Egli immagina delle macchine relativamente semplici che si muovono in base agli input dei sensori di cui sono dotate, attraverso azioni puramente meccaniche ma che possono esibire comportamenti assai multiformi, al punto da poter sembrare intenzionali, come se fossero dotate di vera e propria intelligenza. Questo illustra come regole e interazioni semplici possano portare a fenomeni emergenti, un fenomeno rilevante in campi come la robotica, l’intelligenza artificiale e la biologia: un modo diverso e originale di guardare alla realtà.

  • L'impatto ambientale dell'intelligenza artificiale

    Per raffreddare i centri di elaborazione dati che alimentano i centri elaborazione dati dei sistemi di IA sono necessari grandi quantità di acqua, ciò che suscita preoccupazioni sul costo ambientale del boom dell’intelligenza artificiale generativa. Diversi stu­­­­­di sottolineano che la crescente domanda di IA potrebbe avere nei prossimi anni un impatto molto significativo sull’estrazione di risorse idriche da fonti sotterranee o di superficie: tra i 4,2 e i 6,6 miliardi di metri cubi entro il 2027, ovvero circa la metà della quantità consumata dall’intero Regno Unito in un anno!

  • La questione se sia più vantaggioso e moralmente accettabile per le aziende che creano programmi di IA mantenere segrete le specifiche del proprio codice informatico o renderle liberamente disponibili agli sviluppatori di software di tutto il mondo è ormai da molti anni un argomento di discussione tra gli esperti di settore.

    La preoccupazione che l’intelligenza artificiale stia diventando una minaccia per la sicurezza ha alimentato il dibattito tra software chiuso e open source, che è diventato via via più acceso a causa del rapido progresso delle nuove tecnologie.

    In una lettera aperta pubblicata nel luglio 2024, Mark Zuckerberg, tra i fondatori di Facebook e amministratore delegato di Meta, ha rivendicato la posizione presa dalla sua azienda, da molti considerata rivoluzionaria, di liberalizzare quanto più possibile la fruizione dei propri programmi, In particolare, il modello Llama 3.1 405B è ora disponibile per gli sviluppatori in modalità open source, come tutti i modelli di intelligenza artificiale a cui ha lavorato finora Meta. Questo vuol dire che chiunque può accedere, visualizzare, modificare e ridistribuire il codice sorgente di questo programma. Per fare un esempio, chi volesse usare LLama 3.1 per creare una nuova chatbot capace di conversare in modo naturale con gli utenti - esattamente come fanno ChatGPT o Gemini - non dovrebbe pagare a Meta i costi di licenza della tecnologia che sta utilizzando.

    Zuckerberg sostiene che l’approccio open source nel campo dell’intelligenza artificiale consentirà al più ampio numero di sviluppatori di nuovi modelli tecnologici di utilizzare tale conoscenza per costruire i propri programmi di IA. Alla base di questo ragionamento vi è la consapevolezza che non è realistico pensare che una manciata di aziende possa alla lunga mantenere segreta la propria tecnologia di intelligenza artificiale, in particolare quando la Silicon Valley è evidentemente esposta a continui tentativi di spionaggio industriale. Ma l’ambizione di Zuckerberg va al di là di questi, pur importanti, aspetti legati alla competitività, e mira in ultima analisi a creare dei sistemi di IA veramente accessibili e trasparenti, a beneficio di tutti: «L’open source garantirà che più persone in tutto il mondo possano fruire dei vantaggi e delle opportunità dell’intelligenza artificiale, che il potere non sia concentrato nelle mani di un piccolo numero di aziende e che la tecnologia possa essere implementata in modo più uniforme e sicuro in tutta la società

  • Un fattore chiave da tenere in considerazione è il costo energetico necessario per far funzionare i nuovi sistemi digitali, i supercomputer e i computer quantistici. È stato stimato che prima del 2030 i centri dati che alimentano l'intelligenza artificiale potrebbero consumare tra gli 85 e i 134 terawattora di energia all'anno, equivalenti al consumo di intere nazioni come i Paesi Bassi, la Polonia o l'Argentina.

  • Il progresso nell'intelligenza artificiale sta accelerando in modo straordinario, insieme alle nostre difficoltà nel comprenderne e gestirne lo sviluppo. Ciò che solo ieri sembrava impossibile appare già superato oggi, e non sappiamo veramente cosa ci riserva il domani. A metà degli anni Sessanta, il giovane chimico Gordon Moore - che sarebbe diventato uno dei pionieri della microelettronica e co-fondatore di Intel - formulò una previsione che avrebbe plasmato l'intera industria dei semiconduttori. Essa afferma che il numero di transistor su un chip di silicio raddoppia circa ogni due anni, portando a un aumento esponenziale della potenza di elaborazione dei computer e a una diminuzione dei costi per transistor. La legge di Moore, rivelatasi sorprendentemente esatta nei decenni a venire, ha influenzato enormemente l'industria del digitale, con rapidi progressi in vari campi, come l'informatica, la comunicazione e l'elettronica. Ma oggi, dopo sessant'anni, ci si chiede se abbia ancora senso parlare della validità di questa legge. Ebbene, lo stesso Moore ha sostenuto in un'intervista del 2005 che i limiti della sua teoria sono essenzialmente fisici, e che essa durerà finché i chip non si avvicineranno alla dimensione degli atomi, e che quindi in futuro, man mano che procede la miniaturizzazione, è teoricamente destinata ad esaurirsi. Secondo lo studioso e imprenditore Ray Kurzweil, l’IA rappresenta un cambio di paradigma dello schema basato sulla scalabilità del progresso. I suoi studi pongono l’enfasi sulla “singolarità”, ovvero un’esplosione praticamente illimitata della forza dell’intelligenza artificiale che renderà obsoleta l’intera storia e cultura delle civiltà umana. Kurzweil immagina che di qui a breve (nei prossimi decenni, e comunque entro il 2050) conosceremo l’avvento di sistemi algoritmici capaci di migliorarsi autonomamente in millesimi di secondo a ritmi sempre più sostenuti. L’uomo e il suo ruolo nel mondo cesserebbero di esistere nel modo in cui lo abbiamo sempre conosciuto. Geoffrey Hinton, lo scienziato britannico-canadese premio Nobel per la Fisica 2024, considerato uno dei padri dell’IA e che abbiamo già incontrato come uno degli inventori delle reti neurali artificiali, ha preso la clamorosa decisione di lasciare l’incarico di dirigente di Google per dedicarsi interamente alla sola missione che gli sta ora a cuore: mettere in guardia l’opinione pubblica sugli aspetti più inquietanti dell’intelligenza artificiale. Se il pericolo più immediato è che la tecnologia renda sempre più difficile distinguere la realtà dalle fake news originate da sistemi di IA, egli teme che il futuro ci riservi scenari ancor più allarmanti. Secondo Hinton infatti esiste il rischio concreto che sistemi di intelligenza artificiale possano apprendere autonomamente comportamenti inaspettati e perniciosi, e che presto l’essere umano sia letteralmente soppiantato da un’intelligenza superiore che non è più in grado dio controllare, come un genio scappato dalla lampada: «Molti ritenevano che l’idea che questi sistemi possano diventare più intelligenti delle persone fosse sbagliata. Io stesso pensavo che si trattasse di un’eventualità di là da venire, che non si sarebbe potuta verificare se non tra 30 o 50 anni, o anche più in là. Ovviamente, non la penso più così, e già tra pochi anni potremmo sviluppare un’intelligenza artificiale molto più intelligente dell’uomo. Questo è estremamente spaventoso.» Si tratta di una visione distopica che riecheggia quella espressa in precedenza dall’illustre fisico Stephen Hawking, che aveva avvertito che un'IA superintelligente potrebbe diventare inarrestabile e sfuggire al controllo umano, con potenziali conseguenze catastrofiche, soprattutto se le sue capacità venissero utilizzate in modo irresponsabile o malevolo. Di qui, secondo sia Hawking che Hinton, l’importanza di regolamentare attentamente l’IA per garantire che rimanga al servizio dell’umanità, piuttosto che minacciare il nostro futuro. Questo pessimismo di fondo, che alimenta una concezione sostanzialmente distopica del futuro, non è condivisa da Kurzweil che - assieme ad altri esponenti del transumanesimo, la nuova corrente filosofica che vede nelle potenzialità tecnologiche la possibilità di miglioramento dell’uomo - sposa invece una visione ottimistica del progresso tecnologico. Egli ritiene infatti che l’intelligenza artificiale ci aiuterà a risolvere problemi finora insormontabili, ad esempio in campo bio-medico, permettendo in futuro l’integrazione del cervello biologico umano con hardware e software esterni, che potrebbero permetterci di vivere potenzialmente all’infinito. Assisteremo dunque non solo alla scomparsa di malattie degenerative o delle forme più aggressive di tumore, ma a un miglioramento biologico totale dell’uomo, verso l’immortalità. Se queste previsioni sono fondate, gli individui che vivranno per sempre potrebbero essere già nati e presenti tra noi.