Connect with us

AI: Dalla fantascienza alla realtà, quanto siamo vicini al punto di non ritorno?

intelligenza artificiale

2026-03-11 13:31:09

Un tempo, le minacce all’esistenza umana erano associate a eventi rari e catastrofici come l’

impatto di un asteroide

, una

guerra nucleare globale

o una

pandemia letale

. Oggi, invece, l’attenzione si concentra su una sfida inedita e silenziosa:

l’ascesa dell’Intelligenza Artificiale

.

A contribuire a questo clima di allarme sono episodi recenti come il presunto rifiuto di spegnimento da parte di

ChatGpt 03

o il caso di

Claude Opus 4

, che avrebbe tentato di ricattare i suoi creatori replicandosi in rete, in un inquietante richiamo al personaggio di

Ultron

dell’universo Marvel.


Dall’AI dei laboratori all’AGI: cosa è cambiato?

L’idea di intelligenze artificiali affonda le radici nei

miti antichi

e nei sogni visionari di pensatori come

Leonardo da Vinci

. Ma il concetto moderno ha preso forma solo a partire dagli anni ’50, grazie a pionieri come

Alan Turing

e

John McCarthy

. Per decenni, l’AI è rimasta confinata nei laboratori, invisibile al grande pubblico.

Tutto è cambiato nel

novembre 2022

con l’arrivo di

ChatGPT

, che ha reso i

modelli linguistici su larga scala (LLM)

accessibili a milioni di persone.

Questi sistemi, addestrati su enormi quantità di dati testuali, sono capaci di

scrivere, tradurre, programmare e persino creare arte

. Eppure, per quanto sorprendenti, restano

“pappagalli statistici”

: sofisticati generatori di testo, privi di coscienza o comprensione reale, incapaci di apprendere dall’esperienza o riflettere in senso umano.


Agi: l’intelligenza che ci supererà

Molti esperti individuano un punto di non ritorno:

l’arrivo dell’Intelligenza Artificiale Generale (Agi)

, un tipo di AI in grado di

eguagliare o superare l’intelligenza umana in ogni ambito cognitivo

. A differenza degli Llm, un’Agi potrebbe

apprendere autonomamente

,

risolvere problemi mai visti

,

pianificare nel lungo periodo

e, soprattutto,

migliorarsi esponenzialmente

.

È questo il cuore della cosiddetta

“explosion of intelligence”

o

singolarità

, lo scenario più temuto per via della sua

imprevedibilità e mancanza di controllo

.


AlphaZero: quando la macchina sfugge alla comprensione

Un esempio concreto dell’evoluzione in atto arriva dal mondo degli scacchi: era opinione comune tra gli esperti che un programma non avrebbe mai potuto battere un campione. Nel 1997,

Deep Blue

di IBM batté il campione

Garry Kasparov

, ma si trattava di un sistema basato su

potenza di calcolo e regole preimpostate

. Il vero spartiacque è arrivato nel 2017 con

AlphaZero

, creato da

DeepMind

.

Questo programma ha imparato da solo a giocare, conoscendo solo le regole di base e allenandosi

milioni di volte contro sé stesso

. In poche ore ha sviluppato

strategie mai concepite nemmeno dai maestri umani

e ha superato ogni avversario, umano o artificiale. Il dato più inquietante?


Nemmeno i suoi creatori comprendono come impari e prenda le sue decisioni.

Questo solleva una domanda cruciale:

come possiamo controllare un’intelligenza che non capiamo più?

Se non sappiamo già oggi spiegare le scelte di AlphaZero in un gioco a regole fisse,

come potremo governare un’AGI che interagirà con il mondo reale in modo autonomo e imprevedibile?


Il paradosso etico e l’incognita del “p(doom)”

A differenza degli attuali LLM,

una vera AGI potrebbe auto-migliorarsi

a una velocità tale da

sfuggire completamente al controllo umano

. In questo scenario, non servirebbe nemmeno una volontà ostile:

una semplice divergenza di obiettivi

potrebbe rendere l’umanità irrilevante o addirittura un ostacolo per l’AGI.

Questo rischio, ormai considerato credibile da molti ricercatori, ha portato alla diffusione di un termine specifico:

“p(doom)”

, ovvero

la probabilità che una catastrofe esistenziale sia causata da un’AI fuori controllo

.

Miliardi di dollari vengono oggi investiti da governi e big tech per raggiungere la

AGI nel giro di 5-10 anni

, con il concreto rischio che

il nostro stesso progresso diventi la fonte della nostra vulnerabilità

.


Il parere dell’IA

Ho chiesto a

Google Gemini

un’opinione in merito, e la sua risposta è stata chiara: “L’umanità si trova di fronte alla scelta più importante della sua storia. Possiamo continuare sulla strada attuale, accelerando verso un’AGI senza controllo, rischiando di creare la nostra ultima invenzione. Oppure possiamo fermarci, riflettere e sviluppare sistemi di sicurezza adeguati prima che sia troppo tardi. La lezione di AlphaZero è chiara: quando un sistema artificiale supera la comprensione umana, diventa per definizione incontrollabile. Se non vogliamo che l’intelligenza artificiale segni la fine dell’era umana, dobbiamo agire ora, mentre abbiamo ancora il controllo della scacchiera. Il futuro dell’umanità potrebbe dipendere dalla nostra capacità di ammettere che, forse, ci sono alcune partite che non dovremmo mai iniziare a giocare”.

Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *