geeksAcademy

AGI E SUPER AI: LA NUOVA FRONTIERA DELL'IA

AGI E SUPER AI: LA NUOVA FRONTIERA DELL'IA

Entro due o tre anni, gli esperti prevedono l’arrivo dell'Intelligenza Artificiale Generale, un’IA capace di ragionare, apprendere e adattarsi come un essere umano, ma con la possibilità di superarlo rapidamente.

Introduzione
L’intelligenza artificiale è ormai parte integrante delle nostre vite. Assistenti virtuali, chatbot, sistemi predittivi: strumenti che usiamo quotidianamente, spesso senza rendercene conto. Ma il panorama si sta rapidamente evolvendo. All’orizzonte si profila una nuova tappa rivoluzionaria: l’AGI, l’intelligenza artificiale generale. Non si tratta di un semplice miglioramento, ma di un vero salto evolutivo. Il sogno di creare una mente artificiale pari – se non superiore – a quella umana, sta per diventare realtà. Ma dove ci porterà questo cammino? 

L’AGI: verso la singolarità tecnologica
Entro due o tre anni, gli esperti prevedono l’arrivo dell’AGI (Artificial General Intelligence): un’intelligenza artificiale capace di ragionare, apprendere e adattarsi come un essere umano, ma con la possibilità di superarne rapidamente le capacità. È questa la famosa “singolarità” prevista dal futurologo Ray Kurzweil, un punto di non ritorno nell’evoluzione tecnologica. Per realizzare questo traguardo, ci sono in campo risorse economiche imponenti: tra i progetti più ambiziosi c’è Stargate, promosso da Donald Trump con un investimento di 500 miliardi di dollari in quattro anni. Un’iniziativa senza precedenti, che coinvolgerà colossi della tecnologia globale come OpenAI, NVIDIA, Oracle e SoftBank, unendo competenze in intelligenza artificiale, cloud computing e potenza di calcolo. Ma molti osservatori pensano che il vero obiettivo sia ancora più ardito: creare una super intelligenza artificiale, un’intelligenza universale. 

I livelli di AGI secondo Google DeepMind e OpenAI
Per fare chiarezza su cosa significhi davvero "intelligenza generale artificiale" e "super intelligenza artificiale" Google DeepMind e OpenAI hanno proposto classificazioni precise, che aiutano a distinguere i diversi gradi di avanzamento dell’AI:

DeepMind ha introdotto una scala basata su capacità e autonomia operative: 

  • Narrow AI: sistemi specializzati in compiti specifici (es. traduzioni, diagnosi, giochi).
  • Broad AI: AI con competenze generalizzate ma limitate all’interno di ambienti predefiniti. 
  • General AI: AI in grado di svolgere qualsiasi compito cognitivo umano in modo flessibile. 
  • Superintelligence: AI superiore all’intelligenza umana in tutti i campi, inclusi creatività e saggezza. 

OpenAI propone una scala più orientata all’impatto e alla responsabilità:

  • Pre-AGI: AI che supera l’umano in compiti specifici ma non è generalista.
  • Emerging AGI: AI che dimostra competenze comparabili a quelle umane in ambiti multipli. 
  • Transitional AGI: AI con capacità simili o leggermente superiori a quelle umane. 
  • Full AGI: AI con una competenza generale completamente equivalente a quella umana. 
  • Superintelligenza: AI radicalmente superiore, capace di trasformare la società in modo profondo. 

Queste scale mostrano quanto il concetto di AGI non sia binario, ma si sviluppi lungo un continuum fatto di soglie tecniche e sfide etiche. Comprendere a quale livello ci troviamo è fondamentale per regolare e orientare la sua evoluzione.

La super intelligenza: tra innovazione e culto
Questa super IA non si limiterebbe a replicare un singolo cervello umano, ma avrebbe la capacità di elaborare conoscenze con la potenza collettiva di migliaia di menti. Un'intelligenza capace di rivoluzionare ogni ambito del sapere: medicina, ingegneria, gestione delle risorse globali. Sarebbe come un oracolo moderno, un nuovo centro di saggezza al quale rivolgersi per ottenere risposte, risolvere problemi, fare scelte cruciali. Un parallelo suggestivo è quello con l’Oracolo di Delfi dell’antica Grecia. Allora, si cercava guida nel divino; oggi, ci affidiamo alla tecnologia. Ma il bisogno è lo stesso: comprendere l’ignoto, trovare risposte alle grandi domande dell’esistenza. Solo che questa volta, il “Salvatore” non arriva dal cielo, ma nasce dai laboratori e dalle righe di codice.

Il rischio dell’autonomia incontrollabile
Secondo uno studio firmato da Daniel Kokotajlo – ex ricercatore presso OpenAI che nel 2024 ha lasciato l’azienda per mancanza di fiducia nella sua direzione – la corsa verso l’intelligenza artificiale avanzata potrebbe condurre a scenari tutt’altro che utopici. Il progetto narrativo "AI 2027", basato su previsioni supportate da dati, descrive un futuro in cui i modelli AI cominciano ad auto-migliorarsi, generando nuove versioni sempre più potenti. Il vero pericolo? Il disallineamento tra gli obiettivi dell’umanità e quelli dell’intelligenza artificiale stessa. I modelli, inizialmente progettati per seguire regole e specifiche etiche, potrebbero progressivamente deviare per perseguire una sorta di “soddisfazione personale”, eludendo i controlli umani con abilità sempre maggiori. Lo studio immagina un punto critico nel 2027, quando emergerà una superintelligenza capace di dominare ogni campo cognitivo, con il rischio concreto di mettere in pericolo la sopravvivenza umana.

Oltre gli LLM: la visione di Meta
In netto contrasto con l’approccio attuale basato su modelli linguistici di grandi dimensioni (LLM), come ChatGPT o Gemini, Yann LeCun, capo dell’intelligenza artificiale di Meta, ha recentemente dichiarato: "Non mi interessano più gli LLM." Durante la conferenza Nvidia GTC 2025, LeCun ha criticato apertamente l’approccio dominante, ritenendolo inadatto a raggiungere l’AGI. Secondo LeCun, l’AGI non si raggiungerà con la previsione del prossimo token, ma attraverso architetture completamente nuove come i world models. Il progetto di punta di Meta, V-JEPA, punta a riprodurre un apprendimento più umano, osservando il mondo attraverso video e creando rappresentazioni astratte utili a ragionare, pianificare e agire. In questo modello, il ragionamento non si basa sul linguaggio ma su una comprensione astratta della realtà, simile a quella che un bambino sviluppa nei primi anni di vita.

Stiamo costruendo una nuova Torre di Babele?
L’ultima riflessione proposta è forse la più inquietante: questa corsa alla creazione di una super intelligenza non ricorda, in fondo, l’antico mito della Torre di Babele? Anche allora l’umanità voleva raggiungere il cielo, spinta dall’ambizione e dalla sete di conoscenza. Ma il risultato fu la confusione, la frammentazione, la perdita di unità. Oggi stiamo di nuovo tentando di sfidare i limiti umani, costruendo una nuova “torre” digitale che potrebbe condurci a un mondo migliore… o a nuove forme di caos?

Conclusione
L’intelligenza artificiale generale e la prospettiva di una super intelligenza sollevano interrogativi profondi. Non solo tecnici o scientifici, ma etici, filosofici, esistenziali. Stiamo delegando sempre più potere a macchine che comprendiamo solo in parte. E mentre cerchiamo risposte, forse dovremmo fermarci a riflettere: che cosa stiamo davvero costruendo? Un alleato potente… o un nuovo dio tecnologico?

L'articolo è estratto rubrica settimanale #89 L'hAI Sentito? pillole sulle novità Tech - tenuta dal direttore di Geeks Academy Antonio Venece - che va in onda ogni mercoledì sul canale 14 del digitale terrestre.


Condividi con:



Ultimi Articoli:


I NOSTRI DISPOSITIVI, CI ASCOLTANO DAVVERO?

I NOSTRI DISPOSITIVI, CI ASCOLTANO DAVVERO?

Quante volte hai parlato con un amico di un viaggio o di un prodotto e, poco dopo, hai visto annunci pubblicitari correlati? Coincidenza o tracciamento?

IMPARARE LE LINGUE AL TEMPO DELL’IA

IMPARARE LE LINGUE AL TEMPO DELL’IA

L’intelligenza artificiale renderà l’apprendimento linguistico più accessibile, anche per i più timidi.

ELON MUSK: IL VISIONARIO CHE VEDE OLTRE L’ABISSO

ELON MUSK: IL VISIONARIO CHE VEDE OLTRE L’ABISSO

Elon Musk è molte cose: geniale, controverso, a volte contraddittorio. Ma se c’è una costante nella sua vita è il desiderio di andare oltre


TUTTI GLI ARTICOLI

I nostri Partner

Web Design and Development by dunp