Oltre l’era LLM: la ricerca della vera superintelligenza di David Silver

18

David Silver, la mente dietro l’innovativo AlphaGo, ritiene che l’attuale traiettoria dell’intelligenza artificiale sia fondamentalmente errata. Mentre il mondo tecnologico è attualmente ossessionato dai Large Language Models (LLM), Silver sostiene che fare affidamento sui dati generati dall’uomo è un vicolo cieco per raggiungere la vera superintelligenza.

Attraverso la sua nuova impresa, Ineffable Intelligence, Silver sta tentando di allontanare il settore dal “mimetismo” e verso un modello di apprendimento autonomo e autosufficiente.

Il problema dei “combustibili fossili” degli LLM

L’attuale boom dell’intelligenza artificiale è in gran parte guidato dai LLM, sistemi addestrati su enormi set di dati di testi, codici e libri umani. Silver ritiene che questo metodo sia intrinsecamente limitato. Descrive i dati umani come una “specie di combustibile fossile” : un’incredibile scorciatoia che fornisce una spinta iniziale ma che alla fine è finita e non rinnovabile.

Il problema principale è che gli LLM imparano da ciò che gli esseri umani hanno già fatto. Sono riflessi dell’intelligenza umana piuttosto che motori di scoperta indipendenti. Silver presuppone che se un’intelligenza artificiale si limita ai dati umani, non potrà mai superare la conoscenza collettiva dei suoi creatori.

“Si può pensare ai sistemi che apprendono da soli come a un combustibile rinnovabile, qualcosa che può semplicemente imparare, imparare e imparare per sempre, senza limiti”, spiega Silver.

Per illustrare ciò, Silver utilizza un esperimento mentale: se rilasciassi un potente LLM in un mondo in cui tutti credevano che la Terra fosse piatta, l’intelligenza artificiale diventerebbe un esperto “terra piatta”. Senza la capacità di interagire con la realtà o condurre i propri esperimenti, rimane intrappolato nei pregiudizi e nei limiti dei suoi dati di addestramento.

Il percorso verso la superintelligenza: apprendimento per rinforzo

Invece di fornire all’IA più testo, Silver sta raddoppiando l’apprendimento per rinforzo (RL). Questo è il processo in cui un’intelligenza artificiale apprende attraverso prove ed errori, interagendo con un ambiente per raggiungere obiettivi specifici. Questo è stato il meccanismo che ha permesso ad AlphaGo di padroneggiare il gioco del Go, non leggendo libri di strategia, ma giocando milioni di giochi contro se stesso.

La visione di Silver per Ineffable Intelligence è quella di spostare questo concetto dai “mondi confinati” di giochi come Go all’immensa complessità del mondo reale. La sua strategia prevede:

  • Ambienti simulati: inserimento degli agenti IA all’interno di simulazioni altamente sofisticate dove possono interagire, collaborare e testare ipotesi.
  • Scoperta autonoma: Creazione di “superstudenti” che non si limitano a elaborare le informazioni, ma scoprono attivamente nuovi principi scientifici, economici o tecnologici.
  • Intelligenza scalabile: Costruire sistemi in grado di scalare la propria intelligenza senza essere vincolati ai “preconcetti umani” (le nozioni preconcette e i pregiudizi inerenti ai dati umani).

Sicurezza e sfida dell’allineamento

Una preoccupazione significativa nella corsa alla superintelligenza è l’allineamento dell’intelligenza artificiale : garantire che una macchina più intelligente degli esseri umani continui a essere vantaggiosa per l’umanità.

I critici temono che un’intelligenza artificiale che apprende attraverso puri tentativi ed errori possa scoprire soluzioni “ottimali” che sono efficienti ma moralmente catastrofiche. Tuttavia, Silver e i suoi sostenitori, inclusa Lightspeed Ventures, sostengono che il suo approccio potrebbe in realtà essere più sicuro.

Sviluppando questi agenti all’interno di simulazioni controllate, i ricercatori possono osservare i comportamenti emergenti in tempo reale. Possono vedere come un agente tratta le “intelligenze minori” o gestisce obiettivi contrastanti prima che la tecnologia venga mai implementata nel mondo reale. Ciò consente un approccio proattivo alla sicurezza, piuttosto che reattivo.

Una missione ad alto rischio

La portata dell’ambizione di Silver si riflette nel sostegno finanziario di Ineffable Intelligence. La startup si è già assicurata 1,1 miliardi di dollari in finanziamenti seed, raggiungendo una valutazione di 5,1 miliardi di dollari. Si tratta di un dato straordinario per un’azienda di intelligenza artificiale con sede in Europa e sottolinea la fiducia del settore nella “purezza di visione” di Silver.

Nonostante l’enorme ricchezza in gioco, Silver mantiene un atteggiamento filantropico. Si è impegnato a donare tutti i proventi azionari di Ineffable Intelligence a enti di beneficenza ad alto impatto, considerando la ricerca della superintelligenza come una profonda responsabilità verso il futuro dell’umanità.


Conclusione: Mentre l’attuale panorama dell’intelligenza artificiale è dominato da modelli che imitano a pappagallo la conoscenza umana, David Silver scommette che il prossimo salto nell’intelligenza arriverà da macchine che imparano a navigare e comprendere il mondo interamente da sole.