Kokotajlo ritarda la previsione di una superintelligenza che potrebbe distruggere l’umanità

Fonti

Fonte: The Guardian, “Leading AI expert delays timeline for its possible destruction of humanity”, 6 gennaio 2026. Link all’articolo originale.

Approfondimento

Daniel Kokotajlo, ex dipendente di OpenAI, ha pubblicato un aggiornamento sul suo modello di tempistica per la possibile distruzione dell’umanità da parte dell’intelligenza artificiale. Nel suo post su LessWrong e su X (Twitter) ha indicato che il progresso verso l’AGI (intelligenza artificiale generale) è più lento di quanto precedentemente stimato.

Kokotajlo ritarda la previsione di una superintelligenza che potrebbe distruggere l'umanità

Dati principali

• 2027: scenario AI 2027, pubblicato da Kokotajlo, descrive un futuro in cui lo sviluppo incontrollato dell’IA porta alla creazione di una superintelligenza che, superando i leader mondiali, distrugge l’umanità.

• 2025: modello di tempistica originale di Kokotajlo prevedeva che entro il 2025 i sistemi di IA avrebbero potuto programmare autonomamente e accelerare lo sviluppo verso la superintelligenza.

• 2026: aggiornamento del 6 gennaio 2026 indica che la capacità di codifica autonoma richiederà più tempo, ritardando la realizzazione della superintelligenza.

Possibili Conseguenze

Se la tempistica si rivede più lunga, le implicazioni per la sicurezza globale includono un periodo di maggiore tempo per sviluppare misure di mitigazione e regolamentazione. Tuttavia, la possibilità di una superintelligenza rimane, con potenziali rischi di perdita di controllo e impatti catastrofici.

Opinione

Il testo non esprime opinioni personali, ma presenta le valutazioni di Kokotajlo sul ritmo del progresso dell’IA.

Analisi Critica (dei Fatti)

La revisione di Kokotajlo si basa su osservazioni tecniche e sulla valutazione delle capacità attuali di codifica autonoma delle IA. Non vi è alcuna prova empirica che dimostri un rapido avanzamento verso la superintelligenza; la stima è quindi prudente.

Relazioni (con altri fatti)

Il scenario AI 2027 è stato oggetto di discussione nella comunità di ricerca sull’IA, con riferimenti a studi su AGI, sicurezza dell’IA e governance globale. Il ritardo nella tempistica è coerente con le preoccupazioni di altri esperti che sottolineano la complessità tecnica del raggiungimento dell’AGI.

Contesto (oggettivo)

Il dibattito su AGI e sicurezza dell’IA è in crescita, con istituzioni accademiche e governi che investono in ricerca e regolamentazione. Le previsioni di tempi di sviluppo variano notevolmente tra i ricercatori.

Domande Frequenti

  1. Chi è Daniel Kokotajlo? È un ex dipendente di OpenAI che ha pubblicato scenari e modelli di tempistica per lo sviluppo dell’AGI.
  2. Che cosa è AI 2027? È un scenario pubblicato da Kokotajlo che descrive un futuro in cui l’IA si sviluppa senza controllo, portando alla creazione di una superintelligenza che distrugge l’umanità.
  3. Qual è la nuova tempistica per la realizzazione della superintelligenza? Secondo l’aggiornamento del 6 gennaio 2026, la capacità di codifica autonoma richiederà più tempo, ritardando la realizzazione della superintelligenza rispetto al 2025.
  4. Quali sono le implicazioni di questo ritardo? Un periodo più lungo offre opportunità per sviluppare misure di sicurezza e regolamentazione, ma la possibilità di una superintelligenza rimane.
  5. Dove posso leggere l’articolo originale? Sul sito The Guardian: link.

Commento all'articolo