Il CEO di IBM spiega perché l’attuale intelligenza artificiale non è all’altezza dell’AGI

8

Il CEO di IBM Arvind Krishna non crede che l’intelligenza artificiale di oggi sia sulla strada diretta verso l’intelligenza generale artificiale (AGI). Nonostante la lunga storia di IBM nel campo dell’informatica – dalle tecnologie fondamentali del 20° secolo al più recente supercomputer Watson – Krishna riconosce i passi falsi del passato e spiega perché l’attuale passaggio verso l’intelligenza artificiale generativa è allo stesso tempo promettente e fondamentalmente diverso.

L’evoluzione dell’intelligenza artificiale in IBM

Per decenni, IBM è stata uno dei principali attori nella ricerca sull’intelligenza artificiale. La vittoria di Watson nel 2011 in Jeopardy! ha messo in luce l’elaborazione precoce del linguaggio naturale, ma Krishna ammette che spingere Watson nel settore sanitario troppo presto è stato “inappropriato”. L’approccio iniziale era troppo monolitico; gli ingegneri desideravano modularità e personalizzazione.

La differenza fondamentale ora è il passaggio da modelli di deep learning su misura, che richiedevano enormi set di dati etichettati e una riqualificazione costante, a modelli linguistici di grandi dimensioni (LLM). Gli LLM sfruttano il calcolo della forza bruta per ottenere un miglioramento di 100 volte in termini di velocità, ottimizzazione e distribuibilità.

Il punto di flesso LLM

Mentre Google è stato il pioniere di alcune delle tecnologie LLM sottostanti (come il documento “L’attenzione è tutto ciò di cui hai bisogno”), il perno del settore verso i LLM è stato un punto di svolta cruciale. Krishna sottolinea che i LLM riducono la necessità di una costante etichettatura umana, rendendoli significativamente più scalabili e adattabili.

Questo cambiamento non è privo di costi. L’infrastruttura per i LLM richiede massicci investimenti in GPU e data center e i rendimenti non sono garantiti. Tuttavia, Krishna ritiene che i progressi dei semiconduttori e le architetture alternative (come quelle di Groq e Cerebras) ridurranno i costi nei prossimi cinque anni.

Oltre i LLM: la scommessa quantistica

Nonostante l’attuale clamore attorno ai LLM, Krishna sottolinea che questa non è la “fine di tutto”. IBM continua a investire pesantemente nell’informatica quantistica, riconoscendo che gli LLM sono solo un passo in un’evoluzione tecnologica più lunga. L’informatica quantistica rimane una scommessa a lungo termine, ma Krishna ritiene che contenga la chiave per risolvere problemi che vanno oltre la portata dell’intelligenza artificiale classica.

In definitiva, IBM si sta posizionando per un futuro in cui l’intelligenza artificiale non riguarderà solo calcoli più rapidi, ma funzionalità fondamentalmente nuove.

La transizione è costosa e incerta, ma Krishna rimane fiducioso che IBM non verrà lasciata indietro.