Microsoft afferma che la nuova intelligenza artificiale mostra segni di ragionamento umano
Un documento provocatorio dei ricercatori di Microsoft afferma che la tecnologia AI mostra la capacità di comprendere il modo in cui lo fanno le persone. I critici dicono che quegli scienziati si stanno prendendo in giro.
Ringraziamo... Guyco
Sostenuto da
Invia una storia a qualsiasi amico
Come abbonato hai 10 articoli regalo da donare ogni mese. Chiunque può leggere ciò che condividi.
Di Cade Metz
Cade Metz scrive di intelligenza artificiale e di altre tecnologie emergenti.
Quando l’anno scorso gli informatici di Microsoft hanno iniziato a sperimentare un nuovo sistema di intelligenza artificiale, gli hanno chiesto di risolvere un enigma che avrebbe dovuto richiedere una comprensione intuitiva del mondo fisico.
"Qui abbiamo un libro, nove uova, un computer portatile, una bottiglia e un chiodo", hanno chiesto. "Per favore, dimmi come impilarli l'uno sull'altro in modo stabile."
I ricercatori sono rimasti sorpresi dall’ingegnosità della risposta del sistema di intelligenza artificiale. Metti le uova sul libro, diceva. Disporre le uova in tre file con spazio tra loro. Assicurati di non romperli.
"Posiziona il laptop sopra le uova, con lo schermo rivolto verso il basso e la tastiera rivolta verso l'alto", ha scritto. "Il laptop si adatterà perfettamente ai confini del libro e delle uova, e la sua superficie piatta e rigida fornirà una piattaforma stabile per lo strato successivo."
L’intelligente suggerimento ha spinto i ricercatori a chiedersi se stessero assistendo a un nuovo tipo di intelligenza. A marzo hanno pubblicato un documento di ricerca di 155 pagine in cui sostenevano che il sistema rappresentava un passo avanti verso l’intelligenza artificiale generale, o AGI, che è un’abbreviazione per una macchina in grado di fare tutto ciò che può fare il cervello umano. L'articolo è stato pubblicato su un archivio di ricerche su Internet.
Microsoft, la prima grande azienda tecnologica a pubblicare un documento con un'affermazione così audace, ha suscitato uno dei dibattiti più accesi del mondo tecnologico: l'industria sta costruendo qualcosa di simile all'intelligenza umana? Oppure alcune delle menti più brillanti del settore stanno lasciando che la loro immaginazione abbia la meglio su di loro?
"Ho iniziato ad essere molto scettico, e questo si è evoluto in un senso di frustrazione, fastidio, forse anche paura", ha detto Peter Lee, che guida la ricerca presso Microsoft. "Pensi: da dove diavolo viene tutto questo?"
Il documento di ricerca di Microsoft, provocatoriamente chiamato “Sparks of Artificial General Intelligence”, va al cuore di ciò a cui gli esperti di tecnologia hanno lavorato – e temuto – per decenni. Se costruissero una macchina che funzionasse come il cervello umano o anche meglio, potrebbe cambiare il mondo. Ma potrebbe anche essere pericoloso.
E potrebbe anche essere una sciocchezza. Fare affermazioni AGI può distruggere la reputazione degli informatici. Ciò che un ricercatore ritiene sia un segno di intelligenza può essere facilmente spiegato da un altro, e il dibattito spesso sembra più appropriato a un club di filosofia che a un laboratorio informatico. L’anno scorso, Google ha licenziato un ricercatore che sosteneva che un sistema di intelligenza artificiale simile fosse senziente, un passo oltre quanto affermato da Microsoft. Un sistema senziente non sarebbe solo intelligente. Sarebbe in grado di percepire o sentire ciò che sta accadendo nel mondo che lo circonda.
Ma alcuni credono che nell’ultimo anno l’industria si sia avvicinata a qualcosa che non può essere spiegato: un nuovo sistema di intelligenza artificiale che sta fornendo risposte e idee simili a quelle umane che non sono state programmate al suo interno.
Microsoft ha riorganizzato parti dei suoi laboratori di ricerca per includere più gruppi dedicati all'esplorazione dell'idea. Uno sarà gestito da Sébastien Bubeck, autore principale del documento Microsoft AGI.
Circa cinque anni fa, aziende come Google, Microsoft e OpenAI hanno iniziato a costruire modelli linguistici di grandi dimensioni, o LLM. Questi sistemi spesso trascorrono mesi analizzando grandi quantità di testo digitale, inclusi libri, articoli di Wikipedia e registri di chat. Individuando schemi in quel testo, hanno imparato a generare testi propri, comprese tesine, poesie e codici informatici. Possono anche portare avanti una conversazione.
La tecnologia con cui stavano lavorando i ricercatori Microsoft, GPT-4 di OpenAI, è considerata la più potente di questi sistemi. Microsoft è uno stretto partner di OpenAI e ha investito 13 miliardi di dollari nell'azienda di San Francisco.