Meta, i progetti sugli occhi dei robot e i gesti sempre più umani: di cosa si tratta e perché sono un passo avanti per l’intelligenza artificiale – Il video

L’azienda di Mark Zuckerberg ha svelato due sviluppi nel settore robotico, tra cui anche la «coordinazione adattiva delle abilità» che permette ai robot di svolgere azioni sempre più simili a quelle umane

Per quanto possa sembrare strano, i robot basati su sistemi di intelligenza artificiale fanno molta più fatica ad apprendere le più basilari attività motorie che a elaborare un pensiero astratto o creativo. Questa situazione, nota come paradosso di Moravec, ha spinto sempre più aziende a investire per rendere i propri robot più agili a muoversi nello spazio. E proprio oggi Meta ha annunciato due importanti progressi. Il primo consiste nello sviluppo di una corteccia visiva artificiale. La seconda novità è la coordinazione adattiva delle abilità (Asc), un nuovo approccio che – spiega Meta – «permette di raggiungere prestazioni quasi perfette nei compiti di manipolazione mobile robotica. In altre parole: muoversi verso un oggetto, raccoglierlo, spostarlo, posizionarlo in un altro posto. A rendere possibili queste due innovazioni, che Meta descrive come «importanti progressi», è soprattutto l’enorme mole di dati messa a disposizione dei sistemi di intelligenza artificiale. Un prerequisito indispensabile per permettere all’IA di imparare a svolgere i compiti che gli vengono chiesti. Però c’è un problema: avere a disposizione così tanti dati ha un costo molto elevato. Per questo, Meta ha pensato di usare solo in parte i video di interazioni umane con il mondo reale. Il grosso del materiale raccolto per addestrare l’intelligenza artificiale è stato prodotto all’interno di mondi simulati fotorealistici, come il metaverso.


La corteccia visiva per robot

La prima novità annunciata oggi da Meta è lo sviluppo di una corteccia visiva artificiale. Ma di cosa si tratta? Sostanzialmente, di quella regione del cervello che consente a un organismo di convertire la visione in movimento. Il team dell’azienda guidata da Mark Zuckerberg ha pensato di creare una corteccia visiva ad hoc per i robot, così da permettergli di imparare a svolgere alcune semplici funzioni motorie. I test si sono svolti nell’ambiente simulato di Cortex Bench, un sistema «composto da 17 diversi compiti sensomotori, che abbracciano locomozione, navigazione e manipolazione» degli oggetti. Per integrare tutte queste diverse funzioni, la VC-1 – come è stata ribattezzata la nuova corteccia visiva artificiale – ha richiesto 4mila ore di video.


La coordinazione adattiva delle abilità

Il secondo passo in avanti annunciato oggi, come detto, riguarda la coordinazione adattiva delle abilità. Spiegata in parole semplici: se la corteccia visiva artificiale permette ai robot di fare alcune attività di breve orizzonte, il passo successivo consiste nello svolgere attività a lungo raggio e in ambienti complessi, più simili al mondo reale. Ed è qui che entra in gioco la Adaptive skill coordination (Asc), che permette ai robot di muoversi all’interno di un ambiente, cercare degli oggetti, spostarli e ripetere le operazioni. Per insegnare all’IA come svolgere tutti questi compiti, il team di Meta ha dovuto insegnare ai robot quali abilità specifiche utilizzare per ogni tipo di gesto.

Credits video di copertina: META

Leggi anche: