Una delle difficoltà maggiori che riscontrano i bracci robotici è quella di non riuscire ad afferrare gli oggetti dalle mani di un essere umano. I ricercatori di NVIDIA hanno deciso di superare l’ostacolo e utilizzare l’intelligenza artificiale per poter insegnare ai robot 3.0 i movimenti necessari per riuscire a catturare qualsiasi articolo tenuto in mano da umani.
Per riuscire ad agevolare la sensibilità degli arti artificiali è stato posto in essere uno studio parallelo che sta dando buoni riscontri e che riguarda il derma robotico, ma per avere un risultato soddisfacente è oggettivamente importante che i robot 3.0 siano in grado di essere istruiti nei gesti utili al fine di impugnare qualsivoglia arnese.
Robot 3.0: gli studi dei ricercatori NVIDIA
Il primo step condotto dai ricercatori NVIDIA è stato quello di catalogare i movimenti fondamentali che compie la mano di un individuo nel momento in cui sta per agguantare qualcosa: “palmo aperto”, “stretto alla base”, “stretto in cima”, “stretto di lato” o “sollevato”.
Utilizzando Microsoft Azure Kinect è stato compilato un dataset AI di immagini di un soggetto che replica alcuni movimenti per almeno 60 secondi. Il programma ha di conseguenza registrato la forma della mano, con il soggetto in movimento per permettere alla fotocamera di variare il punto di vista. Grazie a questo lavoro, è stato possibile catturare oltre 150.000 immagini.
Il secondo passaggio è stato quello di pianificare quello che i ricercatori hanno definito “un robusto sistema logico-dinamico” che determina un movimento che eviti il contatto tra l’appendice prensile e la mano dell’individuo, sempre tenendo presente il primo step.
Robot 3.0: efficienza del sistema Azure Kinect
Il robot 3.0 dovrà attendere che il soggetto porga il materiale da prendere e sino ad allora il braccio robotico rimarrà in attesa. Questo sistema si è dimostrato migliore di tutti gli studi che lo hanno preceduto sia per quanto riguarda il successo della presa (100% rispetto all’80% del sistema con il secondo risultato migliore), sia in termini di successo della pianificazione (un tasso del 64,3% rispetto al 29,6%).
I ricercatori hanno dichiarato: “Abbiamo descritto un sistema che renda possibile un agevole passaggio umano-robot 3.0 con la classificazione di diversi tipi di presa. Nel futuro vogliamo rendere più flessibile il sistema di pianificazione e supportare più tipi di presa. Crediamo che lo stesso approccio possa essere applicato a molti altri tipi di collaborazione uomo-robot”.
“La principale limitazione del nostro approccio è che si applica solamente ad un singolo insieme di tipi di presa, quindi abbiamo in programma di imparare le posizioni corrette di vari tipi di presa a partire da dati invece che da regole specificate manualmente. Sulla base della risposta ricevuta dai soggetti che ci hanno aiutato nel test abbiamo inoltre intenzione di rendere i movimenti del robot più comprensibili e amichevoli” . Ha concluso il team NVIDIA.