Myfacemood - I Robot imparano il linguaggio del corpo!

Il linguaggio del corpo dice molto ma, nonostante i passi da gigante che i robot hanno fatto nel riconoscimento facciale negli ultimi anni, potrebbe accadere che certi segnali del corpo umano vadano persi…

I ricercatori della Carnegie Mellon University hanno però sviluppato un sistema di monitoraggio del corpo che potrebbe aiutare a risolvere questo problema!
E’ chiamato OpenPose e può tenere traccia del movimento del corpo in tempo reale, comprese le mani ed il viso.
Utilizza la visione del computer e l’apprendimento artificiale per elaborare i frames video, riuscendo a tenere traccia di più persone contemporaneamente. Questa capacità potrebbe facilitare le interazioni uomo-robot e aprire la strada per una realtà virtuale più complessa e aumentata!

Una notevole funzionalità del sistema OpenPose, è che può tracciare non solo la testa, il tronco e gli arti di una persona, ma anche le dita individualmente. Per fare questo, i ricercatori hanno utilizzato il Panoptic Studio di CMU, una vera e propria cupola che ha installate ben 500 telecamere dalle quali hanno catturato in immagini le diverse posizioni del corpo, utilizzandole poi per costruire un set di dati.

Hanno poi passato quelle immagini attraverso ciò che viene chiamato un “rilevatore di punti chiave” per identificare ed etichettare delle parti specifiche del corpo. Il software impara anche ad associare le parti del corpo con gli individui, quindi sa, ad esempio, che una mano di una persona sarà sempre vicino al suo gomito, e così via… Consentendogli così di individuare più persone contemporaneamente!

Le immagini della cupola sono state fatte in 2D, ma i ricercatori hanno preso i punti chiave rilevati e li hanno triangolati in 3D per aiutare gli algoritmi del monitoraggio del corpo, a capire come ogni posa possa apparire da diverse prospettive.
Con tutti questi dati elaborati, il sistema può determinare come di sia posizionata ad esempio una mano, anche se alcune delle sue dita sono oscurate!

Una volta acquisito il set di dati, il tutto può essere eseguito solo con una fotocamera e un computer portatile, non richiedendo più l’usa della cupola per determinare le pose del corpo e rendendo così la tecnologia mobile ed accessibile.
I ricercatori cercano di incoraggiarne la sperimentazione, rivelando come questa tecnologia potrebbe essere applicata in tutti i tipi di interazioni tra gli esseri umani e le macchine.

“Può svolgere un ruolo importante nelle esperienze VR, permettendo una migliore individuazione del movimento fisico dell’utente senza alcun hardware aggiuntivo, come sensori stick-on o guanti!”, dicono i ricercatori del progetto.

Percependo e interpretando i gesti fisici, il robot potrà persino imparare a leggere le emozioni seguendo il linguaggio del nostro corpo!

2018 © Myfacemood Social Network Italiano | Realizzato da  Hogueraweb

Contattaci

Per qualsiasi domanda o informazione scrivici, risponderemo nel più breve tempo possibile.

Sending
or

Log in with your credentials

or    

Forgot your details?

or

Create Account