Notebookcheck Logo

Google travaille sur une nouvelle technologie permettant aux appareils de lire le langage corporel humain

Le capteur radar Soli de Google a de multiples applications, comme la possibilité de savoir quand un humain regarde un appareil. (Image source : Google)
Le capteur radar Soli de Google a de multiples applications, comme la possibilité de savoir quand un humain regarde un appareil. (Image source : Google)
Dans une récente vidéo, Google a partagé des informations sur sa technologie de détection radar Soli qui, espère-t-il, rendra les appareils moins interruptifs en lisant les signaux humains subtils. La même technologie est déjà utilisée dans la fonctionnalité Motion Sense du Pixel 4.

Google a dévoilé plus d'informations sur sa technologie radar Soli pour les interactions non verbales entre humains et ordinateurs. Par exemple, une interaction non verbale pourrait consister à interagir avec un appareil en agitant la main ou en tournant la tête. La technologie, que la société est encore en train de développer, combine des capteurs de mouvement et des algorithmes.

Dans une vidéo récente, Google explique le fonctionnement des capteurs et des algorithmes à l'adresse https://www.youtube.com/watch?app=desktop&v=r-eh2K4HCzI&t=42s et décrit les futurs cas d'utilisation. Selon l'entreprise, les avantages de cette technologie sont notamment de réduire la surcharge des appareils et de rendre les gadgets plus utiles et moins intrusifs.

Des gestes tels que "s'approcher et partir" utilisent des algorithmes d'apprentissage profond pour déterminer si quelqu'un se trouve dans "l'espace personnel" d'un appareil. Selon Google, le chevauchement de l'espace personnel est un bon indicateur pour savoir si les humains vont interagir ou simplement passer à côté

Des actions telles que "se détourner/se rapprocher" et "jeter un coup d'œil" sont reconnues par des algorithmes d'apprentissage automatique qui peuvent comprendre un langage corporel plus nuancé. Par exemple, cette technologie peut déterminer le degré de rotation de votre tête, ce qui lui permet de prédire la probabilité d'une interaction avec vous.

Le capteur radar Soli a été lancé en 2015 et a été utilisé dans de multiples appareils Google. Google l'a utilisé dans le Pixel 4 pour Motion Sense pour détecter les gestes de la main, permettant ainsi aux utilisateurs de mettre en pause la musique ou les alarmes sans avoir besoin de toucher leur téléphone. Les capteurs ont également été utilisés dans la fonction de détection du sommeil https://store.google.com/gb/product/nest_hub_sleep_sensing?hl=en-GB fonction disponible dans l'écran intelligent Nest Hub de deuxième génération ; l'outil permet de suivre la qualité de votre sommeil en détectant vos schémas respiratoires et vos mouvements.

Achetez le Google Nest Hub (2nd Gen) sur Amazon

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2022 03 > Google travaille sur une nouvelle technologie permettant aux appareils de lire le langage corporel humain
Polly Allcock, 2022-03- 3 (Update: 2022-03- 3)