Los robots llevan tiempo ayudando a los humanos a producir una gran variedad de productos. El problema es que los brazos gigantes son en su mayoría tontos y tienen un gran radio de acción en el que los humanos no deberían poder meterse, de lo contrario puede ser peligroso. La colaboración entre humanos y robots y, por lo tanto, hacer que estos robots sean "inteligentes" es una rama importante de la investigación. Además, la tecnología incorporada es cada vez más precisa, como demuestran, por ejemplo, la BionicSoftHand y la BionicSoftArm de Festo. Sin embargo, hay que enseñar al robot a saber en los momentos adecuados qué tipo de objeto tiene en su "mano" y cómo manejarlo.
Los científicos del MIT han desarrollado ahora un guante repleto de sensores llamado STAG (scalable tactile glove) que podría facilitar a los robots el agarre de objetos. El guante de tela está equipado con más de 500 sensores que captan datos del objeto. Los investigadores lo utilizaron para tocar, llevar y hacer cosas con un total de 26 objetos diferentes, como una botella de agua, una pelota de tenis, una taza de café, un bolígrafo, unas tijeras y otros. Los datos registrados por los sensores sensibles a la presión se pusieron a disposición de una red neuronal, que pudo ser entrenada. Basándose en esto, la red fue capaz de determinar "a ciegas" con un 76% de precisión qué objeto se estaba sujetando. La estimación del peso también fue muy precisa, con una desviación de poco menos de 60 gramos.
En combinación con la visión por ordenador y similares, la red podría garantizar que los robots puedan interactuar de forma más humana con sus "colegas" humanos y saber qué objeto se les entrega y qué hacer con él a continuación. Pero los datos también pueden ser muy útiles en la construcción de prótesis para colocar mejor los sensores de presión y co.
En contraste con muchos guantes sensibles a la presión utilizados hasta ahora, que cuestan miles de dólares, el STAG ha generado costes de material de sólo 10 dólares. Si quieres conocer todos los detalles de la tecnología, puedes leer el artículo en Nature.