El monstruo de los mil ojos

Compartir

¿Qué ve un robot? En muchas películas se nos muestra que los robots son más efectivos para localizar personas debido a su visión. Pero sus ojos no son como los nuestros. ¿Te has preguntando cómo ven los robots?

Veamos algunos de los dispositivos que se usan para dar vista a los robots.

Sensores de presencia

Un elemento que puede activar un dispositivo automático es un sensor de presencia tipo PIR. Este sensor recibe radiaciones infrarrojas (calor) y detecta rápidamente cualquier cambio. Has visto uno de estos, pero no sabías como funcionaba: las luces que se encienden automáticamente o las alarmas que a veces ponen en las tiendas para avisar que alguien ha entrado usan sensores de este tipo.

Sonares

Ya mencionamos en mapas para robots los sensores ultrasónicos. Lo que no dijimos es que los puedes ver en acción en autos que los usan para ayudar a las personas para estacionarse.

Estos mismos sensores se han usado para ponerlos en bastones para ciegos con la intensión de ayudarlos en su paso por las calles, como en este proyecto de estudiantes de nuestra Facultad de Electrónica.

(imagen: Bastón inteligente)

Sensores de luz

Existen componentes como las fotorresistencias o los fototransistores, que detectan cambios en la intensidad de luz.

Para la luz visible puedes usar fototransistores para hacer dispositivos como la luciérnaga que hicimos en el Hipercubo:

Para los fototransistores el uso más común es para los robots seguidores de línea. Estos robots tienen un led que manda una luz infrarroja contra el suelo, al rebotar se dirige a un fototransistor que, dependiendo de la cantidad de luz que le llega, reconoce que es una zona blanca o una zona negra. Es importante que la luz emitida sea infrarroja para que la luz ambiental no lo confunda.

Mira el que hacemos en los talleres de robótica:

¿Sabías que hay concursos de robots seguidores de línea? Este video es del concurso Guerra de dioses, de la Facultad de Ciencias de la Computación de nuestra universidad, donde chicos de nuestros programas académicos se miden con otras universidades e institutos.

Recordemos que la luz es una onda electromagnética, y dependiendo de su frecuencia será visible o no para nuestros ojos. La luz infrarroja es luz que no podemos ver y que tiene una frecuencia menor a la del color rojo (de ahí su nombre), y a luz ultravioleta tampoco es visible y se encuentra en el otro lado del espectro. Otras ondas electromagnéticas reciben nombre como radiación gama u ondas milimétricas.

Aunque no hay muchos robots que usen sensores de ondas de radio milimétrico, no sería imposible que los hubiera en el espacio. Esto porque los radiotelescopios tienen esa función, como el Gran Telescopio Milimétrico (GTM), que se encuentra en la Sierra Negra de Puebla y que se utiliza para descubrir cuerpos del espacio sin elementos ópticos. También ahí se encuentra el observatorio de rayos gamma HAWC.

LIDAR

SI en vez de mandar un sonido ultrasónico mandas un pulso de láser tienes un LIDAR, que permite mayor detalle en la obtención de datos. Es de esta forma como puedes obtener una imagen tridimensional de lugares como túneles o incluso áreas grandes por medio de lidares topográficos montados en aviones.

En el video se muestra un robot reconociendo una habitación con este sensor.

Aquí con un drone:

Cámaras

Lo más cercano al ojo humano que usan los robots son las cámaras. Procesamiento de imágenes, reconocimiento de imágenes son dos disciplinas que apoyan a robot para que comprenda lo que está viendo.

En el primer caso se captura la imagen y se procesa de algún modo. Puede ser quitándole ruido (las motitas que luego aparecen en las fotos), cambiando la relación de contraste o inclusive remarcando los entornos.

Cuando queremos saber el sexo de nuestro bebé usamos el procesamiento de imágenes en ecografías tanto en 2D como en 3D.

Una vez hecho lo anterior el reconocimiento de imágenes le dice al robot que está viendo: una letra, una pelota o una persona.

En el procesamiento se tienen procedimientos con algoritmos que generalmente usan conceptos matemáticos para llevarlos a cabo. Pero en el reconocimiento se deben usar herramientas de inteligencia artificial para que el robot aprenda, relacione y recuerde objetos que pertenecen a ciertas categorías, y reconozca que tiene frente a él una persona y no una pelota.

Se puede solamente poner la cámara sobre un robot y que un operador le indique que hacer después de ver la imagen. Como en el caso de Tlaloc II que entró en la pirámide de Teotihuacan supervisado por un humano.

Pero lo más interesante es cuando el robot mismo decide lo que debe hacer.

Ya hay robots humanoides que pueden decidir si lo que tienen enfrente es una persona y como interactuar con ella. El más célebre es Asimo, el cual puede mantener una plática sencilla y entender órdenes simples.

El reconocimiento de imágenes en 2012 se planteaba para activar la realidad aumentada, como se indica en este video.

¿Para que han servido estos avances? Pues hace poco salió el juego de Pókemon Go, que usa GPS, realidad aumentada, reconocimiento de imágenes, entre otras tecnologías, para lograr lo que muchos videojuegos no lograron: que los chicos hagan ejercicio saliendo a la calle a caminar y buscar estos bichos.

Así se generó un monstruo de miles de ojos que busca pokemones.

Divulgador científico. Matemático de formación, apasionado de la ciencia y la tecnología, sobre todo de los robots.

Be first to comment