VÍDEOS, EXPLICACIÓN DE LA PARTE VISUAL

En los dos siguientes vídeos se pueden apreciar nuestros avances hasta el momento, por problemas con la cámara no hemos podido grabar el sonido explicando los detalles.

Vamos a explicar un poco la parte visual en la pantalla del ordenador del programa, aunque quizás no sea lo más importante, porque utilizaremos toda la información para que el robot actúe de una determinada forma, o te diga que te acerques o te alejes, pero no te lo mostrará en una pantalla. Sin embargo, en nuestro desarrollo hemos incluido imágenes y colores para que se vea fácilmente lo que ocurre en la pantalla del ordenador.

DETECCIÓN DE EMOCIONES

Cada emoción saldrá de un color. Recordamos que las emociones sonrisa fuerte, sonrisa floja, sorpresa y neutral se detectarán en la boca, y cada una de ellas saldrá de un color. A parte, el enfado, detectado en los ojos saldrá de color azul. Estos colores indican lo que instantáneamente detectan los clasificadores, sin tener en cuenta nuestro filtrado posterior.

En nuestro filtrado posterior, como ya explicamos antes, vemos de 20 capturas cuál es la emoción predominante, basándonos en una serie de parámetros que determinamos por simple prueba y observación. Con esto, cuando sepamos qué emoción predomina, mostramos una imagen con esa emoción en la ventana de estado. Buscamos robustez, y por tanto, podremos observar que es mejor detectar el estado normal de más que detectar una emoción cuando no la haya.

En el siguiente vídeo demostramos la parte visual del programa de la parte de detección de emociones.

VÍDEO 1: Deteccíon de emociones. Demo by Dani.

http://lorien.die.upm.es/juancho/20090506184145.mpg

DETECCIÓN DE DISTINCIÓN ENTRE DOS PERSONAS

Como ya indicamos lo haremos basándonos en el clasificador de enfado y se abrirá otra ventana en la que saldrá una foto de Dani o de Jorge, según quien sea el que está enfrente. Como en el caso de Jorge no tenemos grabados los clasificadores, no aparecerá su emoción, sino una cara interrogante.

DETECCIÓN DE DISTANCIAS Y MOVIMIENTO

Como ya se explicó en una entrada anterior, las distancias tendrán distintos rangos, que aparecerán en otra ventana nueva, que nos indicará si estamos demasiado cerca o demasiado lejos.

Otra ventana utilizará la función del movimiento indicandono si nos hemos acercado o alejado o nos hemos quedado quietos.

En caso de no estar en el rango óptimo, no nos indicará ni quién es la persona, ni que estado emocional tiene, porque podría fallar y simplemente sale una cara interrogante en ambas ventanas.

En el siguiente vídeo demostramos la parte visual del programa de la parte de detección de distinción entre Dani y Jorge y de detección de distancia y movimiento.

VÍDEO 2: Detección de distinción entre dos personas, de distancias y movimiento by Jorge.

http://lorien.die.upm.es/juancho/20090506184912.mpg

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: