Las emociones se pueden entender, de manera muy simple, como la forma en que las personas responden a estimulos externos o internos. Este tipo de respuestas pueden ser psicologicas y fisiologicas, y representan un mecanismo evolutivo de proteccion y comunicacion. Para la mayoria de personas, la identificacion de las emociones a partir del gesto facial, se realiza de manera casi inconsciente: la interaccion se modula dependiendo del estado emocional percibido. Es diferente la interaccion con una persona percibida como enfadada, que con una persona percibida como feliz. El desarrollo de este proyecto se enfoca en la identificacion automatica de estados emocionales, en tiempo real, a partir de imagenes de rostros. Particularmente, se analizo una de las tres dimensiones en que se puede entender una emocion, llamada valencia. Se utilizaron herramientas de mejoramiento y analisis de imagenes en conjunto con tecnicas de aprendizaje automatico para obtener, a partir de una base de datos, un modelo de identificacion de valencia emocional. Luego, se utilizo el modelo creado para realizar pruebas en tiempo real. Los resultados son prometedores en cuanto que el esquema de procesamiento y generacion del modelo indican la factibilidad de identificar emociones, a partir de gestos faciales en tiempo real. Este proyecto tiene una segunda etapa que esta en desarrollo, la cual utiliza esta herramienta para la estimulacion cognitiva en participantes con espectro autista, de la Clinica Howard Gardner, en Bogota.