espanolEl prototipo desarrollado es capaz de tomar lospuntos de una escena captada por medio del sensorde profundidad de Kinect, aplicar un filtro para eliminardatos innecesarios y posteriormente mostrarel Mesh o maya que reconstruye la imagen de laescena final en 2D, estableciendo la diferencia dedistancias con el cambio de color. El aplicativo detectala localizacion de la o las manos en el Mesh,luego toma imagenes del gesto manual y las comparacon imagenes almacenadas en archivo; estascuentan con la traduccion respectiva. Si encuentrauna imagen con alto grado de coincidencia se devuelveel texto correspondiente. Los resultados dela investigacion permiten reconocer las fases, libreriasy plataformas optimas para el procesamientode imagenes, implementado en el prototipo. EnglishThe prototype developed it is able for taking thescene points captured through the depth Devi-ce of Kinect, apply a screening for delete unnecessarypiece of information and after, shows themesh (something that rebuilds the picture of thefinal scene in 2D), establishing the difference ofdistances with the color change. This detects thelocation of the hand or hands in Mesh, then takespictures of manual signals and compares it with thepictures stored in the file, these have the respectivetranslation, if it finds a picture with a higher levelof coincidence it returns with the correct text. Theresults of the investigation allow