Se presenta un nuevo algoritmo para el entrenamiento de redes neuronales perceptron multicapa llamado Acelerador Regresivo version Gamma con Gradiente Local de Error. Este algoritmo se basa en los mismos principios que rigen la actualizacion de parametros en el algoritmo Acelerador Regresivo version Gamma. El algoritmo Acelerador Regresivo version Gamma con Gradiente Local de Error se valida mediante diferentes problemas relacionados con aproximacion de funciones y reconocimiento de patrones. Los resultados muestran buen comportamiento en cuanto a convergencia y generalizacion, mejorando la tasa de aprendizaje del algoritmo “backpropagation”. PALABRAS CLAVES: Redes Neuronales, Perceptron Multicapa, Algoritmo ARγ, Gradiente Local de Error, Reconocimiento de Patrones, Aproximacion de Funciones.