La clasificacion acustica de escenas ha venido cobrando importancia en los ultimos anos. Las aplicaciones que tiene son interesantes y adicionalmente, representa un reto implementar una herramienta computacional que permita detectar adecuadamente sonidos complejos y diversos, como los presentados en entornos reales. En este trabajo se implementan redes neuronales convolucionales y feed-forward, entrenadas con caracteristicas individuales como Coeficientes Cepstrales de Frecuencia en escala Mel (MFCC), tonos gamma y Transformada Discreta de Fourier (DFT), extraidas a los sonidos en ventanas de 100 ms con solapamiento de 50%, para luego formar segmentos de 1 y 10 segundos. De igual forma las redes neuronales se entrenan con las combinaciones de caracteristicas (DFT-Gamma, DFT-MFCC, Gamma-MFCC, DFT-Gamma-MFCC). Posteriormente se realiza reduccion del numero de coeficientes de entrada implementando PCA, verificando el impacto de esta reduccion en el rendimiento y el tiempo de entrenamiento de diferentes arquitecturas de red neuronal. En ambos casos se utiliza validacion cruzada con un 80% de los datos para entrenamiento y 20% para validacion, para el desarrollo se utiliza la base de datos DCASE2018.