El estudio se aproxima a las nociones de los algoritmos, la inteligencia artificial, los sistemas de autoaprendizaje automatico (machine learning), deep learning y redes neuronales, la robotica inteligente y el big data como “alimento” de la inteligencia artificial. Se centran y exponen los diferentes riesgos, peligros e impactos. En primer termino los riesgos existenciales por una “inteligencia artificial fuerte”, “explosiva” o fuera de control. Se alertan de los errores y discriminaciones masivas y estupidez artificial asi como se repasan las referencias mas importantes en la literatura sobre los peligros de la “algocracia”, dictadura o fundamentalismo de los datos, “dataismo” o la “psicopolitica” y el “enjambre” por estas nuevas tecnologias. A partir de lo anterior se abordan los enfoques, modelos y principios de regulacion. Se apuesta claramente por la necesidad de tomar el control y de regular a partir de la variada tipologia de riesgos. Se subraya el factor o ritmo temporal de la regulacion. En este sentido se valora la introduccion de tecnicas de un Derecho liquido o biodegradable, experimental en beta continuo, asi como las llamadas “sandboxes”. Pese a las criticas que puedan formularse, se considera que hay que avanzar hacia esta innovacion de la forma regulatoria. Tambien se analiza la necesaria participacion del sector tecnologico, de informaticos y de especialistas. No obstante, se alerta de los peligros por falta de legitimacion, captura y manipulacion algoritmica del regulador. Tambien se tiene en cuenta la necesidad de adoptar tecnicas relativas a los principios de precaucion y de responsabilidad. Finalmente se hace una referencia de las primeras regulaciones que se detectan en la materia de estudio, asi como sentencias y resoluciones.