作为新工业革命标志的人工智能在促进经济社会发展的同时,也给人类生产生活带来不容忽视的现实危害和未知风险,尤其“信息黑箱”、算法歧视和隐私及数据保护等在实际运用中会带来公共安全风险,建立必要的法律规制体系成为人工智能发展的基本保障。对于人工智能的开发利用的法律规制,可以采用行为规制为主和以主体规制为辅的模式;在规制目标上应当首先推动科技创新和发展,以促进人工智能的发展和应用为主。同时最大限度消除科技发展带来的危害性后果,规定适当的范围限制。法律规制的具体措施应以激励性法律规制为主,完善分类许可制度、登记备案制度、信息披露制度、技术与安全标准体系、责任分担制度等,以保障人工智能开发符合社会整体利益的需求。