民事合同是平等主体之间订立的有关民事权利义务关系的协议,遵循私法自治原则,而行政协议是行政机关依法行使职权所缔结的协议,应当遵循依法行政原则。
这也就是说,在《词典》中,是用监督解释监察,而非用监察解释监督。同时,不能把所有的权力都委托给一个主体,必须把权力科学合理地配置在不同的主体之间,形成权力与权力间的相互配合、作用以及牵制关系,这是权力运行的常态,是制约权力的重要机制。

人们如果把权力制约和权力监督相并列时,此时的制约应该理解为狭义制约。其中,制裁约束的前提是监督,只有监督到位,才能制裁准确,制约有效因此,依据《物权法》等法律的规定,应当将国有土地等自然资源使用权出让合同归入民事合同的范畴,这也有利于维护合同的严肃性。(一)扩张行政协议的范围并不符合行政协议的本质属性 行政协议本质上是一种非市场行为,相对人在与行政机关达成协议时,也并不是为了进行完全公平的、等价有偿的市场交易,因此,在确定行政协议的范围时,不应当将一些原本属于自愿交易的民事合同纳入其中,否则就混淆了行政法律关系与民事法律关系。在法律解释学上,公共利益在性质上属于不确定概念,其在内涵和外延上都具有广泛、不确定性的特点,因此,以是否为实现公共利益作为行政协议的认定标准,完全交由法官自由裁量、自行确定,这显然也给予法官过大的自由裁量权。
例如,建设用地使用权的出让条款,不能由政府一方单独确定,而需要通过市场竞价的方式确定出让金数额。例如,在农安县国土资源局诉农安县明佳房地产开发有限公司建设用地使用权出让合同纠纷案中,法院认为,原、被告在平等自愿基础上签订《国有建设用地使用权出让合同》,不违反法律规定,合同合法有效。二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。
(二)科技风险管控法语境下的人工智能规范问题 现有管控工业风险、劳动保护、事故责任、环境保护和特殊科技风险的科技风险法律制度,对于人工智能同样具有可适用性。此后各国竞相以提升国家竞争力和促进产业升级为目标,引入科技政策机制,干预科技发展,促进科技进步、转化和创新。施瓦布特别强调,对于第四次工业革命,要关注其与第三次工业革命的紧密联系,因为推动第四次工业革命的新兴技术建基于以往工业革命的知识和系统,特别是第三次工业革命的数字技术。美国科幻作家艾萨克·阿西莫夫早在1950年就提出用机器人三定律来防止机器人失控:机器人不能伤害人类。
(5)税收和劳动力替代。目前,很多具有创新力的机器学习研发工作主要由著名大学研究机构或大企业承担,它们的优势在于能够获得数据资源,其中很大一部分是可公开数据资源,当然这也是目前许多人工智能可验证和可确保透明度的前提。

有对某些特定问题展开讨论的,如机器人或人工智能的法律地位、自动驾驶的刑民事责任、人工智能生成物的权属、智能合约或某种程度商业自主化决策的法律后果等。奥巴马执政时期,美国发布了两份《美国创新战略》(2009年,2011年), 明确提出美国加速创新的战略规划和措施。专利法出现之后,这种局面得以改变,具有财产意义的专利权变成一种全新的利益驱动机制,科技发明成为更多个人和工厂企业积极的法律利益追求。美国法学家哈耶克认为,坚持法治意义在于规则的相当确定性使我们又可能预见权威在特定情况下将如何行使其强制性权力,从而根据这种常识安排个人事务。
人工智能的社会风险,广义上还包括技术迭代导致的各种社会不适应。2018年3月27日,欧盟委员会下属欧洲政治战略中心发布《人工智能时代:确立以人为本的欧洲战略》,介绍欧洲人工智能发展,提出欧洲应采取的对策。这种改变和挑战,随着人工智能技术和人工智能认识能力的不断提升也在不断升级,进而导致规范发展和应对的迫切性。一方面,人工智能具有科技事物的本质,属于科技法的规范对象,同时它作为一种具有巨大驱动力且尚具有上升空间的新兴科技,给科技市场、生产安全、科技风险、科技政策等领域均带来大量的新的具体问题。
首先,从科技市场法来说,这一时期是专利法等知识产权法不断扩展的时期,国际专利关系出现前所未有的发展,国际社会缔结《保护工业产权巴黎公约》。发达国家在享受人工智能发展福利的同时,应负有在维持和构建良好国际秩序的基础上做好人工智能国际利益协调的责任。

人工智能今天已发展到机器学习阶段,正在发挥着作为第四次工业革命表征科技的巨大作用,同时因其具有与人类相通的认知能力的特点,产生了与人类命运的特殊伦理关联。其特点是世界信息互通,使人们之间的信息交往瞬间扁平化。
四、科技法视野下的人工智能规范问题 (一)科技市场法语境下的人工智能规范问题 科技市场法,特别是专利权等知识产权制度以及技术合同、技术中介等技术市场交易制度等,对于人工智能具有基础适用性,应该成为驱动人工智能技术进步和应用的基本制度。包括应用中的不平等,如搜索引擎将工程师自动关联为男性,将护士自动关联为女性。另一方面,要体现人工智能的特殊性,在将既有科技法制度加以一般适用的同时,要善于认识人工智能的具体性规范要求,就此进行具体立法或者适用。2018年11月15日,德国发布人工智能战略,提出人工智能德国制造,全面思考人工智能对社会各领域的影响,定量分析人工智能给制造业带来的经济效益,重视人工智能在中小企业中的应用,并计划2025年前在联邦层面投入30亿欧元用于发展人工智能。第五,人工智能的伦理风险。20世纪初,面对新一轮科技大发展的机遇,各国注重快速提升和确保国家竞争力,大力推进科技创新政策,甚至上升到科技创新战略的高度。
例如,美国学者雷恩·卡罗等认为,人工智能政策的核心问题应该包括:(1)正义和公平。人工智能作为科技,无论其开发还是应用,同样存在安全、灾害和特殊技术风险问题。
首先,这一时期科技市场法得到创制。(二)中国科技法的兴起和跨越式发展 中国科技法的发展没有体现出上述三个阶段的过程性。
其中,工业互联网、云计算和工业大数据是三大底层基础设施,工业机器人和3D打印是两大硬件技术,知识工作自动化和工业网络安全是两大软件支持,虚拟现实和人工智能是面向未来的两大终极技术。最后,也是最重要的,人工智能的开发和应用依赖于数据资源。
在经济、管理和社会服务的许多领域,人工智能淘汰了一些工作岗位,给劳动力市场带来影响和挑战。20世纪80年代,中国开始积极制定《中华人民共和国专利法》(1982年)等知识产权法律,出台《中华人民共和国技术合同法》(1987年)等技术交易法,建立旨在鼓励、刺激科技发明和进步的科技财产权制度、交易制度,这些法律制度随着改革开放的深入不断修改和提升。因此,笔者拟立足科技法及其迭代发展的语境,结合人工智能在当下的重要特质,对人工智能立法的基础、路径及相关具体规范问题进行思考和分析。这是人工智能特殊的技术风险之一。
这种认知能力与人类独有的综合学习和高级推理能力具有相通性,并且有超越人类的趋势。此后,谷歌、脸谱(Facebook)、微软(Microsoft)等互联网巨型公司纷纷表示未来将更加重视人工智能,除开源机器学习框架,还投入巨资收购研发人工智能的公司和人才,使得2016年成为人工智能元年,麦肯锡报告称人工智能进入突破阶段。
但是,这显然是不够的。20世纪80年代开始,各国更加强调科技资源供应和市场需求的结合,在微电子、生物技术和新材料等新领域实施技术-经济范式,后来调整为技术-经济-环境-安全范式,在技术-经济发展的价值追求中,同时引入生态环境保护和特殊技术风险防范。
但是总体上,国际社会尚未形成适用于人工智能开发和应用的全球伦理规范。那么,如何确保人工智能创新中的合理、充沛的数据资源来源呢?此外,人工智能应用也要求用户使其数据处于有序状态,确保人工智能应用中的相关专有数据得到适当的整理和保护,那么如何做好这些数据的管理工作呢,其法律依据何在?实践表明,目前应用者主要依靠开发特定的人工智能系统来协助检索、挖掘并整理公司系统和服务器的数据,从而达成机器学习的先决条件。
旧法与新法的关系,就好比维特根斯坦所提出的绳索论,每一截新的绳索与前一截可能并不相同,但却相互联系着,构成一种家族相似性。特朗普执政后,美国对内重视自下而上的科技创新, 发布2018年财年预算蓝图, 对原有科技投入结构作出重要调整, 废除《清洁能源计划》《全球气候变化计划》等, 支持油气和煤炭行业发展,对外则强推美国优先, 用力打压其他国家特别是中国的科技创新, 以确保自己的优势。例如,在一次德国的人机互动中,协同工人因误用而导致被工业机器人打死,这既有误用的因素,恐怕也有技术安全设计的问题。人工智能的社会风险,也包括新科技应用可能导致的社会分配公平问题。
2019年2月,美国总统特朗普发布第13859号《关于启动美国人工智能行动倡议的行政令》,随即美国国家标准与技术研究院在2019年8月发布《美国如何领导人工智能:联邦参与制定技术标准及相关工作的计划》,提出要确保使用人工智能技术的系统可靠、稳健、值得信赖。但也有许多是事先和事中规则,如产品质量管理制度、交通安全管理制度、灾害保险制度等。
2017年11月,英国发布《产业战略》,提到人工智能与数据经济的挑战。例如,美国便成立国防研究委员会组织科技资源增强国防能力,1941年建立科学研究和发展局,1945年又以科学:没有止境的前沿为理由建立国家研究基金会。
2017年我国国务院发布《新一代人工智能发展规划》(以下简称《规划》),国家开始认识到人工智能发展可能引发方方面面的问题,其中包括伦理问题,提出要重视人工智能法律伦理的基础性研究。如果不加以风险管控,一旦偏离目标,后果不堪设想。 |