我国人工智能在算力、模型、场景应用等方面的发展情况已位居世界前列。目前,我国人工智能的发展现状具有四个特点:一是政府引导,市场驱动;二是面广量大,生态协同;三是包容审慎,治理创新;四是需求旺盛,前景广阔
人工智能(885728)作为第四次工业革命的核心驱动力,是一次根本性创新和重大变革,其重大意义不言而喻。但是,人工智能(885728)的发展并非一帆风顺,主要面临问题新、风险大、监管难三方面挑战
在对策上,应采取综合手段,在法律、监管、标准、技术等方面统筹协调,全面监管。总体上要从三方面加以应对:一是加强法律制度建设,重视“人工智能(885728)法”的制定,加快“人工智能(885728)法”的立法进程;二是在法律上明确法律关系主体,确认民事责任归责原则;三是进一步加强和完善对人工智能(885728)的监管
近年来,人工智能(885728)深入发展。在给工作、生活带来极大便利的同时,人工智能(885728)也产生了一些新问题和新风险。研究这些新问题、新风险,主动应对人工智能(885728)带来的新挑战,不但具有重大现实意义,也能为人工智能(885728)的未来提供更好的发展环境。本文主要围绕我国人工智能(885728)发展的现状和特点、人工智能(885728)面临的问题及相关对策,从三个方面谈点看法。
一、我国人工智能的现状和特点
人工智能(885728)(Artificial Intelligence, 即AI)是一门基于计算机科学、生物学、心理学、神经科学、数学、哲学等学科的科学技术。其核心包括构建跟人类似甚至超越人的推理、知识、规划、学习、交流、感知、移动和操作物体等能力,旨在实现类人智能。
从我国人工智能的发展现状来看:
一方面,人工智能(885728)涉及社会各个方面,深刻影响工作和生活。据不完全统计,截至2025年上半年,我国仅生成式人工智能(885728)的用户规模就达到5.15亿人,而生成式人工智能(885728)仅是人工智能(885728)的一个分支。
另一方面,人工智能(885728)本身的发展也突飞猛进。算力规模庞大,大模型发展迅速,应用广泛,专门从事人工智能(885728)的企业众多。据不完全统计,截至2025年上半年,我国算力总规模已位居世界第二;已发布的人工智能(885728)大模型数量占全球的40%,居全球首位;在模型的场景应用上,覆盖50个重点行业领域、700余个场景,涵盖智能制造、智慧医疗、数字金融等关键领域。
可见,我国人工智能(885728)在算力、模型、场景应用等方面的发展情况已位居世界前列。目前,我国人工智能(885728)的发展现状具有如下特点:
一是政府引导,市场驱动。人工智能(885728)作为历史发展的潮流和重大科技创新,在其发展过程中始终得到政府的支持和引导。这种支持和引导是全方位的,具体体现为制定相关政策、进行规划引领,提供资金扶持和资源调配,实施场景开放、全力示范推广,注重规范治理、加强风险控制。在市场驱动方面,充分发挥企业创新主体的自主作用,尊重市场规律、以市场需求为导向,利用社会资本助力人工智能(885728)创新发展等。
二是面广量大,生态协同。
我国人工智能(885728)覆盖面广、规模大,具体表现为:人工智能(885728)的应用场景已经涉及生产、生活和公共服务等所有行业和领域;参与主体多,形成了大企业引领、中小企业参与的庞大主体群;数据量和算力量大,每天产生的海量数据(603138)成为人工智能(885728)的训练基础,且算力网络覆盖所有省份,算力总规模位居全球前列。
在生态协同方面,主要体现为产业链协同、跨领域协同、产学研协同等多维度联动和互补共生。在产业链协同方面,主要为上游的芯片、算力基础等硬件支撑,中游的算法模型提供技术核心,下游的落地应用和技术变现,形成硬件、算法和应用的协同;在跨领域协同上,主要体现为AI+,使人工智能(885728)和各个行业形成紧耦合;在产学研协同上,主要体现为高校、科研院所输出基础研究成果,为企业提供资金和场景,使科研成果转化为实际应用,形成生产力。
三是包容审慎,治理创新。主要体现在人工智能(885728)的立法理念和原则、监管创新、地方实践探索、治理框架等方面。在立法上,《生成式人工智能(885728)服务管理暂行办法》区分了服务和技术、面向公众和面向非公众、境内和境外等,提出了不同的要求,为技术研发和应用预留了试错空间,体现了审慎包容;在地方实践探索方面,一些地方针对人工智能(885728)出台相关制度和办法,既鼓励创新、大胆试错,又为人工智能(885728)产业发展划出安全与伦理红线;在监管创新上,采取对人工智能(885728)分类分级监管,根据不同的风险等级采取不同的监管措施,对于高风险领域实行严格审查,中低风险领域则简化流程、降低门槛;在治理方面,鼓励创新、注重安全,比如全国网络安全(885459)标准化技术委员会2024年9月颁布的《人工智能(885728)安全治理框架》,明确了人工智能(885728)治理“包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对,开放合作、共治共享”的基本原则,既鼓励创新发展,又强调风控安全。
四是需求旺盛,前景广阔。我国已成为全球最大的人工智能(885728)专利拥有国。据赛迪顾问(HK2176)预测,2025年到2035年,我国人工智能(885728)产业规模预计将从3985亿元增至17295亿元,复合年增长率为15.6%,到2035年我国人工智能(885728)产业规模全球占比30.6%。对人工智能(885728)的发展,政府一直积极鼓励和支持,在资金投入、税收优惠、政策扶持等各个方面给予大力支持。人工智能(885728)的人才储备丰富,生产、生活等各方面需求旺盛,数据资源优势明显,产业应用广泛,前景广阔。
二、人工智能的挑战
人工智能(885728)作为第四次工业革命的核心驱动力,是一次根本性创新和重大变革,其重大意义不言而喻。但是,人工智能(885728)的发展并非一帆风顺。我们认为,人工智能(885728)主要面临问题新、风险大、监管难三方面挑战。
1.问题新
1.1 伦理挑战
一是隐私泄露。数据的广泛收集与使用可能导致个人隐私被侵犯,存在数据滥用的风险。一旦这些数据被泄露、滥用或非法交易,将严重侵犯相关人员的隐私权。比如,近年来发生了多起医疗数据泄露事件,给患者带来了巨大的损失和困扰。
二是算法偏见。算法设计中的偏差可能加剧社会不平等,导致对某些群体的歧视。例如,人工智能(885728)在医疗领域的应用涉及多个环节,每个环节都可能产生伦理问题。比如在疾病诊断方面,人工智能(885728)系统的诊断结果依赖于大量的训练数据,若数据存在偏见,如过度集中于某一人群或某类疾病,可能导致诊断结果不准确,甚至对特定患者群体造成歧视,有违医疗公平的原则。
三是情感陪伴。具有高级智能的超级机器人伴侣会引发关于人类情感依赖、隐私安全和人机关系等方面的伦理争议,与机器人建立亲密关系可能导致家庭情感危机等,引发社会对人工智能(885728)的顾虑和担忧。
1.2 对传统法律的挑战
一是对传统法律关系的主体提出挑战。在人工智能(885728)尤其是在超级机器人具有自主意识和独立行动能力的情况下,超级机器人具有了自然人的某些特征,使传统法律上的自然人、法人的主体地位受到挑战。超级机器人能否成为法律上拟制的人成为一个新问题。原因在于,赋予法人的法律关系主体地位也是拟制的,法人是法律上虚拟的人,其权利能力和行为能力的具体执行并不是法人本身。
二是对民事责任的承担情形提出挑战。在特殊侵权责任的承担上,相关法律规定的是“无过错责任”原则,而适用“无过错责任”原则的情形是被严格限制的,主要为产品缺陷致人损害、高度危险作业致人损害、环境污染致人损害、饲养的动物致人损害等情形。执行这一原则,并不根据行为人的过错,而是基于损害的客观存在,由法律规定的特别加重责任。“无过错责任”原则必须在法律规定的范围内适用,不能随意扩大或者缩小其适用范围。因此,从目前对“无过错责任”原则严格限制的情形看,人工智能(885728)涉及的侵权责任是否属于民法典中的产品缺陷而适用“无过错责任”原则,是存在争议的。原因在于:超级机器人作为产品所具有的自主意识和独立行动能力,是人工智能(885728)深度发展的结果,而不是产品缺陷;超级机器人在出售后,产品制造商或销售商脱离了设计者、开发者、制造者,以其自主意识和独立行动造成他人损害的,并非产品缺陷或设计者、开发者、制造者的过错。在传统民法的“无过错责任”原则无法扩张,而设计者、开发者、制造者又无过错的情况下,法律责任的承担如何落实就成了一个全新的问题。
2.风险大
一是技术安全的风险。主要表现为信息数据泄露和污染、算法漏洞、算法偏见、模型黑箱、生成内容造假、技术依赖和系统性脆弱、模型操纵与对抗攻击、人机协同失调等。
二是社会伦理突破的风险。人工智能(885728)的运用会导致社会公平、诚信、隐私、情感等社会伦理边界被突破。比如算法和模型偏见导致社会歧视,深度伪造会产生诚信危机,数据收集和运用会导致隐私权被侵犯,情感陪护导致家庭危机等。
三是不合法合规的风险。主要体现在侵犯知识产权、隐私权及其他可能损害他人合法权益的风险,以及违反监管规定所导致的不合规风险。比如,人工智能(885728)大模型训练所使用的数据未经版权所有者的授权,人工智能(885728)的生成内容所形成的著作权也因归属不明导致知识产权风险。
四是影响社会结构和社会稳定的风险。比如,人工智能(885728)的广泛运用和替代可能导致相关就业问题,过度依赖人工智能(885728)可能引发人类能力衰退,人工智能(885728)技术垄断所带来的行业失衡可能引发社会资源分配不均。
3.监管难
一是人工智能(885728)的复杂性和新颖性,使传统的法律和监管机制不完全适应。人工智能(885728)的应用尚处于快速增长的初期,许多应用场景还未得到广泛实践,给法律和监管带来了不确定性和滞后性。
二是人工智能(885728)技术涉及领域广、跨界大,对其监管涉及的部门较多,众多领域监管机构的相互协调不易、成本高。尤其是人工智能(885728)具有全球属性,不同国家和地区的法律、监管标准存在差异,当人工智能(885728)涉及跨国应用,就存在法律和监管适用问题,人工智能(885728)跨国治理的复杂性,增加了跨国监管合作和协调的难度。
三是人工智能(885728)涉及大量的新技术和新知识,迭代更新快。监管机构对人工智能(885728)的专业知识储备不足,难以准确识别和有效打击人工智能(885728)的滥用行为和违法违规行为,监管部门的知识储备面临挑战。比如,许多深度学习模型的人工智能(885728),其决定过程的“黑箱”使得监管机构难以理解其决策的依据,如金融机构的自动化信贷审核系统可能出于难以解释的原因拒绝贷款申请等,给监管机构的监管带来了困惑。
三、相关对策
面对人工智能(885728)发展带来的新问题、新挑战,应采取综合手段,在法律、监管、标准、技术等方面统筹协调,全面监管。总体上要从制定法律、明确责任、加强监管三方面加以应对:
1.加强法律制度建设,重视“人工智能(885728)法”的制定,加快“人工智能(885728)法”的立法进程
目前,我国仍无专门的“人工智能(885728)法”,人工智能(885728)相关立法有待完善。尽管目前已有网络安全(885459)法、数据安全(885942)法、个人信息保护法、民法典等,但这些法律并不能完全反映和涵盖人工智能(885728)的内涵和外延。人工智能(885728)在广度、深度及复杂程度上要远远高于上述法律,因此,综合并统筹涉及人工智能(885728)的立法十分必要。
要重视和加快“人工智能(885728)法”立法工作的原因在于,除了彰显法律对人工智能(885728)的重视,起到法律的集中宣示作用,人工智能(885728)立法还涉及人工智能(885728)的定义、范围、调整对象、基本法律关系、当事人的基本权利义务及法律责任等内容,并对人工智能(885728)所涉及的创新发展、日常管理、风险控制、部门协调、监管职责等内容加以规范。因此,需要更高层次、更大范围、更加全面和更具权威性的法律,促进和保障人工智能(885728)的健康有序可持续发展。
2.在法律上明确法律关系主体,确认民事责任归责原则
2.1 在法律关系主体上,人工智能(885728)不应作为法律关系的主体,而是法律关系的客体
目前,对人工智能(885728)尤其是超级人工智能(885728)能否成为法律关系的主体,存在三种不同观点:
一是肯定说。这种观点认为,基于超级人工智能(885728)所具有的高度自主性与社会影响力,主张通过法律拟制赋予法人的主体地位,使其能够独立享有权利、承担责任,以应对著作权归属、合同履行、侵权责任承担等。
二是否定说。这种观点认为,现行法律关系的主体为自然人和法人,人工智能(885728)缺乏自然人的自由意志与责任能力,不能独立承担权利义务,应为法律关系的客体。人工智能(885728)的主体和责任人应为其设计者、开发者、制造者、使用者。
三是折中说。这种观点认为,由于传统法律在超级人工智能(885728)具有自主决策能力的情况下,使产品缺陷认定困难、侵权责任分配不清,因此在特定领域或特定条件下,赋予超级人工智能(885728)“有限主体”资格,即承认超级人工智能(885728)的部分主体属性,避免完全等同于自然人或法人,应当对其权利能力的范围进行限定、责任规则特殊设定。
我们认为,在目前情况下,不宜将人工智能(885728)作为法律关系主体,人工智能(885728)应是法律关系的客体。在法律关系上,人工智能(885728)所涉及的法律关系只能是产品设计者、开发者、制造者、销售者与消费(883434)者之间的关系。理由如下:
其一,作为民事法律关系的主体参与民事活动,应具有权利能力和行为能力。尽管超级人工智能(885728)可能具有自主的意思主张和独立的行动能力,但法律上并未赋予且不能赋予人工智能(885728)本身的民事权利,所以其不能作为主体身份体现。
其二,人工智能(885728)本质上是物,其源头是人的智力成果的产物。如将其作为法律关系主体无疑要使其承担责任,这将带来极大的风险和社会后果。
其三,人工智能(885728)无法拥有独立的财产,不具备民事责任的基础,尤其是民事赔偿的基础,而民事赔偿是民事责任中的最主要责任。将人工智能(885728)作为主体,会使设计者、开发者、制造者、销售者或所有权人的民事责任逃脱,其结果会导致获利的是上述主体,受害的是消费(883434)者等。
2.2 在民事责任归责原则上,应慎用“无过错责任”原则,在坚持“过错责任”原则的前提下,实行有限的“无过错责任”原则。
民法典第1202条规定了产品生产者责任,即“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任”。这一原则确定了“无过错责任”原则。如果将人工智能(885728)作为一种产品,其侵权的民事责任承担应适用该条规定。但是,人工智能(885728)作为产品是基于大数据、算力及大模型场景运用的结果,在算力和模型设计、运用并无问题的情况下,所谓的产品缺陷可能存在两种情形:一种是一般人工智能(885728)产品中的大数据本身有问题,比如大数据的真实性和大数据的全面性;另一种是超级人工智能(885728)产品的自主意识和独立行动所导致的问题。前者的产品缺陷来源于数据,并非设计者、开发者和制造者的原因形成的缺陷;后者作为产品的超级人工智能(885728)的自主意识和独立行动,是设计者、开发者或者制造者本身所追求的超级智能的结果,很难说是产品缺陷。
上述两种情况,在民事责任的承担上应采取不同的原则:一般人工智能(885728)应适用“过错责任”原则;超级人工智能(885728)应适用“无过错责任”原则。
一般人工智能(885728)产品在设计、开发、制造没有缺陷,而仅仅是数据本身问题的情况下,如果坚持“无过错责任”原则,就会无限扩大设计者、开发者和制造者的责任。在人工智能(885728)无处不在的情况下,无过错也要担责使设计者、开发者、制造者面临一定风险,不利于保护他们的积极性,不利于鼓励创新和人工智能(885728)的进一步发展。因此,采用“过错责任”原则既能保护设计者、开发者和制造者的积极性,又能兼顾对受害人的损害赔偿。
在坚持“过错责任”原则的情况下,如何确认设计者、开发者、制造者的过错是确定这一原则的关键。由于人工智能(885728)本身所具有的特点,确定“过错”应当注重设计者、开发者、制造者是否尽“特别注意义务”,并结合具体的应用场景加以综合判断。
一是区别设计者、开发者、制造者的“注意义务”和使用者的“注意义务”。不能将使用者的过错归于设计者、开发者或者制造者。
二是设计者、开发者、制造者的“特别注意义务”应当在设计、开发或者制造时,对数据的使用、算力的运用和模型的设计时,保持公正、周延、没有瑕疵,以保证在设计、运算、开发、制造等环节不存在缺陷和安全漏洞等技术、制造问题,对这些负面问题应尽“特别注意义务”。比如,因设计者使用的数据涉及隐私、算力运用具有偏见、模型设计存在瑕疵等导致的民事责任,应认为存在过错。
三是对人工智能(885728)的“特别注意义务”应当制定行业标准,并具体化,使其具有可操作性。由于人工智能(885728)涉及面广、更新迭代快,其“特别注意义务”的应用场景也纷繁复杂,不同行业、不同代际对“特别注意义务”的要求也不尽一样,因此在确定“过错”时应当与时俱进,不能一成不变,更不能一刀切。
对超级人工智能(885728)采取“无过错责任”原则,并非出于产品的“缺陷”,而是因为超级人工智能(885728)出错所形成的危害性极大,超级人工智能(885728)具有高度危险性的特征,如超级人工智能(885728)无人驾驶(885736)等。
对超级人工智能(885728)的严格责任原则,目的在于:一方面要使设计者、开发者、制造者在开发、设计、制造超级人工智能(885728)产品时慎之又慎;另一方面是对受害人进行最严格的保护。目前,民法典第1239条的规定对高度危险物致害责任采取的是“无过错责任”原则。尽管该条仅仅将“易燃、易爆、剧毒、高级放射性、强腐蚀性、高致病性等”视为高度危险物,并未明确超级人工智能(885728)为高度危险物,但该法条中的“等”是一个概括式的规定,对人工智能(885728)作为高度危险物仍有解释空间。
2.3 进一步加强和完善对人工智能的监管
一是要细化完善人工智能(885728)标准。目前已有人工智能(885728)的技术标准、安全标准、监管标准等相关规定,总体上是由国家标准化管理委员会统筹,中央网信办、工业和信息化部、国家发展改革委等按职能共同推进,技术组织参与标准研制,形成了“政策+标准+技术”的协同治理体系。但是,在这三方面仍应进一步加强、细化和完善人工智能(885728)标准。要强化人工智能(885728)的前沿技术标准、细化数据全生命周期(883436)安全规范标准、算法安全与可解释性标准等。要进一步发挥行业协会的作用,制定各人工智能(885728)领域中的制造、销售、使用等细化标准,使开发者、设计者、制造商、销售商、使用者和监管者有依据、可操作,以规范生产、使用和管理,加强透明度、提高普及率和识别度,提高人工智能(885728)技术的公平性、安全性和稳定性。
二是在人工智能(885728)的分类分级监管上:进一步强化可操作性,明确风险评估指标、分级阈值和监管应对措施;进一步加强对人工智能(885728)的重点领域和核心环节的监管,进一步明确合法合规标准、细化审核内容、严格审核程序、加大责任追究;进一步完善评估与认证机制,制定统一评估方法、培育权威认证机构、推动评估结果互认、提高分类分级监管的科学性和公信力。
三是进一步加强监管能力、加大监管协调力度:加大对人工智能(885728)监管的复合型人才队伍的建设,尤其是对涉及人工智能(885728)的新知识、新技能、新潮流的人才培养,使监管人员既懂法律、监管,又懂人工智能(885728)技术;加大科技监管力度,对人工智能(885728)的监管也要运用科技手段,以降低监管成本、提高监管效率;加大涉及人工智能(885728)监管相关部门的协调力度,明确职责分工、强化政策标准协同,建立牵头部门与定期协调机制、建立动态调整机制和快速响应机制,完善信息共享平台,统一标准、数据共享、联合检查等,并健全央地协同机制、拓宽政企沟通渠道。
(作者系华东政法大学教授、博士生导师)
