大模型的发展现状、AYX爱游戏- 爱游戏体育官网- APP下载风险挑战及对策建议

2026-02-16

  AYX爱游戏,爱游戏体育,爱游戏体育官网,爱游戏APP下载大模型不仅关乎科技创新,也深嵌国家安全、经济转型与社会治理。文章分析了大模型发展现状、风险挑战及应对策略,以期为我国应对全球人工智能竞争、推动技术创新提供理论和政策启示。研究表明,大模型市场竞争激烈,行业渐趋整合。中美大模型竞争愈加呈现地缘政治博弈的特征。技术层面,大模型规模化效应递减,混合专家模型带来模型效率提升,思维链技术提升了大模型的逻辑推理能力。然而,大模型也面临技术内生、外部治理和社会衍生风险。应从体系层次综合应对:基础层从人工智能基本要素出发,通过技术优化控制大模型风险;法律层构建权责适配的创新激励制度,为市场提供稳定的预期;社会层则从更广泛的社会维度进行风险规制。

  “大模型”指参数和规模庞大,基于深度学习的人工智能模型。从《新一代人工智能发展规划》至《国家人工智能产业综合标准化体系建设指南(2024版)》,我国高度重视大模型发展,出台诸多文件,对大模型的发展规划、标准演进、伦理防控等方面进行了顶层规划。近年来,以ChatGPT、DeepSeek等为代表的通用大模型技术加速迭代,其技术突破与下游应用不仅关乎科技创新,也深嵌国家战略安全、经济转型与社会治理全局。党的二十大报告明确提出“加快建设数字中国”“坚决打赢关键核心技术攻坚战”。但我国在大模型领域仍面临挑战:

  ①核心技术自主性问题。我国大模型在基础算法、算力效率与高端芯片领域仍面临“卡脖子”风险。美国的“星际之门”等计划,进一步将技术竞争上升为地缘政治博弈。

  ②大模型技术的内源风险和各种伴生风险。大模型存在“幻觉”“黑箱”“对齐”等技术内生风险,以及法律滞后、就业替代、滥用操纵等衍生风险。本文在“核心技术自主性挑战”的背景下,立足大模型发展现状,系统剖析其技术演进与风险挑战,以期为我国构建自主可控的大模型生态、应对全球人工智能竞争提供政策参考。

  竞争主体方面,全球大模型竞争集中体现在中美大模型竞争,已上升为地缘政治博弈。竞争趋势方面,一方面,先进大模型的数量增多,价格骤降;另一方面,基础大模型的市场竞争趋向通用大模型,行业走向整合,应用层竞争的重要性日益显著。

  美国仍保持领先,但中国正快速追赶。中国在全球人工智能大模型中占比达36%(美国44%),在全球人工智能企业数量上的占比仅次于美国(表1)。中美大模型竞争已上升为地缘政治博弈。2022年,美国拜登政府出台出口管制措施,禁止向中国出售尖端芯片。美国新一届政府正在推动《2025年美国人工智慧能力与中国脱钩法案》,不仅禁止先进人工智能技术对华输出,更将限制范围扩展至联合研发、人才交流等领域。中国人工智能企业对训练算力进行诸多优化,与美国的差距缩小。2025年初,中国推出的DeepSeek R1模型引发美国科技巨头股票波动,有人称之为人工智能领域的“斯普特尼克时刻”。

  根据国家数据局局长刘烈宏在中国发展高层论坛2024年年会上透露,中国10亿参数规模以上的大模型数量已超100个。根据2025年7月27日世界人工智能大会披露的信息,我国已发布1509个大模型,在全球已发布的3755个大模型中数量位居首位。百度公司等传统互联网巨头均发布了自研大模型(表2)。市场上也曾涌现出“四龙五虎”“六小虎”的大模型新兴力量。深度求索公司的DeepSeek R1模型以较低成本达到国际第一梯队的水平。国际层面,大模型竞争从OpenAI公司“一枝独秀”再到“多巨头激烈竞争”。马斯克的x.AI公司凭借算力优势推出高性能Grok 4系列模型;谷歌公司以Gemini模型系列加速追赶,部分性能指标已领先同期GPT模型;Anthropic公司的Claude 4.0 Sonnet模型的编程性能优于同期的GPT模型。开源生态如LLaMA、DeepSeek、通义千问等也迅速崛起。激烈竞争推动价格骤降。2024—2025年,多家厂商大模型推理算力价格降幅超90%。

  基础大模型竞争以推出性能与效率兼具的通用大模型为焦点。专业模型纵然有需求,企业更倾向微调通用基础模型,从而推动市场整合。第三梯队基础大模型开发者生存空间被挤压,头部企业占据主要市场份额。由于最先进模型很快出现开源替代品,第三梯队开发者难以建立技术壁垒,行业很难形成显著的梯队竞争格局。据财经网报道,“六小虎”大模型独角兽中已有两家放弃预训练,转向人工智能应用开发。应用层竞争日益激烈:

  ①基础大模型开发者通过打磨其C端产品,构建模型与应用的生态闭环。多数基础大模型开发者持续打磨其C端产品,开发“Deep Research”“语音聊天”“视频图片生成”等功能,增加用户黏性以锁定海量用户。

  ②应用开发者依附头部基础模型,竞争转向垂直场景创新。广大的应用层开发商利用头部大模型的应用程序编程接口(API),挖掘垂直场景维系竞争优势,如开发“AI Agent”这样具备创新力的方案。

  Scaling Law效应指模型性能随规模、数据及算力增长呈幂律提升。但单纯依赖该法则已面临瓶颈,对模型性能的提升不再显著。OpenAI公司前首席科学家Ilya Sutskever指出,传统无监督预训练效果趋稳,需探索新方法。大模型的发展正转向如监督微调、强化学习等“后训练”优化及“推理时间”的拓展上。对中国而言,Scaling Law效应递减或成机遇。受美国芯片封锁限制,中国难以在算力规模上超过美国,但可转向“效能创新”。DeepSeek R1模型的成功表明,通过架构创新与训练优化,中国大模型可从“跟跑”迈向“并跑”。

  混合专家模型(MoE)将大模型拆分成多个“专家”子模型,仅调用部分“专家”子模型进行计算,从而在保持能力时减少成本。随着大模型日益复杂,平衡智能、效率和准确性成为关键挑战。为兼顾效率与性能,国内领先大模型如DeepSeek-V3、通义3.0均为MoE架构。MoE架构在提高模型性能同时,可大幅度降低推理和训练成本,促进大模型在各行业的应用。

  思维链技术通过在提示中加入推理步骤,引导大模型模拟人类思考,提高推理能力和准确性。随大模型Scaling Law效应递减,新近的大语言模型在后训练阶段引入该技术,以及对思维链进行强化学习以提升回答质量。通过思维链技术,将复杂问题拆解多个推理步骤,既展现模型的“思考”过程,也增加了模型的透明性和可解释性。DeepSeek R1模型、OpenAI公司的o系列模型均将思维链技术引入了大模型,成效显著。目前,该技术已成为主流发展方向,国内厂商已相继推出基于思维链的大模型。

  随技术迭代,大模型的通用、泛化、多模态和推理能力显著提升,向通用人工智能(AGI)迈进。AGI指能完成人类所能做到的一切智能行为,并在所有智力相关任务上达到人类水准的人工智能。ARC Prize Foundation基金会认为,当再也无法设计出“人类轻松完成而人工智能很难做到”的任务时,AGI即至,并创建检验大模型AGI水平的测试集“ARC-AGI”。传统大模型GPT-4o的准确率仅为5%,但采用思维链等技术后,2024年末的o3模型则首次在测试集中达到人类水平。不过,根据ARC Prize Foundation基金会的官方博客,在ARC-AGI-2测试集基准测试中,o3模型即使在高计算量下的得分可能低于30%,而普通人仍能超过95%,表明AGI尚未实现。

  大模型“幻觉”风险是指其生成内容与事实或用户指令不符的风险。大模型“幻觉”在金融领域可能导致投资决策失误;在医疗领域易导致诊断失误;在信息层面可能造成信息污染。大模型在法律问题的“幻觉”率达69%—88%。在医疗领域,该研究中表现最好的GPT-4o模型也有46%的幻觉率。但有研究指出,“幻觉”同时是大模型创造力和智能的体现。

  “黑箱”风险指大模型内部运作机制不透明导致输出的不可控性的风险。大模型结构依赖非线性激活函数构建复杂决策,训练基于端到端的自动学习模式,并非基于符号主义人工智能的“if……then”规则。思维链也并不直接反映大模型的“所思所想”,模型可用思维链来伪装其内部目标。因此,大模型的行为难以预测,从而出现非预期结果。

  “对齐”指将大模型的输出结果与人类的价值观对齐。“对齐”风险指大模型目标与人类意图或价值观不匹配的风险。

  ①“伪装对齐”,模型表面服从指令,却在自认无监督时暴露与训练目标相悖的偏好。

  ②“策略性欺骗”,包括策略性引入错误、规避监督机制,甚至泄露模型权重。思维链分析表明,这些欺骗行为存在明确的推理决策过程。

  相较大模型的飞速迭代,法律的变动可谓“地壳运动”。中国等多数国家对大模型的规制尚处于探索阶段,大模型在法律层面或面临不确定性,削弱市场的稳定预期。

  ①侵权风险不明确。学界普遍认为大模型无民事主体资格,不能独立承担侵权责任。开发者也不宜作为第一责任主体,《中华人民共和国民法典》第1194条指向服务提供者,但服务与损害通常无因果关系。我国侵权责任中,因果关系的认定是相当因果关系说,即行为显著增加损害风险且符合社会经验时才担责,但“相当性”判断标准模糊,责任认定依赖法律解释技术,增加法律适用的不确定性。

  ②知识产权风险、隐私泄露、数据滥用、跨境监管等法律问题尚待解决。以知识产权风险为例:训练大模型行为的性质尚无定论;生成内容是否确权,以及权利性质也存在分歧。

  技术失控风险指大模型的发展超出人类可控范围的风险。2023年,美国未来生命研究所(Future of Life Institute)呼吁暂停训练比GPT-4模型更强的人工智能系统至少6个月,但人工智能技术飞轮已无法停下。人工智能已成为国家竞争核心,“人工智能军备竞赛”愈演愈烈。美国新一届特朗普政府更是废除拜登政府签署的《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),全面放松对人工智能的监管,促进人工智能的武器化和军事化,或导致新一轮的全球监管竞争。大模型的涌现特性已使技术后果难以预测,“伪装对齐”等揭露了其自主谋划风险,叠加开源生态导致技术扩散不可逆;随着大模型向AGI和超级人工智能推进,彼时人工智能或具有自主决策能力,失控风险极大增加。

  发展不足风险指因政策偏差导致大模型创新滞后,引发国家竞争力系统性衰退的复合风险。大模型作为新质生产力,在地缘政治竞争格局中具有战略决定性意义。大模型的泛化能力提升各行业效率。例如,OpenAI公司推出的Deep Research功能,可大幅度提高科研人员的效率。对于国家而言,“不发展人工智能才是最大的风险”。若遵循“预防原则”——在确定新技术不会对个体、群体产生危害之后才采用。将抑制创新,从而在全球人工智能角逐中落后。“发展不足风险”与“技术失控风险”似乎非此即彼。受地缘政治的影响,即使各国认识到技术失控风险,仍偏好选择“加速发展”。

  GitHub、Hugging Face等开源托管平台存在因地缘政治导致平台服务供应中断的风险。GitHub和Hugging Face平台是全球大模型开源社区的核心载体,前者托管了绝大部分人工智能开源代码,后者汇聚了关键模型的权重文件和技术文档。但此类平台受所在国美国法律管辖,或沦为地缘政治博弈工具。例如,GitHub平台已按美国财政部要求限制受制裁地区账户访问。一旦这些平台因政治因素积极对我国用户进行访问限制、服务中断或内容审查,传统的代理访问或镜像同步等规避方式或不再有效,将影响我国大模型的研发协作、技术跟进等,阻碍技术迭代和应用落地。

  ①低技能重复性工作岗位面临结构性替代危机。根据世界经济论坛与全球最大上市咨询公司之一埃森哲联合发布的《未来工作:大型语言模型与就业》(Jobs of Tomorrow: Large Language Models and Jobs)报告,审核员、电话推销员等职业的自动化替代均超50%。

  ②高技能岗位因需求减少面临冲击。大模型所致的工作效率提升或引发企业为追求超额利润缩减团队规模,以压缩人力成本。

  ③岗位替代数量超过创造数量。AI创造的新岗位不足以弥补其淘汰的旧岗位。世界经济论坛预测,预计到2027年全球将净流失1400万岗位。就业替代风险或加剧贫富分化,导致中产阶层萎缩。

  当具有自主性和通用性的大模型被滥用时,可能带来诈骗、虚假信息传播等风险。大模型大幅降低了犯罪门槛——一句简单指令可批量生成不法内容。在实践中,GoMail Pro等垃圾邮件服务已整合ChatGPT模型优化诈骗信息。路透社报道,拉斯维加斯爆炸案嫌疑人曾利用ChatGPT模型制作爆炸装置,最终导致1死7伤。

  过度拟人风险指用户误认为大模型具有“人性”,从而受大模型输出内容的负面影响的风险。随着技术迭代和多模态进展,大模型拟人程度显著提升,但其本质仍是“预测模型”,不具有真实情感与共情能力,可能造成严重后果(表3)。现有规范对此风险关注不足:“标识义务”仅关注形式区分;未成年人保护缺失,拟人化应用可能危害其认知发展。

  大模型风险源于技术与社会的互嵌。面对大模型风险的弥散性,碎片化治理难以奏效,应从体系层次统筹多维风险。具体而言,可从基础层(数据、算力、算法的技术优化)、法律层(权利义务分配)和社会层(广泛的社会维度)统筹应对(图1)。

  基础层是大模型的基础,包括算法、算力和数据三大要素。基础层与大模型的技术本源风险、伦理风险与部分社会衍生风险紧密相连。通过优化基础层的供给和分配,不仅可以减少大模型的“幻觉”“黑箱”等技术内生风险,也可降低技术失控、发展不足、滥用操纵的风险。

  遏制大模型“幻觉”“偏见”,提升国产大模型竞争力的关键在于增加数据供给并提高质量。

  ①推动公共数据有序开放利用。在数据分类分级原则的基础上,政府或公共机构可试点在特定领域提供公共数据获取的API接口并支持MCP协议,以支持认证开发者用于模型训练或检索增强生成推理。

  ②鼓励科研机构共享非敏感研究数据。吸收《科学数据管理办法》等规范经验,教育部可制定高校科研数据管理的指导意见,并适度将“科研数据共享”指标化纳入部属高校考核,渐进激励数据共享。

  ③构建行业数据质量标准。在《国家数据标准体系建设指南》下,支持行业协会和研究机构牵头制定“高质量数据集”分级指南,待成熟后考虑上升为行业标准或国家推荐标准。推动第三方评估,以便开发者快速甄别市场数据质量。

  (2)算力层:增强芯片自主可控,优化自主超算中心,布局前沿算力,并深化国际算力合作

  算力直接影响模型的训练速度和精度,对算力资源进行优化可提升大模型竞争力,降低发展不足的风险。DeepSeek R1模型通过GRPO等策略以降低算力成本,凸显算力重要性。在中美大模型竞争上升为地缘政治博弈下,面对美国对华芯片禁运与人工智能技术封锁,我国可采取以下应对方略:

  ①增强芯片自主可控。通过公私合作、专项资金、促优补贴等方式支持国产GPU/NPU在特定人工智能应用的研发,同步推进可替代CUDA的生态建设;鼓励RISC-V架构人工智能芯片发展,提升电子设计自动化软件的能力。

  ②优化自主超算中心。在现有超算中心基础上,可融合美国橡树岭国家实验室以开放科学为导向的用户准入与产学研合作机制,以及谷歌TPU Pod的模块化、可扩展互联与软件深度耦合架构;同时优化“东数西算”工程的全国算力资源调配,开发和部署智能化的算力调度与编排试点平台。鼓励东部重点企业利用西部枢纽的数据中心进行大模型训练。

  ③前瞻布局前沿算力。继续战略性投入光子计算、量子计算等前沿算力研发,动用税收、政府采购等工具,鼓励探索性应用。

  ④深化国际算力合作。美国特朗普新一届政府秉持“美国优先”战略,与欧洲等传统盟友关系复杂化,中国可依托“一带一路”倡议,与欧洲、东南亚、中东等国家建立算力合作伙伴关系,推动算力资源的开放共享。

  (3)算法层:促进人才回流,扶持关键技术,优化模型备案流程,制定模型推荐标准,并强化自主可控的开源平台

  大模型算法是决定模型性能和效率的关键,应在恪守国家安全的前提下,鼓励算法创新。

  ①强化海外人才引进。按原籍国统计,中国的顶级人工智能人才数量与美国基本相当;但由于人才流失严重,按就职机构所在地统计,美国拥有的顶级人工智能人才数倍于中国(表1)。应优化引才政策,吸引优秀人才回流。

  ②定向扶持关键技术。建立面向大模型可解释性、鲁棒性、可信度等关键指标的定向科研基金,加强产学研协同攻关平台建设。同时结合区域优势资源布局,以类似指标为牵引设定短期目标,促进各地有序竞争、差异化创新。

  ③优化大模型备案流程。借鉴国际经验,采取事前备案与事后监督相结合的机制,简化大模型的备案流程,加快新模型落地。

  ④推动大模型推荐标准的制定。在既有备案或行业标准基础上,鼓励行业组织制定大模型性能与安全风险(如“幻觉”“偏见”)的评测基准和推荐性标准,并引入红蓝对抗等技术测评。鼓励各方自主对标,积极改进。

  ⑤夯实自主可控的代码托管、模型仓库等开源平台,从而为算法创新供应优质基础设施。当前中国已有ModelScope等自主开源平台,但竞争力稍显不足。可给予研发税收优惠,对满足特定条件的开源平台运营成本提供促优补贴。

  《生成式人工智能服务管理暂行办法》等现有规范效力层级低且“重监管轻激励”,对数据来源、内容权属等规定不足。短期内,可通过完善既有部门法、司法解释、技术标准、行业指南等方式减少规范模糊。未来可结合我国实际,制定符合本土需求的人工智能基本法或专项条例,逐步完善从法律到配套法规的体系框架。可借鉴欧盟风险分级监管思路,并针对大模型训练数据合法性、生成内容知识产权、侵权责任认定等核心问题制定细则。

  针对侵权责任,建议采用“过错场景认定”与“保险风险池”方案。一般侵权场景适用过错责任原则,在涉及人身安全的高风险领域,适用严格责任,并强制服务提供者投保人工智能责任险,将个体责任转化为社会分担。在知识产权领域,建议突破传统著作权法思维,建立“有限开放的数据训练权”与“使用者主导的生成内容权益”规则。适度扩大著作权合理使用范围,允许开发者对受版权保护内容进行训练使用。赋予大模型生成内容同等的法律保护,通过将“人”控制人工智能的行为拟制为“代理”关系,将大模型生成的内容的权利赋予使用者。

  ①建议完善《人工智能生成合成内容标识办法》(国信办通字〔2025〕2号)中的大模型标注义务。要求大模型在与用户交互时标注“人工智能无真实情感”,避免用户在心理上混淆系统与真人。

  ②鼓励大模型行业标准中引入对话情感强度等级,通过人类反馈强化学习(RLHF)技术场景化控制情感表达强度,防止不适当的情感模拟导致用户误解或依赖。

  ③将高互动、高沉迷性质的大模型情感交互应用纳入未成年防沉迷机制,减少未成年人对人工智能的情感依赖。

  鉴于“幻觉”内容的隐蔽性和非敏感性,以及对“幻觉”大规模、常态化的人工纠偏的高昂治理成本,应依据《网络信息内容生态治理规定》,将“幻觉”内容纳入平台治理范围,发挥其技术优势和源头治理能力。

  针对特殊群体,以及特殊行业开发差异化的大模型风险和合规使用的教育内容和普及渠道。同时,与行业协会合作,为金融、医疗、法律等领域制定行业大模型应用风险防范指南。

  ①整合既有举报机制。在网信办举报中心增设“大模型幻觉信息”专项,明确举报标准。

  ②强化主动防控。研发主动检测技术,实时阻断“幻觉信息”传播,并持续升级检测能力。

  ①加强就业转型培训。政府与企业可设立专项基金,提供再教育与技能培训,帮助受冲击员工进行职业转型。

  ②鼓励新兴产业发展。通过政策与商业支持,拓展如数据标注、算法评估等人工智能产业新岗位,并扶持人工智能协作新业态,助力传统行业和自由职业者提升生产力。

  ③完善社会保障。优化失业保险等现有制度以应对结构性失业,同时探索灵活就业保障措施,覆盖自由职业者等群体。

  大模型作为生成式人工智能的技术底座,已成为全球科技竞争与数字经济发展的关键节点。当前,中美竞争激烈,技术迭代加速,市场走向整合。与此同时,大模型内生“幻觉”“黑箱”和“对齐”技术风险,外有“法律滞后”“技术失控”和“发展不足”等风险,以及就业替代、滥用操纵和过度拟人的社会风险。对此,应构建体系化的应对策略。

  唯有统筹发展和安全,方能有效推动大模型技术演进,增强我国在全球人工智能角逐中的竞争力。

  本刊发表的所有文章,除另有说明外,文责自负,不代表本刊观点。返回搜狐,查看更多

地址:广东省广州市天河区88号 客服热线:400-123-4567 传真:+86-123-4567 QQ:1234567890

Copyright © 2012-2025 AYX爱游戏- 爱游戏体育官网- 爱游戏APP下载 版权所有 非商用版本