【电商信息网】-免费发布分类信息

扫一扫关注

当前位置: 首页 » 新闻 » 科技 » 正文

强化伦理约束 引导健康发展

放大字体  缩小字体 发布日期:2025-03-28 03:10:20
导读

    ◎本报记者 王祝华    博鳌亚洲论坛2025年年会期间,人工智能(AI)的安全与治理成为焦点议题。随着DeepSeek等开源大模型实现突破,以及算力成本指数级下降、智能体技术快速演进,AI正从“信息智能”迈向“物理智能”与“生物智

    ◎本报记者 王祝华

    博鳌亚洲论坛2025年年会期间,人工智能(AI)的安全与治理成为焦点议题。随着DeepSeek等开源大模型实现突破,以及算力成本指数级下降、智能体技术快速演进,AI正从“信息智能”迈向“物理智能”与“生物智能”,但其潜在风险也引发了全球治理层与技术界的深度关切。3月26日,来自政府、学界、企业界多位嘉宾围绕“如何推进AI应用与治理的平衡”这一命题,展开了具有前瞻性的思想碰撞。

    与会嘉宾从技术演进与伦理挑战两个维度展开深入剖析。在谈到AI技术的前沿进展时,中国工程院院士、清华大学智能产业研究院院长张亚勤说:“DeepSeek是近两年来AI领域最大最具规模性创新,也是中国对全球的贡献。”

    “符号和连接深度融合的机遇看上去已经到来。”中国科学院自动化研究所研究员曾毅表示,AI发展存在符号主义和连接主义两条路径,过去二者未能实现有机融合,但如今基于生物神经网络启发的智能推理机制,逻辑推理能力与人工神经网络表征编码的深度融合已成功实现。“受大脑神经机制启发的算法创新,尤其是神经路由机制等突破性技术,将成为推动AI发展的关键。”他说。

    在深入探讨AI技术的前沿进展后,嘉宾们将话题转向与之紧密相关的风险挑战方面。AI技术“一路狂飙”,其潜在风险有多少?张亚勤认为,不可控风险“至少增加一倍”,尤其是生物智能领域的潜在威胁可能“放大数倍”。“必须设置不可逾越的红线,比如禁止自我复制。人类发明技术的智慧,需与引导技术走向的智慧并重。”他说。

    “AI发展应用和安全之间的关系不是相互掣肘。”曾毅指出,研究团队已经通过实验证明,提升大模型安全能力,如伦理约束,不会影响AI的认知能力、求解能力。

    “伦理安全应该作为AI大模型发展的基因,作为第一性原理,不可删除、不可违背,并做到稳健发展。”曾毅说,确保AI安全的基础性地位,需要从源头融入技术。

    面对技术风险防控、伦理规范落地等AI治理挑战,各国是否形成治理共识?多位嘉宾表示,尽管当前技术发展突飞猛进,但全球AI治理框架仍存在显著分歧。“过去这些年,关于AI治理的进展比较有限。”中国社会科学院大学教授江小涓指出,从经济学视角来说,AI需要解决的核心问题是效率与公平。

    AI治理该由谁管?怎么管?张亚勤认为,在AI治理领域需要设立两个机构,一个负责技术与产业标准制定,另一个则承担政策协调与国际治理职能。

    对此,芬兰前总理埃斯科·阿霍主张,AI治理不应依赖单一国际组织,可以借鉴欧盟制定移动通信标准的经验,由政府、企业、科研机构共建动态标准。

    而经济合作与发展组织全球关系与合作主任安德里亚斯·绍尔认为:“我们需要开放的、不断学习演进的AI治理机构,并且需要多层级、多部门、更多利益相关方参与。”

 
(文/小编)
打赏
免责声明
• 
本文为小编原创作品,作者: 小编。欢迎转载,转载请注明原文出处:/news/show-7363911.html 。本文仅代表作者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,作者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们。
 

(c)2016-2021 SOQUANMAO.COM All Rights Reserved搜全贸版权所有 浙ICP备2021030705号-2

浙ICP备2021030705号-2