正规实盘杠杆平台排行
正规杠杆平台排行
  • 股票配资开户网 安全是大模型的核心竞争力 应成为技术的内建基因

    2024-08-26 22:26182

    股票配资开户网 安全是大模型的核心竞争力 应成为技术的内建基因

    恩捷股份(SZ002812股票配资开户网,前收盘价28.67元,市值280亿元)近期的股价表现和公司治理问题引起了市场的广泛关注。7月23日的公告显示,公司实际控制人及其一致行动人因超比例违规减持股份而受到监管警示,这不仅暴露了公司在信息披露方面的不足,也反映了内部治理的深层次问题。

      以大模型为核心人工智能技术重现颠覆式突破,成为数字经济增长的新动能。与此同时,从算法的漏洞,到数据隐私泄露,从自主性系统的失控,到恶意利用带来的潜在威胁,人工智能安全隐患是未来发展的严峻挑战。

      2024年7月24日,中国人工智能产业发展联盟(AIIA)安全治理委员会召开成果发布会,监管部门、专家学者与行业代表围绕AI新技术新应用企业出海合规实践讨论,共商人工智能安全向善。

      与会专家一致强调安全的重要性,安全是人工智能的一个必答题,也是大模型的核心竞争力。目前没有任何一个人工智能产品可以说是绝对安全和可信的,亟待各界共建一套完善的安全体系。

      安全不是人工智能的选择题,而是必答题

      人工智能安全已成为业内共识。AIIA安全治理委员会治理组组长呼娜英指出,人工智能安全分为自身安全与衍生安全,自身安全主要是模型、数据、芯片、系统、算力、网络以及应用业务存在的固有风险;衍生安全则是指人工智能实践应用中带来的安全问题,目前概念较为模糊。

      本轮人工智能主要以生成式人工智能发展为突破点,大模型是技术底座。360集团副总裁张向征认为,大模型幻觉问题可能导致生成错误信息,可信度即使提升到90%、95%,5%、10%的误差,也会导致人工智能在容错率低的应用场景难以落地。

      北京邮电大学教授、博士生导师、网络空间安全学院副院长张熙总结目前人工智能安全的四个局限,一是缺少全生命周期安全风险分析管控,目前停留在单点安全研究;第二是安全评测以静态评测为主,缺少自演化自评估能力,难以适用日新月异的大模型发展;第三,数据隐私、版权保护与利用存在一定矛盾;第四目前主要靠外挂护栏打补丁的方式保证安全,那效率和可靠性存在一定不足,需要与内生安全开展协同的设计。

      “目前人工智能大模型的主要形态是聊天机器人,未来会在更多关键领域场景进行落地,如在安全、制造、医疗、科研、军事等更加关键场景发挥重要的作用。安全就更为重要。”张熙指出。

      信通院人工智能所安全与元宇宙部黑一鸣总结了信通院在大模型安全测评和安全防御加固方面的研究工作。他首先介绍了信通院发布的AI Safety Benchmark测评工作,测评结果显示多个开闭源大模型在恶意诱导手段下的攻击成功率均出现明显上升,证明了大模型在安全方面的脆弱性。然后,他介绍了信通院提出的安全加固方案,能够抵御复杂攻击手段,极大提升模型内生安全能力。最后,他倡议:“产学研加强合作,共同推动人工智能安全向善。”

      要使得人工智能安全与能力取得平衡?中国科学院自动化研究所研究员、国家新一代人工智能治理专委会委员、联合国人工智能高层顾问机构专家曾毅并不认同这种观点。“人工智能安全本身就是人工智能能力的体现,把人工智能做得更安全,并不会降低人工智能的能力,更安全的系统人工智能的认知能力会更强。”

      “安全是大模型的核心竞争力。”阿里研究院 AI 治理中心副主任王铮表示。

      曾毅认为,安全不是一个人工智能的分支或一个研究领域,而应该是所有人工智能科研工作者内建的基因。“不是一个选择题,而是一个必答题。”

      关于安全测评,曾毅坦陈,国内在大模型的内容安全、价值安全、数据安全、模型安全等领域做得较好,但在系统安全、应用安全方面相对欠缺。有些单位可能只在内容安全、价值安全上做了工作,数据安全模型方面基本空白,没有任何一家能构建完善的安全体系。“目前没有任何一个人工智能产品可以说是绝对安全和可信的,我们的目标是开发可信安全的人工智能。”曾毅坦陈说。

      他还表示,目前人工智能既没有通过相关测试,也没有做到绝对安全,人类社会的规则无法穷尽,不同文化的规则也难以穷尽,要使人工智能发展为真正有道德的人工智能,需要从具有一定程度的自我发展到能够区分自我和他人,产生认知共情,获得利他的道德自觉,最终产生道德的推理。

      考虑引入守门人监管模式,促进大企业发挥示范作用

      中国法学会法治研究所研究员、中国法学会网络与信息法学研究会副秘书长刘金瑞指出,人工智能大模型的风险具有传导性,上游模型训练带来的风险会传导至下游的模型部署。制定人工智能管理规制不能仅针对大模型下游部署者,还要规范上游提供者。目前国内外都在探索制定相关规制,欧盟立法存有问题,我国的规制也难以落实,需要完善。

      面对日益严峻的人工智能安全问题,北京市金杜律师事务所合伙人宁宣凤表示,应对人工智能进行事前评估、事中控制、事后问责全流程管控。

      事前建立一套以风险评估为核心的治理工具,确保人工智能的可靠性、安全性。宁宣凤说道,“从目前实现来看,网信办按照《生成式人工智能服务管理暂行办法》采取双备案措施,既能预先识别和防控风险,也不至于过度提高市场准入门槛。”

      事中控制应从企业侧、监管侧、市场侧三个维度考虑,企业侧应完善人工干预机制,监管侧进行科学干预,纠正人工智能跑偏,市场侧需要从技术、法律等第三方专业机构寻求辅助,协同完成工作,实施有效的事中控制。宁宣凤还认为,“在人工智能治理中,应当赋予用户相应权利,让用户更为主动的维护自身利益,同时也能够间接发挥社会监督效果。”

      她还强调,事后问责应厘清和精细化责任分配制度,同时应严厉惩罚违反基本伦理和严重违法的行为。考虑引入守门人监管模式,促进大企业发挥示范作用,保护中小企业公平竞争。

      构建人工智能安全任重道远,曾毅指出,为人工智能划定红线仍有很长的路要走,要确保人工智能可信,防范可能存在的长远风险必须从今天开始。他还强调,护航人工智能的安全股票配资开户网,既需要做到技术层面防护,更关键的是不能放弃人类监管的责任和义务。

    版权声明: 本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。