齐齐哈尔新闻网8月17日电 题:人工智能商业化提速,如何平衡创新与治理?
中新财经记者 夏宾
在大模型、AIGC引领的产业热潮下,人工智能商业化落地提速,企业关心将技术应用到产业中产出价值,从政府的角度也必须要考虑如何平衡创新和治理间的关系。
“人工智能确实成为当前引领新一轮科技革命发展潮流,大家也有一定担心,生成式AI被视为一种颠覆性技术,同时具有破坏性,它是双刃剑,可以解放生产力、发展生产力,但是对现有的破坏也需要考量,可能带来不可预知的风险和挑战。”中国国际经济交流中心经济研究部副部长刘向东近日在京参加腾讯举行的“人工智能技术创新发展”研讨会时如是说。
刘向东说,社会担心,若不对生成式AI进行有效监管,在伦理和安全上会产生较大挑战,甚至产生不可预知的风险,比如出现它不受人控制的情况都可能存在。
他进一步称,由此,各国家都对如何发展人工智能提出了一些办法,中国政府也发布了《生成式人工智能服务管理暂行办法》,这既需要把生成式AI发展和应用的范围划定清晰,同时又不妨碍其发展,所以在包容审慎和分类分级监管方面通过一个暂行办法,如有不合适的,根据各方反馈再去调整,如此促进生成式人工智能的发展。
中国信通院云大所人工智能部副主任曹峰表示,从大模型发展趋势来看,今年是大模型多、应用范围多,且向医疗、教育、能源、电力、工业等行业深度融合。
但他也提出,大模型的可信风险日渐突显,大模型本就没有解决原来人工智能存在的问题,比如可解释、黑盒、数据泄露、不稳定等问题,同时带来很多新的问题,比如涉及知识产权问题、生成不恰当内容问题以及生成虚假肖像、图片、语音而用于非法行为的问题。
为解决上述问题,曹峰建议,从政策层面,比如网信办对生成式人工智能的相关规定,同时国际上不断强调需要关注伦理、隐私、版权等问题。
从产业层面,很多产业机构等也提出了大模型需要产业重视的问题,比如重视数据风险、模型风险、隐私风险等一系列风险。“我们需要从技术和管理双管齐下,在技术层面的隐私保护技术、公平性技术、可解释性技术等,在管理层面的风险管理、人员管理、质量管理、合规管理等。”
北京理工大学计算机学院副教授、网络与安全研究所所长闫怀志强调说,人工智能系统自身安全问题容易被忽视,它是个盲点。具体体现在多个方面,比如对抗机器学习,恶意样本生成,训练数据污染,出现伪造脏、假数据的情况。
闫怀志直言,问题出在“智能算法的理想”与“软件实现的现实”的差异。一是人工智能框架安全,现在开源人工智能编程框架和商业人工智能编程框架很多,二是人工智能算法安全,对抗样本的出现就证明了人工智能算法缺乏可解释性,三是人工智能数据安全,构造一些非法数据、误导数据实施干扰,从而造成机器学习模型的过拟合或完全失效。
人工智能行业天使投资人郭涛认为,人工智能监管趋严是人工智能商业化面临重大问题之一,比如AIGC内容生成的相关版权归属问题,训练数据合法性问题,大量人脸数据、图片数据等的来源问题,对数据来源的监管、算法模型的监管、对应用场景的监管、对社交平台的监管,这些监管趋势都非常严。
腾讯研究院产业研究中心负责人宋扬则提到,大模型对现有知识产权有一定冲击,尤其对版权有一定冲击,而从伦理和安全角度,AI生态需要更加完善。
宋扬表示,高盛预测AI将取代3亿人的全职工作,世界经济论坛的报告表明未来五年劳动者44%的核心技能会发生改变。此外,用AI生成类似真人的数字人技术,它会进行新型诈骗,目前已经有诈骗案例出现,所以推动AI伦理及AI安全需要产业共同努力。(完)
【编辑:陈海峰】