齐齐哈尔新闻网北京12月11日电 当今世界,新一轮科技革命和产业变革突飞猛进,以人工智能为代表的新兴科技快速发展,人类正在进入一个“人机物”三元融合的万物智能互联时代 ,但人工智能也带来了安全、隐私、公平等问题和挑战,如何能够实现值得信赖的人工智能?
“有很多标准方法来确保计算系统的可靠性,比如:测试、模拟、良好的软件工程实践,这些都是必要的。同时,形式化方法可以补充这几种方法,来构建可信系统的标准方法。”哥伦比亚大学常务副校长、计算机科学系教授周以真10日在2022人工智能合作与治理国际论坛上如是指出。
哥伦比亚大学常务副校长、计算机科学系教授周以真在2022人工智能合作与治理国际论坛上发言。2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。
周以真表示,对于某些任务来说,人工智能系统已经取得了足够好的性能。比如,可以将它们部署在我们的街道和家中,用来识别物体或语音。在围棋或其他的游戏中,甚至能超过人类的表现。
“人工智能的前景相当广阔,它们会帮我们开车,能帮助医生更加准确地诊断疾病,能帮助法官作出更为一致的法庭判决,也能帮助雇主雇佣更加合适的求职者。”她说。
同时,周以真指出,人工智能系统也可能是脆弱和不公平的。比如,在停止道路标志上添加涂鸦,会使分类器会以为它不是一个停车标志,等等。
周以真认为,计算系统的可信赖性意味着一组属性,包括可靠性、安全性、隐私性、可用性等。建议网络安全机构可以和统计学家进行交流形式化方法、计算机科学、人工智能等,“因为他们多年以来一直在处理关于如何评估一个模型好坏的问题,因此我们可以从统计学界学习。”(中新财经)