哥伦比亚大学常务副校长周以真:发展人工智能需构建可信系统的标准方法
本文摘要:”哥伦比亚大学常务副校长、计算机科学系教授周以真10日在2022人工智能合作与治理国际论坛上如是指出。哥伦比亚大学常务副校长、计算机科学系教授周以真在2022人工智能合作与治理国际论坛上发言。

  齐齐哈尔新闻网北京12月11日电 当今世界,新一轮科技革命和产业变革突飞猛进,以人工智能为代表的新兴科技快速发展,人类正在进入一个“人机物”三元融合的万物智能互联时代 ,但人工智能也带来了安全、隐私、公平等问题和挑战,如何能够实现值得信赖的人工智能?

  “有很多标准方法来确保计算系统的可靠性,比如:测试、模拟、良好的软件工程实践,这些都是必要的。同时,形式化方法可以补充这几种方法,来构建可信系统的标准方法。”哥伦比亚大学常务副校长、计算机科学系教授周以真10日在2022人工智能合作与治理国际论坛上如是指出。

哥伦比亚大学常务副校长、计算机科学系教授周以真在2022人工智能合作与治理国际论坛上发言。

  2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。

  周以真表示,对于某些任务来说,人工智能系统已经取得了足够好的性能。比如,可以将它们部署在我们的街道和家中,用来识别物体或语音。在围棋或其他的游戏中,甚至能超过人类的表现。

  “人工智能的前景相当广阔,它们会帮我们开车,能帮助医生更加准确地诊断疾病,能帮助法官作出更为一致的法庭判决,也能帮助雇主雇佣更加合适的求职者。”她说。

  同时,周以真指出,人工智能系统也可能是脆弱和不公平的。比如,在停止道路标志上添加涂鸦,会使分类器会以为它不是一个停车标志,等等。

  周以真认为,计算系统的可信赖性意味着一组属性,包括可靠性、安全性、隐私性、可用性等。建议网络安全机构可以和统计学家进行交流形式化方法、计算机科学、人工智能等,“因为他们多年以来一直在处理关于如何评估一个模型好坏的问题,因此我们可以从统计学界学习。”(中新财经)

【编辑:程春雨】