联想副总裁:AI重在提高可解释性 中国基础研究待加强

2019-09-28 08:39已围观

(特派旧金山记者 张琪)联想集团副总裁、联想研究院人工智能实验室负责人徐飞玉表示,目前深度神经网络(DNN)的“黑盒子”特性,阻碍了人工智能的落地和商业化。只有人类理解了AI的决策过程,才能将其应用于更广泛的社会场景中。

徐飞玉在9月25日至26日在旧金山举行的人工智能峰会(The AI Summit)上以“可解释的人工智能:历史、挑战、方法和展望”为题做了主题演讲。

她表示,目前深度神经网络是不可解释的黑盒子,阻碍了人工智能的落地和商业化。因此,研究可解释的AI非常重要,可提高算法透明性,也有助于事后诠释。它带来的透明系统能够使用户更好地理解一个决策,使技术开发人员更好地了解DNN,有助于数据学习和参数设置,进而改善系统。

搜索

广告位
广告位

标签云

广告位