Meritalk网站8月18日消息,美国国家标准技术研究院(NIST)提出了四项原则,以确定AI所做决定的“可解释”程度。“可解释人工智能的四项原则”(NISTIR 8312草案)是NIST基础研究的一部分,旨在通过理解AI的理论能力和局限性以及通过提高AI使用的准确性(accuracy)、可靠性(reliability)、安全性(security)、鲁棒性(robustness)和可解释性(explainability)来建立对AI系统的信任。

可解释AI的四项原则是:

● 人工智能系统为所有输出提供相关证据或原因;

● 人工智能系统应向个体用户提供有意义且易于理解的解释;

● 所提供的解释应正确反映AI系统生成输出结果的过程;

● AI系统“仅在预设或系统对其输出有足够信心的情况下运行。”

NIST电子工程师乔纳森·菲利普斯(Jonathon Phillips)表示,人工智能正在参与高风险的决策,没有人希望在不理解原因的情况下让机器做出决策。但是,工程师所满意的解释可能不适用于具有不同背景的人。因此,希望获取多元观点和意见来完善草案。随着可解释AI的发展,人们可能会发现AI系统的某些部分比人类更能满足社会的期望和目标。理解人工智能系统以及人类行为的可解释性,为寻求结合两者优势的方法打开了大门。

编译 | 贺佳瀛/赛博研究院研究员

声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。