虽然大多数人每天都会遇到算法,但没有多少人能声称自己真正理解了人工智能是如何工作的。然而,谷歌发布的一款新工具希望能够帮助普通人理解机器学习的复杂性。
这种功能被称为“可解释的人工智能”,它承诺完全按照它的名字描述的那样去做。3360向用户解释机器学习模型如何以及为什么得出结论。
因此,解释工具将量化数据集中每个特征对算法结果的贡献。每个数据因素都有一个分数,这个分数反映了它对机器学习模型的影响。
参见:如何实现人工智能和机器学习(ZDNet专题报道)
用户可以提取这个分数来理解为什么给定的算法会做出特定的决定。例如,在决定是否批准某人贷款的模型中,可解释的AI将显示账户余额和信用评分作为最具决定性的数据。
谷歌首席执行官托马斯库里安(Thomas Courrian)在谷歌于伦敦举行的下一次新闻发布会上介绍了这一新功能,称:“如果你使用人工智能评分,你应该能够理解为什么这个模型会拒绝一个特定的模型,而接受另一个。”
他说:“可解释的人工智能让你,作为一个在企业业务流程中使用人工智能的客户,理解为什么人工智能基础设施会产生特定的结果。”
这个解释工具现在可以用于谷歌AutoML表上托管的机器学习模型和云人工智能平台预测。
谷歌之前已经采取措施让算法更加透明。去年,它推出了一个假设工具,允许开发人员在公司的人工智能平台上可视化和检测数据集。
通过量化数据因素,可解释的人工智能打开了进一步的见解,并使这些见解对更多用户可读。
谷歌云的战略总监特雷西弗雷(Tracy Frey)表示,“你可以将人工智能的解释与我们的假设工具结合起来,以获得你的模型行为的全貌。”
提高人工智能的透明度将在医疗保健等领域特别有用。
例如,在用于诊断某些疾病的算法中,它会让医生可视化模型捕捉到的症状以做出决定,并验证这些症状不是假阳性或不同疾病的迹象。
该公司还宣布将引入一个名为“模型卡”(Model Card)的新概念,即——,它提供关于特定算法的即时信息的简短文档。
见:谷歌使呼叫中心人工智能普遍可用。
这些文档本质上是机器学习的身份证,包括关于模型的性能和限制的实际细节。
据该公司称,这将“帮助开发人员更好地决定出于什么目的使用什么模型,以及如何负责任地部署它们。”
Google发布了两个模型卡示例,提供了关于人脸检测算法和物体检测算法的详细信息。
人脸检测模型卡解释了算法可能会受到人脸大小、方向或光线不好的限制。
用户可以阅读模型的输出。以及性能和局限性。例如,人脸检测模型卡解释了算法可能会受到人脸大小、方向或光线不佳的限制。
今天宣布的新工具和功能是谷歌试图证明其坚持人工智能原则的一部分。人工智能的原理要求这项技术的发展要透明。
今年早些时候,该公司解散了人工智能道德委员会,该委员会成立仅一周,旨在监督其人工智能的使用。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!