为什么人类是对抗人工智能偏见的关键

汪亮芳
导读 人工智能曾经是科幻小说中的东西。但今天,它以聊天机器人、语音助手甚至谷歌地图的形式融入了我们的日常体验。事实上,根据统计的数据,现

人工智能曾经是科幻小说中的东西。但今天,它以聊天机器人、语音助手甚至谷歌地图的形式融入了我们的日常体验。事实上,根据统计的数据,现在有84%的全球商业组织认为人工智能会给他们带来竞争优势。

人工智能可能很常见(至少在简单的层面上),但要将它发展到成熟则更难以捉摸。训练机器像人类一样学习、响应和操作,需要在无数情况下输入大量数据。

对于组织来说,面对许多潜在的问题,仅仅管理它们是非常困难的。最常见也可能是最危险的问题是数据偏差。如果组织计划在人工智能方面做得很好,那么处理这种偏见应该是它的首要任务。否则,公司将面临算法交付错误结果的风险,并可能疏远大多数客户。

解决这个问题的第一步是首先了解算法是如何变得有偏差的。每个开发人员(对于这件事,每个人)都有有意识和无意识的偏差,这会影响他们最初的开发,而且因为算法的智能只有训练数据那么聪明,可能会成为危险的先例。不良数据可能导致有偏见的人工智能做出伤害人和人的积极决策。然而,人类虽然是一切偏见的根源,但也是消除偏见的关键。

如今的消费者希望人工智能变得更加自然和人性化,但要实现这一点,算法中输入的数据必须更能代表现实世界。

大规模收集真人的各种训练数据就是做到这一点的方法。利用涵盖许多国家、年龄、性别、种族、文化、政治派别、意识形态、社会经济和教育水平的经审查的全球社区,组织可以验证其算法正在产生准确的、类似人类的和真正有用的结果。这适合于获得训练数据的基准集和正在进行的数据收集,因此建议引入一个允许持续反馈和修改的结构。

可能是一些用户报告了产品某些方面的问题,例如语音或面部识别,然后可以将此反馈纳入下一个版本的算法中,供未来用户使用。

现实是,尽管技术无限实现,艾也只能和写它的人一样好。当我们考虑每个人有意无意的偏见时,会造成很多问题。在某种程度上,人工智能总是有偏差的,但通过在发布前收集实际的人类交互,企业可以训练自己的算法,获得能够为客户提供真正价值的结果。

我们已经到了人工智能开始影响决定我们社会中个人和集体未来的地步。因此,开发这些算法的公司必须发挥积极作用,才能让人工智能更好地反映社会,让每个人都更加公平。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!