在去年举行的谷歌会议上,谷歌当时的人工智能(AI)负责人John Giannandrea表示,我们不需要担心杀手机器人,相反,我们需要担心的是AI偏见。如果要说真正的安全问题,那就是如果我们给这些系统提供有偏见的数据,那么生成的AI模型就会有偏见。这是谷歌过去一直在努力解决的问题。2015年6月,谷歌照片应用的算法曾经错误地将黑人分类为“大猩猩”,引发了轩然大波。
因此,从IBM到Airbnb,每家公司都在努力确保自己算法不会出现类似的偏差。
最近一段时间,谷歌为解决AI偏见又上了紧箍咒。对于谷歌机器学习道德、信任和安全主管Jen Gennai来说,防止出现数据和AI偏见实际上就是他的工作内容。Gennai负责领导一个跨公司的团队,对谷歌的新产品和服务进行分析和咨询,以确保所有新产品都遵守这一道德标准。
如果我们要打造一项新技术,我们需要确保它从一开始就走在正确的轨道上。谷歌制定AI技术开发七大准则。今年6月,Google首席执行官Sundar Pichai发布了该公司的人工智能原则,指导谷歌在这些方面的工作和研究,包括确保Google员工不会制造或加强不公平的AI偏见。
Pichai表示,AI的开发和使用将在未来许多年内对社会产生重大影响。作为AI的领导者,我们感到自己有责任做到这一点。
这种关于人AI技术的新立场是受到谷歌出现问题的影响而提出的。除了“大猩猩”事件之外,哈佛大学研究人员Latanya Sweeney发现谷歌搜索中的存在种族歧视。当搜索类似黑人名字时,会比搜索类似白人名字更有可能出现与“被逮捕”相关的广告。这些现象都是我们的部门成立的原因,不应该让我们的用户看到这些,我们需要首先阻止这些偏见的产生。
现在每当谷歌推出新产品时,都会接受Gennai及其团队的严格测试。
来自技术、法律、隐私和社会科学等领域的专家聚集在一起,根据谷歌制定的AI准则对每个产品进行分析。这种测试主要是找出产品的优缺点。我们并不是公司里可怕的监工。我们想的是,希望公司能推出最好的产品,所以我们要找出所有可能出错的漏洞,以便解决问题。在谷歌智能助理给真人打电话的功能上,产品团队事先就AI如何处理不同口音做了大量工作,但Gennai的测试团队提出了一些其他问题。
我们研究了用户如何与之互动,如何利用技术降低AI的偏见。我们提出了问题,要如何判断用户是不是有口吃或语言障碍。产品开发团队做了很多工作,但我们试图缩小所有差距,提升产品表现。
改进数据集质量改善AI偏见的一种方法是改进数据集。Gennai举了一个婚礼的例子。过去,如果你在Google图片上搜索“婚礼”,得到的结果是白人穿着婚礼礼服的照片,因为算法是在基于西方人的数据源上进行训练的。
然而,这对印度或中国的谷歌用户就不合适。谷歌要求人们提交世界各地的婚礼照片,以改善数据集。现在,我们得到了印度用户的大量反馈,他们向我们发送了许多色彩缤纷的婚礼照片,我们希望了解我们现有资源,创建偏见相对较小的新资源。
让用户也能理解算法了解谷歌算法的内部工作流程,有助于团队更好地进行修改。
比如用谷歌搜索“CEO”时出现的问题,当你在搜索栏中键入“CEO”时,你会看到一些穿着西装打着领带的白人男子的图片。Gennai的团队调查数据时发现,这个现象往往并不是人为偏见,而是技术上的偏见。在算法看来,海军蓝像素就等于CEO,而且因为白人男性更容易穿蓝色西装,所以这纯粹是模型学习的方式问题。但这表明我们需要仔细检查数据。让谷歌用户了解公司算法的运作方式也是很重要的。
谷歌用户现在可以查看为你投放广告的原因,并查看由算法做出的决定。用户还可以查看为何会在谷歌搜索结果中看到某个链接,具体取决于用户之前的搜索记录。Gennai表示,这是为了帮助用户更多地了解谷歌,以便他们可以信任谷歌搜索。
透明度也是谷歌AI原则的一部分。但是“与用户共享一个完整的算法根本没有用,反而可能会引起更多的混淆,并感觉我们是故意混淆。
但是,用用户可读的语言解释算法,将有助于人们了解谷歌正在尝试做的事情,即使我们做错了。”Gennai说。解决AI偏见,光靠谷歌不够。说到最后,偏见的根源其实还是来自人类。我们每个人都有偏见,我们现有的全部数据源,都是建立在我们每个人和过去的历史偏见之上。但是,仅仅因为这一点,并不能说我们无法阻止偏见。相反,谷歌试图尽可能调查和解释最大的偏见来源,并尝试改变。
从这个角度看,谷歌的AI准则在公司内部非常重要,也是因为这个原因,谷歌为公司外的人创建了“负责任的AI”开发实践项目,这些人正在使用其开源软件来构建人工智能和机器学习算法。我们希望能够以身作则,提供相关工具和知识,让更多的人能够遵循这些准则。