欢迎光临优站分类目录!
当前位置:优站分类目录 » 站长资讯 » 业界资讯 » 文章详细 订阅RssFeed

苹果Siri带有歧视意味的名词解释到底从哪来?

来源:凤凰科技 浏览:306次 时间:2015-12-07

  苹果CEO库克

  北京时间12月4日消息,据科技网站Mashable报道,Siri摊上大事了,因为它在解释一个名词时带有明显的种族歧视倾向。这种情况到底是苹果故意而为还是出了什么别的问题呢?

  众所周知,Siri的回答一直都挺逗的,但这家伙最近却因为一个词条的解释遭到了各界的批评。

  黑人人权运动Black Lives Matter的参与者德雷·麦克森(DeRay Mckesson)在使用Siri时发现了一个严重的歧视问题,语音助手将单词“bitch”(母狗)定义为“黑人常用俚语”。下面笔者摘录了一些Twitter上的内容。

  Siri搜索“Bitch”这个词显示的结果

  “刚听到这个消息我还不信,试了一下我才发现还真是这样,苹果你够了。”

  “我也遇到了这种情况,真恶心。”

  首先,笔者想说的是这种问题不是Siri独有。苹果OS X内建的字典也有这种问题,此外,试试谷歌搜索你也会得到相同的解释,不过谷歌已经迅速对其进行了修改。笔者针对该问题询问了苹果和谷歌,不过两家公司都不予置评。

  Siri到底吃错了什么药?

  两家公司的名词解释词条都来自新牛津美语大辞典,但我们在牛津在线词典查询时,却发现它们对其加上了“无礼”的标签。而在Kindle版的新牛津美语大辞典上,这种歧视性的定义并没有出现。这到底是怎么回事呢?

  由于这些词条来自牛津词典,所以两家公司都会调用其数据库API,而这些数据来自牛津大学出版社,这也就意味着其词条的更新速度和频率非常缓慢。

  只要查询之前的网页快照,我们就能发现,这个侮辱性的词条之前确实存在,Siri背黑锅还真是因为数据升级缓慢?

  这个问题也凸显了数据利用方面的问题。苹果和谷歌借助其他机构的数据来方便人们的搜索,虽然很便捷,但语音提问和传统的网页搜索是两码事,因此很容易出岔子。

  对于赛事比分等结果,语音助手能很好的完成任务,但对于此类词条解释,苹果和谷歌还是要负起责任,加大检查力度。

  当然,这也不是苹果第一次因为这类问题遭炮轰了。2013年,Siri就因为对“retard”(傻子)一词的错误定义而被骂的狗血喷头。今年早些时候俄罗斯版的Siri也因为对同性恋者的不尊重而广遭吐槽。不过最终苹果都对这些词条进行了修改。

  • 网页咨询