国际品牌资讯
您的位置:首页 >互联网 >

AI研究人员创建测试工具以查找来自亚马逊和谷歌以及微软的NLP中的错误

时间:2020-07-13 16:57:14 | 来源:

人工智能研究人员创建了一种语言模型测试工具,该工具发现了来自亚马逊,谷歌和微软的商业化云人工智能产品中的主要错误。昨天,详细介绍CheckList工具的论文获得了计算语言协会(ACL)会议组织者的最佳论文奖。ACL会议于本周在线举行,是研究人员创建语言模型的最大年度聚会之一。

如今,经常会根据NLP模型在一系列单独任务上的执行情况来对它们进行评估,例如使用带有GLUE排行榜的基准数据集来回答问题。相反,CheckList采用了​​与任务无关的方法,使人们可以创建测试,以功能(按行)和测试类型(按列)以及可视化和其他资源填充类似电子表格的矩阵中的单元格。

使用CheckList进行分析发现,当在文本中放置随机缩短的URL或Twitter句柄时,Amazon的理解分析会发生大约四分之一的情感预测变化;当文本中的人或地点的名称发生变化时,Google Cloud的自然语言和Amazon的Comprehend都会出错。 。

“当否定句出现在句子结尾时(例如,'我以为飞机是可怕的,但事实并非如此'),或者在否定和充满情感的词,”该论文说。

尽管在Quora Question Pair基准测试挑战中超越了人类的准确性,但CheckList在解释Quora问题的答案时也发现了缺点。微软,华盛顿大学和加利福尼亚大学欧文分校的CheckList的创建者表示,结果表明,使用该方法可以改善任何现有的NLP模型。

“虽然传统基准表明这些任务的模型与人类一样准确,但CheckList揭示了各种严重的错误,其中商业和研究模型无法有效处理基本语言现象,例如否定,命名实体,共指,语义角色标签等。 ,因为它们与每个任务有关,”该论文说。“拥有CheckList的NLP从业者创建的测试数量是没有它的用​​户的两倍,发现的错误几乎是没有它的用​​户的三倍。”

还使用CheckList对Google的BERT和Facebook AI的RoBERTa进行了评估。作者说,BERT在机器理解方面表现出性别偏见,例如绝大多数预测男性是医生。还发现BERT在处理有关无神论者,黑人,同性恋者或同性恋者的文字时,总是对异性恋或亚洲人做出积极的预测,而对消极预测则总是做出消极的预测。2020年初的分析还发现大型语言模型之间存在系统性偏差。

近几个月来,从Nvidia的Megatron到Microsoft的Turing NLG,已经设计出了一些基于Transformer的最大语言模型。大型语言模型在特定任务上的成绩令人印象深刻。但是一些NLP研究人员认为,专注于单个任务的人类水平性能会忽略NLP系统仍然脆弱或不那么健壮的方式。

作为与Microsoft负责文本分析的团队进行的用例测试的一部分,TextList是客户当前正在使用的模型,该模型已经过多次评估,CheckList发现了以前未知的错误。Microsoft团队现在将在评估NLP系统时将CheckList用作其工作流程的一部分。来自行业和学术界的人员在两个小时的时间内使用该工具测试了AI,他们还发现了最新的NLP模型中的错误或错误。目前,GitHub上提供了CheckList的开源版本。

行为测试有时被称为黑盒测试,是软件工程中常见的一种方法,但在AI中却不是。CheckList能够在情感分析,机器理解和重复问题检测等领域进行测试。它还可以分析三种任务范围内的功能,如健壮性,公平性和逻辑测试。

作者的结论是明确的,仅基准任务不足以评估NLP模型,但他们还说CheckList应该补充而不是替代现有的挑战和用于测量语言模型性能的基准数据集。

“少量测试选择说明了除标准评估外系统测试的好处。根据基准精度结果,这些任务可能被视为“已解决”,但测试强调了各个方面的改进,特别是未能证明基本技能是手头任务的实际需求。”

ACL的其他值得注意的工作包括华盛顿大学教授Emily Bender和萨尔大学教授Alexander Koller的研究,该研究获得了最佳主题奖。该论文认为,大型神经网络NLP模型(例如GPT-3或BERT衍生物)的进步值得称赞,但媒体和学术界不应将大型神经网络理解为能够理解或理解的东西,而清晰和谦逊是在定义含义或理解之类的想法时,需要在NLP领域中使用。

报告写道:“虽然大型神经语言模型很可能最终成为人类对自然语言理解的全面解决方案的重要组成部分,但它们几乎不是解决这一巨大挑战的解决方案。”

最后,美国陆军研究实验室,伊利诺伊大学,厄巴纳香槟分校和哥伦比亚大学的系统因其名为GAIA的系统而获得了最佳演示论文奖,该系统可用于对图片和视频等多媒体文本进行查询。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。