BERT

✍ dations ◷ 2025-10-21 23:08:12 #BERT

基于变换器的双向编码器表示技术(英语:Bidirectional Encoder Representations from Transformers,BERT)是用于自然语言处理(NLP)的预训练技术,由Google提出。2018年,雅各布·德夫林和同事创建并发布了BERT。Google正在利用BERT来更好地理解用户搜索语句的语义。

最初的英语BERT发布时提供两种类型的预训练模型:(1)BERTBASE模型,一个12层,768维,12个自注意头(self attention head),110M参数的神经网络结构;(2)BERTLARGE模型,一个24层,1024维,16个自注意头,340M参数的神经网络结构。两者的训练语料都是BooksCorpus以及英语维基百科语料,单词量分别是8亿以及25亿。

BERT在以下自然语言理解任务上的性能表现得最为卓越:

有关BERT在上述自然语言理解任务中为何可以达到先进水平,目前还未找到明确的原因。目前BERT的可解释性研究主要集中在研究精心选择的输入序列对BERT的输出的影响关系,通过探测分类器分析内部向量表示,以及注意力权重表示的关系。

BERT起源于预训练的上下文表示学习,包括半监督序列学习(Semi-supervised Sequence Learning),生成预训练(Generative Pre-Training),ELMo(英语:ELMo)和ULMFit。与之前的模型不同,BERT是一种深度双向的、无监督的语言表示,且仅使用纯文本语料库进行预训练的模型。上下文无关模型(如word2vec或GloVe(英语:GloVe))为词汇表中的每个单词生成一个词向量表示,因此容易出现单词的歧义问题。BERT考虑到单词出现时的上下文。例如,词“水分”的word2vec词向量在“植物需要吸收水分”和“财务报表里有水分”是相同的,但BERT根据上下文的不同提供不同的词向量,词向量与句子表达的句意有关。

2019年10月25日,Google搜索宣布他们已经开始在美国国内的英语搜索查询中应用BERT模型。2019年12月9日,据报道,Google搜索已经在70多种语言的搜索采用了BERT。

在2019年计算语言学协会(英语:Association for Computational Linguistics)北美分会(NAACL(英语:North American Chapter of the Association for Computational Linguistics))年会上,BERT获得了最佳长篇论文奖。

相关

  • 菟丝菟丝 (学名:),为旋花科菟丝子属下的一个种,植株通常呈淡黄色的旋花科寄生植物。中国大陆 (东北、河北、陕西、四川、河南、山东、广东)、台湾、韩国、日本。菟丝子的宿主有豆科
  • 淋溶土淋溶土(英语:Alfisol),又名淋育土、聚铝铁土,是美国农业部土壤分类系统(英语:USDA soil taxonomy)划分土纲之一。淋溶土在湿润到半干旱半湿润的地方形成,尤其是在硬木森林的覆盖下。
  • 玉米糖浆玉米糖浆(英语:Corn syrup)是一种食用糖浆,由玉米的淀粉制成,糖浆含有麦芽糖及多寡糖,而它们的含量随糖浆的品质而定。在食物中加入玉米糖浆,可以软化质感、增加容量、防止糖分结晶
  • 罗伯特·培根罗伯特·培根(Robert Bacon,1860年7月5日-1919年5月29日),美国政治关、外交关,曾任美国国务卿。
  • 保罗·比约格·姆巴保罗·比约格·姆巴(法语:Paul Biyoghé Mba,1953年4月18日-),加蓬民主党成员。2009年7月17日任加蓬总理。姆巴出生于Komo-Mondah 部分的Donguila。曾经在法国雷恩大学学习工商管
  • 约伯·查诺克约伯·查诺克(?-1693年),英国人,查诺克于1655年或1656年即前往印度并随即任职于东印度公司。他首站驻守北印度卡辛巴刹尔(Kasimbazar)并以殖民侵略手段大举经营该区域。1680年代,他成
  • 2008年10月体育
  • LegendLegend可以指:
  • 阿德曼动画阿德曼动画(英文:Aardman Animations 或 Aardman Studios 或 Aardman)是一家总部位于英国布里斯托尔的动画影视作品制作公司。该公司以制作定格动画、黏土动画及计算机动画作品
  • 佐藤史生佐藤史生(1952年12月6日-2010年4月4日),日本漫画家,本名佐藤ちよ子,后24年组之一。宫城县登米市出身。1977年以〈恋は味なもの!?〉于《别册少女コミック》出道。擅长科幻与奇幻题