必威英雄联盟问题标记(bert)

针对与B必威英雄联盟ERT(变形金刚的双向编码器表示)相关的问题,谷歌在论文《BERT:用于语言理解的深度双向变形金刚的预培训》(2019)中引入了一种语言表示模型。

27个必威英雄联盟问题
筛选依据
排序依据
标记为
0
0答案
5个视图

为什么BERT-NSP头线性层有两个输出?

这是有问题的代码。https://github.com/huggingface/transformers/blob/master/src/transformers/modeling懔bert.py懔L491...
1
投票
0答案
16个视图

关于谷歌必威英雄联盟Bert模型的两个问题(特别是关于参数的问题)

我正在寻找一个人谁可以帮助我澄清一些细节关于伯特模型的架构。这些细节对我全面了解Bert模型是必要的,所以你的帮助…
0
0答案
11个视图

seq2seq模型中双向LSTMs的数量是否等于输入文本/字符的最大长度?

当我试图了解seq2seq编码器解码器如何工作时,我对RNNs的这一方面感到困惑https://machinelearningmastery.com/configure encoder decoder model neural machine translation/。它。。。
0
1回答
22日视图

如何添加一个预训练的模型到我的层,以获得嵌入?

我想使用一个在[BERT Embeddings] https://github.com/ukplab/senttransformer中找到的预训练模型,我想添加一个层来从模型中获取句子Embeddings并传递到……
2
0答案
11个视图

使用预先训练的BERT和Pytorch对两个单词进行相似度评分

我试着比较手套,快速文本,伯特在两个词之间的相似性的基础上使用预先训练的模型。手套和Fasttext有预先训练的模型,可以很容易地与gensim一起使用…
1
投票
1回答
24日视图

如何利用预训练的BERT从句子中提取向量?

我在试着从句子中提取向量。花了很多时间寻找预先训练好的伯特模型,但什么也没找到。有可能用预先训练好的伯特从。。。
4
1回答
83的浏览量

点积关注背后的直觉是什么?

我观察你所需要的注意力,在点积注意力背后的直觉是什么?$$A(q,K, V) = \sum_i\frac{e^{q。k_i}} {\ sum_j e ^{问。$$变成:$$A(Q,K, V) = softmax(QK^…
1
投票
0答案
15个视图

随着像伯特这样的人越来越受欢迎,结构化的知识基础还会继续用于问答吗?

这可能是一个开放的和基于意见的问题,我当然希望听到专家的意见,但我也在寻找参考资料,我可以深入阅读。之一……
1
投票
0答案
9个视图

建立一个基于NLG的模板系统,从数据生成报表

我是NLP和NLG的新手。我的任务是开发一个基于给定数据表生成报告的系统必威电竞。报表和流的结构是预定义的。我研究过几个。。。
1
投票
0答案
16个视图

继续对伯特进行预训练

我需要一些帮助来继续伯特的训练。我手头有一个非常具体的词汇和许多具体的缩写。我想做一个STS任务。让我具体说明我的任务:我已经。。。必威电竞
1
投票
0答案
17个视图

基于Tensorflow的任意变异BERT文本分类实现(ALBERT/XLNET)

你有什么可以给我的参考资料来做文本分类使用任何变化的BERT(albert或XLnet)与TF实现。我不知道如何部署基于火炬的模型,所以…
0
1回答
75的浏览量

为什么我的损失(二元交叉熵)收敛到约0.6?(任必威电竞务:自然语言推理)

我试着调试我的神经网络(BERT微调)训练的自然语言推理与二元分类或蕴涵或矛盾。我把它训练了80个时代。。。
2
0答案
81的浏览量

Bert可以用来提取大类别特征的嵌入吗?

我有很多训练数据点(百万),我有一些特性,但问题是所有特性都是分类数据,每个特性有100多万个类别。所以,我不能用。。。
4
2答案
335的浏览量

如何使用伯特作为一个多用途的会话人工智能?

我正在寻找一个能达到双重目的的NLP模型。一个目的是它可以进行有趣的对话(会话人工智能),另一个目的是它可以进行意图分类。。。
1
投票
1回答
108个视图

如何在语义文本相似度任务中使用BERT模型的预训练检查点?必威电竞

我不知道使用来自预先训练的BERT模型的派生检查点来完成语义文本相似性的任务。。。必威电竞

15个 30个 50个 每页