堆栈交换网络

堆栈交换网络由174个问答社区组成,包括栈溢出,最大的,最值得开发者学习的在线社区,分享他们的知识,建立他们的事业。

访问堆栈交换

必威英雄联盟带标签的问题[梯度下降]

关于梯度必威英雄联盟下降的问题,一种基于另一个函数(通常称为损失或误差函数)来求参数化函数的最佳状态的方法。它通过基于包含梯度和学习率的偏导数的乘积调整参数,迭代地将损失面下降到最小损失。

44个必威英雄联盟问题
选票
答案
10视图

在神经网络的梯度训练中,如何确定权值或节点的形状?有限制的培训?

梯度训练不加区别地改变神经网络的所有权重和节点。但是我们可以想象培训应该在什么情况下进行,例如:你可以限制…
投票
回答
25视图

LMS总是凸函数吗?如果是的话,那我们为什么要把它改成神经网络呢?

在lms(最小均方)中,我们使用二次误差函数,二次函数一般是抛物线(一些凸形)。我想知道这是否是我们使用最少的原因…
投票
回答
20视图

具有逻辑隐藏层的神经网络-如何训练它?是政策梯度问题吗?链接NNS?

我正在通过中介语L从语言S到语言T进行神经机器翻译任务。必威电竞所以-结构是……
选票
答案
98视图

当激活函数的导数为0时,神经网络如何学习?

想象一下,我有一个具有单个隐藏层的人工神经网络,并且我正在使用RELU作为激活函数。如果通过更改,我将初始化我的偏见和权重,其形式为:$…
选票
回答
36视图

梯度下降训练能用于非光滑损失函数吗?

我有非平稳损失功能-例如损失(x)=min(x);0.5)。梯度下降法能否用于训练具有这种功能的神经网络?梯度下降能用于比较一般的情况吗?…
选票
回答
17视图

成本函数随SGD增加

在古德费罗等人的深入学习中,我在随机梯度下降一章(第287):主要问题是如何设置$\epsilon_0$。如果太大,…
投票
答案
17视图

NeuralNetworks和Deeplearning.com第5章问题

对于http://neuralnetwork和deeplearning.com/chap5.html,有人能建议:1)如何处理表达式的派生(123)?2)值~0.45的构成是什么?3)为什么泰勒的需要……
选票
回答
50视图

基于numpy的虹膜数据前馈神经网络

我在阅读了一篇文章(链接:https://iamtrask.github.io/2015/07/12/basic python network/)之后,尝试用numpy构建一个神经网络来处理虹膜数据集。我尝试搜索…必威电竞
投票
答案
82视图

在Openai环境中,SARSA不适用于MountainCar-v0的线性函数逼近器。可能的原因是什么?

我正在从大卫·西尔弗的讲座中学习强化。我完成了第6课,并继续尝试使用线性函数逼近器对Openai的MountainCar-v0环境进行sarsa。
投票
答案
52视图

梯度下降特征缩放

当多元线性回归住房预测因子(住房面积和卧室)的特征缩放时,该练习建议“根据标准差对两种类型的输入进行缩放,并设置它们的……
选票
答案
130视图

成本函数的值可以是负数吗?

我对机器学习很陌生,我在看一个关于梯度下降的视频,它说我们希望我们的成本函数(均方误差)有最小值,但最小值显示在…
投票
答案
22视图

神经网络后向传播梯度下降优于共轭梯度下降?

我的理解是,共轭梯度法比梯度下降法更快,因为它在下降时不太曲折。为什么我看到的最先进的纸张都使用渐变…
选票
回答
57视图

深度Q学习:为什么在体验回复时不使用小批量?

在关于DQN的示例和教程中,我经常注意到,在体验回放(培训)阶段,人们倾向于使用随机梯度下降/在线学习。(例如)LIK1,LIK2)
投票
答案
90视图

批处理模式vs小批处理模式vs随机模式

批量大小是机器学习中使用的一个术语,指的是在一次迭代中使用的培训示例的数量。批处理大小可以是三个选项之一:批处理模式:其中…
投票
回答
33视图

重量标准化纸

我正试图剖析关于重量标准化的论文:https://papers.nips.cc/paper/6114-weight-normalization-a-simple-reparameterization-to-accelerate-training-of-deep-neuric-networks.pdf…