所有的问必威英雄联盟题

十个问必威英雄联盟题
通过过滤
标记
2
2答案
99的浏览量

ReLU是非线性激活函数吗?

根据这篇博客文章,激活函数的目的是为函数添加某种非线性性质,s型通常用作一个单位的激活函数。
1
投票
1回答
31日视图

有相同激活的神经元的分离线方程是什么?

我有一个有两个输入的神经元,和恒等激活f为激活函数,u$u = f(w_1x_1 +…)
6
1回答
284的浏览量

激活函数的数学定义是什么?

在神经网络中使用的激活函数的数学定义是什么?到目前为止,我还没有找到一个精确的标准,总结了哪些标准(例如单调性,可微性,…)
7
3.答案
2 k的观点

为什么神经网络中激活函数的导数很重要?

我刚到NN。我正试图了解它的一些基础。我的一个问题是:为什么激活函数的导数很重要(而不是函数本身),为什么它是…
3.
3.答案
410的浏览量

我应该使用哪种神经网络来逼近一个特定的函数?

我们有卷积神经网络和递归神经网络,分别用于分析图像和顺序数据。我如何确定哪种神经网络结构更适合…
6
1回答
78的浏览量

是什么使多层神经网络能够执行非线性操作?

据我所知,单层神经网络只能做线性操作,但多层神经网络可以。而且,我最近了解到有限矩阵/张量,在许多神经网络中使用,可以…
15
3.答案
7 k的观点

如何选择激活函数?

我根据我需要的输出和我知道的激活函数的属性来为输出层选择激活函数。例如,我选择s型函数,当我…
4
1回答
155的浏览量

哪些函数可以是激活函数?

激活函数(在神经网络中)的必需特征是什么?哪些函数可以是激活函数?例如,下面哪个函数可以用作…
1
投票
2答案
3 k的观点

漏的雷鲁激活函数的导数是什么?

我正在从头开始实现一个具有泄漏ReLU激活函数和反向传播的前馈神经网络。现在,我需要计算偏导数,但我不知道。
10
5答案
3 k的观点

为什么在神经网络中激活函数需要是可微的?

为什么神经网络的激活函数是可微的?这是绝对必要的还是仅仅是有利的?