jax.nn 模块#
神经网络库的常用函数。
激活函数#
ReLU(Rectified linear unit)激活函数。 |
|
ReLU 6 激活函数。 |
|
|
Sigmoid 激活函数。 |
|
Softplus 激活函数。 |
|
Sparse plus 函数。 |
Sparse sigmoid 激活函数。 |
|
|
Soft-sign 激活函数。 |
|
SiLU(又称 swish)激活函数。 |
|
SiLU(又称 swish)激活函数。 |
|
Log-sigmoid 激活函数。 |
|
Leaky ReLU(Leaky rectified linear unit)激活函数。 |
|
Hard Sigmoid 激活函数。 |
|
硬 SiLU (swish) 激活函数 |
|
硬 SiLU (swish) 激活函数 |
|
Hard \(\mathrm{tanh}\) 激活函数。 |
|
ELU(Exponential linear unit)激活函数。 |
|
连续可微的指数线性单元激活函数。 |
|
SELU(Scaled exponential linear unit)激活函数。 |
|
GELU(Gaussian error linear unit)激活函数。 |
|
GLU(Gated linear unit)激活函数。 |
|
Squareplus 激活函数。 |
|
Mish 激活函数。 |
|
Identity 激活函数。 |
其他函数#
|
Softmax 函数。 |
|
Log-Softmax 函数。 |
|
Log mean exp。 |
对数和指数缩减。 |
|
|
将输入标准化为零均值和单位方差。 |
|
对给定的索引进行独热编码。 |
|
点积注意力函数。 |
|
缩放矩阵乘法函数。 |
|
获取 scaled_dot_general 的量化配置。 |
|
缩放点积通用操作。 |
对 \(\log(1 - \exp(-x))\) 进行数值稳定的计算。 |