jax.nn
模块#
神经网络库的常用函数。
激活函数#
整流线性单元激活函数。 |
|
整流线性单元 6 激活函数。 |
|
|
Sigmoid 激活函数。 |
|
Softplus 激活函数。 |
|
稀疏加法函数。 |
稀疏 Sigmoid 激活函数。 |
|
|
Soft-sign 激活函数。 |
|
SiLU(又称 swish)激活函数。 |
|
SiLU(又称 swish)激活函数。 |
|
Log-sigmoid 激活函数。 |
|
泄漏整流线性单元激活函数。 |
|
硬 Sigmoid 激活函数。 |
|
硬 SiLU (swish) 激活函数 |
|
硬 SiLU (swish) 激活函数 |
|
硬 \(\mathrm{tanh}\) 激活函数。 |
|
指数线性单元激活函数。 |
|
连续可微指数线性单元激活。 |
|
缩放指数线性单元激活。 |
|
高斯误差线性单元激活函数。 |
|
门控线性单元激活函数。 |
|
Squareplus 激活函数。 |
|
Mish 激活函数。 |
|
恒等激活函数。 |
其他函数#
|
Softmax 函数。 |
|
Log-Softmax 函数。 |
对数和指数缩减。 |
|
|
将输入标准化为零均值和单位方差。 |
|
对给定索引进行独热编码。 |
|
缩放点积注意力函数。 |
|
缩放矩阵乘法函数。 |
|
获取 scaled_dot_general 的量化配置。 |
|
缩放点积通用操作。 |