jax.nn
模块#
神经网络库的常用函数。
激活函数#
整流线性单元激活函数。 |
|
整流线性单元 6 激活函数。 |
|
|
Sigmoid 激活函数。 |
|
Softplus 激活函数。 |
|
Sparse plus 函数。 |
Sparse sigmoid 激活函数。 |
|
|
Soft-sign 激活函数。 |
|
SiLU (又名 swish) 激活函数。 |
|
SiLU (又名 swish) 激活函数。 |
|
Log-sigmoid 激活函数。 |
|
Leaky rectified linear unit 激活函数。 |
|
Hard Sigmoid 激活函数。 |
|
Hard SiLU (swish) 激活函数 |
|
Hard SiLU (swish) 激活函数 |
|
Hard \(\mathrm{tanh}\) 激活函数。 |
|
指数线性单元激活函数。 |
|
连续可微指数线性单元激活。 |
|
缩放指数线性单元激活。 |
|
高斯误差线性单元激活函数。 |
|
门控线性单元激活函数。 |
|
Squareplus 激活函数。 |
|
Mish 激活函数。 |
|
Identity 激活函数。 |
其他函数#
|
Softmax 函数。 |
|
Log-Softmax 函数。 |
Log-sum-exp 归约。 |
|
|
通过减去 |
|
独热编码给定的索引。 |
|
缩放点积注意力函数。 |
|
缩放矩阵乘法函数。 |
|
获取 scaled_dot_general 的量化配置。 |
|
缩放点积通用操作。 |