jax.sharding
模块#
类#
- class jax.sharding.Sharding(*args, **kwargs)#
描述了
jax.Array
如何在设备上分布。- addressable_devices_indices_map(global_shape)[source]#
一个从可寻址设备到每个设备所包含的数组数据切片的映射。
addressable_devices_indices_map
包含了device_indices_map
中适用于可寻址设备的部分。- 参数:
global_shape (Shape)
- 返回类型:
Mapping[Device, Index | None]
- devices_indices_map(global_shape)[source]#
返回一个从设备到每个设备包含的数组切片的映射。
此映射包含所有全局设备,即包括来自其他进程的不可寻址设备。
- 参数:
global_shape (Shape)
- 返回类型:
Mapping[Device, Index]
- property is_fully_addressable: bool[source]#
此分片是否完全可寻址?
如果当前进程可以寻址
Sharding
中命名的所有设备,则该分片是完全可寻址的。在多进程 JAX 中,is_fully_addressable
等同于“is_local”。
- class jax.sharding.SingleDeviceSharding(*args, **kwargs)#
基类:
Sharding
一个将其数据放置在单个设备上的
Sharding
。- 参数:
device – 单个
Device
。
示例
>>> single_device_sharding = jax.sharding.SingleDeviceSharding( ... jax.devices()[0])
- devices_indices_map(global_shape)[source]#
返回一个从设备到每个设备包含的数组切片的映射。
此映射包含所有全局设备,即包括来自其他进程的不可寻址设备。
- 参数:
global_shape (Shape)
- 返回类型:
Mapping[Device, Index]
- property is_fully_addressable: bool[source]#
此分片是否完全可寻址?
如果当前进程可以寻址
Sharding
中命名的所有设备,则该分片是完全可寻址的。在多进程 JAX 中,is_fully_addressable
等同于“is_local”。
- class jax.sharding.NamedSharding(*args, **kwargs)#
基类:
Sharding
一个
NamedSharding
使用命名轴表达分片。一个
NamedSharding
是一对设备Mesh
和PartitionSpec
,后者描述了如何在网格中分片数组。一个
Mesh
是一个多维的 JAX 设备 NumPy 数组,其中网格的每个轴都有一个名称,例如'x'
或'y'
。一个
PartitionSpec
是一个元组,其元素可以是None
、一个网格轴,或一个网格轴元组。每个元素描述了输入维度如何跨零个或多个网格维度进行分区。例如,PartitionSpec('x', 'y')
表示数据的第一维在网格的x
轴上分片,第二维在网格的y
轴上分片。《分布式数组与自动并行化》和《显式分片》教程提供了更多详细信息和图表,解释了
Mesh
和PartitionSpec
的用法。- 参数:
mesh – 一个
jax.sharding.Mesh
对象。spec – 一个
jax.sharding.PartitionSpec
对象。
示例
>>> from jax.sharding import Mesh >>> from jax.sharding import PartitionSpec as P >>> mesh = Mesh(np.array(jax.devices()).reshape(2, 4), ('x', 'y')) >>> spec = P('x', 'y') >>> named_sharding = jax.sharding.NamedSharding(mesh, spec)
- property is_fully_addressable: bool[source]#
此分片是否完全可寻址?
如果当前进程可以寻址
Sharding
中命名的所有设备,则该分片是完全可寻址的。在多进程 JAX 中,is_fully_addressable
等同于“is_local”。
- property mesh#
(self) -> object
- property spec#
(self) -> object
- class jax.sharding.PmapSharding(*args, **kwargs)#
基类:
Sharding
描述了
jax.pmap()
使用的分片。- classmethod default(shape, sharded_dim=0, devices=None)[source]#
创建一个
PmapSharding
,其与jax.pmap()
使用的默认放置方式相匹配。- 参数:
shape (Shape) – 输入数组的形状。
sharded_dim (int | None) – 输入数组分片所在的维度。默认为 0。
devices (Sequence[xc.Device] | None) – 可选的要使用的设备序列。如果省略,则使用 pmap 的隐式设备顺序,即
jax.local_devices()
的顺序。
- 返回类型:
- property devices#
(self) -> ndarray
- devices_indices_map(global_shape)[source]#
返回一个从设备到每个设备包含的数组切片的映射。
此映射包含所有全局设备,即包括来自其他进程的不可寻址设备。
- 参数:
global_shape (Shape)
- 返回类型:
Mapping[Device, Index]
- is_equivalent_to(other, ndim)[source]#
如果两个分片等效,则返回
True
。如果两个分片将相同的逻辑数组分片放置在相同的设备上,则它们是等效的。
- 参数:
self (PmapSharding)
other (PmapSharding)
ndim (int)
- 返回类型:
- property is_fully_addressable: bool#
此分片是否完全可寻址?
如果当前进程可以寻址
Sharding
中命名的所有设备,则该分片是完全可寻址的。在多进程 JAX 中,is_fully_addressable
等同于“is_local”。
- shard_shape(global_shape)[source]#
返回每个设备上数据的形状。
此函数返回的分片形状是根据
global_shape
和分片的属性计算得出的。- 参数:
global_shape (Shape)
- 返回类型:
Shape
- property sharding_spec#
(self) -> jax::ShardingSpec
- class jax.sharding.PartitionSpec(*args, **kwargs)#
描述如何跨设备网格分区数组的元组。
每个元素可以是
None
、字符串或字符串元组。有关更多详细信息,请参阅jax.sharding.NamedSharding
的文档。此类的存在是为了让 JAX 的 pytree 实用程序能够区分分区规范和应被视为 pytree 的元组。
- property reduced#
(self) -> frozenset
- property unreduced#
(self) -> frozenset
- class jax.sharding.Mesh(devices, axis_names, axis_types=None)[source]#
在此管理器的作用域内声明可用的硬件资源。
请参阅《分布式数组与自动并行化》和《显式分片》教程。
- 参数:
devices (np.ndarray) – 一个包含 JAX 设备对象(例如从
jax.devices()
获取)的 NumPy ndarray 对象。axis_names (tuple[MeshAxisName, ...]) – 一系列要分配给
devices
参数维度的资源轴名称。其长度应与devices
的秩匹配。axis_types (tuple[AxisType, ...] | None) – 一个可选的
jax.sharding.AxisType
条目元组,与axis_names
对应。有关更多信息,请参阅《显式分片》。
示例
>>> from jax.sharding import Mesh >>> from jax.sharding import PartitionSpec as P, NamedSharding >>> import numpy as np ... >>> # Declare a 2D mesh with axes `x` and `y`. >>> devices = np.array(jax.devices()).reshape(4, 2) >>> mesh = Mesh(devices, ('x', 'y')) >>> inp = np.arange(16).reshape(8, 2) >>> arr = jax.device_put(inp, NamedSharding(mesh, P('x', 'y'))) >>> out = jax.jit(lambda x: x * 2)(arr) >>> assert out.sharding == NamedSharding(mesh, P('x', 'y'))