# 4.3。內存管理
> 原文: [http://numba.pydata.org/numba-doc/latest/cuda-reference/memory.html](http://numba.pydata.org/numba-doc/latest/cuda-reference/memory.html)
```py
numba.cuda.to_device(obj, stream=0, copy=True, to=None)
```
將 numpy ndarray 或結構化標量分配并傳輸到設備。
要將 host->設備復制為 numpy 數組:
```py
ary = np.arange(10)
d_ary = cuda.to_device(ary)
```
要將傳輸排入隊列:
```py
stream = cuda.stream()
d_ary = cuda.to_device(ary, stream=stream)
```
得到的`d_ary`是`DeviceNDArray`。
要復制 device->主機:
```py
hary = d_ary.copy_to_host()
```
要將 device->主機復制到現有數組:
```py
ary = np.empty(shape=d_ary.shape, dtype=d_ary.dtype)
d_ary.copy_to_host(ary)
```
要將傳輸排入隊列:
```py
hary = d_ary.copy_to_host(stream=stream)
```
```py
numba.cuda.device_array(shape, dtype=np.float, strides=None, order='C', stream=0)
```
分配一個空設備 ndarray。與`numpy.empty()`類似。
```py
numba.cuda.device_array_like(ary, stream=0)
```
使用數組中的信息調用 cuda.devicearray()。
```py
numba.cuda.pinned_array(shape, dtype=np.float, strides=None, order='C')
```
使用固定(頁面鎖定)的緩沖區分配 np.ndarray。與 np.empty()類似。
```py
numba.cuda.mapped_array(shape, dtype=np.float, strides=None, order='C', stream=0, portable=False, wc=False)
```
使用固定并映射到設備的緩沖區分配映射的 ndarray。與 np.empty()相似
| 參數: |
* **便攜式** - 一個布爾標志,允許分配的設備內存在多個設備中使用。
* **wc** - 一個布爾標志,用于啟用寫組合分配,主機寫入和設備讀取速度更快,但主機寫入速度較慢,設備寫入速度較慢。
|
| --- | --- |
```py
numba.cuda.pinned(*arylist)
```
用于臨時固定主機 ndarray 序列的上下文管理器。
```py
numba.cuda.mapped(*arylist, **kws)
```
用于臨時映射主機 ndarray 序列的上下文管理器。
## 4.3.1。設備對象
```py
class numba.cuda.cudadrv.devicearray.DeviceNDArray(shape, strides, dtype, stream=0, writeback=None, gpu_data=None)
```
GPU 上陣列類型
```py
copy_to_device(ary, stream=0)
```
將 <cite>ary</cite> 復制到 <cite>self</cite> 。
如果 <cite>ary</cite> 是 CUDA 內存,請執行設備到設備傳輸。否則,執行主機到設備傳輸。
```py
copy_to_host(ary=None, stream=0)
```
如果`ary`為`None`,則將`self`復制到`ary`或創建新的 Numpy ndarray。
如果給出了 CUDA `stream`,則傳輸將作為給定流的一部分異步進行。否則,傳輸是同步的:復制完成后函數返回。
始終返回主機陣列。
例:
```py
import numpy as np
from numba import cuda
arr = np.arange(1000)
d_arr = cuda.to_device(arr)
my_kernel[100, 100](d_arr)
result_array = d_arr.copy_to_host()
```
```py
is_c_contiguous()
```
如果數組是 C-contiguous,則返回 true。
```py
is_f_contiguous()
```
如果數組是 Fortran-contiguous,則返回 true。
```py
ravel(order='C', stream=0)
```
在不改變其內容的情況下展平陣列,類似于 [`numpy.ndarray.ravel()`](https://docs.scipy.org/doc/numpy/reference/generated/numpy.ndarray.ravel.html#numpy.ndarray.ravel "(in NumPy v1.16)") 。
```py
reshape(*newshape, **kws)
```
與 [`numpy.ndarray.reshape()`](https://docs.scipy.org/doc/numpy/reference/generated/numpy.ndarray.reshape.html#numpy.ndarray.reshape "(in NumPy v1.16)") 類似,重塑陣列而不改變其內容。例:
```py
d_arr = d_arr.reshape(20, 50, order='F')
```
```py
split(section, stream=0)
```
將數組拆分為<cite>部分</cite>大小的相等分區。如果陣列不能平均分割,則最后一部分將更小。
```py
class numba.cuda.cudadrv.devicearray.DeviceRecord(dtype, stream=0, gpu_data=None)
```
GPU 上的記錄類型
```py
copy_to_device(ary, stream=0)
```
將 <cite>ary</cite> 復制到 <cite>self</cite> 。
如果 <cite>ary</cite> 是 CUDA 內存,請執行設備到設備傳輸。否則,執行主機到設備傳輸。
```py
copy_to_host(ary=None, stream=0)
```
如果`ary`為`None`,則將`self`復制到`ary`或創建新的 Numpy ndarray。
如果給出了 CUDA `stream`,則傳輸將作為給定流的一部分異步進行。否則,傳輸是同步的:復制完成后函數返回。
始終返回主機陣列。
例:
```py
import numpy as np
from numba import cuda
arr = np.arange(1000)
d_arr = cuda.to_device(arr)
my_kernel[100, 100](d_arr)
result_array = d_arr.copy_to_host()
```
```py
class numba.cuda.cudadrv.devicearray.MappedNDArray(shape, strides, dtype, stream=0, writeback=None, gpu_data=None)
```
使用 CUDA 映射內存的主機陣列。
```py
copy_to_device(ary, stream=0)
```
將 <cite>ary</cite> 復制到 <cite>self</cite> 。
如果 <cite>ary</cite> 是 CUDA 內存,請執行設備到設備傳輸。否則,執行主機到設備傳輸。
```py
copy_to_host(ary=None, stream=0)
```
如果`ary`為`None`,則將`self`復制到`ary`或創建新的 Numpy ndarray。
如果給出了 CUDA `stream`,則傳輸將作為給定流的一部分異步進行。否則,傳輸是同步的:復制完成后函數返回。
始終返回主機陣列。
例:
```py
import numpy as np
from numba import cuda
arr = np.arange(1000)
d_arr = cuda.to_device(arr)
my_kernel[100, 100](d_arr)
result_array = d_arr.copy_to_host()
```
```py
split(section, stream=0)
```
將數組拆分為<cite>部分</cite>大小的相等分區。如果陣列不能平均分割,則最后一部分將更小。
- 1. 用戶手冊
- 1.1。 Numba 的約 5 分鐘指南
- 1.2。概述
- 1.3。安裝
- 1.4。使用@jit 編譯 Python 代碼
- 1.5。使用@generated_jit 進行靈活的專業化
- 1.6。創建 Numpy 通用函數
- 1.7。用@jitclass 編譯 python 類
- 1.8。使用@cfunc 創建 C 回調
- 1.9。提前編譯代碼
- 1.10。使用@jit 自動并行化
- 1.11。使用@stencil裝飾器
- 1.12。從 JIT 代碼 中回調到 Python 解釋器
- 1.13。性能提示
- 1.14。線程層
- 1.15。故障排除和提示
- 1.16。常見問題
- 1.17。示例
- 1.18。會談和教程
- 2. 參考手冊
- 2.1。類型和簽名
- 2.2。即時編譯
- 2.3。提前編譯
- 2.4。公用事業
- 2.5。環境變量
- 2.6。支持的 Python 功能
- 2.7。支持的 NumPy 功能
- 2.8。與 Python 語義的偏差
- 2.9。浮點陷阱
- 2.10。 Python 2.7 壽命終止計劃
- 3. 用于 CUDA GPU 的 Numba
- 3.1。概述
- 3.2。編寫 CUDA 內核
- 3.3。內存管理
- 3.4。編寫設備功能
- 3.5。 CUDA Python 中支持的 Python 功能
- 3.6。支持的原子操作
- 3.7。隨機數生成
- 3.8。設備管理
- 3.10。示例
- 3.11。使用 CUDA 模擬器 調試 CUDA Python
- 3.12。 GPU 減少
- 3.13。 CUDA Ufuncs 和廣義 Ufuncs
- 3.14。共享 CUDA 內存
- 3.15。 CUDA 陣列接口
- 3.16。 CUDA 常見問題
- 4. CUDA Python 參考
- 4.1。 CUDA 主機 API
- 4.2。 CUDA 內核 API
- 4.3。內存管理
- 5. 用于 AMD ROC GPU 的 Numba
- 5.1。概述
- 5.2。編寫 HSA 內核
- 5.3。內存管理
- 5.4。編寫設備功能
- 5.5。支持的原子操作
- 5.6。代理商
- 5.7。 ROC Ufuncs 和廣義 Ufuncs
- 5.8。示例
- 6. 擴展 Numba
- 6.1。高級擴展 API
- 6.2。低級擴展 API
- 6.3。示例:間隔類型
- 7. 開發者手冊
- 7.1。貢獻給 Numba
- 7.2。 Numba 建筑
- 7.3。多態調度
- 7.4。關于發電機的注意事項
- 7.5。關于 Numba Runtime 的注意事項
- 7.6。使用 Numba Rewrite Pass 獲得樂趣和優化
- 7.7。實時變量分析
- 7.8。上市
- 7.9。模板注釋
- 7.10。關于自定義管道的注意事項
- 7.11。環境對象
- 7.12。哈希 的注意事項
- 7.13。 Numba 項目路線圖
- 8. Numba 增強建議
- 9. 術語表