# torch.Storage
# torch.Storage
一個`torch.Storage`是一個單一數據類型的連續一維數組。
每個`torch.Tensor`都有一個對應的、相同數據類型的存儲。
```
class torch.FloatStorage
```
#### byte()
將此存儲轉為byte類型
#### char()
將此存儲轉為char類型
#### clone()
返回此存儲的一個副本
#### copy\_()
#### cpu()
如果當前此存儲不在CPU上,則返回一個它的CPU副本
#### cuda(*device=None, async=False*)
返回此對象在CUDA內存中的一個副本。
如果此對象已在CUDA內存中且在正確的設備上,那么不會執行復制操作,直接返回原對象。
**參數:**
- **device** (*<a class="pcalibre1 pcalibre pcalibre3 pcalibre2" href="">int</a>*) - 目標GPU的id。默認值是當前設備。
- **async** (*<a class="pcalibre1 pcalibre pcalibre3 pcalibre2" href="">bool</a>*) -如果值為True,且源在鎖定內存中,則副本相對于宿主是異步的。否則此參數不起效果。
#### data\_ptr()
#### double()
將此存儲轉為double類型
#### element\_size()
#### fill\_()
#### float()
將此存儲轉為float類型
#### from\_buffer()
#### half()
將此存儲轉為half類型
#### int()
將此存儲轉為int類型
#### is\_cuda = *False*
#### is\_pinned()
#### is\_shared()
#### is\_sparse = *False*
#### long()
將此存儲轉為long類型
#### new()
#### pin\_memory()
如果此存儲當前未被鎖定,則將它復制到鎖定內存中。
#### resize\_()
#### share*memory*()
將此存儲移動到共享內存中。
對于已經在共享內存中的存儲或者CUDA存儲,這是一條空指令,它們不需要移動就能在進程間共享。共享內存中的存儲不能改變大小。
返回:self
#### short()
將此存儲轉為short類型
#### size()
#### tolist()
返回一個包含此存儲中元素的列表
#### type(*new\_type=None, async=False*)
將此對象轉為指定類型。
如果已經是正確類型,不會執行復制操作,直接返回原對象。
**參數:**
- **new\_type** (*<a class="pcalibre1 pcalibre pcalibre3 pcalibre2" href="">type</a> or <a class="pcalibre1 pcalibre pcalibre3 pcalibre2" href="">string</a>*) -需要轉成的類型
- **async** (*<a class="pcalibre1 pcalibre pcalibre3 pcalibre2" href="">bool</a>*) -如果值為True,且源在鎖定內存中而目標在GPU中——或正好相反,則復制操作相對于宿主異步執行。否則此參數不起效果。
- PyTorch 中文文檔
- 主頁
- 自動求導機制
- CUDA語義
- 擴展PyTorch
- 多進程最佳實踐
- 序列化語義
- torch
- torch.Tensor
- torch.Storage
- torch.nn
- torch.nn.functional
- torch.autograd
- torch.optim
- torch.nn.init
- torch.multiprocessing
- torch.legacy
- torch.cuda
- torch.utils.ffi
- torch.utils.data
- torch.utils.model_zoo
- torchvision
- torchvision.datasets
- torchvision.models
- torchvision.transforms
- torchvision.utils
- 致謝