Pytorch中的 torch.as_tensor() 和 torch.from_numpy() 的区别
之前我寫過一篇文章,比較了 torch.Tensor() 和 torch.tensor() 的區(qū)別,而這兩者都是深拷貝的方法,返回張量的同時,會在內(nèi)存中創(chuàng)建一個額外的數(shù)據(jù)副本,與原數(shù)據(jù)不共享內(nèi)存,所以不受原數(shù)據(jù)改變的影響。
這里,介紹兩種淺拷貝方法,torch.as_tensor() 和 torch.from_numpy(),同樣還是從官方文檔出發(fā):
torch.as_tensor()
torch.from_numpy()
直接對比著來看,最明顯的,torch.as_tensor() 接收三個參數(shù)(data, dtype=None, device=None),而 torch.from_numpy() 只接收一個參數(shù),即 ndarray,正如前者文檔中提到的:
如果 data 是具有相同 dtype 和 device 的 NumPy 數(shù)組(一個 ndarray),則使用 torch.from_numpy() 構(gòu)造一個張量。
torch.from_numpy() 會根據(jù)輸入的 ndarray 構(gòu)造一個具有相同 dtype 與 device 的張量,這個行為跟 torch.as_tensor() 只輸入ndarray,而 dtype 與 device 保持默認是一樣的。從這個角度看,可以說 torch.from_numpy() 是 torch.as_tensor() 的一個特例。它們都是淺拷貝,這是因為張量(tensor)與數(shù)組(ndarray)存儲共享相同的底層緩沖區(qū),改變其中一個的值都會是另一個的值也被改變。
但是,torch.as_tensor() 顯然適用性更廣,它既可以接收非 ndarray 的數(shù)據(jù),還能改變數(shù)據(jù)的 dtype 或 device,但這兩個東西一旦被改變了,就會生成一個新的數(shù)據(jù)副本,此時 torch.as_tensor() 的行為就變成深拷貝了。
需要注意的是,Numpy 在 64 位機子上浮點數(shù)默認的數(shù)據(jù)類型是 float64,而 Pytorch 默認的是 float32。所以為了確保轉(zhuǎn)換后的數(shù)據(jù)類型是 float32,以及兼顧適用性,使用 torch.as_tensor() 都是更好的選擇。
總結(jié)
以上是生活随笔為你收集整理的Pytorch中的 torch.as_tensor() 和 torch.from_numpy() 的区别的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Pytorch中的 torch.Tens
- 下一篇: Leetcode 数据结构与算法题解大全