日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hinton开源CapsuleNet

發布時間:2024/2/28 编程问答 45 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Hinton开源CapsuleNet 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

當前的深度學習理論是由Geoffrey?Hinton大神在2007年確立起來的,但是如今他卻認為,“CNN的特征提取層與次抽樣層交叉存取,將相同類型的相鄰特征檢測器的輸出匯集到一起”是大有問題的。


去年9月,在多倫多接受媒體采訪時,Hinton大神斷然宣稱要放棄反向傳播,讓整個人工智能從頭再造。10月,人們關注已久的Hinton大神那篇Capsule論文"Dynamic Routing between Capsules"終于揭開面紗。



在論文中,Capsule被Hinton大神定義為這樣一組神經元:其活動向量所表示的是特定實體類型的實例化參數。他的實驗表明,鑒別式訓練的多層Capsule系統,在MNIST手寫數據集上表現出目前最先進的性能,并且在識別高度重疊數字的效果要遠好于CNN。


近日,該論文的一作Sara Sabour終于在GitHub上公開了該論文中的代碼。該項目上線5天便獲得了217個Star,并被fork了14218次。下面讓我們一起來看看Sara Sabour開源的代碼吧。


膠囊模型的代碼在以下論文中使用:


"Dynamic Routing between Capsules" by Sara Sabour, Nickolas Frosst, Geoffrey E. Hinton.


要求


  • TensorFlow (?訪問 http://www.tensorflow.org?了解如何安裝和升級)

  • NumPy (詳見?http://www.numpy.org/)

  • GPU


運行測試代碼驗證設置是否正確,比如:


python layers_test.py


快速MNIST測試結果:


  • 從以下網址下載并提取MNIST記錄到 $DATA_DIR/:https://storage.googleapis.com/capsule_toronto/mnist_data.tar.gz

  • 從以下網址下載并提取MNIST模型檢測點(checkpoint)到$CKPT_DIR:


python experiment.py --data_dir=$DATA_DIR/mnist_data/ --train=false \
--summary_dir=/tmp/ --
checkpoint=$CKPT_DIR/mnist_checkpoint/model.ckpt-1


快速CIFAR10 ensemble測試結果:


  • 從以下網址下載并提取cifar10二進制版本到$DATA_DIR/:

  • https://www.cs.toronto.edu/~kriz/cifar.html

  • 從以下網址下載并提取cifar10模型檢測點(checkpoint)到$CKPT_DIR:

  • https://storage.googleapis.com/capsule_toronto/cifar_checkpoints.tar.gz

  • 將提取的二進制文件目錄作為data_dir傳遞給($DATA_DIR)


python experiment.py --data_dir=$DATA_DIR --train=false --dataset=cifar10 \
--hparams_override=num_prime_capsules=64,padding=SAME,leaky=true,remake=false \
--summary_dir=/tmp/ --checkpoint=$CKPT_DIR/cifar/cifar{}/model.ckpt-600000 \
--num_trials=7


Sample CIFAR10訓練命令:


python experiment.py --data_dir=$DATA_DIR --dataset=cifar10 --max_steps=600000\
--hparams_override=num_prime_capsules=64,padding=SAME,leaky=true,remake=false \
--summary_dir=/tmp/


Sample MNIST完整訓練命令:


python experiment.py --data_dir=$DATA_DIR/mnist_data/ --max_steps=300000\
--summary_dir=/tmp/attempt0/


Sample MNIST 基線訓練命令:


python experiment.py --data_dir=$DATA_DIR/mnist_data/ --max_steps=300000\
--summary_dir=/tmp/attempt1/ --model=baseline


上述模型的訓練期間在驗證集上進行測試


訓練中連續運行的注意事項:


  • 在訓練中 --validate = true

  • 總共需要總共2塊GPU:一個用于訓練,一個用于驗證

  • 如果訓練和驗證工作位于同一臺機器上,則需要限制每個任務的RAM占用量,因為TensorFlow會默認為第一個任務分配所有的RAM,而第二個任務將無法進行。


在MultiMNIST上測試/訓練:


--num_targets = 2
--data_dir = $ DATA_DIR / multitest_6shifted_mnist.tfrecords@10


生成multiMNIST / MNIST記錄的代碼位于input_data / mnist / mnist_shift.py


生成multiMNIST測試分割的示例代碼:


python mnist_shift.py --data_dir=$DATA_DIR/mnist_data/ --split=test --shift=6
--pad=4 --num_pairs=1000 --max_shard=100000 --multi_targets=true


為affNIST泛化能力建立expanded_mnist: --shift = 6;--pad = 6。


Github地址:

https://github.com/Sarasra/models/tree/master/research/capsules

論文地址:

https://arxiv.org/abs/1710.09829

總結

以上是生活随笔為你收集整理的Hinton开源CapsuleNet的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。