summary+plan
這兩天的時間沒有刷leetcode上的題,我發現樹對于我來說還是有一定難度,需要像大學考二級一樣不斷的刷題,不斷的做,讓樹棧什么的成為自己潛意識的內容,不斷的復習。還需要學習python里面的一些知識。包括基本語法numpy,sklearn,panda,這些東西。還有三個月就要回國了,就要找工作了,時間很緊迫了?,F在已經實現hmm、cnn、lstm、bilstm對語音情感進行識別,有時間把英文論文寫寫。在訓練的時候發現訓練集和測試集的準確率差別比較大,應該是出現了過擬合,采用交叉驗證可以解決這個問題和數據集的不均衡也相關,也可以通過優化神經網絡結構來解決。一定要發表一篇英文的論文。cnn訓練集和測試集的準確率都在50%左右,lstm訓練集的準確率在70%以上,但測試集的準確率很低,只有40%左右。這種結果和隨機猜測差不多??偨Y差不多到這里。再貼上樹的題。
接下來要學習的:
(1)刷leetcode上的題目
(2)學習python基礎知識
(3)寫英文論文
(4)復習傳統機器學習的理論知識和推導和深度學習理論的知識和框架。
待看文章:attention機制實現文本識別,keras框架自定義attention機制,keras框架中沒有attention機制。
https://blog.csdn.net/yanhe156/article/details/85476608
使數據集更均衡的辦法,留出法和交叉驗證
https://www.cnblogs.com/jiaxin359/p/8552800.html
keras實現交叉驗證
https://blog.csdn.net/webmater2320/article/details/100996865
遞歸比較難理解,一開始可以先用迭代去實現。因為二叉搜索樹的右子樹是最大的,所以先遍歷整棵樹的右子樹保存起來,遍歷到最后,進行求和,然后再去遍歷左子樹。代碼如下:
class Solution { private: int sum=0; public:TreeNode* convertBST(TreeNode* root) {stack<TreeNode*>s;TreeNode* temp=root;while(temp || !s.empty()){while(temp){s.push(temp);temp=temp->right;}temp=s.top();s.pop();sum+=temp->val;temp->val=sum;temp=temp->left;}return root;} };遞歸實現:感覺遞歸等價于迭代,思想是一樣的
class Solution { private: int sum=0; public:TreeNode* convertBST(TreeNode* root) {if(root!=NULL){convertBST(root->right);sum+=root->val;root->val=sum;convertBST(root->left);}return root;} };?
?
?
總結
以上是生活随笔為你收集整理的summary+plan的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 统计list里面相同元素个数_LeetC
- 下一篇: C语言获取某个分割符之前的内容