摘要:作為一只半路出家的野生深度學習程序猿,沒人指導,一切都靠自己摸索,在學習實踐的路上走過不少彎路. 我正式讀的第一篇論文是目標檢測網絡yolov3的論文.yolov3原生代碼是作者用純c手擼的,叫做darknet,其實也算一個框架,游離于主流深度學習框架之外.這是 "項目地址" . 最近跟著 "這本書 閱讀全文
posted @ 2020-01-19 09:58 core! 閱讀 (64) 評論 (0) 編輯
摘要:本文記錄一些對深度學習的思考總結.意識流寫法,想到哪寫到哪,日后不定期更新補充. 在沒有接觸深度學習的時候,覺得這是個非常高大上的技術,數學基礎要求非常多,上手門檻非常高.我想很多人和我有一樣的想法.這種對深度學習的印象,我想很大一部分來自鋪天蓋地的自媒體的有關AI的報道解讀,造成了一種深度學習,人 閱讀全文
posted @ 2019-06-01 11:40 core! 閱讀 (636) 評論 (7) 編輯
摘要:卷積神經網絡,在圖像識別和自然語言處理中有很大的作用,講cnn的中文博客也不少,但是個人感覺說的脈絡清晰清晰易懂的不多. 無意中看到這篇博客,寫的很好,圖文并茂.建議英文好的直接去看原文.英文不好的就直接看我這篇,算是讀后總結吧.原文里對數學原理的著墨不多,在這篇文章里我會留著相關的標題,待日后慢慢 閱讀全文
posted @ 2019-01-28 13:56 core! 閱讀 (540) 評論 (1) 編輯
摘要:titanic數據集是個著名的數據集.kaggle上的titanic乘客生還率預測比賽是一個很好的入門機器學習的比賽. 數據集下載可以去https://www.kaggle.com/c/titanic/data. 本身寫這個系列筆記是作為自己機器學習的記錄,也為了加深自己對機器學習相關知識的理解.但 閱讀全文
posted @ 2018-12-15 16:59 core! 閱讀 (343) 評論 (0) 編輯
摘要:Deeplab系列是谷歌團隊的分割網絡. DeepLab V1 CNN處理圖像分割的兩個問題 下采樣導致信息丟失 maxpool造成feature map尺寸減小,細節信息丟失. 空間不變性 所謂空間不變性,就是說比如一張狗的圖,狗位于圖片正中還是某一個角,都不影響模型識別出這是一個狗. 即模型對于 閱讀全文
posted @ 2020-02-16 21:11 core! 閱讀 (33) 評論 (0) 編輯
摘要:全卷積網絡FCN fcn是深度學習用于圖像分割的鼻祖.后續的很多網絡結構都是在此基礎上演進而來. 圖像分割即像素級別的分類. 語義分割的基本框架: 前端fcn(以及在此基礎上的segnet,deconvnet,deeplab等) + 后端crf/mrf FCN是分割網絡的鼻祖,后面的很多網絡都是在此 閱讀全文
posted @ 2020-02-13 20:32 core! 閱讀 (119) 評論 (0) 編輯
摘要:DenseNet "論文傳送門" ,這篇論文是CVPR 2017的最佳論文. "resnet一文" 里說了,resnet是具有里程碑意義的.densenet就是受resnet的啟發提出的模型. resnet中是把不同層的feature map相應元素的值直接相加.而densenet是將channel 閱讀全文
posted @ 2020-02-06 18:44 core! 閱讀 (120) 評論 (0) 編輯
摘要:作為一只半路出家的野生深度學習程序猿,沒人指導,一切都靠自己摸索,在學習實踐的路上走過不少彎路. 我正式讀的第一篇論文是目標檢測網絡yolov3的論文.yolov3原生代碼是作者用純c手擼的,叫做darknet,其實也算一個框架,游離于主流深度學習框架之外.這是 "項目地址" . 最近跟著 "這本書 閱讀全文
posted @ 2020-01-19 09:58 core! 閱讀 (64) 評論 (0) 編輯
摘要:殘差網絡ResNet resnet是何凱明大神在2015年提出的.并且獲得了當年的ImageNet比賽的冠軍. 殘差網絡具有里程碑的意義,為以后的網絡設計提出了一個新的思路. googlenet的思路是加寬每一個layer,resnet的思路是加深layer. 論文地址: 論文里指出,隨著網絡深度的 閱讀全文
posted @ 2020-01-17 16:57 core! 閱讀 (108) 評論 (0) 編輯
摘要:批量歸一化 論文地址: 批量歸一化基本上是現在模型的標配了 . 說實在的,到今天我也沒搞明白batch normalize能夠使得模型訓練更穩定的底層原因,要徹底搞清楚,涉及到很多凸優化的理論,需要非常扎實的數學基礎才行. 目前為止,我理解的批量歸一化即把每一層輸入的特征,統一變換到統一的尺度上來, 閱讀全文
posted @ 2020-01-16 16:38 core! 閱讀 (165) 評論 (0) 編輯
摘要:GoogLeNet GoogLeNet和vgg分別是2014的ImageNet挑戰賽的冠亞軍.GoogLeNet則做了更加大膽的網絡結構嘗試,雖然深度只有22層,但大小卻比AlexNet和VGG小很多,GoogleNet參數為500萬個,AlexNet參數個數是GoogleNet的12倍,VGGNe 閱讀全文
posted @ 2020-01-15 13:48 core! 閱讀 (128) 評論 (0) 編輯
摘要:網絡中的網絡NIN 之前介紹的LeNet,AlexNet,VGG設計思路上的共同之處,是加寬(增加卷積層的輸出的channel數量)和加深(增加卷積層的數量),再接全連接層做分類. NIN提出了一個不同的思路,串聯多個由卷積層和'全連接層'(1x1卷積)構成的小網絡來構建一個深層網絡. 論文地址: 閱讀全文
posted @ 2020-01-14 14:32 core! 閱讀 (143) 評論 (0) 編輯
摘要:VGG AlexNet在Lenet的基礎上增加了幾個卷積層,改變了卷積核大小,每一層輸出通道數目等,并且取得了很好的效果.但是并沒有提出一個簡單有效的思路. VGG做到了這一點,提出了可以通過重復使?簡單的基礎塊來構建深度學習模型的思路. 論文地址: vgg的結構如下所示: 上圖給出了不同層數的vg 閱讀全文
posted @ 2020-01-10 22:54 core! 閱讀 (152) 評論 (0) 編輯
摘要:AlexNet AlexNet是2012年提出的一個模型,并且贏得了ImageNet圖像識別挑戰賽的冠軍.首次證明了由計算機自動學習到的特征可以超越手工設計的特征,對計算機視覺的研究有著極其重要的意義. AlexNet的設計思路和LeNet是非常類似的.不同點主要有以下幾點: 激活函數由sigmoi 閱讀全文
posted @ 2020-01-08 18:29 core! 閱讀 (115) 評論 (0) 編輯
11选5走势图