<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??一站式輕松地調用各大LLM模型接口,支持GPT4、智譜、豆包、星火、月之暗面及文生圖、文生視頻 廣告
                ## 參考 * [1] [P. Agrawal,R。Girshick和J. Malik。分析多層神經網絡在物體識別中的性能。在ECCV,2014年。](file:///D:/papers/1407.1610/) * [2] [S.Amari。反向傳播和隨機梯度下降法。 Neurocomputing,5(4 - 5):185“196,1993。](http://dx.doi.org/10.1016/0925-2312(93)90006-o) * [3] M. Andrychowicz,M。Denil,S。G“mez,M。W. Hoffman,D。Pfau,T。Schaul和N. de Freitas。通過梯度下降學習通過梯度下降學習。在NIPS中, 2016年 * [4] [L. J. Ba,R。Kiros和G. E. Hinton。圖層規范化。 arXiv,1607.06450,2016。](file:///D:/papers/1607.06450/) * [5] [C. L. Baker和I. Mareschal。處理視覺皮層中的二階刺激。腦研究進展,134:171“91,2001。](http://dx.doi.org/10.1016/s0079-6123(01)34013-x) * [6] [D. Bau,B。Zhou,A。Khosla,A。Oliva和A. Torralba。網絡剖析:量化深度視覺表征的可解釋性。在CVPR,2017年。](file:///D:/papers/1704.05796/) * [7] Y. Bengio,A。Courville和P. Vincent。代表性學習:回顧和新觀點。 IEEE Transactions on Pattern Analysis and Machine Intelligence,35(8):1798“1828,2013。 * [8] Y. Bengio,P。Lamblin,D。Popovici和H. Larochelle。深入網絡的貪婪分層訓練。在NIPS,2007年。 * [9] [Y. Bengio,P。Simard和P. Frasconi。學習具有梯度下降的長期依賴性是困難的。 IEEE Transactions on Neural Networks,5(2):157“166,1994。](http://www.research.microsoft.com/~patrice/PDF/long_term.pdf) * [10] U. Bergmann,N。Jetchev和R. Vollgraf。學習具有周期性空間GAN的紋理流形。在ICML,2017年。 * [11] [C. Blakemore和G. Cooper。大腦的發育取決于視覺環境。自然,228:477“478,1970。](http://dx.doi.org/10.1038/228477a0) * [12] Y. Boureau,J。Ponce和Y. LeCun。視覺識別中特征匯集的理論分析。在ICML,2010年。 * [13] [R. M. Boynton和D. N. Whitten。猴子視錐細胞的視覺適應:記錄晚期受體電位。科學,170(3965):1423“1426,1970。](http://dx.doi.org/10.1126/science.170.3965.1423) * [14] [G. J. Brouwer和D. J. Heeger。人類視覺皮層中的交叉定向抑制。 Journal of Neurophysiology,(106):2108“2119,2011。](http://jn.physiology.org/content/jn/106/5/2108.full.pdf) * [15] [J. Bruna和S. Mallat。不變散射卷積網絡。 IEEE Transactions on Pattern Analysis and Machine Intelligence,35:1872“1886,2013。](file:///D:/papers/1203.1513/) * [16] [A. E. Bryson,W。F Denham和S. E. Dreyfus。不等式約束的最優編程問題。 AIAA,11:2544“2550,1963。](http://dx.doi.org/10.2514/3.2107) * [17] N. Buduma和N. Locascio。深度學習的基礎知識:設計下一代機器智能算法。 O“Reilly Media,2017。 * [18] [M. Carandini。什么簡單和復雜的細胞計算。 The Journal of Physiology,577:463“466,2006。](http://onlinelibrary.wiley.com/doi/10.1113/jphysiol.2006.118976/pdf) * [19] [M. Carandini和D. J. Heeger。歸一化作為規范神經計算。自然評論。神經科學,13:51“62,2011。](http://europepmc.org/articles/pmc3273486?pdf=render) * [20] [J. Carreira和A. Zisserman。 Quo vadis,動作識別?一個新的模型和動力學數據集。在CVPR,2017年。](file:///D:/papers/1705.07750/) * [21] [T. H. Chan,K。Jia,S。Gao,J。Lu,Z。Zeng和Y. Ma。 PCANet:圖像分類的簡單深度學習基準?交易圖像處理,24:5017“5032,2015。](file:///D:/papers/1404.3606/) * [22] [K. Chatfield,V。Lempitsky,A。Vedaldi和A. Zisserman。魔鬼在細節中:對最近的特征編碼方法的評估。在BMVC,2011年。](http://www.bmva.org/bmvc/2011/proceedings/paper76/paper76.pdf) * [23] [K. Chatfield,K。Simonyan,A。Vedaldi和A. Zisserman。細節中的魔鬼回歸:深入研究卷積網。在BMVC,2014年。](http://www.bmva.org/bmvc/2014/files/abstract054.pdf) * [24] [L. C. Chen,G。Papandreou,I。Kokkinos,K。Murphy和A. L. Yuille。 DeepLab:使用深度卷積網絡,Atrous卷積和完全連接的CRF進行語義圖像分割。 arXiv,1606.00915,2017。](file:///D:/papers/1606.00915/) * [25] [M. Cimpoi,S。Maji,I。Kokkinos,S。Mohamed,和A. Vedaldi。在野外描述紋理。在CVPR,2014年。](http://cvn.ecp.fr/personnel/iasonas/pubs/Texture_CVPR14.pdf) * [26] D-A。 Clevert,T。Unterthiner和S. Hochreiter。通過指數線性單元快速準確地進行深度網絡學習。在ICLR,2016年。 * [27] A. Coates和A. Y. Ng。在深層網絡中選擇感知字段。在NIPS,2011年。 * [28] T. S. Cohen和M. Welling。可操縱的CNN。在ICLR,2017年。 * [29] [J. Dai,H。Qi,Y。Xiong,Y。Li,G。Zhang,H。Hu和Y. Wei。可變形卷積網絡。在ICCV,2017年。](file:///D:/papers/1703.06211/) * [30] [N. Dalal和B. Triggs。用于人體檢測的定向梯度的直方圖。在CVPR,2005年。](http://www.acemedia.org/aceMedia/files/document/wp7/2005/cvpr05-inria.pdf) * [31] P. Dayan和L. F. Abbott。理論神經科學:神經系統的計算和數學建模。麻省理工學院出版社,2005年。 * [32] [A. Dobbins,S。W. Zucker和M. S. Cynader。視覺皮層中的Endstopped神經元作為計算曲率的基質。 Nature,329:438“441,1987。](http://dx.doi.org/10.1038/329438a0) * [33] [J. Donahue,L。A. Hendricks,M。Rohrbach,S。Venugopalan,S。Guadarrama,K。Saenko和T. Darrell。用于視覺識別和描述的長期循環卷積網絡。 IEEE模式分析和機器智能交易,39(4):677“691,2017。](file:///D:/papers/1411.4389/) * [34] J. Duchi,E。Hazan和Y. Singer。用于在線學習和隨機優化的自適應子梯度方法。 Journal of Machine Learning Research,12:2121“2159,2011。 * [35] A. Dundar,J。Jin和E. Culurciello。用于無監督學習的卷積聚類。 2016年ICLR研討會。 * [36] [D. Eigen和R. Fergus。使用通用的多尺度卷積結構預測深度,表面法線和語義標簽。在ICCV,2015年。](file:///D:/papers/1411.4734/) * [37] D. Erhan,Y。Bengio,A。Courville和P. Vincent。可視化深層網絡的高層功能。技術報告1341,蒙特利爾大學,2009年。 * [38] [L. Fei-Fei,R。Fergus和R. Perona。對象類別的一次性學習。 IEEE Transactions on Pattern Analysis and Machine Intelligence,28:594“611,2006。](http://vision.cs.princeton.edu/documents/Fei-FeiFergusPerona2006.pdf) * [39] [C. Feichtenhofer,A。Pinz和R. P. Wildes。基于時空顯著性的動態編碼動作。在CVPR,2015年。](http://dx.doi.org/10.1109/cvpr.2015.7298892) * [40] [C. Feichtenhofer,A。Pinz和R. P. Wildes。用于視頻動作識別的時空殘留網絡。在NIPS,2016年。](http://dx.doi.org/10.1109/cvpr.2017.787) * [41] [C. Feichtenhofer,A。Pinz和R. P. Wildes。用于視頻動作識別的時空乘數網絡。在CVPR,2017年。](http://dx.doi.org/10.1109/cvpr.2017.787) * [42] [C. Feichtenhofer,A。Pinz和R. P. Wildes。用于動態場景識別的時間殘差網絡。在CVPR,2017年。](http://dx.doi.org/10.1109/cvpr.2017.786) * [43] [C. Feichtenhofer和A. Zisserman。用于視頻動作識別的卷積雙流網絡融合。在CVPR,2016年。](file:///D:/papers/1604.06573/) * [44] [J. Feng和T. Darrell。學習深度卷積網絡的結構。在ICCV,2015年。](http://dx.doi.org/10.1109/iccv.2015.315) * [45] [S. Fidler,G。Berginc和A. Leonardis。對象結構通用部分的分層統計學習。在CVPR,2006年。](http://www.mobvis.org/publications/fidlerCVPR06.pdf) * [46] [S. Fidler,M。Boben和A. Leonardis。用于對象分類的基于相似度的跨層次分層表示。在CVPR,2008年。](http://dx.doi.org/10.1109/cvpr.2008.4587409) * [47] [S. Fidler和A. Leonardis。走向對象類別的可擴展表示:學習部分層次結構。在CVPR,2007年。](http://vicos.fri.uni-lj.si/data/alesl/cvpr07fidler.pdf) * [48] [J.Freeman,C.M。Ziemba,D.J。Heeger,E。P. Simoncelli和A. J. Movshon。靈長類動物第二視覺區域的功能和感知特征。 Nature Neurosience,16:974“981,2013。](http://europepmc.org/articles/pmc3710454?pdf=render) * [49] [K. Fukushima。 Neocognitron:一種用于模式識別機制的自組織神經網絡模型。生物控制論,36:193“202,1980。](http://dx.doi.org/10.1007/978-3-642-46466-9_18) * [50] [K. Fukushima。視覺模式識別中選擇性注意機制的神經網絡模型。日本的系統和計算機,18(1):102“113,1987。](http://dx.doi.org/10.1002/scj.4690180110) * [51] [K. Fukushima和N. Wake。 neocognitron手寫的字母數字字符識別。 IEEE Transactions on Neural Networks,2(3):355“365,1991。](http://dx.doi.org/10.1109/72.97912) * [52] [R. Girshick。快速R-CNN。在ICCV,2015年。](http://dx.doi.org/10.1109/iccv.2015.169) * [53] [R. Girshick,J。Donahue,T。Darrell和J. Malik。豐富的要素層次結構,用于準確的對象檢測和語義分割。在CVPR,2014年。](file:///D:/papers/1311.2524/) * [54] X. Glorot,A。Bordes和Y. Bengio。深度稀疏整流神經網絡。在AISTATS,2011年。 * [55] [M. A. Goodale和A. D. Milner。用于感知和行動的獨立視覺通路。神經科學趨勢,15(1):20“25,1992。](http://cognet.mit.edu/library/books/mitpress/0262024969/cache/chap12.pdf) * [56] I. J Goodfellow,Y。Bengio和A. Courville。深度學習。 MIT出版社,2016年。 * [57] I. J. Goodfellow,J。Pouget-Abadie,M。Mirza,B。Xu,D。Warde-Farley,S。Ozair,A。Courville和Y. Bengio。生成對抗網。在NIPS。 2014年 * [58] I. J. Goodfelow,D。Warde-Farley,M。Mirza,A。Courville和Y. Bengio。 Maxout網絡。在NIPS,2013年。 * [59] T. L. Griffiths和Z. Ghahramani。無限的潛在特征模型和印度自助餐過程。在NIPS,2005年。 * [60] [I.哈吉和R. P. Wildes。一種用于動態紋理識別的時空導向能量網絡。在ICCV,2017年。](file:///D:/papers/1708.06690/) * [61] K. He,G。Gkioxari,P。Dollar和R. Girshick。面具R-CNN。在ICCV,2017年。 * [62] [K. He,X。Zhang,S。Ren和J. Sun.用于視覺識別的深度卷積網絡中的空間金字塔池。在ECCV,2014年。](file:///D:/papers/1406.4729/) * [63] [K. He,X。Zhang,S。Ren和J. Sun.深入研究整流器:超越圖像網絡分類的人性化表現。在ICCV,2015年。](file:///D:/papers/1502.01852/) * [64] [K. He,X。Zhang,S。Ren和J. Sun.深度殘差學習用于圖像識別。在CVPR,2016年。](file:///D:/papers/1512.03385/) * [65] D. O. Hebb。行為組織:神經心理學理論。威利,紐約,1949年。 * [66] D. J. Heeger。貓視皮層神經反應的非線性模型。在M. Landy和J.A. Movshon,編輯,視覺處理的計算模型,第9章,第119頁“134.麻省理工學院出版社,劍橋,1991年。 * [67] [D. J. Heeger。貓條紋皮質中細胞反應的正常化。可見。 Neuro。,9(2):181“197,1992。](http://dx.doi.org/10.1017/s0952523800009640) * [68] [G. E. Hinton,S。Osindero和Y-W。德。深度信念網的快速學習算法。神經計算,18(7):1527“1554,2006。](http://www.cs.berkeley.edu/~ywteh/research/ebm/nc2006.pdf) * [69] [G. E. Hinton和R. R. Salakhutdinov。用神經網絡降低數據的維數。科學,第504頁“507,2006年7月。](http://dx.doi.org/10.1126/science.1127647) * [70] [S. Hochreiter和J. Schmidhuber。長期短暫記憶。神經計算,9(8):1735“1780,1997。](http://dx.doi.org/10.1162/neco.1997.9.8.1735) * [71] [T. Hong,N。Kingsbury和M. D. Furman。具有復雜小波特征的生物啟發物體識別系統。在ICIP,2011年。](http://www-sigproc.eng.cam.ac.uk/foswiki/pub/Main/NGK/Biological-like_Object_Recognition_System3_3_ngk5.pdf) * [72] [G. Huang,Z。Liu,L。Van der Maaten和K. Q. Weinberger。密集連接的卷積網絡。在CVPR,2017年。](file:///D:/papers/1608.06993/) * [73] Y. Huang,K。Huang,L。Wang,D。Tao,T。Tan和X. Li。增強的生物靈感模型。在CVPR,2008年。 * [74] [D. H. Hubel和T. N. Wiesel。貓的視覺皮層中的感受野,雙眼相互作用和功能結構。 The Journal of Physiology,160:106“154,1962。](http://onlinelibrary.wiley.com/doi/10.1113/jphysiol.1962.sp006837/pdf) * [75] [J. H. Jacobsen,J。V. Gemert,Z。Lou和A. W.M. Smeulders。 CNN中的結構化感受域。在CVPR,2016年。](file:///D:/papers/1605.02971/) * [76] M. Jaderberg,K。Simonyan,A。Zisserman和K. Kavukcuoglu。空間變壓器網絡。在NIPS,2015年。 * [77] [K. Jarrett,K。Kavukcuoglu,M。Ranzato和Y. LeCun。什么是對象識別的最佳多階段架構?在ICCV,2009年。](http://yann.lecun.com/exdb/publis/pdf/jarrett-iccv-09.pdf) * [78] [Y. Jeon和J. Kim。主動卷積:學習卷積的形狀以進行圖像分類。在CVPR,2017年。](file:///D:/papers/1703.09076/) * [79] [H. Jhuang,T。Serre,L。Wolf和T. Poggio。一種生物啟發的行動識別系統。在ICCV,2007年。](http://www.cs.tau.ac.il/~wolf/papers/action151.pdf) * [80] [S. Ji,W。Xu,M。Yang和K. Yu。用于人類行為識別的3D卷積神經網絡。 IEEE Transactions on Pattern Analysis and Machine Intelligence,35:1915“1929,2013。](http://www.dbs.informatik.uni-muenchen.de/~yu_k/icml2010_3dcnn.pdf) * [81] Y. Jia,C。Huang和T. Darrell。超越空間金字塔:用于合并圖像特征的接收場學習。在CVPR,2012年。 * [82] X. Jin,C。Xu,J。Feng,Y。Wei,J。Xiong和S. Yan。使用S形整流線性激活裝置深度學習。在AAAI,2016年。 * [83] [D. A. Kaliukhovich和R. Vogels。分裂歸一化預測獼猴下顳皮質中適應誘導的反應變化。 Journal of Neuroscience,(36):6116“6128,2016。](http://www.jneurosci.org/content/jneuro/36/22/6116.full.pdf) * [84] [A. Karpathy,G。Toderici,S。Shetty,T。Leung,R。Sukthankar和L. Fei-Fei。卷積神經網絡的大規模視頻分類。在CVPR,2014年。](http://www.cs.cmu.edu/~rahuls/pub/cvpr2014-deepvideo-rahuls.pdf) * [85] K. Kavukcuoglu,M。Ranzato和Y. LeCun。稀疏編碼算法中的快速推理以及對象識別的應用。技術報告CBLL-TR-2008-12-01,計算與生物學習實驗室,Courant Institute,NYU,2008。 * [86] D. P. Kingma和J. L. Ba.亞當:隨機優化的一種方法。在ICLR,2015年。 * [87] J. Koenderink和A. J. Van Doorn。本地無序圖像的結構。國際計算機視覺雜志,31:159“168,1999。 * [88] [A. Krizhevsky,I。Sutskever和G. E. Hinton。深度卷積神經網絡的Imagenet分類。在NIPS,2012年。](http://dl.acm.org/ft_gateway.cfm?id=3065386&type=pdf) * [89] [S. Lazebnik,C。Schmid和J. Ponce。超越功能包:用于識別自然場景類別的空間金字塔匹配。在CVPR,2006年。](http://hal.inria.fr/docs/00/54/85/85/PDF/cvpr06_lana.pdf) * [90] Y. LeCun,Y。Bengio和G. E. Hinton。深度學習。自然,521(7553):436“444,2015。 * [91] [Y. LeCun,L。Bottou,Y。Bengio和P. Haffner。基于梯度的學習應用于文檔識別。 IEEE會議錄,86:2278“2324,1998。](http://www.cs.berkeley.edu/~daf/appsem/Handwriting/papers/00726791.pdf) * [92] Y. LeCun,J。S. Denker和S. A. Solla。最佳的腦損傷。在NIPS,1990年。 * [93] [Y. LeCun,K。Kavukcuoglu和C. Farabet。卷積網絡和視覺應用。在ISCAS,2010年。](http://yann.lecun.com/exdb/publis/pdf/lecun-iscas-10.pdf) * [94] [C. Ledig,L。Theis,F。Huszar,J。Caballero,A。Aitken,A。Tejani,J。Totz,Z。Wang和W. Shi。使用生成對抗網絡的照片般逼真的單圖像超分辨率。在CVPR,2017年。](file:///D:/papers/1609.04802/) * [95] [C-Y。 Lee,P。Gallagher和Z. Tu。在卷積神經網絡中推廣匯集函數:混合,門控和樹。在AISTATS,2016年。](http://dx.doi.org/10.1109/tpami.2017.2703082) * [96] M. Lin,Q。Chen和S. Yan。網絡中的網絡。在ICLR,2014年。 * [97] [F. Liu,C。Shen和G. Lin。用于深度估計的深度卷積神經場用于單個圖像。在CVPR,2015年。](file:///D:/papers/1411.6387/) * [98] [J. Long,E。Shelhamer和T. Darrell。用于語義分割的完全卷積網絡。在CVPR,2015年。](file:///D:/papers/1411.4038/) * [99] D. G. Lowe。從尺度不變的關鍵點獲得獨特的圖像特征。國際計算機視覺雜志,60(2):91“110,2004。 * [100] [S. Luan,b。 Zhang,C。Chen,X。Cao,J。Han和J. Liu。 Gabor卷積網絡。 arXiv,1705.01450,2017。](file:///D:/papers/1705.01450/) * [101] S. Lyu。分裂歸一化:作為有效編碼變換的理由和有效性。在NIPS,2010年。 * [102] S. Lyu和E. P. Simoncelli。使用分裂歸一化的非線性圖像表示。在CVPR,2008年。 * [103] A. L. Maas,A。Y. Hannun和A. Y. Ng。整流器非線性改善了神經網絡聲學模型。在ICML,2013年。 * [104] [A. Mahendran和A. Vedaldi。通過反轉它們來理解深度圖像表示。在CVPR,2015年。](file:///D:/papers/1412.0035/) * [105] [A. Mahendran和A. Vedaldi。突出的反卷積網絡。在ECCV,2016年。](http://dx.doi.org/10.1007/978-3-319-46466-4_8) * [106] M. Minsky和S. Papert。感知器:計算幾何的介紹。麻省理工學院出版社,劍橋,馬薩諸塞州,美國,1969年。 * [107] [P. Mishra和B. K. Jenkins。基于自然刺激適應濾波器的物體識別分層模型。在ICASSP,2010年。](http://dx.doi.org/10.1109/icassp.2010.5495294) * [108] [A. J. Movshon和E. P. Simoncelli。在靈長類視覺皮層中表現自然主義的圖像結構。冷泉港數量生物學專題討論會,79:115“122,2014。](http://symposium.cshlp.org/content/79/115.full.pdf) * [109] A. J. Movshon,I。D. Thompson和D. J. Tolhurst。了解當地競爭網絡。 The Journal of Physiology,283:53“77,1978。 * [110] [J. Mutch和D. G. Lowe。具有稀疏的本地化特征的多類對象識別。在CVPR,2006年。](http://www.wisdom.weizmann.ac.il/~bagon/CVspring07/files/MulObjRecSpaLocFea.pdf) * [111] V. Nair和G. E. Hinton。整流線性單元改進了受限制的boltzmann機器。在ICML,2010年。 * [112] J. Y-H。 Ng,M。J. Hausknecht,S。Vijayanarasimhan,O。Vinyals,R。Monga和G. Toderici。超短片段:用于視頻分類的深層網絡。在CVPR,2015年。 * [113] [E. Oyallon和S. Mallat。用于對象分類的深度旋轉平移散射。在CVPR,2015年。](file:///D:/papers/1412.8659/) * [114] A. Radford,L。Metz和S. Chintala。使用深度卷積生成對抗網絡的無監督表示學習。在ICLR,2016年。 * [115] S. Reed,Z。Akata,X。Yan,L。Logeswaran,B。Schiele和H. Lee。生成對抗性文本到圖像合成。在ICML,2016年。 * [116] [S. Ren,K。He,R。Girshick和J. Sun.更快的R-CNN:利用區域提案網絡進行實時對象檢測。在NIPS,2015年。](file:///D:/papers/1506.01497/) * [117] [M. Riesenhuber和T. Poggio。皮質中物體識別的層次模型。 Nature Neuroscience,2:1019“1025,1999。](http://dx.doi.org/10.1038/14819) * [118] S. Rifai,P。Vincent,X。Muller,X。Glorot和Y. Bengio。壓縮自動編碼器:特征提取期間的顯式不變性。在ICML,2011年。 * [119] [A. Rodriguez-Sanchez,M。Fallah和A. Leonardis。視覺皮層和計算機視覺中的分層對象表示。 Comp的前沿。 Neuro。,9:142,2015。](http://journal.frontiersin.org/article/10.3389/fncom.2015.00142/pdf) * [120] [A. J. Rodriguez-Sanchez和J. K. Tsotsos。中間表示對2D形狀檢測建模的重要性:Endstopping和曲率調整計算。在CVPR,2011年。](http://dx.doi.org/10.1109/cvpr.2011.5995671) * [121] [A. J. Rodriguez-Sanchez和J. K. Tsotsos。在二維形狀的分層表示中,endstopped和曲率調整計算的作用。 PLOS ONE,7(8):1“13,08 2012\.](http://dx.doi.org/10.1371/journal.pone.0042058) * [122] F.羅森布拉特。感知器“感知和識別自動機。技術報告85-460-1,康奈爾航空實驗室,1957。 * [123] F.羅森布拉特。神經動力學原理。 Spartan Books,華盛頓特區,美國,??1962年。 * [124] [S.Ruder。梯度下降優化算法概述。 arXiv,1609.04747,2016。](file:///D:/papers/1609.04747/) * [125] [D. E. Rumelhart,G .E。 Hinton和R. J. Williams。通過反向傳播錯誤來學習表示。 Nature,323:533“536,1986。](http://dx.doi.org/10.1038/323533a0) * [126] [O. Russakovsky,J。Deng,H。Su,J。Krause,S。Satheesh,S。Ma,Z。Huang,A。Karpathy,A。Khosla,M。Bernstein,A。C. C.伯格和L.費菲。 Imagenet大規模視覺識別挑戰。國際計算機視覺雜志,115(3):211“252,2015。](http://dspace.mit.edu/bitstream/1721.1/104944/1/11263_2015_Article_816.pdf) * [127] A. Santoro,S。Bartunov,M。Botvinick,D。Wierstra和T. Lillicarp。具有記憶增強神經網絡的元學習。在ICML,2016年。 * [128] [D. Scherer,A。M“ller和S. Behnke。用于對象識別的卷積體系結構中的池化操作評估。在ICANN,2010年。](http://www.ais.uni-bonn.de/papers/icann2010_maxpool.pdf) * [129] I. Sergey和C. Szegedy。批量標準化:通過減少內部協變量偏移來加速深度網絡訓練。在ICML,2015年。 * [130] T. Serre,M。Kouh,C。Cadieu,U。Knoblich,G。Kreiman和T. Poggio。物體識別理論:靈長目視覺皮層腹側前饋路徑的計算和電路。技術報告,2005年。 * [131] [T. Serre,L。Wolf,S。Bileschi,M。Riesenhuber和T. Poggio。具有類皮質機制的魯棒物體識別。 IEEE Transactions on Pattern Analysis and Machine Intelligence,29:411“426,2007。](http://www.cs.huji.ac.il/~daphna/course/CoursePapers/SerreEtAl%20PAMI2007.pdf) * [132] W. Shang,K。Sohn,D。Almeida和H. Lee。通過級聯校正線性單元理解和改進卷積神經網絡。在ICML,2016年。 * [133] K. Simonyan,A。Vedaldi和A. Zisserman。深層卷積網絡:可視化圖像分類模型和顯著性圖。在ICLR,2014年。 * [134] K. Simonyan和A. Zisserman。用于視頻中動作識別的雙流卷積網絡。在NIPS,2014年。 * [135] K. Simonyan和A. Zisserman。用于大規模圖像識別的非常深的卷積網絡。在ICLR,2015年。 * [136] N. Srivastava,G。E. Hinton,A。Krizhevsky,I。Sutskever和R. Salakhutdinov。輟學:一種防止神經網絡過度擬合的簡單方法。機器學習研究期刊,15(1):1929“1958,2014。 * [137] R. S. Sutton。反向傳播和其他網絡最速下降學習過程的兩個問題。 1986年認知科學學會會議。 * [138] [C. Szegedy,W。Liu,Y。Jia,P。Sermanet,S。Reed,D。Anguelov,D。Erhan,V。Vanhoucke和A. Rabinovich。進一步深化卷積。在CVPR,2015年。](file:///D:/papers/1409.4842/) * [139] [D. Tran,L。Bourdev,R。Fergus,L。Torresani和M. Paluri。利用3D卷積網絡學習時空特征。在ICCV,2015年。](file:///D:/papers/1412.0767/) * [140] [J. R. Uijlings,K。E. Sande,T。Gevers和A. W. Smeulders。選擇性搜索對象識別。國際計算機視覺雜志,104(2):154“171,2013。](http://www.science.uva.nl/research/publications/2011/vandeSandeICCV2011/vandesande_iccv2011.pdf) * [141] [P. Vincent,H。Larochelle,Y。Bengio和P-A。 Manzagol。使用去噪自動編碼器提取和組合強大的功能。在ICML,2008年。](http://www.iro.umontreal.ca/~vincentp/Publications/denoising_autoencoders_tr1316.pdf) * [142] P. Vincent,H。Larochelle,I。Lajoie,Y。Bengio和P-A。 Manzagol。堆疊去噪自動編碼器:使用局部去噪標準在深度網絡中學習有用的表示。 Journal of Machine Learning Research,11:3371“3408,2010。 * [143] [L. Wang,Y。Qiao和X. Tang。使用軌跡匯集的深卷積描述符進行動作識別。在CVPR,2015年。](file:///D:/papers/1505.04868/) * [144] [L. Wang,Y。Xiong,Z。Wang,Y。Qiao,D。Lin,X。Tang和L. Van Gool。時間段網絡:建立非常深的雙流網絡的良好做法。在ECCV,2016年。](file:///D:/papers/1608.00859/) * [145] [H. Wei和Z. Dong。 V4神經網絡模型用于視覺顯著性和區分形狀的局部表示。在IJCNN,2014年。](http://dx.doi.org/10.1109/ijcnn.2014.6889392) * [146] P. Werbos。超越回歸:行為科學中預測和分析的新工具。博士論文,哈佛大學,1974年。 * [147] [K. Woodbeck,G。Roth和H. Chen。 GPU上的視覺皮層:生物啟發的分類器和特征描述符,用于快速識別。在CVPR研討會上,2008年。](http://mplab.ucsd.edu/wp-content/uploads/CVPR2008/WorkShops/data/papers/142.pdf) * [148] [D. E. Worrall,S。J. Garbin,D。Turmukhambetov和G. J. Brostow。諧波網絡:深度平移和旋轉等效。在CVPR,2017年。](file:///D:/papers/1612.04642/) * [149] [R. A. Yeh,C。Chen,T。Y. Lim,A。G. Schwing,M。Hasegawa-Johnson和M. N. Do.用深層生成模型修復語義圖像。在CVPR,2017年。](file:///D:/papers/1607.07539/) * [150] J. Yosinski,J。Clune,Y。Bengio和H. Lipson。深度神經網絡中的特征如何可轉移?在NIPS,2014年。 * [151] J. Yosinski,J。Clune,A。Nguyen,T。Fuchs和H. Lipson。通過深度可視化理解神經網絡。在ICML研討會上,2015年。 * [152] [M. D. Zeiler。 Adadelta:一種自適應學習率方法。 arXiv,1212.5701,2012。](file:///D:/papers/1212.5701/) * [153] M. D. Zeiler和R. Fergus。隨機匯集用于深度卷積神經網絡的正則化。在ICLR,2013年。 * [154] [M. D. Zeiler和R. Fergus。可視化和理解卷積網絡。在ECCV,2014年。](http://cs.nyu.edu/~fergus/papers/zeilerECCV2014.pdf) * [155] [J. Zhang,Y。Barhomi和T. Serre。一種新的生物啟發的彩色圖像描述符。在ECCV,2012年。](http://serre-lab.clps.brown.edu/wp-content/uploads/2012/10/75760312.pdf) * [156] B. Zhou,A。Khosla,“。Lapedriza,A。Oliva和A. Torralba。物體探測器出現在深度場景中。在ICLR,2014年。 * [157] [B. Zhou,A。Khosla,A。Lapedriza,A。Oliva和A. Torralba。學習深層特征以進行判別性本地化。在CVPR,2016年。](file:///D:/papers/1512.04150/) * [158] [Y. Zhou,Q。Ye,Q。Qiu和J. Jiao。面向對象的響應網絡。在CVPR,2017年。](file:///D:/papers/1701.01833/) * [159] C. Zzegedy,A。Toshev和D. Erhan。用于物體檢測的深度神經網絡。在NIPS,2013年。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看