<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                https://www.huxiu.com/article/143219.html [TOC] ![Google首席科學家談Google是怎么做深度學習的](https://img.huxiucdn.com/article/cover/201602/14/093732810142.png?imageView2/1/w/800/h/600/|imageMogr2/strip/interlace/1/quality/85/format/png) 2016年3月7日,谷歌首席科學家,MapReduce、BigTable等系統的創造者,Jeff Dean受邀韓國大學,演講主題《大規模深度學習》,這里部分來自highscalability的文字和筆者Youtube上的聽錄。剛好演講在AlphaGo和李世石比賽之前,觀眾也問了他的預測,他只是說訓練了5個月的機器跟頂尖高手的差距不好說;還有人問道他喜歡的編程語言(C++愛恨交織,喜歡Go的簡潔,Sawzall才是真愛);在Google作為首席一天是怎么過的(要吃好早飯,到處閑逛閑聊,找到那些每個領域專家一起攻克難題)。本文首發微信公眾號“董老師在硅谷”,轉載請聯系。 整合意味著理解 如果你不理解信息中的奧秘,那么你也很難去組織它。 Jeff Dean是Google系統架構組院士,在講座:“大規模深度學習構建智能計算機系統”中提到這句和Google的使命:整合全球信息,使人人皆可訪問并從中受益。早期他們通過收集,清理,存儲,索引,匯報,檢索數據完成“整合”的工作,當Google完成這個使命,就去迎接下一個挑戰。 理解到底是什么含義? ![](https://img.huxiucdn.com/article/content/201603/26/0947535519.png?imageMogr2/strip/interlace/1/quality/85/format/png) 看到這張圖,你馬上知道是小寶寶抱著泰迪熊睡覺。而看到下張街景,馬上意識到紀念品店里面有打折信息。其實直到最近,計算機才可以提取圖片中的信息。 ![](https://img.huxiucdn.com/article/content/201603/26/0948150703.png?imageMogr2/strip/interlace/1/quality/85/format/png) 如果想從圖像去解釋物理世界,計算機需要去選擇跟那些感興趣的點,閱讀文字并去真正理解。 像下面的文字“car parts for sale”,傳統的Google通過關鍵字匹配來給出結果,但更好的匹配是第二個。這是一個需求深度理解的過程,而不能停留在字面,要去做一個優秀搜索和語言理解產品。 ![](https://img.huxiucdn.com/article/content/201603/26/0948373639.png?imageMogr2/strip/interlace/1/quality/85/format/png) Google的深度神經網絡歷史 ![](https://img.huxiucdn.com/article/content/201603/26/0948508986.png?imageMogr2/strip/interlace/1/quality/85/format/png) Google跟其他公司的不同是,2011年就開始Google大腦計劃,當時想通過使用神經網絡來提升技術水準,但并沒有把研究做成像大學象牙塔那種,而是結合安卓,Gmail,圖片去改進產品解決真正問題。這對其他公司也是很好的借鑒,把研究和員工工作結合起來。 神經網絡老早就開始研究,上世紀60年代發明,在80年代和90年代早期也流行過,后來又不火了。兩個原因:缺少計算能力去訓練數據模型,這樣也不能用來做更大規模的問題;2)缺少大量有效的數據集。而Google通過算法的力量,在加上他們強大的基礎架構,海量數據集創造了AI的絕佳溫床。 ![](https://img.huxiucdn.com/article/content/201603/26/0950356883.png?imageMogr2/strip/interlace/1/quality/85/format/png) 深度學習一開始從少數的產品組開始,一段時間后反響很好,能解決之前不能做的,就更多的團隊開始采納。使用深度學習的產品有:安卓,Apps,藥品發現,Gmail,圖片理解,地圖,自然語言,圖片,機器人,語音翻譯等。 ![](https://img.huxiucdn.com/article/content/201603/26/0950552174.png?imageMogr2/strip/interlace/1/quality/85/format/png) 深度學習能應用到很多領域原因是那些通用模塊:語音,文字,搜索詞,圖片,視頻,標簽,實體,短語,音頻特性。輸入一類信息,決定你想要的輸出,收集訓練數據作為你想要計算的潛在函數,然后就放手不管了。 ![](https://img.huxiucdn.com/article/content/201603/26/0951385293.png?imageMogr2/strip/interlace/1/quality/85/format/png) 模型很贊的原因是因為灌了很多原始形式的數據。你不需要教工程師很多特征點,模型的力量在于從觀察一些例子就能自動識別數據中的有用信息。 深度神經網絡是什么? 神經網絡就是一些從數據提煉的復雜函數。從一個空間輸入在轉化為另一個空間的輸出。這里的函數不是像平方,而是真正復雜的函數。當你給出一些原始像素,比如貓,而輸出就是對象的類別。 ![](https://img.huxiucdn.com/article/content/201603/26/0951484625.png?imageMogr2/strip/interlace/1/quality/85/format/png) 深度學習中的“深度”指的是神經網絡中的層數。這個系統的良好性質是一組簡單的可以訓練的數學函數集合。深度神經網絡適用于很多機器學習風格。 比如你給輸入一張貓的圖片,輸出是人工標記的貓圖片,這是 監督學習。你把很多這樣監督樣本給系統,讓它去學習近似的函數,如同從監督樣本中觀察出來的。 還有一種是非監督學習,給出一個圖片,你也不知道里面是啥,系統可以學習去尋找在很多圖片中出現的模式。這樣即使不認識圖片,它也能識別所有的圖片中都有一只貓。 增強學習也適用,這也是AlphaGo用到的技術。 什么是深度學習? 深度網絡模型是類似于大腦行為的原理。但不是具體模擬神經元如何工作。而是一種簡單抽象的神經元版本。 ![](https://img.huxiucdn.com/article/content/201603/26/0954030412.png?imageMogr2/strip/interlace/1/quality/85/format/png) 神經元有一組輸入。真正神經元會有不同的強度的輸入。在人工智能網中試圖去學習到這些邊上的權重,去加強不同輸入的聯系。真正神經元通過輸入和強度的組合去決定要不要生成脈沖。 人工神經元不會產生脈沖,但會生成一個數值。神經元的函數就是通過非線性函數計算輸入的加權乘以權重之和。 典型的非線性函數就是整形線性單元(max(0, x)),在90年代很多非線性函數是很平緩的sigmoid()函數或者tanh()函數。但對于神經元來說產生的數值是不是更接近0對優化系統更有利。比如如果神經元有3個輸入 X1, X1, X3,權重分別是 -0.21, 0.3, 0.7,計算就是 > y = max(0, -.0.21*x1 + 0.3*x2 + 0.7*x3) 為了決定圖片到底是貓還是狗,這個圖片要經過很多層。這些神經元根據輸入來產生下一步。 ![](https://img.huxiucdn.com/article/content/201603/26/0955177338.png?imageMogr2/strip/interlace/1/quality/85/format/png) 最低層的神經元會查看像素的小塊。更高層的神經元會看下層神經元的輸出再決定是否生產。 這個模型也會錯,比如說這里是貓,但事實上是狗。那么做錯誤決定的信號就會返回到系統中做調整,讓剩余的模型在下一次查看圖片時候,更可能輸出狗。這就是神經網絡的目標,通過模型小步調整邊的權重讓它更可能去得到正確答案。你可以通過所有樣本去聚合,這樣可以降低錯誤率。 學習算法其實比較簡單如下 * 選擇隨機訓練樣本“(輸入,標簽)”,比如上面貓圖和想要的輸出標簽,‘貓’ * 運行神經網絡,在輸入上去查看它產生的。 * 調整邊的權重讓最后輸出更接近于“標簽”上的。 如何調整邊的權重去保障輸出更接近于標簽呢? ![](https://img.huxiucdn.com/article/content/201603/26/0955409677.png?imageMogr2/strip/interlace/1/quality/85/format/png) 反向傳播:積分的鏈式法則在決定高層神經網絡中使用,如果選擇是貓而不是狗呢?得想辦法去調整高層的權重去讓它更可以決定是“狗”。 根據箭頭方向和權重去讓它更可能說是狗。不要步子邁得太大因為這種表面很復雜,微調一小步讓它下次更可能給出狗的結果。通過很多迭代以及查看例子,結果更可能會是狗。通過這個鏈式法則去理解底層參數改變是如何影響到輸出的。說白了就是網絡變化回路反饋到輸入,使得整個模型更適應去選擇“狗”。 ![](https://img.huxiucdn.com/article/content/201603/26/0955559580.png?imageMogr2/strip/interlace/1/quality/85/format/png) 權重的微調 ![](https://img.huxiucdn.com/article/content/201603/26/0956120301.png?imageMogr2/strip/interlace/1/quality/85/format/png) 真正神經網絡通過億級的參數在億級的維度做調整,去理解輸出網絡。Google目前有能力如何快速搭建和訓練這些海量數據上的模型,去解決實際問題,在快速去不同廣泛的平臺去部署生產模型(手機,傳感器,云端等)。 神經網絡的奇妙特性 ![](https://img.huxiucdn.com/article/content/201603/26/0956339047.png?imageMogr2/strip/interlace/1/quality/85/format/png) 就是說神經網絡可以用在很多不同問題上。 * 文本:萬億級別的英文和其他語言資料。從一個語言翻譯到另一個,從短語到整句。 * 虛擬化數據:十億級別的圖譜,視頻。 * 語音:每天都產生萬小時的資料。 * 用戶行為: 很多應用產生數據。比如搜索引擎的查詢,用戶在email中標記垃圾。這些都可以學習并搭建智能系統。 * 知識圖譜:十億級別的標簽化關系元組。 ![](https://img.huxiucdn.com/article/content/201603/26/0957549704.png?imageMogr2/strip/interlace/1/quality/85/format/png) 如果吸收更多數據,讓模型變大,結果也更好。 如果你輸入更多數據,但沒有把模型變大,模型的能力就會受限在一些數據集中的明顯特征。通過增加模型的規模,讓它不僅記住明顯的,還有一些也許出現很少的細微特征。 通過更大的模型,更多數據,計算需求也更大。Google很多精力花在如何提升計算量,訓練更大的模型。 在Google深度學習有哪些強大應用? 1)語音識別 ![](https://img.huxiucdn.com/article/content/201603/26/0958154413.png?imageMogr2/strip/interlace/1/quality/85/format/png) 第一個部署深度神經網絡的小組。他們實現的新模型基于神經網絡而不是隱馬爾可夫模型。這個問題是把從150毫秒的語音去預測中間10毫秒吞掉的聲音。比如到底是ba還是ka的聲音。你得到一個預測的序列,再通過語言模型去理解用戶所說。 一開始的版本就把識別錯誤率降低了30%,確實非常厲害。后來就研究一些復雜模型去加強網絡,進一步降低錯誤率。現在當你對著電話說話,語音識別比五年前強多了。 2)ImageNet挑戰 ![](https://img.huxiucdn.com/article/content/201603/26/0958381908.png?imageMogr2/strip/interlace/1/quality/85/format/png) ImageNet是6年前公布的。里面有100萬張圖片,算是計算機視覺領域最大的。圖片中包含1000種不同分類,每一類有1000張圖片。比如里面有上千張不同的豹子,摩托車等,一個麻煩的是不是所有的標簽都是對的。 ![](https://img.huxiucdn.com/article/content/201603/26/1000566774.png?imageMogr2/strip/interlace/1/quality/85/format/png) 在神經網絡使用之前,最好的錯誤記錄是26%,2014年 Google錯誤率暴降到6.66%取得冠軍,然后到了2015年錯誤率下降到3.46%。這是什么概念,大家注意到Andrej人類的錯誤率也有5.1%(他還是花了24小時訓練后的結果)。 總之這是個又大又深的模型,每個盒子就像神經元的一層去進行卷積操作。 ![](https://img.huxiucdn.com/article/content/201603/26/1001151667.png?imageMogr2/strip/interlace/1/quality/85/format/png) 3)圖片類別識別 ![](https://img.huxiucdn.com/article/content/201603/26/1001477280.png?imageMogr2/strip/interlace/1/quality/85/format/png) 計算機在花卉識別上很強大,這是非常好的模型,能夠識別細微差別。 ![](https://img.huxiucdn.com/article/content/201603/26/1002406147.png?imageMogr2/strip/interlace/1/quality/85/format/png) 一般的效果,比如在菜品識別。 ![](https://img.huxiucdn.com/article/content/201603/26/1002491547.png?imageMogr2/strip/interlace/1/quality/85/format/png) 計算機也有犯錯的時候,關于錯誤敏感性看一看上面的,比如左邊鼻涕蟲當成蛇,右邊也不知道是什么鬼。 4)Google圖片搜索 ![](https://img.huxiucdn.com/article/content/201603/26/1003093230.png?imageMogr2/strip/interlace/1/quality/85/format/png) 理解圖片中像素的能力,Google圖片團隊開發了不用標簽就可以搜索圖片的功能。比如你可以去找雕像,素描,水,而不需提前標注。 5)街景圖像 ![](https://img.huxiucdn.com/article/content/201603/26/1003331420.png?imageMogr2/strip/interlace/1/quality/85/format/png) 在街景中如何識別里面的文字。首先要找到文字部分,模型能夠去有效預測像素中熱點圖,那些含有文字的像素點。訓練的數據就是包含文字劃分的多邊形。 因為訓練數據中包括不同的字符集,這樣在多語言下也沒問題。也要考慮大小字體,遠近,不同顏色。訓練的模型相對容易,就是卷積神經網絡嘗試去預測每個像素是否包括文字。 6)Google搜索 RankBrain ![](https://img.huxiucdn.com/article/content/201603/26/1003490608.png?imageMogr2/strip/interlace/1/quality/85/format/png) RankBrain2015年啟動,在搜索排名(前100位排第三),里面難點是搜索排序需要了解模型,要理解為什么要做某個決定。當系統發生錯誤為什么做那個。 調試工具準備好,需要足夠的理解能力嵌入模型,去避免主觀。總體上是不想手工調參數。你需要嘗試理解模型中的預測,去理解訓練數據是否相關,是否跟問題無關?你需要訓練數據并應用到別的上面。通過搜索查詢的分布你能得到每天的變化,事件發生后改變也隨時發生。你要看分布是否穩定,比如語音識別,一般人不會改變音色。當查詢和文檔內容頻繁變化,你要保證模型是新的。我們要搭建通用工具去理解神經網絡里面發生了什么,解釋什么導致這個預測。 序列模型 ![](https://img.huxiucdn.com/article/content/201603/26/1004101480.png?imageMogr2/strip/interlace/1/quality/85/format/png) 很多問題都可以映射到從一個序列到另一個序列的規律。比如語言翻譯,從英語翻譯到法語,就是把英語的序列單詞轉化到法語序列單詞。 神經網絡在學習復雜函數時特別有用,這個模型學習從英文到法文的句子。句子以單詞為單位,以結束符作為信號。訓練模型在遇到結束符時開始產生另一個語言的對應句子。而模型函數就是把語言中語句對作為訓練數據。 每一步都在詞典表中的單詞產生概率分布。在推理時候通過一些搜索來實現,如果你最大化每個單詞的概率,這樣找的不是最可能的句子。直到找到最大可能的句子找到才結束搜索。 這個系統在公開翻譯系統中表現出色。大多數其他翻譯系統需要手工編碼或機器學習的模型只是在一小部分使用,而不是像這種整體的端到端的學習系統。 ![](https://img.huxiucdn.com/article/content/201603/26/1004439588.png?imageMogr2/strip/interlace/1/quality/85/format/png) 這些領域都是可以歸到序列類的方法。 7)智能回復 ![](https://img.huxiucdn.com/article/content/201603/26/1005293727.png?imageMogr2/strip/interlace/1/quality/85/format/png) 智能回復是另一個序列類的例子。在手機上你如何更快回復郵件,打字很累。 Gmail組開發了一個系統能夠去預測郵件回復。第一步就是訓練小量模型去預測如果消息是某一類的,怎么做簡短回復。如果是一個更大,計算能力更強的模型將消息作為一個序列,嘗試預測序列的響應語。比如對于節日邀約,最可能的三個答復是“算上我們”,“我們會去的”,“對不起,我們有事沒法耍”。 8)看圖說話 ![](https://img.huxiucdn.com/article/content/201603/26/1005456125.png?imageMogr2/strip/interlace/1/quality/85/format/png) 把之前開發的圖片模型與序列類模型結合一起。圖片模型作為輸入。這里就不是閱讀英文句子了,而是看圖片的像素。 接下來就是訓練生成字幕。訓練集有5個由不同的人寫的不同的字幕。總共100萬圖片,70萬條語句。效果如下 ![](https://img.huxiucdn.com/article/content/201603/26/1006003386.png?imageMogr2/strip/interlace/1/quality/85/format/png) 兩個模型翻譯的都不錯:1)一個小孩緊緊的抱住毛絨玩具。2)一個寶寶在泰迪熊旁邊睡著了。 ![](https://img.huxiucdn.com/article/content/201603/26/1006091350.png?imageMogr2/strip/interlace/1/quality/85/format/png) 上面是一些好玩的出錯語句,為啥會錯,其實你自己看了也明白。 9)機器視覺和翻譯結合 ![](https://img.huxiucdn.com/article/content/201603/26/1006305482.png?imageMogr2/strip/interlace/1/quality/85/format/png) 翻譯團隊寫了一個app,使用計算機視覺來識別鏡頭中文字,再翻譯成文本,最后再圖片本身覆蓋翻譯好的文字。模型足夠小可以運行在所有設備上。 直接在手機上跑一些模型中的重要方法。智能化將轉移到設備端,這樣不會依賴遠程云端的大腦。 研究上的努力和成果轉化 Google 非常在乎研究轉化效率。就是要快速訓練模型,理解那些做的好的和不好的,再想下一步實驗。模型應該再分鐘或者小時,而不是幾天或者幾周。這樣讓每個人都做研究更高效。 機器學習發展會更好,更快。Jeff說機器學習社區發展得特別快。人們發布了一篇論文,一周內就有很多研究小組跟進,下載閱讀,理解實現,再發布他們自己的擴展。這跟以前的計算機期刊投稿完全不同,等6個月才知道是否被接收,然后再過3個月最后發表。而現在把時間從一年壓縮到一周,真不得了。 如何快速訓練大量模型 模型的并行化 ![](https://img.huxiucdn.com/article/content/201603/26/1007106973.png?imageMogr2/strip/interlace/1/quality/85/format/png) 神經網絡有很多固有的并行化,所有不同的神經元與其他的也是保持獨立,特別本地接納的,神經元僅僅接受一小部分比它更低的神經元作為輸入。 在不同的GPU上和不同機器上可以做并行。只有邊界上的數據需要通信。 ![](https://img.huxiucdn.com/article/content/201603/26/1007279459.png?imageMogr2/strip/interlace/1/quality/85/format/png) 數據并行化 ![](https://img.huxiucdn.com/article/content/201603/26/1007444692.png?imageMogr2/strip/interlace/1/quality/85/format/png) 優化的模型參數集不應該在一臺機器上或者一臺中心服務器上,應該有多個模型拷貝,這樣協作區優化參數。 在訓練過程中讀取數據的隨機部分。每一個拷貝在模型中獲取當前的參數集,讀取在當前梯度下的一點數據,找到想要的參數調整,在發送調整到中心的參數服務器中。這個參數服務器會對參數做調整。整個過程重復,這個也會在很多拷貝中進行。有些使用500份在500臺不同機器上的拷貝,為了快速優化參數并處理大量數據。 一種方式是異步的,每一個都有自己的循環,取得參數,計算梯度,發送它們,不需要任何控制和跟其他的同步,不好的是當梯度返回到參數可能在計算結束后就被移走了。對有些例子可能有50到100份的拷貝。還有一種是同步,一個控制器控制所有的拷貝。 TensorFlow ![](https://img.huxiucdn.com/article/content/201603/26/1008109882.png?imageMogr2/strip/interlace/1/quality/85/format/png) 在過去的幾年間,我們已經建立了兩代用于訓練和部署神經網絡的計算機系統,并且將這些系統應用于解決很多在傳統上來說對計算機而言很難的問題。我們對許多這些領域的最新技術做了很大的改進。 第一代系統DistBeliet在可擴縮性上表現很好,但在用于研究時靈活性達不到預期。對問題空間的更深理解讓我們可以做出一些大幅度的簡化。 ![](https://img.huxiucdn.com/article/content/201603/26/1008253922.png?imageMogr2/strip/interlace/1/quality/85/format/png) 這也是第二代系統的研發動機,用 TensorFlow 表達高層次的機器學習計算。它是C++語言編寫的核心,冗余少。而不同的前端,現有Python和C++前端,添加其他語言的前端也不是難題。 ![](https://img.huxiucdn.com/article/content/201603/26/1008394409.png?imageMogr2/strip/interlace/1/quality/85/format/png) 計算可以用一張數據流圖來理解。 我們輸入數據、權重、誤差以及標簽,在不同節點進行不同的運算。 TensorFlow名字的意義 * Tensor(張量)意味著N維數組。1維時就是向量,2維時就是矩陣;通過圖像可以代表更高維的數據流,比如,圖像可以用三維張量(行,列,顏色)來表示。 * Flow(流)意味著基于數據流圖的計算。有許多運算(圖中的節點)應用在數據流上。 * 張量從圖象的一端流動到另一端,這就是“TensorFlow”。“邊”代表張量(數據),節點代表運算處理。 這是使用張量計算的示意圖。 ![](https://img.huxiucdn.com/article/content/201603/26/1009152379.png?imageMogr2/strip/interlace/1/quality/85/format/png) 這是使用狀態計算的示意圖。 ![](https://img.huxiucdn.com/article/content/201603/26/1010016539.png?imageMogr2/strip/interlace/1/quality/85/format/png) 這是使用分布式計算的示意圖。 ![](https://img.huxiucdn.com/article/content/201603/26/1010123186.png?imageMogr2/strip/interlace/1/quality/85/format/png) 它能夠在各個平臺上自動運行模型:電話上,單個機器上(CPU或GPU),由成百上千的GPU卡組成的的分布式系統。 ![](https://img.huxiucdn.com/article/content/201603/26/1010233562.png?imageMogr2/strip/interlace/1/quality/85/format/png) 總結 如果你還沒想通過深度學習網絡去解決你的數據問題,你還是要趕緊考慮。TensorFlow 讓每個人更容易獲取深度學習能力。 * 高度擴展的設計,更快的實驗速度加速研究進程 * 容易分享模型,開發代碼應用到可重用的效果 * 通過同一個系統把研究工作直接用于生產環境 最后說一些quora上大家給Jeff Dean大神編的段子,供君一樂: > Jeff Dean當初面試Google時,被問到“如果P=NP能夠推導出哪些結論”,Jeff回答說:“P = 0或者N = 1”。而在面試官還沒笑完的時候,Jeff檢查了一下Google的公鑰,然后在黑板上寫下了私鑰。 > > 編譯器從不警告Jeff Dean,只有Jeff警告編譯器。 > > Jeff Dean的編碼速度在2000年底提高了約40倍,因為他換了USB2.0的鍵盤。 > > Jeff Dean被迫發明了異步API因為有一天他把一個函數優化到在調用前就返回結果了。 > > Jeff Dean曾經寫過一個O(n2)算法,那是為了解決旅行商問題。 > > Jeff Dean的鍵盤只有兩個鍵,1和0。 > > Jeff Dean失眠的時候,就Mapreduce羊。 參考文章:Jeff Dean on Large-Scale Deep Learning at Google
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看