<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??碼云GVP開源項目 12k star Uniapp+ElementUI 功能強大 支持多語言、二開方便! 廣告
                # 基于深度學習的推薦:最先進的技術 在本節中,我們首先介紹基于深度學習的推薦模型的類別,然后突出最先進的研究原型,旨在確定近年來最顯著和最有希望的進步。 ## 基于深度學習的推薦模型的類別 **圖 1:**基于深度神經網絡的推薦模型的類別。 ![](https://img.kancloud.cn/f7/50/f7506699559bad14b78257b0ca82b486_790x242.jpg) 為了提供該領域的全景圖,我們根據所采用的深度學習技術的類型對現有模型進行分類。 我們進一步將基于深度學習的推薦模型分為以下兩類。 表 1 總結了分類方案。 **表 1:**已回顧論文的查找表。 | 分類 | 論文 | | --- | --- | | MLP | [2,13,20,27,38,47,53,54,66,92,95,157,166,185], [12,39,93,112,134,154,182,183] | | 自編碼器 | [34,88,89,114,116,125,136,137,140,159,177,187,207], [4,10,32,94,150,151,158,170,171,188,196,208,209] | | CNN | [25,49,50,75,76,98,105,127,130,153,165,172,202,206], [6,41,51,83,110,126,143,148,169,190,191] | | RNN | [5,28,35,36,56,57,73,78,90,117,132,139,142,174-176], [24,29,33,55,68,91] | | RBM | [42,71,72,100,123,167,180] | | NADE | [36,203,204] | | 神經注意力 | [14,44,70,90,117,132,139,142,164-176], [62,146,193] | | 對抗網絡 | [9,52,162,164] | | DRL | [16,21,107,168,198-200] | | 混合模型 | [17,38,41,82,84,87,118,135,160,192,193] | * 使用神經積木的推薦 。 在該類別中,模型根據上述八種深度學習模型分為八個子類別:基于MLP,AE,CNN,RNN,RBM,NADE,AM,AN和DRL的推薦系統。 使用的深度學習技術決定了推薦模型的適用性。 例如,MLP可以輕松地模擬用戶和項目之間的非線性交互;CNN能夠從異構數據源(例如文本和視覺信息)中提取局部和全局表示;RNN使推薦系統能夠建模內容信息的時間動態和連續演化。 * 使用深度混合模型的推薦。 一些基于深度學習的推薦模型使用多種深度學習技術。 深度神經網絡的靈活性使得將幾個神經積木組合在一起來相互補充,并形成更強大的混合模型成為可能。 這些深度學習技術有許多可能的組合,但并非所有技術都被利用。 請注意,它與[31]中的混合深度網絡不同,后者指的是利用生成和判別成分的深層架構。 **表 2:**特定應用領域中基于深度神經網絡的推薦模型。 | 數據 來源/任務 | 注 | 論文 | | --- | --- | --- | | 序列信息 | w/t 用戶 ID | [16, 29, 33, 35, 73, 91, 117, 133, 143, 160, 173, 175, 189, 194, 198, 205] | | | 基于會話的 w/t 用戶 ID | [55–57, 68, 73, 99, 101, 102, 117, 142, 148, 149] | | | 登入,POI | [150, 151, 165, 185] | | 文本 | 哈希標簽 | [44, 110, 118, 158, 182, 183, 193, 209] | | | 新聞 | [10, 12, 113, 135, 169, 200] | | | 評論文本 | [11, 87, 126, 146, 174, 197, 202] | | | 引言 | [82, 141] | | 圖片 | 視覺特征 | [2, 14, 25, 49, 50, 84, 98, 105, 112, 165, 172, 179, 191, 192, 197, 206] | | 音頻 | 音樂 | [95, 153, 167, 168] | | 視頻 | 影片 | [14, 17, 27, 83] | | 網絡 | 引文網 | [9, 38, 66] | | | 社交網絡 | [32, 116, 166] | | | 跨域 | [39, 92, 166] | | 其它 | 冷啟動 | [154, 156, 170, 171] | | | 多任務 | [5, 73, 87, 174, 187] | | | 解釋 | [87, 126] | 表 1 列出所有回顧的模型,我們按照上述分類方案組織它們。 此外,我們還在表 2 中從任務角度總結了一些論文。 回顧的論文涉及各種任務。 由于使用深度神經網絡(例如基于會話的推薦,圖像,視頻推薦),一些任務已開始受到關注。 一些任務對于推薦研究領域可能并不新穎(用于推薦系統的輔助信息的詳細回顧可以在[131]中找到),但DL提供了更多找到更好解決方案的可能性。 例如,如果沒有深度學習技巧的幫助,處理圖像和視頻將是一項艱巨的任務。 深度神經網絡的序列建模功能可以輕松捕獲用戶行為的序列模式。 一些具體任務將在下文中討論。 ## 基于多層感知器的推薦 MLP是一個簡潔但有效的網絡,據證明能夠以任何所需的準確度近似將任何可測量的函數[59]。 因此,它是許多先進方法的基礎,并且在許多領域中被廣度使用。 傳統推薦方法的神經擴展。 許多現有的推薦模型基本上是線性方法。 MLP可用于向現有RS方法添加非線性變換并將其解釋為神經擴展。 **圖 2:**圖示:(a)神經協同過濾;(b)深度分解機。 ![](https://img.kancloud.cn/65/6e/656e767be4bd8b2e48cef6103afcd2c8_1053x408.jpg) 神經協同過濾 。 在大多數情況下,推薦被視為用戶偏好和項目特征之間的雙向交互。 例如,矩陣分解將評分矩陣分解為低維用戶/項目潛在因子。 構建雙神經網絡來模擬用戶和項目之間的雙向交互是很自然的。 神經網絡矩陣分解(NNMF)[37]和神經協同過濾(NCF)[53]是兩個具有代表性的工作。 圖 2a 顯示了NCF架構。 讓 ![](https://img.kancloud.cn/19/76/19765333157801942815a25d9ac67683_36x26.png) 和 ![](https://img.kancloud.cn/f0/44/f04424d87a0c05a7095933c9adefbeca_36x32.png) 表示輔助信息(例如用戶個人信息和項目特征),或者僅表示用戶 ![](https://img.kancloud.cn/5c/87/5c87b6660e8af1d54cf2cb5673748356_11x11.png) 和項目 ![](https://img.kancloud.cn/69/45/6945dae1f1cbaacf8725c629d0564d7f_7x15.png) 的單熱標識符。 評分函數定義如下: ![](https://img.kancloud.cn/e8/3e/e83ea21d6808b59d489469f14fd017ee_254x18.png) (1) 其中函數 ![](https://img.kancloud.cn/3a/02/3a0291f2219602685fc7ddabf25a6fd7_28x29.png) 代表多層感知器, ![](https://img.kancloud.cn/b3/6c/b36cd47a72f8a9cf8d806c40995bb2fe_9x16.png) 是這個網絡的參數。 傳統的MF可以被視為NCF的一個特例。 因此,將矩陣分解的神經解釋與MLP融合來制定更通用的模型是方便的,該模型利用MF的線性和MLP的非線性來提高推薦質量。 可以使用加權平方損失(用于顯式反饋)或二元交叉熵損失(用于隱式反饋)來訓練整個網絡。 交叉熵損失定義為: ![](https://img.kancloud.cn/11/f8/11f880392ca9e38d050a60fbf419d565_350x38.png) (2) 可以使用負采樣方法來減少未觀測的訓練實例的數量。 后續工作[112,134]建議使用成對排名損失來提高效果。He 等 [92,166]將NCF模型擴展到跨域推薦。 Xue 等 [184]和 Zhang 等 [195]表明,可以用交互矩陣的列或行替換單熱標識符來保留用戶項目交互模式。 深度分解機 。 DeepFM [47]是一種端到端模型,可無縫集成分解機和MLP。 它能夠使用深度神經網絡和與分解機的低階交互來建模高階特征相互作用。 分解機(FM)利用加法和內積運算來捕獲特征之間的線性和成對相互作用(更多細節參見[119]中的公式(1))。 MLP利用非線性激活和深層結構來模擬高階交互。 MLP與FM結合的方式受到廣度和深度網絡的啟發。 它用分解機的神經解釋取代了寬的分量。 與廣度和深度模型相比,DeepFM不需要繁瑣的特征工程。 圖 2b 說明了DeepFM的結構。 DeepFM的輸入 ![](https://img.kancloud.cn/f6/c5/f6c563da84d551e1d2a979749eb0616c_11x11.png) 是一個 ![](https://img.kancloud.cn/85/71/85712625b51b3e03831eb0d9d465053b_16x11.png) 個領域的數據,由 ![](https://img.kancloud.cn/45/ca/45cae55fad514c629a3d5c1c055e03f5_36x29.png) 對組成(用戶和項目的身份和特征)。 為簡單起見,FM和MLP的輸出分別表示為 ![](https://img.kancloud.cn/bd/00/bd0034ce39760f21757c877898eb8085_55x29.png) 和 ![](https://img.kancloud.cn/7e/90/7e902c328a9b3d65da3321e695f32614_64x29.png) 。 預測得分通過以下公式計算: ![](https://img.kancloud.cn/a5/f5/a5f57f0f0dbde624c9dec17595d9daec_196x16.png) (3) 其中 ![](https://img.kancloud.cn/9c/73/9c73ec97a48c065c23bb12773b0550a3_28x29.png) 是S形激活函數。 Lian 等 [93]通過提出一個eXtreme深度分解機來同時模擬顯式和隱式特征交互,從而改進了DeepMF。 通過壓縮交互網絡學習顯式高階特征交互。 He等提出的并行工作 [54]取代了與MLP的二階交互,并建議使用dropout和batch normalization對模型進行正則化。 用MLP學習特征表示。 使用MLP進行特征表示非常簡單且高效,即使它可能不像自編碼器,CNN和RNN那樣具有表現力。 廣度和深度學習 。 這個通用模型(如圖 3a 所示) 可以解決回歸和分類問題,但最初在Google Play的App推薦中引入[20]。 廣度學習成分是單層感知器,也可以視為廣義線性模型。 深度學習成分是多層感知器。 結合這兩種學習技術的基本原理是,它使推薦系統能夠捕獲記憶和概括。 廣度學習成分實現的記憶,代表了從歷史數據中捕獲直接特征的能力。 同時,深度學習成分通過產生更一般和抽象的表示,來捕捉泛化。 該模型可以提高推薦的準確性和多樣性。 形式上,廣度學習定義為: ![](https://img.kancloud.cn/03/d2/03d290c26d24948e2bb8bdf911e71cd1_163x31.png) ,其中 ![](https://img.kancloud.cn/b5/ea/b5ea589f46983a5298c1727e658f10da_44x31.png) , ![](https://img.kancloud.cn/0b/59/0b590ae94f68192fe621a64dac235ac4_8x15.png) 是模型參數。 輸入 ![](https://img.kancloud.cn/bb/b2/bbb298046ae95cd64e0ae400cd0a0aa1_65x29.png) 是由原始輸入特征 ![](https://img.kancloud.cn/f6/c5/f6c563da84d551e1d2a979749eb0616c_11x11.png) ,和變換特征 ![](https://img.kancloud.cn/f3/21/f3212905e9594664deb471357f7397d7_33x29.png) (例如,捕獲特征之間的相關性的交叉乘積變換) 組成的連接特征集 。 深層神經元的每一層都是 ![](https://img.kancloud.cn/d3/d9/d3d91e11dde83c6340956d1b42ef596c_191x39.png) ,其中 ![](https://img.kancloud.cn/1d/c1/1dc11940e675d78015a232f27ad164ce_7x15.png) 表示 ![](https://img.kancloud.cn/23/73/237361a463a62dcdd6769cc68c83e8c1_20x18.png) 層, ![](https://img.kancloud.cn/3a/02/3a0291f2219602685fc7ddabf25a6fd7_28x29.png) 是激活函數。 ![](https://img.kancloud.cn/ea/90/ea90bc980f41d761774d958c1b14cded_43x39.png) 和 ![](https://img.kancloud.cn/7e/0b/7e0b3cf460c7165fc330dff18a14244a_23x18.png) 是權重和偏置。 通過融合這兩個模型可以獲得廣度和深度學習模型: ![](https://img.kancloud.cn/14/4b/144b75b76a39ae3a213648678007988a_374x22.png) (4) 其中 ![](https://img.kancloud.cn/9c/73/9c73ec97a48c065c23bb12773b0550a3_28x29.png) 是sigmoid函數, ![](https://img.kancloud.cn/13/26/1326945d1c0265b78dae3631c257cc1e_22x27.png) 是二元評分標簽, ![](https://img.kancloud.cn/ba/e7/bae7a2f6f88b04aa0686daa315706c0d_32x18.png) 是最后的激活。 該聯合模型使用隨機反向傳播(follow-the-regularized-leader 算法)進行優化。 基于預測的分數生成推薦列表。 通過擴展這個模型,Chen 等 [13]為大規模的工業級推薦任務設計了一個局部連接的廣度和深度學習模型。 它采用高效的局部連接網絡來取代深度學習成分,從而將運行時間減少一個數量級。 部署廣度和深度學習的一個重要步驟是選擇廣度和深度部分的特征。 換句話說,系統應該能夠確定哪些特征被記憶或概括。 此外,還需要手工設計交叉乘積變換。 這些預先步驟將極大地影響該模型的效果。 上述基于深度因式分解的模型可以減少特征工程的工作量。 Covington等 [27]探討了YouTube推薦中MLP的應用。 該系統將推薦任務分為兩個階段:候選生成和候選排名。 候選生成網絡從所有視頻語料庫中檢索子集(數百個)。 排名網絡基于來自候選者的最近鄰居分數生成 top-n 個列表(數十個)。 我們注意到工業界更關注特征工程(例如變換,正則化,交叉)和推薦模型的可擴展性。 Alashkar等 [2]提出了基于MLP的化妝品推薦模型。 這項工作使用兩個相同的MLP分別為標記示例和專家規則建模。 通過最小化它們的輸出之間的差異,同時更新這兩個網絡的參數。 它展示了采用專家知識指導MLP框架中推薦模型學習過程的效果。 即使專業知識的獲取需要很多人的參與,它也是高度精確的。 **圖 3:**圖示:(a)廣度和深度學習;(b)多視圖深度神經網絡。 ![](https://img.kancloud.cn/10/5c/105c7f72f61f9b08f247666558561e97_1087x380.jpg) 協同度量學習(CML) 。 CML [60]用歐幾里德距離代替MF的點積,因為點積不滿足距離函數的三角恒等性。 通過最大化用戶與其不喜歡的項目之間的距離并最小化用戶與其偏好項目之間的距離來學習用戶和項目嵌入。 在CML中,MLP用于學習項目特征(如文本,圖像和標簽)的表示。 深度結構化語義模型的推薦。 深度結構化語義模型(DSSM)[65]是一個深度神經網絡,用于學習常見連續語義空間中實體的語義表示,并測量它們的語義相似性。 它廣泛應用于信息檢索領域,非常適合 top-n 推薦[39,182]。 DSSM將不同的實體投射到一個共同的低維空間中,并用余弦函數計算它們的相似性。 基本的DSSM由MLP組成,因此我們將其放在本節中。 請注意,更高級的神經層(如卷積和最大池層)也可以輕松集成到DSSM中。 基于深度語義相似度的個性化推薦(DSPR) [182]是標簽感知個性化推薦器,其中每個用戶 ![](https://img.kancloud.cn/f9/77/f977e7d089c4bbd45fc220bad8563e7c_19x18.png) 和項目 ![](https://img.kancloud.cn/ab/98/ab988eee0b6ae0aaa28576f2446bc66d_16x18.png) 由標記注解表示并映射到公共標記空間。 余弦相似度 ![](https://img.kancloud.cn/f5/76/f576680c42fb413222a0a5c45c674469_63x29.png) 用于決定項目和用戶的相關性(或用戶對項目的偏好)。 DSPR的損失函數定義如下: ![](https://img.kancloud.cn/e0/bc/e0bc10dffb6085c15e21bce6833d77fb_367x39.png) (5) 其中 ![](https://img.kancloud.cn/e1/b1/e1b10dca96387252bfe1e114fe43b5e5_46x29.png) 是從負面用戶項目對中隨機抽樣的負樣本。[183]的作者使用自編碼器進一步改進DSPR,來從用戶/項目資料中學習低維表示。 多視圖深度神經網絡(MV-DNN) [39]專為跨域推薦而設計。 它將用戶視為透視視圖,每個域(假設我們有 ![](https://img.kancloud.cn/c8/7e/c87ece1ccb576f22a2b808fae1da4a5f_14x15.png) 個域)作為輔助視圖。 顯然,對于 ![](https://img.kancloud.cn/c8/7e/c87ece1ccb576f22a2b808fae1da4a5f_14x15.png) 個用戶域對,有 ![](https://img.kancloud.cn/c8/7e/c87ece1ccb576f22a2b808fae1da4a5f_14x15.png) 個相似度得分。 圖 3b 展示了MV-DNN的結構。 MV-DNN的損失函數定義為: ![](https://img.kancloud.cn/bb/ba/bbba6c61bce36ec21e71e6ea5bae559d_376x50.png) (6) 其中 ![](https://img.kancloud.cn/b3/6c/b36cd47a72f8a9cf8d806c40995bb2fe_9x16.png) 是模型參數, ![](https://img.kancloud.cn/6e/3a/6e3a29c568cc9e746e16c2bb3ccad652_11x18.png) 是平滑因子, ![](https://img.kancloud.cn/bc/92/bc92dbf29a1625d2c30e891ade149241_19x24.png) 是用戶視圖的輸出, ![](https://img.kancloud.cn/ac/d3/acd3f64a975dd09609e119f5a11ee51e_10x11.png) 是活動視圖的索引。 ![](https://img.kancloud.cn/d7/99/d79907a1db8510b42856333eb7f2a13c_28x18.png) 是視圖 ![](https://img.kancloud.cn/ac/d3/acd3f64a975dd09609e119f5a11ee51e_10x11.png) 的輸入域。 MV-DNN能夠擴展到許多域。 然而,它基于這樣的假設:如果用戶在一個域中具有某種品味,應該在其他域中具有相似的品味。 直觀地說,在許多情況下,這種假設可能是不合理的。 因此,我們應該初步了解不同域之間的相關性,來充分利用MV-DNN。 ## 基于自編碼器的推薦 將自編碼器應用于推薦系統有兩種通用方法:(1)利用自編碼器學習瓶頸層的低維特征表示;或者(2)直接在重構層中填充交互矩陣的空白。 幾乎所有的自編碼器變體,例如去噪自編碼器,變分自編碼器,收縮自編碼器和邊緣化自編碼器都可以應用于推薦任務。 表 3 基于所使用的自編碼器類型總結了推薦模型。 基于自編碼器的協同過濾。 其中一個成功的應用是從自編碼器的角度考慮協同過濾。 AutoRec [125]使用用戶部分向量 ![](https://img.kancloud.cn/15/00/15001e5fa6bc762e6cf582fa9c78d27e_27x18.png) 或項目部分向量 ![](https://img.kancloud.cn/67/20/6720a9234b46a3a2e0941a3c8a8871dd_24x18.png) 作為輸入,旨在在輸出層重構它們。 顯然,它有兩種變體:基于項目的AutoRec(I-AutoRec)和基于用戶的AutoRec(U-AutoRec),對應于兩種類型的輸入。 在這里,我們只介紹I-AutoRec,而U-AutoRec可以相應地輕松派生。 圖 4a 說明了I-AutoRec的結構。 給定輸入 ![](https://img.kancloud.cn/67/20/6720a9234b46a3a2e0941a3c8a8871dd_24x18.png) ,重構是: ![](https://img.kancloud.cn/92/d6/92d68ff89c107d56b5cec8cc48fbd3d0_256x34.png) ,其中 ![](https://img.kancloud.cn/3a/02/3a0291f2219602685fc7ddabf25a6fd7_28x29.png) 和 ![](https://img.kancloud.cn/ed/2a/ed2abbd073e554371a8212b7ee49a254_27x29.png) 是激活函數,![](https://img.kancloud.cn/29/55/2955ac735c22c608054c895c96260d84_109x29.png) 是參數。 I-AutoRec的目標函數如下: ![](https://img.kancloud.cn/d1/e1/d1e1467613173d3c8be1bccce0c06924_286x47.png) (7) 這里 ![](https://img.kancloud.cn/aa/36/aa36a8427d4daf67ad2a53156df9b650_42x32.png) 意味著它只考慮觀測的評分。 可以通過彈性傳播(收斂更快并產生可比較的結果)或L-BFGS(限制記憶的Broyden Fletcher Goldfarb Shanno算法)來優化目標函數。 AutoRec的四個要點值得在部署之前注意到:(1)I-AutoRec的性能優于U-AutoRec,這可能是由于用戶部分觀測向量的方差較大。 (2)激活函數 ![](https://img.kancloud.cn/3a/02/3a0291f2219602685fc7ddabf25a6fd7_28x29.png) 和 ![](https://img.kancloud.cn/ed/2a/ed2abbd073e554371a8212b7ee49a254_27x29.png) 的不同組合將大大影響性能。 (3)適度增加隱藏單元大小將改善結果,因為擴展隱藏層維度使AutoRec能夠更好地模擬輸入的特征。 (4)添加更多層來形成深層網絡可以略微改進。 **圖 4:**圖示:(a)基于項目的AutoRec;(b)協同去噪自編碼器;(c)深層協同過濾框架。 ![](https://img.kancloud.cn/3a/ca/3aca420735424e164bf7414237105eb8_1278x346.jpg) CFN [136,137]是AutoRec的擴展,具有以下兩個優點:(1)它采用了去噪技術,使CFN更加健壯;(2)它結合了諸如用戶資料和項目描述之類的輔助信息,來減輕稀疏性和冷啟動影響。 CFN的輸入也是部分觀測向量,因此它也有兩種變體:I-CFN和U-CFN,![](https://img.kancloud.cn/67/20/6720a9234b46a3a2e0941a3c8a8871dd_24x18.png) 和 ![](https://img.kancloud.cn/15/00/15001e5fa6bc762e6cf582fa9c78d27e_27x18.png) 分別作為輸入。 掩蔽噪聲是正則化器,用于更好地處理缺失元素(它們的值為零)。 作者介紹了三種廣泛使用的破壞方法來破壞輸入:高斯噪聲,掩蔽噪聲和椒鹽噪聲。 CFN的進一步擴展還包含輔助信息。 然而,CFN不是僅僅在第一層中結合輔助信息,而是在每一層中注入輔助信息。 因此,重構變為: ![](https://img.kancloud.cn/c4/bd/c4bdef92df2a62e9109a57b35c89fb5b_357x20.png) (8) 其中 ![](https://img.kancloud.cn/2c/ab/2cab52cb10a0edf5166f1d663e0505f4_14x20.png) 是輔助信息, ![](https://img.kancloud.cn/81/18/811804eeb5fba790471a253cba4e7ab5_60x36.png) 表示 ![](https://img.kancloud.cn/ed/e2/ede20437dc537f94dba7babe56c786d6_24x19.png) 和 ![](https://img.kancloud.cn/2c/ab/2cab52cb10a0edf5166f1d663e0505f4_14x20.png) 的連接。 結合輔助信息可提高預測準確性,加快訓練過程并使模型更加健壯。 **表 3:**四種基于自編碼器的推薦模型的總結 | 普通/去噪AE | 變分AE | 收縮AE | 邊緣化AE | | --- | --- | --- | --- | | [114,125,136,137,159,177] [70,116,170,171,188] | [19,89,94] | [196] | [88] | 協同去噪自編碼器(CDAE) 。 之前回顧的三個模型主要用于評分預測,而CDAE [177]主要用于排名預測。 CDAE的輸入是用戶的部分觀測的隱式反饋 ![](https://img.kancloud.cn/6f/90/6f90fae40407a7307245a870041b2f56_36x39.png) 。 如果用戶喜歡電影,則條目值為1,否則為0。它還可以被視為反映用戶對項目的興趣的偏好向量。 圖 4b 說明了CDAE的結構。 CDAE的輸入被高斯噪聲破壞。 有損輸入 ![](https://img.kancloud.cn/07/34/0734044afeb3fe282b7a251c58da2d1d_36x39.png) 是從條件高斯分布 ![](https://img.kancloud.cn/fe/84/fe8491b323037ced37db3991b7c83ca2_97x39.png) 中提取的。重構定義為: ![](https://img.kancloud.cn/92/64/92644a3f8d535aa429f99f83c887ff2c_323x25.png) (9) 其中 ![](https://img.kancloud.cn/88/a7/88a73f949f9c2a1f120f24e5c4f4a48d_63x31.png) 表示用戶節點的權重矩陣(見圖 4B)。 該權重矩陣對于每個用戶是唯一的,并且對模型性能具有顯著影響。 通過最小化重構誤差也可以學習CDAE的參數: ![](https://img.kancloud.cn/8d/ac/8dacdd87d93dca6fb653c0653b89e225_495x47.png) (10) 其中損失函數 ![](https://img.kancloud.cn/84/26/842636defb952d4b54096eb2c81c8879_25x29.png) 可以是平方損失或 logistic 損失。 CDAE最初使用SGD在所有反饋上更新其參數。 然而,作者認為在現實世界的應用中考慮所有評分是不切實際的,因此他們提出了一種負采樣技術來從負集合(用戶沒有與之交互的項目)中抽取一小部分,這減少了時間復雜度,但基本上沒有降低排名質量。 Muli-VAE和Multi-DAE [94]提出了一種變分自編碼器,用于推薦隱含數據,展示出比CDAE更好的性能。 作者介紹了一種用于參數估計的原則性貝葉斯推理方法,并且展示出比常用似然函數更好的結果。 據我們所知,基于自編碼器的協同過濾(ACF)[114]是第一個基于自編碼器的協同推薦模型。 它不是使用原始的部分觀察向量,而是通過整數評分對它們進行分解。 例如,如果評分分數是[1-5]范圍內的整數,則每個 ![](https://img.kancloud.cn/67/20/6720a9234b46a3a2e0941a3c8a8871dd_24x18.png) 將分為五個部分向量。 與AutoRec和CFN類似,ACF的損失函數旨在減少均方誤差。 然而,ACF有兩個缺點:(1)它無法處理非整數評分; (2)部分觀測向量的分解增加了輸入數據的稀疏性,導致預測精度更差。 用自編碼器學習特征表示。 自編碼器是一類功能強大的特征表示學習方法。 因此,它還可以用在推薦系統中以從用戶/項目內容特征學習特征表示。 協同深度學習(CDL) 。 CDL [159]是一種分層貝葉斯模型,它將棧式去噪自編碼器(SDAE)集成到概率矩陣分解中。 為了無縫地結合深度學習和推薦模型,作者提出了一個通用的貝葉斯深度學習框架[161],它由兩個緊密結合的成分組成:感知成分(深度神經網絡)和任務特定成分。 具體而言,CDL的感知成分是普通SDAE的概率解釋,PMF充當任務特定成分。 這種緊密結合使CDL能夠平衡輔助信息和交互歷史的影響。 CDL的生成過程如下: 1. 對于 SDAE 的每一層 ![](https://img.kancloud.cn/1d/c1/1dc11940e675d78015a232f27ad164ce_7x15.png):(a)對于權重矩陣 ![](https://img.kancloud.cn/01/02/01020559850ace602efb4dccab50b848_21x26.png) 的每列 ![](https://img.kancloud.cn/0d/a2/0da29a24e0d58661d401fb12aa34a22c_11x11.png),抽取 ![](https://img.kancloud.cn/77/25/77256802b489c8b3bf032b8870730218_153x32.png); (b)抽取偏置向量 ![](https://img.kancloud.cn/2e/42/2e42e2775bd049a941809ca5f49290dc_126x32.png);(c)![](https://img.kancloud.cn/4b/88/4b88b564bfe65d3f4131bac957d2a875_20x26.png) 的每一行 ![](https://img.kancloud.cn/69/45/6945dae1f1cbaacf8725c629d0564d7f_7x15.png),抽取 ![](https://img.kancloud.cn/72/de/72de7b17567191b98162a4111835ec7d_262x32.png)。 2. 對于每個項目 ![](https://img.kancloud.cn/69/45/6945dae1f1cbaacf8725c629d0564d7f_7x15.png) :(a)抽取干凈的輸入 ![](https://img.kancloud.cn/10/47/1047a42c9e1a603d1f1e70033d9621a4_174x32.png);(b)抽取潛在偏移向量 ![](https://img.kancloud.cn/dd/cc/ddcc43e8fbf43e632a0cbc633540aafb_122x32.png) 并設置潛在項目向量:![](https://img.kancloud.cn/34/c7/34c73d357b5cc1a388b487598907e288_109x31.png)。 3. 為每個用戶 ![](https://img.kancloud.cn/5c/87/5c87b6660e8af1d54cf2cb5673748356_11x11.png) 抽取潛在的用戶向量, ![](https://img.kancloud.cn/04/a8/04a8dfac6deaf3aee5f0568b59fa9be4_130x32.png)。 4. 對于每個用戶 - 項目對 ![](https://img.kancloud.cn/45/ca/45cae55fad514c629a3d5c1c055e03f5_36x29.png),抽取評分 ![](https://img.kancloud.cn/31/7a/317a9288960bf4735085d41c3c536a4c_22x18.png),![](https://img.kancloud.cn/7b/c9/7bc9b16684a10a2783ac68b600830887_144x34.png)。 其中 ![](https://img.kancloud.cn/01/02/01020559850ace602efb4dccab50b848_21x26.png) 和 ![](https://img.kancloud.cn/74/e4/74e4b9c9b116d9b7d628f7845d4217b5_13x27.png) 是層 ![](https://img.kancloud.cn/1d/c1/1dc11940e675d78015a232f27ad164ce_7x15.png) 的權重矩陣和偏置向量, ![](https://img.kancloud.cn/4b/88/4b88b564bfe65d3f4131bac957d2a875_20x26.png) 代表層 ![](https://img.kancloud.cn/1d/c1/1dc11940e675d78015a232f27ad164ce_7x15.png)。 ![](https://img.kancloud.cn/46/98/4698f4b003ec132b7cafdaba965d3ce9_21x27.png),![](https://img.kancloud.cn/d9/74/d974835e4289d44467653e3907697440_18x27.png),![](https://img.kancloud.cn/95/91/95911e099c1f01d6e0af2e82dd04bcc6_20x27.png),![](https://img.kancloud.cn/d0/15/d0151a47043f0e81e2d7bc4d9a2d4d53_18x27.png),![](https://img.kancloud.cn/7f/3c/7f3c49e002e9b1fdce50c1fea6234e23_19x27.png) 是超參數,![](https://img.kancloud.cn/ac/64/ac64f41c9a92402201667cfdb0b88fd5_26x27.png) 是用于確定觀察置信度的置信參數[63]。圖 5(左)說明了CDL的圖模型。 作者利用EM風格的算法來學習參數。 在每次迭代中,首先它都會更新 ![](https://img.kancloud.cn/c8/df/c8dfc43a97e6eb2cdf54fe66fc04b890_14x15.png) 和 ![](https://img.kancloud.cn/b8/9a/b89a73adf6aa4dc16d64f12d98237003_14x15.png),然后通過固定 ![](https://img.kancloud.cn/c8/df/c8dfc43a97e6eb2cdf54fe66fc04b890_14x15.png) 和 ![](https://img.kancloud.cn/b8/9a/b89a73adf6aa4dc16d64f12d98237003_14x15.png),更新 ![](https://img.kancloud.cn/ea/10/ea1043b62c4f248eed2048bb7cf1ebbc_19x15.png) 和 ![](https://img.kancloud.cn/0b/59/0b590ae94f68192fe621a64dac235ac4_8x15.png)。作者還介紹了一種基于抽樣的算法[161],來避免局部最優。 在CDL之前,Wang等 [158]提出了一個類似的模型,關系棧式去噪自編碼器(RSDAE),用于標簽推薦。 CDL和RSDAE的區別在于,RSDAE用關系信息矩陣替換PMF。 CDL的另一個擴展是協同變分自編碼器(CVAE)[89],它用變分自編碼器代替CDL的深層神經組件。 CVAE學習內容信息的概率潛變量,并且可以輕松地合并多媒體(視頻,圖像)數據源。 **圖 5:**協同深度學習(左)和協同深度排名(右)的圖模型。 ![](https://img.kancloud.cn/c8/a3/c8a3f074d8bc4e339e6297132c3958cb_1191x349.jpg) 協同深度排名(CDR) 。 CDR [188]專門為成對框架設計,用于 top-n 推薦。 一些研究表明,成對模型更適合排名列表生成[120,177,188]。 實驗結果還表明,CDR在排名預測方面優于CDL。 圖 5(右)介紹CDR的結構。 CDR生成過程的第一和第二步與CDL相同。 第三步和第四步由以下步驟代替: * 對于每個用戶 ![](https://img.kancloud.cn/5c/87/5c87b6660e8af1d54cf2cb5673748356_11x11.png):(a)抽取潛在的用戶向量 ![](https://img.kancloud.cn/5c/87/5c87b6660e8af1d54cf2cb5673748356_11x11.png),![](https://img.kancloud.cn/04/a8/04a8dfac6deaf3aee5f0568b59fa9be4_130x32.png);(b)對于每對成對偏好 ![](https://img.kancloud.cn/e9/75/e9754d8847e474c495ef04bfc61986e4_69x29.png),其中 ![](https://img.kancloud.cn/67/9d/679dec4d640b95a568361029c269238d_190x29.png),抽取估算器,![](https://img.kancloud.cn/f1/17/f117ee5327d8a24081d09e8a3533401e_209x34.png)。 其中 ![](https://img.kancloud.cn/98/71/9871ca862d2760373e9d321ca830a80c_109x28.png) 表示用戶對項目 ![](https://img.kancloud.cn/69/45/6945dae1f1cbaacf8725c629d0564d7f_7x15.png) 和項目 ![](https://img.kancloud.cn/a1/92/a1924ddad707d50b7199a11a19645eed_10x26.png) 的偏好的成對關系,![](https://img.kancloud.cn/16/90/16901e7dacf3437b554f8a4d7d620bb5_32x34.png) 是一個置信度值,表示比起項目 ![](https://img.kancloud.cn/a1/92/a1924ddad707d50b7199a11a19645eed_10x26.png) 用戶多么 ![](https://img.kancloud.cn/5c/87/5c87b6660e8af1d54cf2cb5673748356_11x11.png) 喜歡項目 ![](https://img.kancloud.cn/69/45/6945dae1f1cbaacf8725c629d0564d7f_7x15.png)。優化過程與CDL相同。 深層協同過濾框架 。 它是使用協同過濾模型[88]來統一深度學習方法的一般框架。 該框架可以輕松利用深度特征學習技術來構建混合協同模型。 上述工作如[153,159,167],可視為該一般框架的特例。 形式上,深層協同過濾框架定義如下: ![](https://img.kancloud.cn/e0/09/e00948ca780d270f57f8c2ea4c4443ea_473x19.png) (11) 其中 ![](https://img.kancloud.cn/19/af/19afdb987bee4a02562dd46a8ed7cf02_11x28.png),![](https://img.kancloud.cn/6e/3a/6e3a29c568cc9e746e16c2bb3ccad652_11x18.png) 和 ![](https://img.kancloud.cn/df/3b/df3b380c574c4361a5787979da2aa168_9x16.png) 是權衡參數,用于平衡這三個成分的影響, ![](https://img.kancloud.cn/44/08/4408fca76a00a0624a68de9cbd460672_16x15.png) 和 ![](https://img.kancloud.cn/dc/15/dc15143da601d2cae98b2545cf969184_14x11.png) 是輔助信息, ![](https://img.kancloud.cn/84/26/842636defb952d4b54096eb2c81c8879_25x29.png) 是協同過濾模型的損失。![](https://img.kancloud.cn/6a/ad/6aad439fa0455ba67fe1c54b9890e91b_58x29.png) 和 ![](https://img.kancloud.cn/64/73/6473d646e85af903e8a2dce49a5c08b6_55x29.png) 充當鉸鏈,用于連接深度學習和協同模型,以及將潛在因素鏈接到邊信息。 在此框架的基礎上,作者提出了基于邊緣化去噪自編碼器的協同過濾模型(mDA-CF)。 與CDL相比,mDA-CF探索了一種計算效率更高的自編碼器變體:邊緣化去噪自編碼器[15]。 它通過邊緣化損壞的輸入,來節省搜索足夠損壞的輸入版本的計算開銷,這使得mDA-CF比CDL更具可擴展性。 此外,mDA-CF嵌入項目和用戶的內容信息,而CDL僅考慮項目特征的效果。 AutoSVD ++ [196]利用收縮自編碼器[122]來學習項目特征表示,然后將它們集成到經典推薦模型SVD ++ [79]中。 所提出的模型具有以下優點:(1)與其他自編碼器變體相比,收縮自編碼器捕獲無窮小的輸入變化;(2)對隱式反饋進行建模,來進一步提高準確性;(3)設計了一種有效的訓練算法,來減少訓練時間。 HRCD [170,171]是基于自編碼器和timeSVD ++ [80]的混合協同模型。 它是一種時間感知模型,它使用SDAE從原始特征中學習項目表示,旨在解決冷項目問題。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看