<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ThinkChat2.0新版上線,更智能更精彩,支持會話、畫圖、視頻、閱讀、搜索等,送10W Token,即刻開啟你的AI之旅 廣告
                # 1990:記憶的通用公式 [TOC=2,5] ## 最優復習與間歇復習 到了 1990 年,我很是篤定我手握著重大發現。我破解了[遺忘](https://supermemo.guru/wiki/Forgetting)難題。我知道了記憶簡單內容的復習[最佳時機](https://supermemo.guru/wiki/Spaced_repetition)。一經在我[碩士論文](https://supermemo.guru/wiki/Optimization_of_learning)中描述它的許可,我的探索欲也水漲船高。我希望我可以找到一個長期記憶的通用公式,能夠讓我跟蹤記憶在各種形式的檢索和接觸中的表現形式。 我已經收集了一些數據,這些數據可能會幫助我找到這個公式。在 [1985](https://supermemo.guru/wiki/Birth_of_SuperMemo) 年發現最佳重復間隔之前,我把問題寫在一頁頁紙上來復習知識。此時復習混亂不堪,由可利用的時間、需要或心情支配。我把這稱為「間歇性學習」。我有單個頁面和每次復習的回憶數據。雖沒有 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 的周期性,這種數據也算較為理想。這正是我為解決記憶問題而需要的數據。只不過,這些數據都僅僅記錄在紙上。 1990 年春天,我叫我姐姐來打字錄入數據。當然,我沒有一個妹妹會情愿來做這件事。我的姐姐比我大 17 歲。我利用她對我的愛,讓她做這種枯燥繁重的工作,而沒有顧及到她的時間。她兩年后去世了。我再也沒有機會報答她對[間隔重復](https://supermemo.guru/wiki/Spaced_repetition)理論的貢獻,她甚至沒有機會了解這個理論。從 1990 年 5 月 1 日開始,她在我不用電腦的時間,將數據從紙上轉移到電腦上。她打字很慢,花了很多天。她的工夫是值得的。 ## 間歇學習模型 在 1990 年的整個夏天,我沒有專注于我的[碩士論文](https://supermemo.guru/wiki/Optimization_of_learning),而是研究「間歇學習模型」。對我來說,連續工作 10 個小時,感覺沒有半點發現而在早上 7 點睡覺,或者讓電腦整夜計算數據,都是很正常的。 鍥而不舍,搗鼓調整是有代價的。只有少年才能負擔得起,他們應該有空間和自由。盡管我已經 28 歲了,家人們還是默默忍受我的一舉一動。就像一個不成熟的青少年。我住在我姐姐的公寓里,在那里我可以利用她的善意。在電腦前工作的時間很長,被借口為「在做我的碩士論文」。事實上,沒有人要求我這樣做,也沒有人要求我這樣做,它甚至沒有推動 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 的發展。這是一個純粹的科學好奇心的案例。我只是想知道記憶是如何工作的。 我有幾十頁的問題和他們的[重復歷史](https://supermemo.guru/wiki/Repetition_history)。我試圖預測「每頁的記憶失誤」。我使用[平方根標準差](https://supermemo.guru/wiki/Deviation)來預測失誤(下面表示為Dev)。到 1990 年 7 月 10 日,星期二,我達到了 Dev<3,感覺問題幾乎「解決」了。1990 年 7 月 12 日,我改進到 Dev=2.877(順便說一下,我的論文中提到了2.887241)。然而,到 1990 年 8 月 27 日,我在那天的筆記中宣布這個問題無法解決。 > 個人軼事。[為什么使用軼事?](https://supermemo.guru/wiki/Why_use_anecdotes%3F) > > 1990 年 8 月 27 日:**我解決了**間歇學習,**表明這個問題是無法解決的**!單獨一個參數無力描述與整頁項目的記憶強度。這表明,**[E 因子](https://supermemo.guru/wiki/E-Factor)較低的項目沒有[最優區間](https://supermemo.guru/wiki/Optimal_interval)**! 1990 年 8 月 30 日,我在碩士論文中解說了這個模型。文章一共有 15 頁,不算很好讀。我打賭沒有人有耐心讀完整篇文章。90 年代末我的碩士論文節選版發布在網絡,而描述間歇學習的這一章甚至沒有在 [supermemo.com](http://supermemo.com/) 上發表。 然而,基于該模型得出的結論,深刻地影響了我隨后幾十年中對記憶的思考。該模型背后的想法,實際上非常類似我在開發 [SM-17 算法](https://supermemo.guru/wiki/Algorithm_SM-17) (2014-2016) 時應用的優化。 當我宣布這個問題無法解決時,我的意思是我無法準確地描述「困難頁」的記憶,因為性質不同的材料需要更復雜的模型。然而,這篇 1990 年 8 月 31 日記錄的筆記卻對此更加樂觀: > 個人軼事。[為什么使用軼事?](https://supermemo.guru/wiki/Why_use_anecdotes%3F) > > 1990 年 8 月 31 日:不間斷地研究間歇學習模型。到了晚上,計算機終究沒有讓我離解決方案更進一步。然而,我有個好主意,就是用 IL 模型的絕世優秀功能計算出最優間隔。屏幕上的結果映入眼簾時,我簡直不敢相信我 [嗶——] 看到什么。這些正是我在 1985 年[發現](https://supermemo.guru/wiki/Birth_of_SuperMemo)時試圖制定 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 方法時發現的間隔。我高興地在家里跳來跳去,簡直像一條有兩條尾巴的狗。所以我可以說我真的解決了 IL 問題(對比 1990 年 8 月 27 日)。但我發現,這個成功并不是今天給我發現的一切: > - [最優系數](https://supermemo.guru/wiki/Optimal_factor)隨著連續的間隔而減少(我以前憑直覺感覺是這樣的), > - 對于[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)等于 10%,[保留率](https://supermemo.guru/wiki/Retention)為 94%(如 EVF [數據庫](https://supermemo.guru/wiki/Database)) > - **[保留率](https://supermemo.guru/wiki/Retention)與[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)**呈線性關系 [2018 年評論:在異質材料的小范圍內]**(這無法從我 1 月份進行的模擬實驗中計算出來)** > - 該模型說,[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)的理想值是 5-10%(工作量-保留率的權衡) > - 如果間隔時間是最優時間的兩倍,則[記憶強度](https://supermemo.guru/wiki/Stability)增加最多!! > - 如果[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)為 20%,則[記憶強度](https://supermemo.guru/wiki/Stability)增加最多 > [...] 我的公式只有在間隔比以前的強度短不了多少時才有效。 ## 過去(1990)與現在(2018)的對比 本章末尾的結論,以及程序本身都讓人想起我在 2005 年尋找[記憶穩定性](https://supermemo.guru/wiki/Stability)提高的通用公式時使用的方法,以及在 2014 年,[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 是基于對記憶的更精確的數學描述。像最新的 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 算法一樣,該模型使得計算任何重復計劃的[保留率](https://supermemo.guru/wiki/Retention)成為可能。當然,它的準確度要低得多,因為它基于劣質的數據。此外, [SuperMemo 17](http://super-memo.com/supermemo17.html) 所做的實時工作,在 1990 年時需要花費許多小時的 PC 電腦時間。 我的碩士論文中這個看似無聊的老的部分到現在已經變得很重要了。我敢說,只有劣質的數據將這項工作與 25 年后出現的[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 相隔甚遠。我引用的這段文字在符號和文體上做了些許改進,但沒有關于[遺忘曲線](https://supermemo.guru/wiki/Forgetting_curve)的章節,該章節由于計算中使用的材料太不同而出現錯誤。 存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F) > 這段文字是《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》 作者:[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 的一部分 > > **間歇學習模型** > [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 模型為計算[最優間隔](https://supermemo.guru/wiki/Optimal_interval)提供了基礎,在時間最優的學習過程中,應該把重復的內容分開。 > 然而,如果重復的時間間隔不規律,則無法預測記憶變量的變化。 > 下面我提出一個嘗試,以增強 SuperMemo 模型,使其可以用于描述間歇學習的過程。 > 在[第三章](http://super-memory.com/english/ol/beginning.htm)中,我提到了,在[算法 SM-0](https://supermemo.guru/wiki/SuperMemo_on_paper) 開發之前,我學習英語和生物的方式。 > 那段時間(1982-1984年)收集的數據為構建間歇學習模型提供了一個很好的基礎。遵照[最小信息原則](https://supermemo.guru/wiki/Item)制定的[項目](https://supermemo.guru/wiki/Minimum_information_principle)(通常有成對的詞的形式)被分組在頁面中,進行不定期的復習過程。 > 所收集的數據以計算機可讀形式提供,包括71頁的重復描述,此外,80個類似的頁面參與了由[SM-0](https://supermemo.guru/wiki/SuperMemo_on_paper)時間表監督的過程。 ## 與算法 SM-17 的相似性 請注意,這個問題的表述讓人想起了[算法SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 中用來計算[穩定性增長矩陣(SInc[])](https://supermemo.guru/wiki/Stability_increase)的程序。[記憶穩定性](https://supermemo.guru/wiki/Stability)被重新縮放,以便能夠將其解釋為一個[間隔](https://supermemo.guru/wiki/Interval)。甚至符號也是相似的:S 代表[穩定性](https://supermemo.guru/wiki/Stability),D 代表[偏差](https://supermemo.guru/wiki/Deviation)。頁面遺忘數量代替了[可提取性](https://supermemo.guru/wiki/Retrievability)。 我以前喜歡玩各種優化算法。你仍然可以在 [SuperMemo 17](http://super-memo.com/supermemo17.html) 中查看該算法做表面擬合優化的可視化(見[圖片](https://supermemo.guru/wiki/Stability_increase))。12 個變量做處理可能有點低效,但我從不關心處理方法本身如何,只關心能否結果是否可以拓展我對記憶原理的認知。 對于那些熟悉[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 的人,我們在下面的文本中改變了符號。此外,我們改變了 In 和 Ln 等符號,這些符號在打印時很容易被誤讀為對數。 變化清單: - Ln -> Lapsn - In -> Intn - Dn -> Devn - R -> RepNo ## 間歇學習問題的表述 > 存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F) > 這段文字是《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》作者:[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 的一部分 > > **11.1.間歇學習問題的提出** > 1. 共有 161 個頁面。 > 2. 每頁包含約 40 個項目。 > 3. 對于每一頁,學習過程的描述(在實驗重復期間收集)有以下形式: > ((-,Laps1),(Int2,Laps2),(Int3,Laps3), ...,(Intn,Lapsn)) > 其中: > - Inti - 第 i 次重復前使用的間隔(范圍在 1 到 800 之間), > - Laps i - 在第 i 次重復過程中,遺忘的次數(范圍從 0 到 40), > - n - 總重復次數(范圍從 3 到 20)。 > 4. 找到公式所描述的函數 f 和 g: > S(1)=S1 > S(n)=f(S(n-1),Intn,Lapsn) > Laps(n)=g(S(n-1),Intn) > 其中: > - S(n) - 與第 n 次重復后的記憶強度相對應的任何變量(比較[第 10 章](http://super-memory.com/english/ol/ol_memory.htm)), > - Intn - 第 n 次重復前使用的間隔;取自間歇學習期間收集的數據, > - Lapsn - 在第 n 次重復中的遺忘數量;取自間歇學習期間收集的數據, > - Laps(n) - 對第 n 次重復中記憶遺忘數量的估計(它應該與 Lapsn 相對應) > - S1 - 一個常數, > > 使函數 Dev 最小化: >Dev=sqrt((Dev1+Dev2+ ... +Dev161)/RepNo) > Devi=sqr(Laps(1)-Laps1)+sqr(Laps(2)-Laps2)+ ... +sqr(Laps(n)-Lapsn)) > 其中: > - Dev - 描述函數 f 和 g 輸出值之間差值的函數,值會在間歇學習期間收集(它反映了數據在實驗和理論預測之間的差) > - RepNo - 全部頁面上的重復次數總和 > - Devi - 函數Dev的分項,對應第i頁的Dev. > - Laps(j) - 使用函數f和g,分別對第i頁和第j次重復計算的遺忘數量, > - Lapsj - 第 i 頁、第 j 次重復時的遺忘數量;取自間歇學習期間收集的數據, > - sqrt(x) - x 的平方根, > - sqr(x) - x 的平方。 > 請注意,只有當函數 f 和 g 簡單且定義參數有限時(如 a*ln()+b 或 a*exp()+b 等),才會有生物學上的思考價值。否則,人們總是可以構建一個巨大的、無意義的公式來自動將 Dev 歸零。 ## 解決間歇學習的問題 > 存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F) > 這段文字是《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》 作者:[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 的一部分 > > **11.2. 間歇學習的解決方案** > 在搜索使*Dev*值最小的函數f和g時,我用的是 [Wozniak, 1988b](https://supermemo.guru/wiki/Optimization_of_learning_(1990):_References) 中描述的最小化的數值算法(*一種在可行區域內尋找函數局部最大值的新算法。可信論文*)。 > 搜索中使用實例函數如下: > > S(1)=x[1] > > S(n)=x[2]*Intn*exp(-Lapsn*x[3])+x[4]) > > Laps(n)=x[5]*(1-exp(-Intn/S(n-1))) > > 其中: > > - x[i] - 由最小化程序計算的變量, > > - S(n)、Laps(n)、Lapsn 和 Intn - 如 11.1 中的定義 > 注意,描述 S(n) 的函數 f 不使用 S(n-1) 作為它的參數(問題的表述允許,但不要求在先前強度的基礎上計算新的強度)。 > 為了保持簡易度和節省時間,我設定了在最小化過程中使用 12 個變量的限制。 > 我測試了大量的數學函數,這些函數是根據有關記憶的明顯直覺構建的(例如,隨著時間的推移,頁面遺忘的數量會增加)。 > 其中包括指數型、對數型、冪型、雙曲線型、S 型、鐘型、多項式及一些可能的組合。 > 在大多數情況下,最小化程序將 Dev 的值減少到 3 以下,函數 f 和 g 的形狀類似,與它們的性質獨立。 > 使用少于 12 個變量得到的 Dev 的最小值是 2.887241。 > 函數 f 和 g 如下: > ``` > constant S(1)=0.2104031; > function Sn(Intn,Lapsn,S(n-1)); > begin > S(n):=0.4584914*(Intn+1.47)*exp(-0.1549229*Lapsn-0.5854939)+0.35; > if Lapsn=0 then > if S(n-1)>In then > S(n):=S(n-1)*0.724994 > else > S(n):=Intn*1.1428571; > end; > function Lapsn(Intn,S(n-1)); > var quot; > begin > quot:=(Intn-0.16)/(S(n-1)-0.02)+1.652668; > Lapsn:=-0.0005408*quot*quot+0.2196902*quot+0.311335; > end; > ``` > 在不顯著改變Dev的值的情況下,這些函數可以很容易地轉換為以下形式: > > S(1)=1 > > for Intn>S(n-1): S(n)=1.5*Intn*exp(-0.15*Lapsn)+1 > > Laps(n)=Intn/S(n-1) > 請注意: > - 只要操作沒有明顯影響 Dev 的值,函數中的特定元素就會被刪除或四舍五入, > - 記憶強度進行了重新縮放,使其可以被解釋為一個間隔,其中[遺忘](https://supermemo.guru/wiki/Lapse)數量等于 1,[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)等于 2.5%(一頁有 40 個項目,1/40=2.5%), > - 僅當 Intn 不小于 S(n-1) 時,強度公式才有效。這是因為,如果[遺忘](https://supermemo.guru/wiki/Lapse)的數量很低,必須使用 S(n-1) 的值來計算 S(n),例如 Intn <= S(n-1): S(n)=S(n-1)*(1+0.5/(1-exp(S(n-1))*(1-exp(-Intn))) > - 這些公式不能用于描述間隔比最優間隔長很多的過程。這是因為對于 Intn->∞,Laps(n) 的值超過 100%, > - 該公式描述了集體項目的學習,其特點是 [E-系數](https://supermemo.guru/wiki/E-Factor)的分布或多或少地均勻。因此,它沒能普遍用在難度可變的項目。 > 就目前而言,上述公式構成了對間歇學習過程的最佳描述,以后將被稱為間歇學習模型(簡稱 IL 模型) ## 基于間歇學習模型的模擬試驗 有了上面發現的公式,我可以進行一系列的模擬實驗,幫助我回答許多關于記憶在不同情況下的行為的假設情景。這些模擬實驗影響了 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 之后多年的進展。特別是,從 [SuperMemo 6](https://supermemo.guru/wiki/SuperMemo_6)(1991 )開始,工作量和[保留率](https://supermemo.guru/wiki/Retention)之間的權衡在優化學習方面起到了重要作用。直到今天,為學習提供指導標準的是[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)(或[可提取性](https://supermemo.guru/wiki/Retrievability)),而不是在[回憶](https://supermemo.guru/wiki/Recall)水平較低時可能出現的、直觀自然的[記憶穩定性增長](https://supermemo.guru/wiki/Stability_increase)。設定記憶[遺忘](https://supermemo.guru/wiki/Lapse)水平起到了下面[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)的作用。 > 存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F) > 這段文字選自《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》 ,[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 著 > > **11.4. 間歇學習模型的驗證** > 為了驗證間歇學習模型與 SuperMemo 理論的一致性,讓我們嘗試計算出分散重復的最優間隔。 > 最優間隔由[遺忘](https://supermemo.guru/wiki/Lapse)的數量達到選定值 Lapso 的時刻確定。 > 算法如下: > 1. i:=1 > 2. S(i):=1 > 3. 找到 Int(i+1),使 Laps(i+1) 等于 Lapso. 使用公式: > Int(n)=Lapso*S(n-1) (取自 IL 模型) > 其中: > Int(n) 表示第 n-1 個最優間隔。 > 4. i:=i+1 > 5. S(i):=1.5*Int(i)*exp(-0.15*Lapso)+1(取自 IL 模型) > 6. goto 3 > 如果 Lapso 等于 2.5([遺忘指數](https://supermemo.guru/wiki/Forgetting_index) 6.25%),而且間歇學習模型參數相同,那么可以觀察到驚人的對應關系(比較第 16 頁[第 3.1 章](https://supermemo.guru/wiki/Birthday_of_SuperMemo)介紹的實驗): > - Rep - 重復的數量 > - 間隔 - 重復前的最優間隔,在 IL 模型的基礎上由 Lapso=2.5 確定, > - 系數 - 最優系數,等于最優間隔除以上一次的最優間隔, > - SM-0 - 在得出 SM-0 算法的實驗的基礎上計算出的最優間隔 > > | 重復次數 | 間隔 | 系數 | SM-0 | > | :--:| :------:| :----:| :--:| > | 2 | 1.8 | | 1 | > | 3 | 7.8 | 4.36 | 7 | > | 4 | 16.8 | 2.15 | 16 | > | 5 | 30.4 | 1.80 | 35 | > | 6 | 50.4 | 1.66 | | > | 7 | 80.2 | 1.59 | | > | 8 | 124 | 1.55 | | > | 9 | 190 | 1.53 | | > | 10 | 288 | 1.52 | | > | 11 | 436 | 1.51 | | > | 12 | 654 | 1.50 | | > | 13 | 981 | 1.50 | | > | 14 | 1462 | 1.49 | | > | 15 | 2179 | 1.49 | | > | 16 | 3247 | 1.49 | | > | 17 | 4838 | 1.49 | | > | 18 | 7209 | 1.49 | | > > 顯然,這種確切的對應關系,在某種程度上是一種巧合,因為這使得建立 SM-0 算法的實驗并不是那么敏感。 > 值得注意的是,**[最優系數](https://supermemo.guru/wiki/Optimal_factor)有逐步降低的趨勢!**這一事實似乎證實了最近一系列觀察,這些觀察基于對[SM-5 算法](https://supermemo.guru/wiki/Algorithm_SM-5) 中使用的[最優系數矩陣](https://supermemo.guru/wiki/OF_matrix)的分析。 > 如果 Lapso 等于 4([遺忘指數](https://supermemo.guru/wiki/Forgetting_index) 10%,如[算法 SM-5](https://supermemo.guru/wiki/Algorithm_SM-5)),那么[最優系數](https://supermemo.guru/wiki/Optimal_factor)的序列就類似于[算法 SM-5](https://supermemo.guru/wiki/Algorithm_SM-5)中 [OF 矩陣](https://supermemo.guru/wiki/OF_matrix)的一列。同時,知識保留幾乎完美匹配 SM-5 [數據庫](https://supermemo.guru/wiki/Database)。 > > | 重復次數 | 間隔 | [保留率](https://supermemo.guru/wiki/Retention) | 系數 | > | :--:| :------:| :----:| :--:| > | 2 | 3 | 93.21678 | | > | 3 | 16 | 93.80946 | 4.89 | > | 4 | 43 | 93.97184 | 2.74 | > | 5 | 102 | 94.04083 | 2.39 | > | 6 | 232 | 94.06886 | 2.27 | > | 7 | 517 | 94.08418 | 2.23 | > | 8 | 1138 | 94.09256 | 2.20 | > | 9 | 2502 | 94.09737 | 2.20 | > | 10 | 5481 | 94.09967 | 2.19 | > > [保留率](https://supermemo.guru/wiki/Retention)是將最優過程中每天的保留率求平均值得到的 > > R=(R(1)+R(2)+...+R(n))/n > > R(d)=100-2.5*Laps(d-dlr) > >其中: > > - R - 平均保留率 > > - R(d) - 學習過程中第 d 天的保留率 > > - Laps(Int) - 間隔 I 天后的期望遺忘數量 > > - dlr - 最后一次重復的日期 ## 工作量與保留率的權衡 盡管模型使用了異質材料,有些不準確的地方,但對于[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)如何影響學習所需時間,也能可靠地得出結論。這些觀察結果經受住了時間的考驗: > 檔案警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F) > 這段文字是《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》 作者:[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 的一部分 > > 通過比較通過間歇學習模型計算的保留率和工作量數據,可以得出非常有趣的結論: > - [指數](https://supermemo.guru/wiki/Forgetting_index) - 遺忘指數(Lapso*2.5)確定了時間最優學習的最優間隔,其中使用 IL 模型安排學習 > - [保留率](https://supermemo.guru/wiki/Retention) - 在給定[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)得到的總體保留率(在 10,000 天后計算) > - 重復次數 - 在給定[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)下,在實驗過程的前 10,000 天安排的重復次數, > - [系數](https://supermemo.guru/wiki/Optimal_factor) - 最優系數的漸近值(取自該過程的第 10000 天) > > | [指數](https://supermemo.guru/wiki/Forgetting_index) | [保留率](https://supermemo.guru/wiki/Retention) | 重復次數 | [系數](https://supermemo.guru/wiki/Optimum_factor) | > | :---------------------------------------------------: | :------------------------------------------------: | :----------: | :--------------------------------------------------: | > | 2.5 | 97.76 | 兩天一次 | 1.0000 | > | 4.5 | 96.88 | 65 | 1.0300 | > | 5.0 | 96.64 | 30 | 1.1600 | > | 5.5 | 96.39 | 22 | 1.3000 | > | 6.25 | 96.01 | 17 | 1.4900 | > | 7.5 | 95.37 | 13 | 1.7700 | > | 10.0 | 94.10 | 10 | 2.1900 | > | 12.5 | 92.78 | 9 | 2.4700 | > > 圖 11.2 表明,用于確定最優間隔的[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)應落在 5-10% 的范圍內。 > [![工作量-保留率權衡](https://supermemo.guru/images/thumb/1/1e/Workload-retention_tradeoff.jpg/548px-Workload-retention_tradeoff.jpg)](https://supermemo.guru/wiki/File:Workload-retention_tradeoff.jpg) > > 圖 11.2 工作量-保留率的權衡:一方面,如果[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)低于 5%,那么工作量就會急劇增加,而不會對保留率產生實質性影響。另一方面,如果[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)超過 10%,工作量幾乎沒有變化,而保留率卻穩步下降。顯然,工作量-保留率的權衡直接對應于習得率和保留率之間的妥協。通過增加時間的可用性 X 倍(通過減少工作量 X 倍),可以增加習得率 X 倍(比較[第 5 章](http://super-memory.com/articles/theory.htm))。請注意,在這個模型中,[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)和[保留率](https://supermemo.guru/wiki/Retention)的關系幾乎是線性的。(來源:《[學習優化](https://supermemo.guru/wiki/Optimization_of_learning)》:[間歇學習模型](https://supermemo.guru/wiki/Search_for_a_universal_memory_formula),[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak), 1990) > 另一重要觀察來自使記憶強度增長最大化的[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)的計算過程 > 由間歇學習模型可得 > > S(n)=1.5*Laps(n)*S(n-1)*exp(-0.15*Laps(n))+1 > 對變量 Laps(n) 進行微分后,我們得到: > > S'(n)=1.5*S(n-1)*exp(-0.15*Laps(n))*(1-0.15*Laps(n)) > 最后,令其等于 0,我們得到: > > Laps(n)=7.8 > 這相當于[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)等于 20%!這樣的遺忘指數得出的間隔,相當于遺忘指數等于 10% 確定的最優間隔的 2 倍(如[SM-5 算法](https://supermemo.guru/wiki/Algorithm_SM-5))。然而,別忘了,工作量的唯一權衡因素是知識保留率而不是記憶強度。因此,上述發現并沒有令[SM-5 算法](https://supermemo.guru/wiki/Algorithm_SM-5) 失效 ## 結論:間歇學習模型 該章結尾處得出的最終結論經受住了三十年的考驗。只有[遺忘曲線](https://supermemo.guru/wiki/Forgetting_curve)是非指數形狀的說法是不準確的。這是因為這個模型是基于各種性質不同數據建立的,[遺忘的指數性質](https://supermemo.guru/wiki/Exponential_nature_of_forgetting)不可顯現出來。 > 檔案警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F) > 這段文字選自《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》,[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 著 > > **臨時摘要** > - 構建了間歇學習模型,從而能對于不同的重復計劃估計其知識保留率 > - 該模型確鑿地說明,[遺忘曲線](https://supermemo.guru/wiki/Forgetting_curve)不是指數型的 [2018 評論:錯誤的結論:對比[遺忘的指數性質](https://supermemo.guru/wiki/Exponential_nature_of_forgetting)] > - 該模型與實驗數據吻合良好 > - 該模型能以驚人精度求出最優間隔和知識保留率的近似值,而這兩個變量是 SuperMemo 模型所隱含的。 > - 該模型表明,最優系數在隨著重復減少,并漸進接近最終值 > - 該模型表明,最節省學習時間的[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)的理想值應落在 5% 至 10% 之間 > - 該模型表明,遺忘指數與知識保留率幾乎呈線性關系 > - 該模型說明,當間隔比 [SuperMemo 方法](https://supermemo.guru/wiki/SuperMemo)中使用的間隔長約 2 倍時,記憶強度的增幅最大。這相當于遺忘指數等于 20%
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看