# 1990:記憶的通用公式
[TOC=2,5]
## 最優復習與間歇復習
到了 1990 年,我很是篤定我手握著重大發現。我破解了[遺忘](https://supermemo.guru/wiki/Forgetting)難題。我知道了記憶簡單內容的復習[最佳時機](https://supermemo.guru/wiki/Spaced_repetition)。一經在我[碩士論文](https://supermemo.guru/wiki/Optimization_of_learning)中描述它的許可,我的探索欲也水漲船高。我希望我可以找到一個長期記憶的通用公式,能夠讓我跟蹤記憶在各種形式的檢索和接觸中的表現形式。
我已經收集了一些數據,這些數據可能會幫助我找到這個公式。在 [1985](https://supermemo.guru/wiki/Birth_of_SuperMemo) 年發現最佳重復間隔之前,我把問題寫在一頁頁紙上來復習知識。此時復習混亂不堪,由可利用的時間、需要或心情支配。我把這稱為「間歇性學習」。我有單個頁面和每次復習的回憶數據。雖沒有 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 的周期性,這種數據也算較為理想。這正是我為解決記憶問題而需要的數據。只不過,這些數據都僅僅記錄在紙上。
1990 年春天,我叫我姐姐來打字錄入數據。當然,我沒有一個妹妹會情愿來做這件事。我的姐姐比我大 17 歲。我利用她對我的愛,讓她做這種枯燥繁重的工作,而沒有顧及到她的時間。她兩年后去世了。我再也沒有機會報答她對[間隔重復](https://supermemo.guru/wiki/Spaced_repetition)理論的貢獻,她甚至沒有機會了解這個理論。從 1990 年 5 月 1 日開始,她在我不用電腦的時間,將數據從紙上轉移到電腦上。她打字很慢,花了很多天。她的工夫是值得的。
## 間歇學習模型
在 1990 年的整個夏天,我沒有專注于我的[碩士論文](https://supermemo.guru/wiki/Optimization_of_learning),而是研究「間歇學習模型」。對我來說,連續工作 10 個小時,感覺沒有半點發現而在早上 7 點睡覺,或者讓電腦整夜計算數據,都是很正常的。
鍥而不舍,搗鼓調整是有代價的。只有少年才能負擔得起,他們應該有空間和自由。盡管我已經 28 歲了,家人們還是默默忍受我的一舉一動。就像一個不成熟的青少年。我住在我姐姐的公寓里,在那里我可以利用她的善意。在電腦前工作的時間很長,被借口為「在做我的碩士論文」。事實上,沒有人要求我這樣做,也沒有人要求我這樣做,它甚至沒有推動 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 的發展。這是一個純粹的科學好奇心的案例。我只是想知道記憶是如何工作的。
我有幾十頁的問題和他們的[重復歷史](https://supermemo.guru/wiki/Repetition_history)。我試圖預測「每頁的記憶失誤」。我使用[平方根標準差](https://supermemo.guru/wiki/Deviation)來預測失誤(下面表示為Dev)。到 1990 年 7 月 10 日,星期二,我達到了 Dev<3,感覺問題幾乎「解決」了。1990 年 7 月 12 日,我改進到 Dev=2.877(順便說一下,我的論文中提到了2.887241)。然而,到 1990 年 8 月 27 日,我在那天的筆記中宣布這個問題無法解決。
> 個人軼事。[為什么使用軼事?](https://supermemo.guru/wiki/Why_use_anecdotes%3F)
>
> 1990 年 8 月 27 日:**我解決了**間歇學習,**表明這個問題是無法解決的**!單獨一個參數無力描述與整頁項目的記憶強度。這表明,**[E 因子](https://supermemo.guru/wiki/E-Factor)較低的項目沒有[最優區間](https://supermemo.guru/wiki/Optimal_interval)**!
1990 年 8 月 30 日,我在碩士論文中解說了這個模型。文章一共有 15 頁,不算很好讀。我打賭沒有人有耐心讀完整篇文章。90 年代末我的碩士論文節選版發布在網絡,而描述間歇學習的這一章甚至沒有在 [supermemo.com](http://supermemo.com/) 上發表。
然而,基于該模型得出的結論,深刻地影響了我隨后幾十年中對記憶的思考。該模型背后的想法,實際上非常類似我在開發 [SM-17 算法](https://supermemo.guru/wiki/Algorithm_SM-17) (2014-2016) 時應用的優化。
當我宣布這個問題無法解決時,我的意思是我無法準確地描述「困難頁」的記憶,因為性質不同的材料需要更復雜的模型。然而,這篇 1990 年 8 月 31 日記錄的筆記卻對此更加樂觀:
> 個人軼事。[為什么使用軼事?](https://supermemo.guru/wiki/Why_use_anecdotes%3F)
>
> 1990 年 8 月 31 日:不間斷地研究間歇學習模型。到了晚上,計算機終究沒有讓我離解決方案更進一步。然而,我有個好主意,就是用 IL 模型的絕世優秀功能計算出最優間隔。屏幕上的結果映入眼簾時,我簡直不敢相信我 [嗶——] 看到什么。這些正是我在 1985 年[發現](https://supermemo.guru/wiki/Birth_of_SuperMemo)時試圖制定 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 方法時發現的間隔。我高興地在家里跳來跳去,簡直像一條有兩條尾巴的狗。所以我可以說我真的解決了 IL 問題(對比 1990 年 8 月 27 日)。但我發現,這個成功并不是今天給我發現的一切:
> - [最優系數](https://supermemo.guru/wiki/Optimal_factor)隨著連續的間隔而減少(我以前憑直覺感覺是這樣的),
> - 對于[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)等于 10%,[保留率](https://supermemo.guru/wiki/Retention)為 94%(如 EVF [數據庫](https://supermemo.guru/wiki/Database))
> - **[保留率](https://supermemo.guru/wiki/Retention)與[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)**呈線性關系 [2018 年評論:在異質材料的小范圍內]**(這無法從我 1 月份進行的模擬實驗中計算出來)**
> - 該模型說,[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)的理想值是 5-10%(工作量-保留率的權衡)
> - 如果間隔時間是最優時間的兩倍,則[記憶強度](https://supermemo.guru/wiki/Stability)增加最多!!
> - 如果[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)為 20%,則[記憶強度](https://supermemo.guru/wiki/Stability)增加最多
> [...] 我的公式只有在間隔比以前的強度短不了多少時才有效。
## 過去(1990)與現在(2018)的對比
本章末尾的結論,以及程序本身都讓人想起我在 2005 年尋找[記憶穩定性](https://supermemo.guru/wiki/Stability)提高的通用公式時使用的方法,以及在 2014 年,[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 是基于對記憶的更精確的數學描述。像最新的 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 算法一樣,該模型使得計算任何重復計劃的[保留率](https://supermemo.guru/wiki/Retention)成為可能。當然,它的準確度要低得多,因為它基于劣質的數據。此外, [SuperMemo 17](http://super-memo.com/supermemo17.html) 所做的實時工作,在 1990 年時需要花費許多小時的 PC 電腦時間。
我的碩士論文中這個看似無聊的老的部分到現在已經變得很重要了。我敢說,只有劣質的數據將這項工作與 25 年后出現的[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 相隔甚遠。我引用的這段文字在符號和文體上做了些許改進,但沒有關于[遺忘曲線](https://supermemo.guru/wiki/Forgetting_curve)的章節,該章節由于計算中使用的材料太不同而出現錯誤。
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
> 這段文字是《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》 作者:[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 的一部分
>
> **間歇學習模型**
> [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 模型為計算[最優間隔](https://supermemo.guru/wiki/Optimal_interval)提供了基礎,在時間最優的學習過程中,應該把重復的內容分開。
> 然而,如果重復的時間間隔不規律,則無法預測記憶變量的變化。
> 下面我提出一個嘗試,以增強 SuperMemo 模型,使其可以用于描述間歇學習的過程。
> 在[第三章](http://super-memory.com/english/ol/beginning.htm)中,我提到了,在[算法 SM-0](https://supermemo.guru/wiki/SuperMemo_on_paper) 開發之前,我學習英語和生物的方式。
> 那段時間(1982-1984年)收集的數據為構建間歇學習模型提供了一個很好的基礎。遵照[最小信息原則](https://supermemo.guru/wiki/Item)制定的[項目](https://supermemo.guru/wiki/Minimum_information_principle)(通常有成對的詞的形式)被分組在頁面中,進行不定期的復習過程。
> 所收集的數據以計算機可讀形式提供,包括71頁的重復描述,此外,80個類似的頁面參與了由[SM-0](https://supermemo.guru/wiki/SuperMemo_on_paper)時間表監督的過程。
## 與算法 SM-17 的相似性
請注意,這個問題的表述讓人想起了[算法SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 中用來計算[穩定性增長矩陣(SInc[])](https://supermemo.guru/wiki/Stability_increase)的程序。[記憶穩定性](https://supermemo.guru/wiki/Stability)被重新縮放,以便能夠將其解釋為一個[間隔](https://supermemo.guru/wiki/Interval)。甚至符號也是相似的:S 代表[穩定性](https://supermemo.guru/wiki/Stability),D 代表[偏差](https://supermemo.guru/wiki/Deviation)。頁面遺忘數量代替了[可提取性](https://supermemo.guru/wiki/Retrievability)。
我以前喜歡玩各種優化算法。你仍然可以在 [SuperMemo 17](http://super-memo.com/supermemo17.html) 中查看該算法做表面擬合優化的可視化(見[圖片](https://supermemo.guru/wiki/Stability_increase))。12 個變量做處理可能有點低效,但我從不關心處理方法本身如何,只關心能否結果是否可以拓展我對記憶原理的認知。
對于那些熟悉[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 的人,我們在下面的文本中改變了符號。此外,我們改變了 In 和 Ln 等符號,這些符號在打印時很容易被誤讀為對數。
變化清單:
- Ln -> Lapsn
- In -> Intn
- Dn -> Devn
- R -> RepNo
## 間歇學習問題的表述
> 存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
> 這段文字是《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》作者:[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 的一部分
>
> **11.1.間歇學習問題的提出**
> 1. 共有 161 個頁面。
> 2. 每頁包含約 40 個項目。
> 3. 對于每一頁,學習過程的描述(在實驗重復期間收集)有以下形式:
> ((-,Laps1),(Int2,Laps2),(Int3,Laps3), ...,(Intn,Lapsn))
> 其中:
> - Inti - 第 i 次重復前使用的間隔(范圍在 1 到 800 之間),
> - Laps i - 在第 i 次重復過程中,遺忘的次數(范圍從 0 到 40),
> - n - 總重復次數(范圍從 3 到 20)。
> 4. 找到公式所描述的函數 f 和 g:
> S(1)=S1
> S(n)=f(S(n-1),Intn,Lapsn)
> Laps(n)=g(S(n-1),Intn)
> 其中:
> - S(n) - 與第 n 次重復后的記憶強度相對應的任何變量(比較[第 10 章](http://super-memory.com/english/ol/ol_memory.htm)),
> - Intn - 第 n 次重復前使用的間隔;取自間歇學習期間收集的數據,
> - Lapsn - 在第 n 次重復中的遺忘數量;取自間歇學習期間收集的數據,
> - Laps(n) - 對第 n 次重復中記憶遺忘數量的估計(它應該與 Lapsn 相對應)
> - S1 - 一個常數,
>
> 使函數 Dev 最小化:
>Dev=sqrt((Dev1+Dev2+ ... +Dev161)/RepNo)
> Devi=sqr(Laps(1)-Laps1)+sqr(Laps(2)-Laps2)+ ... +sqr(Laps(n)-Lapsn))
> 其中:
> - Dev - 描述函數 f 和 g 輸出值之間差值的函數,值會在間歇學習期間收集(它反映了數據在實驗和理論預測之間的差)
> - RepNo - 全部頁面上的重復次數總和
> - Devi - 函數Dev的分項,對應第i頁的Dev.
> - Laps(j) - 使用函數f和g,分別對第i頁和第j次重復計算的遺忘數量,
> - Lapsj - 第 i 頁、第 j 次重復時的遺忘數量;取自間歇學習期間收集的數據,
> - sqrt(x) - x 的平方根,
> - sqr(x) - x 的平方。
> 請注意,只有當函數 f 和 g 簡單且定義參數有限時(如 a*ln()+b 或 a*exp()+b 等),才會有生物學上的思考價值。否則,人們總是可以構建一個巨大的、無意義的公式來自動將 Dev 歸零。
## 解決間歇學習的問題
> 存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
> 這段文字是《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》 作者:[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 的一部分
>
> **11.2. 間歇學習的解決方案**
> 在搜索使*Dev*值最小的函數f和g時,我用的是 [Wozniak, 1988b](https://supermemo.guru/wiki/Optimization_of_learning_(1990):_References) 中描述的最小化的數值算法(*一種在可行區域內尋找函數局部最大值的新算法。可信論文*)。
> 搜索中使用實例函數如下:
> > S(1)=x[1]
> > S(n)=x[2]*Intn*exp(-Lapsn*x[3])+x[4])
> > Laps(n)=x[5]*(1-exp(-Intn/S(n-1)))
> > 其中:
> > - x[i] - 由最小化程序計算的變量,
> > - S(n)、Laps(n)、Lapsn 和 Intn - 如 11.1 中的定義
> 注意,描述 S(n) 的函數 f 不使用 S(n-1) 作為它的參數(問題的表述允許,但不要求在先前強度的基礎上計算新的強度)。
> 為了保持簡易度和節省時間,我設定了在最小化過程中使用 12 個變量的限制。
> 我測試了大量的數學函數,這些函數是根據有關記憶的明顯直覺構建的(例如,隨著時間的推移,頁面遺忘的數量會增加)。
> 其中包括指數型、對數型、冪型、雙曲線型、S 型、鐘型、多項式及一些可能的組合。
> 在大多數情況下,最小化程序將 Dev 的值減少到 3 以下,函數 f 和 g 的形狀類似,與它們的性質獨立。
> 使用少于 12 個變量得到的 Dev 的最小值是 2.887241。
> 函數 f 和 g 如下:
> ```
> constant S(1)=0.2104031;
> function Sn(Intn,Lapsn,S(n-1));
> begin
> S(n):=0.4584914*(Intn+1.47)*exp(-0.1549229*Lapsn-0.5854939)+0.35;
> if Lapsn=0 then
> if S(n-1)>In then
> S(n):=S(n-1)*0.724994
> else
> S(n):=Intn*1.1428571;
> end;
> function Lapsn(Intn,S(n-1));
> var quot;
> begin
> quot:=(Intn-0.16)/(S(n-1)-0.02)+1.652668;
> Lapsn:=-0.0005408*quot*quot+0.2196902*quot+0.311335;
> end;
> ```
> 在不顯著改變Dev的值的情況下,這些函數可以很容易地轉換為以下形式:
> > S(1)=1
> > for Intn>S(n-1): S(n)=1.5*Intn*exp(-0.15*Lapsn)+1
> > Laps(n)=Intn/S(n-1)
> 請注意:
> - 只要操作沒有明顯影響 Dev 的值,函數中的特定元素就會被刪除或四舍五入,
> - 記憶強度進行了重新縮放,使其可以被解釋為一個間隔,其中[遺忘](https://supermemo.guru/wiki/Lapse)數量等于 1,[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)等于 2.5%(一頁有 40 個項目,1/40=2.5%),
> - 僅當 Intn 不小于 S(n-1) 時,強度公式才有效。這是因為,如果[遺忘](https://supermemo.guru/wiki/Lapse)的數量很低,必須使用 S(n-1) 的值來計算 S(n),例如 Intn <= S(n-1): S(n)=S(n-1)*(1+0.5/(1-exp(S(n-1))*(1-exp(-Intn)))
> - 這些公式不能用于描述間隔比最優間隔長很多的過程。這是因為對于 Intn->∞,Laps(n) 的值超過 100%,
> - 該公式描述了集體項目的學習,其特點是 [E-系數](https://supermemo.guru/wiki/E-Factor)的分布或多或少地均勻。因此,它沒能普遍用在難度可變的項目。
> 就目前而言,上述公式構成了對間歇學習過程的最佳描述,以后將被稱為間歇學習模型(簡稱 IL 模型)
## 基于間歇學習模型的模擬試驗
有了上面發現的公式,我可以進行一系列的模擬實驗,幫助我回答許多關于記憶在不同情況下的行為的假設情景。這些模擬實驗影響了 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 之后多年的進展。特別是,從 [SuperMemo 6](https://supermemo.guru/wiki/SuperMemo_6)(1991 )開始,工作量和[保留率](https://supermemo.guru/wiki/Retention)之間的權衡在優化學習方面起到了重要作用。直到今天,為學習提供指導標準的是[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)(或[可提取性](https://supermemo.guru/wiki/Retrievability)),而不是在[回憶](https://supermemo.guru/wiki/Recall)水平較低時可能出現的、直觀自然的[記憶穩定性增長](https://supermemo.guru/wiki/Stability_increase)。設定記憶[遺忘](https://supermemo.guru/wiki/Lapse)水平起到了下面[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)的作用。
> 存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
> 這段文字選自《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》 ,[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 著
>
> **11.4. 間歇學習模型的驗證**
> 為了驗證間歇學習模型與 SuperMemo 理論的一致性,讓我們嘗試計算出分散重復的最優間隔。
> 最優間隔由[遺忘](https://supermemo.guru/wiki/Lapse)的數量達到選定值 Lapso 的時刻確定。
> 算法如下:
> 1. i:=1
> 2. S(i):=1
> 3. 找到 Int(i+1),使 Laps(i+1) 等于 Lapso. 使用公式:
> Int(n)=Lapso*S(n-1) (取自 IL 模型)
> 其中:
> Int(n) 表示第 n-1 個最優間隔。
> 4. i:=i+1
> 5. S(i):=1.5*Int(i)*exp(-0.15*Lapso)+1(取自 IL 模型)
> 6. goto 3
> 如果 Lapso 等于 2.5([遺忘指數](https://supermemo.guru/wiki/Forgetting_index) 6.25%),而且間歇學習模型參數相同,那么可以觀察到驚人的對應關系(比較第 16 頁[第 3.1 章](https://supermemo.guru/wiki/Birthday_of_SuperMemo)介紹的實驗):
> - Rep - 重復的數量
> - 間隔 - 重復前的最優間隔,在 IL 模型的基礎上由 Lapso=2.5 確定,
> - 系數 - 最優系數,等于最優間隔除以上一次的最優間隔,
> - SM-0 - 在得出 SM-0 算法的實驗的基礎上計算出的最優間隔
>
> | 重復次數 | 間隔 | 系數 | SM-0 |
> | :--:| :------:| :----:| :--:|
> | 2 | 1.8 | | 1 |
> | 3 | 7.8 | 4.36 | 7 |
> | 4 | 16.8 | 2.15 | 16 |
> | 5 | 30.4 | 1.80 | 35 |
> | 6 | 50.4 | 1.66 | |
> | 7 | 80.2 | 1.59 | |
> | 8 | 124 | 1.55 | |
> | 9 | 190 | 1.53 | |
> | 10 | 288 | 1.52 | |
> | 11 | 436 | 1.51 | |
> | 12 | 654 | 1.50 | |
> | 13 | 981 | 1.50 | |
> | 14 | 1462 | 1.49 | |
> | 15 | 2179 | 1.49 | |
> | 16 | 3247 | 1.49 | |
> | 17 | 4838 | 1.49 | |
> | 18 | 7209 | 1.49 | |
>
> 顯然,這種確切的對應關系,在某種程度上是一種巧合,因為這使得建立 SM-0 算法的實驗并不是那么敏感。
> 值得注意的是,**[最優系數](https://supermemo.guru/wiki/Optimal_factor)有逐步降低的趨勢!**這一事實似乎證實了最近一系列觀察,這些觀察基于對[SM-5 算法](https://supermemo.guru/wiki/Algorithm_SM-5) 中使用的[最優系數矩陣](https://supermemo.guru/wiki/OF_matrix)的分析。
> 如果 Lapso 等于 4([遺忘指數](https://supermemo.guru/wiki/Forgetting_index) 10%,如[算法 SM-5](https://supermemo.guru/wiki/Algorithm_SM-5)),那么[最優系數](https://supermemo.guru/wiki/Optimal_factor)的序列就類似于[算法 SM-5](https://supermemo.guru/wiki/Algorithm_SM-5)中 [OF 矩陣](https://supermemo.guru/wiki/OF_matrix)的一列。同時,知識保留幾乎完美匹配 SM-5 [數據庫](https://supermemo.guru/wiki/Database)。
>
> | 重復次數 | 間隔 | [保留率](https://supermemo.guru/wiki/Retention) | 系數 |
> | :--:| :------:| :----:| :--:|
> | 2 | 3 | 93.21678 | |
> | 3 | 16 | 93.80946 | 4.89 |
> | 4 | 43 | 93.97184 | 2.74 |
> | 5 | 102 | 94.04083 | 2.39 |
> | 6 | 232 | 94.06886 | 2.27 |
> | 7 | 517 | 94.08418 | 2.23 |
> | 8 | 1138 | 94.09256 | 2.20 |
> | 9 | 2502 | 94.09737 | 2.20 |
> | 10 | 5481 | 94.09967 | 2.19 |
>
> [保留率](https://supermemo.guru/wiki/Retention)是將最優過程中每天的保留率求平均值得到的
> > R=(R(1)+R(2)+...+R(n))/n
> > R(d)=100-2.5*Laps(d-dlr)
> >其中:
> > - R - 平均保留率
> > - R(d) - 學習過程中第 d 天的保留率
> > - Laps(Int) - 間隔 I 天后的期望遺忘數量
> > - dlr - 最后一次重復的日期
## 工作量與保留率的權衡
盡管模型使用了異質材料,有些不準確的地方,但對于[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)如何影響學習所需時間,也能可靠地得出結論。這些觀察結果經受住了時間的考驗:
> 檔案警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
> 這段文字是《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》 作者:[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 的一部分
>
> 通過比較通過間歇學習模型計算的保留率和工作量數據,可以得出非常有趣的結論:
> - [指數](https://supermemo.guru/wiki/Forgetting_index) - 遺忘指數(Lapso*2.5)確定了時間最優學習的最優間隔,其中使用 IL 模型安排學習
> - [保留率](https://supermemo.guru/wiki/Retention) - 在給定[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)得到的總體保留率(在 10,000 天后計算)
> - 重復次數 - 在給定[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)下,在實驗過程的前 10,000 天安排的重復次數,
> - [系數](https://supermemo.guru/wiki/Optimal_factor) - 最優系數的漸近值(取自該過程的第 10000 天)
>
> | [指數](https://supermemo.guru/wiki/Forgetting_index) | [保留率](https://supermemo.guru/wiki/Retention) | 重復次數 | [系數](https://supermemo.guru/wiki/Optimum_factor) |
> | :---------------------------------------------------: | :------------------------------------------------: | :----------: | :--------------------------------------------------: |
> | 2.5 | 97.76 | 兩天一次 | 1.0000 |
> | 4.5 | 96.88 | 65 | 1.0300 |
> | 5.0 | 96.64 | 30 | 1.1600 |
> | 5.5 | 96.39 | 22 | 1.3000 |
> | 6.25 | 96.01 | 17 | 1.4900 |
> | 7.5 | 95.37 | 13 | 1.7700 |
> | 10.0 | 94.10 | 10 | 2.1900 |
> | 12.5 | 92.78 | 9 | 2.4700 |
>
> 圖 11.2 表明,用于確定最優間隔的[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)應落在 5-10% 的范圍內。
> [](https://supermemo.guru/wiki/File:Workload-retention_tradeoff.jpg)
> > 圖 11.2 工作量-保留率的權衡:一方面,如果[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)低于 5%,那么工作量就會急劇增加,而不會對保留率產生實質性影響。另一方面,如果[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)超過 10%,工作量幾乎沒有變化,而保留率卻穩步下降。顯然,工作量-保留率的權衡直接對應于習得率和保留率之間的妥協。通過增加時間的可用性 X 倍(通過減少工作量 X 倍),可以增加習得率 X 倍(比較[第 5 章](http://super-memory.com/articles/theory.htm))。請注意,在這個模型中,[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)和[保留率](https://supermemo.guru/wiki/Retention)的關系幾乎是線性的。(來源:《[學習優化](https://supermemo.guru/wiki/Optimization_of_learning)》:[間歇學習模型](https://supermemo.guru/wiki/Search_for_a_universal_memory_formula),[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak), 1990)
> 另一重要觀察來自使記憶強度增長最大化的[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)的計算過程
> 由間歇學習模型可得
> > S(n)=1.5*Laps(n)*S(n-1)*exp(-0.15*Laps(n))+1
> 對變量 Laps(n) 進行微分后,我們得到:
> > S'(n)=1.5*S(n-1)*exp(-0.15*Laps(n))*(1-0.15*Laps(n))
> 最后,令其等于 0,我們得到:
> > Laps(n)=7.8
> 這相當于[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)等于 20%!這樣的遺忘指數得出的間隔,相當于遺忘指數等于 10% 確定的最優間隔的 2 倍(如[SM-5 算法](https://supermemo.guru/wiki/Algorithm_SM-5))。然而,別忘了,工作量的唯一權衡因素是知識保留率而不是記憶強度。因此,上述發現并沒有令[SM-5 算法](https://supermemo.guru/wiki/Algorithm_SM-5) 失效
## 結論:間歇學習模型
該章結尾處得出的最終結論經受住了三十年的考驗。只有[遺忘曲線](https://supermemo.guru/wiki/Forgetting_curve)是非指數形狀的說法是不準確的。這是因為這個模型是基于各種性質不同數據建立的,[遺忘的指數性質](https://supermemo.guru/wiki/Exponential_nature_of_forgetting)不可顯現出來。
> 檔案警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
> 這段文字選自《[優化學習](https://supermemo.guru/wiki/Optimization_of_learning)》,[Piotr Wozniak](https://supermemo.guru/wiki/Piotr_Wozniak) (1990) 著
>
> **臨時摘要**
> - 構建了間歇學習模型,從而能對于不同的重復計劃估計其知識保留率
> - 該模型確鑿地說明,[遺忘曲線](https://supermemo.guru/wiki/Forgetting_curve)不是指數型的 [2018 評論:錯誤的結論:對比[遺忘的指數性質](https://supermemo.guru/wiki/Exponential_nature_of_forgetting)]
> - 該模型與實驗數據吻合良好
> - 該模型能以驚人精度求出最優間隔和知識保留率的近似值,而這兩個變量是 SuperMemo 模型所隱含的。
> - 該模型表明,最優系數在隨著重復減少,并漸進接近最終值
> - 該模型表明,最節省學習時間的[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)的理想值應落在 5% 至 10% 之間
> - 該模型表明,遺忘指數與知識保留率幾乎呈線性關系
> - 該模型說明,當間隔比 [SuperMemo 方法](https://supermemo.guru/wiki/SuperMemo)中使用的間隔長約 2 倍時,記憶強度的增幅最大。這相當于遺忘指數等于 20%
- CONTRIBUTING
- 我永遠不會送我的孩子去學校
- 01.前言
- 02.箴言
- 03.腦科學
- 04.學習內驅力
- 05.學校教育對學習內驅力的影響
- 06.學習內驅力和獎勵
- 07.學習內驅力與習得性無助
- 08.教育抵消進化
- 09.毒性記憶
- 10.為什么學校會失敗
- 11.最佳推動區
- 12.自然創造力周期
- 13.大腦進化
- 14.嬰兒管理
- 15.嬰兒的大腦怎樣不起作用
- 16.童年失憶癥
- 17.幼兒園的苦難
- 18.壓力適應力
- 19.童年的激情
- 20.為什么孩子們討厭學校
- 21.爬山類比
- 22.術語表
- 23.參考文獻
- 24.拓展閱讀
- 25.摘要
- 間隔重復的歷史
- 01.前言
- 02.1985 SuperMemo 的誕生
- 03.1986 SuperMemo 的第一步
- 04.1987 DOS 上的 SuperMemo 1.0
- 05.1988 記憶的兩個組成部分
- 06.1989 SuperMemo 適應用戶的記憶
- 07.1990 記憶的通用公式
- 08.1991 采用遺忘曲線
- 09.1994 遺忘的指數性質
- 10.1995 SuperMemo 多媒體
- 11.1997 采用神經網絡
- 12.1999 選擇名稱——間隔重復
- 13.2005 穩定性增長函數
- 14.2014 SM-17 算法
- 15.間隔重復的指數發展
- 16.記憶研究的摘要
- 17.剖析成功與失敗
- 18.尾聲