# 2005:穩定性增長函數
[TOC=2,5]
## 為什么簡單的想法不一定容易落地?
對長期記憶的完美的數學描述即將完成。斷斷續續研究長達三十年,一個足夠好的模型才得以脫穎而出,這在今天看來簡直不可思議,特別是模型本身并不復雜。在人類事業中,科學往往是人類好奇心的副產品,而其他更緊急的項目往往得到優先處理。科學和發明有個問題,就是它們沒有方向,而且難以預測。真相在發現多年后才顯現其力量和價值。這個故事的一個道理就是,所有政府和公司都應該不遺余力地推進良好的科學發展。科學有點像 [SuperMemo](https://supermemo.guru/wiki/SuperMemo),今天看來沒什么甜頭,但久久為功,收益會很驚人。
現在利用[SM-17 算法](https://supermemo.guru/wiki/Algorithm_SM-17) 中的工具集,我們可以近乎完美地描述記憶。在理解記憶方面取得進一步進展的唯一限制是想象力、可用時間和提出正確問題的能力。我們工具齊全,數據充沛。我們還有不少數據是和睡眠記錄相結合的,可用于為模型添加新的維度:[穩態](https://supermemo.guru/wiki/Homeostatic)學習意愿,[穩態](https://supermemo.guru/wiki/Homeostatic)疲勞,甚至還有[晝夜節律](https://supermemo.guru/wiki/Circadian)因素。
SuperMemo 的故事表明,如果你有一個想法,你應該將它實現(除非你有另一個更好的想法)。很多想法表面上灰頭土臉,實則頗具魅力。我早在 [1984 年](https://supermemo.guru/wiki/Hermann_Ebbinghaus_(1885)_and_spaced_repetition_(1985))就繪制了第一條[遺忘曲線](https://supermemo.guru/wiki/Forgetting_curve),但在幾個月內就把它忘了。直到 34 年后我才想起來,那時候我的整個生活都圍繞著遺忘曲線打轉。想象一下這種驚喜吧!當我實現了第一個[間隔重復](https://supermemo.guru/wiki/Spaced_repetition)算法時,我等了兩年才決定招募第一個用戶。如果沒有 [Tomasz Kuehn](https://supermemo.guru/wiki/Tomasz_Kuehn),SuperMemo for Windows 可能晚個兩三年才能出世。如果沒有 [Janusz Murakowski](https://supermemo.guru/wiki/Janusz_Murakowski),SuperMemo 中重要的大數據:SuperMemo 重復歷史記錄可能會延遲 1-2 年。當[漸進閱讀](https://supermemo.guru/wiki/Incremental_reading)在 2000 年落地時,只有我知道它是里程碑式的創舉。但我蹉跎良久才得以縱觀這豐碑之偉。今天,我知道[神經創造力](https://supermemo.guru/wiki/Neural_creativity)是突破性的工具,但我仍然半信半疑地使用它,而且不像使用[篩選集合進行復習](https://supermemo.guru/wiki/Subset_review)那樣頻繁。
### 1990:第一個提示
[SM-17 算法](https://supermemo.guru/wiki/Algorithm_SM-17) 醞釀了近四分之一個世紀。在為這篇文章準備材料時,我在我的檔案中發現了一張圖片,里面是名為「新強度」的矩陣,行為「強度」,列為「耐久性」。這兩個詞是[穩定性](https://supermemo.guru/wiki/Stability)和[可提取性](https://supermemo.guru/wiki/Retrievability)的原始名稱,在 1988-1990 年使用。這篇論文就像是古老的化石,說明 SM-17 算法的想法一定是在 1990 年左右誕生的。
[](https://supermemo.guru/wiki/File:New_strength_matrix.jpg)
> 圖:一張名為「新強度」的矩陣圖片,行為「強度」,列為「耐久性」。這兩個詞是[穩定性](https://supermemo.guru/wiki/Stability)和[可提取性](https://supermemo.guru/wiki/Retrievability)的原始名稱,在 1988-1990 年使用。這篇論文說明 SM-17 算法的想法一定是在 1990 年左右誕生的。
從創建[記憶的雙組分模型](https://supermemo.guru/wiki/Two_components_of_memory)之初,我想基于這個模型寫一個算法,但我的動力總是不太夠。這套理論雖好,但[SuperMemo](https://supermemo.guru/wiki/SuperMemo) 那時已經夠用了,似乎無需再實現新算法。但今天看來,我認為那時的算法的角色,是為這套模型提供數據,而這套模型能夠回答很多關于記憶的問題,其中一些問題實際上從未被提出過(例如,關于[穩定性](https://supermemo.guru/wiki/Stability)的組分)。這也類似于 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 本身,它不溫不火,是因為它的價值很難單純從理論上被認可,實際效果才最容易讓優秀的學生認可。
### 1993:干擾
1993 年,我自己的想法阻礙了進展。我認為進一步探索算法沒有那么重要。用戶很難受益。記憶建模是毫無實用價值的研究。參見:[微調算法的徒勞](https://supermemo.guru/wiki/Neural_networks_in_spaced_repetition#Futility_of_the_fine-tuning_the_spaced_repetition_algorithm)。那時,是 [Murakowski](https://supermemo.guru/wiki/Janusz_Murakowski) 努力地推動進展。他一直抱怨「SuperMemo 在流失諾貝爾獎級別的數據」。他有次對我吼道:「把歷史重復數據功能給我實現了!」,簡直是破口大罵。這是一場優先次序的爭斗。我們迎來了 [SuperMemo 的新 Windows 版本](https://supermemo.guru/wiki/SuperMemo_7),音頻數據,CD-ROM 技術,也迎來了真切的競爭,比如 Young Digital Poland, 他們先我們一個月獲得了波蘭第一個 CD-ROM 軟件的稱號。我們仍然珍視波蘭第一個 CD-ROM 上的 Windows 軟件的寶座。第一張 [SuperMemo 7](https://supermemo.guru/wiki/SuperMemo_7) CD-ROM 實際上還是在美國生產的,但其內容完全是在波蘭制作的。CD 里面的是 100% 純波蘭的 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 。
### 1996:風險投資
1996 年 2 月,所有的障礙都掃清了,[SuperMemo](https://supermemo.guru/wiki/SuperMemo) 終于開始收集完整的項目重復歷史數據(當時,它仍然只是作為一個選項加入,以防止堵塞較少的系統少量的未使用數據)。我自己的項目重復歷史數據現在基本上可以追溯到 1992-1993 年。這是可能的,因為 1996 年 2 月的所有[項目](https://supermemo.guru/wiki/Item)的最后一次重復仍然很容易從當時的間隔得出。我甚至有相當多的歷史可以追溯到 1987 年。在我的數據強迫癥中,我手動記錄了一些具體的[項目](https://supermemo.guru/wiki/Item)的進展,后來通過手動編輯完成了重復的歷史記錄。因此,我自己的數據現在是現存的[間隔重復](https://supermemo.guru/wiki/Spaced_repetition)中跨度最長的重復歷史數據。30 年的數據,大量覆蓋了 22-25 年的學習。這是個寶庫。
1996 年 9 月 29 日,星期天,晚上,我花了兩個小時來勾畫基于[記憶的雙組分模型](https://supermemo.guru/wiki/Two_component_model_of_memory)的新算法。這一切看起來都非常簡單,而且需要的工作也不多。SuperMemo 剛剛開始收集重復歷史,所以我應該有大量的數據在手。我們的重點從多媒體課程,如《越野》,轉向更容易的項目,如[高級英語](https://supermemo.guru/wiki/Advanced_English)。這是個好時機,似乎。不幸的是,第二天,我們接到了 Antek Szepieniec 的電話,他與美國的投資者交談,夢想讓 [SuperMemo World](https://supermemo.guru/wiki/SuperMemo_World) 成為納斯達克的第一家波蘭公司。他興奮地預言,他相信有很大的機會從風險投資中為我們的努力注入幾百萬美元。這一下子就把我拋到了新的角色和新的工作中。在壞事方面,這使[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 推遲了 20 年。好事方面,超媒體 SuperMemo 的概念,又稱[知識機器](https://supermemo.guru/wiki/Knowledge_Machine),又稱[漸進閱讀](https://supermemo.guru/wiki/Incremental_reading),在理論和設計方面獲得了很大的發展勢頭。實踐再次戰勝了科學。
### 2005:理論方法
隨著 2000 年[漸進閱讀](https://supermemo.guru/wiki/Incremental_reading)以及 2006 年[優先隊列](https://supermemo.guru/wiki/Priority_queue)的出現,對延遲重復的需求,以及對提早復習的需求激增。這就要求大大偏離[最優間隔](https://supermemo.guru/wiki/Spaced_repetition)。舊的[算法 SM-8](https://supermemo.guru/wiki/Algorithm_SM-8) 無法有效地應對這種情況。[最優間隔](https://supermemo.guru/wiki/Optimum_interval)的功能必須擴展到時間維度(即[可提取性](https://supermemo.guru/wiki/Retrievability))。我們需要一個[穩定性增長](https://supermemo.guru/wiki/Stability_increase)函數。
科學進步的一個非常有趣的動態是,對現實的樹狀探索往往需要臨界的大腦質量(*譯注:指量變引起質變的知識積累量)來推動一個新的想法。2005 年,[Biedalak](https://supermemo.guru/wiki/Krzysztof_Biedalak) 和其他人基本上不在圈子里,忙著把 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 作為一項業務來推廣。我當時正處在[漸進閱讀](https://supermemo.guru/wiki/Incremental_reading)的重大突破的路上:處理過載。隨著維基百科的出現,人們突然意識到,導入成噸的知識不需要什么努力,但低優先級的知識較為龐大,會掩蓋高優先級的知識。因此,知識富裕后破壞了知識的質量。我對這個問題的解決方案是采用[優先級隊列](https://supermemo.guru/wiki/Priority_queue)。它在 2006 年才開始被實現。在此期間,[Gorzelanczyk](https://supermemo.guru/wiki/Edward_Gorzelanczyk) 和 [Murakowski](https://supermemo.guru/wiki/Janusz_Murakowski) 正忙于他們自己的科學項目。
Gorzelanczyk 曾經在克拉科夫參加過一個控制論會議,這個會議由 Ryszard Tadeusiewicz 教授 提供支持,他是我早期的靈感源泉。在 2005 年的演講中,Gorzelanczyk 建議我們更新記憶模型。那時距上次制定模型已有十年,而分子生物學的新數據洶涌而來,勢必有巨大影響。我認為自己那些尋找記憶穩定性公式的想法會成為很好的補充。與穆拉科夫斯基的交流后,這點星星之火很快獲得了動力。如果沒有這三個人(即 Wozniak, Gorzelanczyk 與 Murakowski)的協同工作,如果沒有激起人們的興趣,下一個大幅的進步會很難獲得。利用在 1990 年間歇學習模型中首次采用的工具,我決定找出穩定性增長的函數。一旦我的電腦開始計算數據,有趣的信息開始連續不斷地浮現。這項工作花了半個冬天的時間,本來只是預計只消幾個晚上。
### 2013:大局觀的重新覺醒
2013 年的情況和 2005 年一樣,在新的解決方案落實前,我們必須確立大腦的臨界質量。然而,我必須把最大的功勞歸于 [Biedalak](https://supermemo.guru/wiki/Krzysztof_Biedalak),是他傾斜了資源。那時為了給 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 的領導地位和開創性正名,我們承受無休止的斗爭。是他要求我們繼續進行這個項目,并派我去休一個短期的創造性假期來完成它。這本來只是一個冬季項目,結果花了兩年,而且到今天仍然占用了我很多時間。
2014 年 11 月 09 日,我們進行了 26 公里的步行,討論新的算法。散步是我們[最佳形式的頭腦風暴](https://supermemo.guru/wiki/How_to_solve_any_problem%3F),并且總能帶來甜美耳的果實。第二天,我們在一個游泳池與 Leszek Lewoc 會面,他是大數據的死忠,總是有大量的奇妙想法(我第一次見到 Lewoc 是在 1996 年,而他的妻子可能早在 1992 年就在寫一篇關于語言學習的論文,包括 SuperMemo)。那次頭腦風暴總結了一些簡單的結論:使用[記憶的雙組分模型](https://supermemo.guru/wiki/Two_component_model_of_memory)來簡化算法的方法,簡化術語,并使其更加人性化(不再有 [A-系數](https://supermemo.guru/wiki/A-Factor)、[U-系數](https://supermemo.guru/wiki/U-Factor)、[R-系數](https://supermemo.guru/wiki/R-Factor),等等)。
## 通過復述提高記憶穩定性
了解用于計算[記憶穩定性增長](https://supermemo.guru/wiki/Stability_increase)的公式有助于理解[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17)。在 2005 年,我們的目標是找到任何有效的 [R](https://supermemo.guru/wiki/Retrievability) 和 [S](https://supermemo.guru/wiki/Stability) 水平的穩定性增長的函數:*SInc*=*f*(R,S)。這些目標和工具與尋求建立[間歇學習模型](https://supermemo.guru/wiki/Search_for_a_universal_memory_formula)(1990)時所用的相當相似。
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
直到 2005 年,我們還無法制定一個通用的公式,將重復與[記憶穩定性增長](https://supermemo.guru/wiki/Stability_increase)聯系起來。那時用來確定[重復間隔時間](https://supermemo.guru/wiki/Spaced_repetition)的算法,是基于對所謂最佳重復間隔的理解(定義為產生通常超過 90% 的已知回憶率的間隔),考慮了最佳重復間隔下,記憶穩定性的增強情況 —— 術語「最優間隔」用來描述學習中間隔時間的適用性。而這套間隔時間算法允許以矩陣形式,給出最優間隔所對應的準確穩定性增長函數。然而,對于可提取性水平較低(即當間隔不是**最優**的時候)時的穩定性增長,我們所知甚少。在 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 收集的數據的幫助下,我們現在可以嘗試填補這一空白。盡管 SuperMemo 的設計是為了在學習中應用最佳的間隔時間,但在現實生活中,用戶經常因為各種原因(如假期、疾病等)被迫推遲重復學習。這樣一來,對于幾乎所有材料體,在[可提取性](https://supermemo.guru/wiki/Retrievability)較低時都會給人大量重復。此外,在 2002 年,SuperMemo 引入了中位重復間隔的概念,使得重復間隔可以縮短。盡管在任何數據體中,中位間隔只占很小的一部分,但樣本量足夠大的話,可提取性極高或極低的樣本數量,應可以將之前的發現推廣 —— 原理論中記憶穩定性的增量和可提取性之間的關系僅在「可提取性=0.9」時有結論,現在可以推廣到完整的作用域上了。
為了通過學習的方式最佳地建立記憶穩定性,我們需要知道**最優間隔的函數**,或者說,**穩定性增長函數**(*SInc*)。它們考慮三個參數:[記憶穩定性(S)](https://supermemo.guru/wiki/Stability), [記憶可提取性(R)](https://supermemo.guru/wiki/Retrievability)和[知識難度(D)](https://supermemo.guru/wiki/Difficulty)。在 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 的傳統上,我們一直專注于 S 和 D 這兩個維度,因為保持高水平的可提取性,是程序在做復習間隔優化時參照的主要優化準則。對 S 和 D 的關注取決于穩定性增長函數的實際應用。文本則聚焦于 S 和 R,不討論 D ,因為我們現在試著分析「純知識」,以消去維度 D 的影響。也就是說,討論那些由非復合的記憶痕跡刻畫的知識,它們易于學習。消除 D 維度使我們在理論上做劃分更為容易,而且以后結論可以擴展到復合記憶痕跡,和看起來難以學習的知識。換句話說,當我們從實踐到理論討論時,我們的興趣從 ( S, D ) 對轉移到 ( S, R ) 對。出于這種邏輯,所有實驗數據集都按難度進行了過濾。同時,我們會尋找最大的數據集,其中的項目由于排期的延遲(違反了最優的重復間隔),低 R 值的項目會有足夠大的代表性
我們開發了一個兩步算法,用來提出一個符號公式,來表示在**[難度](https://supermemo.guru/wiki/Difficulty低而統一的數據集)**(所謂表述良好、容易記憶的知識數據集)中,不同[可提取性](https://supermemo.guru/wiki/Retrievability)水平的穩定性增長。表述良好和統一的學習材料使我們很容易通過排練提煉出一個純粹的長期記憶鞏固過程。正如本文其他地方所討論的那樣,表述不清的知識會導致獨立鞏固過程的疊加,不適合于所提出的分析。
### 兩步計算法
在 SuperMemo 17 中,可以遍歷重復歷史的全部記錄來收集[穩定性增長](https://supermemo.guru/wiki/Stability_increase)數據。這使得繪制 *SInc[]* 矩陣的圖形表示成為可能。然后可以用這個矩陣來找出[穩定性增長](https://supermemo.guru/wiki/Stability_increase)函數的符號近似函數。同樣的推理也用在了 2005 年。不過程序要簡單得多。這個推理可以用來更好地理解[SM-17 算法](https://supermemo.guru/wiki/Algorithm_SM-17):
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
確定記憶穩定性增長 *SInc* 函數的兩步程序:
- **第 1 步**:使用 *SInc* 的矩陣表示和一個迭代程序來最小化真實學習過程(數據)中的成績和 *SInc* 預測的成績之間的[偏差](https://supermemo.guru/wiki/Deviation) *Dev*。*Dev* 被定義為 *R-Pass* 在給定知識的重復序列上的總和,其中 *R* 是可提取性,*Pass* 為 1 表示合格成績,0 表示不合格成績
- **第 2 步**:使用爬山算法(Hill Climbing )解決最小二乘法問題,以計算出 *SInc* 的符號式可能選擇,找出一種最能擬合步驟 1 中得出的 *SInc* 矩陣
### 計算穩定性增長
[穩定性增長](https://supermemo.guru/wiki/Stability_increase)(*SInc[]*)的矩陣是在**第 1 步**計算的。在 2005 年, *SInc* 初值只要合理即可。今天,由于我們知道這個函數本質是近似的,我們可以加快這個過程,使之成為非迭代過程(見[SM-17 算法](https://supermemo.guru/wiki/Algorithm_SM-17))。
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
讓我們定義一套流程來計算給定的復習模式下記憶的穩定性。這套流程用于計算穩定性時,可以基于學習過程中已知的評分(實際變體),也可以僅僅基于重復時間(理論變體)。兩種方法的唯一區別是,實際變體允許對穩定性進行修正,因為隨機遺忘反映在不及格的評分上。
在下面的段落中,我們將使用以下符號:
- S(t) - 時刻 t 的記憶穩定性
- S[r] - 第 r 次重復后的記憶穩定性(例如,S[1] 代表學習新知識后的記憶穩定性)
- R(S,t) - 穩定性 S 和時刻 t 下的記憶可提取性(已知 R=exp-k*t/S,k=ln(10/9))
- *SInc*(R,S) - 作為可提取性 R 和穩定性 S 下復習結果的穩定性增長(Stability INCrease),其中 *SInc*(R(S,t),S(t))=S(t)/S(t')=S[r]/S[r-1](其中:t' 和 t 代表記憶鞏固前后的排練時間,t-t' 與零不可區分)
我們的目標是找到對任何有效范圍內的 R 和 S 都可用的穩定性增長函數:*SInc*=*f*(R,S)。
如果我們采取任何合理的 *SInc*(R,S) 的初始值,并使用 S[1]=S1,其中 S1 是第一次接觸復習后利用記憶衰減函數得出的穩定性(對于最優重復間隔),那么對于每個重復歷史,我們可以使用以下迭代來計算 S:
```
r:=1;
S[r]:=S1
repeat
t:=Interval[r]; // 其中:Interval[r] 取自學習過程(實踐性變體)或被調查的復習模式(理論性變體)
Pass:=(Grade[r]>=3); // 其中:Grade[r] 是第 r 個間隔后的評分(實踐變體)或 4(理論變體)
R:=Ret(S[r],t);
if Pass then
S[r+1]:=S[r]*SInc[R,S[r]]
r:=r+1;
else begin
r:=1;
S[r]:=S1;
end;
until (r 是最后一次重復)
```
在[SM-8 算法](https://supermemo.guru/wiki/Algorithm_SM-8) 中,我們可以使用首次間隔圖來確定 S1,每次評分為失敗后,S1 都會逐漸變短。
我們以矩陣 *SInc[R,S]* 的假設初始值開始迭代過程,例如,像[算法 SM-2](https://supermemo.guru/wiki/Algorithm_SM-2) 中那樣,選擇將所有項設置為 [E-系數](https://supermemo.guru/wiki/E-Factor) 。
然后,我們可以在現有的重復歷史數據上繼續使用上述程序,計算出 *SInc[R,S]* 的新值,該值與實際學習過程中的評分有較小的[偏差](https://supermemo.guru/wiki/Deviation)(我們為此使用差值 *R-Pass* )。
以下觀察有助于實現漸進式的改進:
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
- 如果 Pass=true 并且 S[r]<Interval[r],那么*SInc[R,S[r-1]]* 元素的估計值過小(并且可以朝著 Interval[r]/S[r]*SInc[R,S[r-1]] 的方向修正)
- 如果 Pass=false 并且 S[r]>Interval[r],那么*SInc[R,S[r-1]]* 元素的估計值過大
我們可以對 *SInc[]* 進行迭代,使其數值與學習過程中的評分越來越接近,達到一致。
這種方法使得有可能得出相同的最終 *SInc[R,S]*,與初始化時設定的 *SInc[R,S]* 的原始值無關
在[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 中,我們使用實際的[遺忘曲線](https://supermemo.guru/wiki/Forgetting_curve)來對[可提取性](https://supermemo.guru/wiki/Retrievability)進行更好的估計,然后可以用來修正估計的[穩定性](https://supermemo.guru/wiki/Stability),而不是上述開關遞進方法。最終的穩定性估計結合了[可提取性](https://supermemo.guru/wiki/Retrievability)的理論預測、從[遺忘曲線](https://supermemo.guru/wiki/Forgetting_curve)中獲取的實際[保留](https://supermemo.guru/wiki/Recall)(根據數據的可用性進行加權),以及與上述推理中的間隔相結合的實際評分。通過結合這三個信息來源,[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 可以提供穩定性/間隔估計,而不需要反復迭代 *SInc[]* 矩陣。
### 穩定性增長的符號公式
經過多次迭代,我們得到一個 *[SInc](https://supermemo.guru/wiki/Stability_increase)* 的值,該值使誤差最小。這個過程是可收斂的。有了[穩定性增長](https://supermemo.guru/wiki/Stability_increase)的矩陣,我們可以尋找一個符號公式來表達穩定性增長。
#### 穩定性增長與 S 的關系
可以預見的是,*[SInc](https://supermemo.guru/wiki/Stability_increase)* 隨著 *[S](https://supermemo.guru/wiki/Stability)* 的增加而減少。這種現象被命名為[穩定化衰減](https://supermemo.guru/wiki/Stabilization_decay),現在可以在 [SuperMemo for Windows](https://supermemo.guru/wiki/SuperMemo_for_Windows) 中檢視。以下是 2005 年的原始發現:
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
在第 2 步中,我們將使用這里得到的 *SInc[R,S]* 矩陣來獲得 *SInc* 的符號公式。
**第 2 步** - 找到 *SInc* 的一個符號公式
現在我們可以使用任何梯度下降算法,為最佳擬合上面得出的矩陣 SInc 而求出 SInc 的符號候選公式,
查看 SInc 矩陣時,我們立即看到當 R 取為常數時, SInc 是 S 的函數,并且可以完美地用負冪函數刻畫,如下面的示例性數據集所示:
[](https://supermemo.guru/wiki/File:SInc-vs-S.gif)
這在同一圖表的對數版中更加清楚:
[](https://supermemo.guru/wiki/File:Log(SInc)-vs-log(S).gif)
上面關于 [*SInc* 對 *S* 冪律相關](https://supermemo.guru/wiki/Stabilization_decay)的結論證實了以前的發現。特別是,在 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 中,[R-系數](https://supermemo.guru/wiki/R-Factor)沿著[重復類別](https://supermemo.guru/wiki/Repetition_category)的下降總是用冪函數近似最佳。
#### 穩定性增長與 R 的關系
正如[間隔效應](https://supermemo.guru/wiki/Spacing_effect)所預測的那樣,*[SInc](https://supermemo.guru/wiki/Stability_increase)* 對于較低水平的 *[R](https://supermemo.guru/wiki/Retrievability)* 來說更大。然而,請注意,2005 年使用的程序可能引入了一個假象:記憶痕跡隨著時間的推移而存續,將線性地貢獻于新的穩定性估計。但根據[遺忘](https://supermemo.guru/wiki/Forgetting)的隨機性質,這是有問題的。這樣一來,較長的記憶存續期可能是一個偶然的問題。在[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 中,更多的證據被用來估計穩定性,并且**存續間隔**與所有其他證據一起被權衡。
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
當我們尋找反映常數 S 下 *SInc* 和 R 關系的函數時,我們看到數據中的噪音更多,這是因為 SuperMemo 在低 R 下提供的點擊率要少得多(其算法通常試圖達到 R > 0.9)。盡管如此,在檢查了多個數據集后,我們得出結論,有點令人驚訝的是,當 R 降低時,*SInc* 會呈指數級增長(見后面的內容,說明這種增長導致 *SInc* 和時間之間幾乎呈線性關系)。這一增長的幅度高于預期,應該為[間隔效應](https://supermemo.guru/wiki/Spacing_effect)的力量提供進一步證據。這一結論應該對學習策略產生重大影響。
這里有一組取 S 為常數的 SInc 對 R 的函數的示例數據。我們可以看到 SInc=f(R) 可以很好地用一個負指數函數進行近似:
[](https://supermemo.guru/wiki/File:SInc-vs-R.gif)
還有同一圖表的半對數版本,其線性近似的趨勢線截距設置為 1:
[](https://supermemo.guru/wiki/File:SInc-vs-log(R).gif)
有趣的是,可提取性為 100% 時,穩定性增長可能小于 1。一些分子生物學的研究表明,復習時記憶的不穩定性會增加。這個發現又佐證了死記硬背的傷害不僅限于枉費時間。
#### 穩定性增長與可提取性的關系(2018)
盡管有種種算法上的差異和偽命題,[穩定性增長](https://supermemo.guru/wiki/Stability_increase)對[可提取性](https://supermemo.guru/wiki/Retrievability)的函數關系于[表述良好的知識](https://supermemo.guru/wiki/20_rules)與[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 13 年后產生的數據的函數關系幾乎完全一樣。
記得在 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 中,我們使用[遺忘曲線](https://supermemo.guru/wiki/Forgetting_curve)來提供對[可提取性](https://supermemo.guru/wiki/Retrievability)的更好估計。然后,這被用來修正估計的[穩定性](https://supermemo.guru/wiki/Stability)。通過結合幾個信息來源,[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 可以提供更準確的[穩定性](https://supermemo.guru/wiki/Stability)估計。但算法仍然有一個歷史遺留問題,那就是記憶痕跡的存續,記憶痕跡將線性地貢獻數值給新的穩定性。這個問題可以通過調參數來改掉,然而每次 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 試圖這樣做的時候,它的性能指標都會下降。
盡管已經改進了這么多,數據集(尤其是 R 低的數據)也更大了,但對于簡單的項目,[穩定性增長](https://supermemo.guru/wiki/Stability_increase)與[可提取性](https://supermemo.guru/wiki/Retrievability)的相關性仍然不變。
一旦考慮[困難](https://supermemo.guru/wiki/Difficulty)的知識,這樣美妙的關聯就崩潰了。部分原因是減少了上面提到的**長時間存續**假象的問題。出于這個原因,新的 SuperMemos 并不依賴這個看似被證實的記憶公式。
[](https://supermemo.guru/wiki/File:Stability_increase_as_a_function_of_memory_retrievability_for_easy_knowledge.png)
> 圖:長期記憶的[強度](https://supermemo.guru/wiki/Stability)取決于[回顧](https://supermemo.guru/wiki/Repetition)的時間。對于[精心表述的知識](https://supermemo.guru/wiki/20_rules),長時間的復習延遲會使[記憶穩定性](https://supermemo.guru/wiki/Memory_stability)大大增加。最佳的復習應該平衡這種增長與[遺忘的概率](https://supermemo.guru/wiki/Retrievability)。在所展示的圖表中,[穩定性增長](https://supermemo.guru/wiki/Stability_increase)和[可提取性](https://supermemo.guru/wiki/Retrievability)的對數(log(R))之間的關系是線性的。log(R) 表示的是時間。近 27,000 次[重復](https://supermemo.guru/wiki/Repetition)被用來繪制這個圖表。復習前觀察到的[記憶穩定性](https://supermemo.guru/wiki/Memory_stability)從 2 天到 110 天不等。在最低的[可提取性](https://supermemo.guru/wiki/Retrievability)水平下,[穩定性](https://supermemo.guru/wiki/Stability)的最大增幅接近 10 倍。[穩定性增長](https://supermemo.guru/wiki/Stability_increase)矩陣是用 SuperMemo 17 的[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 生成的
### 記憶穩定性增長公式
有了[穩定性增長](https://supermemo.guru/wiki/Stabilization)的矩陣在手,我們可以尋找穩定性增長的符號表達式。2005 年找到的方程之后將被稱為 *Eqn. SInc2005*。請注意,[算法 SM-17](https://supermemo.guru/wiki/Algorithm_SM-17) 中使用的公式有所不同:
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
對于恒定的知識難度,我們應用二維表面擬合法來獲得 *SInc* 的符號公式。我們使用了改良的 Levenberg-Marquardt 算法,其中有許多可能的符號函數候選,這些函數可能準確地描述 *SInc* 作為 S 和 R 的函數。該算法通過一個持續的隨機重啟循環得到加強,以確保找到全局最大值。我們用以下公式獲得了最佳結果(公式:SInc2005):
> *SInc*=*a*S*^-b*\*e^*c*R+*d*
>
> 其中:
>
> - *SInc* - 成功復習后的記憶穩定性增長倍數(重復前和重復后的穩定性 S 之比)
> - R - 復習時記憶的可提取性,以百分比表示回憶的概率
> - S - 復習前的記憶穩定性,以產生 R=0.9 的間隔表示
> - *a*, *b*, *c*, *d* - 不同數據集的參數可能略有不同
> - e - 自然對數的底
對于不同的數據集,參數 *a*、*b*、*c*、*d* 會略有不同,這可能反映了用戶-知識互動的可變性(即不同的學習材料集呈現給不同的用戶,可能導致不同的難度分布,以及具有不同的評分標準,這些都可能影響最終的測量結果)。
為了說明問題,從幾組數據中提取的 *a*、*b*、*c*、*d* 的平均值為:*a=76*,*b=0.023*,*c=-0.031*,*d:=-2*,其中 *c* 在不同的數據集中變化不大,而 *a* 和 *d* 的變化相對較大。請看例子:[如何使用計算記憶穩定性的公式?](http://supermemopedia.com/wiki/How_to_use_the_formula_for_computing_me mory_stability?)
## 從穩定性增長公式中得出的結論
上述[穩定性增長](https://supermemo.guru/wiki/Stability_increase)的公式與后來的發現略有不同。例如,它似乎低估了[穩定性增長](https://supermemo.guru/wiki/Stability_increase)隨 S 的下降(低 *b*)。然而,它可以用來推導出大量有趣的結論。
### 隨著時間的推移,復習的價值線性增長
由于[間隔效應](https://supermemo.guru/wiki/Spacing_effect),[記憶穩定性](https://supermemo.guru/wiki/Memory_stability)的增長潛力隨著時間的推移幾乎以線性方式不斷增長:
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
上述公式產生的 *SInc* 值與同質數據集\*上的 *SInc* 矩陣形式的數據平均相差 15%(\* 即復習歷史來自于:同一學生、同一知識類型、低難度和小范圍的 [A-系數](https://supermemo.guru/wiki/A-Factor))。
隨著重復間隔的增加,盡管隨著時間的推移進行了雙重指數化,*SInc* 沿著近乎線性的 sigmoid 曲線增長(兩個負指數化操作相互抵消):
[](https://supermemo.guru/wiki/File:SInc-vs-time.gif)
> 圖:SInc 隨著時間變化的圖像。該圖是用公式 [SInc2005](https://supermemo.guru/wiki/SuperMemo_Algorithm:_30-year-long_labor#SInc2005) 對 S=240 產生的。
*SInc* 對時間的近乎線性相關反映在 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 中,通過用 [O-Factor](https://supermemo.guru/wiki/O-Factor) 乘以實際使用的重復間隔,而不是之前計算的[最優間隔](https://supermemo.guru/wiki/Optimum_interval)來計算新的最優間隔(在 SuperMemo 中,O-Factor 是一個二維矩陣 OF[S,D] 的條目,代表 R=0.9 的 *SInc*)。
### 穩定性增長期望
學習的優化可以使用各種標準。我們可以對特定的[回憶](https://supermemo.guru/wiki/Recall)水平進行優化,也可以對[記憶穩定性增長](https://supermemo.guru/wiki/Stability_increase)進行最大化。在這兩種情況下,了解[穩定性增長](https://supermemo.guru/wiki/Stability_increase)的期望水平是有幫助的。
讓我們把記憶穩定性增長的期望值定義為:
> E(*SInc*)=*SInc*\*R
>
> 其中:
>
> - R - 可提取性
> - *SInc* - 穩定性增長
> - E(*SInc*) - 穩定性增長的概率期望(即由 *SInc* 定義的增長,被遺忘的可能性所減弱)
2005 年得出的[穩定性增長](https://supermemo.guru/wiki/Stability_increase)公式產生了一個重大的驚喜。我們曾經聲稱,最好的學習速度可以在[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)為 30-40% 時實現。公式 [SInc2005](https://supermemo.guru/wiki/History_of_spaced_repetition_(print)#SInc2005) 似乎表明,非常低的[保留](https://supermemo.guru/wiki/Retention)可以帶來相當好的記憶效果。由于 2005 年時低保留率數據的稀缺性,這些結論需要慎重對待:
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
從公式 [SInc2005](https://supermemo.guru/wiki/History_of_spaced_repetition_(print)#SInc2005) 我們可以得到 E(*SInc*)=(*a*S*-b*\*e^*c*R+*d*)\*R。通過找到導數 d*ESInc*/dR,并將其等同于零,我們可以找到在不同的穩定性水平下,最大化期望穩定性增長的可提取性:
[](https://supermemo.guru/wiki/File:Consolidation_curve_E(Sinc)%3Df(R)_(2005).gif)
> 圖:鞏固曲線:[記憶穩定性增長](https://supermemo.guru/wiki/Stabilization)期望 E(SInc) 為[穩定性 S](https://supermemo.guru/wiki/Stability)的函數,由公式([SInc2005](https://supermemo.guru/wiki/SuperMemo_Algorithm:_30-year-long_labor#SInc2005))得出。使用 [SuperMemo](https://supermemo.guru/wiki/SuperMemo) 用戶所知道的術語,短間隔記憶穩定性的最大期望增長發生在[遺忘指數](https://supermemo.guru/wiki/Forgetting_index)等于 60% 的時候!這也意味著,SuperMemo 中允許的最大遺忘指數(20%)導致的穩定性預期增長比可能的最大值少了近 80%(如果我們只準備犧牲高[保留](https://supermemo.guru/wiki/Retention))
[](https://supermemo.guru/wiki/File:E(SInc)_as_function_of_R_for_S.jpg)
> 圖:[記憶穩定性增長](https://supermemo.guru/wiki/Stability_increase)期望 E(SInc) 是[可提取性](https://supermemo.guru/wiki/Retrievability) R 和[穩定性](https://supermemo.guru/wiki/Stability) S 的函數,由公式 [SInc2005](https://supermemo.guru/wiki/SuperMemo_Algorithm:_30-year-long_labor#SInc2005) 得出
### 間隔重復中的記憶復雜性
在[間隔重復](https://supermemo.guru/wiki/Spaced_repetition)中,記憶的[穩定性](https://supermemo.guru/wiki/Stability)取決于[復習](https://supermemo.guru/wiki/Review)的質量,而復習又取決于[記憶的復雜性](https://supermemo.guru/wiki/Memory_complexity)。早在 1984 年,我就在自己的學習中使用了這個原則,即后來被稱為**[最小信息原則](https://supermemo.guru/wiki/Minimum_information_principle)**。為了有效地復習,知識關聯需要簡單(即使知識本身很復雜)。[項目](https://supermemo.guru/wiki/Item)可以建立一個復雜的知識結構,但受復習的個別記憶應該是[原子性的](https://supermemo.guru/wiki/Atomic_memory)。
[](https://supermemo.guru/wiki/File:Memory_complexity.png)
> 圖:**[記憶復雜性](https://supermemo.guru/wiki/Memory_complexity)**說明了[最小信息原則](https://supermemo.guru/wiki/Minimum_information_principle)的重要性。在記憶簡單的問題和答案時,我們可以依靠簡單的記憶連接,并在復習時統一刷新這種連接。復雜的記憶可能會以不完整的方式激活其概念,或以不同的順序,取決于上下文。因此,在復習時很難產生[記憶穩定性](https://supermemo.guru/wiki/Memory_stability)的統一增長。復雜的項目是很難記住的。一個簡單項目的例子可能是一個詞對,例如「蘋果=pomo」(世界語)。而要認識一個蘋果可能需要一個復雜的聯系網。「蘋果」和「pomo」之間的聯系是不可簡化的(即最大限度的簡化)
在復雜項目的穩定性公式中,[穩定性](https://supermemo.guru/wiki/Stability)就像電路中的電阻:許多并聯的電阻使更多電流漏過
順便說一句,在[漸進閱讀](https://supermemo.guru/wiki/Incremental_reading)的早期,Zonnios 獨立地得出了[漸進寫作](https://supermemo.guru/wiki/Incremental_writing)的概念,這在今天看來是將[漸進閱讀](https://supermemo.guru/wiki/Incremental_reading)的工具運用于[創造](https://supermemo.guru/wiki/Creativity)的一個明顯步驟。這篇文章也是通過[漸進寫作](https://supermemo.guru/wiki/Incremental_writing)的方式寫的。
2005 年,人們就是這樣描述和分析對復雜項目的記憶:
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
學習的[難度](https://supermemo.guru/wiki/Difficulty)是由所記信息的[復雜性](https://supermemo.guru/wiki/Complexity)決定的。復雜的知識會產生兩種效果:
- 對其他信息的[干擾](https://supermemo.guru/wiki/Interference)增加
- 在復習時難以統一刺激記憶痕跡的子成分
這兩種影響都可以通過在學習過程中應用[合適的知識表述](https://supermemo.guru/wiki/20_rules)來解決。
讓我們看看知識的[復雜性](https://supermemo.guru/wiki/Complexity)如何影響[記憶穩定性](https://supermemo.guru/wiki/Memory_stability)的建立。
想象一下,我們想學習以下內容:「瑪麗-斯克洛多夫斯卡-居里是 1911 年諾貝爾化學獎的唯一得主。」我們可以采取兩種方法:一種是保持知識的復雜性,另一種是采用簡單的表述方式。在選擇保持知識復雜性的情況下,為了學習瑪麗-居里的名字和她獲得諾貝爾獎的年份,我們可能會制定一個雙[挖空](https://supermemo.guru/wiki/Cloze)。
> 「問:[...]是[...]諾貝爾化學獎的唯一得主」
> 「答:瑪麗-斯克洛多夫斯卡-居里,1911」
如果采用簡單的表述方式,這個雙挖空將被拆開,而波蘭人的婚前姓氏將成為可有可無的,并被用來創造第三個挖空:
> 「問:[...]是 1911 年諾貝爾化學獎的唯一得主」
> 「答:瑪麗(斯克洛多夫斯卡)居里」
>
> 「問:瑪麗-斯克洛多夫斯卡-居里是[...](年份)諾貝爾化學獎的唯一得主」
> 「答:1911」
>
> 「問:瑪麗-[...]-居里是 1911 年諾貝爾化學獎的唯一得主」
> 「答:斯克洛多夫斯卡」
此外,在簡單的表述方式中,一個完整的學習方法需要形成兩個挖空,因為瑪麗-居里也是 1903 年諾貝爾物理學獎的得主(以及其他獎項):
> 「問:瑪麗-斯克洛多夫斯卡-居里是 1911 年諾貝爾[...]獎的唯一得主」
> 「答:化學」
>
> 「問:瑪麗-斯克洛多夫斯卡-居里是 1911 年[...]的唯一獲獎者」
> 「答: 諾貝爾(化學)獎」
現在讓我們考慮一下一開始的那個復合雙[挖空](https://supermemo.guru/wiki/Cloze)版本。為了便于討論,讓我們假設記住 1911 年和「居里」這個名字同樣困難。復合記憶痕跡(即整個雙挖空)的[可提取性](https://supermemo.guru/wiki/Retrievability)將是其子痕跡的可提取性的乘積。這來自于一個一般的規則,即在大多數情況下,記憶痕跡基本上是獨立的。盡管[遺忘](https://supermemo.guru/wiki/Forgetting)一個痕跡可能會增加遺忘另一個痕跡的概率,但在絕大多數情況下,正如經驗所證明的那樣,與同一主題有關的獨立的不同問題可以承載一個完全獨立的學習過程,其中的回憶和遺忘是完全不可預知的。讓我們看看把回憶的概率當作獨立的事件是如何影響復合記憶痕跡的[穩定性](https://supermemo.guru/wiki/Stability)的:
> (9.1) R=Ra*Rb
>
> 其中:
>
> - R - 二元復合記憶痕跡的[可提取性](https://supermemo.guru/wiki/Retrievability)
> - Ra 和 Rb - 兩個獨立的記憶痕跡子組分(子痕跡)的[可提取性](https://supermemo.guru/wiki/Retrievability):a 和 b
>
> (9.2) R=exp^-kt/Sa*exp^-kt/Sb=exp^-kt/S
>
> 其中:
>
> - t - 時間
> - k - ln(10/9)
> - S - 復合記憶痕跡的[穩定性](https://supermemo.guru/wiki/Stability)
> - Sa 和 Sb - 記憶子痕跡 a 和 b 的穩定性
>
> (9.3) -kt/S=-kt/Sa-kt/Sb=-kt(1/Sa+1/Sb)
>
> (9.4) S=Sa*Sb/(Sa+Sb)
我們使用公式 (9.4) 來進一步分析復合記憶痕跡。我們預計,如果最初,記憶子痕跡 Sa 和 Sb 的[穩定性](https://supermemo.guru/wiki/Stability)差別很大,隨后的[重復](https://supermemo.guru/wiki/Repetition),為最大化 S 而優化(即標準 R=0.9),可能會由于次優的復習時機而削弱子組分的[穩定性](https://supermemo.guru/wiki/Stability)。我們表明情況并非如此。在學習過程中,子穩定性傾向于收斂!
[](https://supermemo.guru/wiki/File:Memory_stability_for_complex_memories_and_memory_subtraces.png)
> 圖:在學習中保持簡單的記憶是至關重要的(見:[最小信息原則](https://supermemo.guru/wiki/Minimum_information_principle))。復雜的知識模型可以由簡單的記憶來表示。從長遠來看,簡單性可以提高記憶的保持力。簡單性對記憶的[穩定性](https://supermemo.guru/wiki/Stability)的影響是[記憶的雙組分模型](https://supermemo.guru/wiki/Two_component_model_of_memory)的一個重要貢獻,證明了[祖母細胞](https://supermemo.guru/wiki/Grandmother_cell)存在的必要性。人類的智慧依賴于一個概念圖系統,而概念圖的[穩定性](https://supermemo.guru/wiki/Stability)又歸功于個體記憶的簡單性
[復雜](https://supermemo.guru/wiki/Stability)記憶的[穩定性](https://supermemo.guru/wiki/Complexity)可以從[原子記憶](https://supermemo.guru/wiki/Atomic_memory)的子穩定性中得出
復雜記憶的記憶痕跡促成了長期保留知識的困難,這一事實暗示了新皮層不可能使用連接主義方法來儲存記憶。這是一個重要的新論據,證明了被稱為[祖母細胞](https://supermemo.guru/wiki/Grandmother_cell)的神經元的存在(更多信息見:[關于祖母細胞的真相](https://supermemo.guru/wiki/The_truth_about_grandmother_cells))。下面的圖片有助于理解記憶[概念化](https://supermemo.guru/wiki/Conceptualization)是如何隨時間推移而進行的:
[](https://supermemo.guru/wiki/File:Uncertain_course_of_the_stabilization_of_complex_memories.png)
> 圖:**復雜記憶的穩定化的不確定過程**。圖中顯示了以單個[概念細胞](https://supermemo.guru/wiki/Stabilization)的單一樹突輸入模式為例的[穩定化](https://supermemo.guru/wiki/Stabilization)、[遺忘](https://supermemo.guru/wiki/Forgetting)、[泛化](https://supermemo.guru/wiki/Generalization)和[干擾](https://supermemo.guru/wiki/Interference)的假想過程。神經元、樹突和樹突絲以橙色顯示。圖片沒有顯示樹突絲轉化為樹突棘的過程,樹突棘的形態隨著時間的推移會發生變化[穩定化](https://supermemo.guru/wiki/Stabilization)。方塊代表參與識別輸入模式的突觸。每個方塊顯示了突觸在[長期記憶的雙組分模型](https://supermemo.guru/wiki/Two_component_model_of_long-term_memory)方面的狀態。紅色的強度代表[可提取性](https://supermemo.guru/wiki/Retrievability)。藍色區域的大小代表[穩定性](https://supermemo.guru/wiki/Stability)。在記住一個復雜的記憶模式后,[概念細胞](https://supermemo.guru/wiki/Concept_cell)在收到來自紅色方塊的信號總和后能夠識別該模式,這些信號代表高[可提取性](https://supermemo.guru/wiki/Retrievability)和極低[穩定性](https://supermemo.guru/wiki/Stability)的新記憶。每次細胞被重新激活,活躍的輸入將經歷[穩定化](https://supermemo.guru/wiki/Stabilization),這表現在輸入方塊中藍色區域的增加。每次當概念細胞活躍時,信號沒有到達輸入端,其穩定性就會下降(泛化)。每次源軸突活躍而目標神經元未能發射,穩定性也會下降(競爭性干擾)。由于輸入到概念細胞的信號模式不均勻,一些突觸將被穩定下來,而另一些則會丟失。當一個突觸失去其穩定性和可提取性,以及相關的樹突棘被收回時,[遺忘](https://supermemo.guru/wiki/Forgetting)就會發生。當同一個[概念細胞](https://supermemo.guru/wiki/Concept_cell)可以用一個更小但更穩定的輸入模式重新激活時,[泛化](https://supermemo.guru/wiki/Generalization)就會發生。當一個新的輸入模式有助于忘記一些識別舊輸入模式所必需的冗余輸入時,就會發生追溯性[干擾](https://supermemo.guru/wiki/Interference)。舊模式的[穩定化](https://supermemo.guru/wiki/Stabilization)導致樹突絲的流動性降低,從而防止新模式接管[概念](https://supermemo.guru/wiki/Concept)(主動的[干擾](https://supermemo.guru/wiki/Interference))。在這個過程的每一端,一個穩定的、泛化性強的輸入模式是激活[概念細胞](https://supermemo.guru/wiki/Concept_cell)的充要條件。同一個細胞可以對不同的模式作出反應,只要它們是一致的、[穩定的](https://supermemo.guru/wiki/Stabilization)。在[間隔重復](https://supermemo.guru/wiki/Spaced_repetition)中,對[知識表征](https://supermemo.guru/wiki/Knowledge_representation)的選擇不當將導致激活模式的可重復性差,突觸的[穩定化](https://supermemo.guru/wiki/Stabilization)不均勻,以及[遺忘](https://supermemo.guru/wiki/Forgetting)。當輸入模式無法激活足夠多的突觸,從而無法重新激活[概念細胞](https://supermemo.guru/wiki/Concept_cell)時,就會發生對[項目](https://supermemo.guru/wiki/Item)的遺忘。在[重復](https://supermemo.guru/wiki/Repetition)時,根據上下文和[思路](https://supermemo.guru/wiki/Conceptual_computation),一個[項目](https://supermemo.guru/wiki/Item)可能被提取或遺忘。[復習](https://supermemo.guru/wiki/Repetition)的結果是不確定的
### 復合記憶痕跡的子穩定性收斂情況
在[間隔重復](https://supermemo.guru/wiki/Spaced_repetition)中模擬復雜記憶的行為很容易。復雜記憶的子穩定性趨于收斂,使得復習很低效,穩定性增長緩慢。現在我們可以證明,項目復雜到一定程度后,提升其記憶穩定性來實現長期[保留](https://supermemo.guru/wiki/Retention)的目標,是不可能的。簡而言之,要記住一本書,只能是循環往復地讀這本書,別無他法。這是一個徒勞的過程。
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
如果一個項目挖了兩個空,分別對應不同的知識點,以及兩個記憶痕跡,那么很難確定單次重復能夠均勻地激活這兩個記憶痕跡。不妨假設只有第一次重復對兩個記憶痕跡是不同的,其他的學習過程遵循上述公式進行。
為了研究在以 R=0.9 為標準的復合穩定性優化的復習模式下,記憶子痕跡的穩定性行為,讓我們采取以下手段:
- Sa=1
- Sb=30
- S=Sa*Sb/(Sa+Sb) (來自公式 9.4)
- *SInc*=*a*S*-b*\*e^*c*R+*d* (來自公式 [SInc2005](https://supermemo.guru/wiki/History_of_spaced_repetition_(print)#SInc2005))
- 通過 R=0.9 的復習鞏固復合記憶痕跡,使兩個子痕跡都得到同樣好的再鞏固(即對復合痕跡的復習不會忽略子痕跡)
從下圖中可以看出,復合痕跡的記憶穩定性總是小于單個子痕跡的穩定性;但是,子痕跡的穩定性會收斂。
[](https://supermemo.guru/wiki/File:Stabil4.gif)
> 圖:用相同的復習模式對整個復合記憶痕跡進行優化后,記憶子軌跡的穩定性趨于一致(即當復合可提取性達到 0.9 時,進行復習)。橫軸表示復習次數,縱軸表示[穩定性](https://supermemo.guru/wiki/Stability)的對數。藍線和紅線對應的是兩個子痕跡的穩定性,這兩個子痕跡在原始學習后的穩定性差距很大。黑線對應的是復合穩定性(S=Sa\*Sb/(Sa+Sb))。如果每次復習的結果都是對基礎突觸結構的統一激活,那么 Sa 和 Sb 之間的差異會自我糾正。
### 復合穩定性增長
存檔警告:[為什么使用文字檔案?](https://supermemo.guru/wiki/Why_use_literal_archives%3F)
現在讓我們弄清楚 *[SInc](https://supermemo.guru/wiki/Stability)* 對于復合穩定性 S 和子痕跡穩定性 Sa 和 Sb 的差異有多大?如果我們假設記憶子痕跡的刺激相同,并將 SInca 和 SIncb 記為 *i*,那么對于重復次數 r,我們有:
> SInca=SIncb=*i*
>
> Sa[r]=Sa[r-1]\**i*
> Sb[r]=Sb[r-1]\**i*
>
> S[r]=Sa[r]\*Sb[r]/(Sa[r]+Sb[r])=
> =Sa[r-1]\*Sb[r-1]**i*2/(Sa[r-1]\**i*+Sb[r-1]**i*)=
> =*i*\*(Sa[r-1]\*Sb[r-1])/(Sa[r-1]+Sb[r-1)=*i*\*S[r-1])
換句話說:
> (11.1) SInc=*i*=SInca=SIncb
以上表明,在所提出的模型中,假設記憶子痕跡的再鞏固程度相同,記憶穩定性的增長與知識的復雜性無關
**復合穩定性增長與子痕跡的穩定性增長是一樣的**
- CONTRIBUTING
- 我永遠不會送我的孩子去學校
- 01.前言
- 02.箴言
- 03.腦科學
- 04.學習內驅力
- 05.學校教育對學習內驅力的影響
- 06.學習內驅力和獎勵
- 07.學習內驅力與習得性無助
- 08.教育抵消進化
- 09.毒性記憶
- 10.為什么學校會失敗
- 11.最佳推動區
- 12.自然創造力周期
- 13.大腦進化
- 14.嬰兒管理
- 15.嬰兒的大腦怎樣不起作用
- 16.童年失憶癥
- 17.幼兒園的苦難
- 18.壓力適應力
- 19.童年的激情
- 20.為什么孩子們討厭學校
- 21.爬山類比
- 22.術語表
- 23.參考文獻
- 24.拓展閱讀
- 25.摘要
- 間隔重復的歷史
- 01.前言
- 02.1985 SuperMemo 的誕生
- 03.1986 SuperMemo 的第一步
- 04.1987 DOS 上的 SuperMemo 1.0
- 05.1988 記憶的兩個組成部分
- 06.1989 SuperMemo 適應用戶的記憶
- 07.1990 記憶的通用公式
- 08.1991 采用遺忘曲線
- 09.1994 遺忘的指數性質
- 10.1995 SuperMemo 多媒體
- 11.1997 采用神經網絡
- 12.1999 選擇名稱——間隔重復
- 13.2005 穩定性增長函數
- 14.2014 SM-17 算法
- 15.間隔重復的指數發展
- 16.記憶研究的摘要
- 17.剖析成功與失敗
- 18.尾聲