# Digg 建筑
> 原文: [http://highscalability.com/blog/2009/4/4/digg-architecture.html](http://highscalability.com/blog/2009/4/4/digg-architecture.html)
**更新 4:**:[由 Joe Stump 介紹 Digg 的 IDDB 基礎結構](http://blog.digg.com/?p=607)。 *IDDB 是一種在多個存儲服務器之間分區索引(例如整數序列和唯一字符索引)和實際表的方式(目前支持 MySQL 和 MemcacheDB,后面還會有更多內容)。*
**更新 3:**:[擴展 Digg 和其他 Web 應用程序](http://highscalability.com/scaling-digg-and-other-web-applications)。
**Update 2:**: [Digg 的工作方式](http://blog.digg.com/?p=168)和 [Digg 的實際工作方式](http://blog.digg.com/?p=177)(佩戴耳塞)。 直接從 Digg 的博客帶給您。 在跟蹤系統中的請求時,對 Digg 架構的主要元素進行了非常簡潔的解釋。 我已經使用新信息更新了此配置文件。
**更新:** [Digg 現在每月獲得 2.3 億以上的頁面瀏覽量和 2600 萬獨立訪問者-流量,這需要進行重大內部升級](http://www.readwriteweb.com/archives/digg_townhall_2_wrapup.php)。
Digg 的超過 2200 萬名著急信息的用戶和 2.3 億頁面訪問量所產生的訪問量,可能會毫無疑問地將網站直接撞入其 CPU,內存和帶寬限制。 Digg 每月如何處理數十億個請求?
網站:http://digg.com
## 信息來源
* [Digg 的工作原理](http://blog.digg.com/?p=168)作者 Digg* [Digg.com 如何使用 LAMP 堆棧向上擴展](http://www.computerworld.com/action/article.do?command=viewArticleBasic&articleId=9017778)* [Digg PHP 的可伸縮性和性能](http://www.oreillynet.com/onlamp/blog/2006/04/digg_phps_scalability_and_perf.html)
## 平臺
* 的 MySQL* 的 Linux* 的 PHP* Lucene* 蟒蛇* [APC PHP 加速器](http://us.php.net/apc)* [MCache](http://www.mohawksoft.org/?q=node/8)* [Gearman](http://www.danga.com/gearman/) -作業調度系統* [MogileFS](http://www.danga.com/mogilefs/) -開源分布式文件系統* 阿帕奇* Memcached
## 統計資料
* 從 2004 年末開始,當時只有一臺運行 Apache 1.3,PHP 4 和 MySQL 的 Linux 服務器。 4.0 使用默認的 MyISAM 存儲引擎* 超過 2200 萬用戶。* 每月超過 2.3 億的頁面瀏覽量* 每月 2600 萬唯一身份訪問者* 每月數十億的頁面瀏覽量* 所面臨的擴展挑戰都與 PHP 沒有任何關系。 面臨的最大問題是與數據庫有關的。* 數十個 Web 服務器。* 數十個數據庫服務器。* 六個專門的圖形數據庫服務器運行推薦引擎。* Six to ten machines that serve files from MogileFS.
## 里面有什么
* 專用的負載平衡器設備可監視應用程序服務器,處理故障轉移,根據運行狀況不斷調整群集,平衡傳入請求以及緩存 JavaScript,CSS 和圖像。 如果您沒有合適的負載均衡器,請查看 Linux Virtual Server 和 Squid 作為替代產品。* 請求被傳遞到 Application Server 群集。 應用程序服務器包括:Apache + PHP,Memcached,Gearman 和其他守護程序。 他們負責協調對不同服務(DB,MogileFS 等)的訪問,并創建發送到瀏覽器的響應。* 使用 MySQL 主從設置。
-四個主數據庫按功能劃分:升級,配置文件,注釋,主要。 每個主服務器都掛有許多從數據庫。
-寫入主機,讀取發送給從機。
-大量事務的服務器使用 InnoDB 存儲引擎。
-OLAP 繁重的服務器使用 MyISAM 存儲引擎。
-他們沒有注意到從 MySQL 4.1 到版本 5 的性能下降。
-與“您的平均數據庫設計”相比,該架構的規格化程度更高。
-分片用于將數據庫分為幾個較小的數據庫。* Digg 的使用模式使他們更易于擴展。 大多數人只是查看首頁而離開。 因此,Digg 的數據庫訪問中有 98%是讀取的。 憑借這種平衡的操作,他們不必擔心為寫入而設計的復雜工作,這使他們進行擴展變得容易得多。* 他們的存儲系統出現問題,告訴他們寫的確實不在磁盤上。 控制器這樣做是為了改善其性能外觀。 但是,這樣做的結果是在故障場景中保留了巨大的數據完整性。 這確實是一個非常普遍的問題,可能很難解決,具體取決于您的硬件設置。* 為了減輕數據庫負載,他們使用了 APC PHP 加速器 MCache。* Memcached 用于緩存,memcached 服務器似乎分布在其數據庫和應用程序服務器中。 專門的守護程序監視連接并終止打開時間過長的連接。* 您可以結合使用 Apache 2 的工作線程,FastCGI 和 PHP 加速器,將 PHP 配置為不在每次加載時進行解析和編譯。 在頁面的第一次加載中,將編譯 PHP 代碼,因此任何后續頁面加載都非常快。* MogileFS 是一種分布式文件系統,提供故事圖標,用戶圖標,并存儲每個故事來源的副本。 分布式文件系統在許多磁盤上分布和復制文件,從而支持快速和可擴展的文件訪問。* 建立了專門的推薦引擎服務以充當其分布式圖形數據庫。 關系數據庫的結構不佳,無法生成建議,因此創建了單獨的服務。 LinkedIn 為他們的圖表做了類似的事情。
## 得到教訓
* 機器的數量并不重要,它們是什么以及它們如何組裝在一起。* 不要把數據庫當作錘子。 建議與關系模型不符,因此他們提供了專門的服務。* 通過選擇數據庫引擎來調整 MySQL。 在需要事務時使用 InnoDB,在不需要事務時使用 MyISAM。 例如,主服務器上的事務表可以將 MyISAM 用于只讀從服務器。* 在增長曲線的某個時刻,他們無法通過添加 RAM 來增長,因此必須通過架構來增長。* 人們經常抱怨 Digg 很慢。 這可能是由于其龐大的 javascript 庫而不是其后端體系結構。* 他們擴展的一種方法是注意在系統上部署的應用程序。 他們注意不要釋放使用過多 CPU 的應用程序。 顯然,Digg 具有一個相當標準的 LAMP 體系結構,但是我認為這很有趣。 工程師通常有很多很酷的功能要發布,但是如果這些功能不能隨功能一起增長,那么這些功能可能會破壞該功能。 因此,請向后推,直到系統可以處理新功能為止。 這涉及容量規劃,這是 Flickr 在擴展過程中強調的內容。* 您是否想知道,通過限制新功能以匹配其基礎架構,Digg 可能會與其他快速發展的社交書簽服務相比而失去優勢嗎? 也許,如果基礎架構更容易擴展,他們可以更快地添加功能以幫助他們更好地競爭嗎? 另一方面,僅添加功能是因為您也沒有任何意義。
在數據層中,最容易發現擴展性和性能問題,并且這些問題是特定于語言的。 您將使用 Java,PHP,Ruby 或它們插入您喜歡的語言。
## 相關文章
* [LinkedIn 架構](http://highscalability.com/linkedin-architecture-0)
* [](http://highscalability.com/linkedin-architecture-0)[實時日志體系結構](http://highscalability.com/livejournal-architecture)
* [Flickr 架構](http://highscalability.com/flickr-architecture)
* [數據庫設計的非傳統方法:碎片](http://highscalability.com/unorthodox-approach-database-design-coming-shard)的來臨
* [Ebay 架構](http://highscalability.com/ebay-architecture)
是的,為什么 digg 只有 30 GB 的數據? 如果這份報告是真實的,我會很高興。
30gb 是數據庫數據,是 HUUUUUGE!
我已經寫博客了將近 4 年,而我只使用了大約 15 mb 的數據庫數據。
30 gb 的數據庫數據非常龐大。
如果他們僅跟蹤有關其 120 萬用戶的一些歷史數據,則 30 gb 的數據庫并不多。
我不相信。 Digg 需要的容量遠遠超過此處顯示的 30GB 數據(無論如何)。
您想知道為什么“只有” 30GB 嗎? 數據庫是文本。 字符是一個字節。 算一算。
也許我會一個人,但對我來說,沒有什么值得驕傲的。 它看起來像是標準的美國公司,那里的箱子比人的便宜,因此,購買 EXPLAIN 命令更容易購買 100 臺服務器,然后只需支付 10 人即可。
您可能來自某個時代,當時您確實必須竭盡全力從硬件中獲得所有性能提升。 但是,(某種程度上)事實是,成本/收益分析正朝著僅將更多硬件投入問題的方向發展。 工程師,特別是優秀的工程師,并不便宜。 硬件是。 因此,雖然您可能不會留下深刻的印象,但我發現知道何時花更少的錢來完成同一任務“智能”。
現在,這并不意味著應該放棄適當的數據庫設計。 實際上,在關系,約束,索引等方面,我有點加法。但是有時候,做具有成本效益的事情才有意義,我希望這就是 digg 所做的。
哇,直到現在我才意識到我的最后一個問題有多糟。
最后一件事,要水平縮放實際上需要花費很多精力。 僅僅因為他們使用了很多盒子,并不意味著他們沒有在整個系統架構和數據庫設計上花費很多時間和精力。 這是我目前正在設計的系統可以做到的事情,并不是這樣,所以我不必擔心優化代碼,這樣我就可以進行容量規劃和購買資源,以逐步處理增加的負載并節省成本。 我發現能夠做到這一點令人印象深刻。
他指的 30 GB 可能是每個群集節點上所需的空間。 OS +應用程序等
我將是第一個不同意的人。 首先,如果沒有合適的人設計整個體系結構,那么在一個問題上丟箱子只會增加您的電費。 我已經看到了與客戶的第一手資料。 實際上,我已經看到使用集群的“解決方案”實際上降低了性能,因為設計反表明集群的使用(換句話說,它不是可擴展的設計)。
就個人而言,我寧愿選擇一些架構師和管理員以及許多功能強大的機器,而不是忙于工作人員并且沒有足夠的服務器資源。 :)
-
Dustin Puryear
作者, [http://www.puryear-it.com/pubs/linux-unix-best-practices“](<a rel=) >管理 Linux 和 UNIX 的最佳做法 服務器
[http://www.puryear-it.com“](<a rel=) > [http://www.puryear-it.com](http://www.puryear-it.com)
Digg 使用哪種負載均衡解決方案/產品?
確定他們可以廉價地添加服務器,但是每月要有 100 臺服務器才能獲得 2 億次觀看? 相比之下,每月有 2 箱裝滿大量魚的魚有 1.1B 次瀏覽,digg sux?
知道 Digg 使用哪種形式的 FastCGI? 或者其他人用于 PHP / Apache 配置?
為了清理。 30GB 的數據庫*為 closal* 。 在 DIGG 上,您只需要在數據庫中存儲一個簡短的標題,簡短的上下文,鏈接 URL,日期,作者以及 Diggs 的數目,也就是這樣。 然后再添加一些用戶帳戶數據...沒什么。 30 GB 為 30,000,000,000 字節(大約),每個字符為一個字節(UTF8)
我的意思是,對于**來說,對于**,30GB 聽起來可能很小,因為您存儲視頻/音樂/游戲,但是我們在這里談論的是純文本。 克服它。
一個 30GB 的數據庫確實不是那么大。
您忘記了該網站不僅存儲了數字,還存儲了誰,誰評論了哪些評論,最有可能存儲點擊(我懷疑他們用來檢測欺詐)。 一個受歡迎的故事可能包含數千個挖掘,然后評論中包含數千個挖掘。 此數據已全部存儲。
我們還知道 digg 正在分片,因此我懷疑數據庫的大小遠大于此大小。
我相信 BIG-IP :)
我非常懷疑這是真的,他們使用兩個框進行的瀏覽量可能不足 2000 萬。
我曾與銀行的 MS SQL Server 合作,主要開發了業務核心和 BI 應用程序,其中 SQL Server MDF 已達到 100GB 以上。 該數據庫在 5 個奇數年的時間內跟蹤了每個客戶針對每個帳戶進行的每筆交易。 那就好 那就是 SQL2000。它的速度非常快。 SQL Server 和可靠,可靠的企業體系結構是在.NET 框架>上開發的。 認為他可以使用其他(劣等)工具集可以做得更好的任何反 MS 專家,只是在做夢。
如前所述-30GB 是一個很大的數據庫。 我不會說巨大,因為(對我而言)意味著在其界限的邊緣沒有任何增長空間的東西。 但是,數據庫很大。
在 www.freecrm.com 上,我們在 1 臺快速服務器上的 mySql 5 設置上達到了 30GB 的數據庫大小,但是在修剪了舊的電子郵件日志后,我們將其減少到 18GB 左右。 在超過 60,000 個用戶的 CRM 應用程序中,這已超過 4 年的大量使用。 到目前為止,mySql 可以順利進行,并且到目前為止,任何慢速查詢都是由于索引不足。
-Harel Malka ------------------------
[http://www.harelmalka.com](http://www.harelmalka.com)
[http://www.freecrm.com](http://www.freecrm.com)
[http://www.kadoink.com](http://www.kadoink.com)
與我管理的數據庫相比,30gb 很小。
我管理的大多數生產數據庫的范圍從 600gb 到 2tb 不等,所有數據庫都運行 Oracle 10g。
這些網站大多數都有麻煩,因為他們選擇 mysql 而不是真實的數據庫。
像 Bebo 這樣的使用 Oracle 的網站都可以很好地擴展。 Bebo.com 的基礎架構每天僅使用 6 cpus 即可支持超過 1 億個網站頁面瀏覽量和每天約 120 萬張圖片上傳。
鏈接在這里:
[http://searchoracle.techtarget.com/originalContent/0,289142,sid41_gci1241597,00.html](http://searchoracle.techtarget.com/originalContent/0,289142,sid41_gci1241597,00.html)
Lucene 數據的大小是多少?
每個人都可能想注意到任何人說 30gb 是大型甚至中型的。 當涉及到與高可伸縮性相關的任何事情時,您可能不希望聽取他們的意見。 對于他們來說,顯然并不需要擴展。
我想進一步了解他們如何/為什么使用 MCache。 APC 應該適合本地服務器緩存,memcached 適合分布式緩存。 MCache 有什么幫助? 我曾經使用過 msession,在每個頁面上都有一些奇怪的啟動開銷。 我改用 MySQL 進行會話,而不是使用 msession,這很棒。 我不確定為什么他們將 MCache 添加到組合中,并且想知道如何以及為什么...
我猜每個服務器都有 30G
我認為將 30GB 的內存稱為小型磁盤的意義在于,您可以購買具有 128GB 以上的 RAM 的計算機,并將整個數據庫放入緩存中。
考慮到戴爾提供的具有 32GB RAM 的四核 opteron 的價格為 6600 美元,看來浪費在 memcached 以及所有這些 Web 服務器上的資源,據我的數學計算,每秒 77 個請求有點過分。
- LiveJournal 體系結構
- mixi.jp 體系結構
- 友誼建筑
- FeedBurner 體系結構
- GoogleTalk 架構
- ThemBid 架構
- 使用 Amazon 服務以 100 美元的價格構建無限可擴展的基礎架構
- TypePad 建筑
- 維基媒體架構
- Joost 網絡架構
- 亞馬遜建筑
- Fotolog 擴展成功的秘訣
- 普恩斯的教訓-早期
- 論文:Wikipedia 的站點內部,配置,代碼示例和管理問題
- 擴大早期創業規模
- Feedblendr 架構-使用 EC2 進行擴展
- Slashdot Architecture-互聯網的老人如何學會擴展
- Flickr 架構
- Tailrank 架構-了解如何在整個徽標范圍內跟蹤模因
- Ruby on Rails 如何在 550k 網頁瀏覽中幸存
- Mailinator 架構
- Rackspace 現在如何使用 MapReduce 和 Hadoop 查詢 TB 的數據
- Yandex 架構
- YouTube 架構
- Skype 計劃 PostgreSQL 擴展到 10 億用戶
- 易趣建筑
- FaceStat 的禍根與智慧贏得了勝利
- Flickr 的聯合會:每天進行數十億次查詢
- EVE 在線架構
- Notify.me 體系結構-同步性
- Google 架構
- 第二人生架構-網格
- MySpace 體系結構
- 擴展 Digg 和其他 Web 應用程序
- Digg 建筑
- 在 Amazon EC2 中部署大規模基礎架構的六個經驗教訓
- Wolfram | Alpha 建筑
- 為什么 Facebook,Digg 和 Twitter 很難擴展?
- 全球范圍擴展的 10 個 eBay 秘密
- BuddyPoke 如何使用 Google App Engine 在 Facebook 上擴展
- 《 FarmVille》如何擴展以每月收獲 7500 萬玩家
- Twitter 計劃分析 1000 億條推文
- MySpace 如何與 100 萬個并發用戶一起測試其實時站點
- FarmVille 如何擴展-后續
- Justin.tv 的實時視頻廣播架構
- 策略:緩存 404 在服務器時間上節省了洋蔥 66%
- Poppen.de 建筑
- MocoSpace Architecture-一個月有 30 億個移動頁面瀏覽量
- Sify.com 體系結構-每秒 3900 個請求的門戶
- 每月將 Reddit 打造為 2.7 億頁面瀏覽量時汲取的 7 個教訓
- Playfish 的社交游戲架構-每月有 5000 萬用戶并且不斷增長
- 擴展 BBC iPlayer 的 6 種策略
- Facebook 的新實時消息系統:HBase 每月可存儲 135 億條消息
- Pinboard.in Architecture-付費玩以保持系統小巧
- BankSimple 迷你架構-使用下一代工具鏈
- Riak 的 Bitcask-用于快速鍵/值數據的日志結構哈希表
- Mollom 體系結構-每秒以 100 個請求殺死超過 3.73 億個垃圾郵件
- Wordnik-MongoDB 和 Scala 上每天有 1000 萬個 API 請求
- Node.js 成為堆棧的一部分了嗎? SimpleGeo 說是的。
- 堆棧溢出體系結構更新-現在每月有 9500 萬頁面瀏覽量
- Medialets 體系結構-擊敗艱巨的移動設備數據
- Facebook 的新實時分析系統:HBase 每天處理 200 億個事件
- Microsoft Stack 是否殺死了 MySpace?
- Viddler Architecture-每天嵌入 700 萬個和 1500 Req / Sec 高峰
- Facebook:用于擴展數十億條消息的示例規范架構
- Evernote Architecture-每天有 900 萬用戶和 1.5 億個請求
- TripAdvisor 的短
- TripAdvisor 架構-4,000 萬訪客,200M 動態頁面瀏覽,30TB 數據
- ATMCash 利用虛擬化實現安全性-不變性和還原
- Google+是使用您也可以使用的工具構建的:閉包,Java Servlet,JavaScript,BigTable,Colossus,快速周轉
- 新的文物建筑-每天收集 20 億多個指標
- Peecho Architecture-鞋帶上的可擴展性
- 標記式架構-擴展到 1 億用戶,1000 臺服務器和 50 億個頁面視圖
- 論文:Akamai 網絡-70 個國家/地區的 61,000 臺服務器,1,000 個網絡
- 策略:在 S3 或 GitHub 上運行可擴展,可用且廉價的靜態站點
- Pud 是反堆棧-Windows,CFML,Dropbox,Xeround,JungleDisk,ELB
- 用于擴展 Turntable.fm 和 Labmeeting 的數百萬用戶的 17 種技術
- StackExchange 體系結構更新-平穩運行,Amazon 4x 更昂貴
- DataSift 體系結構:每秒進行 120,000 條推文的實時數據挖掘
- Instagram 架構:1400 萬用戶,1 TB 的照片,數百個實例,數十種技術
- PlentyOfFish 更新-每月 60 億次瀏覽量和 320 億張圖片
- Etsy Saga:從筒倉到開心到一個月的瀏覽量達到數十億
- 數據范圍項目-6PB 存儲,500GBytes / sec 順序 IO,20M IOPS,130TFlops
- 99designs 的設計-數以千萬計的綜合瀏覽量
- Tumblr Architecture-150 億頁面瀏覽量一個月,比 Twitter 更難擴展
- Berkeley DB 體系結構-NoSQL 很酷之前的 NoSQL
- Pixable Architecture-每天對 2000 萬張照片進行爬網,分析和排名
- LinkedIn:使用 Databus 創建低延遲更改數據捕獲系統
- 在 30 分鐘內進行 7 年的 YouTube 可擴展性課程
- YouPorn-每天定位 2 億次觀看
- Instagram 架構更新:Instagram 有何新功能?
- 搜索技術剖析:blekko 的 NoSQL 數據庫
- Pinterest 體系結構更新-1800 萬訪問者,增長 10 倍,擁有 12 名員工,410 TB 數據
- 搜索技術剖析:使用組合器爬行
- iDoneThis-從頭開始擴展基于電子郵件的應用程序
- StubHub 體系結構:全球最大的票務市場背后的驚人復雜性
- FictionPress:在網絡上發布 600 萬本小說
- Cinchcast 體系結構-每天產生 1,500 小時的音頻
- 棱柱架構-使用社交網絡上的機器學習來弄清您應該在網絡上閱讀的內容
- 棱鏡更新:基于文檔和用戶的機器學習
- Zoosk-實時通信背后的工程
- WordPress.com 使用 NGINX 服務 70,000 req / sec 和超過 15 Gbit / sec 的流量
- 史詩般的 TripAdvisor 更新:為什么不在云上運行? 盛大的實驗
- UltraDNS 如何處理數十萬個區域和數千萬條記錄
- 更簡單,更便宜,更快:Playtomic 從.NET 遷移到 Node 和 Heroku
- Spanner-關于程序員使用 NoSQL 規模的 SQL 語義構建應用程序
- BigData 使用 Erlang,C 和 Lisp 對抗移動數據海嘯
- 分析數十億筆信用卡交易并在云中提供低延遲的見解
- MongoDB 和 GridFS 用于內部和內部數據中心數據復制
- 每天處理 1 億個像素-少量競爭會導致大規模問題
- DuckDuckGo 體系結構-每天進行 100 萬次深度搜索并不斷增長
- SongPop 在 GAE 上可擴展至 100 萬活躍用戶,表明 PaaS 未通過
- Iron.io 從 Ruby 遷移到 Go:減少了 28 臺服務器并避免了巨大的 Clusterf ** ks
- 可汗學院支票簿每月在 GAE 上擴展至 600 萬用戶
- 在破壞之前先檢查自己-鱷梨的建筑演進的 5 個早期階段
- 縮放 Pinterest-兩年內每月從 0 到十億的頁面瀏覽量
- Facebook 的網絡秘密
- 神話:埃里克·布魯爾(Eric Brewer)談銀行為什么不是堿-可用性就是收入
- 一千萬個并發連接的秘密-內核是問題,而不是解決方案
- GOV.UK-不是你父親的書庫
- 縮放郵箱-在 6 周內從 0 到 100 萬用戶,每天 1 億條消息
- 在 Yelp 上利用云計算-每月訪問量為 1.02 億,評論量為 3900 萬
- 每臺服務器將 PHP 擴展到 30,000 個并發用戶的 5 條 Rockin'Tips
- Twitter 的架構用于在 5 秒內處理 1.5 億活躍用戶,300K QPS,22 MB / S Firehose 以及發送推文
- Salesforce Architecture-他們每天如何處理 13 億筆交易
- 擴大流量的設計決策
- ESPN 的架構規模-每秒以 100,000 Duh Nuh Nuhs 運行
- 如何制作無限可擴展的關系數據庫管理系統(RDBMS)
- Bazaarvoice 的架構每月發展到 500M 唯一用戶
- HipChat 如何使用 ElasticSearch 和 Redis 存儲和索引數十億條消息
- NYTimes 架構:無頭,無主控,無單點故障
- 接下來的大型聲音如何使用 Hadoop 數據版本控制系統跟蹤萬億首歌曲的播放,喜歡和更多內容
- Google 如何備份 Internet 和數十億字節的其他數據
- 從 HackerEarth 用 Apache 擴展 Python 和 Django 的 13 個簡單技巧
- AOL.com 體系結構如何發展到 99.999%的可用性,每天 800 萬的訪問者和每秒 200,000 個請求
- Facebook 以 190 億美元的價格收購了 WhatsApp 體系結構
- 使用 AWS,Scala,Akka,Play,MongoDB 和 Elasticsearch 構建社交音樂服務
- 大,小,熱還是冷-條帶,Tapad,Etsy 和 Square 的健壯數據管道示例
- WhatsApp 如何每秒吸引近 5 億用戶,11,000 內核和 7,000 萬條消息
- Disqus 如何以每秒 165K 的消息和小于 0.2 秒的延遲進行實時處理
- 關于 Disqus 的更新:它仍然是實時的,但是 Go 摧毀了 Python
- 關于 Wayback 機器如何在銀河系中存儲比明星更多的頁面的簡短說明
- 在 PagerDuty 遷移到 EC2 中的 XtraDB 群集
- 擴展世界杯-Gambify 如何與 2 人組成的團隊一起運行大型移動投注應用程序
- 一點點:建立一個可處理每月 60 億次點擊的分布式系統的經驗教訓
- StackOverflow 更新:一個月有 5.6 億次網頁瀏覽,25 臺服務器,而這一切都與性能有關
- Tumblr:哈希處理每秒 23,000 個博客請求的方式
- 使用 HAProxy,PHP,Redis 和 MySQL 處理 10 億個請求的簡便方法來構建成長型啟動架構
- MixRadio 體系結構-兼顧各種服務
- Twitter 如何使用 Redis 進行擴展-105TB RAM,39MM QPS,10,000 多個實例
- 正確處理事情:通過即時重放查看集中式系統與分散式系統
- Instagram 提高了其應用程序的性能。 這是如何做。
- Clay.io 如何使用 AWS,Docker,HAProxy 和 Lots 建立其 10 倍架構
- 英雄聯盟如何將聊天擴大到 7000 萬玩家-需要很多小兵。
- Wix 的 Nifty Architecture 技巧-大規模構建發布平臺
- Aeron:我們真的需要另一個消息傳遞系統嗎?
- 機器:惠普基于憶阻器的新型數據中心規模計算機-一切仍在變化
- AWS 的驚人規模及其對云的未來意味著什么
- Vinted 體系結構:每天部署數百次,以保持繁忙的門戶穩定
- 將 Kim Kardashian 擴展到 1 億個頁面
- HappyPancake:建立簡單可擴展基金會的回顧
- 阿爾及利亞分布式搜索網絡的體系結構
- AppLovin:通過每天處理 300 億個請求向全球移動消費者進行營銷
- Swiftype 如何以及為何從 EC2 遷移到真實硬件
- 我們如何擴展 VividCortex 的后端系統
- Appknox 架構-從 AWS 切換到 Google Cloud
- 阿爾及利亞通往全球 API 的憤怒之路
- 阿爾及利亞通往全球 API 步驟的憤怒之路第 2 部分
- 為社交產品設計后端
- 阿爾及利亞通往全球 API 第 3 部分的憤怒之路
- Google 如何創造只有他們才能創造的驚人的數據中心網絡
- Autodesk 如何在 Mesos 上實施可擴展事件
- 構建全球分布式,關鍵任務應用程序:Trenches 部分的經驗教訓 1
- 構建全球分布式,關鍵任務應用程序:Trenches 第 2 部分的經驗教訓
- 需要物聯網嗎? 這是美國一家主要公用事業公司從 550 萬米以上收集電力數據的方式
- Uber 如何擴展其實時市場平臺
- 優步變得非常規:使用司機電話作為備份數據中心
- 在不到五分鐘的時間里,Facebook 如何告訴您的朋友您在災難中很安全
- Zappos 的網站與 Amazon 集成后凍結了兩年
- 為在現代時代構建可擴展的有狀態服務提供依據
- 細分:使用 Docker,ECS 和 Terraform 重建基礎架構
- 十年 IT 失敗的五個教訓
- Shopify 如何擴展以處理來自 Kanye West 和 Superbowl 的 Flash 銷售
- 整個 Netflix 堆棧的 360 度視圖
- Wistia 如何每小時處理數百萬個請求并處理豐富的視頻分析
- Google 和 eBay 關于構建微服務生態系統的深刻教訓
- 無服務器啟動-服務器崩潰!
- 在 Amazon AWS 上擴展至 1100 萬以上用戶的入門指南
- 為 David Guetta 建立無限可擴展的在線錄制活動
- Tinder:最大的推薦引擎之一如何決定您接下來會看到誰?
- 如何使用微服務建立財產管理系統集成
- Egnyte 體系結構:構建和擴展多 PB 分布式系統的經驗教訓
- Zapier 如何自動化數十億個工作流自動化任務的旅程
- Jeff Dean 在 Google 進行大規模深度學習
- 如今 Etsy 的架構是什么樣的?
- 我們如何在 Mail.Ru Cloud 中實現視頻播放器
- Twitter 如何每秒處理 3,000 張圖像
- 每天可處理數百萬個請求的圖像優化技術
- Facebook 如何向 80 萬同時觀看者直播
- Google 如何針對行星級基礎設施進行行星級工程設計?
- 為 Mail.Ru Group 的電子郵件服務實施反垃圾郵件的貓捉老鼠的故事,以及 Tarantool 與此相關的內容
- The Dollar Shave Club Architecture Unilever 以 10 億美元的價格被收購
- Uber 如何使用 Mesos 和 Cassandra 跨多個數據中心每秒管理一百萬個寫入
- 從將 Uber 擴展到 2000 名工程師,1000 個服務和 8000 個 Git 存儲庫獲得的經驗教訓
- QuickBooks 平臺
- 美國大選期間城市飛艇如何擴展到 25 億個通知
- Probot 的體系結構-我的 Slack 和 Messenger Bot 用于回答問題
- AdStage 從 Heroku 遷移到 AWS
- 為何將 Morningstar 遷移到云端:降低 97%的成本
- ButterCMS 體系結構:關鍵任務 API 每月可處理數百萬個請求
- Netflix:按下 Play 會發生什么?
- ipdata 如何以每月 150 美元的價格為來自 10 個無限擴展的全球端點的 2500 萬個 API 調用提供服務
- 每天為 1000 億個事件賦予意義-Teads 的 Analytics(分析)管道
- Auth0 體系結構:在多個云提供商和地區中運行
- 從裸機到 Kubernetes
- Egnyte Architecture:構建和擴展多 PB 內容平臺的經驗教訓
- 縮放原理
- TripleLift 如何建立 Adtech 數據管道每天處理數十億個事件
- Tinder:最大的推薦引擎之一如何決定您接下來會看到誰?
- 如何使用微服務建立財產管理系統集成
- Egnyte 體系結構:構建和擴展多 PB 分布式系統的經驗教訓
- Zapier 如何自動化數十億個工作流自動化任務的旅程
- Jeff Dean 在 Google 進行大規模深度學習
- 如今 Etsy 的架構是什么樣的?
- 我們如何在 Mail.Ru Cloud 中實現視頻播放器
- Twitter 如何每秒處理 3,000 張圖像
- 每天可處理數百萬個請求的圖像優化技術
- Facebook 如何向 80 萬同時觀看者直播
- Google 如何針對行星級基礎設施進行行星級工程設計?
- 為 Mail.Ru Group 的電子郵件服務實施反垃圾郵件的貓捉老鼠的故事,以及 Tarantool 與此相關的內容
- The Dollar Shave Club Architecture Unilever 以 10 億美元的價格被收購
- Uber 如何使用 Mesos 和 Cassandra 跨多個數據中心每秒管理一百萬個寫入
- 從將 Uber 擴展到 2000 名工程師,1000 個服務和 8000 個 Git 存儲庫獲得的經驗教訓
- QuickBooks 平臺
- 美國大選期間城市飛艇如何擴展到 25 億條通知
- Probot 的體系結構-我的 Slack 和 Messenger Bot 用于回答問題
- AdStage 從 Heroku 遷移到 AWS
- 為何將 Morningstar 遷移到云端:降低 97%的成本
- ButterCMS 體系結構:關鍵任務 API 每月可處理數百萬個請求
- Netflix:按下 Play 會發生什么?
- ipdata 如何以每月 150 美元的價格為來自 10 個無限擴展的全球端點的 2500 萬個 API 調用提供服務
- 每天為 1000 億個事件賦予意義-Teads 的 Analytics(分析)管道
- Auth0 體系結構:在多個云提供商和地區中運行
- 從裸機到 Kubernetes
- Egnyte Architecture:構建和擴展多 PB 內容平臺的經驗教訓