百度是如何給每個人免費提供2TB存儲空間?
2024-04-12 08:57:05
泡泡網資訊頻道4月29日 前段時間在使用百度網盤時,突然發現百度網盤可以免費領取 2TB 空間啦!網絡硬碟大家可能都或多或少的接觸過,不得不說在萬物皆雲的時代裡,這是一種非常好的網絡工具,而對我們這種窮到掉渣的免費用戶來說,硬碟空間簡直就是硬傷,剛開始使用的時候真是為了空間,各種折騰(做他那裡所謂的任務),到頭來也才擴充了5G左右。現在好了,隨隨便便、輕輕鬆鬆就有了2T的空間。
而這突如其來的2T空間是如何實現的呢?
事實是這樣滴!
假如我想要為每個用戶提供 1G 的網絡存儲空間。
如果伺服器上有一顆 1000G 的硬碟可以全部為用戶提供數據儲存,如果每個用戶分配 1G 的最大儲存空間,那麼能分配給多少個用戶使用呢?
你一定說是 1000/1=1000 個用戶。
但是事實上你這麼分配了,你會發現每個用戶平時根本不會上傳 1G 的東西將容量佔的滿滿的,有多有少,但平均用戶平時只上傳 50M 的文件,也就是說,如果你將 1000G 的硬碟分給 1000個人使用,但只有效利用了其中的 50M*1000=50G的空間,剩餘 950G 的空間基本都完全浪費了。
那麼怎麼解決呢?
你可以變通一下,將這 1000G 的空間分配給 20000個用戶使用,每個人的上傳上限容量還是1G,但每人平時還是平均上傳 50M 的數據,那麼 20000*50M=1000G,這下子就把寶貴的伺服器上的存儲空間充分利用了。但你又怕這樣分配給 20000個人後,萬一某一刻人們突然多上傳點數據,那麼用戶不是就覺察出來你分給人家的 1G 空間是假的了嗎?所以可以不分配那麼多人,只分配給 19000 人,剩下一些空間做應急之用。
突然發現一下子將可分配的用戶數量翻了 19倍啊,了不起。那還有沒有辦法更加有效的利用一下呢?
如果我有 1000個 以上的伺服器,一個伺服器上有 1000G空間,那麼我們每個伺服器上都要留下 50G 的空白空間以備用戶突然上傳大數據時導致數據塞滿的情況,那麼我這 1000個伺服器上就空出了 1000臺*50G=50000G 的空間被浪費了,多麼可惜。所以攻城獅們發明了存儲集群,使得一個用戶的數據可以被分配在多個伺服器上存儲,但在用戶那看起來只是一個 1G 的連續空間,那麼就沒必要在每個伺服器上預留出應急的空間了,甚至可以充分的將前一個伺服器塞滿後,在將數據往下一個伺服器中塞。這樣保證了伺服器空間的 最大利用,如果某一刻管理員發現用戶都在瘋狂上傳數據(在一個大規模用戶群下,這樣的概率少之又少)導致我現有提供的空間不夠了,沒關係,只需要隨手加幾塊硬碟或者伺服器就解決了。
好吧,這下子我們的伺服器空間利用高多了,可以將一定量的空間分配給最多的用戶使用了。但有沒有更好的改進方案呢?
管理員有一天發現,即使每個用戶平均下來只存儲 50M 的東西,但這 50M 也不是一蹴而就的,是隨著1-2年的使用慢慢的達到這個數量的,也就是說,一個新的用戶剛剛註冊我的網絡空間時,不會上傳東西,或者只上傳一點非常小的東西。那麼我為每一個用戶都初始分配了 50M 的空間,即使將來2年後他們會填滿這 50M ,但這期間的這空間就有很多是浪費的啊。所以聰明的攻城獅說:既然我們可以分布式、集群式存儲,一個用戶的數據可以分布在多個伺服器上,那麼我們就假設一開始就給一個新註冊的用戶提供 0M 的空間,將來他用多少,我就給他提供多少存儲空間,這樣就徹底的保證硬碟的利用了。但用戶的前端還是要顯示 1G 的。
工程師的這個點子,使得我在建立網盤初期能用 1臺 1000G 的伺服器提供了大約 1000000 人來註冊和使用,隨著註冊的人多了,我也有錢了,也可以不斷增加伺服器以提供他們後期的存儲了。同時因為一部分伺服器完成了一年多購買,我的購買成本也下來了。
那麼…這就結束了嗎?
若是郵箱提供商的話,這樣的利用率夠高了。但網盤就不一樣了。
聰明的工程師發現:不同於郵箱,大家的內容和附件絕大多數都是自創的和不同的。但網盤上大家上傳的東西很多都是重複的。
比如:張三今天下載了一部《TOKYO HOT》上傳到了自己的網盤上,李四在三天後也下載了一模一樣的《TOKYO HOT》上傳到了網絡硬碟上,隨著用戶的增多,你會發現總共有 1000個人上傳了1000份一模一樣的文件到你寶貴的伺服器空間上,所以工程師想出一個辦法,既然是一樣的文件,我就只存一份不久好啦,然後在用戶的前端顯示是沒人都有一份不久行啦。當某些用戶要刪除這個文件的時候,我並不真的刪除,只需要在前端顯示似乎刪除了,但後端一直保留著以供其他擁有此文件的用戶下載。直到所有使用此文件的用戶都刪除了這個文件我再真的將其刪除吧。
這樣子隨著存儲的數據越來越多,註冊的用戶越來越多,其上傳的重複數據越來越多。你發現這樣的檢測重複文件存儲的效率越來越大。這樣算下來似乎每個人上傳的不重複的文件只能平均 1M/用戶。這下子你可以提供超過50倍的用戶使用您這有限的空間了。
但伴隨著使用,你又發現一個規律:
張三上傳的《TOKYO HOT N0124》和李四上傳的《TH n124》是同一個文件,只不過文件名不一樣,難道我就不能識別出他們是一個文件,然後只將其分別給不同的用戶保存成不同的文件名不就行啦?確實可行,但這要利用一些識別文件相同性的算法,例如MD5值等。只要兩個文件的 MD5 值一樣,文件大小一樣,我就認為它們是相同的文件,只需要保存一份文件並給不同的用戶記作不同的文件名就好了。
有一天你發現,因為每一個文件都需要計算 MD5 值,導致 CPU 負荷很大,而且本來一樣的文件非要浪費帶寬上傳回來才可以檢測一致性,能改進一下嗎?
聰明的工程師寫了個小軟體或小插件,美其名曰「上傳控制項」,將計算 MD5 的工作利用這個軟體交給了上傳用戶的電腦來完成,一旦計算出用戶要上傳的數據和伺服器上已經存儲的某個數據是一樣的,就乾脆不用上傳了,直接在用戶那裡標記上這個文件已經按照 XX 文件名上傳成功了。這個過程幾乎是瞬間搞定了,並給其起了個高富帥的名字「秒傳」!
通過以上這麼多步驟,你發現本來你只能給 1000用戶提供網絡空間的,這麼多改進辦法後,在用戶端顯示 1G 空間不變的情況下,近乎可以為 1000000個用戶 提供網絡空間了。
這樣若是您哪天心情好,對外宣傳說:我要將每個用戶的存儲空間上限提升到 1TB。那麼每個用戶平均還是只上傳 50M 數據,只有極個別的用戶上傳了突破 1G 原始空間的數據,你會發現所付出的成本近乎是微乎其微的。
總得研究來說,百度雲的攻城溼們的確開動腦筋,格機格機格機了一番。不過即使這樣,個人估算百度雲投入也不小,國內帶寬每G每月至少幾萬,每天如此龐大的下載量,光帶寬成本每年投入絕對達到億體量,堪稱業內良心,且用且珍惜!
每次打開百度雲,就能想像,辛勤的攻城獅還在為如何更有效率的利用伺服器提供的磁碟空間在不屑努力和挖掘著……■