當前位置:首頁 » 硬碟大全 » 萬兆緩存伺服器
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

萬兆緩存伺服器

發布時間: 2023-06-02 02:15:24

㈠ vmware esxi6.7 萬兆網卡丟包

虛擬機的網路在突發大量訪問的情況下,可能會發生多個包丟失。
需要調整虛擬機的網路設置。首先,確認虛擬機使用了VMXNET3虛擬網卡驅動。這樣,在Linux宿主機的特定情況下,當大數據文件在高帶寬的網路上傳輸時會發生多數據包丟失。關閉接收和轉發校驗總和可以解決這種情況。因為校驗總和的作用是停止錯誤包的發送,這樣做會增加風險。考慮到乙太網卡的團灶茄辯拿錯誤率塌察通常低於百萬分之一,風險的級別並不高。
如果依然存在丟包問題,嘗試用ethtool工具增加接收隊列的緩沖區大小。默認情況下,緩存設為256,可以設置的最大值為4096。重新設置緩存大小為512,使用命令ethtool-Geth0512。如果結果不理想,嘗試更大的值。

㈡ 網頁訪問人數過多進不去有什麼方法能進去嗎

這個沒有什麼好的方法,只能刷新,你可以試試使用VPN換到別的地區嘗試看看訪問可以進去不。要想解決你們進不去的問題,需要伺服器那邊多開線程和伺服器進行分流,增加伺服器的配置,這樣資源流量再多,也不會卡頓,宕機。

伺服器升級:

1、硬碟

一般情況下,伺服器出廠後,都是建議至少3塊硬碟做raid5的。同時,在幾年的使用後,硬碟損壞的概率是最大的,所以升級伺服器,建議最先升級硬碟,畢竟數據無價。

可以換8個機械硬碟做raid5,也可以用6個機械硬碟做raid5,留兩個裝SSD做緩存。都是不錯的選擇,但是記住,如果這台伺服器你是做計算節點無所謂,要是做存儲節點,那麼升級的時候硬碟是要優先考慮的。

2、內存

很多時候,內存會是你伺服器的致命傷。因為內存不足的時候,多數情況下系統會使用硬碟做虛擬內存當作緩存使用。這個時候,硬碟的慘叫就尤為刺耳了。好在,伺服器大多都支持很大的內存,一般買伺服器的時候也不會買滿配的。

3、CPU

作為伺服器的計算能力,CPU的低速才真的是對時間的浪費。

4、網卡

伺服器始終不是會是對一個顯示器單獨使用的,要多人使用一台或多台伺服器,那麼數據必然會從網卡交換。 網卡的老舊,同樣會很影響伺服器使用的體驗。當然,你升級的萬兆網口後,對應的交換機也要升級萬兆的,網線也要升級,不然也會出現瓶頸。

5、電源

只要是伺服器廠商出的機器,電源沒有誰敢用渣的,畢竟波紋不穩炸四方。 介於是升級老伺服器,建議還是升級下電源,搞兩個相同功率的的電源做冗餘。

6、散熱

老的伺服器如果不是放在無塵機房,到要升級的年紀了,內心一般也是很污了。 但是不建議你清理灰塵。常言道:灰塵已經與主板達到動態平衡了。你要覺得哪個風扇響得很,就換下風扇吧。

㈢ 八盤位NAS上幾個硬碟能達到萬兆

1、主板:超微X10DRL-i

2、CPU:E5 2650L v3*2

2、內存:4*8g DDR4 REG ECC(SK Hynix HMA41GR7MFR8N-TF)

4*16g DDR4 REG ECC(Samsung M393A2G40DB0-CPB)

3、陣列卡:LSI 9208-8i IT模式(共有兩塊,只使用了一塊)

4、硬碟:8*日立HUS72302CLAR2000

5、電源:長城巨龍EPS1000DA

6、機箱:TT W200(對硬碟散熱使用了7把12cm風扇保證散熱)

軟體平台:

系統:Ubuntu Server 20.04.1 LTS

zfs陣列使用OpenZFS on linux v2.0.4

其餘raid陣列使用mdadm創建

測試腳本

本次測試均使用script命令記錄測試結果

創建mdadm陣列使用如下腳本:

mdadm --create --verbose /dev/md1 -level=$level --raid-devices=$i --chunk=$chunk /dev/sd$j
其中$level與$chunk對應raid類型和chunk大小(條帶大小),$i和$j則因為有部分測試只使用4塊硬碟測試,使用md1因為操作系統安裝在由兩塊ssd(sda、sdb)以raid1組成的md0陣列上

創建文件系統,使用ext4文件系統:

mkdir -p /pool_0
yes | mkfs.ext4 -F /dev/md1
yes | mount -t ext4 /dev/md1 /pool_0
清理陣列:

mdadm --stop /dev/md1
mdadm --misc --zero-superblock /dev/sd$j
創建zfs陣列使用如下腳本:

zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh /dev/sdi /dev/sdj

zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf $raid-level /dev/sdg /dev/sdh /dev/sdi /dev/sdj
第二種方式用於組建如raidz0等跨越陣列時使用

因為zfs自動創建掛載點,故測試時直接使用默認掛載點測試

清理陣列:

zpool destroy pool_0
sgdisk --zap-all /dev/sd$j
測速命令:

dd if=/dev/zero of=/pool_0 bs=$bs count=10000
$bs為塊大小,分別測試了512,4k,8和1m下的速度

命令重復5次,去掉最大值和最小值計算平均值作為最終結果

另外還進行了每塊硬碟單獨測速,同樣使用ext4文件系統

測試結果

各硬碟測試結果
雖然這批硬碟都是二手貼標盤,但是測試速度還是可以的,除了作為二手盤的一些毛病外(之後會提到)。

接下來是陣列速度的測試,以下測試中,以8塊硬碟或4塊硬碟使用mdadm創建了raid0,5,6,10和使用zfs創建raid z1,z2,z3,2*z1,strip(等於raid0),mirror+strip(等於raid10),分別測試了mdadm設置不同chunk大小對速度的影響(不帶chunk的則為zfs陣列),以及使用不同bs大小測試陣列在不同塊大小下速度表現。

陣列測速 block size = 512
這次測試設置的最小塊大小為512,此時速度受影響最大的是使用zfs創建的各個陣列,全部只有60m/s出頭的速度,而最高速度梯隊均被8盤raid0占據,但速度只有140-150,與單盤相比只有不到一倍的提升,迷惑的是chunk大小對應的速度順序十分混亂,幾乎無法總結出規律。

陣列測速 block size = 4k
4k速度領先的仍然是raid0,zfs的各個陣列排在中間,最低的則變成了4盤組的raid10,速度甚至低於單盤速度,可謂慘不忍睹,而我常用的raid5速度在350左右,只有不到2倍提升。

陣列測速 block size = 8k
8k速度比較有意思,raid0速度仍然占據前列,而zfs的速度明顯提升,尤其是raidz1*2和使用zfs創建的raid10,這兩個都是我曾經選擇過的方案(raid10使用了16盤)

陣列測速 block size = 1M
最終來到1M塊大小的測試,這次變化比較大,速度最高的是8盤使用zfs創建的raid0,速度達到了1100+,而實際上,我測試12盤速度時,這種方式創建的陣列速度可以到達1300+,而其餘成績幾乎沒有什麼出乎預料的地方,只有上面提到的zfs下raidz1*2和raid10的排名繼續上升

總結

說一下我的感覺,在做這次測試之前我也預料到測試結果就是如此慘淡,因為平時我使用情況便是桌面機和伺服器之間使用萬兆網卡相連,通過smb共享文件,不過文件性能實在不是很滿意,從桌面機的ssd拷貝文件到伺服器上速度只有400出頭,而且遇到大量零碎文件時響應相當慢,一直以來我便考慮是smb的問題還是磁碟性能就是這樣,這個測試說出了答案。

測試中,速度最快的無疑是raid0,只不過應該不會有人選擇,其餘比較有價值的選擇分別是raid5和2*raid z1,這兩個選項都有不錯的性能,也分別有1盤和2盤的冗餘,當初我選擇使用2t磁碟,便是考慮到在損壞1塊硬碟時,2t硬碟重組陣列還是相對安全的,基本上一天以內陣列就恢復同步,當然我更偏向使用zfs,尤其是我最開始選擇這套配置便是奔著freenas去的,而且raid z2和raid z3雖然性能不足,但是安全性絕對是更高的,只不過8盤位下,這兩個選擇明顯沒有優勢。

對於條帶大小,實在是認識有限,之前一直使用默認參數,而網路上沒有找到有用的資料,只能說是瞎子過河,用我自己的理解去測試,結果是無功而返。

後記

這個測試差不多在一個多月前做的,現在才發純粹因為懶癌犯了,第一次在b站發文章,文案啰嗦得把自己也難受到了,還是感謝能看到這里,之後也許還會總結一些我之前的經驗,我會多多努力。發文的時候我的配置已經做了一個大的調整,也乘著這次礦潮,把之前的設備賣了,還得了一筆不小的差價,而目前硬體漲價實在厲害,還好我在漲價前購入了一塊12t硬碟,跟之前用來冷備的另一塊12t硬碟組一起,現在數據暫且存在這兩塊硬碟上,對nas的進一步改造只能留在將來了。

說到之前設備的缺點,只能說現實總是事與願違,一開始我選擇2t sas做陣列,主要是幾方面,一是價格,二是容量,三是速度。最開始我的群暉nas上選擇了兩塊6t和兩塊3t硬碟分別組raid1,光是硬碟價格就接近四千,而nas價格是三千出頭。而換成自組的nas和二手硬碟,價格只要一半多點,還能擁有8盤位和萬兆網路,價格便是最大的優勢。而2t硬碟前面提到了,我認為這個容量還是比較適合陣列掉盤後重建的,成功率和速度都能預測得到,而有了盤位優勢,容量便不是問題。至於速度,相比4盤位,8盤位優勢理所當然是更大。

而實際上,二手硬碟由於質量參差不齊,有一些盤用了很久依然堅挺,而有一些在使用兩三個月內就會出現問題,導致其成了消耗品,而為了安全性,我把盤位一步步提高,曾試過12盤和16盤,做了更高級別的raid如raidz3和2*raidz2,而代價是性能不升反降,而且一個大問題暴露出來了,這些硬碟本來功耗就不小,而我使用的環境沒有機房那樣的穩定溫度,導致硬碟發熱嚴重,而且電費也猛然飆升,最終只能下決定放棄,也意識到這個方案在我目前情況下不可行。

在測試結束後,我意識到這次測試並不太嚴謹,首先我只測試了寫入速度沒有測試讀取速度,原因是沒有找到合適的測試方法,在某些測試中,會因為緩存原因導致測出的速度發生明顯錯誤,而我測試的數據也沒有與其他人對比過,實際這個速度是否合格純粹是我個人的主觀判斷。並且,在創建文件系統時,我並沒有注意到有block的參數,而在後來發現這個參數也許會影響到結果。最後一個大問題是,在測試前後我都對硬碟進行過壞道測試,結果發現sdh盤,也就是那塊型號不同的,實際上是同型號的HP貼標盤,在測試後出現了三個連續壞道,而由於第二次壞道測試是在我轉讓硬碟前做最後測試時發現的,不確定壞道是否在此過程中出現,所以這次的測試,只能以極其不嚴謹的標志定義,在將來我有機會再次測試時,定要以嚴謹為首要,以彌補這次的遺憾。

㈣ 群暉ds920能改萬兆網卡

不能。
雖然DS920+只有兩個USB 3.0介面,除了千兆沒有2.5G介面,也沒有萬兆介面和PCI-E拓展,但是夠用了,前置USB3.0可以用於快速備份移動硬碟資料,後置USB3.0可以外接一個USB3.0轉5G,配合雙M2 SSD作為緩存,也可以發揮出超強作用,對於家用乃至小型工作室都是夠用的。

㈤ 華為交換機緩存利用率

可以使埠利用率達到90%,而且可解決掉包的問題。
假設是接存儲伺服器的埠流量超過了90%。先在5700上面查看有沒有mac地址漂移,也就是環路之類的。如果沒有,可以在2700和3700的埠查看實時流量,最後在5700的下聯的4個埠查看實時流量,加減算下。5700接3個存儲伺服器的3個口的實時流量是不是差不多的。如果是是差不多的,就說明是本來區域網內監控終端產生的流量太多了,可以考慮5700換成6700,用全萬兆的方案。如果監控終端產生的流量明顯小於交換機接存儲伺服器埠的流量,那就查下5700有接了哪些設備。流量是從哪些埠產生的。
包轉發率,用來衡量網路設備轉發數據能力的標准。交換機的包轉發率標志了交換機轉發數據包能力的大小。單位一般為pps(包每秒)。也可以這么說包轉發速率是指交換機每秒可以轉發多少百萬個數據包(Mpps),即交換機能同時轉發的數據包的數量。包轉發率以數據包為單位體現了交換機的交換能力。

㈥ 萬兆網速

網速等於,帶寬除以8,萬兆的帶寬,下載速度理論是1250M