當前位置:首頁 » 網頁前端 » web伺服器並發
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

web伺服器並發

發布時間: 2023-01-15 10:46:15

① 如何有效的監控web伺服器如何設置最大並發

你可以使用loadrunner進行測試,然後進行分析數據,測出最大並發數。

② 200用戶並發,WEB伺服器與DB伺服器如何配置

200用戶並發對於資料庫伺服器來說,不算很少了。web伺服器用雙路四核的伺服器就可以滿足,對伺服器的性能要求不高。

web伺服器你可以看看國產品牌正睿的這款最新SNB-E架構的雙路四核伺服器。標配一顆至強E5-2407四核處理器(2.2GHz/6.4GT/10M緩存),英特爾C602伺服器晶元組主板,8G DDR3 REG ECC 1333MHz內存,SAS 300G 15000轉企業級硬碟,雙千兆網卡,性能可以說是非常不錯。如果以後隨著業務量的增長,覺得性能不夠用了,還可以擴展到兩顆處理器,達成8顆處理核心,最大支持192GB DDR3 REG ECC高速容錯校驗內存。
產品型號:I21S3-4684HV
產品類型:雙路四核機架式伺服器
處 理 器:Xeon E5-2407
內 存:8G DDR3 REG ECC
硬 盤:SAS 300G
機 構:1U機架式
操作系統:Linux免費版 / VMware ESXi
價 格:¥9990

銀牌服務
全國三年免費上門售後服務,關鍵部件三年以上免費質保。

資料庫伺服器推薦你用雙路六核帶超線程技術的伺服器。你可以看看國產品牌正睿的這款最新SNB-E架構的雙路四核伺服器。標配一顆至強E5-2620六核十二線程處理器(2.0GHz/7.2GT/15M緩存),英特爾C602伺服器晶元組主板,8G DDR3 REG ECC 1333MHz內存,SAS 300G 15000轉高速企業級硬碟,4個熱插拔盤位,允許用戶在不關閉伺服器的情況下增加或減少硬碟,便於維護,雙千兆網卡,性能可以說是非常不錯。如果以後隨著業務量的增長,覺得性能不夠用了,還可以擴展到兩顆處理器,達成12顆處理核心,24條處理線程(在任務管理器處能看到24個處理核心的格子- -~很NB),最大支持512GB DDR3 REG ECC高速容錯校驗內存。
產品型號:I21S2-6784HV
產品類型:雙路六核機架式伺服器
處 理 器:Xeon E5-2620
內 存:8G DDR3 REG ECC
硬 盤:SAS 300G
機 構:1U機架式
操作系統:Linux免費版 / VMware ESXi
價 格:¥12990
銀牌服務
全國三年免費上門售後服務,關鍵部件三年以上免費質保。

建議升級到2個CPU,總計達成12物理核心,24個計算線程。硬碟增加一個做RAID1陣列,保障數據安全。這樣總價在17000左右搞定。

給你推薦的是國產品牌正睿的伺服器產品,他們的產品性價比很高,做工很專業,兼容性,質量之類的都有保障,售後也很完善,3年免費質保,3年免費上門售後服務,在業界口碑很不錯。

③ 怎麼監控linux web伺服器的埠並發量,例如8082埠

用root用戶在伺服器上執行命令:
#
lsof
-i
:8082
查看8082埠有關的信息。

④ Web並發伺服器 多進程 多線程 tcp長連接和短連接

TCP在真正的讀寫操作之前,server與client之間必須建立一個連接,

當讀寫操作完成後,雙方不再需要這個連接時它們可以釋放這個連接,

連接的建立通過三次握手,釋放則需要四次握手,

所以說每個連接的建立都是需要資源消耗和時間消耗的。

⑤ 影響web伺服器請求並發數量的因素

影響web伺服器請求並發數量的因素
只討論一台伺服器的話,3650雙路加4G內存支持到5萬並發是容易達到的,即使針對業務流比較復雜的情況,也能滿足很大程度的需要。
但是考慮到存儲子系統,比如4塊sas硬碟raid0,可能只能達到5000數量級的並發請求。如果是以另外的光纖盤陣來支持存儲則可以顯著提高硬碟傳輸帶寬的性能。
最後還要考慮到你的網路帶寬,對大多數網站來說,通常這才是最大的瓶頸所在。也就是說即使你的cpu、內存、硬碟都沒問題,也會因為租用的網路帶寬限制而影響最大的並發數。

⑥ 美團面試題:如何設計負載均衡架構支撐千萬級用戶的高並發訪問

1.1 負載均衡介紹

1.1.1 負載均衡的妙用

1.1.2 為什麼要用lvs

那為什麼要用lvs呢?

ü 簡單一句話,當並發超過了Nginx上限,就可以使用LVS了。

ü 日1000-2000W PV或並發請求1萬以下都可以考慮用Nginx。

ü 大型門戶網站,電商網站需要用到LVS。

1.2 LVS介紹

LVS是Linux Virtual Server的簡寫,意即Linux虛擬伺服器,是一個虛擬的伺服器集群系統,可以在UNIX/LINUX平台下實現負載均衡集群功能。該項目在1998年5月由章文嵩博士組織成立,是 中國國內最早出現的自由軟體項目之一

1.2.1 相關參考資料

LVS官網: http://www.linuxvirtualserver.org/index.html

相關中文資料

1.2.2 LVS內核模塊ip_vs介紹

ü LVS無需安裝

ü 安裝的是管理工具,第一種叫ipvsadm,第二種叫keepalive

ü ipvsadm是通過命令行管理,而keepalive讀取配置文件管理

ü 後面我們會用Shell腳本實現keepalive的功能

1.3 LVS集群搭建

1.3.1 集群環境說明

主機說明

web環境說明

web伺服器的搭建參照:

Tomcat:

http://www.cnblogs.com/clsn/p/7904611.html

Nginx:

http://www.cnblogs.com/clsn/p/7750615.html

1.3.2 安裝ipvsadm管理工具

安裝管理工具

查看當前LVS狀態,順便激活LVS內核模塊。

查看系統的LVS模塊。

1.3.3 LVS集群搭建

命令集 :

檢查結果 :

ipvsadm參數說明: (更多參照 man ipvsadm)

1.3.4 在web瀏覽器配置操作

命令集 :

至此LVS集群配置完畢 !

1.3.5 進行訪問測試

瀏覽器訪問:

命令行測試:

抓包查看結果:

arp解析查看:

1.4 負載均衡(LVS)相關名詞

術語說明:

1.4.1 LVS集群的工作模式--DR直接路由模式

DR模式是通過改寫請求報文的目標MAC地址,將請求發給真實伺服器的,而真實伺服器將響應後的處理結果直接返回給客戶端用戶。

DR技術可極大地提高集群系統的伸縮性。但要求調度器LB與真實伺服器RS都有一塊物理網卡連在同一物理網段上,即必須在同一區域網環境。

DR直接路由模式說明:

a)通過在調度器LB上修改數據包的目的MAC地址實現轉發。注意,源IP地址仍然是CIP,目的IP地址仍然是VIP。

b)請求的報文經過調度器,而RS響應處理後的報文無需經過調度器LB,因此,並發訪問量大時使用效率很高,比Nginx代理模式強於此處。

c)因DR模式是通過MAC地址的改寫機制實現轉發的,因此,所有RS節點和調度器LB只能在同一個區域網中。需要注意RS節點的VIP的綁定(lo:vip/32)和ARP抑制問題。

d)強調一下:RS節點的默認網關不需要是調度器LB的DIP,而應該直接是IDC機房分配的上級路由器的IP(這是RS帶有外網IP地址的情況),理論上講,只要RS可以出網即可,不需要必須配置外網IP,但走自己的網關,那網關就成為瓶頸了。

e)由於DR模式的調度器僅進行了目的MAC地址的改寫,因此,調度器LB無法改變請求報文的目的埠。LVS DR模式的辦公室在二層數據鏈路層(MAC),NAT模式則工作在三層網路層(IP)和四層傳輸層(埠)。

f)當前,調度器LB支持幾乎所有UNIX、Linux系統,但不支持windows系統。真實伺服器RS節點可以是windows系統。

g)總之,DR模式效率很高,但是配置也較麻煩。因此,訪問量不是特別大的公司可以用haproxy/Nginx取代之。這符合運維的原則:簡單、易用、高效。日1000-2000W PV或並發請求1萬以下都可以考慮用haproxy/Nginx(LVS的NAT模式)

h)直接對外的訪問業務,例如web服務做RS節點,RS最好用公網IP地址。如果不直接對外的業務,例如:Mysql,存儲系統RS節點,最好只用內部IP地址。

DR的實現原理和數據包的改變

(a) 當用戶請求到達Director Server,此時請求的數據報文會先到內核空間的PREROUTING鏈。 此時報文的源IP為CIP,目標IP為VIP

(b) PREROUTING檢查發現數據包的目標IP是本機,將數據包送至INPUT鏈

(c) IPVS比對數據包請求的服務是否為集群服務,若是,將請求報文中的源MAC地址修改為DIP的MAC地址,將目標MAC地址修改RIP的MAC地址,然後將數據包發至POSTROUTING鏈。 此時的源IP和目的IP均未修改,僅修改了源MAC地址為DIP的MAC地址,目標MAC地址為RIP的MAC地址

(d) 由於DS和RS在同一個網路中,所以是通過二層來傳輸。POSTROUTING鏈檢查目標MAC地址為RIP的MAC地址,那麼此時數據包將會發至Real Server。

(e) RS發現請求報文的MAC地址是自己的MAC地址,就接收此報文。處理完成之後,將響應報文通過lo介面傳送給eth0網卡然後向外發出。 此時的源IP地址為VIP,目標IP為CIP

(f) 響應報文最終送達至客戶端

1.5 在web端的操作有什麼含義?

1.5.1 RealServer為什麼要在lo介面上配置VIP?

既然要讓RS能夠處理目標地址為vip的IP包,首先必須要讓RS能接收到這個包。

在lo上配置vip能夠完成接收包並將結果返回client。

1.5.2 在eth0網卡上配置VIP可以嗎?

不可以,將VIP設置在eth0網卡上,會影響RS的arp請求,造成整體LVS集群arp緩存表紊亂,以至於整個負載均衡集群都不能正常工作。

1.5.3 為什麼要抑制ARP響應?

① arp協議說明

為了提高IP轉換MAC的效率,系統會將解析結果保存下來,這個結果叫做ARP緩存。

ARP緩存表是把雙刃劍

ARP廣播進行新的地址解析

測試命令

windows查看arp -a

③arp_announce和arp_ignore詳解

lvs在DR模式下需要關閉arp功能

arp_announce

對網路介面上,本地IP地址的發出的,ARP回應,作出相應級別的限制:

確定不同程度的限制,宣布對來自本地源IP地址發出Arp請求的介面

arp_ignore 定義

對目標地定義對目標地址為本地IP的ARP詢問不同的應答模式0

抑制RS端arp前的廣播情況

抑制RS端arp後廣播情況

1.6 LVS集群的工作模式

DR(Direct Routing)直接路由模式

NAT(Network Address Translation)

TUN(Tunneling)隧道模式

FULLNAT(Full Network Address Translation)

1.6.1 LVS集群的工作模式--NAT

通過網路地址轉換,調度器LB重寫請求報文的目標地址,根據預設的調度演算法,將請求分派給後端的真實伺服器,真實伺服器的響應報文處理之後,返回時必須要通過調度器,經過調度器時報文的源地址被重寫,再返回給客戶,完成整個負載調度過程。

收費站模式---來去都要經過LB負載均衡器。

NAT方式的實現原理和數據包的改變

(a). 當用戶請求到達Director Server,此時請求的數據報文會先到內核空間的PREROUTING鏈。 此時報文的源IP為CIP,目標IP為VIP

(b). PREROUTING檢查發現數據包的目標IP是本機,將數據包送至INPUT鏈

(c). IPVS比對數據包請求的服務是否為集群服務,若是,修改數據包的目標IP地址為後端伺服器IP,然後將數據包發至POSTROUTING鏈。 此時報文的源IP為CIP,目標IP為RIP

(d). POSTROUTING鏈通過選路,將數據包發送給Real Server

(e). Real Server比對發現目標為自己的IP,開始構建響應報文發回給Director Server。 此時報文的源IP為RIP,目標IP為CIP

(f). Director Server在響應客戶端前,此時會將源IP地址修改為自己的VIP地址,然後響應給客戶端。 此時報文的源IP為VIP,目標IP為CIP

LVS-NAT模型的特性

l RS應該使用私有地址,RS的網關必須指向DIP

l DIP和RIP必須在同一個網段內

l 請求和響應報文都需要經過Director Server,高負載場景中,Director Server易成為性能瓶頸

l 支持埠映射

l RS可以使用任意操作系統

l 缺陷:對Director Server壓力會比較大,請求和響應都需經過director server

1.6.2 LVS集群的工作模式--隧道模式TUN

採用NAT技術時,由於請求和響應的報文都必須經過調度器地址重寫,當客戶請求越來越多時,調度器的處理能力將成為瓶頸。

為了解決這個問題,調度器把請求的報文通過IP隧道(相當於ipip或ipsec )轉發至真實伺服器,而真實伺服器將響應處理後直接返回給客戶端用戶,這樣調度器就只處理請求的入站報文。

由於一般網路服務應答數據比請求報文大很多,採用 VS/TUN技術後,集群系統的最大吞吐量可以提高10倍。

VS/TUN工作流程,它的連接調度和管理與VS/NAT中的一樣,只是它的報文轉發方法不同。

調度器根據各個伺服器的負載情況,連接數多少,動態地選擇一台伺服器,將原請求的報文封裝在另一個IP報文中,再將封裝後的IP報文轉發給選出的真實伺服器。

真實伺服器收到報文後,先將收到的報文解封獲得原來目標地址為VIP地址的報文, 伺服器發現VIP地址被配置在本地的IP隧道設備上(此處要人為配置),所以就處理這個請求,然後根據路由表將響應報文直接返回給客戶。

TUN原理和數據包的改變

(a) 當用戶請求到達Director Server,此時請求的數據報文會先到內核空間的PREROUTING鏈。 此時報文的源IP為CIP,目標IP為VIP 。

(b) PREROUTING檢查發現數據包的目標IP是本機,將數據包送至INPUT鏈

(c) IPVS比對數據包請求的服務是否為集群服務,若是,在請求報文的首部再次封裝一層IP報文,封裝源IP為為DIP,目標IP為RIP。然後發至POSTROUTING鏈。 此時源IP為DIP,目標IP為RIP

(d) POSTROUTING鏈根據最新封裝的IP報文,將數據包發至RS(因為在外層封裝多了一層IP首部,所以可以理解為此時通過隧道傳輸)。 此時源IP為DIP,目標IP為RIP

(e) RS接收到報文後發現是自己的IP地址,就將報文接收下來,拆除掉最外層的IP後,會發現裡面還有一層IP首部,而且目標是自己的lo介面VIP,那麼此時RS開始處理此請求,處理完成之後,通過lo介面送給eth0網卡,然後向外傳遞。 此時的源IP地址為VIP,目標IP為CIP

(f) 響應報文最終送達至客戶端

LVS-Tun模型特性

1.6.3 LVS集群的工作模式--FULLNAT

LVS的DR和NAT模式要求RS和LVS在同一個vlan中,導致部署成本過高;TUNNEL模式雖然可以跨vlan,但RealServer上需要部署ipip隧道模塊等,網路拓撲上需要連通外網,較復雜,不易運維。

為了解決上述問題,開發出FULLNAT

該模式和NAT模式的區別是:數據包進入時,除了做DNAT,還做SNAT(用戶ip->內網ip)

從而實現LVS-RealServer間可以跨vlan通訊,RealServer只需要連接到內網。類比地鐵站多個閘機。

1.7 IPVS調度器實現了如下八種負載調度演算法:

a) 輪詢(Round Robin)RR

調度器通過"輪叫"調度演算法將外部請求按順序輪流分配到集群中的真實伺服器上,它均等地對待每一台伺服器,而不管伺服器上實際的連接數和系統負載。

b) 加權輪叫(Weighted Round Robin)WRR

調度器通過"加權輪叫"調度演算法根據真實伺服器的不同處理能力來調度訪問請求。這樣可以保證處理能力強的伺服器處理更多的訪問流量。

調度器可以自動問詢真實伺服器的負載情況,並動態地調整其權值。

c) 最少鏈接(Least Connections) LC

調度器通過"最少連接"調度演算法動態地將網路請求調度到已建立的鏈接數最少的伺服器上。

如果集群系統的真實伺服器具有相近的系統性能,採用"最小連接"調度演算法可以較好地均衡負載。

d) 加權最少鏈接(Weighted Least Connections) Wlc

在集群系統中的伺服器性能差異較大的情況下,調度器採用"加權最少鏈接"調度演算法優化負載均衡性能,具有較高權值的伺服器將承受較大比例的活動連接負載。調度器可以自動問詢真實伺服器的負載情況,並動態地調整其權值。

e) 基於局部性的最少鏈接(Locality-Based Least Connections) Lblc

"基於局部性的最少鏈接" 調度演算法是針對目標IP地址的負載均衡,目前主要用於Cache集群系統。

該演算法根據請求的目標IP地址找出該目標IP地址最近使用的伺服器,若該伺服器 是可用的且沒有超載,將請求發送到該伺服器。

若伺服器不存在,或者該伺服器超載且有伺服器處於一半的工作負載,則用"最少鏈接"的原則選出一個可用的服務 器,將請求發送到該伺服器。

f) 帶復制的基於局部性最少鏈接(Locality-Based Least Connections with Replication)

"帶復制的基於局部性最少鏈接"調度演算法也是針對目標IP地址的負載均衡,目前主要用於Cache集群系統。

它與LBLC演算法的不同之處是它要維護從一個 目標IP地址到一組伺服器的映射,而LBLC演算法維護從一個目標IP地址到一台伺服器的映射。

該演算法根據請求的目標IP地址找出該目標IP地址對應的服務 器組,按"最小連接"原則從伺服器組中選出一台伺服器,若伺服器沒有超載,將請求發送到該伺服器。

若伺服器超載,則按"最小連接"原則從這個集群中選出一 台伺服器,將該伺服器加入到伺服器組中,將請求發送到該伺服器。

同時,當該伺服器組有一段時間沒有被修改,將最忙的伺服器從伺服器組中刪除,以降低復制的 程度。

g) 目標地址散列(Destination Hashing) Dh

"目標地址散列"調度演算法根據請求的目標IP地址,作為散列鍵(Hash Key)從靜態分配的散列表找出對應的伺服器,若該伺服器是可用的且未超載,將請求發送到該伺服器,否則返回空。

h) 源地址散列(Source Hashing)SH

"源地址散列"調度演算法根據請求的源IP地址,作為散列鍵(Hash Key)從靜態分配的散列表找出對應的伺服器。

若該伺服器是可用的且未超載,將請求發送到該伺服器,否則返回空。

1.8 LVS+Keepalived方案實現

1.8.1 keepalived功能

1. 添加VIP

2. 添加LVS配置

3. 高可用(VIP漂移)

4. web伺服器 健康 檢查

1.8.2 在負載器安裝Keepalived軟體

# 檢查軟體是否安裝

1.8.3 修改配置文件

lb03上keepalied配置文件

lb04的Keepalied配置文件

keepalived persistence_timeout參數意義 LVS Persistence 參數的作用

http://blog.csdn.net/nimasike/article/details/53911363

1.8.4 啟動keepalived服務

1.8.5 在web伺服器上進行配置

注意:web伺服器上的配置為臨時生效,可以將其寫入rc.local文件,注意文件的執行許可權。

使用curl命令進行測試

至此keepalived+lvs配置完畢

1.9 常見LVS負載均衡高可用解決方案

Ø 開發類似keepalived的腳本,早期的辦法,現在不推薦使用。

Ø heartbeat+lvs+ldirectord腳本配置方案,復雜不易控制,不推薦使用

Ø RedHat工具piranha,一個web界面配置LVS。

Ø LVS-DR+keepalived方案,推薦最優方案,簡單、易用、高效。

1.9.1 lvs排錯思路

⑦ 如果要承受1W並發的web伺服器,要什麼樣的配置

使用先應該明確WEB的用途.
1 應用服務 還是 數據服務 還是其他看
2 確定服務後 一般是 前端渲染伺服器 中間代碼伺服器 和後面的資料庫伺服器
3 一般還要設置負載均衡和多地鏡像伺服器。如果用戶登陸頻繁 需要分離出專門的登陸伺服器和用戶數據管理伺服器。每個應用都應該單獨設置伺服器群集 處理。

⑧ 如何測試web伺服器的最大並發數

1、查看Web伺服器(Nginx Apache)的並發請求數及其TCP連接狀態: netstat -n | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'netstat -n|grep ^tcp|awk '{print $NF}'|sort -nr|uniq -c 或者:netstat -n | awk '/^tcp/ {++state[$NF]} END {for(key in state) print key,"t",state[key]}'返回結果一般如下: LAST_ACK 5 (正在等待處理的請求數)SYN_RECV 30ESTABLISHED 1597 (正常數據傳輸狀態)FIN_WAIT1 51FIN_WAIT2 504TIME_WAIT 1057 (處理完畢,等待超時結束的請求數) 其他參數說明: CLOSED:無連接是活動的或正在進行LISTEN:伺服器在等待進入呼叫SYN_RECV:一個連接請求已經到達,等待確認SYN_SENT:應用已經開始,打開一個連接ESTABLISHED:正常數據傳輸狀態FIN_WAIT1:應用說它已經完成FIN_WAIT2:另一邊已同意釋放ITMED_WAIT:等待所有分組死掉CLOSING:兩邊同時嘗試關閉TIME_WAIT:另一邊已初始化一個釋放LAST_ACK:等待所有分組死掉 2、查看Nginx運行進程數ps -ef | grep nginx | wc -l返回的數字就是nginx的運行進程數,如果是apache則執行ps -ef | grep httpd | wc -l 3、查看Web伺服器進程連接數:netstat -antp | grep 80 | grep ESTABLISHED -c 4、查看MySQL進程連接數:ps -axef | grep mysqld -c

⑨ web伺服器集群可以解決高並發嗎

集群就是為了解決高並發存在的,多台機器並行處理不同用戶的同樣任務