Ⅰ 如何配置Web伺服器實現負載均衡
這篇實用文章介紹如何將pfSense 2.0配置成你那些Web伺服器的負載均衡器。這篇實用文章假設你已經安裝了一個pfSense設備和至少兩台Apache伺服器,並且運行在你的網路上;還假設你具備了pfSense方面的一些知識。
要求
一台設備用於安裝pfSense 2.0(如果這是你的邊緣防火牆,我會建議物理機器)。
至少兩台Apache2伺服器(這些可以是虛擬伺服器)。
對Apache伺服器進行了配置,以便以某種方式同步Web文件(rsync/corosync或通過Web伺服器維持文件版本最新的另一個選項)。
配置pfSense
pfSense使用負載均衡器,將某些類型的流量帶來的負載分攤到多台伺服器上;如果你有多台伺服器用於託管運行應用程序,這很好;你可以將負載分攤到所有伺服器上,而不是把負載全扔給一台伺服器、導致不堪重負。
可以入手了,先點擊「Services」(服務),然後點擊「Load Balancers」(負載均衡器),然後點擊「Monitor」(監視器)選項卡。
要添加一個新條目,點擊「Plus」(添加)按鈕,指定「Name」(名稱)和「Description」(描述,在這個示例中,我會使用ApacheClusterMon作為名稱和描述),將類型設成「HTTP」,然後為「Host」(主機)設置一個未使用的IP地址(我們隨後會創建虛擬伺服器的IP,以便分配給故障切換伺服器組),任由「HTTP Code」(HTTP代碼)設成「200 OK」。需要的話,然後點擊「Save」(保存),使更改生效。
現在我們要創建伺服器池。點擊「Pools」(伺服器池)選項卡,點擊「Plus」(添加)按鈕,即可添加新的伺服器池。
指定一個名稱(ApacheSrvPool將用在我的示例中)。將「Mode」(模式)設成「Load Balance」(負載均衡),然後將「Port」(埠)設成「80」(你可以讓pfSense對其他埠上的其他應用程序實現負載均衡),將「Monitor」(監視器)設成你之前創建的監視器配置,並且指定你希望在伺服器池中的所有Web伺服器的IP地址,需要的話,點擊「Save」(保存),使更改生效。
接下來點擊「Virtual Servers」(虛擬伺服器)選項卡,點擊「Plus」(添加)按鈕,添加一個新條目。指定「Name」(名稱)和「Description」(描述),然後用你之前選擇的未使用IP地址來設置「IP Address」(IP地址),將「Port」(埠)設成「80」,然後將「Virtual Server Pool」(虛擬伺服器池)設成你之前創建的伺服器池,點擊「Submit」(提交),使更改生效。
就這樣,你剛配置好了pfSense,對你的Web伺服器之間的網路流量實現負載均衡。
順便提一下,如果任何一台伺服器沒有給出200 OK狀態這樣的回應(pfSense定期向你的Web伺服器發送請求,以確定它們是否正常運行),伺服器池就會處於離線停運狀態。要避免出現停運,最好的辦法就是配置故障切換系統(下一篇文章會有介紹)。
Ⅱ 用4台NF280G2作負載均衡來做WEB伺服器,負載均衡是什麼意思
分類: 教育/科學 >> 學習幫助
問題描述:
用4台NF280G2作負載均衡來做WEB伺服器,負載均衡是什麼意思?
解析:
負載均衡的意思就雀液是有幾台伺服器或者幾個服務。。通過設備或者軟頃帆物件,將外部來的連接均勻的分配到這幾個伺服器或者服務上面。。使伺服器的負載平均
目的是使伺服器出錯率更低,運行效率更高。
一般配置好了伺服器後需要的只是技術了,轎晌費用也就是購置伺服器的費用了。
Ⅲ 如何配置Web伺服器實現負載均衡
網路的負載均衡是一種動態均衡技術,通過一些工具實時地分析數據包,掌握網路中的數據流量狀況,把任務合理均衡地分配出去。這種技術基於現有網路結構,提供了一種擴展伺服器帶寬和增加伺服器吞吐量的廉價有效的方法,加強了網路數據處理能力,提高了網路的靈活性和可用性。
以四台伺服器為例實現負載均衡:
安裝配置LVS
1. 安裝前准備:
(1)首先說明,LVS並不要求集群中的伺服器規格劃一,相反,可以根據伺服器的不同配置和負載狀況,調整負載分配策略,充分利用集群環境中的每一台伺服器。如下表:
Srv Eth0 Eth0:0 Eth1 Eth1:0
vs1 10.0.0.1 10.0.0.2 192.168.10.1 192.168.10.254
vsbak 10.0.0.3 192.168.10.102
real1 192.168.10.100
real2 192.168.10.101
其中,10.0.0.2是允許用戶訪問的IP。
(2)這4台伺服器中,vs1作為虛擬伺服器(即負載平衡伺服器),負責將用戶的訪問請求轉發到集群內部的real1,real2,然後由real1,real2分別處理。
Client為客戶端測試機器,可以為任意操作系統。
(3)所有OS為redhat6.2,其中vs1 和vsbak 的核心是2.2.19, 而且patch過ipvs的包, 所有real
server的Subnet mask 都是24位, vs1和vsbak 的10.0.0. 網段是24 位。
2.理解LVS中的相關術語
(1) ipvsadm :ipvsadm是LVS的一個用戶界面。在負載均衡器上編譯、安裝ipvsadm。
(2) 調度演算法: LVS的負載均衡器有以下幾種調度規則:Round-robin,簡稱rr;weighted
Round-robin,簡稱wrr;每個新的連接被輪流指派到每個物理伺服器。Least-connected,簡稱lc;weighted
Least-connected,簡稱wlc,每個新的連接被分配到負擔最小的伺服器。
(3) Persistent client
connection,簡稱pcc,(持續的客戶端連接,內核2.2.10版以後才支持)。所有來自同一個IP的客戶端將一直連接到同一個物理伺服器。超時時間被設置為360秒。Pcc是為https和cookie服務設置的。在這處調度規則下,第一次連接後,所有以後來自相同客戶端的連接(包括來自其它埠)將會發送到相同的物理伺服器。但這也會帶來一個問題,因為大約有25%的Internet
可能具有相同的IP地址。
(4) Persistent port
connection調度演算法:在內核2.2.12版以後,pcc功能已從一個調度演算法(你可以選擇不同的調度演算法:rr、wrr、lc、wlc、pcc)演變成為了一個開關選項(你可以讓rr、
wrr、lc、wlc具備pcc的屬性)。在設置時,如果你沒有選擇調度演算法時,ipvsadm將默認為wlc演算法。 在Persistent port
connection(ppc)演算法下,連接的指派是基於埠的,例如,來自相同終端的80埠與443埠的請求,將被分配到不同的物理伺服器上。不幸的是,如果你需要在的網站上採用cookies時將出問題,因為http是使用80埠,然而cookies需要使用443埠,這種方法下,很可能會出現cookies不正常的情況。
(5)Load Node Feature of Linux Director:讓Load balancer 也可以處理users 請求。
(6)IPVS connection synchronization。
(7)ARP Problem of LVS/TUN and LVS/DR:這個問題只在LVS/DR,LVS/TUN 時存在。
3. 配置實例
(1) 需要的軟體包和包的安裝:
I. piranha-gui-0.4.12-2*.rpm (GUI介面cluster設定工具);
II. piranha-0.4.12-2*.rpm;
III. ipchains-1.3.9-6lp*.rpm (架設NAT)。
取得套件或mount到光碟,進入RPMS目錄進行安裝:
# rpm -Uvh piranha*
# rpm -Uvh ipchains*
(2) real server群:
真正提供服務的server(如web
server),在NAT形式下是以內部虛擬網域的形式,設定如同一般虛擬網域中Client端使用網域:192.168.10.0/24
架設方式同一般使用虛擬IP之區域網絡。
a. 設網卡IP
real1 :192.168.10.100/24
real2 :192.168.10.101/24
b.每台server均將default gateway指向192.168.10.254。
192.168.10.254為該網域唯一對外之信道,設定在virtual server上,使該網域進出均需通過virtual server 。
c.每台server均開啟httpd功能供web server服務,可以在各real server上放置不同內容之網頁,可由瀏覽器觀察其對各real
server讀取網頁的情形。
d.每台server都開啟rstatd、sshd、rwalld、ruser、rsh、rsync,並且從Vserver上面拿到相同的lvs.conf文件。
(3) virtual server:
作用在導引封包的對外主機,專職負責封包的轉送,不提供服務,但因為在NAT型式下必須對進出封包進行改寫,所以負擔亦重。
a.IP設置:
對外eth0:IP:10.0.0.1 eth0:0 :10.0.0.2
對內eth1:192.168.10.1 eth1:0 :192.168.10.254
NAT形式下僅virtual server有真實IP,real server群則為透過virtual server.
b.設定NAT功能
# echo 1 >; /proc/sys/net/ipv4/ip_forward
# echo 1 >; /proc/sys/net/ipv4/ip_always_defrag
# ipchains -P forward MASQ
c.設定piranha 進入X-window中 (也可以直接編輯/etc/lvs.cf )
a).執行面板系統piranha
b).設定「整體配置」(Global Settings) 主LVS伺服器主機IP:10.0.0.2, 選定網路地址翻譯(預設) NAT路徑名稱:
192.168.10.254, NAT 路徑裝置: eth1:0
c).設定虛擬伺服器(Virtual Servers) 添加編輯虛擬伺服器部分:(Virtual
Server)名稱:(任意取名);應用:http;協議: tcp;連接:80;地址:10.0..0.2;裝置:eth0:0; 重入時間:180
(預設);服務延時:10 (預設);載入監控工具:ruptime (預設);調度策略:Weighted least-connections; 持續性:0
(預設); 持續性屏蔽: 255.255.255.255 (預設); 按下激活:實時伺服器部分:(Real Servers); 添加編輯:名字:(任意取名);
地址: 192.168.10.100; 權重:1 (預設) 按下激活
另一架real server同上,地址:192.168.10.101。
d). 控制/監控(Controls/Monitoring)
控制:piranha功能的激活與停止,上述內容設定完成後即可按開始鍵激活piranha.監控器:顯示ipvsadm設定之routing table內容
可立即更新或定時更新。
(4)備援主機的設定(HA)
單一virtual server的cluster架構virtual server 負擔較大,提供另一主機擔任備援,可避免virtual
server的故障而使對外服務工作終止;備份主機隨時處於預備狀態與virtual server相互偵測
a.備份主機:
eth0: IP 10.0.0.3
eth1: IP 192.168.10.102 同樣需安裝piranha,ipvsadm,ipchains等套件
b.開啟NAT功能(同上面所述)。
c.在virtual server(10.0.0.2)主機上設定。
a).執行piranha冗餘度 ;
b).按下「激活冗餘度」;
冗餘LVS伺服器IP: 10.0.0.3;HEARTBEAT間隔(秒數): 2 (預設)
假定在…秒後進入DEAD狀態: 5 (預設);HEARTBEAT連接埠: 539 (預設)
c).按下「套用」;
d).至「控制/監控」頁,按下「在當前執行層添加PULSE DEAMON」 ,按下「開始」;
e).在監控器按下「自動更新」,這樣可由窗口中看到ipvsadm所設定的routing table,並且動態顯示real
server聯機情形,若real server故障,該主機亦會從監視窗口中消失。
d.激活備份主機之pulse daemon (執行# /etc/rc.d/init.d/pulse start)。
至此,HA功能已經激活,備份主機及virtual server由pulse daemon定時相互探詢,一但virtual
server故障,備份主機立刻激活代替;至virtual server 正常上線後隨即將工作交還virtual server。
LVS測試
經過了上面的配置步驟,現在可以測試LVS了,步驟如下:
1. 分別在vs1,real1,real2上運行/etc/lvs/rc.lvs_dr。注意,real1,real2上面的/etc/lvs
目錄是vs2輸出的。如果您的NFS配置沒有成功,也可以把vs1上/etc/lvs/rc.lvs_dr復制到real1,real2上,然後分別運行。確保real1,real2上面的apache已經啟動並且允許telnet。
2. 測試Telnet:從client運行telnet 10.0.0.2,
如果登錄後看到如下輸出就說明集群已經開始工作了:(假設以guest用戶身份登錄)
[guest@real1 guest]$——說明已經登錄到伺服器real1上。
再開啟一個telnet窗口,登錄後會發現系統提示變為:
[guest@real2 guest]$——說明已經登錄到伺服器real2上。
3. 測試http:從client運行iexplore http://10.0.0.2
因為在real1 和real2 上面的測試頁不同,所以登錄幾次之後,顯示出的頁面也會有所不同,這樣說明real server 已經在正常工作了。
Ⅳ 什麼叫做雙機負載均衡的Web伺服器
個人認為:雙機就是兩台伺服器。雙機負載均衡就是在兩台伺服器之間分配負載,以達到優化資源使用、最大化吞吐率、最小化響應時間、同時避免過載的目的。現在非常流行和成熟的是用Apache Http server引導流量到多個Tomcat上去,以達到負載平衡。
Ⅳ Java web項目,怎麼做負載均衡啊
Java web項目負載均衡常用的是nginx。
在多個伺服器上部署同一個web項目,nginx會將用戶的請求隨機(可自定義)分發到其中一個web伺服器,當其中任意一個或多個web伺服器宕機時,不影響用戶的正常訪問。
1、兩個web伺服器負載均衡:
upstream local_tomcat {
# 這里是本機的第一個web伺服器
server localhost:8080;
# 這里是本機的第二個web伺服器
server localhost:9090;
#還可添加很多
}
server{
location / {
proxy_pass http://local_tomcat;
}
#......其他省略
}
當訪問http://localhost時,nginx會隨機的跳轉到8080與9090伺服器。當8080伺服器宕機時,9090會繼續工作。如果想控制兩個伺服器的權重,比如 9090 伺服器性能好,可以多處理一些請求,則可以如下配置權重
upstream local_tomcat {
server localhost:8080 weight=1;
server localhost:9999 weight=2;
}
這樣在9090受訪的機率會比8080多一倍。
2、靜態文件,這個好像conf.xml有現成的配置,只要改一下就可以,如下對圖片的配置
#location ~ \.(png|jpg|bmp)$ {
root image;
}
所有png 、 jpg 、 bmp 的請求都會直接去訪客根目錄下的image文件夾,當然也可以使用絕對路徑。
Ⅵ web界面的外部負載均衡和內部負載均衡有什麼不同
你好!內部是伺服器與伺服器之間的就是機房裡面伺服器節點之前的均衡,外部的就是當外網有訪問時。連接數多的時間就會隨機分配來減小壓力起到均衡的做用。
Ⅶ WEB伺服器流量超負載問題解決方法
WEB伺服器流量超負載問題解決方法
Web應用伺服器集群系統,是由一群同時運行同一個web應用的伺服器組成旦老指的集群系統,在外界看來,就像是一個伺服器一樣。為了均衡集群伺服器的負載,達到優化系統性能的目的,集群伺服器將眾多的訪問請求,分散到系統中的不同節點進行處理。從而實現了更高的有效性和穩定性,而這也正是基於Web的企業應用所必須具備的特性。
一、計算WEB伺服器負載量的兩種方法
web應用伺服器集群系統,是由一群同時運行同一個web應用的伺服器組成的集群系統,在外界看來,就像是一個伺服器一樣。為了均衡集群伺服器的負載,達到優化系統性能的目的,集群伺服器將眾多的訪問請求,分散到系統中的不同節點進行處理。從而實現了更高的有效性和穩定性,而這也正是基於Web的企業應用所必須具備的特性。
高可靠性可以看含運作為系統的一種冗餘設定。對於一個特定的請求,如果所申請的伺服器不能進行處理的話,那麼其他的伺服器能不能對之進行有效的處理呢?對於一個高效的系統,如果一個Web伺服器失敗的話,其他的伺服器可以馬上取代它的位置,對所申請的請求進行處理,而且這一過程對用戶來說,要盡可能的透明,使用戶察覺不到!
穩定性決定了應用程序能否支持不斷增長的用戶請求數量,它是應用程序自身的一種能力。穩定性是影響系統性能的眾多因素的一種有效的測量手段,包括機群系統所能支持的同時訪問系統的最大用戶數目以及處理一個請求所需要的時間。
在現有眾多的均衡伺服器負載的方法中,廣泛研究並使用的是以下兩個方法:
DNS負載平衡的方法RR-DNS(Round-Robin Domain Name System)
負載均衡器
以下,我們將就這兩種方法進行討論。
二、DNS輪流排程的優勢及缺點
域名伺服器(Domain Name Server)中的數據文件將主機名字映射到其IP地址。當你在瀏覽器中鍵入一個URL時(例如:www.loadbalancedsite.com),瀏覽器則將請求發送到DNS,要求其返回相應站點的IP地址,這被稱為DNS查詢。當瀏覽器獲得該站點的IP地址後,便通過該IP地址連接到所要訪問的站點,將頁面展現在用戶面前。
域名伺服器(DNS)通常包含一個單一的IP地址與該IP地址所映射的站點的名稱的列表。在我們上面所假象的例子中,www.loadbalancedsite.com 這個站點的映射IP地址為203.24.23.3。
為了利用DNS均衡伺服器的負載,對於同一個站點來講,在DNS伺服器中同時擁有幾個不同的IP地址。這幾個IP地址代表集群中不同的機器,並在邏輯上映射到同一個站點名。通過我們的例子可以更好的理解這一點,www.loadbalancedsite.com將通過下面的三個IP地址發布到一個集群中的三台機器上:
203.34.23.3
203.34.23.4
203.34.23.5
在本例中,DNS伺服器中包含下面的映射表:
www.loadbalancedsite.com 203.34.23.3
www.loadbalancedsite.com 203.34.23.4
www.loadbalancedsite.com 203.34.23.5
當第一個請求到達DNS伺服器時,返回的是第一台機器的IP地址203.34.23.3;當第二個請求到達時,返回的是第二台機器的IP地址203.34.23.4,以此類推。當第四個請求到達時,第一台機器的IP地址將被再次返回,循環調用。
利用上述的DNS Round Robin技術,對於某一個站點的所有請求將被平均的分配到及群中的機器上。因此,在這種技術中,集群中的所有的節點對於網路來說都是可見的。
DNS 輪流排程的優勢
DNS Round Robin的最大的優點就是易於實現和代價低廉:
代價低,易於建立。 為了支持輪流排程,系統管理員只需要在DNS伺服器上作一些改動,而且在許多比較新的.版本的DNS伺服器上已經增加了這種功能。對於Web應用來說,不需要對代碼作任何的修改;事實上,Web應用本身並不模配會意識到負載均衡配置,即使在它面前。
簡單. 不需要網路專家來對之進行設定,或在出現問題時對之進行維護。
DNS 輪流排程的缺點
這種基於軟體的負載均衡方法主要存在兩處不足,一是不實時支持服務期間的關聯,一是不具有高可靠性。
不支持伺服器間的一致性。伺服器一致性是負載均衡系統所應具備的一種能力,通過它,系統可以根據會話信息是屬於伺服器端的,還是底層資料庫級別的,繼而將用戶的請求導向相應的伺服器。而DNS輪流排程則不具備這種智能化的特性。它是通過cookie、隱藏域、重寫URL三種方法中的一種來進行相似的判斷的。當用戶通過上述基於文本標志的方法與伺服器建立連接之後,其所有的後續訪問均是連接到同一個伺服器上。問題是,伺服器的IP是被瀏覽器暫時存放在緩存中,一旦記錄過期,則需要重新建立連接,那麼同一個用戶的請求很可能被不同的伺服器進行處理,則先前的所有會話信息便會丟失。
不支持高可靠性。設想一個具有N個節點的集群。如果其中的一個節點毀壞,那麼所有的訪問該節點的請求將不會有所回應,這是任何人都不願意看到的。比較先進的路由器可以通過每隔一定的時間間隔,對節點檢查,如果有毀壞的節點,則將之從列表中去除的方法,解決這個問題。但是,由於在Internet上,ISPs將眾多的DNS存放在緩存中,以節省訪問時間,因此,DNS的更新就會變得非常緩慢,以至於有的用戶可能會訪問一些已經不存在的站點,或者一些新的站點得不到訪問。所以,盡管DNS輪流排程在一定程度上解決了負載均衡問題,但這種狀況的改變並不是十分樂觀和有效的。
除了上面介紹的輪流排程方法外,還有三種DNS負載均衡處理分配方法,將這四種方法列出如下:
Round robin (RRS): 將工作平均的分配到伺服器 (用於實際服務主機性能一致)
Least-connections (LCS): 向較少連接的伺服器分配較多的工作(IPVS 表存儲了所有的活動的連接。用於實際服務主機性能一致。)
Weighted round robin (WRRS): 向較大容量的伺服器分配較多的工作。可以根據負載信息動態的向上或向下調整。 (用於實際服務主機性能不一致時)
Weighted least-connections (WLC): 考慮它們的容量向較少連接的伺服器分配較多的工作。容量通過用戶指定的砝碼來說明,可以根據裝載信息動態的向上或向下調整。(用於實際服務主機性能不一致時)
三:傳統負載均衡器的優勢及缺點
負載均衡器通過虛擬IP地址方法,解決了輪流排程所面臨的許多問題。使用了負載均衡器集群系統,在外部看來,像是具有一個IP地址的單一伺服器一樣,當然,這個IP地址是虛擬的,它映射了集群中的每一台機器的地址。所以,在某種程度上,負載均衡器是將整個集群的IP地址報漏給外部網路。
當請求到達負載均衡器時,它會重寫該請求的頭文件,並將之指定到集群中的機器上。如果某台機器被從集群中移除了,請求不會別發往已經不存在的伺服器上,因為所有的機器表面上都具有同一個IP地址,即使集群中的某個節點被移除了,該地址也不會發生變化。而且,internet上緩存的DNS條目也不再是問題了。當返回一個應答時
,客戶端看到的只是從負載均衡器上所返回的結果。也就是說,客戶端操作的對象是負載均衡器,對於其更後端的操作,對客戶端來講,是完全透明的。
傳統負載均衡器的優點
伺服器一致性. 負載均衡器讀取客戶端發出的每一個請求中所包含的cookies或url解釋。基於所讀出的這些信息,負載均衡器就可以重寫報頭並將請求發往集群中合適的節點上,該節點維護著相應客戶端請求的會話信息。在HTTP通信中,負載均衡器可以提供伺服器一致性,但並不是通過一個安全的途徑(例如:HTTPS)來提供這種服務。當消息被加密後(SSL),負載均衡器就不能讀出隱藏在其中的會話信息。
通過故障恢復機制獲得高可靠性. 故障恢復發生在當集群中某個節點不能處理請求,需將請求重新導向到其他節點時。主要有兩種故障恢復:
請求級故障恢復。當集群中的一個節點不能處理請求時(通常是由於down機),請求被發送到其他節點。當然,在導向到其他節點的同時,保存在原節點上的會話信息將會丟失。
透明會話故障恢復。當一個引用失敗後,負載均衡器會將之發送到集群中其他的節點上,以完成操作,這一點對用戶來說是透明的。由於透明會話故障恢復需要節點具備相應的操作信息,因此為了實現該功能,集群中的所有節點必須具有公共存儲區域或通用資料庫,存儲會話信息數據,以提供每個節點在進行單獨進程會話故障恢復時所需要的操作信息。
統計計量。既然所有的Web應用請求都必須經過負載均衡系統,那麼系統就可以確定活動會話的數量,在任何實例訪問中的活動會話的數目,應答的次數,高峰負載次數,以及在高峰期和低谷期的會話的數目,還有其他更多的。所有的這些統計信息都可以被很好的用來調整整個系統的性能。
傳統負載均衡器的缺點
硬體路由的缺點在於費用、復雜性以及單點失敗的。由於所有的請求均是通過一個單一的硬體負載均衡器來傳遞,因此,負載均衡器上的任何故障都將導致整個站點的崩潰。
HTTPS請求的負載均衡
正如上面所提到的,很難在那些來自HTTPS的請求上進行負載均衡和會話信息維護處理。因為,這些請求中的信息已經被加密了。負載均衡器沒有能力處理這類請求。不過,這里有兩種方法可以解決這一問題:
代理網路伺服器
硬體SSL解碼器
代理伺服器位於伺服器集群之前,首先由它接受所有的請求並對之進行解密,然後將這些處理後的請求根據頭信息重新發往相應的節點上,這種方式不需要硬體上的支持,但會增加代理伺服器的額外的負擔。
硬體SSL解碼器,則是在請求到達負載均衡器之前,先經由它進行解密處理。這種方式比代理伺服器的處理速度要快捷一些。但代價也高,而且實現比較復雜。
;Ⅷ 如何配置 WebSphere Application Server 單機版的簡單負載均衡
配置方法如下:
1,給2台WEB伺服器裝置NLB,以後在其間恣意一台上來新建群集,然後將別的一台加入到這個群會集即可,並保證這2台伺服器都是運用的靜態IP。
2,在web-01(192.168.1.130)上從管理工具中翻開 網路負載均衡器,右擊「網路負載平衡群集」,挑選「新建群集」
3,在「新群集:銜接」窗口中將 192.168.1.130增加為主機,點擊下一步進入 「新群集:主機參數」,下一步,進入 「新群集:群集IP地址」,增加窗口中的「增加」 將192.168.1.254 增加到窗口中然後下一步;
4,進入 「新群集:群集參數」,挑選「多播」然後下一步;進入 「新群集:埠規則」,選中悉數,然後修改;將埠范圍改成 80~80,協議選 「TCP」,相關性選「無」點擊斷定回到主窗口,然後點擊完結。
5,經過上面的過程,現已建立了一個群集,並且將web-01加入到了群會集,還需要手動將web-02也加入到群會集。在群集(192.168.1.254)上右鍵點擊「增加主機到群集」。銜接」窗口中的 主機中輸入192.168.1.131即可。
Ⅸ 利用DNS伺服器實現主域和子域的Web伺服器的負載均衡。
負載均衡技術能夠平衡伺服器集群中所有的伺服器和請求應用之間的通信負載,根據實時響應時間進行判斷,將任務交由負載最輕的伺服器來處理,以實現真正的智能通信管理和最佳的伺服器群性能,從而使網站始終保持運行和保證其可訪問性。
為了充分利用利用現有伺服器軟體的種種優勢,負載均衡最好是在伺服器軟體之外來完成。而最早使用的負載均衡技術是通過DNS服務中的隨機名字解析來實現的。這就是通常所說的DNS負載均衡技術。
DNS負載均衡技術的實現原理是在DNS伺服器中為同一個主機名配置多個IP地址,在應答DNS查詢時,DNS伺服器對每個查詢將以DNS文件中主機記錄的IP地址按順序返回不同的解析結果,將客戶端的訪問引導到不同的機器上去,使得不同的客戶端訪問不同的伺服器,從而達到負載均衡的目的。
直到現在,很多網站仍然使用DNS負載均衡來保證網站的運行和可訪問性。從其實現和效果來看,主要有以下優缺點:
主要優點
這種技術的主要缺點如下:
第一,技術實現比較靈活、方便,簡單易行,成本低,適用於大多數TCP/IP應用。不需要網路專家來對之進行設定,或在出現問題時對之進行維護。
第二,對於Web應用來說,不需要對代碼作任何的修改。事實上,Web應用本身並不會意識到負載均衡配置,即使在它面前。
第三,Web伺服器可以位於互聯網的任意位置上。
主要缺點
DNS負載均衡技術在具有以上優點的時候,其缺點也非常明顯,主要表現在:
第一,不能夠按照Web伺服器的處理能力分配負載。DNS負載均衡採用的是簡單的輪循負載演算法,不能區分伺服器之間的差異,不能反映伺服器的當前運行狀態。所以DNS伺服器將Http請求平均地分配到後台的Web伺服器上,而不考慮每個培咐沖Web伺服器當前的負載情況。如果後台的Web伺服器的配置和處理能力不同,最慢的 Web伺服器將成為系統的瓶頸,處理能力強的伺服器不能充分發揮作用。不能做到為性能較好的伺服器多分配請求,甚至會出現客戶請求集中在某一台伺服器上的情況。
第二,不支持高可靠性,DNS負載均衡技術沒有考慮容錯。如果後台的某台Web伺服器出現故障,DNS伺服器仍然會把DNS 請求分配到這台故障伺服器上,導致不能響應客戶端。
第三,可能會造成額外的網路問題。為了使本DNS伺服器和其他DNS伺服器及時交互,保證DNS數據及時更新,使地址能隨機分配,一般都要將DNS的刷新時間設置的較小,但太配殲小將會使DNS流量大增造成額外的網路問題。
第四,一旦某個伺服器出現故障,即使及時修改了DNS設置,還是要等待足夠的時間(刷新時間)才能發揮作用,在此期間,保存了故障伺服器地址的客戶計算機將簡脊不能正常訪問伺服器。
總結
從上面的總結我們可以看出,總體來說,DNS負載均衡技術方案不應該算是真正意義上的負載均衡,不能夠穩定、可靠、高效地滿足企業對Web伺服器的需求,也不能滿足網路用戶對網站訪問的及時響應和可用性,所以現在很多Web站點方案中,已經很少採用這種方案了。
Ⅹ 兩台windows2003server怎麼做web負載均衡
我也是菜鳥,給你個思路,不指望分
你可以試試在一台伺服器做WEB和資料庫,另外一台做WEB,兩個WEB都連接那一個資料庫,這樣兩個WEB內容就是同步的了,然後兩台WEB間做負載,下邊是我COPY的
網路負載均衡可以讓客戶端用一個邏輯Internet名稱和虛擬IP地址(又稱群集IP地址)訪問群集,同時保留每台計算機各自的名稱。下面,我們將在兩台安裝WindowsServer2003的普通計算機上,介紹網路負載均衡的實現及應用。
這兩台計算機中,一台計算機名稱為A,IP地址為192.168.0.7;另一台名為B,IP地址為192.168.0.8。規劃網路負載均衡專用虛擬IP地址為192.168.0.9。當正式應用時,客戶機只需要使用IP地址192.168.0.9來訪問伺服器,網路服務均衡會根據每台伺服器的負載情況自動選擇192.168.0.7或者192.168.0.8對外提供服務。具體實現過程如下:
在實現網路負載均衡的每一台計算機上,只能安裝TCP/IP協議,不要安裝任何其他的協議(如IPX協議或者NetBEUI協議),這可以從「網路連接屬性」中查看。
第一步,分別以管理員身份登錄A機和B機,打開兩台機的「本地連接」屬性界面,勾選「此連接使用下列項目」中的「負載均衡」項並進入「屬性」對話框,將IP地址都設為192.168.0.9(即負載均衡專用IP),將子網掩碼設置為255.255.255.0;
第二步,分別進入A機和B機的「Internet協議(TCP/IP)」屬性設置界面,點擊「高級」按鈕後,在彈出的「高級TCP/IP設置」界面中添加IP地址192.168.0.9和子網掩碼設置為255.255.255.0。
第三步,退出兩台計算機的「本地連接屬性」窗口,耐心等一會兒讓系統完成設置。
以後,如果這兩台伺服器不能滿足需求,可以按以上步驟添加第三台、第四台計算機到網路負載均衡系統中以滿足要求。
用IIS服務驗證網路負載均衡
網路負載均衡配置好後,為了實現某項具體的服務,需要在網路負載均衡的計算機上安裝相應的服務。例如,為了實現IIS網站的負載均衡,需要在相應的網路負載均衡伺服器上安裝IIS服務。為了讓每個用戶在通過網路負載均衡訪問到不同的計算機時,能夠訪問到一致的數據,需要在網路負載均衡的每台計算機上保持數據的一致性。舉例來說,實現了兩個節點的IIS的網路負載均衡,為了保證兩個網站內容的一致性,除了這兩個IIS伺服器的配置相同外,相應的網站數據必須一致。
為了檢驗網路負載均衡,我們可以通過IIS來進行驗證,其他的一些應用如終端服務、WindowsMedia服務與IIS的應用與之相類似。在其他計算機上的IE瀏覽器中鍵入192.168.0.9,根據網路的負載,網路負載均衡會自動轉發到A機或B機。為了驗證效果,你可以在瀏覽的時候,拔掉第一台計算機的網線或拔掉第二台機器的網線,將會發現瀏覽到的將是不同內容。當然,我們在測試的時候,為了驗證網路負載均衡的效果,把兩個網站設置成不一致的內容,而在正式應用的時候,網路負載均衡群集的每個節點計算機的內容將是一致的,這樣不管使用哪一個節點響應,都能保證訪問的內容是一致的。