Ⅰ windows server 2012怎么配置网络负载均衡
WindowsServer2012的推出被称为“云操作系统“,想必这个操作系统在虚拟化领域,在网络和存储层面,在接入和安全层面都会有很有实力的功能体现。今天给大家介绍的网卡聚合能力就是充分利用汇总方式提高服务器整体网络性能,进而实现在高密度业务负载环境,高可用网络环境下的需求,当然除了网卡聚合功能单方面提升消除CPU的瓶颈也是重点,例如Offload卡,SRIOV,RSS,VMQ队列等等技术在Server2012中你都能找到配套的核心技术支撑。今天这篇博客重点介绍一下WindowsServer2012中网卡聚合的功能。说到网卡聚合,可能大家并不陌生,而且这个在”虚拟化世界“里尤为重要的功能,原来WindowsServer2008R2中并不能提供支持,而是需要依靠HP,DELL,Intel,Broadcom等公司自己提供的软件进行设置和支持,但是这是不够的,要知道通过一个硬件厂商提供的聚合功能软件仅能对同种品牌的网卡进行统一的支持,这对于一个要求具有选择权和灵活性的数据中心而言是不够好的。当然你知道的,在WindowsServer2012中我们苦等的内置的,虚拟化环境所依赖的功能终于实现了在操作系统中的预置;因此充分了解合理利用这个功能是十分有益的。那么什么是网络聚合或者WindowsServer2012中定义的网络聚合?在Server2012中网络聚合有种称谓叫做LBOF(LoadBalanceandfailover)字面上也很好理解,就是负载均衡同时实现故障切换功能的网络通道,熟悉这个LBOF灰常有意义,因为实现和查看网卡聚合状态需要用到的PowershellCMDLET就涉及了这个词汇;有了这个操作系统层面的功能,就可以将不同品牌的同质的网卡进行组合实现:1.网络带宽捆绑2.当网络组件出现故障时可以被检测到并自动进行故障转移举例来说如果你不是配置成“主备”模式而是“双活”模式的网卡聚合,那么两个1GbE的千兆网卡可以实现2Gb的总吞吐,如果是两个万兆网卡就可以实现20Gb的总吞吐以此类推。WindowsServer2012支持多少个网卡进行捆绑呢?答案是32个!这是个绝对足够大的带宽:)Server2012支持两种网络聚合模式,在配置网络聚合的时候默认的是选择第一种模式:交换机独立模式这种模式最为通用,因为不要求交换机参与网络聚合,因此交换机并不知道在聚合网络中的网卡属于主机中一个网卡聚合组,所以网卡可以连接不同的交换机不过交换机独立模式并不要求聚合组中的网卡连接到不同的交换机。而且在连接不同交换机时采用的是主备模式,只有在连接在同一交换机时才可以实现负载均衡聚。交换机依赖模式这种模式需要交换机参与网络聚合,并且要求所有网络聚合组网卡连接到同一个物理交换机或者以级联多交换机方式实现的对外显示为单一物理交换机的方式;根据交换机支持的模式可以有两种模式选择:通用的静态聚合模式即IEEE802.3ad这种模式需要在交换机上静态设置指定汇聚组中的网卡连接。由于这种方式需要静态指定,因此没有动态协商协议机制帮助交换机判断线缆连接的正确与否或是否有其他错误导致聚合失败。动态聚合模式即IEEE802.1ax或LACP(链路汇聚控制协议)这种模式由于有了LACP协议的支持,可以动态的识别服务器和交换机的连接,进而实现动态地创建聚合组,添加和移除组成员等工作,现在多数交换机都支持LACP即802.1ax协议,不过也大多需要在服务器连接的交换机端口中手工启用此功能。通过图形方法配置,如果在Server2012中启用了图形界面管理功能,可以利用服务器管理器简单的创建网络聚合。当然,通过Powershell命令行是个很好的方式,先看看可以针对LBFO进行哪些操作:创建一个网卡聚合组“NICTeaming”,将所有本机物理网卡添加到这个组中,并且设置模式为交换机独立模式,负载均衡模式为默认哈希:看看创建之后的网络设备,是不是多了一个NICTeaming网卡?当然,你也可以通过Powershell看到这个网络聚合网卡的状态。
Ⅱ 如何配置Web服务器实现负载均衡
网络的负载均衡是一种动态均衡技术,通过一些工具实时地分析数据包,掌握网络中的数据流量状况,把任务合理均衡地分配出去。这种技术基于现有网络结构,提供了一种扩展服务器带宽和增加服务器吞吐量的廉价有效的方法,加强了网络数据处理能力,提高了网络的灵活性和可用性。
以四台服务器为例实现负载均衡:
安装配置LVS
1. 安装前准备:
(1)首先说明,LVS并不要求集群中的服务器规格划一,相反,可以根据服务器的不同配置和负载状况,调整负载分配策略,充分利用集群环境中的每一台服务器。如下表:
Srv Eth0 Eth0:0 Eth1 Eth1:0
vs1 10.0.0.1 10.0.0.2 192.168.10.1 192.168.10.254
vsbak 10.0.0.3 192.168.10.102
real1 192.168.10.100
real2 192.168.10.101
其中,10.0.0.2是允许用户访问的IP。
(2)这4台服务器中,vs1作为虚拟服务器(即负载平衡服务器),负责将用户的访问请求转发到集群内部的real1,real2,然后由real1,real2分别处理。
Client为客户端测试机器,可以为任意操作系统。
(3)所有OS为redhat6.2,其中vs1 和vsbak 的核心是2.2.19, 而且patch过ipvs的包, 所有real
server的Subnet mask 都是24位, vs1和vsbak 的10.0.0. 网段是24 位。
2.理解LVS中的相关术语
(1) ipvsadm :ipvsadm是LVS的一个用户界面。在负载均衡器上编译、安装ipvsadm。
(2) 调度算法: LVS的负载均衡器有以下几种调度规则:Round-robin,简称rr;weighted
Round-robin,简称wrr;每个新的连接被轮流指派到每个物理服务器。Least-connected,简称lc;weighted
Least-connected,简称wlc,每个新的连接被分配到负担最小的服务器。
(3) Persistent client
connection,简称pcc,(持续的客户端连接,内核2.2.10版以后才支持)。所有来自同一个IP的客户端将一直连接到同一个物理服务器。超时时间被设置为360秒。Pcc是为https和cookie服务设置的。在这处调度规则下,第一次连接后,所有以后来自相同客户端的连接(包括来自其它端口)将会发送到相同的物理服务器。但这也会带来一个问题,因为大约有25%的Internet
可能具有相同的IP地址。
(4) Persistent port
connection调度算法:在内核2.2.12版以后,pcc功能已从一个调度算法(你可以选择不同的调度算法:rr、wrr、lc、wlc、pcc)演变成为了一个开关选项(你可以让rr、
wrr、lc、wlc具备pcc的属性)。在设置时,如果你没有选择调度算法时,ipvsadm将默认为wlc算法。 在Persistent port
connection(ppc)算法下,连接的指派是基于端口的,例如,来自相同终端的80端口与443端口的请求,将被分配到不同的物理服务器上。不幸的是,如果你需要在的网站上采用cookies时将出问题,因为http是使用80端口,然而cookies需要使用443端口,这种方法下,很可能会出现cookies不正常的情况。
(5)Load Node Feature of Linux Director:让Load balancer 也可以处理users 请求。
(6)IPVS connection synchronization。
(7)ARP Problem of LVS/TUN and LVS/DR:这个问题只在LVS/DR,LVS/TUN 时存在。
3. 配置实例
(1) 需要的软件包和包的安装:
I. piranha-gui-0.4.12-2*.rpm (GUI接口cluster设定工具);
II. piranha-0.4.12-2*.rpm;
III. ipchains-1.3.9-6lp*.rpm (架设NAT)。
取得套件或mount到光盘,进入RPMS目录进行安装:
# rpm -Uvh piranha*
# rpm -Uvh ipchains*
(2) real server群:
真正提供服务的server(如web
server),在NAT形式下是以内部虚拟网域的形式,设定如同一般虚拟网域中Client端使用网域:192.168.10.0/24
架设方式同一般使用虚拟IP之局域网络。
a. 设网卡IP
real1 :192.168.10.100/24
real2 :192.168.10.101/24
b.每台server均将default gateway指向192.168.10.254。
192.168.10.254为该网域唯一对外之信道,设定在virtual server上,使该网域进出均需通过virtual server 。
c.每台server均开启httpd功能供web server服务,可以在各real server上放置不同内容之网页,可由浏览器观察其对各real
server读取网页的情形。
d.每台server都开启rstatd、sshd、rwalld、ruser、rsh、rsync,并且从Vserver上面拿到相同的lvs.conf文件。
(3) virtual server:
作用在导引封包的对外主机,专职负责封包的转送,不提供服务,但因为在NAT型式下必须对进出封包进行改写,所以负担亦重。
a.IP设置:
对外eth0:IP:10.0.0.1 eth0:0 :10.0.0.2
对内eth1:192.168.10.1 eth1:0 :192.168.10.254
NAT形式下仅virtual server有真实IP,real server群则为透过virtual server.
b.设定NAT功能
# echo 1 >; /proc/sys/net/ipv4/ip_forward
# echo 1 >; /proc/sys/net/ipv4/ip_always_defrag
# ipchains -P forward MASQ
c.设定piranha 进入X-window中 (也可以直接编辑/etc/lvs.cf )
a).执行面板系统piranha
b).设定“整体配置”(Global Settings) 主LVS服务器主机IP:10.0.0.2, 选定网络地址翻译(预设) NAT路径名称:
192.168.10.254, NAT 路径装置: eth1:0
c).设定虚拟服务器(Virtual Servers) 添加编辑虚拟服务器部分:(Virtual
Server)名称:(任意取名);应用:http;协议: tcp;连接:80;地址:10.0..0.2;装置:eth0:0; 重入时间:180
(预设);服务延时:10 (预设);加载监控工具:ruptime (预设);调度策略:Weighted least-connections; 持续性:0
(预设); 持续性屏蔽: 255.255.255.255 (预设); 按下激活:实时服务器部分:(Real Servers); 添加编辑:名字:(任意取名);
地址: 192.168.10.100; 权重:1 (预设) 按下激活
另一架real server同上,地址:192.168.10.101。
d). 控制/监控(Controls/Monitoring)
控制:piranha功能的激活与停止,上述内容设定完成后即可按开始键激活piranha.监控器:显示ipvsadm设定之routing table内容
可立即更新或定时更新。
(4)备援主机的设定(HA)
单一virtual server的cluster架构virtual server 负担较大,提供另一主机担任备援,可避免virtual
server的故障而使对外服务工作终止;备份主机随时处于预备状态与virtual server相互侦测
a.备份主机:
eth0: IP 10.0.0.3
eth1: IP 192.168.10.102 同样需安装piranha,ipvsadm,ipchains等套件
b.开启NAT功能(同上面所述)。
c.在virtual server(10.0.0.2)主机上设定。
a).执行piranha冗余度 ;
b).按下“激活冗余度”;
冗余LVS服务器IP: 10.0.0.3;HEARTBEAT间隔(秒数): 2 (预设)
假定在…秒后进入DEAD状态: 5 (预设);HEARTBEAT连接端口: 539 (预设)
c).按下“套用”;
d).至“控制/监控”页,按下“在当前执行层添加PULSE DEAMON” ,按下“开始”;
e).在监控器按下“自动更新”,这样可由窗口中看到ipvsadm所设定的routing table,并且动态显示real
server联机情形,若real server故障,该主机亦会从监视窗口中消失。
d.激活备份主机之pulse daemon (执行# /etc/rc.d/init.d/pulse start)。
至此,HA功能已经激活,备份主机及virtual server由pulse daemon定时相互探询,一但virtual
server故障,备份主机立刻激活代替;至virtual server 正常上线后随即将工作交还virtual server。
LVS测试
经过了上面的配置步骤,现在可以测试LVS了,步骤如下:
1. 分别在vs1,real1,real2上运行/etc/lvs/rc.lvs_dr。注意,real1,real2上面的/etc/lvs
目录是vs2输出的。如果您的NFS配置没有成功,也可以把vs1上/etc/lvs/rc.lvs_dr复制到real1,real2上,然后分别运行。确保real1,real2上面的apache已经启动并且允许telnet。
2. 测试Telnet:从client运行telnet 10.0.0.2,
如果登录后看到如下输出就说明集群已经开始工作了:(假设以guest用户身份登录)
[guest@real1 guest]$——说明已经登录到服务器real1上。
再开启一个telnet窗口,登录后会发现系统提示变为:
[guest@real2 guest]$——说明已经登录到服务器real2上。
3. 测试http:从client运行iexplore http://10.0.0.2
因为在real1 和real2 上面的测试页不同,所以登录几次之后,显示出的页面也会有所不同,这样说明real server 已经在正常工作了。
Ⅲ 两台windows2003server怎么做web负载均衡
我也是菜鸟,给你个
思路
,不指望分
你可以试试在一台
服务器
做WEB和数据库,另外一台做WEB,两个WEB都连接那一个数据库,这样两个WEB内容就是同步的了,然后两台WEB间做
负载
,下边是我COPY的
网络负载均衡可以让客户端用一个逻辑Internet
名称
和虚拟
IP地址
(又称群集IP地址)访问群集,同时保留每台
计算机
各自的名称。下面,我们将在两台安装Windows
Server
2003的普通计算机上,介绍网络负载均衡的实现及应用。
这两台计算机中,一台计算机名称为A,IP地址为192.168.0.7;另一台名为B,IP地址为192.168.0.8。规划网络负载均衡专用虚拟IP地址为192.168.0.9。当正式应用时,
客户机
只需要使用IP地址192.168.0.9来访问服务器,
网络服务
均衡会根据每台服务器的负载情况自动选择192.168.0.7或者192.168.0.8对外提供服务。具体实现
过程
如下:
在实现网络负载均衡的每一台计算机上,只能安装
TCP/IP协议
,不要安装任何其他的协议(如IPX协议或者
NetBEUI协议
),这可以从“网络连接属性”中查看。
第一步,分别以管理员身份登录A机和B机,打开两台机的“本地连接”属性界面,勾选“此连接使用下列项目”中的“负载均衡”项并进入“属性”对话框,将IP地址都设为192.168.0.9(即负载均衡专用IP),将
子网掩码
设置为255.255.255.0;
第二步,分别进入A机和B机的“Internet协议(TCP/IP)”属性设置界面,点击“高级”按钮后,在弹出的“高级TCP/IP设置”界面中添加IP地址192.168.0.9和子网掩码设置为255.255.255.0。
第三步,退出两台计算机的“本地连接属性”窗口,耐心
等一会儿
让系统完成设置。
以后,如果这两台服务器不能满足需求,可以按以上步骤添加第三台、第四台计算机到网络负载均衡系统中以满足要求。
用IIS服务验证网络负载均衡
网络负载均衡配置好后,为了实现某项具体的服务,需要在网络负载均衡的计算机上安装相应的服务。例如,为了实现IIS网站的负载均衡,需要在相应的网络负载均衡服务器上安装IIS服务。为了让每个用户在通过网络负载均衡访问到不同的计算机时,能够访问到一致的数据,需要在网络负载均衡的每台计算机上保持数据的
一致性
。举例来说,实现了两个
节点
的IIS的网络负载均衡,为了保证两个网站内容的一致性,除了这两个
IIS
服务器的配置相同外,相应的网站数据必须一致。
为了检验网络负载均衡,我们可以通过IIS来进行验证,其他的一些应用如终端服务、Windows
Media服务与IIS的应用与之相类似。在其他计算机上的IE
浏览器
中键入192.168.0.9,根据网络的负载,网络负载均衡会自动转发到A机或B
机。为了验证效果,你可以在浏览的时候,拔掉第一台计算机的网线或拔掉第二台机器的网线,将会发现浏览到的将是不同内容。当然,我们在测试的时候,为了验证网络负载均衡的效果,把两个网站设置成不一致的内容,而在正式应用的时候,网络负载均衡群集的每个节点计算机的内容将是一致的,这样不管使用哪一个节点响应,都能保证访问的内容是一致的。
Ⅳ 我用nginx配置webservice负载均衡,怎么弄
简单的负载均衡配置
upstreambackend{
serverbackend1.example.comweight=5;#weight权重,权重越高发送到此台服务器的请求概率越大
serverbackend2.example.com:8080;
serverbackup1.example.com:8080backup;#backup备份服务器,只有在非backup服务器都不能访问时才会向此服务器分流
serverbackup2.example.com:8080backup;
}
server{
location/{
proxy_passhttp://backend;
}
}
Ⅳ 如何让一个web程序支持负载均衡
这篇实用文章介绍如何将pfSense 2.0配置成你那些Web服务器的负载均衡器。这篇实用文章假设你已经安装了一个pfSense设备和至少两台Apache服务器,并且运行在你的网络上;还假设你具备了pfSense方面的一些知识。
要求
一台设备用于安装pfSense 2.0(如果这是你的边缘防火墙,我会建议物理机器)。
至少两台Apache2服务器(这些可以是虚拟服务器)。
对Apache服务器进行了配置,以便以某种方式同步Web文件(rsync/corosync或通过Web服务器维持文件版本最新的另一个选项)。
配置pfSense
pfSense使用负载均衡器,将某些类型的流量带来的负载分摊到多台服务器上;如果你有多台服务器用于托管运行应用程序,这很好;你可以将负载分摊到所有服务器上,而不是把负载全扔给一台服务器、导致不堪重负。
可以入手了,先点击“Services”(服务),然后点击“Load Balancers”(负载均衡器),然后点击“Monitor”(监视器)选项卡。
要添加一个新条目,点击“Plus”(添加)按钮,指定“Name”(名称)和“Description”(描述,在这个示例中,我会使用
ApacheClusterMon作为名称和描述),将类型设成“HTTP”,然后为“Host”(主机)设置一个未使用的IP地址(我们随后会创建虚拟
服务器的IP,以便分配给故障切换服务器组),任由“HTTP Code”(HTTP代码)设成“200
OK”。需要的话,然后点击“Save”(保存),使更改生效。
Ⅵ WEB服务器的负载均衡
负载均衡的意思就是有几台服务器或者几个服务。。通过设备或者软件,将外部来的连接均匀的分配到这几个服务器或者服务上面。。使服务器的负载平均
目的是使服务器出错率更低,运行效率更高。
一般配置好了服务器后需要的只是技术了,费用也就是购置服务器的费用了。
Ⅶ 服务器负载均衡问题,需要的设备和软件
你上面说到的这些服务器只有Web服务器需要做负载均衡,而且一般都是前置机才做负载均衡,做服务器负载均衡的条件是:
1. 你要有提供相同应用的多台Web服务器。
2. 要有负载均衡的设备(可以是软件也可以是硬件)。
3. 要为这个服务分配一个虚拟地址(作为服务访问的统一入口)和若干真实地址(有几台Web服务器需要几个真实地址)。
注:一般建议采用硬件设备,通常需要做负载均衡的应用说明他的负载很大,专用的硬件比较可靠。
具备以上条件后将Web服务器连接到负载均衡设备上,在负载均衡设备上配置虚拟地址和真实地址、配置负载均衡算法,配置负载均衡策略,将负载均衡设备接入网络。
这样,外面的用户只需要访问这个虚拟地址就可以了,负载均衡设备收到请求后会按照负载均衡策略和算法把请求分配到真实地址上,实现负载功能。
以上所说只是负载均衡的一种部署方式,根据实际需要选择单臂、双臂接入网络;根据应用的特点选择健康检查的方式;根据应用选择是否使用回话保持算法等。
Ⅷ 3台web服务器怎么负载均衡
DNS设置解析就可以,可以一条默认线路,一条电信,一条联通,这种形式
Ⅸ 想做服务器的负载均衡 都有哪些方式
最常见的一种方法,是在同一个机房的同一机柜上面租用多台机器.并把网站的数据库和页面分开.把数据库放在单独的一台高配置服务器上面.把网站前端页面复制成多份.放在不同的其他几台机器上面.然后用DNSPOD解析.把一个域名解析指向多个不同服务器的IP.这样就可以实现多台服务器负载均衡的功能.而且相对比较简单.
海腾数据杨闯为你解答.个人建议.希望对你有帮助.
Ⅹ Java web项目,怎么做负载均衡啊
Java web项目负载均衡常用的是nginx。
在多个服务器上部署同一个web项目,nginx会将用户的请求随机(可自定义)分发到其中一个web服务器,当其中任意一个或多个web服务器宕机时,不影响用户的正常访问。
1、两个web服务器负载均衡:
upstream local_tomcat {
# 这里是本机的第一个web服务器
server localhost:8080;
# 这里是本机的第二个web服务器
server localhost:9090;
#还可添加很多
}
server{
location / {
proxy_pass http://local_tomcat;
}
#......其他省略
}
当访问http://localhost时,nginx会随机的跳转到8080与9090服务器。当8080服务器宕机时,9090会继续工作。如果想控制两个服务器的权重,比如 9090 服务器性能好,可以多处理一些请求,则可以如下配置权重
upstream local_tomcat {
server localhost:8080 weight=1;
server localhost:9999 weight=2;
}
这样在9090受访的机率会比8080多一倍。
2、静态文件,这个好像conf.xml有现成的配置,只要改一下就可以,如下对图片的配置
#location ~ \.(png|jpg|bmp)$ {
root image;
}
所有png 、 jpg 、 bmp 的请求都会直接去访客根目录下的image文件夹,当然也可以使用绝对路径。