1. 關於單台伺服器承載多大訪問量的問題
看訪問量,並發用戶數,業務類型吧。
當然數據服務要考慮優化,日誌定期清理。
如果錯開訪問和同時並發,對伺服器的要求也是很不同的。
比如一個靜態化的網址站,一天可以承受100萬ip。
同樣的互動社區可能100萬pv就很吃力了。
2. 海量高並發處理網站的負載均衡如何設計
H綣�蘊�鍾猩璞溉プ鯰布��叮��斐勺試吹睦朔眩��胰綣�院竺媼僖滴窳康募ぴ觶�植壞貌輝俅瓮度敫叨畹撓布��凍殺荊�踔列閱茉僮吭降納璞敢膊荒藶�憬�匆滴窳康男棖蟆� 在此種情況下,單純的網路架構就顯得捉襟見肘了,而負載均衡機制則應運而生。 伺服器負載均衡(Server Load Balancing),其原理是將工作任務相對均衡地分攤到多個節點(伺服器集群)上執行,從而提升整個業務系統的性能。諸如LVS、HA Proxy等開源軟體,可以在現有的網路基礎架構之上建立負載均衡機制,以滿足業務增長的需要,對於網站的來說不啻為一種廉價且有效的擴展性選擇。 此外,針對互聯網上有可能影響數據傳輸的各種環節,CDN(Content Delivery Network)內容交付網路的應對方案也適時出現。CDN對網站內容的處理,主要在於利用緩存技術將靜態內容快速分發至邊緣節點,通過讓用戶就近取得所需內容,解決 Internet網路擁擠的狀況,提高用戶訪問網站的響應速度,同時也減輕了網站自身系統的性能壓力。 現在看來,貌似我們已經解決了網站發布所面臨的所有瓶頸了,但是實際上問題遠沒有那麼簡單。一方面,對於數據交互比較頻繁的動態內容而言,CDN只能在其中心節點與源數據節點(網站自身系統)之間做有限的傳輸優化,加速效果遠不如靜態內容做緩存分發那般明顯。 另一方面,隨著線上業務、電子商務等領域的Web內容呈現日漸豐富,涌現出了愈發復雜的業務交付需求,這對網站的發布方而言也意味著將面臨更多的挑戰。因此,當我們拋開網路的傳輸質量、帶寬擁塞程度等外界因素來看的話,又不得不正視一個問題--影響網站訪問效果的最大瓶頸還是在於源數據節點自身的處理性能。 以電子商務網站這種典型的大型高並發訪問量的線上業務為例,其性能瓶頸最容易出現在聯機事務處理(OLTP)的環節,例如訪問用戶進行條目查閱、訂單確認等場景。產生這種情況的原因在於,網站的運營方出於數據安全等因素的考慮,是不可能將後台資料庫等資源完全向CDN服務商開放的。由此造成,所有涉及到此類動態資源的訪問就會頻繁地經由CDN網路的邊緣節點上溯到源數據節點(即網站自身系統)來請求實時地響應處理。在保障數據安全性的前提下,要解決網站的性能瓶頸問題,必須提高源數據節點的業務處理效率,因此我們還得從網路架構的設計著手。 前文提到過,單台伺服器的處理能力有限,當突發訪問量驟然增加的時候,其性能就會成為整個系統的瓶頸,導致用戶訪問的響應緩慢甚至網站伺服器癱瘓。為了滿足高並發量訪問的需求,可以通過軟體手段實現伺服器集群的多機負載均衡效果。然而,這種軟體式的負載均衡有一個不可避免的缺點,那便是系統的穩定性和性能方面受限於軟體所安裝運行的伺服器,一旦訪問量過大時,該台伺服器就恰恰成了整個系統的瓶頸所在。 就一個發布線上業務的網站系統而言,前台的Web伺服器由於有外部的CDN服務作為靜態內容的分流渠道,尚不至於產生明顯的系統瓶頸,而後台處理動態內容的核心業務系統就難免會感到壓力巨大了。具體分析的話,當前的業務系統多採用客戶端--中間件--資料庫的三層結構設計,通常多是利用WebLogic中間件軟體自帶的伺服器集群功能來滿足高性能需求,其中一台WebLogic Server作為管理伺服器負責任務調度,實現負載均衡效果。但是,當訪問用戶到達一定數目的時候,由於該伺服器自身的硬體性能瓶頸,會造成整個系統的聯機事務處理效率低下;而且由於WebLogic自身設計的原因,當任務量達到一定閥值的時候,即便是升級伺服器硬體性能也無法提升其進行負載均衡調度的能力。 針對上述情況,最好的辦法莫過於採用硬體負載均衡設備,以解決數據流量過大、任務負荷過重所產生的系統瓶頸問題。在這一方面,業內知名的硬體廠商有F5、深信服等等。值得一提的是,深信服的應用交付產品除具有傳統負載均衡功能外,其獨有的單邊加速技術,能夠在跨運營商網路環境中,通過廣域網傳輸文件及應用的訪問時間減少30%以上,極大提高了用戶體驗。 雖然部署硬體設備意味著一筆額外的開支,但是它給網站的整體業務系統所帶來的性能提升,卻是傳統的軟體方案所望其項背的。除此之外,專業的硬體設備所能提供的負載調度演算法和健康檢查機制也更加豐富、全面,有助於進一步提升關鍵業務發布的穩定性和持久性,這對於高並發量的大型網站而言是極具價值的。 當然,對於不同規模、不同業務的網站而言,沒有一概而論的設計標准,文中提到的技術手段都有著相應的適用場景,這就需要網站的架構師們做具體的規劃了。
3. web伺服器訪問量和訪問速度的關系(專家來)
你錯了,同時訪問量也和伺服器的網速有直接關系
影響用戶訪問速度的主要原因是帶寬、距離、伺服器能力。Internet的快速發展,入網速度不斷提高,主幹帶寬不斷擴容,用戶規模也在不斷擴大。影響網路速度的主要瓶頸將集中在訪問距離和伺服器承載負荷能力。電子商務、貿易,內容供應商(ICP),門戶網站,大型機構專網,虛擬主機服務商,隨著網站訪問量日漸增大、內容不斷豐富和用戶期望值不斷提高,網站的響應速度、點擊負荷量要求提供更快的訪問速度和承受更大的負荷量,這些都依賴於網站伺服器的基礎設施,需要不斷的擴展。
通過Cache緩存伺服器技術是解決訪問距離和提高源伺服器能力的有效方法,也是經濟、簡單、可快速實施的方案,比起鏡像伺服器具有很大的優勢。 面對訪問量的不斷增加和用戶要求的速度越來越高,擴展伺服器當然是一個基本的解決方案,擴展伺服器對運行維護也帶來了很大的運營成本,採用高速緩存伺服器,可以減少網站伺服器的的內容傳輸負荷,提高對用戶的響應速度,這是由於高速緩存伺服器的設計比Web伺服器的設計,性能更高效。採用Netshine ICS高速緩存伺服器,最大的處理量能達到整個站點頁面的95%左右的訪問量,減輕伺服器的壓力,提升了網站的性能和可擴展性。Cache安裝在Web伺服器前端,作為「前置機」直接接受用戶的請求,且能與Web伺服器保持自動同步更新,免維護,所以網站只要專心維護好源伺服器一份拷貝。
Cache 部署示意圖如下:http://www.chinaitbank.com/ads/other/20060217154049889.gif
使用Cache之後,為網路用戶提高50%-80%的網頁響應速度,可擴展最大10倍的訪問量,提高了Web伺服器的負荷能力,不需要增加Web伺服器,由於響應速度的提高,極大的提升客戶的滿意度,吸引更多的忠誠用戶,業務量也得到發展,而且顯著的節省投資和運行維護費用,系統變得可擴展。
Cache伺服器加速Web伺服器,根據安裝位置和使用方式不同,有如下使用方式:
1. 加速單台Web伺服器,最簡單的辦法是Cache作為網橋串接在Web伺服器之前,所以訪問伺服器的流量由Cache自動處理,最大95%的流量由Cache供應給用戶。
2. 虛擬主機方式,Cache可以部署在Web伺服器前端或異地,將網站域名的IP地址解析到Cache上,此時Cache相當於Web伺服器。有些政府企業,Web伺服器沒有放在IDC中心,放置在企業內部機房,此時Web伺服器放置在防火牆的裡面,Cache伺服器放置在防火牆的外面,Cache伺服器充當Web主機,既增加了安全性,又提高了響應速度。Cache的安全級別相對Web伺服器要搞出很多,能抵禦DoS等攻擊,將用戶的訪問與源伺服器隔離,有效提高了安全性,保證關鍵網站的正常運行。
3. IDC用Cache做加速服務,加速多台Web伺服器,Cache部署在IDC機房,一般通過4層交換機透明截取流量,由Cache供給Web伺服器的內容,覆蓋最大95%的訪問量,提高響應速度50%-80%。
4. 異地智能鏡像,此時Cache伺服器相當於一台異地鏡像伺服器,自動與源伺服器同步,免維護,使用時給各Cache伺服器分配主機名,將URL解析到Cache上,在主站點上標明各地鏡像站點,指導用戶就近訪問,因為靠近用戶邊緣,將獲得更快的響應速度。
5. 智能型CDN網路,Cache部署方式與異地鏡像一樣,在遠程各節點放置多台Cache,通過全局負載均衡DNS調度,透明地導引用戶就近訪問,由於中心調度與各Cache做健康、流量、網路響應速度檢查,所以更智能地保證流量地均勻分配,獲得更高的響應速度和高可用性。
小結:Cache對Web伺服器的加速模式,由靠近Web伺服器向靠近用戶端發展。Cache伺服器部署在Web伺服器同一機房,減輕伺服器負荷,由Cache的高速性能提高響應速度,如果在異地部署加速,從帶寬、距離、提升伺服器能力三個方面得到提高,是最好的方案,但是受客觀條件的限制。
4. 一個web伺服器能承受多少訪問量
沒有固定,需要看伺服器配置高低。
不僅僅是訪問量問題,主要是數據,如果站點數據量不是太大。沒有太多的查詢。一台P4的普通電腦可以承受成千上萬的上網用戶。(還有帶寬問題,比如共享的100兆位。高帶寬。在線人數更多)
如果您有一個幾百兆位元組或幾十億位元組的資料庫。這是另一回事。伺服器的內存必須至少是資料庫的3倍才能運行。
無論如何。常見的企業網站。幾百米的股票。P4的平台。網上幾千個就足夠了(沒有下載,沒有視頻)。
(4)用戶訪問量增加伺服器承載能力擴展閱讀:
WEB伺服器類型:
1,IIS
IIS伺服器稱為:Internet信息服務。它是微軟公司擁有的web伺服器,是目前最流行的web伺服器產品之一。
2、康樂
Kanglewebserver(Kangle)是一款跨平台、功能強大、安全穩定、易於操作的高性能web伺服器和反向代理伺服器軟體。
3,WebSphere
WebSphereApplicationServer是一個功能齊全的開放Web應用程序伺服器,它是IBM電子商務計劃的核心部分。它是一個基於java的應用程序環境,用於構建、部署和管理Internet和IntranetWeb應用程序。
4,WebLogic
BEAWebLogicServer是一個多功能的、基於標準的web應用程序伺服器,為企業構建自己的應用程序提供了堅實的基礎。
5,Apache
Apache是世界上使用最多的Web伺服器,佔有大約60%的市場份額。
6,Tomcat
Tomcat是一個開源的基於java的Web應用程序容器,它運行servlet和JSPWeb應用程序。
7,Jboss
它是一個基於J2EE的開源應用伺服器。JBoss代碼是在LGPL下授權的,可以在任何商業應用程序中免費使用,而不需要支付任何費用。
5. 為什麼Google、百度的伺服器能夠承受住很多用戶的訪問
學校撐死用個小型機,一般就用個雙cpu的伺服器,還有些用很古老的機子的,癱瘓很正常。
你可以去網上查一查google、網路他們的伺服器,網上很多圖片,他們都是大型伺服器集群,集裝箱式伺服器,供電系統就像個大型的變電站,中央空調一樣的散熱系統,整個系統應該比你學校還大。而且散布在世界各地,不只一個。他們伺服器的多任務處理能力,接受訪問能力,安全性都是根據最大訪問量設置的。設備根據訪問量的增大,不斷升級。這就是差別。
6. 帶寬是什麼
帶寬是指在單位時間(一般指的是1秒鍾)內能傳輸的數據量。網路和高速公路類似,帶寬越大,就類似高速公路的車道越多,其通行能力越強。
網路帶寬作為衡量網路特徵的一個重要指標,日益受到人們的普遍關注。它不僅是政府或單位制訂網路通信發展策略的重要依據,也是互聯網用戶和單位選擇互聯網接入服務商的主要因素之一。
把城市的道路看成網路,道路有雙車道、四車道也許是八車道,人們駕車從出發點到目的地,途中可能經過雙車道、四車道也許是單車道。在這里,車道的數量好比是帶寬,車輛的數目就好比是網路中傳輸的信息量。
再用城市的供水網來比喻,供水管道的直徑可以衡量運水的能力,主水管直徑可能有2m,而到家庭的可能只有2cm。在這個比喻中,水管的直徑好比是帶寬,水就好比是信息量。使用粗管子就意味著擁有更寬的帶寬,也就是有更大的信息運送能力。
(6)用戶訪問量增加伺服器承載能力擴展閱讀
當設計一個網路時,應該重點考慮帶寬的理論值,即在給定的條件下,理論上所具備的最大數據傳輸位數。設計的網路的速度應與介質所允許的速度相當,讓用戶使用網路時,應該考慮的是吞吐量,即用戶是否滿意實際獲得的帶寬值。
當構建網路時應考慮的重要因素是介質的選擇,這又和用戶所需要的文件下載量有關,文件越大,需要的時間越多。
有一個公式:預計下載時間=傳輸文件尺寸/帶寬。在不考慮影響帶寬的各種因素下,根據此公式可以粗略估計已選擇的介質傳輸文件所需要的時間。
在網路通信中,個人或組織在使用網路時總是希望帶寬越來越寬,特別是Internet的使用,對數據傳輸的要求呈現出爆炸性的增長,因此對帶寬的要求也日甚一日。
新一代多媒體、影像傳輸、資料庫、網路電視的信息量猛增使得帶寬成為了嚴重的瓶頸,迫使乙太網向更高的速度發展。各種開發光纖網帶寬的技術正在研究和使用中。
因此,了解帶寬的作用無疑將節約大量的資金,作為一名網路設計人員,帶寬是主要的設計點。作為網路專業人士,帶寬和吞吐量是分析網路運行情況的要素。
互聯網日益強大,網民人數不斷增加,伴隨而來的是互聯網公眾化時代的到來。人們對互聯網的需求不再是單一地瀏覽網頁、查看新聞,而是提出了多樣化的應用需求。網路游戲、在線影視、遠程辦公、網路電視等形式的出現雖然極大地豐富了人們的生活,但同時也給互連網的帶寬提出了更加高的要求。
7. 你們面對網站超大訪問量 伺服器承受不住時 如何優化
在網站上一個流量分析統計軟體,可以即時知道哪些地方耗費了大量流量,哪些頁面需要再進行優化,因此,解決流量問題還需要進行精確的統計分析才可以。
將文件放在不同的主機上,提供不同的鏡像供用戶下載。比如如果覺得RSS文件佔用流量大,那麼使用FeedBurner或者FeedSky等服務將RSS輸出放在其他主機上,這樣別人訪問的流量壓力就大多集中在FeedBurner的主機上,RSS就不佔用太多資源了。
你說的是伺服器的均衡負載嗎?
8. 豆瓣崩了,這到底是出現了什麼BUG
暫時還無法得知豆瓣崩潰的具體bug。
並非所有軟體官方都會回應軟體崩潰的具體原因,尤其是經常出現軟體崩潰的公司。由於人們對不同軟體提出了更高的要求,部分軟體負責方和運行公司會通過不斷的調整,提高人們的使用感受,調整部分軟體功能。豆瓣已經人們成為最常使用的APP之一,吃瓜者和討論者不計其數。
隨著豆瓣平台的迅速發展,豆瓣官方為用戶提供了大量的小組。清朗行動之後,官方開始有條不紊的關閉部分小組,主要是防止飯圈影響粉絲正常生活。現如今,多個粉絲聚集的小組已經被關閉,而豆瓣崩潰卻登上熱搜。
總的來說,軟體崩潰不外乎以下兩個原因,訪問量太多導致系統崩潰,伺服器不穩定以及系統bug。豆瓣官方運營人員更應該及時排除系統bug,為用戶提供更加穩定的網站環境和網路服務,減少軟體崩潰帶給用戶的影響。
9. 承受每天百萬級訪問量的網站需要多少台伺服器
一般情況下,一台至強高配置的伺服器一天能承載十幾到二十萬左右的訪問量.如果有達到上百萬的訪問量.可以通過多台伺服器來做負載均衡解決這個問題.比如說把網站的前端頁面和資料庫分開,用10台機器.其中一台高配置的放資料庫.另外9台機器放前端頁面.然後利用DNSPOD智能解析,把一個域名解析指向9台機器的IP.DNSPOD本身有智能分配的功能.當一台伺服器的資源不足以滿足用戶的訪問需求時會自動切換到其他機器上面訪問.