提高 web 應用的性能從來沒有比現在更重要過。網絡經濟的比重一直在增長;全球經濟超過 5% 的價值是在因特網上產生的(數據參見下面的資料)。這個時刻在線的超連接世界意味著用戶對其的期望值也處于歷史上的最高點。如果你的網站不能及時的響應,或者你的 app 不能無延時的工作,用戶會很快的投奔到你的競爭對手那里。
舉一個例子,一份亞馬遜十年前做過的研究可以證明,甚至在那個時候,網頁加載時間每減少100毫秒,收入就會增加1%。另一個最近的研究特別強調一個事實,即超過一半的網站擁有者在調查中承認它們會因為應用程序性能的問題流失用戶。
網站到底需要多快呢?對于頁面加載,每增加1秒鐘就有4%的用戶放棄使用。頂級的電子商務站點的頁面在第一次交互時可以做到1秒到3秒加載時間,而這是提供最高舒適度的速度。很明顯這種利害關系對于 web 應用來說很高,而且在不斷的增加。
想要提高效率很簡單,但是看到實際結果很難。為了在你的探索之旅上幫助到你,這篇文章會給你提供10條最高可以提升10倍網站性能的建議。
Tip #1: 通過反向代理來提高性能和增加安全性
如果你的 web 應用運行在單個機器上,那么這個辦法會明顯的提升性能:只需要換一個更快的機器,更好的處理器,更多的內存,更快的磁盤陣列,等等。然后新機器就可以更快的運行你的 WordPress 服務器, Node.js 程序, Java 程序,以及其它程序。(如果你的程序要訪問數據庫服務器,那么解決方法依然很簡單:添加兩個更快的機器,以及在兩臺電腦之間使用一個更快的鏈路。)
問題是,機器速度可能并不是問題。web 程序運行慢經常是因為計算機一直在不同的任務之間切換:通過成千上萬的連接和用戶交互,從磁盤訪問文件,運行代碼,等等。應用服務器可能會抖動thrashing-比如說內存不足、將內存數據交換到磁盤,以及有多個請求要等待某個任務完成,如磁盤I/O。
你可以采取一個完全不同的方案來替代升級硬件:添加一個反向代理服務器來分擔部分任務。反向代理服務器 位于運行應用的機器的前端,是用來處理網絡流量的。只有反向代理服務器是直接連接到互聯網的;和應用服務器的通訊都是通過一個快速的內部網絡完成的。
使用反向代理服務器可以將應用服務器從等待用戶與 web 程序交互解放出來,這樣應用服務器就可以專注于為反向代理服務器構建網頁,讓其能夠傳輸到互聯網上。而應用服務器就不需要等待客戶端的響應,其運行速度可以接近于優化后的性能水平。
添加反向代理服務器還可以給你的 web 服務器安裝帶來靈活性。比如,一個某種類型的服務器已經超載了,那么就可以輕松的添加另一個相同的服務器;如果某個機器宕機了,也可以很容易替代一個新的。
因為反向代理帶來的靈活性,所以反向代理也是一些性能加速功能的必要前提,比如:
負載均衡 (參見 Tip #2) – 負載均衡運行在反向代理服務器上,用來將流量均衡分配給一批應用。有了合適的負載均衡,你就可以添加應用服務器而根本不用修改應用。
緩存靜態文件 (參見 Tip #3) – 直接讀取的文件,比如圖片或者客戶端代碼,可以保存在反向代理服務器,然后直接發給客戶端,這樣就可以提高速度、分擔應用服務器的負載,可以讓應用運行的更快。
網站安全 – 反向代理服務器可以提高網站安全性,以及快速的發現和響應攻擊,保證應用服務器處于被保護狀態。
NGINX 軟件為用作反向代理服務器而專門設計,也包含了上述的多種功能。NGINX 使用事件驅動的方式處理請求,這會比傳統的服務器更加有效率。NGINX plus 添加了更多高級的反向代理特性,比如應用的健康度檢查,專門用來處理請求路由、高級緩沖和相關支持。
Tip #2: 添加負載平衡
添加一個負載均衡服務器 是一個相當簡單的用來提高性能和網站安全性的的方法。與其將核心 Web 服務器變得越來越大和越來越強,不如使用負載均衡將流量分配到多個服務器。即使程序寫的不好,或者在擴容方面有困難,僅是使用負載均衡服務器就可以很好的提高用戶體驗。
負載均衡服務器首先是一個反向代理服務器(參見Tip #1)——它接受來自互聯網的流量,然后轉發請求給另一個服務器。特別是負載均衡服務器支持兩個或多個應用服務器,使用分配算法將請求轉發給不同服務器。最簡單的負載均衡方法是輪轉法round robin,每個新的請求都會發給列表里的下一個服務器。其它的復制均衡方法包括將請求發給活動連接最少的服務器。NGINX plus 擁有將特定用戶的會話分配給同一個服務器的能力。
負載均衡可以很好的提高性能是因為它可以避免某個服務器過載而另一些服務器卻沒有需要處理的流量。它也可以簡單的擴展服務器規模,因為你可以添加多個價格相對便宜的服務器并且保證它們被充分利用了。
可以進行負載均衡的協議包括 HTTP、HTTPS、SPDY、HTTP/2、WebSocket、FastCGI、SCGI、uwsgi、 memcached 等,以及幾種其它的應用類型,包括基于 TCP 的應用和其它的第4層協議的程序。分析你的 web 應用來決定你要使用哪些以及哪些地方性能不足。
相同的服務器或服務器群可以被用來進行負載均衡,也可以用來處理其它的任務,如 SSL 末端服務器,支持客戶端的 HTTP/1.x 和 HTTP/2 請求,以及緩存靜態文件。
Tip #3: 緩存靜態和動態的內容
緩存可以通過加速內容的傳輸速度來提高 web 應用的性能。它可以采用以下幾種策略:當需要的時候預處理要傳輸的內容,保存數據到速度更快的設備,把數據存儲在距離客戶端更近的位置,或者將這幾種方法結合起來使用。
有兩種不同類型數據的緩沖:
靜態內容緩存。不經常變化的文件,比如圖像(JPEG、PNG) 和代碼(CSS,JavaScript),可以保存在外圍服務器上,這樣就可以快速的從內存和磁盤上提取。
動態內容緩存。很多 web 應用會針對每次網頁請求生成一個新的 HTML 頁面。在短時間內簡單的緩存生成的 HTML 內容,就可以很好的減少要生成的內容的數量,而且這些頁面足夠新,可以滿足你的需要。
舉個例子,如果一個頁面每秒會被瀏覽10次,你將它緩存 1 秒,90%請求的頁面都會直接從緩存提取。如果你分開緩存靜態內容,甚至新生成的頁面可能都是由這些緩存構成的。
下面由是 web 應用發明的三種主要的緩存技術:
1.縮短數據與用戶的網絡距離。把一份內容的拷貝放的離用戶更近的節點來減少傳輸時間。
2.提高內容服務器的速度。內容可以保存在一個更快的服務器上來減少提取文件的時間。
3.從過載服務器上移走數據。機器經常因為要完成某些其它的任務而造成某個任務的執行速度比測試結果要差。將數據緩存在不同的機器上可以提高緩存資源和非緩存資源的性能,而這是因為主機沒有被過度使用。
對 web 應用的緩存機制可以在 web 應用服務器內部實現。首先,緩存動態內容是用來減少應用服務器加載動態內容的時間。其次,緩存靜態內容(包括動態內容的臨時拷貝)是為了更進一步的分擔應用服務器的負載。而且緩存之后會從應用服務器轉移到對用戶而言更快、更近的機器,從而減少應用服務器的壓力,減少提取數據和傳輸數據的時間。
改進過的緩存方案可以極大的提高應用的速度。對于大多數網頁來說,靜態數據,比如大圖像文件,構成了超過一半的內容。如果沒有緩存,那么這可能會花費幾秒的時間來提取和傳輸這類數據,但是采用了緩存之后不到1秒就可以完成。
舉一個在實際中緩存是如何使用的例子, NGINX 和 NGINX Plus 使用了兩條指令來設置緩存機制:proxy_cache_path 和 proxy_cache。你可以指定緩存的位置和大小、文件在緩存中保存的最長時間和其它一些參數。使用第三條(而且是相當受歡迎的一條)指令 proxy_cache_use_stale,如果提供新鮮內容的服務器忙碌或者掛掉了,你甚至可以讓緩存提供較舊的內容,這樣客戶端就不會一無所得。從用戶的角度來看這可以很好的提高你的網站或者應用的可用時間。
NGINX plus 有個高級緩存特性,包括對緩存清除的支持和在儀表盤上顯示緩存狀態信息。
注意:緩存機制分布于應用開發者、投資決策者以及實際的系統運維人員之間。本文提到的一些復雜的緩存機制從 DevOps 的角度來看很具有價值,即對集應用開發者、架構師以及運維操作人員的功能為一體的工程師來說可以滿足它們對站點功能性、響應時間、安全性和商業結果(如完成的交易數)等需要。
Tip #4: 壓縮數據
壓縮是一個具有很大潛力的提高性能的加速方法。現在已經有一些針對照片(JPEG 和PNG)、視頻(MPEG-4)和音樂(MP3)等各類文件精心設計和高壓縮率的標準。每一個標準都或多或少的減少了文件的大小。
文本數據 —— 包括HTML(包含了純文本和 HTML 標簽),CSS 和代碼,比如 Javascript —— 經常是未經壓縮就傳輸的。壓縮這類數據會在對應用程序性能的感覺上,特別是處于慢速或受限的移動網絡的客戶端,產生更大的影響。
這是因為文本數據經常是用戶與網頁交互的有效數據,而多媒體數據可能更多的是起提供支持或者裝飾的作用。智能的內容壓縮可以減少 HTML,Javascript,CSS和其它文本內容對帶寬的要求,通常可以減少 30% 甚至更多的帶寬和相應的頁面加載時間。
如果你使用 SSL,壓縮可以減少需要進行 SSL 編碼的的數據量,而這些編碼操作會占用一些 CPU 時間而抵消了壓縮數據減少的時間。
壓縮文本數據的方法很多,舉個例子,在 HTTP/2 中,小說文本的壓縮模式就特別調整了頭部數據。另一個例子是可以在 NGINX 里打開使用 GZIP 壓縮。你在你的服務里預先壓縮文本數據之后,你就可以直接使用 gzip_static 指令來處理壓縮過的 .gz 版本。
Tip #5: 優化 SSL/TLS
安全套接字(SSL) 協議和它的下一代版本傳輸層安全(TLS)協議正在被越來越多的網站采用。SSL/TLS 對從原始服務器發往用戶的數據進行加密提高了網站的安全性。影響這個趨勢的部分原因是 Google 正在使用 SSL/TLS,這在搜索引擎排名上是一個正面的影響因素。
盡管 SSL/TLS 越來越流行,但是使用加密對速度的影響也讓很多網站望而卻步。SSL/TLS 之所以讓網站變的更慢,原因有二:
任何一個連接第一次連接時的握手過程都需要傳遞密鑰。而采用 HTTP/1.x 協議的瀏覽器在建立多個連接時會對每個連接重復上述操作。
數據在傳輸過程中需要不斷的在服務器端加密、在客戶端解密。
為了鼓勵使用 SSL/TLS,HTTP/2 和 SPDY(在下一章會描述)的作者設計了新的協議來讓瀏覽器只需要對一個瀏覽器會話使用一個連接。這會大大的減少上述第一個原因所浪費的時間。然而現在可以用來提高應用程序使用 SSL/TLS 傳輸數據的性能的方法不止這些。
web 服務器有對應的機制優化 SSL/TLS 傳輸。舉個例子,NGINX 使用 OpenSSL 運行在普通的硬件上提供了接近專用硬件的傳輸性能。NGINX 的 SSL 性能 有詳細的文檔,而且把對 SSL/TLS 數據進行加解密的時間和 CPU 占用率降低了很多。
Tip #6: 使用 HTTP/2 或 SPDY
對于已經使用了 SSL/TLS 的站點,HTTP/2 和 SPDY 可以很好的提高性能,因為每個連接只需要一次握手。而對于沒有使用 SSL/TLS 的站點來說,從響應速度的角度來說 HTTP/2 和 SPDY 將讓遷移到 SSL/TLS 沒有什么壓力(原本會降低效率)。
Google 在2012年開始把 SPDY 作為一個比 HTTP/1.x 更快速的協議來推薦。HTTP/2 是目前 IETF 通過的標準,是基于 SPDY 的。SPDY 已經被廣泛的支持了,但是很快就會被 HTTP/2 替代。
SPDY 和 HTTP/2 的關鍵是用單一連接來替代多路連接。單個連接是被復用的,所以它可以同時攜帶多個請求和響應的分片。
通過使用單一連接,這些協議可以避免像在實現了 HTTP/1.x 的瀏覽器中一樣建立和管理多個連接。單一連接在對 SSL 特別有效,這是因為它可以最小化 SSL/TLS 建立安全鏈接時的握手時間。
SPDY 協議需要使用 SSL/TLS,而 HTTP/2 官方標準并不需要,但是目前所有支持 HTTP/2 的瀏覽器只有在啟用了 SSL/TLS 的情況下才能使用它。這就意味著支持 HTTP/2 的瀏覽器只有在網站使用了 SSL 并且服務器接收 HTTP/2 流量的情況下才會啟用 HTTP/2。否則的話瀏覽器就會使用 HTTP/1.x 協議。
作為支持這些協議的一個樣例,NGINX 已經從一開始就支持了 SPDY,而且大部分使用 SPDY 協議的網站都運行的是 NGINX。NGINX 同時也很早對 HTTP/2 的提供了支持,從2015 年9月開始,開源版 NGINX 和 NGINX Plus 就支持它了。
經過一段時間,我們 NGINX 希望更多的站點完全啟用 SSL 并且向 HTTP/2 遷移。這將會提高安全性,同時也會找到并實現新的優化手段,簡化的代碼表現的會更加優異。
Tip #7: 升級軟件版本
一個提高應用性能的簡單辦法是根據軟件的穩定性和性能的評價來選在你的軟件棧。進一步說,因為高性能組件的開發者更愿意追求更高的性能和解決 bug ,所以值得使用最新版本的軟件。新版本往往更受開發者和用戶社區的關注。更新的版本往往會利用到新的編譯器優化,包括對新硬件的調優。
穩定的新版本通常比舊版本具有更好的兼容性和更高的性能。一直進行軟件更新,可以非常簡單的保持軟件保持最佳的優化,解決掉 bug,以及提高安全性。
一直使用舊版軟件也會阻止你利用新的特性。比如上面說到的 HTTP/2,目前要求 OpenSSL 1.0.1。在2016 年中期開始將會要求1.0.2 ,而它是在2015年1月才發布的。
NGINX 用戶可以開始遷移到 NGINX 最新的開源軟件 或者 NGINX Plus;它們都包含了最新的能力,如 socket 分割和線程池(見下文),這些都已經為性能優化過了。然后好好看看的你軟件棧,把它們升級到你能升級到的最新版本吧。
Tip #8: Linux 系統性能調優
Linux 是大多數 web 服務器使用的操作系統,而且作為你的架構的基礎,Linux 顯然有不少提高性能的可能。默認情況下,很多 Linux 系統都被設置為使用很少的資源,以符合典型的桌面應用使用。這就意味著 web 應用需要一些微調才能達到最大效能。
這里的 Linux 優化是專門針對 web 服務器方面的。以 NGINX 為例,這里有一些在加速 Linux 時需要強調的變化:
緩沖隊列。如果你有掛起的連接,那么你應該考慮增加 net.core.somaxconn 的值,它代表了可以緩存的連接的最大數量。如果連接限制太小,那么你將會看到錯誤信息,而你可以逐漸的增加這個參數直到錯誤信息停止出現。
文件描述符。NGINX 對一個連接使用最多2個文件描述符。如果你的系統有很多連接請求,你可能就需要提高sys.fs.file_max ,以增加系統對文件描述符數量整體的限制,這樣才能支持不斷增加的負載需求。
臨時端口。當使用代理時,NGINX 會為每個上游服務器創建臨時端口。你可以設置net.ipv4.ip_local_port_range 來提高這些端口的范圍,增加可用的端口號。你也可以減少非活動的端口的超時判斷來重復使用端口,這可以通過 net.ipv4.tcp_fin_timeout 來設置,這可以快速的提高流量。
Tip #9: web 服務器性能調優
無論你是用哪種 web 服務器,你都需要對它進行優化來提高性能。下面的推薦手段可以用于任何 web 服務器,但是一些設置是針對 NGINX 的。關鍵的優化手段包括:
訪問日志。不要把每個請求的日志都直接寫回磁盤,你可以在內存將日志緩存起來然后批量寫回磁盤。對于NGINX 來說,給指令 access_log 添加參數 buffer=size 可以讓系統在緩存滿了的情況下才把日志寫到磁盤。如果你添加了參數 flush=time ,那么緩存內容會每隔一段時間再寫回磁盤。
緩存。緩存會在內存中存放部分響應,直到滿了為止,這可以讓與客戶端的通信更加高效。內存放不下的響應會寫回磁盤,而這就會降低效能。當 NGINX 啟用了緩存機制后,你可以使用指令 proxy_buffer_size 和 proxy_buffers 來管理緩存。
客戶端保活。保活連接可以減少開銷,特別是使用 SSL/TLS 時。對于 NGINX 來說,你可以從 keepalive_requests 的默認值 100 開始增加最大連接數,這樣一個客戶端就可以在一個指定的連接上請求多次,而且你也可以通過增加 keepalive_timeout 的值來允許保活連接存活更長時間,這樣就可以讓后來的請求處理的更快速。
上游保活。上游的連接——即連接到應用服務器、數據庫服務器等機器的連接——同樣也會受益于連接保活。對于上游連接來說,你可以增加 keepalive,即每個工人進程的空閑保活連接個數。這就可以提高連接的復用次數,減少需要重新打開全新連接的次數。
限制。限制客戶端使用的資源可以提高性能和安全性。對于 NGINX 來說,指令 limit_conn 和 limit_conn_zone 限制了給定來源的連接數量,而 limit_rate 限制了帶寬。這些限制都可以阻止合法用戶扒取資源,同時也避免了攻擊。指令 limit_req 和 limit_req_zone 限制了客戶端請求。對于上游服務器來說,可以在 upstream 的配置塊里的 server 指令使用 max_conns 參數來限制連接到上游服務器的連接數。 這樣可以避免服務器過載。關聯的 queue 指令會創建一個隊列來在連接數抵達 max_connS 限制時在指定長度的時間內保存特定數量的請求。
工人進程。工人進程負責處理請求。NGINX 采用事件驅動模型和操作系統特定的機制來有效的將請求分發給不同的工人進程。這條建議推薦設置 worker_processes 為每個 CPU 一個 。worker_connections 的最大數(默認512)可以在大部分系統上根據需要增加,實驗性地找到最適合你的系統的值。
套接字分割。通常一個套接字監聽器會把新連接分配給所有工人進程。套接字分割會為每個工人進程創建一個套接字監聽器,這樣一來以當套接字監聽器可用時,內核就會將連接分配給它。這可以減少鎖競爭,并且提高多核系統的性能,要啟用套接字分隔需要在 listen 指令里面加上 reuseport 參數。
線程池。計算機進程可能被一個單一的緩慢的操作所占用。對于 web 服務器軟件來說,磁盤訪問會影響很多更快的操作,比如計算或者在內存中拷貝。使用了線程池之后慢操作可以分配到不同的任務集,而主進程可以一直運行快速操作。當磁盤操作完成后結果會返回給主進程的循環。在 NGINX 里有兩個操作——read() 系統調用和 sendfile() ——被分配到了線程池
技巧。當改變任何操作系統或支持服務的設置時,一次只改變一個參數然后測試性能。如果修改引起問題了,或者不能讓你的系統更快,那么就改回去。
Tip #10: 監視系統活動來解決問題和瓶頸
在應用開發中要使得系統變得非常高效的關鍵是監視你的系統在現實世界運行的性能。你必須能通過特定的設備和你的 web 基礎設施上監控程序活動。
監視活動是最積極的——它會告訴你發生了什么,把問題留給你發現和最終解決掉。
監視可以發現幾種不同的問題。它們包括:
服務器宕機。
服務器出問題一直在丟失連接。
服務器出現大量的緩存未命中。
服務器沒有發送正確的內容。
應用的總體性能監控工具,比如 New Relic 和 Dynatrace,可以幫助你監控到從遠程加載網頁的時間,而 NGINX 可以幫助你監控到應用交付端。當你需要考慮為基礎設施添加容量以滿足流量需求時,應用性能數據可以告訴你你的優化措施的確起作用了。
為了幫助開發者快速的發現、解決問題,NGINX Plus 增加了應用感知健康度檢查 ——對重復出現的常規事件進行綜合分析并在問題出現時向你發出警告。NGINX Plus 同時提供會話過濾功能,這可以阻止當前任務完成之前接受新的連接,另一個功能是慢啟動,允許一個從錯誤恢復過來的服務器追趕上負載均衡服務器群的進度。當使用得當時,健康度檢查可以讓你在問題變得嚴重到影響用戶體驗前就發現它,而會話過濾和慢啟動可以讓你替換服務器,并且這個過程不會對性能和正常運行時間產生負面影響。下圖就展示了內建的 NGINX Plus 模塊實時活動監視的儀表盤,包括了服務器群,TCP 連接和緩存信息等 Web 架構信息。
總結: 看看10倍性能提升的效果
這些性能提升方案對任何一個 web 應用都可用并且效果都很好,而實際效果取決于你的預算、你能花費的時間、目前實現方案的差距。所以你該如何對你自己的應用實現10倍性能提升?
為了指導你了解每種優化手段的潛在影響,這里是上面詳述的每個優化方法的關鍵點,雖然你的情況肯定大不相同:
反向代理服務器和負載均衡。沒有負載均衡或者負載均衡很差都會造成間歇的性能低谷。增加一個反向代理,比如 NGINX ,可以避免 web 應用程序在內存和磁盤之間波動。負載均衡可以將過載服務器的任務轉移到空閑的服務器,還可以輕松的進行擴容。這些改變都可以產生巨大的性能提升,很容易就可以比你現在的實現方案的最差性能提高10倍,對于總體性能來說可能提高的不多,但是也是有實質性的提升。
緩存動態和靜態數據。如果你有一個負擔過重的 web 服務器,那么毫無疑問肯定是你的應用服務器,只通過緩存動態數據就可以在峰值時間提高10倍的性能。緩存靜態文件可以提高幾倍的性能。
壓縮數據。使用媒體文件壓縮格式,比如圖像格式 JPEG,圖形格式 PNG,視頻格式 MPEG-4,音樂文件格式 MP3 可以極大的提高性能。一旦這些都用上了,然后壓縮文件數據可以將初始頁面加載速度提高兩倍。
優化 SSL/TLS。安全握手會對性能產生巨大的影響,對它們的優化可能會對初始響應產生2倍的提升,特別是對于大量文本的站點。優化 SSL/TLS 下媒體文件只會產生很小的性能提升。
使用 HTTP/2 和 SPDY。當你使用了 SSL/TLS,這些協議就可以提高整個站點的性能。
對 Linux 和 web 服務器軟件進行調優。比如優化緩存機制,使用保活連接,分配時間敏感型任務到不同的線程池可以明顯的提高性能;舉個例子,線程池可以加速對磁盤敏感的任務近一個數量級。
本文來源:徐州酷優網絡科技有限公司
本文網址:https:///xincheng/3612.html
聲明,本站文章均為酷優網絡原創或轉載,歡迎分享,轉載時請注明文章作者和“來源:徐州網站建設”并附本文鏈接
覆蓋全江蘇省的服務網絡
全國7×24小時客服熱線
病毒殺出率高于99%
網站可用性高于99.9%
最快網站3天內上線