背景
我們的業(yè)務共使用 11 臺(阿里云)服務器,使用 SpringcloudAlibaba 構(gòu)建微服務集群, 共計 60 個微服務, 全部注冊在同一個 Nacos 集群。
流量轉(zhuǎn)發(fā)路徑:nginx -> spring-gateway -> 業(yè)務微服務。
使用的版本如下:
spring-boot.version:2.2.5.RELEASE
spring-cloud.version:Hoxton.SR3
spring-cloud-alibaba.version:2.2.1.RELEASE
java.version:1.8
基于 Spring Boot + MyBatis Plus + Vue & Element 實現(xiàn)的后臺管理系統(tǒng) + 用戶小程序,支持 RBAC 動態(tài)權(quán)限、多租戶、數(shù)據(jù)權(quán)限、工作流、三方登錄、支付、短信、商城等功能
項目地址:https://github.com/YunaiV/ruoyi-vue-pro
視頻教程:https://doc.iocoder.cn/video/
案發(fā)
春節(jié)放假期間收到反饋,網(wǎng)頁報錯服務未找到(gateway 找不到服務的報錯提示)。查看 nacos 集群列表,發(fā)現(xiàn)個別服務丟失 (下線)。
這個問題每幾天出現(xiàn)一次, 出現(xiàn)時間不固定, 每次掉線的服務像是隨機選的幾個。服務手動 kill+restart 后能穩(wěn)定運行 2-3 天。
基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 實現(xiàn)的后臺管理系統(tǒng) + 用戶小程序,支持 RBAC 動態(tài)權(quán)限、多租戶、數(shù)據(jù)權(quán)限、工作流、三方登錄、支付、短信、商城等功能
項目地址:https://github.com/YunaiV/yudao-cloud
視頻教程:https://doc.iocoder.cn/video/
排查和解決
懷疑對象一:服務器內(nèi)存爆了
進阿里云控制臺查看故障機器近期的各項指標,但是發(fā)現(xiàn)故障機器的指標有重要的幾項丟失。內(nèi)存使用率、CPU 使用率、系統(tǒng)負載均不顯示。
控制臺看不了只好進服務器內(nèi)查看各指標,free -m 查看內(nèi)存無異常。提交阿里工單。授權(quán)阿里工程師幫忙修復控制臺顯示問題,懷疑這個問題對業(yè)務有影響。
控制臺修復后掉線問題依然存在。
懷疑對象二:CPU滿載
能感覺到執(zhí)行命令很流暢,所以感覺不是這個原因。top 查看后很正常。
懷疑對象三:磁盤滿了
雖然概率很小,但是 du -sh * 看一下,發(fā)現(xiàn)磁盤容量還能用到公司倒閉。
懷疑對象四:網(wǎng)絡有問題
服務器那三個基本故障暫時排除后,最大懷疑對象就是網(wǎng)絡。畢竟服務掉線肯定是服務端一段時間內(nèi)接收不到客戶端心跳包,所以把客戶端踢下線了。
通過 telnet,mtr -n ...,netstat -nat |grep "TIME_WAIT" | wc -l 這些命令也只能看個大概。
echo "1" > /proc/sys/net/ipv4/tcp_tw_reuse 修改內(nèi)核參數(shù),開啟 TIME_WAIT socket 復用能力,提升實例的網(wǎng)絡發(fā)送請求性能。
查看 nacos 客戶端(微服務)的日志,在前面案發(fā)里提到?jīng)]有日志記錄。
懷疑對象五:Nacos 集群服務端故障
查看 nacos 集群部署的那幾臺服務器, 查看服務器基礎指標 (內(nèi)存、CPU、磁盤等),未發(fā)現(xiàn)異常 (畢竟還有幾十個微服務都很正常工作)。
查看 nacos 服務端日志,發(fā)現(xiàn)確實有主動下線服務操作。那就奇怪了,這個機器上的有些服務還在正常工作,為什么會隨機下線幾個服務呢?
懷疑對象六:微服務占用資源太多
后來仔細想想,這個懷疑對象是不是有點離譜了?因為部署腳本都是同一個,而且負載均衡也是一樣的。但其他機器的這個服務都好好的。
調(diào)大每個微服務的內(nèi)存占用。
添加堆棧打印。
等待一段時間后,異常依然存在,并且沒有堆棧打印?因為進程好好的并沒退出。
google 搜索 nacos 服務掉線,找到一篇看起來極其靠譜的文章。
上文提到我使用的 springcloud 版本,恰好這個版本的 nacos-client 版本就是 1.4.1, 于是立馬測試升級。
觀察幾天后,發(fā)現(xiàn)問題依舊,只能將探查方向繼續(xù)轉(zhuǎn)回微服務本身。
用 arthas 進行勘測各項指標,發(fā)現(xiàn)所有正常的服務各指標均正常。
想到服務掉線大概率是因為心跳包丟失,懷疑是心跳線程因為某些原因被殺死了。
翻看 nacos-client 源碼,找到心跳函數(shù)(nacos2.x 不是這個),使用 arthas 監(jiān)聽心跳包,嘗試能找到心跳丟失的證據(jù),貼上當時的記錄。
當異常再次發(fā)生,arthas 監(jiān)聽卡死,無任何記錄和響應。
無奈更換思路,寫一個監(jiān)聽服務掉線的程序,期望可以在工作時間內(nèi)及時獲取到異常。
終于在工作時間捕獲到異常,第一時間進入服務器內(nèi)查看情況。
確認服務器基礎項沒問題后,使用 arthas 查看服務進程堆棧情況,但是 arthas 無法進入進程。
用 jstat 查看 GC 情況,顯示很正常。
用 jmap/jstack 輸出堆棧 jstack -l 25944 >heap.txt,但是提示無法進入進程。無奈使用添加 - F(這個參數(shù)的堆棧少了很多信息),jstack -F -l 25944 >heap.txt
查看堆棧文件上萬行記錄,眼都看花了但是沒有死鎖也沒有發(fā)現(xiàn)異常。
此時發(fā)現(xiàn)監(jiān)聽程序提示服務上線了?檢查后發(fā)現(xiàn)確實掉線的幾個微服務自動恢復了,心想這就難排查了。
嘗試復現(xiàn) Bug,此時離第一次案發(fā)已經(jīng)過去一周多,必須盡快處理好這個 Bug 否則可能得被迫離職了。
當?shù)诙伟l(fā)生異常的時候,使用同樣的方式 arthas 無法進入 ->...->jstack 輸出堆棧。奇跡發(fā)生了,服務又恢復正常了。
思考 / 猜測:因為 JVM 死了(假死),所以導致進程中的一切內(nèi)容,包括心跳線程、日志等都 hold 住。
Google 搜索關鍵詞 JVM 停止(假死)排查,終于找到一個極其靠譜的回答。
連忙查看對比使用的幾個機器內(nèi)核版本號 uname -r。
那個低版本的就是故障機器,確認相關信息后,聯(lián)系阿里云提交工單。
升級完內(nèi)核并重啟機器后,觀察兩天至今這個問題不存在了。誰能想到這個問題居然是因為 Linux 內(nèi)核的 Bug 引起的?!不得不佩服第一個發(fā)現(xiàn)這個 Bug 的大佬。
完結(jié)感言
這個問題折磨了一周多,每日如鯁在喉!調(diào)試過程也是苦樂參半,樂的是突然有了調(diào)試思路,苦的是思路是一條死胡同,還好最終結(jié)果是滿意的。
作為一名程序員,還是要時刻保持一顆探索的心,學海無涯!
審核編輯 :李倩
-
服務器
+關注
關注
13文章
9796瀏覽量
88012 -
JAVA
+關注
關注
20文章
2989瀏覽量
109854 -
spring
+關注
關注
0文章
340瀏覽量
15088 -
微服務
+關注
關注
0文章
145瀏覽量
7746
原文標題:Java 微服務隨機掉線排查過程
文章出處:【微信號:芋道源碼,微信公眾號:芋道源碼】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
波特率漂移導致通信異常的故障排查過程

微服務架構(gòu)和CQRS架構(gòu)基本概念介紹
微服務網(wǎng)關gateway的相關資料推薦
java微服務生態(tài)系統(tǒng)模型解讀

實例分析Java微服務框架和優(yōu)勢
java微服務架構(gòu)有哪些

DC-DC電源故障排查過程和總結(jié),珍貴的經(jīng)驗!資料下載

JVM CPU使用率飆高問題的排查分析過程
springcloud微服務架構(gòu)
java內(nèi)存溢出排查方法
Java怎么排查oom異常
Java微服務隨機掉線排查過程簡析

Java微服務中如何確保安全性?
Java應用OOM問題的排查過程

評論