-
Notifications
You must be signed in to change notification settings - Fork 3
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[Performance] 🟢 TPS 185%, Error rate 0%, MTTFB 변동률 2422% Improved by - HPA, ReadinessProbe, CPU limit, EKS NodeGroup AutoScaling, Caching, 톰켓 최적화 GET /api-chat/rooms
#326
Comments
내장 tomcat 최적화PR #334 에서 적용된 톰켓 최적화 설정을 아래에 풀어볼게요.
그래서 결과는요!!!
정말 신기하지 않나요? 동시 요청 스레드 300 을 우리는 에러없이 견딜 수 있는 서버를 만들어낸거에요! 그리고 MTTFB 가 꽤 안정적으로 수평을 이루고 있는 부분이 안정적인 서비스라는 뜻이겠죠? 저는 이 결과를 통해 병목이 걸리는 곳이 내장 톰켓이였다는 것을 확인할 수 있었습니다. 그럼 이제 현재까지의 모든 테스트들을 요약하여 시작과 끝의 성능지표를 비교해보겠습니다.
|
GET /api-chat/rooms
GET /api-chat/rooms
GET /api-chat/rooms
GET /api-chat/rooms
GET /api-chat/rooms
로드 테스트 설정
결과 미리 관찰
중간중간 TPS 가 감소하는 모습을 확 위의 그래프에서 확인할 수 있습니다. 역시 VUSER 가 100명일 때와 300일 때는 많이 다르네요 :( TPS 감소 이유는 아래의 그래프에서 원인을 파악할 수 있습니다.
MTTFB 가 중간중간 5초가 넘습니다. 그리고 이런 피크를 보일 때 마다 오류또한 증가합니다. 마찬가지로 TPS 또한 같이 감소하는 것을 확인할 수 있었습니다. 저는 채팅서버의 로드가 중간중간 증가해서 헬스체크의 타임아웃이 발생했고, 서비스가 로드밸런싱을 다시 수행하면서 TPS 가 감소했다고 생각했어요. 한번 확인해보겠습니다.
deploy 로그를 확인했더니 역시 health 타임아웃 오류가 발생했었습니다.
그렇다면 타임아웃을 10초로 설정하면 견딜 수 있겠죠?
The text was updated successfully, but these errors were encountered: