-
Notifications
You must be signed in to change notification settings - Fork 70
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Pod的节点调度实现按Pod的编号取模滚动部署的效果 #195
Comments
对于长连接的传统部署游戏,通常都会有这种需求,不只是节点,其他数据库负载均衡等资源都有这种调度需求 |
如果合理设置request / limit 是否能规避这种情况? |
1、仅设置request/limit,默认的调度器应该无法保证初始逻辑服部署的时候,连续的序号不调度到同一个节点,调度器在调度的时候是否考虑规避序号的连续性待确认。 上述问题的一个可能的解决思路是:
在被触发的webhook中:
4、针对前面的节点数的指定,也可以尝试用注解添加一些节点简单过滤的属性,例如nodeselector等,避免人为设置。 在这种模式下,应该可以实现: 但是此方法是否可行还在测试中,目前经过webhook修改返回后pod的属性并没有变更,还在调试中。如果此思路有问题,或者如果有更好的实现思路,烦请指正下。 |
在滚服类游戏项目中,由于预注册、大量买量等原因导致,首次开服通常是流量高峰期。
对于未实现game服无状态+负载均衡架构的游戏项目,当前正在导量的game会负载较高。一般的做法是提前准备多台服务器节点,按照取模的方式滚动部署,度过流量高峰期。
举例:
1、准备3台机器:n1、n2、n3。
2、game的部署方式为:
n1:g1、g4、g7
n2:g2、g5、g8
n3:g3、g6、g9
同时随着游戏生命周期的演进,人数少的游戏服将被合服或者集中移动至特定的机器上,因此取模计算的时候,还需要考虑可供调度的节点及数量。
The text was updated successfully, but these errors were encountered: