VeighNa量化社区
你的开源社区量化交易平台
potatoTaunt's Avatar
Member
离线
3 帖子
声望: 0

xiaohe wrote:

如果数据量比较大可以换个快一点的数据库试试
haha

xiaohe wrote:

potatoTaunt wrote:

xiaohe wrote:

是的,是根据CPU核心数量跑的。
请用htop看吧。

“是的 ” 是指本次更新(2.4.0)确实 会导致大部分被分配的cpu 闲置?
使用 htop 或 top 在解决 “导致大部分被分配的cpu 闲置” 这个问题上 能起到什么帮助呢? 还是需要观察其他的 资源使用情况?
是的是指,是根据CPU核心数量跑的。
你这显示的是进程,而不是核心吧。
htop监控功能更强。

oh~,理解你的意思了。 最后实验发现,如果数据量比较大,并行优化有一个尴尬的点: 由于优化的时候会每组 setting 参数从Database (即硬盘)读取数据,运行速度会极大地被拖慢。 可是如果将数据保存在主进程中, 优化时直接对 history_data 赋值 又会有 进程间数据传输堵塞的问题, 致使被分配的cpu 资源利用不全。 不知道你对这个情况有没有什么建议?

xiaohe wrote:

是的,是根据CPU核心数量跑的。
请用htop看吧。

“是的 ” 是指本次更新(2.4.0)确实 会导致大部分被分配的cpu 闲置?
使用 htop 或 top 在解决 “导致大部分被分配的cpu 闲置” 这个问题上 能起到什么帮助呢? 还是需要观察其他的 资源使用情况?

© 2015-2022 微信 18391752892
备案服务号:沪ICP备18006526号

沪公网安备 31011502017034号

【用户协议】
【隐私政策】
【免责条款】