分布式CPU训练优秀实践
提高CPU使用率主要依赖 ,可以充分利用多个CPU的计算能力来加速计算。
以上参数中:
- : 对于CPU训练而言,应该选择 fluid.BuildStrategy.ReduceStrategy.Reduce
- :模型副本replica的个数,最好和num_threads一致
提高通信速度
要减少通信数据量,提高通信速度,主要是使用稀疏更新 ,目前支持 的主要是 embedding 。
- fc = fluid.layers.embedding(input=data, size=[dict_size, 16], is_sparse=True)
- : 配置embedding使用稀疏更新,如果embedding的dict_size很大,而每次数据data很少,建议使用sparse更新方式。