Git Product home page Git Product logo

multirunner's Introduction

MultiRunner说明文档

这是一个进程级别的python并行框架,可用于深度学习调参等任务,可通过 pip install MultiRunner 安装

注意,本包的使用极度简洁,原代码完全无需改动,使用本包的时候,包含import语句在内,仅需加入四行代码。

如果你遇到了以下问题之一,你可能需要这个包:

  • 你是一个机器学习调参侠,你有多台共享硬盘的主机(节点,CPU,GPU,aws等),你需要以不同的参数运行一个函数多次,该函数针对每个参数返回一个结果(你可能想知道最好的那个结果所对应的参数,没错,我说的就是深度炼丹)。你想让这些主机并行地为你跑程序,但是你懒得手动一个个输入命令,且由于不同的主机运算能力不同,你不知道该如何为不同的节点分配不同的任务量,你不愿意坐在电脑前等着程序运行结束,也不想一个个手动输入命令

  • 你有一台普通电脑,你需要以不同的参数运行一个函数多次并得到结果,你想尽力将其并行化,但是你不想学习Multiprocessing库

先看一个例子,你原来的代码可能是这样的:

# old_run.py

def train_a_model(batch_size,hidden_layer_number,learning_rate):
    #your code here
    return accuracy

for batch_size in [16,64,256]:
    for hidden_layer_number in [1,2]:
        for learning_rate in [0.001,0.01,0.1]:
            print batch_size,hidden_layer_number,learning_rate
            my_result = train_a_model(batch_size,hidden_layer_number,learning_rate)
            print my_result

现在它可以是这样:

# new_run.py

def train_a_model(batch_size,hidden_layer_number,learning_rate):
    #your code here
    return accuracy

from MultiRunner import MultiRunner

a=MultiRunner()
a.generate_ini([[16,64,256], [1,2], [0.001,0.01,0.1]])#注意这里,所有的参数列表要最后用一个list或者tuple括起来
a.run(train_a_model)

注意:新的代码可以在多台共享硬盘的主机上同时跑,多台主机会并行地跑不同的实验,一个主机上的某个实验跑完之后将以文件格式保存该实验结果并立即运行下一个没跑过的实验。我们已经在代码中做了充分的多进程冲突处理,而这一切都是封装好的。

你只要需要在多个节点的同一个目录下分别运行 python new_run.py 即可

运行该代码后,最先运行该代码的进程会创建./ini目录,并在其中以文件的格式保存参数用于进程同步,以刚刚的代码为例,该文件夹内会有3*2*3=18个文件,文件以pickle格式存储,分明命名为0_to_run, 1_to_run ...... 17_to_run

实验过程中,每个正在运行的实验后缀会被改为XX_running,以5_to_run为例,该参数对应的实验过程中,5_to_run将被改名为5_running,若该实验成功运行完毕,实验结果以pickle文件格式成功存储于./results/5,5_running将被重命名为5_finished。

代码可以处理实验过程中的错误情况,如果某个参数的实验中出现了错误,该参数对应的文件XX_running会自动回滚为XX_to_run,之后该主机将会选择另一个参数进行实验,当一个进程合计错误次数达到一定值的时候,该进程将退出,默认值是5,该值可以通过对象创建时候的max_error_times参数进行设定。

进阶内容

  • run方法中的 if_torch_use_best_nvidia_gpu 参数,默认值为0,当代码使用pytorch的cuda操作且该参数赋值为1的时候,将自动选择该主机上最空闲的nvidia驱动的显卡。
  • 为最大化地优化实验速度,如果某进程运行完一个实验后,进行下一个实验参数选择的时候发现所有的参数都已经实验完毕或者实验正在运行的,该进程会随机选择一个正在运行的实验参数运行,这样设计的目的是避免出现以下情况:A, B主机运行速度很快,C主机运行速度很慢,C选取了一个参数慢慢运行,A, B虽然没有任务但是无法为C分担,实验速度被C拖慢。本设计中,如果遇到上述情况,A, B在运行完自己的实验后都会运行C的实验,并在C运行完毕前得到实验结果,因此提高了实验速度。但是,代码也会存在实验结果已经全部得出但是仍有进程在运行的问题。

有任何问题都可以直接提issue,也可以发邮件联系我。

欢迎给Star,欢迎fork,欢迎提新需求。

multirunner's People

Contributors

statham-stone avatar

Watchers

James Cloos avatar

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.