您可以使用Python的os
模块来遍历文件夹中的每个脚本,并使用multiprocessing
模块来实现并行任务。以下是一个示例代码:
import os
import multiprocessing
def process_script(script):
# 在这里执行每个脚本的操作
# 这里只是打印脚本的名称
print("Processing script:", script)
def main():
folder_path = "/path/to/folder" # 文件夹路径
# 获取文件夹中的所有脚本
scripts = [file for file in os.listdir(folder_path) if file.endswith(".py")]
# 创建进程池,最大进程数为CPU核心数
pool = multiprocessing.Pool(processes=multiprocessing.cpu_count())
# 使用进程池来执行每个脚本
pool.map(process_script, scripts)
# 关闭进程池
pool.close()
pool.join()
if __name__ == "__main__":
main()
在上述代码中,process_script
函数是每个脚本的处理函数,您可以在其中执行您需要的操作。这里只是简单地打印了每个脚本的名称。
首先,代码获取指定文件夹中所有以.py
为后缀的脚本。然后,通过multiprocessing.Pool
创建进程池,并指定最大进程数为CPU核心数。接下来,使用pool.map
方法来并行执行process_script
函数,传入脚本列表作为参数。最后,关闭进程池并等待所有进程完成。
请注意,上述代码中的文件夹路径需要根据实际情况进行更改。