Python продвигает несколько подпроцессов bash?
Как использовать модули потоков и подпроцессов для запуска параллельных процессов bash? Когда я запускаю потоки, первый ответ здесь: Как использовать потоки в Python? процессы bash выполняются последовательно, а не параллельно.
3 ответа
Вам не нужны потоки для параллельного запуска подпроцессов:
from subprocess import Popen
commands = [
'date; ls -l; sleep 1; date',
'date; sleep 5; date',
'date; df -h; sleep 3; date',
'date; hostname; sleep 2; date',
'date; uname -a; date',
]
# run in parallel
processes = [Popen(cmd, shell=True) for cmd in commands]
# do other things here..
# wait for completion
for p in processes: p.wait()
Чтобы ограничить количество одновременных команд, вы можете использовать multiprocessing.dummy.Pool
который использует потоки и обеспечивает тот же интерфейс, что и multiprocessing.Pool
который использует процессы:
from functools import partial
from multiprocessing.dummy import Pool
from subprocess import call
pool = Pool(2) # two concurrent commands at a time
for i, returncode in enumerate(pool.imap(partial(call, shell=True), commands)):
if returncode != 0:
print("%d command failed: %d" % (i, returncode))
Этот ответ демонстрирует различные методы для ограничения количества одновременных подпроцессов: он показывает многопроцессорность. Пул, concurrent.futures, многопоточность + решения на основе очереди.
Вы можете ограничить число одновременных дочерних процессов без использования пула потоков / процессов:
from subprocess import Popen
from itertools import islice
max_workers = 2 # no more than 2 concurrent processes
processes = (Popen(cmd, shell=True) for cmd in commands)
running_processes = list(islice(processes, max_workers)) # start new processes
while running_processes:
for i, process in enumerate(running_processes):
if process.poll() is not None: # the process has finished
running_processes[i] = next(processes, None) # start new process
if running_processes[i] is None: # no new processes
del running_processes[i]
break
В Unix вы можете избежать занятого цикла и блокировкиos.waitpid(-1, 0)
, чтобы ждать любого дочернего процесса для выхода.
Простой пример работы с потоками:
import threading
import Queue
import commands
import time
# thread class to run a command
class ExampleThread(threading.Thread):
def __init__(self, cmd, queue):
threading.Thread.__init__(self)
self.cmd = cmd
self.queue = queue
def run(self):
# execute the command, queue the result
(status, output) = commands.getstatusoutput(self.cmd)
self.queue.put((self.cmd, output, status))
# queue where results are placed
result_queue = Queue.Queue()
# define the commands to be run in parallel, run them
cmds = ['date; ls -l; sleep 1; date',
'date; sleep 5; date',
'date; df -h; sleep 3; date',
'date; hostname; sleep 2; date',
'date; uname -a; date',
]
for cmd in cmds:
thread = ExampleThread(cmd, result_queue)
thread.start()
# print results as we get them
while threading.active_count() > 1 or not result_queue.empty():
while not result_queue.empty():
(cmd, output, status) = result_queue.get()
print('%s:' % cmd)
print(output)
print('='*60)
time.sleep(1)
Обратите внимание, что есть лучшие способы сделать это, но это не слишком сложно. В примере используется один поток для каждой команды. Сложность начинает распространяться, когда вы хотите сделать что-то вроде использования ограниченного числа потоков для обработки неизвестного количества команд. Эти более продвинутые методы не кажутся слишком сложными, когда вы овладеете основами многопоточности. А многопроцессорная обработка становится проще, когда вы освоите эти методы.
Это потому, что это должно быть сделано, то, что вы хотите сделать, это не многопоточность, а многопроцессорность, смотрите эту страницу стека