Подпроцесс Python параллельно

Я хочу запустить много процессов параллельно с возможностью принимать stdout в любое время. Как я должен это делать? Нужно ли мне запускать поток для каждого вызова subprocess.Popen(), что?

Ответ 1

Вы можете сделать это в одном потоке.

Предположим, у вас есть сценарий, который печатает строки в случайные моменты:

#!/usr/bin/env python
#file: child.py
import os
import random
import sys
import time

for i in range(10):
    print("%2d %s %s" % (int(sys.argv[1]), os.getpid(), i))
    sys.stdout.flush()
    time.sleep(random.random())

И вы хотите получить результат, как только он станет доступен, вы можете использовать select в системах POSIX, поскольку @zigg предположил:

#!/usr/bin/env python
from __future__ import print_function
from select     import select
from subprocess import Popen, PIPE

# start several subprocesses
processes = [Popen(['./child.py', str(i)], stdout=PIPE,
                   bufsize=1, close_fds=True,
                   universal_newlines=True)
             for i in range(5)]

# read output
timeout = 0.1 # seconds
while processes:
    # remove finished processes from the list (O(N**2))
    for p in processes[:]:
        if p.poll() is not None: # process ended
            print(p.stdout.read(), end='') # read the rest
            p.stdout.close()
            processes.remove(p)

    # wait until there is something to read
    rlist = select([p.stdout for p in processes], [],[], timeout)[0]

    # read a line from each process that has output ready
    for f in rlist:
        print(f.readline(), end='') #NOTE: it can block

Более портативное решение (которое должно работать на Windows, Linux, OSX) может использовать потоки чтения для каждого процесса, см. Раздел "Неблокирование чтения" на подпроцессе.PIPE в python.

Здесь os.pipe() -based, которое работает в Unix и Windows:

#!/usr/bin/env python
from __future__ import print_function
import io
import os
import sys
from subprocess import Popen

ON_POSIX = 'posix' in sys.builtin_module_names

# create a pipe to get data
input_fd, output_fd = os.pipe()

# start several subprocesses
processes = [Popen([sys.executable, 'child.py', str(i)], stdout=output_fd,
                   close_fds=ON_POSIX) # close input_fd in children
             for i in range(5)]
os.close(output_fd) # close unused end of the pipe

# read output line by line as soon as it is available
with io.open(input_fd, 'r', buffering=1) as file:
    for line in file:
        print(line, end='')
#
for p in processes:
    p.wait()

Ответ 2

Вы также можете собирать stdout из нескольких подпроцессов одновременно с помощью twisted:

#!/usr/bin/env python
import sys
from twisted.internet import protocol, reactor

class ProcessProtocol(protocol.ProcessProtocol):
    def outReceived(self, data):
        print data, # received chunk of stdout from child

    def processEnded(self, status):
        global nprocesses
        nprocesses -= 1
        if nprocesses == 0: # all processes ended
            reactor.stop()

# start subprocesses
nprocesses = 5
for _ in xrange(nprocesses):
    reactor.spawnProcess(ProcessProtocol(), sys.executable,
                         args=[sys.executable, 'child.py'],
                         usePTY=True) # can change how child buffers stdout
reactor.run()

См. Раздел Использование процессов в Twisted.

Ответ 3

Вам не нужно запускать поток для каждого процесса. Вы можете заглядывать в потоки stdout для каждого процесса, не блокируя их, и только читать их, если у них есть данные, доступные для чтения.

Вы должны быть осторожны, чтобы случайно не блокировать их, если вы не намереваетесь.