最佳答案
我的 multiprocessing
模块出了点问题。我使用工人的 Pool
和它的 map
方法来并发分析大量的文件。每次处理一个文件,我希望有一个计数器更新,以便我可以跟踪有多少文件仍然要处理。下面是示例代码:
import os
import multiprocessing
counter = 0
def analyze(file):
# Analyze the file.
global counter
counter += 1
print counter
if __name__ == '__main__':
files = os.listdir('/some/directory')
pool = multiprocessing.Pool(4)
pool.map(analyze, files)
我找不到解决办法。