很多時候,我們需要在多個進程中同時寫一個文件,如果不加鎖機制,就會導致寫文件錯亂
這個時候,我們可以使用multiprocessing.Lock()
我一開始是這樣使用的:
import multiprocessinglock = multiprocessing.Lock()class MatchProcess(multiprocessing.Process): def __init__(self, threadId, mfile, lock): multiprocessing.Process.__init__(self) self.threadId = threadId self.mfile = mfile self.lock = lock def run(self): while True: self.lock.acquire() try: self.mfile.write('111111111111111111' + '/n') finally: self.lock.release() if __name__ == '__main__': mf = open('test.lst', 'w') for i in range(15): p = MatchProcess(i, mf, lock) p.start() 發現這種方式,鎖并沒有起作用, 文件內容依然出現了錯亂(注意,我這里寫的1111是示例,我的代碼實際寫的其他內容)
所以這種方式,雖然lock通過參數傳到了每個進程中,但是我們知道進程之間是不共享內存的,所以我理解應該是每個進程獲得的鎖其實是不同的, 所以無法對寫文件起到加鎖的效果
進程池是否可行呢,于是做了如下嘗試
def run(line): lock.acquire() try: mfile.write('111111111111111111' + '/n') finally: lock.release()sf = open('test.lst', 'r')data_lst = list()for line in sf: line = line.strip() data_lst.append(line)pool = Pool(15)pool.map_async(run, data_lst) #map_async方法會將data_lst這個可迭代的對象里面的每個元素依次傳入run方法來執行pool.close()pool.join()print 'over'但是注意:
pool.close()pool.join()
這兩行代碼必不可少,否則,主進程執行完畢后會退出,導致整個進程結束
所以在整個進程全部執行完畢后,才會打印出over
但是這種方式,發現,鎖仍然不起作用
最后采用了如下方式:
def run(line): mfile = open('test2.lst', 'a') lock.acquire() try: mfile.write('111111111111111111' + '/n') finally: lock.release() sf = open('test.lst', 'r')data_lst = list()for line in sf: line = line.strip() data_lst.append(line) pList = []for line in line_lst: p = multiprocessing.Process(target=run, args=(line, lock)) p.start() pList.append(p) for p in pList: p.join()是親測發現,這種方式,鎖的確起作用了,在每次寫入數據量很大的情況下,速度很慢
但是一個比較惡心的問題是,我一開始試圖將文件打開后通過Process對象的args參數傳入到run方法中,但是發現數據無法寫入到文件中,見鬼,這個問題我還沒搞明白
無耐,只能采取上面的笨方法,在每次寫入的時候打開然后寫入,這肯定不是明智的做法,如果有更好的辦法,請留言我
也就是說,文件打開后傳入,是無效的,那么可以將文件名傳入,然后在run方法中每次寫的時候先打開,寫入后關閉應該也是可行的。
新聞熱點
疑難解答