为了运行几个预定的python脚本并捕获可能出现的错误,我使用的控制器模块为每个脚本打开一个子进程,其中包含以下内容:
def _process_script(nm_script, return_val):
try:
env = os.environ
p = subprocess.Popen(['python', nm_script], stdout = subprocess.PIPE,
shell=False, env=env, stderr=subprocess.PIPE)
p.wait()
(result, error) = p.communicate()
if p.returncode != 0:
cd_exec = -1
tx_exec = error.decode('utf-8')
else:
cd_exec = 1
tx_exec = None
except subprocess.CalledProcessError as e:
cd_exec = -1
tx_exec = e.output
return_val += [cd_exec, tx_exec]
def run_script(script):
return_val = multiprocessing.Manager().list()
#20 min timeout for the script
maxDelay = 1200
p = multiprocessing.Process(target=_process_script, args=(script.nm_script, return_val))
p.start()
p.join(maxDelay)
#Checks if the process is still alive
if p.is_alive:
p.terminate()
p.join()
cd_exec = -1
tx_exec = 'Timeout'
else:
cd_exec = return_val[0]
tx_exec = return_val[1]
return return_val
到目前为止,上面的代码适用于所有脚本。然而,有一个Selenium数据压缩脚本在执行后似乎挂起,我似乎无法找到问题。就是这个:
from selenium import webdriver
def main():
path = r'\\path'
browser = webdriver.Chrome()
url = '...'
browser.get(url)
#...Several steps that do the necessary scraping and export data to the path
#I have added the following steps to kill the browser instance:
browser.get('about:blank')
browser.find_element_by_tag_name('body').send_keys(Keys.ESCAPE)
time.sleep(2)
browser.quit()
del browser
return
该过程成功执行。数据按预期导出,并且已打开的浏览器实例已关闭。但是,主脚本会一直显示有关DevTools的消息,直到达到20分钟的超时:
DevTools listening on ws://...
我有几个其他的selenium数据抓取脚本,它们以类似于这个的方式工作,到目前为止没有任何麻烦。我完全迷失在这一点上,可能是什么问题?
我在上面的代码中看到作者直接使用Popen()然后调用“p.wait()”,其中“P”是子进程。
我在我的代码中使用了subprocess.run(),但是Python库参考文档说Popen将等待该过程完成。 “p.wait()”是否必要?