使用web scraper(bs4,selenium)并想知道是否有更好的方法来处理非致命异常(即异常后继续运行)。
我的代码中有很多关于每个属性的尝试例外,我想集中这个逻辑。
注意productDetails是ProductDetails的一个实例,它具有setter和getter python属性。我想过将except逻辑放在setter中,但到那时为时已晚,因为请求必须先获取值。
try:
productDetails.image = soup.find("meta", property="og:image")[
except:
productDetails.url_valid = False
continue
错误不应该默默地传递。我建议你明确处理所有异常。最后,避免将except逻辑放在setter或getter方法中。