网络抓取 - 处理非致命错误

问题描述 投票:1回答:1

使用web scraper(bs4,selenium)并想知道是否有更好的方法来处理非致命异常(即异常后继续运行)。

我的代码中有很多关于每个属性的尝试例外,我想集中这个逻辑。

注意productDetails是ProductDetails的一个实例,它具有setter和getter python属性。我想过将except逻辑放在setter中,但到那时为时已晚,因为请求必须先获取值。

try:
    productDetails.image = soup.find("meta", property="og:image")[
except:
    productDetails.url_valid = False
    continue
python exception web-scraping beautifulsoup
1个回答
1
投票

错误不应该默默地传递。我建议你明确处理所有异常。最后,避免将except逻辑放在setter或getter方法中。

© www.soinside.com 2019 - 2024. All rights reserved.