具体来说,我正在尝试做一些非常类似于这个问题的东西(同样的问题):FB Ads API (#17) User request limit reached
但是,我正在尝试在python中执行此操作(自从15年以来API已经发生了很大变化)。这是我的代码(即使有睡眠时间,它也会把我踢出去) - 我想知道是否有人可以帮我调用类似信息的数组,以减少我的总呼叫次数。
my_account = AdAccount(ad_account_id)
camps = my_account.get_campaigns(fields=[Campaign.Field.name])
for campaign in camps[0:100]:
time.sleep(5)
print campaign[Campaign.Field.name]
adsets = campaign.get_ad_sets([AdSet.Field.name, AdSet.Field.status])
for adset in adsets:
print '\t', adset[AdSet.Field.name]
for stat in adset.get_insights(fields=[
'impressions',
'clicks',
'spend',
'unique_clicks',
]):
for statfield in stat:
print "\t\t%s:\t%s" % (statfield, stat[statfield])
更一般地说,我是如何在这个限制内为我的需求(大规模改变)编码?实际上,我想编写一个代码来完成并改变我公司每个广告集中的一些选项(例如,“从......开始扩展兴趣”)。我们有数百个广告集,并且API文档说改变消耗的次数比创作多10到100倍(我不会被卡住,只是读取!)。这只是一个例如,在每次更改之间睡眠代码60秒的问题吗?他们不清楚您在一段时间内收到多少电话,或者检查这些电话的时间有多长。例如,如果这是一个日常限制,那么睡眠将无法帮助我更改1200个广告集的选项。
我确实看到了有关升级的文档(https://developers.facebook.com/docs/marketing-api/access),但在完成审核过程时,所有内容都基于公共(面向客户,多用户)的应用程序。我想要做的就是能够从桌面开发人员调用内部脚本进行批量更改。我在找错了地方吗?
如果您现在只是阅读数据,为什么不进行批量请求?我做的和你一样,但最后却要求更多的数据(我不得不摆弄它,因为有太多的数据,FB也不允许这样做)然后循环数据。
就我的目的而言,如果达到极限,我会批量异步请求+睡眠(10秒)。对我来说效果很好。
将此添加到您的代码中,您将永远不必担心FB的速率限制。一旦接近极限,您的脚本将自动进入睡眠状态,然后在冷却后从其离开的位置进行拾取。请享用 :)
import logging
import requests as rq
#Function to find the string between two strings or characters
def find_between( s, first, last ):
try:
start = s.index( first ) + len( first )
end = s.index( last, start )
return s[start:end]
except ValueError:
return ""
#Function to check how close you are to the FB Rate Limit
def check_limit():
check=rq.get('https://graph.facebook.com/v3.1/act_'+account_number+'/insights?access_token='+my_access_token)
usage=float(find_between(check.headers['x-ad-account-usage'],':','}'))
return usage
#Check if you reached 75% of the limit, if yes then back-off for 5 minutes (put this chunk in your loop, every 200-500 iterations)
if (check_limit()>75):
print('75% Rate Limit Reached. Cooling Time 5 Minutes.')
logging.debug('75% Rate Limit Reached. Cooling Time 5 Minutes.')
time.sleep(300)