默认情况下,的异步性质scrapy
无法与Cloud Functions一起很好地工作,因为我们需要一种阻止爬网的方法,以防止该函数过早返回,并防止该实例在进程终止之前被杀死。
相反,我们可以使用scrapydo
阻塞方式来运行您现有的蜘蛛:
requirements.txt
:
scrapydo
main.py
:
import scrapy
import scrapydo
scrapydo.setup()
class MyItem(scrapy.Item):
url = scrapy.Field()
class MySpider(scrapy.Spider):
name = "example.com"
allowed_domains = ["example.com"]
start_urls = ["http://example.com/"]
def parse(self, response):
yield MyItem(url=response.url)
def run_single_crawl(data, context):
results = scrapydo.run_spider(MySpider)
这也显示了一个简单的示例,说明如何scrapy.Item
从蜘蛛中产生一个或多个并从爬取中收集结果,如果不使用,这也将是一个挑战scrapydo
。
另外:请确保您已为项目启用结算。默认情况下,Cloud Functions无法发出出站请求,并且搜寻器将成功执行,但不返回任何结果。