PHP前端开发

scrapy爬虫数据入库教程

百变鹏仔 1个月前 (01-16) #Python
文章标签 爬虫
Scrapy 中的数据库数据保存涉及以下步骤:配置数据库连接(DATABASE_* 设置);创建 Item Pipeline(如 DatabasePipeline);配置 Item Pipeline(ITEM_PIPELINES 中);实现数据保存逻辑(process_item 方法);运行爬虫并检查数据库中的数据。

Scrapy 爬虫数据入库教程

如何将 Scrapy 爬取的数据保存到数据库?

使用 Scrapy 将数据保存到数据库涉及几个步骤:

1. 创建数据库连接

# 数据库引擎DATABASE_ENGINE = 'mysql'# 数据库用户名DATABASE_USER = 'root'# 数据库密码DATABASE_PASSWORD = 'mypassword'# 数据库主机地址DATABASE_HOST = 'localhost'# 数据库名称DATABASE_NAME = 'scrapydata'

2. 定义 Item Pipeline

from scrapy.pipelines.images import ImagesPipelinefrom itemadapter import ItemAdapterfrom sqlalchemy.orm import sessionmakerfrom sqlalchemy import create_engineclass DatabasePipeline(ImagesPipeline):    def __init__(self, *args, **kwargs):        # 创建 SQLAlchemy 引擎        self.engine = create_engine("mysql+pymysql://{}:{}@{}:{}/{}".format(            DATABASE_USER, DATABASE_PASSWORD, DATABASE_HOST, DATABASE_PORT, DATABASE_NAME))        # 创建会话工厂        self.session_factory = sessionmaker(bind=self.engine)    def process_item(self, item, spider):        # 获取 Item 适配器        adapter = ItemAdapter(item)        # 创建数据库会话        session = self.session_factory()        # 将 Item 数据保存到数据库        # ...        # 提交会话并关闭连接        session.commit()        session.close()        return item

3. 配置 Item Pipeline

ITEM_PIPELINES = {    'myproject.pipelines.DatabasePipeline': 300,}

4. 实现数据保存逻辑

示例:

# 将 Item 中的标题字段保存到数据库title = adapter.get('title')new_record = MyModel(title=title)session.add(new_record)

5. 运行爬虫