scrapy爬虫数据入库教程
Scrapy 中的数据库数据保存涉及以下步骤:配置数据库连接(DATABASE_* 设置);创建 Item Pipeline(如 DatabasePipeline);配置 Item Pipeline(ITEM_PIPELINES 中);实现数据保存逻辑(process_item 方法);运行爬虫并检查数据库中的数据。
Scrapy 爬虫数据入库教程
如何将 Scrapy 爬取的数据保存到数据库?
使用 Scrapy 将数据保存到数据库涉及几个步骤:
1. 创建数据库连接
# 数据库引擎DATABASE_ENGINE = 'mysql'# 数据库用户名DATABASE_USER = 'root'# 数据库密码DATABASE_PASSWORD = 'mypassword'# 数据库主机地址DATABASE_HOST = 'localhost'# 数据库名称DATABASE_NAME = 'scrapydata'
2. 定义 Item Pipeline
from scrapy.pipelines.images import ImagesPipelinefrom itemadapter import ItemAdapterfrom sqlalchemy.orm import sessionmakerfrom sqlalchemy import create_engineclass DatabasePipeline(ImagesPipeline): def __init__(self, *args, **kwargs): # 创建 SQLAlchemy 引擎 self.engine = create_engine("mysql+pymysql://{}:{}@{}:{}/{}".format( DATABASE_USER, DATABASE_PASSWORD, DATABASE_HOST, DATABASE_PORT, DATABASE_NAME)) # 创建会话工厂 self.session_factory = sessionmaker(bind=self.engine) def process_item(self, item, spider): # 获取 Item 适配器 adapter = ItemAdapter(item) # 创建数据库会话 session = self.session_factory() # 将 Item 数据保存到数据库 # ... # 提交会话并关闭连接 session.commit() session.close() return item
3. 配置 Item Pipeline
ITEM_PIPELINES = { 'myproject.pipelines.DatabasePipeline': 300,}
4. 实现数据保存逻辑
示例:
# 将 Item 中的标题字段保存到数据库title = adapter.get('title')new_record = MyModel(title=title)session.add(new_record)
5. 运行爬虫