爬虫数据存储 - JSON CSV MySQL MongoDB
爬取的数据需要妥善存储。
存储为JSON
import json
data = [{'name': '张三', 'age': 25}]
with open('data.json', 'w', encoding='utf-8') as f:
json.dump(data, f, ensure_ascii=False, indent=2)
存储到MySQL
import pymysql
conn = pymysql.connect(host='localhost', user='root', password='', database='test')
with conn.cursor() as cursor:
cursor.execute("INSERT INTO users (name) VALUES ('test')")
conn.commit()
选择合适的存储方式让数据管理更高效!
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。







