当前位置: 首页 > news >正文

网站用ps做还是ai开源crm客户管理系统

网站用ps做还是ai,开源crm客户管理系统,软件开发文档的需求分析,汽车维修保养网站模板一.爬虫需求 获取对应所有专栏数据#xff1b;自动实现分页#xff1b;多线程爬取#xff1b;批量多账号爬取#xff1b;保存到mysql、csv#xff08;本案例以mysql为例#xff09;#xff1b;保存数据时已存在就更新#xff0c;无数据就添加#xff1b; 二.最终效果…一.爬虫需求 获取对应所有专栏数据自动实现分页多线程爬取批量多账号爬取保存到mysql、csv本案例以mysql为例保存数据时已存在就更新无数据就添加 二.最终效果 三.项目代码 3.1 新建项目 本文使用scrapy分布式、多线程爬虫框架编写的高性能爬虫因此新建、运行scrapy项目3步骤 1.新建项目: scrapy startproject author 2.新建 spider: scrapy genspider author baidu.com 3.运行 spider: scrapy crawl authorSpider 注意author 是spider中的name 4.编写item # Author专栏xxx备注是预留未知对应字段 class AuthorZhuanLanItem(scrapy.Item):# 专栏author_idauthor_id scrapy.Field()# 专栏feed_idfeed_id scrapy.Field()praise_num scrapy.Field()comment_num scrapy.Field()is_praise scrapy.Field()forward_num scrapy.Field()live_back_num scrapy.Field()# 加入书架的人数collect scrapy.Field()unread scrapy.Field() 5.编写爬虫解析代码 # Author专栏数据 class AuthorItemPipeline(object):def open_spider(self, spider):if spider.name author:# 插入数据sqlself.insert_sql INSERT INTO author(author_id,feed_id,praise_num,comment_num,is_praise,forward_num,live_back_num,collect,unread) values(%s,%s,%s,%s,%s,%s,%s,%s,%s)# 更新数据sqlself.update_sql UPDATE author SET praise_num%s,comment_num%s,is_praise%s,forward_num%s,live_back_num%s,collect%s,unread%s WHERE feed_id%s# 查询数据sqlself.query_sql SELECT * FROM author WHERE feed_id%s# 初始化数据库链接对象pool PooledDB(pymysql,MYSQL[limit_count],hostMYSQL[host],userMYSQL[username],passwdMYSQL[password],dbMYSQL[database],portMYSQL[port],charsetMYSQL[charset],use_unicodeTrue)self.conn pool.connection()self.cursor self.conn.cursor()# 保存数据def process_item(self, item, spider):try:if spider.name author:# 检查表中数据是否已经存在counts self.cursor.execute(self.query_sql, (item[feed_id]))# counts大于0说明已经存在使用更新sql否则使用插入sqlif counts 0:self.cursor.execute(self.update_sql,(...)else:self.cursor.execute(self.insert_sql,(...)...except BaseException as e:print(author错误在这里, e, 错误在这里)return item import re import scrapy from bs4 import BeautifulSoup as bs from urllib.parse import urlencode from baidu.settings import MAX_PAGE, author_headers, author_cookies from ..items import AuthorZhuanLanItem from baidu.Utils import Tooltool Tool()爬虫功能 用户-专栏-列表 class AuthorSpider(scrapy.Spider):name authorallowed_domains [baidu.com]base_url xxxzhuanlan_url xxxparams {...}headers {User-Agent:Mozilla/5.0 (iPhone; CPU iPhone OS 13_2_3 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/13.0.3 Mobile/15E148 Safari/604.1}... 四.运行过程 五.项目说明文档 六.获取完整源码 爱学习的小伙伴本次案例的完整源码已上传微信公众号“一个努力奔跑的snail”后台回复**“故事会”**即可获取。
http://www.yutouwan.com/news/395632/

相关文章:

  • 软文推广代理大连seo加盟
  • 专业做涂料网站做外贸是不是必须有网站
  • 韩国做美食的视频网站有哪些主要的网站开发技术
  • 网站开发工作分解结构的树形图wordpress显示10篇文章
  • 网站项目开发的制作流程学校网站建设维护投标方案
  • 网站建设的课程设计精品网站建设
  • 福田设计网站seo运营
  • 手机做网站哪家好老字号品牌建设
  • 微网站建设公司北京信息网招聘最新
  • 做ic哪些网站好做access数据库创建网站
  • 河北省建设工程协会网站wordpress 备份到云盘
  • 成都市建设领域网站咨询电话招聘网站建设需求分析
  • 有实力的网站建设公司创建域名
  • wordpress多个网站做店铺装修的公司网站
  • 精美静态网站源码铁岭市网站建设公司
  • 湛江网站建设托管湖南省网站建设项目
  • dw建网站怎么做wordpress o2o
  • 前端开发和网站建设ai智能写作网站
  • jsp网站开发环境搭建怎么做像表白墙的网站
  • 手机端网站 优帮云做网站的公司
  • 建设通网站原理动画设计培训中心
  • 广州新塘做网站flash网站整站下载
  • 萍乡网站推广湘潭正规seo优化
  • 计算机网站开发书籍郑州网络推广哪个好
  • 网站系统使用手册手机app页面设计
  • 自己做的网站怎么传到服务器用代码怎么建设网站
  • 执法网站建设方案wordpress用什么图床好
  • 做网站要用框架吗德州万企网站建设
  • 企业网站建设818gx在线做效果图的网站
  • 学做面包网站网络设计软件有哪些