手把手教你用Python采集腾讯招聘数据 - Go语言中文社区

手把手教你用Python采集腾讯招聘数据


本文转载自微信公众号「菜J学Python」,作者游世九黎 。转载本文请联系菜J学Python公众号。

大家好,我是J哥~(本文来自好友投稿)

今天我们爬取腾讯招聘网站Python岗位的招聘信息。如图所示:

然后还是先看一下最终的结果,我们保存到csv文件中。

爬取1000条数据,第一行是title:

老规矩,我们还是走流程。

01需求分析

抓取腾讯招聘网站Python相关岗位数据,打开目标网站,F12打开开发者工具,发现岗位信息不在网页源码中,很明显是在XHR中的json数据。

正好对应页面十条数据,接下来就好办了。

02发送请求

找到url的页面规律,

  1. 第一页url:https://careers.tencent.com/tencentcareer/api/post/Query?timestamp=1620561777984&countryId=&cityId=&bgIds=&productId=&categoryId=&parentCategoryId=&attrId=&keyword=python&pageIndex=1&pageSize=10&language=zh-cn&area=cn 

index参数对应值即为页码,所以循环得到url链。

  1. def getPage(self): 
  2.         url_list = [] 
  3.         for i in range(100): 
  4.             url = self.url.format(i + 1) 
  5.             url_list.append(url) 
  6.         return url_list 

03解析页面

得到url链之后我们循环遍历发起请求,得到json数据,将json数据转换成字典,并解析数据。

  1. for url in urlList: 
  2.  
  3.             resp = requests.get(url, headers=self.headers) 
  4.  
  5.             data = resp.content.decode('utf-8'
  6.  
  7.             dic_data = json.loads(data) 
  8.  
  9.             dic_data_list = dic_data["Data"]["Posts"
  10.  
  11.             for i in dic_data_list: 
  12.  
  13.                 work_list.append(i) 

这样就得到了岗位信息数据。

04保存数据

得到了岗位数据之后我们需要把它保存到本地,这里我们把数据保存到本地csv文件中。

  1. try: 
  2.             with open('Tx_work.csv''w', encoding='utf-8', newline=''as f: 
  3.                 writer = csv.DictWriter(f, self.title) 
  4.                 writer.writeheader() 
  5.                 writer.writerows(dic) 
  6.                 print('写入成功'
  7.         except Exception as e: 
  8.             print(e) 

05运行程序

  1. if __name__ == '__main__'
  2.     tx = Tx(base_url,hd,titles) 
  3.     tx.run() 

小伙伴们可以对Python岗位的岗位需求好好分析结合自身技术栈,最后希望大家都能找到好工作。

版权声明:本文来源51CTO,感谢博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
原文链接:http://developer.51cto.com/art/202105/661583.htm
站方申明:本站部分内容来自社区用户分享,若涉及侵权,请联系站方删除。
  • 发表于 2021-05-15 22:42:34
  • 阅读 ( 1382 )
  • 分类:职场

0 条评论

请先 登录 后评论

官方社群

GO教程

猜你喜欢