服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

盘点两种使用Python网络爬虫实现东方财富网分时数据抓取方法

日期: 来源:Python爬虫与数据挖掘收集编辑:Python进阶者
点击上方“Python爬虫与数据挖掘”,进行关注

回复“书籍”即可获赠Python从入门到进阶共10本电子书

遥怜小儿女,未解忆长安。

大家好,我是Python进阶者。

一、前言

前几天在Python白银交流群大家在交流东方财富网分时数据的抓取方法,时分数据如下图所示。

早在之前就给大家分享了东方财富网其他交易数据的抓取方法,可以前往进行查看,手把手教你使用Python网络爬虫获取基金信息

这里群友【꯭】也给了一份代码,分享给大家。

# -*- coding: utf-8 -*-
# @Time    : 2022/6/1 23:10
# @Author  : Thresh
# @File    : 1.py
import json
import requests


for page in range(5):
   params = (
       ('pagesize', '144'),
       ('ut', '7eea3edcaed734bea9cbfc24409ed989'),
       ('dpt', 'wzfscj'),
       ('cb', 'jQuery1124029337350072397084_1631343037828'),
       ('pageindex', str(page)),
       ('id', '6009051'),
       ('sort', '1'),
       ('ft', '1'),
       ('code', '688103'),
       ('market', '1'),
       ('_', '1631343037827'),
   )
   response = requests.get('http://push2ex.eastmoney.com/getStockFenShi', params=params, verify=False)
   response = response.text
   response = response.split('(')[1]
   response = response.split(')')[0]
   response = json.loads(response)
   data_lis = response["data"]["data"]
   for data in data_lis:
       print(data)

二、实现过程

今天我们要实现的是时分数据的获取,这里提供两个方法,希望对大家有所参考。

关于url的寻找,确实花费了一番心思,最终发现它藏在这里,如下图所示:

之后复制这个链接,在浏览器中打开的话,可以看到密密麻麻的,有点烧脑。

这里【

相关阅读

  • 盘点一个Python处理的基础题目

  • 大家好,我是皮皮。一、前言前几天在Python最强王者交流群【Chloe】问了一道Python处理的问题,如下图所示。原始数据如下:origin_lst = [0, 0, 1, 2, 3, 4, 4, 5, 6, 6, 6, 7, 8
  • 盘点一个Python网络爬虫过程中Xpath提取器的问题

  • 点击上方“Python爬虫与数据挖掘”,进行关注回复“书籍”即可获赠Python从入门到进阶共10本电子书今日鸡汤问客何为来,采山因买斧。大家好,我是皮皮。一、前言前几天在Python钻
  • 太爽了!什么都能搜到!10000TB资源!

  • 这里是一路软件,一个简洁 · 高效的公众号 前言: 昨天给大家分享电脑端的WPS无限制ZG邮政版,大家反响不错。肯定也有很多错过阅读的朋友们,大家可以点击黄色字体进行跳

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • 拯救pandas计划(9)——浅谈pandas中的深浅拷贝

  • 拯救pandas计划(9)——浅谈pandas中的深浅拷贝最近发现周围的很多小伙伴们都不太乐意使用pandas,转而投向其他的数据操作库,身为一个数据工作者,基本上是张口pandas,闭口pandas了,