爬虫 网贷(互联网金融爬虫怎么写)

[复制链接]
[投诉]
142 0
online_moderator 爱卡网小编手机认证 实名认证 发表于 2021-9-11 08:52:19 | 只看该作者 |阅读模式 打印 上一主题 下一主题
网贷逾期被催收后,换了新号码,网贷平台为什么仍然能知道?
你用原来的手机、没卸载的网贷APP、删掉SDK,平台可以直接读取你手机上面内容,比如短信、通话记录、通讯录、位置、照片等;
互联网金融爬虫怎么写
Previous on 系列教程:

互联网金融爬虫怎么写-第一课 p2p网贷爬虫(XPath入门)

互联网金融爬虫怎么写-第二课 雪球网股票爬虫(正则表达式入门)
互联网金融爬虫怎么写-第三课 雪球网股票爬虫(ajax分析)

哈哈,一小时不见,我又来了,话说出教程就是这么任性,咱们乘热打铁,把上节课分析完成但是没写的代码给完成了!

工具要求:教程中主要使用到了 1、神箭手云爬虫 框架 这个是爬虫的基础,2、Chrome浏览器和Chrome的插件XpathHelper 这个用来测试Xpath写的是否正确 3、Advanced REST Client用来模拟提交请求
基础知识:本教程中主要用到了一些基础的js和xpath语法,如果对这两种语言不熟悉,可以提前先学习下,都很简单。
还记得我们在遥远的电商系列爬虫教程的第一课里提到具体写爬虫的几个步骤吗?我们沿着路径再来走一遍:

第一步:确定入口URL
暂且使用这个第一页的ajax的url链接:

[html] view plain copy
http://xueqiu.com/stock/cata/stocklist.json?page=1&size=30&order=desc&orderby=percent&type=11%2C12

第二步:区分内容页和中间页

这次大家有点犯难了,虽然说每一个股票都有一个单独的页面,但是列表页的信息已经蛮多的了,光爬取列表页信息就已经够了,那怎么区分内容页和中间页呢?其实我们只需要将内容页和中间页的正则设置成一样的既可。如下:

[html] view plain copy
http://xueqiu.com/stock/cata/stocklist\\.json\\?page=\\d+&size=30&order=desc&orderby=percent&type=11%2C12
在提醒大家一下,这里之所以转义符用了两个是因为在神箭手中,设置正则时,是字符串设置,需要对转义符再做一次转义。

第三步:内容页抽取规则
由于ajax返回的是json,而神箭手是支持jsonpath的提取方式的,因此提取规则就很简单了。不过这里要特殊注意的是,由于我们是在列表页抽取数据,因此数据最顶层相当于是一个列表,我们需要在顶层的field上设置一个列表数据的值。具体抽取规则如下:

[javascript] view plain copy
fields: [
{
name: "stocks",
selector: "$.stocks",
selectorType:SelectorType.JsonPath,
repeated: true,
children:[
{
name:"code",
alias:"代码",
selector:"$.code",
selectorType:SelectorType.JsonPath,
},
{
name:"name",
alias:"名称",
selector:"$.name",
selectorType:SelectorType.JsonPath,
},
{
name:"current",
alias:"当前价格",
selector:"$.current",
selectorType:SelectorType.JsonPath,
},
{
name:"high",
alias:"最高价格",
selector:"$.high",
selectorType:SelectorType.JsonPath,
},
{
name:"low",
alias:"最低价格",
selector:"$.low",
selectorType:SelectorType.JsonPath,
}

]
}
]

我简单抽取了一些信息,其他信息都类似。

好了,主要的代码基本已经写好了,剩下的还需要解决两个问题
1.爬取前需要先访问一下首页获取cookie
2.虽然可以直接加入下一页,但是一共有多少页并不知道。
首先对于第一点,我们只需要在beforeCrawl回调中访问一下首页即可,神箭手会自动对cookie进行处理和保存,具体代码如下:

[javascript] view plain copy
configs.beforeCrawl = function(site){
site.requestUrl("http://xueqiu.com");
};
好了,除了下一页基本已经没什么问题了,我们先测试一下看看效果:

数据已经出来了,没问题,第一页的数据都有了,那下一页怎么处理呢?我们有两个方案:
第一个方案:
我们可以看到json的返回值中有一个count字段,这个字段目测应该是总数据量的值,那没我们根据这个值,再加上单页数据条数,我们就可以判断总共有多少页了。
第二个方案:
我们先访问一下,假设页数很大,看看会雪球会返回什么,我们尝试访问第500页,可以看到返回值中的stocks是0个,那么我们可以根据是否有数据来判断需不需要加下一页。
两个方案各有利弊,我们这里选择用第一个方案来处理,具体代码如下:

[javascript] view plain copy
configs.onProcessHelperPage = function(page, content, site){
if(page.url.indexOf("page=1&size=30") !== -1){
//如果是第一页
var result = JSON.parse(page.raw);
var count = result.count.count;
var page_num = Math.ceil(count/30);
if(page_num > 1){
for(var i = 2;i<=page_num;i++){
site.addUrl("http://xueqiu.com/stock/cata/stocklist.json?page="+i+"&size=30&order=desc&orderby=percent&type=11%2C12");
}
}
}
};
好了,通过三课的艰苦奋战,终于完成了雪球沪深一览的征服。先看下跑出来的效果。

完整代码如下:

[javascript] view plain copy
var configs = {
domains: ["xueqiu.com"],
scanUrls: ["http://xueqiu.com/stock/cata/stocklist.json?page=1&size=30&order=desc&orderby=percent&type=11%2C12"],
contentUrlRegexes: ["http://xueqiu.com/stock/cata/stocklist\\.json\\?page=\\d+&size=30&order=desc&orderby=percent&type=11%2C12"],
helperUrlRegexes: ["http://xueqiu.com/stock/cata/stocklist\\.json\\?page=\\d+&size=30&order=desc&orderby=percent&type=11%2C12"],
fields: [
{

name: "stocks",
selector: "$.stocks",
selectorType:SelectorType.JsonPath,
repeated: true,
children:[
{
name:"code",
alias:"代码",
selector:"$.code",
selectorType:SelectorType.JsonPath,
},
{
name:"name",
alias:"名称",
selector:"$.name",
selectorType:SelectorType.JsonPath,
},
{
name:"current",
alias:"当前价格",
selector:"$.current",
selectorType:SelectorType.JsonPath,
},
{
name:"high",
alias:"最高价格",
selector:"$.high",
selectorType:SelectorType.JsonPath,
},
{
name:"low",
alias:"最低价格",
selector:"$.low",
selectorType:SelectorType.JsonPath,
}

]
}

]
};

configs.onProcessHelperPage = function(page, content, site){
if(page.url.indexOf("page=1&size=30") !== -1){
//如果是第一页
var result = JSON.parse(page.raw);
var count = result.count.count;
var page_num = Math.ceil(count/30);
if(page_num > 1){
for(var i = 2;i<=page_num;i++){
site.addUrl("http://xueqiu.com/stock/cata/stocklist.json?page="+i+"&size=30&order=desc&orderby=percent&type=11%2C12");
}
}
}
};
configs.beforeCrawl = function(site){
site.requestUrl("http://xueqiu.com");
};

var crawler = new Crawler(configs);
crawler.start();
网贷逾期被催收后,换了新号码,网贷平台为什么仍然能知道?
你用原来的手机、没卸载的网贷APP、删掉SDK,平台可以直接读取你手机上面内容,比如短信、通话记录、通讯录、位置、照片等;
网贷能查到手机的通讯录吗?
不是查到,是你申请网贷的时候app获取了你的运营商信息和通讯录,这个步骤是需要授权的。不过有些违规的网贷平台有非法爬虫,过去了你的信息。建议举报
网贷之家还有网贷天眼等网站的平台数据都是怎么统计的?
大部分平台的产品标的页面链接都是按照一个数字规则顺序排列的,所以早期做第三方数据的时候,一般是利用爬虫技术,把每个产品页面的数据抓取下来进行处理。各家平台的口径不一,有些数据还掩码,这种抓取的数据就有较大偏差。题目说到的这两家就采取了让平台自行报送数据的办法,第三方网站提供标准的数据接口,平台按照接口的规范报送数据。这种虽然也有各家对接口的统计口径理解不一、或者报送假数据的情况,但毕竟更精确了。
网贷天眼贷款是怎么获取小额贷款客户信息的呢
获取方式比较多,通常的获取方式有:1.信息购买,实际上客户信息倒卖已经是很常见的事情了。2.网站推广,他们作为一个平台,也会对自身进行推广,从而获取用户的信息。3.公司合作,和专门做数据的公司进行合作,共享数据等。4.采集,很多信息网上都有,写个爬虫,采集下来就好。
请问清除网贷信息有人会不
没有任何人能帮你洗掉大数据,这跟征信是差不多的,没得改,除非你贷款的数据没了

版权声明:本站部分文章来源或改编自互联网及其他公众平台,主要目的在于分享信息,版权归原作者所有,内容仅供读者参考,如有侵权请联系我们将及时更正、删除,谢谢!


weinxin
爱卡网站长——亚熙哥
若开通会员无法使用
请扫码联系爱卡网站长
本平台不放贷、也不接网贷代做!
上一篇:小象优品显示打款已经四天了(小象优品一直打款中)
下一篇:花呗额度到账什么意思(是不是绑定银行卡就可以用这个额度了?花呗额度已到账什么意思?我没开通花呗啊)
楼主热帖
分享到:  QQ好友和群QQ好友和群
收藏
收藏0
支持
支持0
反对
反对0
122329my40v0m19mm281y0
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册 qq_login wechat_login1

本版积分规则

avatar

0关注

26粉丝

1091904帖子

发布主题
精选帖子
热帖排行
推荐
162349x8b848x8bpq4qaaz
客服咨询

155-5555-5876

服务时间 9:00-24:00

爱卡网APP下载

app

知识改变命运,技术改变未来!

  • 客服Q Q:70079566     微信:79710
  • 工作时间:周一到周日     9:00-22:00
  • 加入爱卡网VIP会员,菜鸟也能变大神!
15555555876

关注我们

  • app
  • app
  • app
本站唯一官网:www.7177.cn Copyright    2010-2021  爱卡网  Powered by Discuz!  技术支持:亚熙工作室   浙ICP备17046104号-1