使用TypeScript编写爬虫

我们需要的数据多种多样,不可能什么都买,就算有钱,有的数据也不一定能买到。这个时候要获取这些数据,就要靠爬虫了。

爬虫界大佬很多,开源库和框架数不胜数。理论上,凡是能方便连接互联网的编程语言,都适合用来写爬虫,比如C#、Java、JavaScript、Python等,当然还有用R、Matlab这些有点专业特色的语言写爬虫的,甚至用curl和Bash都可以写爬虫,只是好像较少听说过有用C++写爬虫的。我分别用过C#这种编译语言(Java应该类似)和JavaScript这种脚本语言写过多款爬虫,个人总结起来两种语言各有特色:

  • 编译语言每次修改爬虫都要编译,我电脑比较渣,每次编译都要花点时间。但是可以轻松通过类型检查,保证每次GET参数的正确、返回值的直接解析等非常使用的功能。
  • 脚本语言每次修改就可以直接运行了,但是填参数的时候就比较头疼了,需要反复检查有哪些参数、该填什么值,保证请求参数的格式正确。

自从学会了TypeScript之后,我个人就比较喜欢JavaScript和TypeScript语言,结合Node.js,可以达到比较好的写爬虫的效果,结合了编译语言和脚本语言共有的特点。只是搞得脚本有点复杂了,需要声明很多类型,指定变量类型……其实也是一个挺复杂的工作。虽然有点不像脚本,不够简洁,但能够提供类型检查还是省了不少事。

下面记录一下这次使用TypeScript编写爬虫的过程,以备后用。

库的使用

主要使用了下面两个库:

  • web-request
  • cheerio

WebRequest:同步化的request请求

为什么要用await同步化request请求呢?不仅仅是因为await关键字是TypeScript和新JavaScript标准的特性,其实有很多比较好的用途:

  • 避开JavaScript“回调大坑”。我个人还挺喜欢JavaScript以回调的方式异步化同步操作,曾经在爬虫的时候写了一个全回调的爬虫,fs库中有同步版本的函数都没有用其同步版本,全都是异步版本。事实证明,在高速爬虫的时候,使用异步版本的函数确实提高了爬虫效率。但是,编写起来那个痛苦啊。如果需要从返回的值里面判断还有没有下一页了,就要不停地递归啊。这真的是回调大坑,难读、难写、难调试。以至于后来再写爬虫,都避免爬虫过程中判断是否有下一页,都是提前算好有多少页,然后硬编码的,这样反而会节省很多时间。但是使用同步化的过程就比较好实现了。
  • 减少因JavaScript的回调和闭包造成的错误。再爬虫的时候,为了防反爬,最简单的办法是人工设定等待时间,让爬虫慢一点。由于JavaScript回调的特点,笔者多次尝试,发现只能使用setInterval()函数实现。但是使用TypeScirpt的await关键字,可以直接编写一个delay()函数,让程序等待。

这个库的大多数用法和request库差不多,配置也是直接采用的request库的配置,只是可以以同步的方式编写异步代码,姑且称之为“同步化”把。例如,获取一个get请求的相应就是:

1
2
import * as WebRequest from 'web-request'
var list_response = await WebRequest.get(`${site.url}/pg${i + 1}/`);

这里面使用site.url变量存储要访问的网页的基本地址,后面代表了页数。

全局配置的方法也和request库差不多,只是不需要返回一个新的request对象

1
WebRequest.defaults({jar: true})

这里配置了使用Cookie。

我在上一次写高德API爬虫的时候,首次依靠同步化的request请求,完成了自动分析页数。瞬间感觉给人生节约了很多时间。

cheerio:提供jQuery Selector的解析能力

在做前端的时候,定位一个元素,最常用的就是jQuery的Selector字符串。在Node.js中,可以使用cheerio这个简化的jQuery库来实现这一操作。

使用cheerio的方法很简单,就三步:

  • 导入cheerio包:

    1
    import * as cheerio from 'cheerio'
  • 创建$对象(body变量代表了HTML响应正文)

    1
    var $ = cheerio.load(body);
  • 使用jQuery Selector即可(info_object.max_num是用于存储某个值的变量)

    1
    info_object.max_num = parseInt($("body div.content div.leftContent div.resultDes.clear h2.total.fl span").text().trim());

一般大型网页的页面都非常复杂,仅仅依靠分析HTML源码,可能毫无头绪。但是,使用浏览器的开发人员工具就非常方便啦,不仅可以直接快速定位页面元素,还可以直接给出Selector表达式。

爬虫软件“八爪鱼”使用的是XPath表达式来定位页面元素(至少他的软件UI是这样做的)。我也尝试使用XPath,但是,由于HTML一些随意性,往往导致解析出错。而且,既然是网页,使用jQuery Selector表达式更简洁,更合适。

也有人说可以直接使用正则。确实可以,但是正则还要自己想是不是,如果有些复杂的正则还是挺费事的。用这个可以让开发人员工具自动分析,应该是更方便啊,除非你的电脑只有命令行。

当然,也不是什么都需要使用Selector表达式来定位的。如果只是像把坐标提出来,或者有一些其他特定的模式,直接使用正则表达式啊,比如

1
var coord_string = /114.[0-9]*,30.[0-9]*/g.exec(body)[0];

这样就提取出来了经纬度坐标,而这个坐标是隐藏在页面一个script标签中的一个变量里。

不过这种方式有点问题。如果页面上的某些标签是使用脚本添加的,可能开发人员工具给出的Selector路径,不一定能在HTML源代码里找到。但是如果很重要的数据是通过前端脚本渲染上去的,那肯定会在一个变量里面保存这些数据。这个时候直接揪出这个变量就可以了,万事大吉,还不用自己去提取HTML元素。

TypeScript编写爬虫

既然使用TypeScript便写爬虫,那么就使用一些TypeScript的特性吧。首先应该就是TypeScript的类型化特点。当然还少不了await关键字。

API参数的类型化

一个请求的请求参数往往是确定的,在一个开放API中都会给出。你所想要的数据类型是固定的,这个要看你的需求。类型化编写爬虫的方式,就是保证这两个过程不出错。

例如,在利用高德API获取POI的时候,参数在文档中明确指出了(高德地图API文档)。我们如果照着这样的文档,编写一个接口或者一个类,可以实现一些自动化功能。同样,返回结果也可以编写一个类型,直接在构造函数中实现一些对结果的处理。

例如,对高德搜索的API进行类型化。首先创建一个接口,表示一些除了key之外的参数

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
/** 输出结果的格式 */
export enum GaodePoiOutput {
JSON, XML
}
/** 接口参数类型 */
export interface IGaodePoiApi {
keywords: string[];
types: string[];
city?: string;
citylimit?: boolean;
children?: number;
offset?: number;
page?: number;
building?: number;
floor?: number;
extensions?: string;
output?: GaodePoiOutput;
}

然后,编写一个类,让其提供自动根据上述参数类型生成url的功能

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
export class GaodePoiApi {
baseurl: string;
key: string;
constructor(key: string) {
this.baseurl = "http://restapi.amap.com/v3/place/text"
this.key = key;
}
/**
* 获取参数指定的POI
* @param parameters 请求参数
*/
getUrl(parameters: IGaodePoiApi): string {
var url = `${this.baseurl}?key=${this.key}`;
for (var key in parameters) {
if (parameters.hasOwnProperty(key)) {
switch (key) {
case "keywords":
if (parameters.keywords.length > 0) {
url += `&${key}=`;
url += parameters.keywords[0]
for (var index = 1; index < parameters.keywords.length; index++) {
var element = parameters.keywords[index];
url += `|${parameters.keywords[index]}`;
}
}
break;
case "types":
if (parameters.types.length > 0) {
url += `&${key}=`;
url += parameters.types[0]
for (var index = 1; index < parameters.keywords.length; index++) {
var element = parameters.keywords[index];
url += `|${parameters.keywords[index]}`
}
}
break;
case "output":
url += `&${key}=`;
switch (parameters.output) {
case GaodePoiOutput.XML:
url += "XML";
break;
default:
url += "JSON";
}
default:
url += `&${key}=`;
url += `${parameters[key]}`;
break;
}
}
}
return url;
}
}

这样直接调用GaodePoiApi对象的getUrl()函数即可生成需要的请求。

为什么不用request库的qs配置参数呢?这个参数其实非常坑,在高德API、百度API这种特别复杂的请求参数要求下,往往会出现问题。例如,如果一个参数可以是一个数组,你却不能直接把这个参数的值写成数组,这样会出现问题,只能手动利用将其变成字符串。我一开始使用的是querystring.stringify()函数,直接将qs对象序列化成字符串,但是后来发现还是有问题。但是使用TypeScript这样做之后,就觉得更加合理,一些复杂的参数格式也更加可控。

请求结果的类型化

开放API的示例

如在爬取高德地图API的时候,返回一个JSON时,可以直接将其指定一个类型,方便后面的操作。例如:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
/** 高德POI搜索结果模型 */
export interface IGaodePoiSearchResultModel {
status: string;
info?: string;
infocode?: string;
count?: string;
pois?: IGaodePoiModel[];
suggestion?: IGaodePoiSearchSuggestionsModel[];
}
/** 高德地图API */
export class GaodePoi {
id: string;
name: string;
typecode: string;
biz_type: any[];
address: string;
gjclng: number;
gjclat: number;
wgslng: number;
wgslat: number;
tel: string;
distance: any[];
biz_ext: any[];
pname: string;
cityname: string;
adname: string;
importance: any[];
shopid: any[];
shopinfo: string | number;
poiweight: any[];
constructor(parameters: IGaodePoiModel) {
// 复制属性
this.id = parameters.id;
this.name = parameters.name;
this.typecode = parameters.typecode;
this.biz_type = parameters.biz_type;
this.address = parameters.address;
this.tel = parameters.tel;
this.distance = parameters.distance;
this.biz_ext = parameters.biz_ext;
this.pname = parameters.pname;
this.cityname = parameters.cityname;
this.adname = parameters.adname;
this.importance = parameters.importance;
this.shopid = parameters.shopid;
this.shopinfo = parameters.shopinfo;
this.poiweight = parameters.poiweight;
// 计算坐标
var coords = parameters.location.split(",");
this.gjclng = parseFloat(coords[0])
this.gjclat = parseFloat(coords[1])
var wgs = coordtransform.gcj02towgs84(this.gjclng, this.gjclat)
this.wgslng = wgs[0];
this.wgslat = wgs[1];
}
static getFields(): string[] {
return [ "id", "name", "typecode", "biz_type", "address", "gjclng", "gjclat", "wgslng", "wgslat", "tel", "distance", "biz_ext", "pname", "cityname", "adname", "importance", "shopid", "shopinfo", "poiweight" ]
}
}

这里面在构造函数中,调用了坐标转换库,转换了获取到的坐标。这个过程在获取结果时,在构造的过程中自动调用。

具体程序示例请参考:download-gaode-poi

HTML页面的示例

如果不是爬开放API,类型化也有一定的作用。例如爬取列表的时候,或者详细信息的时候,可以知道哪些属性时需要爬的,以及还有哪些属性没有爬下来。例如这段类型的声明

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
export class ErshoufangListItem {
id: string;
title: string;
link: string;
property: string;
propertylink: string;
tags: Array<string>;
total_price: number;
unit_price: number;
type_time: string;
constructor(self?: ErshoufangListItem) {
this.tags = new Array<string>();
if (self) {
this.title = self.title;
this.link = self.link;
this.property = self.property;
this.propertylink = self.propertylink;
this.tags = self.tags;
this.total_price = self.total_price;
this.unit_price = self.unit_price;
this.type_time = self.type_time;
}
}
}

对应了下面这个列表页面中所需要提取的数据

在爬取页面的时候,按照这个类型中声明的属性进行爬取即可。这一点可以用于多人协作中,一个人负责确定所要爬取的数据的原型(声明这个类),另一个人便写爬虫,其他人按照这个类型对数据进行分析。

延时函数编写

如果想让程序等待一定时间再继续爬取,setInterval()函数是可以使用的,但是又容易掉到回调坑里面。如果你再一个请求得到返回结果后又发起了一系列请求,这样两套setInterval()是统一不起来的,各计各的时间(因为request也用的是回调)。这个时候用TypeScript的await关键字调用一个延时函数(起名为delay())是再好不过的。

delay()函数如下:

1
2
3
4
5
6
7
/**
* 延时函数
* @param times 延时时间
*/
function delay(times: number): Promise<void>{
return new Promise<void>((resolve, reject)=>{setTimeout(()=>resolve(), times)});
}

使用时直接用await关键字“调用”即可

1
await delay(10000);

“前端爬虫”的后台搭建

像百度地图API这种开放平台,有的时候JavaScript API提供的功能比Web服务API提供的功能多。例如,JavaScript API提供了“商圈”数据获取的功能。如果我们要爬取商圈数据,那就只在HTML页面中,调用这套API,将获取到的数据,通过Ajax发送到服务器上。此时要求服务器需要提供上传数据的接口,一旦这个接口被访问,服务器将前端上传的数据保存到文件中即可。

之所以这样做,是因为浏览器一般没有直接操作本地文件的能力,不能再获取到数据之后直接保存成文件。如果真要直接保存,那可能只能保存成cookie或者“本地存储”之类的东西?这样又不是很好用。

这样一个爬虫的分工就更明显了。前端工程师可以在前端设计页面如何自动调用API进行数据获取并提交,后端工程师设计服务器接口以进行数据的接收、处理和存储。

例如在编写这个商圈数据爬虫的过程中,百度给的示例页面是这样的:

使用的是百度提供的CityList类,包含两个方法:

  • getBussiness():获取商圈数据。
  • getSubAreaList():获取下级的区域列表。

通过前端不断调用getBussiness()方法,即可获取到不同商圈的参数。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
for (let j = 0; j < all_business.length; j++) {
const element = all_business[j];
console.log(element, "商圈数据");
await new Promise(function (resolve, reject) {
cityList.getBusiness(element, async function (json) {
await new Promise(function (resolve, reject) {
$.ajax({
url: "/upload/businessCircle",
type: "POST",
data: {
body: JSON.stringify({
name: element,
business: json,
city: "武汉市"
})
},
success: function (body) {
resolve();
},
error: function () {
reject();
}
})
})
resolve();
})
})
await new Promise(function (resolve, reject) {
setTimeout(function () {
resolve()
}, 1000)
})
}

这段程序代码中:

  • 由于ES6带来了await,前端现在也可以使用这种方式来使异步执行的程序同步化。但同样要求在async修饰的函数中才能使用await关键字。
  • all_business是所有商圈的名字。不同城市可能有相同名字的商圈,比如“中山公园”,这时可以根据返回结果中商圈的“城市”字段在判断。
  • JSON.stringify()POST参数是“Key-Value”模式的,因此一个键对应一个值,这个值用字符串形式。如果直接传入一个对象,会被转换成多个键值对的形式。所以遇到JS对象,就要用JSON.stringify()函数将其变成字符串,在后台再用JSON.parse()函数解析。
  • POST参数可以使用TypeScript的interface进行建模,这就需要浏览器中的脚本也使用TypeScript编写,然后编译。对于前端来说使用TypeScript的意义可能不大,因为很多前端库没有TypeScript的声明文件。但是前端工程师可以将自己所采用的POST参数模型交给后端工程师,后端工程师按照这个模型进行处理。

在后端,建立一个接受POST请求的服务,比如我用Express搭建的服务器,提供了这样一个POST接口:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
/**
* 浏览器提交商圈
* @param req 请求
* @param res 响应
* @param next 后处理函数
*/
function postBusinessCircle(req: express.Request, res: express.Response, next: express.NextFunction) {
var data: {name: string, city: string, business: BusinessCircle[]} = JSON.parse(req.body.body);
fs.writeFile(`data/BusinessCircle/${data.name}.json`, JSON.stringify({
name: data.name,
business: data.business.filter(x => x.city === data.city)
}), (err) => {
if (err) console.log(err);
else {
console.log(`${data.name}写文件完成`);
res.send("success")
}
})
}

var router = express.Router();
router.post("/businessCircle", postBusinessCircle)

module.exports = router;

即可接收前端通过POST参数上传的数据。

具体程序示例请参考:baidu-business-circle

其他的话

抓包工具

要爬虫一定无法避免抓包。一般浏览器的开发人员工具又抓包的功能,同样也可以使用一些抓包工具来抓包。我比较喜欢使用抓包工具Fiddler。

使用浏览器自带的抓包工具,只能在当前页面抓包,而且如果新弹出了一个窗口,往往需要打开抓包工具后刷新一下页面才能抓到包。抓包的结果不能保存,不太方便。

使用Fiddler抓包就比较有优势,可以克服上述问题。但是Fiddler抓包范围太广,有些其他程序的http/https请求也会被抓到,因此抓包的结果可能要多很多。这个时候就要仔细分析哪些包是需要的,哪些包是不需要的。分析起来难度增大俩。

其他抓包工具我还没有试过,用过Fiddler之后感觉确实挺好用的,所以就没有试其他的了。

Fiddler还可以抓手机上的包,只需要设置代理即可,我曾经用这种方法抓了参考消息App的包,分析出它的API。如果一个手机软件用的是HTTPS协议,装一下Fiddler的证书即可。当然这时最好还是在安卓模拟器里面安装,以防个人信息无意中泄露。

SourceMap选项

如果使用VSCode编写的话,可以直接调试。直接调试JavaScript是可以的,但是如何调试TypeScript呢?毕竟tsc编译生成的JS脚本太复杂了。

这需要在tsconfig.json文件和.vscode/launch.json中,分别开启sourceMap选项和sourceMaps选项。

1
2
3
4
5
6
7
8
9
// tsconfig.json
{
"compilerOptions": {
"lib": [
"es2015"
],
"sourceMap": true
}
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
// .vscode/launch.json
{
// 使用 IntelliSense 了解相关属性。
// 悬停以查看现有属性的描述。
// 欲了解更多信息,请访问: https://go.microsoft.com/fwlink/?linkid=830387
"version": "0.2.0",
"configurations": [
{
"type": "node",
"request": "launch",
"name": "Launch Program",
"program": "${file}",
"sourceMaps": true,
"outFiles": [
"${workspaceFolder}/**/*.js"
]
}
]
}

Visual Studio Code 的插件

VSCode有一个“JSON to TS”的插件,在使用起来非常方便。这个插件可以根据剪贴板或JSON文件中的JSON字符串,按照其格式,生成对应的TypeScript Interface。这样,如果爬取一些给出了示例JSON数据的开放API,或者是前端工程师提供的示例数据,都可以直接使用这个插件生成Interface,非常方便开发。

不过这样生成的Interface也不是万能的,需要手动修改一些地方。如一些Interface的名字等。


暂时先记录到这里了。如果日后发现有一些需要补充的还会再添加上。如有错误欢迎大家指正。

感谢您的阅读,本文由 HPDell 的个人博客 版权所有。如若转载,请注明出处:HPDell 的个人博客(http://hpdell.github.io/编程/crawler-cheerio-ts/
手机中的信息安全
Path-Inference-Filter(PIF) 算法调用的实现