[聚合文章] node学习之路(一)—— 网络请求

JSONP 2016-09-29 9 阅读

一直以来想深入学习一下node,一来是自己目前也没有什么时间去学习服务器端语言,但是有时候又想自己撸一下服务器端,本着爱折腾的精神开始写一写关于node的文章记录学习心得。本系列文章不会过多去讲解node安装、基本API等内容,而是通过一些实例去总结常用用法。本文主要讲解node网络操作的相关内容,node中的网络操作依赖于http模块,http模块提供了两种使用方式:

  • 作为服务器端使用,创建一个http服务器,监听http客户端请求并返回响应;
  • 作为客户端使用,发起一个http客户端请求,获取服务器端响应。

node http模块创建服务器

node 处理 get 请求实例

毕竟作为一个前端,我们经常需要自己搭建一个服务器做测试,这里我们先来讲一下node http模块作为服务器端使用。首先我们需要,使用createServer创建一个服务,然后通过listen监听客服端http请求。

我们可以创建一个最简单的服务器,在页面输出 hello world ,我们可以创建helloworld.js,内容如下:

var http = require('http');

http.createServer(function(request, response){
	response.writeHead(200, { 'Content-Type': 'text-plain' });
	response.end('hello world!')
}).listen(8888);

在命令行输入node helloworld.js即可,我们打开在浏览器打开 http://127.0.0.1:8888/就可以看到页面输出hello world!。

下面我们在本地写一个页面,通过jsonp访问我们创建的node服务器:

<!DOCTYPE html>
<html>
	<head>
		<metacharset="utf-8"/>
		<title></title>
	</head>
	<body>
		<divid="output"></div>
		
		<scripttype="text/javascript">
			// 创建script标签
			functionimportScript(src){
            	var el = document.createElement('script');
		        el.src = src;
		        el.async = true;
				el.defer = true;
		        document.body.appendChild(el);
            }
			
			// 响应的方法
			functionjsonpcallback(rs){
		        console.log(JSON.stringify(rs));
		        document.getElementById("output").innerHTML = JSON.stringify(rs);
		    }
			
			// 发起get请求
			importScript('http://127.0.0.1:8888?userid=xiaoqingnian&callback=jsonpcallback');
		</script>
	</body>
</html>

我们当然需要将上述node服务器中的代码稍作修改:

var http = require('http'); // 提供web服务
var url = require('url');	// 解析GET请求
  
var data = {
	'name': 'zhaomenghuan', 
	'age': '22'
};
  
http.createServer(function(req, res){  
	// 将url字符串转换成Url对象
	var params = url.parse(req.url, true);  
	console.log(params);
	// 查询参数
	if(params.query){
		// 根据附件条件查询
		if(params.query.userid === 'xiaoqingnian'){
			// 判断是否为jsonp方式请求,若是则使用jsonp方式,否则为普通web方式
			if (params.query.callback) {  
				var resurlt =  params.query.callback + '(' + JSON.stringify(data) + ')';
				res.end(resurlt);  
			} else {  
				res.end(JSON.stringify(data));
			}
		} 
	}      
}).listen(8888);

我们在命令行可以看到:

Url {
  protocol: null,
  slashes: null,
  auth: null,
  host: null,
  port: null,
  hostname: null,
  hash: null,
  search: '?userid=xiaoqingnian&callback=jsonpcallback',
  query: { userid: 'xiaoqingnian', callback: 'jsonpcallback' },
  pathname: '/',
  path: '/?userid=xiaoqingnian&callback=jsonpcallback',
  href: '/?userid=xiaoqingnian&callback=jsonpcallback' }

经过服务器端jsonp处理,然后返回一个函数:

jsonpcallback({"name":"zhaomenghuan","age":"22"})

而我们在页面中定义了一个jsonpcallback()的方法,所以当我们在请求页面动态生成script调用服务器地址,这样相当于在页面执行了下我们定义的函数。jsonp的实现原理主要是script标签src可以跨域执行代码,类似于你引用js库,然后调用这个js库里面的方法;这是这里我们可以认为反过来了,你是在本地定义函数,调用的逻辑通过服务器返回的一个函数执行了,所以jsonp并没有什么神奇的,和XMLHttpRequest、ajax半毛钱关系都没有,而且JSONP需要服务器端支持,始终是无状态连接,不能获悉连接状态和错误事件,而且只能走GET的形式。

node 处理 post 请求实例

当然这里我们可以直接在后台设置响应头进行跨域(CORS),如:

var http = require("http");	// 提供web服务
var query = require("querystring");	// 解析POST请求

http.createServer(function(req,res){
  	// 报头添加Access-Control-Allow-Origin标签,值为特定的URL或"*"(表示允许所有域访问当前域)
  	res.setHeader("Access-Control-Allow-Origin","*");
  	
  	var postdata = '';
  	// 一旦监听器被添加,可读流会触发 'data' 事件
    req.addListener("data",function(chunk){
        postdata += chunk;
    })
    // 'end' 事件表明已经得到了完整的 body
    req.addListener("end",function(){
    	console.log(postdata); 	// 'appid=xiaoqingnian'
        // 将接收到参数串转换位为json对象
        var params = query.parse(postdata);
        if(params.userid == 'xiaoqingnian'){
        	res.end('{"name":"zhaomenghuan","age":"22"}');
        }
    })
    
}).listen(8080);

我们通过流的形式接收前端post传递的参数,通过监听data和end事件,后面在讲解event模块的时候再深入探究。

CORS默认只支持GET/POST这两种http请求类型,如果要开启PUT/DELETE之类的方式,需要在服务端在添加一个”Access-Control-Allow-Methods”报头标签:

res.setHeader(
  	"Access-Control-Allow-Methods",
  	"PUT, GET, POST, DELETE, HEAD, PATCH"
);

前端访问代码如下:

var xhr = new XMLHttpRequest();
xhr.onload = function(){
    console.log(this.responseText);
};
xhr.onreadystatechange = function(){
    console.log(this.readyState);
};

xhr.open("post", "http://127.0.0.1:8080", true);
xhr.setRequestHeader("Content-Type", "application/x-www-form-urlencoded");
xhr.send("userid=xiaoqingnian");

url 模块API详解

url.parse——解析url字符串

上述代码中比较关键的是我们通过url.parse方法将url字符串转成Url对象,用法如下:

url.parse(urlStr, [parseQueryString], [slashesDenoteHost])

接收参数:

  • urlStr :url字符串
  • parseQueryString :参数为true时,query会被解析为JSON格式,否则为普通字符串格式,默认为false;如:
    • 参数为true: query: { userid: 'xiaoqingnian', callback: 'jsonpcallback' }
    • 参数为false: query: 'userid=xiaoqingnian&callback=jsonpcallback'
  • slashesDenoteHost :默认为false,当url是 ‘http://’ 或 ‘ftp://’ 等标志的协议前缀打头的,或直接以地址打头,如 ‘127.0.0.1’ 或 ‘localhost’ 时候是没有区别的;当且仅当以2个斜杠打头的时候,比如 ‘//127.0.0.1’ 才有区别。这时候,如果其值为true,则第一个单个 ‘/’ 之前的部分被解析为 ‘host’ 和 ‘hostname’,如 ” host : ‘127.0.0.1’ “,如果为false,包括2个反斜杠在内的所有字符串被解析为pathname。如:
    > url.parse('//www.foo/bar',true,true)
    Url {
      protocol: null,
      slashes: true,
      auth: null,
      host: 'www.foo',
      port: null,
      hostname: 'www.foo',
      hash: null,
      search: '',
      query: {},
      pathname: '/bar',
      path: '/bar',
      href: '//www.foo/bar' }
    > url.parse('//www.foo/bar',true,false)
    Url {
      protocol: null,
      slashes: null,
      auth: null,
      host: null,
      port: null,
      hostname: null,
      hash: null,
      search: '',
      query: {},
      pathname: '//www.foo/bar',
      path: '//www.foo/bar',
      href: '//www.foo/bar' }
    

这里的URL对象和浏览器中的location对象类似,location中如果我们需要使用类似的方法,我们需要自己构造。

url.format——格式化URL对象

我们可以通过url.format方法将一个解析后的URL对象格式化成url字符串,用法为:

url.format(urlObj)

例子:

url.format({
  protocol: 'http:',
  slashes: true,
  auth: 'user:pass',
  host: 'host.com:8080',
  port: '8080',
  hostname: 'host.com',
  hash: '#hash',
  search: '?query=string',
  query: 'query=string',
  pathname: '/p/a/t/h',
  path: '/p/a/t/h?query=string',
  href: 'http://user:pass@host.com:8080/p/a/t/h?query=string#hash' 
})

结果为:
'http://user:pass@host.com:8080/p/a/t/h?query=string#hash'

url.resolve——拼接url字符串

我们可以通过url.resolve为URL或 href 插入 或 替换原有的标签,接收参数:

from源地址,to需要添加或替换的标签。

url.resolve(from, to)

例子为:

url.resolve('/one/two/three', 'four')
=> '/one/two/four'
url.resolve('http://example.com/', '/one')    
=> 'http://example.com/one'
url.resolve('http://example.com/one', '/two') 
=> 'http://example.com/two'

Query String 模块Query String

querystring.escape——字符串编码

querystring.escape('appkey=123&version=1.0.0+')
// 'appkey%3D123%26version%3D1.0.0%2B'

querystring.unescape——字符串解码

querystring.unescape('appkey%3D123%26version%3D1.0.0%2B')
// 'appkey=123&version=1.0.0+'

querystring.stringify(querystring.encode)——序列化对象

querystring.stringify(obj[, sep][, eq][, options])
querystring.encode(obj[, sep][, eq][, options])

接收参数:

  • obj : 欲转换的对象
  • sep :设置分隔符,默认为 ‘&’
  • eq :设置赋值符,默认为 ‘=’
querystring.stringify({foo: 'bar', baz: ['qux', 'quux'], corge: ''})
// 'foo=bar&baz=qux&baz=quux&corge='

querystring.stringify({foo: 'bar', baz: ['qux', 'quux'], corge: ''},',',':')
// 'foo:bar,baz:qux,baz:quux,corge:'

querystring.parse(querystring.decode)——解析query字符串

querystring.parse(str[, sep][, eq][, options])
querystring.decode(str[, sep][, eq][, options])

接收参数:

  • str :欲转换的字符串
  • sep :设置分隔符,默认为 ‘&’
  • eq :设置赋值符,默认为 ‘=’
  • [options] maxKeys 可接受字符串的最大长度,默认为1000
querystring.parse('foo=bar&baz=qux&baz=quux&corge=')
// { foo: 'bar', baz: [ 'qux', 'quux' ], corge: '' }

querystring.parse('foo:bar,baz:qux,baz:quux,corge:',',',':')
{ foo: 'bar', baz: [ 'qux', 'quux' ], corge: '' }

node http模块发起请求

平时喜欢看博客,毕竟买书要钱而且有时候没有耐心读完整本书,所以很喜欢逛一些网站,但是很多时候把所有的站逛一下又没有那么多时间,哈哈,所以就准备把常去的网站的文章爬出来做一个文章列表,一来省去收集的时间,二来借此熟悉熟悉node相关的东西。这里我们首先看一个爬虫的小例子,下面以SF为例加以说明(希望不要被封号)。

http.request与http.get的区别

http.request(options, callback)

options可以是一个对象或一个字符串。如果options是一个字符串, 它将自动使用url.parse()解析。http.request() 返回一个 http.ClientRequest类的实例。ClientRequest实例是一个可写流对象。如果需要用POST请求上传一个文件的话,就将其写入到ClientRequest对象。使用http.request()方法时都必须总是调用req.end()以表明这个请求已经完成,即使响应body里没有任何数据。如果在请求期间发生错误(DNS解析、TCP级别的错误或实际HTTP解析错误),在返回的请求对象会触发一个’error’事件。

Options配置说明:

  • host:请求发送到的服务器的域名或IP地址。默认为’localhost’。
  • hostname:用于支持url.parse()。hostname比host更好一些
  • port:远程服务器的端口。默认值为80。
  • localAddress:用于绑定网络连接的本地接口。
  • socketPath:Unix域套接字(使用host:port或socketPath)
  • method:指定HTTP请求方法的字符串。默认为’GET’。
  • path:请求路径。默认为’/‘。如果有查询字符串,则需要包含。例如’/index.html?page=12’。请求路径包含非法字符时抛出异常。目前,只否决空格,不过在未来可能改变。
  • headers:包含请求头的对象。
  • auth:用于计算认证头的基本认证,即’user:password’
  • agent:控制Agent的行为。当使用了一个Agent的时候,请求将默认为Connection: keep-alive。可能的值为:
    • undefined(默认):在这个主机和端口上使用[全局Agent][]。
    • Agent对象:在Agent中显式使用passed。
    • false:在对Agent进行资源池的时候,选择停用连接,默认请求为:Connection: close。
  • keepAlive:{Boolean} 保持资源池周围的套接字在未来被用于其它请求。默认值为false
  • keepAliveMsecs:{Integer} 当使用HTTP KeepAlive的时候,通过正在保持活动的套接字发送TCP KeepAlive包的频繁程度。默认值为1000。仅当keepAlive被设置为true时才相关。

http.get(options, callback)

因为大部分的请求是没有报文体的GET请求,所以Node提供了这种便捷的方法。该方法与http.request()的唯一区别是它设置的是GET方法并自动调用req.end()。

爬虫实例

这里我们使用es6的新特性写:

const https = require('https');
https.get('https://segmentfault.com/blogs', (res) => {
	console.log('statusCode: ', res.statusCode);
  	console.log('headers: ', res.headers);
  	var data = '';
  	res.on('data', (chunk) => {
    	data += chunk;
  	});
  	res.on('end', () => {
  		console.log(data);
  	})
}).on('error', (e) => {
  	console.error(e);
});

这样一小段代码我们就可以拿到segmentfault的博客页面的源码,需要说明的是因为这里请求的网站是https协议,所以我们需要引入https模块,用法同http一致。下面需要做的是解析html代码,下面我们需要做的就是解析源码,这里我们可以引入cheerio,一个node版的类jQuery模块,npm地址: https://www.npmjs.com/package/cheerio。

首先第一步安装:

npm install cheerio

然后就是将html代码load进来,如下:

var cheerio = require('cheerio'),
var $ = cheerio.load(html);

最后我们就是分析dom结构咯,通过类似于jQuery的方法获取DOM元素的内容,然后就将数据重新组装成json结构的数据。这里就是分析源码然后,这里我就不详细分析了,直接上代码:

functionhtmlparser(html){
	var baseUrl = 'https://segmentfault.com';
	
	var $ = cheerio.load(html);
	var bloglist = $('.stream-list__item');
	
	var data = [];
	
	bloglist.each(function(item){
		var page = $(this);
		var summary = page.find('.summary');
		var blogrank = page.find('.blog-rank');
		
		var title = summary.find('.title a').text();
		var href = baseUrl + summary.find('.title a').attr('href');
		var author = summary.find('.author li a').first().text().trim();
		var origin = summary.find('.author li a').last().text().trim();
		var time = summary.find('.author li span')[0].nextSibling.data.trim();
		var excerpt = summary.find('p.excerpt').text().trim();
		var votes = blogrank.find('.votes').text().trim();
		var views = blogrank.find('.views').text().trim();
		
		data.push({
			title: title,
			href: href,
			author: author,
			origin: origin,
			time: time,
			votes: votes,
			views: views,
			excerpt: excerpt
		})
	})
	
	return data;
}

结果如下:

[{ title: '转换流',
    href: 'https://segmentfault.com/a/1190000007036273',
    author: 'SwiftGG翻译组',
    origin: 'SwiftGG翻译组',
    time: '1 小时前',
    votes: '0推荐',
    views: '14浏览',
    excerpt: '作者:Erica Sadun,原文链接,原文日期:2016-08-29译者:Darren;校对:shank
s;定稿:千叶知风 我在很多地方都表达了我对流的喜爱。我在 Swift Cookbook 中介绍了一些。现
在,我将通过 Pearson 的内容更新计划...' },
......
]

这里我们只是抓取了文章列表的一页,如果需要抓取多页,只需要将内容再次封装一下,传入一个地址参数?page=2,如: https://segmentfault.com/blogs?page=2

另外我们也没有将详情页进一步爬虫,毕竟文章的目的只是学习,同时方便自己查看列表,这里保留原始地址。

温馨提示:大家不要都拿sf做测试哦,不然玩坏了就不好。

注:本文内容来自互联网,旨在为开发者提供分享、交流的平台。如有涉及文章版权等事宜,请你联系站长进行处理。