新浦京娱乐场官网-301net-新浦京娱乐www.301net
做最好的网站

HTTP/2 头部压缩技术介绍

HTTP/2 底部压缩技能介绍

2015/11/03 · HTML5 · HTTP/2

初藳出处: imququ(@屈光宇)   

作者们知晓,HTTP/2 合同由多少个 智跑FC 组成:二个是 RFC 7540,描述了 HTTP/2 公约本人;二个是 RFC 7541,描述了 HTTP/2 左券中应用的头顶压缩技巧。本文将透超过实际际案例指导大家详细地认知 HTTP/2 底部压缩那门技能。

为啥要减少

在 HTTP/1 中,HTTP 央求和响应都以由「状态行、央浼 / 响应尾部、音讯主体」三片段组成。日常来讲,音讯主体都会透过 gzip 压缩,或许笔者传输的就是削减过后的二进制文件(举个例子图片、音频),但状态行和底部却从不经过其他压缩,直接以纯文本传输。

乘势 Web 功效更是复杂,每一种页面爆发的伸手数也愈来愈多,依照 HTTP Archive 的总计,当前平均各样页面都会产生许八个恳求。越来越多的央浼导致消耗在头顶的流量越多,非常是历次都要传输 UserAgent、Cookie 那类不会频仍更改的剧情,完全部是风流洒脱种浪费。

以下是自己顺手打开的三个页面包车型地铁抓包结果。可以看来,传输尾部的网络耗费超越100kb,比 HTML 还多:

图片 1

下边是内部一个央求的周全。能够看见,为了赢得 58 字节的多少,在头顶传输上海消防费了几许倍的流量:

图片 2

HTTP/1 时代,为了裁减底部消耗的流量,有相当多优化方案得以品尝,举例合併央求、启用 Cookie-Free 域名等等,不过那些方案或多或少会引进一些新的难点,这里不展开研讨。

削减后的成效

接下去本人将采纳访问本博客的抓包记录以来明 HTTP/2 底部压缩带来的成形。如何行使 Wireshark 对 HTTPS 网站进行抓包并解密,请看作者的那篇文章。本文使用的抓包文件,能够点那边下载。

首先直接上航海用体育场所。下图选中的 Stream 是第二次访问本站,浏览器发出的恳求头:

图片 3

从图纸中能够看出这几个 HEADE大切诺基S 流的长短是 206 个字节,而解码后的尾秘书长度有 451 个字节。简来说之,压缩后的头顶大小降低了概略上多。

只是那正是百分之百呢?再上一张图。下图选中的 Stream 是点击本站链接后,浏览器发出的号召头:

图片 4

能够看见这一回,HEADE路虎极光S 流的长度独有 49 个字节,可是解码后的头顶长度却有 470 个字节。这叁回,压缩后的头顶大小大概只有原本大小的 1/10。

怎么前后四遍差别这么大啊?大家把一回的头顶消息实行,查看同八个字段五遍传输所占据的字节数:

图片 5

图片 6

相比较之下后能够开掘,第一次的央求底部之所以超级小,是因为大多数键值对只占用了三个字节。特别是 UserAgent、Cookie 那样的尾部,第三次呼吁中须要占用比比较多字节,后续哀告中都只供给叁个字节。

手艺原理

上边那张截图,取自 Google 的属性行家 Ilya Grigorik 在 Velocity 二〇一五 • SC 会议中享用的「HTTP/2 is here, let’s optimize!」,非常直观地陈说了 HTTP/2 中底部压缩的原理:

图片 7

本人再用深入显出的语言表明下,尾部压缩须求在支撑 HTTP/2 的浏览器和服务端之间:

  • 护卫生机勃勃份肖似的静态字典(Static Table),包蕴何奇之有的头顶名称,以致十分不认为奇的尾部名称与值的组成;
  • 保卫安全后生可畏份雷同的动态字典(Dynamic Table),能够动态的丰盛内容;
  • 协助基于静态哈夫曼码表的哈夫曼编码(Huffman Coding);

静态字典的效劳有八个:1)对于截然相称的尾部键值对,比方 : method :GET,能够间接使用二个字符表示;2)对于底部名称能够协作的键值对,举个例子 cookie :xxxxxxx,可以将名称使用三个字符表示。HTTP/第22中学的静态字典如下(以下只截取了部分,完整表格在这里):

Index Header Name Header Value
1 :authority
2 :method GET
3 :method POST
4 :path /
5 :path /index.html
6 :scheme http
7 :scheme https
8 :status 200
32 cookie
60 via
61 www-authenticate

再正是,浏览器能够告知服务端,将 cookie :xxxxxxx 增添到动态字典中,这样继续一切键值对就能够利用多少个字符表示了。肖似的,服务端也能够立异对方的动态字典。必要注意的是,动态字典上下文有关,必要为各样HTTP/2 连接维护分歧的字典。

选取字典能够小幅地晋级压缩效果,在这之中静态字典在第二回呼吁中就足以行使。对于静态、动态字典中官样文章的从头到尾的经过,仍然是能够动用哈夫曼编码来减小体量。HTTP/2 使用了生龙活虎份静态哈夫曼码表(详见),也急需内置在客商端和服务端之中。

这里顺便说一下,HTTP/1 的气象行音讯(Method、Path、Status 等),在 HTTP/第22中学被拆成键值对放入底部(冒号牵头的那么些),相似能够心烦意乱到字典和哈夫曼压缩。其余,HTTP/2中具备尾部名称必需小写。

落到实处细节

叩问了 HTTP/2 尾部压缩的基本原理,最终我们来看一下实际的达成细节。HTTP/2 的底部键值对有以下那一个景况:

1)整个底部键值对都在字典中

JavaScript

0 1 2 3 4 5 6 7 --- --- --- --- --- --- --- --- | 1 | Index (7 ) | --- ---------------------------

1
2
3
4
5
  0   1   2   3   4   5   6   7
--- --- --- --- --- --- --- ---
| 1 |        Index (7 )         |
--- ---------------------------
 

那是最简便的情事,使用一个字节就足以象征那个底部了,最左壹个人稳固为 1,之后七位存放键值对在静态或动态字典中的索引。举例下图中,底部索引值为 2(0000010),在静态字典中询问可得 : method :GET

图片 8

2)底部名称在字典中,更新动态字典

JavaScript

0 1 2 3 4 5 6 7 --- --- --- --- --- --- --- --- | 0 | 1 | Index (6 ) | --- --- ----------------------- | H | Value Length (7 ) | --- --------------------------- | Value String (Length octets) | -------------------------------

1
2
3
4
5
6
7
8
9
  0   1   2   3   4   5   6   7
--- --- --- --- --- --- --- ---
| 0 | 1 |      Index (6 )       |
--- --- -----------------------
| H |     Value Length (7 )     |
--- ---------------------------
| Value String (Length octets)  |
-------------------------------
 

对此这种状态,首先须求使用一个字节表示尾部名称:左两位牢固为 01,之后伍人存放尾部名称在静态或动态字典中的索引。接下来的二个字节第3个人H 表示尾部值是还是不是使用了哈夫曼编码,剩余八人表示尾部值的尺寸 L,后续 L 个字节就是尾部值的具体内容了。举例下图中索引值为 32(100000),在静态字典中询问可得  cookie ;尾部值使用了哈夫曼编码(1),长度是 28(0011100);接下去的 贰十九个字节是 cookie 的值,将其进展哈夫曼解码就能够获得具体内容。

图片 9

客商端或服务端看见这种格式的头顶键值对,会将其增添到自个儿的动态字典中。后续传输那样的剧情,就相符第 1 种意况了。

3)底部名称不在字典中,更新动态字典

JavaScript

0 1 2 3 4 5 6 7 --- --- --- --- --- --- --- --- | 0 | 1 | 0 | --- --- ----------------------- | H | Name Length (7 ) | --- --------------------------- | Name String (Length octets) | --- --------------------------- | H | Value Length (7 ) | --- --------------------------- | Value String (Length octets) | -------------------------------

1
2
3
4
5
6
7
8
9
10
11
12
13
  0   1   2   3   4   5   6   7
--- --- --- --- --- --- --- ---
| 0 | 1 |           0           |
--- --- -----------------------
| H |     Name Length (7 )      |
--- ---------------------------
|  Name String (Length octets)  |
--- ---------------------------
| H |     Value Length (7 )     |
--- ---------------------------
| Value String (Length octets)  |
-------------------------------
 

这种处境与第 2 种情形好像,只是由于底部名称不在字典中,所以率先个字节固定为 01000000;接着注解名称是或不是利用哈夫曼编码及长度,并放上名称的具体内容;再表明值是不是选拔哈夫曼编码及长度,最终放上值的具体内容。举个例子下图中名称的长短是 5(0000101),值的长度是 6(0000110)。对其具体内容实行哈夫曼解码后,可得 pragma: no-cache 。

图片 10

顾客端或服务端见到这种格式的底部键值对,会将其加多到本人的动态字典中。后续传输那样的从头到尾的经过,就切合第 1 种意况了。

4)底部名称在字典中,不容许更新动态字典

JavaScript

0 1 2 3 4 5 6 7 --- --- --- --- --- --- --- --- | 0 | 0 | 0 | 1 | Index (4 ) | --- --- ----------------------- | H | Value Length (7 ) | --- --------------------------- | Value String (Length octets) | -------------------------------

1
2
3
4
5
6
7
8
9
  0   1   2   3   4   5   6   7
--- --- --- --- --- --- --- ---
| 0 | 0 | 0 | 1 |  Index (4 )   |
--- --- -----------------------
| H |     Value Length (7 )     |
--- ---------------------------
| Value String (Length octets)  |
-------------------------------
 

这种情形与第 2 种状态非常肖似,独一区别之处是:第贰个字节左四个人稳固为 0001,只剩余四人来存放在索引了,如下图:

图片 11

那边需求介绍其余三个知识点:对整数的解码。上海体育地方中第贰个字节为 00011111,并不意味着尾部名称的目录为 15(1111)。第贰个字节去掉固定的 0001,只剩二人可用,将位数用 N 表示,它必须要用来表示小于「2 ^ N – 1 = 15」的子弹头 I。对于 I,供给依据以下准则求值(XC60FC 754第11中学的伪代码,via):

Python

if I < 2 ^ N - 1, return I # I 小于 2 ^ N - 1 时,直接回到 else M = 0 repeat B = next octet # 让 B 等于下二个八个人 I = I (B & 127) * 2 ^ M # I = I (B 低七位 * 2 ^ M) M = M 7 while B & 128 == 128 # B 最高位 = 1 时连任,否则再次回到 I return I

1
2
3
4
5
6
7
8
9
if I < 2 ^ N - 1, return I         # I 小于 2 ^ N - 1 时,直接返回
else
    M = 0
    repeat
        B = next octet             # 让 B 等于下一个八位
        I = I (B & 127) * 2 ^ M  # I = I (B 低七位 * 2 ^ M)
        M = M 7
    while B & 128 == 128           # B 最高位 = 1 时继续,否则返回 I
    return I

对于上图中的数据,遵照那一个法规算出索引值为 32(00011111 00010001,15 17),代表  cookie 。须要小心的是,左券中持有写成(N )的数字,比如Index (4 )、Name Length (7 ),都要求信守那一个法则来编码息争码。

这种格式的头顶键值对,不容许被增多到动态字典中(但足以采纳哈夫曼编码)。对于部分要命灵敏的头顶,譬如用来证实的 Cookie,这么做可以拉长安全性。

5)尾部名称不在字典中,分歧意更新动态字典

JavaScript

0 1 2 3 4 5 6 7 --- --- --- --- --- --- --- --- | 0 | 0 | 0 | 1 | 0 | --- --- ----------------------- | H | Name Length (7 ) | --- --------------------------- | Name String (Length octets) | --- --------------------------- | H | Value Length (7 ) | --- --------------------------- | Value String (Length octets) | -------------------------------

1
2
3
4
5
6
7
8
9
10
11
12
13
  0   1   2   3   4   5   6   7
--- --- --- --- --- --- --- ---
| 0 | 0 | 0 | 1 |       0       |
--- --- -----------------------
| H |     Name Length (7 )      |
--- ---------------------------
|  Name String (Length octets)  |
--- ---------------------------
| H |     Value Length (7 )     |
--- ---------------------------
| Value String (Length octets)  |
-------------------------------
 

这种场馆与第 3 种处境特别接近,独一区别之处是:第一个字节固定为 00010000。这种景观少之又少见,未有截图,各位能够脑补。同样,这种格式的底部键值对,也不容许被加多到动态字典中,只好利用哈夫曼编码来压缩容量。

其实,公约中还鲜明了与 4、5 极度周边的此外二种格式:将 4、5 格式中的第一个字节第1个人由 1 改为 0 就能够。它意味着「此次不更新动态词典」,而 4、5 表示「相对不容许更新动态词典」。分裂不是非常的大,这里略过。

明亮了底部压缩的技巧细节,理论上可以相当轻便写出 HTTP/2 尾部解码工具了。小编比较懒,直接找来 node-http第22中学的 compressor.js 验证一下:

JavaScript

var Decompressor = require('./compressor').Decompressor; var testLog = require('bunyan').createLogger({name: 'test'}); var decompressor = new Decompressor(testLog, 'REQUEST'); var buffer = new Buffer('820481634188353daded6ae43d3f877abdd07f66a281b0dae053fad0321aa49d13fda992a49685340c8a6adca7e28102e10fda9677b8d05707f6a62293a9d810020004015309ac2ca7f2c3415c1f53b0497ca589d34d1f43aeba0c41a4c7a98f33a69a3fdf9a68fa1d75d0620d263d4c79a68fbed00177febe58f9fbed00177b518b2d4b70ddf45abefb4005db901f1184ef034eff609cb60725034f48e1561c8469669f081678ae3eb3afba465f7cb234db9f4085aec1cd48ff86a8eb10649cbf', 'hex'); console.log(decompressor.decompress(buffer)); decompressor._table.forEach(function(row, index) { console.log(index 1, row[0], row[1]); });

1
2
3
4
5
6
7
8
9
10
11
12
var Decompressor = require('./compressor').Decompressor;
 
var testLog = require('bunyan').createLogger({name: 'test'});
var decompressor = new Decompressor(testLog, 'REQUEST');
 
var buffer = new Buffer('820481634188353daded6ae43d3f877abdd07f66a281b0dae053fad0321aa49d13fda992a49685340c8a6adca7e28102e10fda9677b8d05707f6a62293a9d810020004015309ac2ca7f2c3415c1f53b0497ca589d34d1f43aeba0c41a4c7a98f33a69a3fdf9a68fa1d75d0620d263d4c79a68fbed00177febe58f9fbed00177b518b2d4b70ddf45abefb4005db901f1184ef034eff609cb60725034f48e1561c8469669f081678ae3eb3afba465f7cb234db9f4085aec1cd48ff86a8eb10649cbf', 'hex');
 
console.log(decompressor.decompress(buffer));
 
decompressor._table.forEach(function(row, index) {
    console.log(index 1, row[0], row[1]);
});

尾部原始数据出自于本文第三张截图,运转结果如下(静态字典只截取了大器晚成局地):

{ ':method': 'GET', ':path': '/', ':authority': 'imququ.com', ':scheme': 'https', 'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0) Gecko/20100101 Firefox/41.0', accept: 'text/html,application/xhtml xml,application/xml;q=0.9,*/*;q=0.8', 'accept-language': 'en-US,en;q=0.5', 'accept-encoding': 'gzip, deflate', cookie: 'v=47; u=6f048d6e-adc4-4910-8e69-797c399ed456', pragma: 'no-cache' } 1 ':authority' '' 2 ':method' 'GET' 3 ':method' 'POST' 4 ':path' '/' 5 ':path' '/index.html' 6 ':scheme' 'http' 7 ':scheme' 'https' 8 ':status' '200' ... ... 32 'cookie' '' ... ... 60 'via' '' 61 'www-authenticate' '' 62 'pragma' 'no-cache' 63 'cookie' 'u=6f048d6e-adc4-4910-8e69-797c399ed456' 64 'accept-language' 'en-US,en;q=0.5' 65 'accept' 'text/html,application/xhtml xml,application/xml;q=0.9,*/*;q=0.8' 66 'user-agent' 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0) Gecko/20100101 Firefox/41.0' 67 ':authority' 'imququ.com'

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
{ ':method': 'GET',
  ':path': '/',
  ':authority': 'imququ.com',
  ':scheme': 'https',
  'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0) Gecko/20100101 Firefox/41.0',
  accept: 'text/html,application/xhtml xml,application/xml;q=0.9,*/*;q=0.8',
  'accept-language': 'en-US,en;q=0.5',
  'accept-encoding': 'gzip, deflate',
  cookie: 'v=47; u=6f048d6e-adc4-4910-8e69-797c399ed456',
  pragma: 'no-cache' }
1 ':authority' ''
2 ':method' 'GET'
3 ':method' 'POST'
4 ':path' '/'
5 ':path' '/index.html'
6 ':scheme' 'http'
7 ':scheme' 'https'
8 ':status' '200'
... ...
32 'cookie' ''
... ...
60 'via' ''
61 'www-authenticate' ''
62 'pragma' 'no-cache'
63 'cookie' 'u=6f048d6e-adc4-4910-8e69-797c399ed456'
64 'accept-language' 'en-US,en;q=0.5'
65 'accept' 'text/html,application/xhtml xml,application/xml;q=0.9,*/*;q=0.8'
66 'user-agent' 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0) Gecko/20100101 Firefox/41.0'
67 ':authority' 'imququ.com'

能够看看,这段从 Wireshark 拷出来的头顶数据能够平常解码,动态字典也取得了履新(62 – 67)。

总结

在实行 HTTP/2 网址品质优化时很主要一点是「使用尽可能少的连接数」,本文提到的底部压缩是内部三个十分重大的缘故:同三个连接上发出的倡议和响应越来越多,动态字典积攒得越全,尾部压缩效果也就越好。所以,针对 HTTP/2 网址,最棒实行是却非合併能源,不要散列域名。

默许境况下,浏览器会针对那几个意况选取同三个三番五次:

  • 同生龙活虎域名下的能源;
  • 分裂域名下的资源,可是满足五个原则:1)拆解解析到同三个IP;2)使用同三个证书;

地点第一点轻便驾驭,第二点则十分轻巧被忽视。实际上 Google已经这么做了,Google 风度翩翩鳞萃比栉网址都共用了同二个注解,能够这么表达:

$ openssl s_client -connect google.com:443 |openssl x509 -noout -text | grep DNS depth=2 C = US, O = GeoTrust Inc., CN = GeoTrust Global CA verify error:num=20:unable to get local issuer certificate verify return:0 DNS:*.google.com, DNS:*.android.com, DNS:*.appengine.google.com, DNS:*.cloud.google.com, DNS:*.google-analytics.com, DNS:*.google.ca, DNS:*.google.cl, DNS:*.google.co.in, DNS:*.google.co.jp, DNS:*.google.co.uk, DNS:*.google.com.ar, DNS:*.google.com.au, DNS:*.google.com.br, DNS:*.google.com.co, DNS:*.google.com.mx, DNS:*.google.com.tr, DNS:*.google.com.vn, DNS:*.google.de, DNS:*.google.es, DNS:*.google.fr, DNS:*.google.hu, DNS:*.google.it, DNS:*.google.nl, DNS:*.google.pl, DNS:*.google.pt, DNS:*.googleadapis.com, DNS:*.googleapis.cn, DNS:*.googlecommerce.com, DNS:*.googlevideo.com, DNS:*.gstatic.cn, DNS:*.gstatic.com, DNS:*.gvt1.com, DNS:*.gvt2.com, DNS:*.metric.gstatic.com, DNS:*.urchin.com, DNS:*.url.google.com, DNS:*.youtube-nocookie.com, DNS:*.youtube.com, DNS:*.youtubeeducation.com, DNS:*.ytimg.com, DNS:android.com, DNS:g.co, DNS:goo.gl, DNS:google-analytics.com, DNS:google.com, DNS:googlecommerce.com, DNS:urchin.com, DNS:youtu.be, DNS:youtube.com, DNS:youtubeeducation.com

1
2
3
4
5
6
$ openssl s_client -connect google.com:443 |openssl x509 -noout -text | grep DNS
 
depth=2 C = US, O = GeoTrust Inc., CN = GeoTrust Global CA
verify error:num=20:unable to get local issuer certificate
verify return:0
                DNS:*.google.com, DNS:*.android.com, DNS:*.appengine.google.com, DNS:*.cloud.google.com, DNS:*.google-analytics.com, DNS:*.google.ca, DNS:*.google.cl, DNS:*.google.co.in, DNS:*.google.co.jp, DNS:*.google.co.uk, DNS:*.google.com.ar, DNS:*.google.com.au, DNS:*.google.com.br, DNS:*.google.com.co, DNS:*.google.com.mx, DNS:*.google.com.tr, DNS:*.google.com.vn, DNS:*.google.de, DNS:*.google.es, DNS:*.google.fr, DNS:*.google.hu, DNS:*.google.it, DNS:*.google.nl, DNS:*.google.pl, DNS:*.google.pt, DNS:*.googleadapis.com, DNS:*.googleapis.cn, DNS:*.googlecommerce.com, DNS:*.googlevideo.com, DNS:*.gstatic.cn, DNS:*.gstatic.com, DNS:*.gvt1.com, DNS:*.gvt2.com, DNS:*.metric.gstatic.com, DNS:*.urchin.com, DNS:*.url.google.com, DNS:*.youtube-nocookie.com, DNS:*.youtube.com, DNS:*.youtubeeducation.com, DNS:*.ytimg.com, DNS:android.com, DNS:g.co, DNS:goo.gl, DNS:google-analytics.com, DNS:google.com, DNS:googlecommerce.com, DNS:urchin.com, DNS:youtu.be, DNS:youtube.com, DNS:youtubeeducation.com

使用多域名加上同样的 IP 和注明计划 Web 服务有特异的含义:让援救 HTTP/2 的极端只创设一个总是,用上 HTTP/2 合同带来的各样好处;而只援救 HTTP/1.1 的终点则会创造七个一而再,达到同期越来越多并发哀告的目标。那在 HTTP/2 完全遍布前也是三个科学的选料。

1 赞 收藏 评论

图片 12

本文由新浦京娱乐场官网-301net-新浦京娱乐www.301net发布于www.301net,转载请注明出处:HTTP/2 头部压缩技术介绍

您可能还会对下面的文章感兴趣: