头顶压缩技术介绍,底部压缩技术介绍

HTTP/2 底部压缩技术介绍

2016/04/13 · 基本功技术 ·
HTTP/2

本文作者: 伯乐在线 –
JerryQu
。未经小编许可,禁止转发!
迎接参加伯乐在线 专栏撰稿人。

大家知晓,HTTP/2 协议由五个 RFC 组成:一个是 RFC
7540,描述了 HTTP/2
协议本身;一个是 RFC
7541,描述了 HTTP/2
协议中使用的底部压缩技术。本文将经过实际案例辅导大家详细地认识 HTTP/2
底部压缩那门技术。

HTTP/2 尾部压缩技术介绍

2015/11/03 · HTML5 ·
HTTP/2

原文出处:
imququ(@屈光宇)   

大家精晓,HTTP/2 协议由三个 RFC 组成:一个是 RFC
7540,描述了 HTTP/2
协议本身;一个是 RFC
7541,描述了 HTTP/2
协议中应用的底部压缩技术。本文将透过实际案例指导大家详细地认识 HTTP/2
尾部压缩那门技术。

时下网络环境中,同一个页面发出几十个HTTP请求已经是经常的事体了。在HTTP/1.1中,请求之间完全互相独立,使得请求中冗余的首部字段不要求地浪费了大气的网络带宽,并追加了网络延时。以对某站点的四次页面访问为例,直观地看一下那种景况:

二〇一八年仲夏, IETF 正式发表了 HTTP/2 协议与之配套的 HPACK 尾部压缩算法。
RFC 如下:

何以要削减

在 HTTP/1 中,HTTP 请求和响应都是由「状态行、请求 /
响应尾部、信息主体」三片段构成。一般而言,音讯主体都会因此 gzip
压缩,或者自己传输的就是缩减过后的二进制文件(例如图片、音频),但状态行和底部却从没通过其余压缩,直接以纯文本传输。

乘胜 Web 作用进一步复杂,每个页面爆发的呼吁数也尤其多,依据 HTTP
Archive
的计算,当前平均每个页面都会生出过多少个请求。越来越多的伸手导致消耗在头顶的流量越多,越发是每一次都要传输
UserAgent、库克ie 那类不会一再转移的内容,完全是一种浪费。

以下是本身随手打开的一个页面的抓包结果。能够看来,传输尾部的网络支出超过100kb,比 HTML 还多:

亚洲必赢官网 1

上边是中间一个呼吁的明细。可以看出,为了获得 58
字节的数额,在头顶传输上消费了某些倍的流量:

亚洲必赢官网 2

HTTP/1
时代,为了减小底部消耗的流量,有广大优化方案得以品味,例如合并请求、启用
库克(Cook)ie-Free
域名等等,然而那个方案或多或少会引入一些新的问题,那里不展开琢磨。

为啥要减小

在 HTTP/1 中,HTTP 请求和响应都是由「状态行、请求 /
响应尾部、信息主体」三局地组成。一般而言,新闻主体都会通过 gzip
压缩,或者自身传输的就是裁减过后的二进制文件(例如图片、音频),但气象行和尾部却尚无经过任何压缩,直接以纯文本传输。

乘机 Web 成效进一步复杂,每个页面发生的呼吁数也更为多,按照 HTTP
Archive 的总括,当前平均每个页面都会时有爆发不少个请求。越多的请求导致消耗在头顶的流量越来越多,更加是历次都要传输
UserAgent、库克ie 那类不会一再变动的情节,完全是一种浪费。

以下是自己随手打开的一个页面的抓包结果。可以观望,传输尾部的网络开发超过100kb,比 HTML 还多:

亚洲必赢官网 3

上面是里面一个请求的神工鬼斧。可以见见,为了拿走 58
字节的数量,在头顶传输上花费了好几倍的流量:

亚洲必赢官网 4

HTTP/1
时代,为了减少尾部消耗的流量,有那多少个优化方案得以品味,例如合并请求、启用
库克(Cook)ie-Free
域名等等,不过那些方案或多或少会引入一些新的题材,那里不展开探讨。

亚洲必赢官网 5

  • Hypertext Transfer Protocol Version 2 RFC
    7540
  • HPACK: Header Compression for HTTP/2 RFC
    7541

削减后的功用

头顶压缩技术介绍,底部压缩技术介绍。接下去自己将利用访问本博客的抓包记录以来明 HTTP/2
底部压缩带来的转移。怎样利用 Wireshark 对 HTTPS
网站举行抓包并解密,请看我的那篇小说。

先是直接上图。下图选中的 Stream 是首次访问本站,浏览器发出的伸手头:

亚洲必赢官网 6

从图片中可以见到这一个 HEADERS 流的长度是 206 个字节,而解码后的头顶长度有
451 个字节。可想而知,压缩后的头顶大小减弱了一半多。

只是那就是一切吗?再上一张图。下图选中的 Stream
是点击本站链接后,浏览器发出的央求头:

亚洲必赢官网 7

可以寓目那两遍,HEADERS 流的尺寸只有 49 个字节,然则解码后的头顶长度却有
470 个字节。那三回,压缩后的头顶大小大致只有原来大小的 1/10。

怎么前后三遍差别这么大啊?大家把两遍的尾部音讯举行,查看同一个字段一回传输所占有的字节数:

亚洲必赢官网 8

亚洲必赢官网 9

绝对而言后得以发现,第二次的伸手底部之所以万分小,是因为多数键值对只占用了一个字节。越发是
UserAgent、库克ie
那样的尾部,第一次呼吁中需要占用很多字节,后续请求中都只需求一个字节。

调减后的意义

接下去自己将利用访问本博客的抓包记录以来明 HTTP/2
尾部压缩带来的变通。如何使用 Wireshark 对 HTTPS
网站举行抓包并解密,请看我的那篇作品。本文使用的抓包文件,可以点那边下载。

第一间接上图。下图选中的 Stream 是首次访问本站,浏览器发出的请求头:

亚洲必赢官网 10

从图纸中可以看来那些 HEADERS 流的长度是 206 个字节,而解码后的尾市长度有
451 个字节。总而言之,压缩后的底部大小缩小了大体上多。

但是那就是任何啊?再上一张图。下图选中的 Stream
是点击本站链接后,浏览器发出的呼吁头:

亚洲必赢官网 11

能够看出那三遍,HEADERS 流的尺寸只有 49 个字节,可是解码后的头顶长度却有
470 个字节。这五回,压缩后的尾部大小几乎惟有原来大小的 1/10。

干什么前后五遍差异这么大啊?大家把三回的头顶音信举办,查看同一个字段五次传输所占据的字节数:

亚洲必赢官网 12

亚洲必赢官网 13

对照后方可发现,第二次的请求底部之所以相当小,是因为一大半键值对只占用了一个字节。越发是
UserAgent、库克ie
那样的头部,首次呼吁中须求占用很多字节,后续请求中都只要求一个字节。

Header 1

小编在研讨 HPACK
时,翻阅了有些网上的博客与课程,不甚满足。要么泛泛而谈,要么漏洞百出,要么讲解不够完整。于是,小编研读了
RFC7541 ,希望能写出一篇完备的 HPACK
讲解,给想要学习这些算法的意中人一些帮忙。

技术原理

上边那张截图,取自 谷歌(Google) 的特性专家 Ilya Grigorik 在 Velocity 2015 • SC
会议中享用的「HTTP/2 is here, let’s
optimize!」,分外直观地叙述了
HTTP/2 中底部压缩的法则:

亚洲必赢官网 14

自身再用浅显的语言诠释下,底部压缩需求在支撑 HTTP/2 的浏览器和服务端之间:

  • 保安一份相同的静态字典(Static
    Table),包括常见的头顶名称,以及尤其常见的头顶名称与值的结缘;
  • 保安一份相同的动态字典(Dynamic Table),可以动态地拉长内容;
  • 协理基于静态哈夫曼码表的哈夫曼编码(Huffman Coding);

静态字典的功效有三个:1)对于截然匹配的头顶键值对,例如
:method: GET,可以一向利用一个字符表示;2)对于尾部名称能够包容的键值对,例如
cookie: xxxxxxx,可以将名称使用一个字符表示。HTTP/2
中的静态字典如下(以下只截取了有的,完整表格在这里):

Index Header Name Header Value
1 :authority
2 :method GET
3 :method POST
4 :path /
5 :path /index.html
6 :scheme http
7 :scheme https
8 :status 200
32 cookie
60 via
61 www-authenticate

并且,浏览器可以告知服务端,将 cookie: xxxxxxx
添加到动态字典中,那样持续一切键值对就可以动用一个字符表示了。类似的,服务端也可以创新对方的动态字典。需求注意的是,动态字典上下文有关,需求为每个
HTTP/2 连接维护不相同的字典。

选取字典能够极大地升高压缩效果,其中静态字典在第一次呼吁中就足以应用。对于静态、动态字典中不存在的内容,还足以采纳哈夫曼编码来减小体积。HTTP/2
使用了一份静态哈夫曼码表(详见),也亟需内置在客户端和服务端之中。

那里顺便说一下,HTTP/1 的图景行音信(Method、Path、Status 等),在
HTTP/2
中被拆成键值对放入尾部(冒号开首的那多少个),同样可以分享到字典和哈夫曼压缩。此外,HTTP/2
中具有尾部名称必须小写。

技能原理

上边那张截图,取自 谷歌 的性能专家 Ilya Grigorik 在 Velocity 2015 • SC
会议中分享的「HTTP/2 is here, let’s
optimize!」,相当直观地描述了
HTTP/2 中尾部压缩的规律:

亚洲必赢官网 15

自家再用长远浅出的言语诠释下,尾部压缩须求在支撑 HTTP/2 的浏览器和服务端之间:

  • 护卫一份相同的静态字典(Static
    Table),包涵常见的尾部名称,以及专门常见的尾部名称与值的构成;
  • 护卫一份相同的动态字典(Dynamic Table),可以动态的拉长内容;
  • 支撑基于静态哈夫曼码表的哈夫曼编码(Huffman Coding);

静态字典的效劳有两个:1)对于截然匹配的头顶键值对,例如 :
method :GET
,可以一向运用一个字符表示;2)对于尾部名称可以包容的键值对,例如 cookie :xxxxxxx,能够将名称使用一个字符表示。HTTP/2
中的静态字典如下(以下只截取了有的,完整表格在这里):

Index Header Name Header Value
1 :authority
2 :method GET
3 :method POST
4 :path /
5 :path /index.html
6 :scheme http
7 :scheme https
8 :status 200
32 cookie
60 via
61 www-authenticate

并且,浏览器可以告知服务端,将 cookie :xxxxxxx 添加到动态字典中,那样继续一切键值对就可以使用一个字符表示了。类似的,服务端也得以立异对方的动态字典。须要小心的是,动态字典上下文有关,需求为各样HTTP/2 连接维护不相同的字典。

应用字典能够极大地进步压缩效果,其中静态字典在首次呼吁中就足以选择。对于静态、动态字典中不存在的内容,还足以行使哈夫曼编码来减小体积。HTTP/2
使用了一份静态哈夫曼码表(详见),也亟需内置在客户端和服务端之中。

那边顺便说一下,HTTP/1 的状态行新闻(Method、Path、Status 等),在
HTTP/2
中被拆成键值对放入底部(冒号开首的这几个),同样可以享受到字典和哈夫曼压缩。别的,HTTP/2
中装有尾部名称必须小写。

亚洲必赢官网 16

如有不足或者疑心之处,欢迎我们指出。

贯彻细节

询问了 HTTP/2 尾部压缩的基本原理,最终大家来看一下切实的落成细节。HTTP/2
的头顶键值对有以下这么些处境:

1)整个底部键值对都在字典中

JavaScript

0 1 2 3 4 5 6 7 +—+—+—+—+—+—+—+—+ | 1 | Index (7+) |
+—+—————————+

1
2
3
4
5
  0   1   2   3   4   5   6   7
+—+—+—+—+—+—+—+—+
| 1 |        Index (7+)         |
+—+—————————+
 

这是最简易的意况,使用一个字节就足以代表这几个尾部了,最左一位稳定为
1,之后七位存放键值对在静态或动态字典中的索引。例如下图中,底部索引值为
2(0000010),在静态字典中询问可得 :method: GET

亚洲必赢官网 17

2)底部名称在字典中,更新动态字典

JavaScript

0 1 2 3 4 5 6 7 +—+—+—+—+—+—+—+—+ | 0 | 1 | Index (6+) |
+—+—+———————–+ | H | Value Length (7+) |
+—+—————————+ | Value String (Length octets) |
+——————————-+

1
2
3
4
5
6
7
8
9
  0   1   2   3   4   5   6   7
+—+—+—+—+—+—+—+—+
| 0 | 1 |      Index (6+)       |
+—+—+———————–+
| H |     Value Length (7+)     |
+—+—————————+
| Value String (Length octets)  |
+——————————-+
 

对此那种状态,首先须求采纳一个字节表示尾部名称:左两位稳定为
01,之后六位存放尾部名称在静态或动态字典中的索引。接下来的一个字节第一位H 表示尾部值是或不是使用了哈夫曼编码,剩余七位表示尾部值的尺寸 L,后续 L
个字节就是底部值的具体内容了。例如下图中索引值为
32(100000),在静态字典中询问可得
cookie;底部值使用了哈夫曼编码(1),长度是 28(0011100);接下去的 28
个字节是 cookie 的值,将其进行哈夫曼解码就能获取具体内容。

亚洲必赢官网 18

客户端或服务端看到那种格式的尾部键值对,会将其添加到自己的动态字典中。后续传输那样的情节,就适合第
1 种情景了。

3)底部名称不在字典中,更新动态字典

JavaScript

0 1 2 3 4 5 6 7 +—+—+—+—+—+—+—+—+ | 0 | 1 | 0 |
+—+—+———————–+ | H | Name Length (7+) |
+—+—————————+ | Name String (Length octets) |
+—+—————————+ | H | Value Length (7+) |
+—+—————————+ | Value String (Length octets) |
+——————————-+

1
2
3
4
5
6
7
8
9
10
11
12
13
  0   1   2   3   4   5   6   7
+—+—+—+—+—+—+—+—+
| 0 | 1 |           0           |
+—+—+———————–+
| H |     Name Length (7+)      |
+—+—————————+
|  Name String (Length octets)  |
+—+—————————+
| H |     Value Length (7+)     |
+—+—————————+
| Value String (Length octets)  |
+——————————-+
 

这种情景与第 2
种状态好像,只是出于尾部名称不在字典中,所以率先个字节固定为
01000000;接着表明名称是不是使用哈夫曼编码及长度,并放上名称的具体内容;再申明值是或不是选拔哈夫曼编码及长度,最后放上值的具体内容。例如下图中名称的长度是
5(0000101),值的尺寸是
6(0000110)。对其具体内容举办哈夫曼解码后,可得 pragma: no-cache

亚洲必赢官网 19

客户端或服务端看到那种格式的头顶键值对,会将其添加到自己的动态字典中。后续传输那样的情节,就符合第
1 种意况了。

4)底部名称在字典中,差距意更新动态字典

JavaScript

0 1 2 3 4 5 6 7 +—+—+—+—+—+—+—+—+ | 0 | 0 | 0 | 1 |
Index (4+) | +—+—+———————–+ | H | Value Length (7+) |
+—+—————————+ | Value String (Length octets) |
+——————————-+

1
2
3
4
5
6
7
8
9
  0   1   2   3   4   5   6   7
+—+—+—+—+—+—+—+—+
| 0 | 0 | 0 | 1 |  Index (4+)   |
+—+—+———————–+
| H |     Value Length (7+)     |
+—+—————————+
| Value String (Length octets)  |
+——————————-+
 

那种气象与第 2 种状态相当相近,唯一差别之处是:第二个字节左四位稳定为
0001,只剩余四位来存放索引了,如下图:

亚洲必赢官网 20

这边需求介绍别的一个知识点:对整数的解码。上图中率先个字节为
00011111,并不意味尾部名称的目录为 15(1111)。第三个字节去掉固定的
0001,只剩四位可用,将位数用 N 表示,它不得不用来代表小于「2 ^ N – 1 =
15」的整数 I。对于 I,须求按照以下规则求值(RFC 7541
中的伪代码,via):

JavaScript

if I < 2 ^ N – 1, return I # I 小于 2 ^ N – 1 时,直接回到 else M =
0 repeat B = next octet # 让 B 等于下一个八位 I = I + (B & 127) *
2 ^ M # I = I + (B 低七位 * 2 ^ M) M = M + 7 while B & 128 == 128
# B 最高位 = 1 时后续,否则再次回到 I return I

1
2
3
4
5
6
7
8
9
10
if I &lt; 2 ^ N – 1, return I         # I 小于 2 ^ N – 1 时,直接返回
else
    M = 0
    repeat
        B = next octet             # 让 B 等于下一个八位
        I = I + (B &amp; 127) * 2 ^ M  # I = I + (B 低七位 * 2 ^ M)
        M = M + 7
    while B &amp; 128 == 128           # B 最高位 = 1 时继续,否则返回 I
    return I
 

对于上图中的数据,依照这一个规则算出索引值为 32(00011111 00010001,15 +
17),代表 cookie。必要专注的是,协议中装有写成(N+)的数字,例如
Index (4+)、Name Length (7+),都亟需遵循那一个规则来编码和平解决码。

那种格式的头顶键值对,不容许被添加到动态字典中(但足以拔取哈夫曼编码)。对于一些相当灵敏的头顶,比如用来证实的
库克ie,这么做可以加强安全性。

5)底部名称不在字典中,不容许更新动态字典

JavaScript

0 1 2 3 4 5 6 7 +—+—+—+—+—+—+—+—+ | 0 | 0 | 0 | 1 | 0 |
+—+—+———————–+ | H | Name Length (7+) |
+—+—————————+ | Name String (Length octets) |
+—+—————————+ | H | Value Length (7+) |
+—+—————————+ | Value String (Length octets) |
+——————————-+

1
2
3
4
5
6
7
8
9
10
11
12
13
  0   1   2   3   4   5   6   7
+—+—+—+—+—+—+—+—+
| 0 | 0 | 0 | 1 |       0       |
+—+—+———————–+
| H |     Name Length (7+)      |
+—+—————————+
|  Name String (Length octets)  |
+—+—————————+
| H |     Value Length (7+)     |
+—+—————————+
| Value String (Length octets)  |
+——————————-+
 

那种景况与第 3 种情景卓殊相近,唯一不一样之处是:第二个字节固定为
00010000。那种景况比较少见,没有截图,各位可以脑补。同样,那种格式的头顶键值对,也不允许被添加到动态字典中,只好动用哈夫曼编码来压缩体积。

实在,协议中还确定了与 4、5 极度接近的其余三种格式:将 4、5
格式中的第二个字节第二位由 1 改为 0
即可。它象征「这次不创新动态词典」,而 4、5
表示「相对不相同意更新动态词典」。不相同不是很大,这里略过。

知道了尾部压缩的技术细节,理论上可以很轻松写出 HTTP/2
底部解码工具了。我比较懒,直接找来 node-http2 中的
compressor.js
验证一下:

JavaScript

var Decompressor = require(‘./compressor’).Decompressor; var testLog =
require(‘bunyan’).createLogger({name: ‘test’}); var decompressor = new
Decompressor(testLog, ‘REQUEST’); var buffer = new
Buffer(‘820481634188353daded6ae43d3f877abdd07f66a281b0dae053fad0321aa49d13fda992a49685340c8a6adca7e28102e10fda9677b8d05707f6a62293a9d810020004015309ac2ca7f2c3415c1f53b0497ca589d34d1f43aeba0c41a4c7a98f33a69a3fdf9a68fa1d75d0620d263d4c79a68fbed00177febe58f9fbed00177b518b2d4b70ddf45abefb4005db901f1184ef034eff609cb60725034f48e1561c8469669f081678ae3eb3afba465f7cb234db9f4085aec1cd48ff86a8eb10649cbf’,
‘hex’); console.log(decompressor.decompress(buffer));
decompressor._table.forEach(function(row, index) { console.log(index +
1, row[0], row[1]); });

1
2
3
4
5
6
7
8
9
10
11
12
13
var Decompressor = require(‘./compressor’).Decompressor;
 
var testLog = require(‘bunyan’).createLogger({name: ‘test’});
var decompressor = new Decompressor(testLog, ‘REQUEST’);
 
var buffer = new Buffer(‘820481634188353daded6ae43d3f877abdd07f66a281b0dae053fad0321aa49d13fda992a49685340c8a6adca7e28102e10fda9677b8d05707f6a62293a9d810020004015309ac2ca7f2c3415c1f53b0497ca589d34d1f43aeba0c41a4c7a98f33a69a3fdf9a68fa1d75d0620d263d4c79a68fbed00177febe58f9fbed00177b518b2d4b70ddf45abefb4005db901f1184ef034eff609cb60725034f48e1561c8469669f081678ae3eb3afba465f7cb234db9f4085aec1cd48ff86a8eb10649cbf’, ‘hex’);
 
console.log(decompressor.decompress(buffer));
 
decompressor._table.forEach(function(row, index) {
    console.log(index + 1, row[0], row[1]);
});
 

尾部原始数据来源于于本文第三张截图,运行结果如下(静态字典只截取了一部分):

JavaScript

{ ‘:method’: ‘GET’, ‘:path’: ‘/’, ‘:authority’: ‘imququ.com’, ‘:scheme’:
‘https’, ‘user-agent’: ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11;
rv:41.0) Gecko/20100101 Firefox/41.0’, accept:
‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8’,
‘accept-language’: ‘en-US,en;q=0.5’, ‘accept-encoding’: ‘gzip, deflate’,
cookie: ‘v=47; u=6f048d6e-adc4-4910-8e69-797c399ed456’, pragma:
‘no-cache’ } 1 ‘:authority’ ” 2 ‘:method’ ‘GET’ 3 ‘:method’ ‘POST’ 4
‘:path’ ‘/’ 5 ‘:path’ ‘/index.html’ 6 ‘:scheme’ ‘http’ 7 ‘:scheme’
‘https’ 8 ‘:status’ ‘200’ … … 32 ‘cookie’ ” … … 60 ‘via’ ” 61
‘www-authenticate’ ” 62 ‘pragma’ ‘no-cache’ 63 ‘cookie’
‘u=6f048d6e-adc4-4910-8e69-797c399ed456’ 64 ‘accept-language’
‘en-US,en;q=0.5’ 65 ‘accept’
‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8’ 66
‘user-agent’ ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0)
Gecko/20100101 Firefox/41.0’ 67 ‘:authority’ ‘imququ.com’

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
{ ‘:method’: ‘GET’,
  ‘:path’: ‘/’,
  ‘:authority’: ‘imququ.com’,
  ‘:scheme’: ‘https’,
  ‘user-agent’: ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0) Gecko/20100101 Firefox/41.0’,
  accept: ‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8’,
  ‘accept-language’: ‘en-US,en;q=0.5’,
  ‘accept-encoding’: ‘gzip, deflate’,
  cookie: ‘v=47; u=6f048d6e-adc4-4910-8e69-797c399ed456’,
  pragma: ‘no-cache’ }
1 ‘:authority’ ”
2 ‘:method’ ‘GET’
3 ‘:method’ ‘POST’
4 ‘:path’ ‘/’
5 ‘:path’ ‘/index.html’
6 ‘:scheme’ ‘http’
7 ‘:scheme’ ‘https’
8 ‘:status’ ‘200’
… …
32 ‘cookie’ ”
… …
60 ‘via’ ”
61 ‘www-authenticate’ ”
62 ‘pragma’ ‘no-cache’
63 ‘cookie’ ‘u=6f048d6e-adc4-4910-8e69-797c399ed456’
64 ‘accept-language’ ‘en-US,en;q=0.5’
65 ‘accept’ ‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8’
66 ‘user-agent’ ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0) Gecko/20100101 Firefox/41.0’
67 ‘:authority’ ‘imququ.com’
 

可以寓目,那段从 Wireshark
拷出来的头顶数据足以健康解码,动态字典也获得了更新(62 – 67)。

贯彻细节

驾驭了 HTTP/2 尾部压缩的基本原理,最后我们来看一下实际的已毕细节。HTTP/2
的底部键值对有以下那些境况:

1)整个底部键值对都在字典中

JavaScript

0 1 2 3 4 5 6 7 +—+—+—+—+—+—+—+—+ | 1 | Index (7+) |
+—+—————————+

1
2
3
4
5
  0   1   2   3   4   5   6   7
+—+—+—+—+—+—+—+—+
| 1 |        Index (7+)         |
+—+—————————+
 

那是最简便易行的情况,使用一个字节就可以表示那么些尾部了,最左一位稳定为
1,之后七位存放键值对在静态或动态字典中的索引。例如下图中,底部索引值为
2(0000010),在静态字典中查询可得 :
method :GET

亚洲必赢官网 21

2)底部名称在字典中,更新动态字典

JavaScript

0 1 2 3 4 5 6 7 +—+—+—+—+—+—+—+—+ | 0 | 1 | Index (6+) |
+—+—+———————–+ | H | Value Length (7+) |
+—+—————————+ | Value String (Length octets) |
+——————————-+

1
2
3
4
5
6
7
8
9
  0   1   2   3   4   5   6   7
+—+—+—+—+—+—+—+—+
| 0 | 1 |      Index (6+)       |
+—+—+———————–+
| H |     Value Length (7+)     |
+—+—————————+
| Value String (Length octets)  |
+——————————-+
 

对此那种情况,首先须求选拔一个字节表示尾部名称:左两位稳定为
01,之后六位存放底部名称在静态或动态字典中的索引。接下来的一个字节第三位H 表示尾部值是不是利用了哈夫曼编码,剩余七位表示底部值的长度 L,后续 L
个字节就是底部值的具体内容了。例如下图中索引值为
32(100000),在静态字典中查询可得  cookie ;底部值使用了哈夫曼编码(1),长度是
28(0011100);接下去的 28
个字节是 cookie 的值,将其开展哈夫曼解码就能收获具体内容。

亚洲必赢官网 22

客户端或服务端看到那种格式的头顶键值对,会将其添加到自己的动态字典中。后续传输那样的始末,就符合第
1 种处境了。

3)尾部名称不在字典中,更新动态字典

JavaScript

0 1 2 3 4 5 6 7 +—+—+—+—+—+—+—+—+ | 0 | 1 | 0 |
+—+—+———————–+ | H | Name Length (7+) |
+—+—————————+ | Name String (Length octets) |
+—+—————————+ | H | Value Length (7+) |
+—+—————————+ | Value String (Length octets) |
+——————————-+

1
2
3
4
5
6
7
8
9
10
11
12
13
  0   1   2   3   4   5   6   7
+—+—+—+—+—+—+—+—+
| 0 | 1 |           0           |
+—+—+———————–+
| H |     Name Length (7+)      |
+—+—————————+
|  Name String (Length octets)  |
+—+—————————+
| H |     Value Length (7+)     |
+—+—————————+
| Value String (Length octets)  |
+——————————-+
 

那种情景与第 2
种景况类似,只是出于尾部名称不在字典中,所以率先个字节固定为
01000000;接着注解名称是还是不是选用哈夫曼编码及长度,并放上名称的具体内容;再表明值是不是使用哈夫曼编码及长度,最终放上值的具体内容。例如下图中名称的长度是
5(0000101),值的尺寸是
6(0000110)。对其具体内容进行哈夫曼解码后,可得 pragma: no-cache 。

亚洲必赢官网 23

客户端或服务端看到那种格式的头顶键值对,会将其添加到自己的动态字典中。后续传输那样的内容,就符合第
1 种意况了。

4)底部名称在字典中,不允许更新动态字典

JavaScript

0 1 2 3 4 5 6 7 +—+—+—+—+—+—+—+—+ | 0 | 0 | 0 | 1 |
Index (4+) | +—+—+———————–+ | H | Value Length (7+) |
+—+—————————+ | Value String (Length octets) |
+——————————-+

1
2
3
4
5
6
7
8
9
  0   1   2   3   4   5   6   7
+—+—+—+—+—+—+—+—+
| 0 | 0 | 0 | 1 |  Index (4+)   |
+—+—+———————–+
| H |     Value Length (7+)     |
+—+—————————+
| Value String (Length octets)  |
+——————————-+
 

这种景况与第 2 种情形分外接近,唯一差别之处是:首个字节左四位稳定为
0001,只剩余四位来存放在索引了,如下图:

亚洲必赢官网 24

此间需求介绍别的一个知识点:对整数的解码。上图中首个字节为
00011111,并不意味着尾部名称的目录为 15(1111)。第四个字节去掉固定的
0001,只剩四位可用,将位数用 N 表示,它只能够用来代表小于「2 ^ N – 1 =
15」的平头 I。对于 I,要求依照以下规则求值(RFC 7541
中的伪代码,via):

Python

if I < 2 ^ N – 1, return I # I 小于 2 ^ N – 1 时,间接回到 else M =
0 repeat B = next octet # 让 B 等于下一个八位 I = I + (B & 127) * 2 ^
M # I = I + (B 低七位 * 2 ^ M) M = M + 7 while B & 128 == 128 # B
最高位 = 1 时接二连三,否则重临 I return I

1
2
3
4
5
6
7
8
9
if I < 2 ^ N – 1, return I         # I 小于 2 ^ N – 1 时,直接返回
else
    M = 0
    repeat
        B = next octet             # 让 B 等于下一个八位
        I = I + (B & 127) * 2 ^ M  # I = I + (B 低七位 * 2 ^ M)
        M = M + 7
    while B & 128 == 128           # B 最高位 = 1 时继续,否则返回 I
    return I

对此上图中的数据,根据这几个规则算出索引值为 32(00011111 00010001,15 +
17),代表  cookie 。须要小心的是,协议中享有写成(N+)的数字,例如
Index (4+)、Name Length (7+),都须求根据那个规则来编码和平解决码。

那种格式的头顶键值对,不容许被添加到动态字典中(但足以运用哈夫曼编码)。对于一些可怜乖巧的底部,比如用来证实的
Cookie,这么做可以加强安全性。

5)尾部名称不在字典中,差别意更新动态字典

JavaScript

0 1 2 3 4 5 6 7 +—+—+—+—+—+—+—+—+ | 0 | 0 | 0 | 1 | 0 |
+—+—+———————–+ | H | Name Length (7+) |
+—+—————————+ | Name String (Length octets) |
+—+—————————+ | H | Value Length (7+) |
+—+—————————+ | Value String (Length octets) |
+——————————-+

1
2
3
4
5
6
7
8
9
10
11
12
13
  0   1   2   3   4   5   6   7
+—+—+—+—+—+—+—+—+
| 0 | 0 | 0 | 1 |       0       |
+—+—+———————–+
| H |     Name Length (7+)      |
+—+—————————+
|  Name String (Length octets)  |
+—+—————————+
| H |     Value Length (7+)     |
+—+—————————+
| Value String (Length octets)  |
+——————————-+
 

那种气象与第 3 种情状极度接近,唯一不一样之处是:第四个字节固定为
00010000。那种意况比较少见,没有截图,各位可以脑补。同样,那种格式的头顶键值对,也差异意被添加到动态字典中,只可以接纳哈夫曼编码来减弱体积。

实则,协议中还规定了与 4、5 很是相近的其余二种格式:将 4、5
格式中的第三个字节第一位由 1 改为 0
即可。它象征「本次不创新动态词典」,而 4、5
表示「相对不容许更新动态词典」。分化不是很大,那里略过。

清楚了底部压缩的技术细节,理论上得以很自在写出 HTTP/2
底部解码工具了。我比较懒,直接找来 node-http2
中的 compressor.js 验证一下:

JavaScript

var Decompressor = require(‘./compressor’).Decompressor; var testLog =
require(‘bunyan’).createLogger({name: ‘test’}); var decompressor = new
Decompressor(testLog, ‘REQUEST’); var buffer = new
Buffer(‘820481634188353daded6ae43d3f877abdd07f66a281b0dae053fad0321aa49d13fda992a49685340c8a6adca7e28102e10fda9677b8d05707f6a62293a9d810020004015309ac2ca7f2c3415c1f53b0497ca589d34d1f43aeba0c41a4c7a98f33a69a3fdf9a68fa1d75d0620d263d4c79a68fbed00177febe58f9fbed00177b518b2d4b70ddf45abefb4005db901f1184ef034eff609cb60725034f48e1561c8469669f081678ae3eb3afba465f7cb234db9f4085aec1cd48ff86a8eb10649cbf’,
‘hex’); console.log(decompressor.decompress(buffer));
decompressor._table.forEach(function(row, index) { console.log(index +
1, row[0], row[1]); });

1
2
3
4
5
6
7
8
9
10
11
12
var Decompressor = require(‘./compressor’).Decompressor;
 
var testLog = require(‘bunyan’).createLogger({name: ‘test’});
var decompressor = new Decompressor(testLog, ‘REQUEST’);
 
var buffer = new Buffer(‘820481634188353daded6ae43d3f877abdd07f66a281b0dae053fad0321aa49d13fda992a49685340c8a6adca7e28102e10fda9677b8d05707f6a62293a9d810020004015309ac2ca7f2c3415c1f53b0497ca589d34d1f43aeba0c41a4c7a98f33a69a3fdf9a68fa1d75d0620d263d4c79a68fbed00177febe58f9fbed00177b518b2d4b70ddf45abefb4005db901f1184ef034eff609cb60725034f48e1561c8469669f081678ae3eb3afba465f7cb234db9f4085aec1cd48ff86a8eb10649cbf’, ‘hex’);
 
console.log(decompressor.decompress(buffer));
 
decompressor._table.forEach(function(row, index) {
    console.log(index + 1, row[0], row[1]);
});

头顶原始数据来源于于本文第三张截图,运行结果如下(静态字典只截取了一有的):

{ ‘:method’: ‘GET’, ‘:path’: ‘/’, ‘:authority’: ‘imququ.com’, ‘:scheme’:
‘https’, ‘user-agent’: ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11;
rv:41.0) Gecko/20100101 Firefox/41.0’, accept:
‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8’,
‘accept-language’: ‘en-US,en;q=0.5’, ‘accept-encoding’: ‘gzip, deflate’,
cookie: ‘v=47; u=6f048d6e-adc4-4910-8e69-797c399ed456’, pragma:
‘no-cache’ } 1 ‘:authority’ ” 2 ‘:method’ ‘GET’ 3 ‘:method’ ‘POST’ 4
‘:path’ ‘/’ 5 ‘:path’ ‘/index.html’ 6 ‘:scheme’ ‘http’ 7 ‘:scheme’
‘https’ 8 ‘:status’ ‘200’ … … 32 ‘cookie’ ” … … 60 ‘via’ ” 61
‘www-authenticate’ ” 62 ‘pragma’ ‘no-cache’ 63 ‘cookie’
‘u=6f048d6e-adc4-4910-8e69-797c399ed456’ 64 ‘accept-language’
‘en-US,en;q=0.5’ 65 ‘accept’
‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8’ 66
‘user-agent’ ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0)
Gecko/20100101 Firefox/41.0’ 67 ‘:authority’ ‘imququ.com’

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
{ ‘:method’: ‘GET’,
  ‘:path’: ‘/’,
  ‘:authority’: ‘imququ.com’,
  ‘:scheme’: ‘https’,
  ‘user-agent’: ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0) Gecko/20100101 Firefox/41.0’,
  accept: ‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8’,
  ‘accept-language’: ‘en-US,en;q=0.5’,
  ‘accept-encoding’: ‘gzip, deflate’,
  cookie: ‘v=47; u=6f048d6e-adc4-4910-8e69-797c399ed456’,
  pragma: ‘no-cache’ }
1 ‘:authority’ ”
2 ‘:method’ ‘GET’
3 ‘:method’ ‘POST’
4 ‘:path’ ‘/’
5 ‘:path’ ‘/index.html’
6 ‘:scheme’ ‘http’
7 ‘:scheme’ ‘https’
8 ‘:status’ ‘200’
… …
32 ‘cookie’ ”
… …
60 ‘via’ ”
61 ‘www-authenticate’ ”
62 ‘pragma’ ‘no-cache’
63 ‘cookie’ ‘u=6f048d6e-adc4-4910-8e69-797c399ed456’
64 ‘accept-language’ ‘en-US,en;q=0.5’
65 ‘accept’ ‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8’
66 ‘user-agent’ ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0) Gecko/20100101 Firefox/41.0’
67 ‘:authority’ ‘imququ.com’

能够看看,那段从 Wireshark
拷出来的尾部数据可以正常解码,动态字典也获得了立异(62 – 67)。

Header 2

HPACK的由来

HTTP1.X
出于其设计的败笔,被大家诟病已久,其中胃痛的题材之一,就是虚幻的双重的尾部。

于是出现了各个种种的缓解方案, 如 谷歌 直接在 HTTP1.X 的基础上规划了
SPDY 协议, 对尾部使用 deflate
算法举办削减,一并解决了多路复用和优先级等题材。

而 HTTP/2 的兑现就是参照了 SPDY 协议,
但是专门为底部压缩设计了一套压缩算法,就是大家的 HPACK 。

总结

在进行 HTTP/2
网站性能优化时很要紧一点是「使用尽可能少的连接数」,本文提到的头顶压缩是其中一个很重大的原由:同一个总是上发生的伸手和响应更加多,动态字典积累得越全,尾部压缩效果也就越好。所以,针对
HTTP/2 网站,最佳实践是毫无合并资源,不要散列域名。

默许情形下,浏览器会针对那一个景况选择同一个老是:

  • 同一域名下的资源;
  • 分歧域名下的资源,不过满足八个原则:1)解析到同一个
    IP;2)使用同一个证件;

地点第一点不难了然,第二点则很简单被忽视。实际上 Google已经这么做了,谷歌 一比比皆是网站都共用了同一个证件,可以如此表达:

JavaScript

$ openssl s_client -connect google.com:443 |openssl x509 -noout -text |
grep DNS depth=2 C = US, O = GeoTrust Inc., CN = GeoTrust Global CA
verify error:num=20:unable to get local issuer certificate verify
return:0 DNS:*.google.com, DNS:*.android.com,
DNS:*.appengine.google.com, DNS:*.cloud.google.com,
DNS:*.google-analytics.com, DNS:*.google.ca, DNS:*.google.cl,
DNS:*.google.co.in, DNS:*.google.co.jp, DNS:*.google.co.uk,
DNS:*.google.com.ar, DNS:*.google.com.au, DNS:*.google.com.br,
DNS:*.google.com.co, DNS:*.google.com.mx, DNS:*.google.com.tr,
DNS:*.google.com.vn, DNS:*.google.de, DNS:*.google.es,
DNS:*.google.fr, DNS:*.google.hu, DNS:*.google.it, DNS:*.google.nl,
DNS:*.google.pl, DNS:*.google.pt, DNS:*.googleadapis.com,
DNS:*.googleapis.cn, DNS:*.googlecommerce.com, DNS:*.googlevideo.com,
DNS:*.gstatic.cn, DNS:*.gstatic.com, DNS:*.gvt1.com, DNS:*.gvt2.com,
DNS:*.metric.gstatic.com, DNS:*.urchin.com, DNS:*.url.google.com,
DNS:*.youtube-nocookie.com, DNS:*.youtube.com,
DNS:*.youtubeeducation.com, DNS:*.ytimg.com, DNS:android.com,
DNS:g.co, DNS:goo.gl, DNS:google-analytics.com, DNS:google.com,
DNS:googlecommerce.com, DNS:urchin.com, DNS:youtu.be, DNS:youtube.com,
DNS:youtubeeducation.com

1
2
3
4
5
6
7
$ openssl s_client -connect google.com:443 |openssl x509 -noout -text | grep DNS
 
depth=2 C = US, O = GeoTrust Inc., CN = GeoTrust Global CA
verify error:num=20:unable to get local issuer certificate
verify return:0
                DNS:*.google.com, DNS:*.android.com, DNS:*.appengine.google.com, DNS:*.cloud.google.com, DNS:*.google-analytics.com, DNS:*.google.ca, DNS:*.google.cl, DNS:*.google.co.in, DNS:*.google.co.jp, DNS:*.google.co.uk, DNS:*.google.com.ar, DNS:*.google.com.au, DNS:*.google.com.br, DNS:*.google.com.co, DNS:*.google.com.mx, DNS:*.google.com.tr, DNS:*.google.com.vn, DNS:*.google.de, DNS:*.google.es, DNS:*.google.fr, DNS:*.google.hu, DNS:*.google.it, DNS:*.google.nl, DNS:*.google.pl, DNS:*.google.pt, DNS:*.googleadapis.com, DNS:*.googleapis.cn, DNS:*.googlecommerce.com, DNS:*.googlevideo.com, DNS:*.gstatic.cn, DNS:*.gstatic.com, DNS:*.gvt1.com, DNS:*.gvt2.com, DNS:*.metric.gstatic.com, DNS:*.urchin.com, DNS:*.url.google.com, DNS:*.youtube-nocookie.com, DNS:*.youtube.com, DNS:*.youtubeeducation.com, DNS:*.ytimg.com, DNS:android.com, DNS:g.co, DNS:goo.gl, DNS:google-analytics.com, DNS:google.com, DNS:googlecommerce.com, DNS:urchin.com, DNS:youtu.be, DNS:youtube.com, DNS:youtubeeducation.com
 

行使多域名加上同样的 IP 和证件安插 Web 服务有异样的意义:让匡助 HTTP/2
的巅峰只建立一个一而再,用上 HTTP/2 协议带来的种种利益;而只帮助 HTTP/1.1
的顶峰则会树立多少个延续,达到同时越来越多并发请求的目的。那在 HTTP/2
完全普及前也是一个不错的取舍。

正文就写到那里,希望能给对 HTTP/2
感兴趣的同校带来支持,也欢迎大家持续关切本博客的「HTTP/2
专题」。

打赏辅助自己写出越多好小说,谢谢!

打赏小编

总结

在开展 HTTP/2
网站性能优化时很重点一点是「使用尽可能少的连接数」,本文提到的底部压缩是其中一个很主要的来由:同一个三番五次上发生的央求和响应越多,动态字典积累得越全,头部压缩效果也就越好。所以,针对
HTTP/2 网站,最佳实践是绝不合并资源,不要散列域名。

默许处境下,浏览器会针对那些意况采取同一个一而再:

  • 同一域名下的资源;
  • 不一致域名下的资源,但是满意多少个规范:1)解析到同一个
    IP;2)使用同一个讲明;

下面第一点不难精晓,第二点则很不难被忽略。实际上 Google已经那样做了,谷歌(Google) 一多样网站都共用了同一个评释,能够这么表明:

$ openssl s_client -connect google.com:443 |openssl x509 -noout -text |
grep DNS depth=2 C = US, O = GeoTrust Inc., CN = GeoTrust Global CA
verify error:num=20:unable to get local issuer certificate verify
return:0 DNS:*.google.com, DNS:*亚洲必赢官网,.android.com,
DNS:*.appengine.google.com, DNS:*.cloud.google.com,
DNS:*.google-analytics.com, DNS:*.google.ca, DNS:*.google.cl,
DNS:*.google.co.in, DNS:*.google.co.jp, DNS:*.google.co.uk,
DNS:*.google.com.ar, DNS:*.google.com.au, DNS:*.google.com.br,
DNS:*.google.com.co, DNS:*.google.com.mx, DNS:*.google.com.tr,
DNS:*.google.com.vn, DNS:*.google.de, DNS:*.google.es,
DNS:*.google.fr, DNS:*.google.hu, DNS:*.google.it, DNS:*.google.nl,
DNS:*.google.pl, DNS:*.google.pt, DNS:*.googleadapis.com,
DNS:*.googleapis.cn, DNS:*.googlecommerce.com, DNS:*.googlevideo.com,
DNS:*.gstatic.cn, DNS:*.gstatic.com, DNS:*.gvt1.com, DNS:*.gvt2.com,
DNS:*.metric.gstatic.com, DNS:*.urchin.com, DNS:*.url.google.com,
DNS:*.youtube-nocookie.com, DNS:*.youtube.com,
DNS:*.youtubeeducation.com, DNS:*.ytimg.com, DNS:android.com,
DNS:g.co, DNS:goo.gl, DNS:google-analytics.com, DNS:google.com,
DNS:googlecommerce.com, DNS:urchin.com, DNS:youtu.be, DNS:youtube.com,
DNS:youtubeeducation.com

1
2
3
4
5
6
$ openssl s_client -connect google.com:443 |openssl x509 -noout -text | grep DNS
 
depth=2 C = US, O = GeoTrust Inc., CN = GeoTrust Global CA
verify error:num=20:unable to get local issuer certificate
verify return:0
                DNS:*.google.com, DNS:*.android.com, DNS:*.appengine.google.com, DNS:*.cloud.google.com, DNS:*.google-analytics.com, DNS:*.google.ca, DNS:*.google.cl, DNS:*.google.co.in, DNS:*.google.co.jp, DNS:*.google.co.uk, DNS:*.google.com.ar, DNS:*.google.com.au, DNS:*.google.com.br, DNS:*.google.com.co, DNS:*.google.com.mx, DNS:*.google.com.tr, DNS:*.google.com.vn, DNS:*.google.de, DNS:*.google.es, DNS:*.google.fr, DNS:*.google.hu, DNS:*.google.it, DNS:*.google.nl, DNS:*.google.pl, DNS:*.google.pt, DNS:*.googleadapis.com, DNS:*.googleapis.cn, DNS:*.googlecommerce.com, DNS:*.googlevideo.com, DNS:*.gstatic.cn, DNS:*.gstatic.com, DNS:*.gvt1.com, DNS:*.gvt2.com, DNS:*.metric.gstatic.com, DNS:*.urchin.com, DNS:*.url.google.com, DNS:*.youtube-nocookie.com, DNS:*.youtube.com, DNS:*.youtubeeducation.com, DNS:*.ytimg.com, DNS:android.com, DNS:g.co, DNS:goo.gl, DNS:google-analytics.com, DNS:google.com, DNS:googlecommerce.com, DNS:urchin.com, DNS:youtu.be, DNS:youtube.com, DNS:youtubeeducation.com

行使多域名加上同样的 IP 和证件安排 Web 服务有新鲜的意义:让援助 HTTP/2
的巅峰只建立一个连连,用上 HTTP/2 协议带来的各样利益;而只支持 HTTP/1.1
的极限则会树立七个一连,达到同时越多并发请求的目标。那在 HTTP/2
完全普及前也是一个不错的挑选。

1 赞 收藏
评论

亚洲必赢官网 25

如上图,同一个页面中对八个资源的呼吁,请求中的底部字段绝大多数是完全相同的。”User-Agent”
等尾部字段平时还会消耗大量的带宽。

HPACK的实现

打赏帮衬我写出越多好小说,谢谢!

任选一种支付办法

亚洲必赢官网 26
亚洲必赢官网 27

1 赞 3 收藏
评论

首部减弱正是为了化解那样的题目而规划。

基本原理

概括的说,HPACK
使用2个索引表(静态索引表和动态索引表)来把尾部映射到索引值,并对不存在的头顶使用
huffman 编码,并动态缓存到目录,从而达到减弱底部的效用。

关于作者:JerryQu

亚洲必赢官网 28

专注 Web 开发,关心 Web
性能优化与广元。
个人主页 ·
我的篇章 ·
2 ·
  

亚洲必赢官网 29

首部裁减是HTTP/2中一个老大关键的风味,它大大收缩了网络中HTTP请求/响应尾部传输所需的带宽。HTTP/2的首部压缩,主要从三个地方落实,一是首部表示,二是伸手间首部字段内容的复用。

贯彻细节

HPACK 中有2个索引表,分别是静态索引表和动态索引表。

首部代表

在HTTP中,首部字段是一个名值队,所有的首部字段组成首部字段列表。在HTTP/1.x中,首部字段都被代表为字符串,一行一行的首部字段字符串组成首部字段列表。而在HTTP/2的首部压缩HPACK算法中,则装有差别的象征方法。

HPACK算法表示的靶子,首要有原始数据类型的整型值和字符串,底部字段,以及底部字段列表。

静态索引表

是预先定义在 RFC 里的固定的头顶,那里体现部分:

Index Header Name
1 :authority
2 :method
3 :method
4 :path
5 :path
6 :scheme
7 :scheme
8 :status
9 :status
10 :status
11 :status
12 :status
13 :status
14 :status
15 accept-charset
16 accept-encoding

也就是说当要发送的值符合静态表时,用相应的 Index
替换即可,那样就大大压缩了底部的轻重缓急。

本来,这些表是预先定义好的,唯有一定的几十个值,倘使赶上不在静态表中的值,就会用到大家的动态表。

平头的代表

在HPACK中,整数用于表示 尾部字段的名字的目录头顶字段索引

字符串长度。整数的象征可在字节内的其余地点上马。但为了处理上的优化,整数的意味总是在字节的结尾处停止。

平头由两局地代表:填满当前字节的前缀,以及在前缀不足以表示整数时的一个可选字节列表。要是整数值足够小,比如,小于2^N-1,那么把它编码进前缀即可,而不必要额外的上空。如:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| ? | ? | ? |       Value       |
+---+---+---+-------------------+

在那么些图中,前缀有5位,而要表示的数丰盛小,由此无需越来越多空间就足以代表整数了。

现阶段缀不足以表示整数时,前缀的具备位被置为1,再将值减去2^N-1之后用一个或五个字节编码。每个字节的最高有效位被看做三番五次标记:除列表的终极一个字节外,该位的值都被设为1。字节中多余的位被用于编码减小后的值。

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| ? | ? | ? | 1   1   1   1   1 |
+---+---+---+-------------------+
| 1 |    Value-(2^N-1) LSB      |
+---+---------------------------+
               ...
+---+---------------------------+
| 0 |    Value-(2^N-1) MSB      |
+---+---------------------------+

要由字节列表解码出整数值,首先必要将列表中的字节顺序反过来。然后,移除每个字节的参天有效位。连接字节的剩下位,再将结果加2^N-1得到整数值。

前缀大小N,总是在1到8里头。从字节边界处早先编码的整数值其前缀为8位。

这种整数表示法允许编码无限大的值。

表示整数I的伪代码如下:

if I < 2^N - 1, encode I on N bits
else
    encode (2^N - 1) on N bits
    I = I - (2^N - 1)
    while I >= 128
         encode (I % 128 + 128) on 8 bits
         I = I / 128
    encode I on 8 bits

encode (I % 128 + 128) on 8 bits
一行中,加上128的意味是,最高有效位是1。如果要编码的整数值等于 (2^N –
1),则用前缀和紧跟在前缀背后的值位0的一个字节来代表。

OkHttp中,这些算法的完结在 okhttp3.internal.http2.Hpack.Writer
中:

    // http://tools.ietf.org/html/draft-ietf-httpbis-header-compression-12#section-4.1.1
    void writeInt(int value, int prefixMask, int bits) {
      // Write the raw value for a single byte value.
      if (value < prefixMask) {
        out.writeByte(bits | value);
        return;
      }

      // Write the mask to start a multibyte value.
      out.writeByte(bits | prefixMask);
      value -= prefixMask;

      // Write 7 bits at a time 'til we're done.
      while (value >= 0x80) {
        int b = value & 0x7f;
        out.writeByte(b | 0x80);
        value >>>= 7;
      }
      out.writeByte(value);
    }

那边给最高有效地方 1 的措施就不是添加128,而是与0x80履行或操作。

解码整数I的伪代码如下:

decode I from the next N bits
if I < 2^N - 1, return I
else
    M = 0
    repeat
        B = next octet
        I = I + (B & 127) * 2^M
        M = M + 7
    while B & 128 == 128
    return I

decode I from the next N bits 这一行等价于一个赋值语句 ****I =
byteValue & (2^N – 1)***

OkHttp中,那一个算法的贯彻在 okhttp3.internal.http2.Hpack.Reader

    int readInt(int firstByte, int prefixMask) throws IOException {
      int prefix = firstByte & prefixMask;
      if (prefix < prefixMask) {
        return prefix; // This was a single byte value.
      }

      // This is a multibyte value. Read 7 bits at a time.
      int result = prefixMask;
      int shift = 0;
      while (true) {
        int b = readByte();
        if ((b & 0x80) != 0) { // Equivalent to (b >= 128) since b is in [0..255].
          result += (b & 0x7f) << shift;
          shift += 7;
        } else {
          result += b << shift; // Last byte.
          break;
        }
      }
      return result;
    }

即使HPACK的平头表示方法可以表示万分大的数,但实际的落到实处中并不会将整数当做无限大的整数来拍卖。

动态索引表

动态表是一个由先进先出的队列维护的有空中限制的表,里面同样维护的是尾部与相应的目录。

每个动态表只针对一个总是,每个连接的压缩解压缩的光景文有且仅有一个动态表。

何以是连连,抽象的乃是HTTP看重的笃定的传输层的连日,一般的话指的是一个TCP连接。
HTTP/2
中引入了多路复用的概念,对于同一个域名的四个请求,会复用同一个再而三。

这就是说动态表就是,当一个头顶没有出现过的时候,会把他插入动态表中,下次同名的值就可能会在表中查到到目录并替换掉尾部。为何我就是可能啊,因为动态表是有最大空间范围的。

动态表的轻重缓急 = (每个 Header 的字节数的和+32) * 键值对个数

怎么要加32啊,32是为了头所占有的额外空间和统计头被引述次数而估量的值。

而动态表的最大字节数由 HTTP/2 的 SETTING 帧中的
SETTINGS_HEADER_TABLE_SIZE 来控制。

同时削减时,可以插入一个字节来动态的修改动态表的高低,可是不可以超过下面预设的值。那些上面会介绍。

那么动态表是何等保管大小呢,2种状态下,动态表会被涂改:

  1. 减去方用上述办法必要动态修改动态表的轻重缓急。在那种景观下,尽管新的值更小,并且当前高低当先了新值,就会从旧至新,不断的删除头,直到小于等于新的深浅。
  2. 收受或暴发一个新的底部,会接触插入和可能的删除操作。 RFC
    里面说的相比较复杂,我用等价的语义解释一下。新的值被插到队首,一样从旧到新删除直到空间占据小于等于最大值。那么在那种气象下,如若新来的头比最大值还要大,就约等于变相的排除了动态表。

动态索引表中最的值是索引值最的,最的值是索引值最的。
动态表与静态表共同构成了索引表的目录空间。

字符串字面量的编码

头顶字段名和底部字段值可接纳字符串字面量表示。字符串字面量有三种表示方法,一种是一贯用UTF-8那样的字符串编码方式表示,另一种是将字符串编码用Huffman
码表示。 字符串代表的格式如下:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| H |    String Length (7+)     |
+---+---------------------------+
|  String Data (Length octets)  |
+-------------------------------+

首先标记位 H + 字符串长度,然后是字符串的骨子里多少。各部分表明如下:

  • H: 一位的号子,提醒字符串的字节是还是不是为Huffman编码。
  • 字符串长度:
    编码字符串字面量的字节数,一个整数,编码格局可以参照前边
    平头的表示 的局地,一个7位前缀的平头编码。
  • 字符串数据:
    字符串的骨子里多少。即使H是’0’,则数据是字符串字面量的原始字节。固然H是’1’,则数据是字符串字面量的Huffman编码。

在OkHttp3中,总是会采纳间接的字符串编码,而不是Huffman编码,
okhttp3.internal.http2.Hpack.Writer 中编码字符串的长河如下:

    void writeByteString(ByteString data) throws IOException {
      writeInt(data.size(), PREFIX_7_BITS, 0);
      out.write(data);
    }

OkHttp中,解码字符串在 okhttp3.internal.http2.Hpack.Reader
中实现:

    /** Reads a potentially Huffman encoded byte string. */
    ByteString readByteString() throws IOException {
      int firstByte = readByte();
      boolean huffmanDecode = (firstByte & 0x80) == 0x80; // 1NNNNNNN
      int length = readInt(firstByte, PREFIX_7_BITS);

      if (huffmanDecode) {
        return ByteString.of(Huffman.get().decode(source.readByteArray(length)));
      } else {
        return source.readByteString(length);
      }
    }

字符串编码没有行使Huffman编码时,解码进度比较简单,而采取了Huffman编码时会借助于Huffman类来解码。

Huffman编码是一种变长字节编码,对于使用频率高的字节,使用更少的位数,对于利用功能低的字节则动用越多的位数。每个字节的Huffman码是根据计算经验值分配的。为每个字节分配Huffman码的章程可以参考
哈夫曼(huffman)树和哈夫曼编码

目录空间

目录空间就是动态表和静态表组成的底部与索引的炫耀关系。那个看起来很深邃,实际上很简短。

静态表的高低现在是原则性的 61,
由此静态表就是从1到61的目录,然后动态表从新到旧,依次从62始发递增。那样就一头的三结合了一个索引空间,且互不争论。

即使未来静态表增加了,依次未来推即可。

哈夫曼树的布局

Huffman
类被设计为一个单例类。对象在开创时社团一个哈夫曼树以用于编码和解码操作。

  private static final Huffman INSTANCE = new Huffman();

  public static Huffman get() {
    return INSTANCE;
  }

  private final Node root = new Node();

  private Huffman() {
    buildTree();
  }
......

  private void buildTree() {
    for (int i = 0; i < CODE_LENGTHS.length; i++) {
      addCode(i, CODES[i], CODE_LENGTHS[i]);
    }
  }

  private void addCode(int sym, int code, byte len) {
    Node terminal = new Node(sym, len);

    Node current = root;
    while (len > 8) {
      len -= 8;
      int i = ((code >>> len) & 0xFF);
      if (current.children == null) {
        throw new IllegalStateException("invalid dictionary: prefix not unique");
      }
      if (current.children[i] == null) {
        current.children[i] = new Node();
      }
      current = current.children[i];
    }

    int shift = 8 - len;
    int start = (code << shift) & 0xFF;
    int end = 1 << shift;
    for (int i = start; i < start + end; i++) {
      current.children[i] = terminal;
    }
  }
......

  private static final class Node {

    // Null if terminal.
    private final Node[] children;

    // Terminal nodes have a symbol.
    private final int symbol;

    // Number of bits represented in the terminal node.
    private final int terminalBits;

    /** Construct an internal node. */
    Node() {
      this.children = new Node[256];
      this.symbol = 0; // Not read.
      this.terminalBits = 0; // Not read.
    }

    /**
     * Construct a terminal node.
     *
     * @param symbol symbol the node represents
     * @param bits length of Huffman code in bits
     */
    Node(int symbol, int bits) {
      this.children = null;
      this.symbol = symbol;
      int b = bits & 0x07;
      this.terminalBits = b == 0 ? 8 : b;
    }
  }

OkHttp3中的 哈夫曼树
并不是一个二叉树,它的种种节点最多都得以有256个字节点。OkHttp3用这种方法来优化Huffman编码解码的频率。用一个图来代表,将是底下那个样子的:

亚洲必赢官网 30

Huffman Tree

编码解码

Huffman 编码

  void encode(byte[] data, OutputStream out) throws IOException {
    long current = 0;
    int n = 0;

    for (int i = 0; i < data.length; i++) {
      int b = data[i] & 0xFF;
      int code = CODES[b];
      int nbits = CODE_LENGTHS[b];

      current <<= nbits;
      current |= code;
      n += nbits;

      while (n >= 8) {
        n -= 8;
        out.write(((int) (current >> n)));
      }
    }

    if (n > 0) {
      current <<= (8 - n);
      current |= (0xFF >>> n);
      out.write((int) current);
    }
  }

逐个字节地编码数据。编码的最终一个字节没有字节对齐时,会在低位填充1。

无符号整数编码

在 HPACK 中,平时会用一个或者几个字节表示无符号整数。在 HPACK
中一个无符号整数,并不三番五次在一个字节的发端,可是接连在一个字节的终极甘休。
这么说有些言之无物,什么叫不是一个字节的开端。如下所示:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| ? | ? | ? |       Value       |
+---+---+---+-------------------+

0-2 bit可能会用来其余的标识, 那么表明数值只占了5个 bit ,
因而只能够表示2^5-1,由此当必要抒发的数值低于32时,一个字节丰盛表明了,即使超过了2^n-1日后,剩下的字节是哪些编码的吧:

    0     1   2   3   4   5   6   7
+-------+---+---+---+---+---+---+---
| (0/1) | ? | ? | ? | ? | ? | ? | ? |
+-------+---+---+---------------+---

先是个字节的 n 个 bit 全体置1,然后假若那些数为 i,
那么remain = i - (2^n - 1);接下来用多余的字节表示这些 remain 值,然后首
bit 标识是或不是是最终一个字节,1表示不是,0象征是。

去掉首字节,就接近于用7个 bit 的字节的小端法表示无符号整数 remain 。

一个整数0x12345678用标准的 byte 数组 buffer 用小端法表示就是:

buffer[0] = 0x78; 
buffer[1] = 0x56; 
buffer[3] = 0x34;
buffer[3] = 0x12;

那么我们完全的字节表示无符号数 i 的伪代码如下:

if I < 2^N - 1, encode I on N bits
else
    encode (2^N - 1) on N bits
    I = I - (2^N - 1)
    while I >= 0x7f
         encode (I & 0x7f | 1 << 7) on 8 bits
         I = I >> 7
    encode I on 8 bits

同等,解码的伪代码如下:

decode I from the next N bits
if I < 2^N - 1, return I
else
    M = 0
    repeat
        B = next octet
        I = I + (B & 0x7f) * (1 << M)
        M = M + 7
    while (B >> 7) & 1 
    return I

那么举例假设我们用 3 个 bit 作为前缀编码,

5 = ?????101
(101b = 5)
8 = ?????111 00000001
(111b + 1 = 8)
135 = 7 + 128 = ?????111 10000000 00000001
(111b + 0 + 128 * 1 = 135)

Huffman 解码

  byte[] decode(byte[] buf) {
    ByteArrayOutputStream baos = new ByteArrayOutputStream();
    Node node = root;
    int current = 0;
    int nbits = 0;
    for (int i = 0; i < buf.length; i++) {
      int b = buf[i] & 0xFF;
      current = (current << 8) | b;
      nbits += 8;
      while (nbits >= 8) {
        int c = (current >>> (nbits - 8)) & 0xFF;
        node = node.children[c];
        if (node.children == null) {
          // terminal node
          baos.write(node.symbol);
          nbits -= node.terminalBits;
          node = root;
        } else {
          // non-terminal node
          nbits -= 8;
        }
      }
    }

    while (nbits > 0) {
      int c = (current << (8 - nbits)) & 0xFF;
      node = node.children[c];
      if (node.children != null || node.terminalBits > nbits) {
        break;
      }
      baos.write(node.symbol);
      nbits -= node.terminalBits;
      node = root;
    }

    return baos.toByteArray();
  }

匹配Huffman树的布局进程,分两种情形来看。Huffman码自己对齐时;Huffman码没有字节对齐,最后一个字节的最低有效位包括了数据流中下一个Huffman码的万丈有效位;Huffman码没有字节对齐,最后一个字节的最低有效位包含了填充的1。

有趣味的可以参见其余文档对Huffman编码算法做更多精晓。

字面字符串编码

有了无符号整数编码的底子,我们得以对字符串举行编码,如下所示:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| H |    String Length (7+)     |
+---+---------------------------+
|  String Data (Length octets)  |
+-------------------------------+

H : 表示是还是不是是 huffman 编码,1 是 0 不是
StringLength : 表示随后跟随的字符串的长短,用上述的平头编码格局编码
StringData: 倘若是 huffman 编码,则采纳 huffman
编码后的字符串,否则就是原始串。

首部字段及首部块的表示

首部字段首要有两种表示方法,分别是索引代表和字面量表示。字面量表示又分为首部字段的名字用索引表示值用字面量表示和名字及值都用字面量表示等艺术。

说到用索引表示首部字段,就非得提一下HPACK的动态表和静态表。

HPACK使用四个表将 尾部字段 与 索引 关联起来。 静态表
是预订义的,它富含了大规模的头顶字段(其中的半数以上值为空)。 动态表
是动态的,它可被编码器用于编码重复的底部字段。

静态表由一个预订义的头顶字段静态列表组成。它的条条框框在 HPACK规范的 附录
A
中定义。

动态表由以先进先出顺序维护的 头顶字段列表
组成。动态表中首个且最新的条目索引值最低,动态表最旧的条目索引值最高。

动态表最初是空的。条目随着每个底部块的解压而添加。

静态表和动态表被重组为统一的目录地址空间。

在 (1 ~ 静态表的长短(蕴涵)) 之间的索引值指向静态表中的因素。

不止静态表长度的索引值指向动态表中的因素。通过将底部字段的目录减去静态表的长短来寻觅指向动态表的目录。

对此静态表大小为 s,动态表大小为 k
的情形,下图突显了完整的有效索引地址空间。

        <----------  Index Address Space ---------->
        <-- Static  Table -->  <-- Dynamic Table -->
        +---+-----------+---+  +---+-----------+---+
        | 1 |    ...    | s |  |s+1|    ...    |s+k|
        +---+-----------+---+  +---+-----------+---+
                               ^                   |
                               |                   V
                        Insertion Point      Dropping Point
静态HUFFMAN编码

先简单介绍一下 huffman 编码,huffman
编码是一个根据字符现身的概率重新编写字符的二进制代码,从而压缩概率高的字符串,进而收缩整个串的长短。借使不精通的话,提出先去学习一下,那里不再赘述。

此处的 huffman 编码是静态的,是根据过去大气的 Http
头的数额从而选出的编码方案。整个静态表在那边
http://httpwg.org/specs/rfc7541.html\#huffman.code

用索引表示底部字段

当一个头顶字段的名-值已经包涵在了静态表或动态表中时,就可以用一个针对静态表或动态表的目录来代表它了。表示方法如下:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 1 |        Index (7+)         |
+---+---------------------------+

底部字段表示的万丈有效位置1,然后用前边看到的表示整数的不二法门表示索引,即索引是一个7位前缀编码的整数。

二进制编码

有了上述所有的预备,大家就可以真正的展开二进制编码压缩了。
有以下两种档次的字节流:

用字面量表示尾部字段

在那种表示法中,底部字段的值是用字面量表示的,但底部字段的名字则不必然。依照名字的象征方法的异样,以及是还是不是将尾部字段加进动态表等,而分为多种场面。

1 已被索引的底部
  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 1 |        Index (7+)         |
+---+---------------------------+

已被索引的头顶,会被替换成如上格式:
首先个 bit 为1, 随后紧跟一个 无整数的编码表示
Index,即为静态表或者是动态表中的索引值。

增量索引的字面量表示

以那种方法表示的头顶字段须求被
加进动态表中。在那种代表方法下,尾部字段的值用索引表示时,尾部字段的象征如下:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 1 |      Index (6+)       |
+---+---+-----------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

尾部字段的名字和值都用字面量表示时,表示如下:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 1 |           0           |
+---+---+-----------------------+
| H |     Name Length (7+)      |
+---+---------------------------+
|  Name String (Length octets)  |
+---+---------------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

增量索引的字面量底部字段表示以’01’ 的2位形式伊始。

比方底部字段名与静态表或动态表中储存的条规的底部字段名匹配,则尾部字段名称可用这些条目标目录表示。在那种景色下,条目标目录以一个拥有6位前缀的整数
表示。那个值总是非0。否则,底部字段名由一个字符串字面量
表示,使用0值代替6位索引,其后是尾部字段名。

二种样式的 底部字段名代表 之后是字符串字面量表示的头顶字段值。

2.1 name在索引 value不在索引且允许保留
  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 1 |      Index (6+)       |
+---+---+-----------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

首个字节的前多个 bit 为 01,随后 无符号整数编码 Index 表示 name
的目录。

上边紧随一个字面字符串的编码,表示 value 。

其一 Header 会被两端都进入动态表中。

无索引的字面量底部字段

那种代表方法不转移动态表。底部字段名用索引代表时的底部字段表示如下:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 0 | 0 | 0 |  Index (4+)   |
+---+---+-----------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

头顶字段名不用索引代表时的底部字段表示如下:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 0 | 0 | 0 |       0       |
+---+---+-----------------------+
| H |     Name Length (7+)      |
+---+---------------------------+
|  Name String (Length octets)  |
+---+---------------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

无索引的字面量底部字段表示以’0000′ 的4位形式起首,其它地方与
增量索引的字面量表示 类似。

2.2 name, value都没被索引且允许保留
  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 1 |           0           |
+---+---+-----------------------+
| H |     Name Length (7+)      |
+---+---------------------------+
|  Name String (Length octets)  |
+---+---------------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

率先个字节为01000000, 然后紧随2个字面字符串的编码表示。

本条 Header 会被两端都加入动态表中。

从不索引的字面量底部字段

那种代表方法与 无索引的字面量底部字段
类似,但它最主要影响网络中的中间节点。尾部字段名用索引代表时的底部字段如:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 0 | 0 | 1 |  Index (4+)   |
+---+---+-----------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

头顶字段名不用索引表示时的头顶字段如:

  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 0 | 0 | 1 |       0       |
+---+---+-----------------------+
| H |     Name Length (7+)      |
+---+---------------------------+
|  Name String (Length octets)  |
+---+---------------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+
3.1 name被索引, value未索引且不保留
  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 0 | 0 | 0 |  Index (4+)   |
+---+---+-----------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

先是个字节前几个 bit 为 0000, 随后是一个 无符号整数编码的 Index 表示
name ,然后跟随一个字面字符串编码 value 。

本条 Header 不用到场动态表。

首部列表的表示

各类首部字段表示合并起来形成首部列表。在
okhttp3.internal.framed.Hpack.Writer 的writeHeaders()
中做到编码首部块的动作:

    /** This does not use "never indexed" semantics for sensitive headers. */
    // http://tools.ietf.org/html/draft-ietf-httpbis-header-compression-12#section-6.2.3
    void writeHeaders(List<Header> headerBlock) throws IOException {
      if (emitDynamicTableSizeUpdate) {
        if (smallestHeaderTableSizeSetting < maxDynamicTableByteCount) {
          // Multiple dynamic table size updates!
          writeInt(smallestHeaderTableSizeSetting, PREFIX_5_BITS, 0x20);
        }
        emitDynamicTableSizeUpdate = false;
        smallestHeaderTableSizeSetting = Integer.MAX_VALUE;
        writeInt(maxDynamicTableByteCount, PREFIX_5_BITS, 0x20);
      }
      // TODO: implement index tracking
      for (int i = 0, size = headerBlock.size(); i < size; i++) {
        Header header = headerBlock.get(i);
        ByteString name = header.name.toAsciiLowercase();
        ByteString value = header.value;
        Integer staticIndex = NAME_TO_FIRST_INDEX.get(name);
        if (staticIndex != null) {
          // Literal Header Field without Indexing - Indexed Name.
          writeInt(staticIndex + 1, PREFIX_4_BITS, 0);
          writeByteString(value);
        } else {
          int dynamicIndex = Util.indexOf(dynamicTable, header);
          if (dynamicIndex != -1) {
            // Indexed Header.
            writeInt(dynamicIndex - nextHeaderIndex + STATIC_HEADER_TABLE.length, PREFIX_7_BITS,
                0x80);
          } else {
            // Literal Header Field with Incremental Indexing - New Name
            out.writeByte(0x40);
            writeByteString(name);
            writeByteString(value);
            insertIntoDynamicTable(header);
          }
        }
      }
    }

HPACK的专业描述了多种尾部字段的代表方法,但并没有指明种种代表方法的适用场景。

在OkHttp3中,已毕了3种表示底部字段的表示方法:

  1. 底部字段名在静态表中,尾部字段名用指向静态表的目录代表,值用字面量表示。底部字段无需插手动态表。
  2. 底部字段的 名-值 对在动态表中,用指向动态表的目录表示底部字段。
  3. 任何情状,用字面量表示底部字段名和值,底部字段须求进入动态表。

假设尾部字段的 名-值 对在静态表中,OkHttp3也不会用索引表示。

3.2 name, value都未被索引且不保留
    0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 0 | 0 | 0 |       0       |
+---+---+-----------------------+
| H |     Name Length (7+)      |
+---+---------------------------+
|  Name String (Length octets)  |
+---+---------------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

先是个字节为全0,紧跟2个字面字符串编码的 name 和 value 。

以此 Header 不用插足动态表。

伸手间首部字段内容的复用

HPACK中,最重视的优化就是去掉请求间冗余的首部字段。在达成上,首要有多少个地方,一是前方看到的首部字段的目录表示,另一方面则是动态表的保安。

HTTP/2中数量发送方向和数量接受方向各有一个动态表。通讯的双方,一端发送方向的动态表需要与另一端接收方向的动态表保持一致,反之亦然。

HTTP/2的连天复用及请求并发执行指的是逻辑上的现身。由于底层传输照旧用的TCP协议,因此,发送方发送数据的依次,与接收方接收数据的依次是一致的。

数码发送方在发送一个请求的首部数据时会顺便维护团结的动态表,接收方在接到首部数据时,也急需及时维护和谐接受方向的动态表,然后将解码之后的首部字段列表dispatch出去。

假使通讯双方还要在进行2个HTTP请求,分别名叫Req1和Req2,假诺在发送方Req1的底部字段列表先发送,Req2的头顶字段后发送。接收方必然先接到Req1的尾部字段列表,然后是Req2的。假使接收方在吸纳Req1的头顶字段列表后,没有应声解码,而是等Req2的首部字段列表接收并拍卖到位未来,再来处理Req1的,则两端的动态表必然是分裂的。

那边来看一下OkHttp3中的动态表维护。

发送方向的动态表,在 okhttp3.internal.framed.Hpack.Writer
中爱戴。在HTTP/2中,动态表的最大尺寸在连接建立的后期会进展商谈,前面在多少收发进度中也会展开更新。

在编码底部字段列表的 writeHeaders(List<Header> headerBlock)
中,会在急需的时候,将底部字段插入动态表,具体来说,就是在头顶字段的名字不在静态表中,同时
名-值对不在动态表中的情状。

将尾部字段插入动态表的进度如下:

    private void clearDynamicTable() {
      Arrays.fill(dynamicTable, null);
      nextHeaderIndex = dynamicTable.length - 1;
      headerCount = 0;
      dynamicTableByteCount = 0;
    }

    /** Returns the count of entries evicted. */
    private int evictToRecoverBytes(int bytesToRecover) {
      int entriesToEvict = 0;
      if (bytesToRecover > 0) {
        // determine how many headers need to be evicted.
        for (int j = dynamicTable.length - 1; j >= nextHeaderIndex && bytesToRecover > 0; j--) {
          bytesToRecover -= dynamicTable[j].hpackSize;
          dynamicTableByteCount -= dynamicTable[j].hpackSize;
          headerCount--;
          entriesToEvict++;
        }
        System.arraycopy(dynamicTable, nextHeaderIndex + 1, dynamicTable,
            nextHeaderIndex + 1 + entriesToEvict, headerCount);
        Arrays.fill(dynamicTable, nextHeaderIndex + 1, nextHeaderIndex + 1 + entriesToEvict, null);
        nextHeaderIndex += entriesToEvict;
      }
      return entriesToEvict;
    }

    private void insertIntoDynamicTable(Header entry) {
      int delta = entry.hpackSize;

      // if the new or replacement header is too big, drop all entries.
      if (delta > maxDynamicTableByteCount) {
        clearDynamicTable();
        return;
      }

      // Evict headers to the required length.
      int bytesToRecover = (dynamicTableByteCount + delta) - maxDynamicTableByteCount;
      evictToRecoverBytes(bytesToRecover);

      if (headerCount + 1 > dynamicTable.length) { // Need to grow the dynamic table.
        Header[] doubled = new Header[dynamicTable.length * 2];
        System.arraycopy(dynamicTable, 0, doubled, dynamicTable.length, dynamicTable.length);
        nextHeaderIndex = dynamicTable.length - 1;
        dynamicTable = doubled;
      }
      int index = nextHeaderIndex--;
      dynamicTable[index] = entry;
      headerCount++;
      dynamicTableByteCount += delta;
    }

动态表占用的半空中国足球协会顶尖联赛(Chinese Football Association Super League)出限制时,老的尾部字段将被移除。在OkHttp3中,动态表是一个自后向前生长的表。

在数据的接收防线,okhttp3.internal.http2.Http2里德(Reade)r 的
nextFrame(Handler handler) 会不停从网络读取一帧帧的数目:

  public boolean nextFrame(Handler handler) throws IOException {
    try {
      source.require(9); // Frame header size
    } catch (IOException e) {
      return false; // This might be a normal socket close.
    }

      /*  0                   1                   2                   3
       *  0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
       * +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
       * |                 Length (24)                   |
       * +---------------+---------------+---------------+
       * |   Type (8)    |   Flags (8)   |
       * +-+-+-----------+---------------+-------------------------------+
       * |R|                 Stream Identifier (31)                      |
       * +=+=============================================================+
       * |                   Frame Payload (0...)                      ...
       * +---------------------------------------------------------------+
       */
    int length = readMedium(source);
    if (length < 0 || length > INITIAL_MAX_FRAME_SIZE) {
      throw ioException("FRAME_SIZE_ERROR: %s", length);
    }
    byte type = (byte) (source.readByte() & 0xff);
    byte flags = (byte) (source.readByte() & 0xff);
    int streamId = (source.readInt() & 0x7fffffff); // Ignore reserved bit.
    if (logger.isLoggable(FINE)) logger.fine(frameLog(true, streamId, length, type, flags));

    switch (type) {
      case TYPE_DATA:
        readData(handler, length, flags, streamId);
        break;

      case TYPE_HEADERS:
        readHeaders(handler, length, flags, streamId);
        break;

读到底部块时,会马上尊崇当地接收方向的动态表:

  private void readHeaders(Handler handler, int length, byte flags, int streamId)
      throws IOException {
    if (streamId == 0) throw ioException("PROTOCOL_ERROR: TYPE_HEADERS streamId == 0");

    boolean endStream = (flags & FLAG_END_STREAM) != 0;

    short padding = (flags & FLAG_PADDED) != 0 ? (short) (source.readByte() & 0xff) : 0;

    if ((flags & FLAG_PRIORITY) != 0) {
      readPriority(handler, streamId);
      length -= 5; // account for above read.
    }

    length = lengthWithoutPadding(length, flags, padding);

    List<Header> headerBlock = readHeaderBlock(length, padding, flags, streamId);

    handler.headers(endStream, streamId, -1, headerBlock);
  }

  private List<Header> readHeaderBlock(int length, short padding, byte flags, int streamId)
      throws IOException {
    continuation.length = continuation.left = length;
    continuation.padding = padding;
    continuation.flags = flags;
    continuation.streamId = streamId;

    // TODO: Concat multi-value headers with 0x0, except COOKIE, which uses 0x3B, 0x20.
    // http://tools.ietf.org/html/draft-ietf-httpbis-http2-17#section-8.1.2.5
    hpackReader.readHeaders();
    return hpackReader.getAndResetHeaderList();
  }

okhttp3.internal.http2.Hpack.Reader的readHeaders()如下:

  static final class Reader {

    private final List<Header> headerList = new ArrayList<>();
    private final BufferedSource source;

    private final int headerTableSizeSetting;
    private int maxDynamicTableByteCount;

    // Visible for testing.
    Header[] dynamicTable = new Header[8];
    // Array is populated back to front, so new entries always have lowest index.
    int nextHeaderIndex = dynamicTable.length - 1;
    int headerCount = 0;
    int dynamicTableByteCount = 0;

    Reader(int headerTableSizeSetting, Source source) {
      this(headerTableSizeSetting, headerTableSizeSetting, source);
    }

    Reader(int headerTableSizeSetting, int maxDynamicTableByteCount, Source source) {
      this.headerTableSizeSetting = headerTableSizeSetting;
      this.maxDynamicTableByteCount = maxDynamicTableByteCount;
      this.source = Okio.buffer(source);
    }

    int maxDynamicTableByteCount() {
      return maxDynamicTableByteCount;
    }

    private void adjustDynamicTableByteCount() {
      if (maxDynamicTableByteCount < dynamicTableByteCount) {
        if (maxDynamicTableByteCount == 0) {
          clearDynamicTable();
        } else {
          evictToRecoverBytes(dynamicTableByteCount - maxDynamicTableByteCount);
        }
      }
    }

    private void clearDynamicTable() {
      headerList.clear();
      Arrays.fill(dynamicTable, null);
      nextHeaderIndex = dynamicTable.length - 1;
      headerCount = 0;
      dynamicTableByteCount = 0;
    }

    /** Returns the count of entries evicted. */
    private int evictToRecoverBytes(int bytesToRecover) {
      int entriesToEvict = 0;
      if (bytesToRecover > 0) {
        // determine how many headers need to be evicted.
        for (int j = dynamicTable.length - 1; j >= nextHeaderIndex && bytesToRecover > 0; j--) {
          bytesToRecover -= dynamicTable[j].hpackSize;
          dynamicTableByteCount -= dynamicTable[j].hpackSize;
          headerCount--;
          entriesToEvict++;
        }
        System.arraycopy(dynamicTable, nextHeaderIndex + 1, dynamicTable,
            nextHeaderIndex + 1 + entriesToEvict, headerCount);
        nextHeaderIndex += entriesToEvict;
      }
      return entriesToEvict;
    }

    /**
     * Read {@code byteCount} bytes of headers from the source stream. This implementation does not
     * propagate the never indexed flag of a header.
     */
    void readHeaders() throws IOException {
      while (!source.exhausted()) {
        int b = source.readByte() & 0xff;
        if (b == 0x80) { // 10000000
          throw new IOException("index == 0");
        } else if ((b & 0x80) == 0x80) { // 1NNNNNNN
          int index = readInt(b, PREFIX_7_BITS);
          readIndexedHeader(index - 1);
        } else if (b == 0x40) { // 01000000
          readLiteralHeaderWithIncrementalIndexingNewName();
        } else if ((b & 0x40) == 0x40) {  // 01NNNNNN
          int index = readInt(b, PREFIX_6_BITS);
          readLiteralHeaderWithIncrementalIndexingIndexedName(index - 1);
        } else if ((b & 0x20) == 0x20) {  // 001NNNNN
          maxDynamicTableByteCount = readInt(b, PREFIX_5_BITS);
          if (maxDynamicTableByteCount < 0
              || maxDynamicTableByteCount > headerTableSizeSetting) {
            throw new IOException("Invalid dynamic table size update " + maxDynamicTableByteCount);
          }
          adjustDynamicTableByteCount();
        } else if (b == 0x10 || b == 0) { // 000?0000 - Ignore never indexed bit.
          readLiteralHeaderWithoutIndexingNewName();
        } else { // 000?NNNN - Ignore never indexed bit.
          int index = readInt(b, PREFIX_4_BITS);
          readLiteralHeaderWithoutIndexingIndexedName(index - 1);
        }
      }
    }

    public List<Header> getAndResetHeaderList() {
      List<Header> result = new ArrayList<>(headerList);
      headerList.clear();
      return result;
    }

    private void readIndexedHeader(int index) throws IOException {
      if (isStaticHeader(index)) {
        Header staticEntry = STATIC_HEADER_TABLE[index];
        headerList.add(staticEntry);
      } else {
        int dynamicTableIndex = dynamicTableIndex(index - STATIC_HEADER_TABLE.length);
        if (dynamicTableIndex < 0 || dynamicTableIndex > dynamicTable.length - 1) {
          throw new IOException("Header index too large " + (index + 1));
        }
        headerList.add(dynamicTable[dynamicTableIndex]);
      }
    }

    // referencedHeaders is relative to nextHeaderIndex + 1.
    private int dynamicTableIndex(int index) {
      return nextHeaderIndex + 1 + index;
    }

    private void readLiteralHeaderWithoutIndexingIndexedName(int index) throws IOException {
      ByteString name = getName(index);
      ByteString value = readByteString();
      headerList.add(new Header(name, value));
    }

    private void readLiteralHeaderWithoutIndexingNewName() throws IOException {
      ByteString name = checkLowercase(readByteString());
      ByteString value = readByteString();
      headerList.add(new Header(name, value));
    }

    private void readLiteralHeaderWithIncrementalIndexingIndexedName(int nameIndex)
        throws IOException {
      ByteString name = getName(nameIndex);
      ByteString value = readByteString();
      insertIntoDynamicTable(-1, new Header(name, value));
    }

    private void readLiteralHeaderWithIncrementalIndexingNewName() throws IOException {
      ByteString name = checkLowercase(readByteString());
      ByteString value = readByteString();
      insertIntoDynamicTable(-1, new Header(name, value));
    }

    private ByteString getName(int index) {
      if (isStaticHeader(index)) {
        return STATIC_HEADER_TABLE[index].name;
      } else {
        return dynamicTable[dynamicTableIndex(index - STATIC_HEADER_TABLE.length)].name;
      }
    }

    private boolean isStaticHeader(int index) {
      return index >= 0 && index <= STATIC_HEADER_TABLE.length - 1;
    }

    /** index == -1 when new. */
    private void insertIntoDynamicTable(int index, Header entry) {
      headerList.add(entry);

      int delta = entry.hpackSize;
      if (index != -1) { // Index -1 == new header.
        delta -= dynamicTable[dynamicTableIndex(index)].hpackSize;
      }

      // if the new or replacement header is too big, drop all entries.
      if (delta > maxDynamicTableByteCount) {
        clearDynamicTable();
        return;
      }

      // Evict headers to the required length.
      int bytesToRecover = (dynamicTableByteCount + delta) - maxDynamicTableByteCount;
      int entriesEvicted = evictToRecoverBytes(bytesToRecover);

      if (index == -1) { // Adding a value to the dynamic table.
        if (headerCount + 1 > dynamicTable.length) { // Need to grow the dynamic table.
          Header[] doubled = new Header[dynamicTable.length * 2];
          System.arraycopy(dynamicTable, 0, doubled, dynamicTable.length, dynamicTable.length);
          nextHeaderIndex = dynamicTable.length - 1;
          dynamicTable = doubled;
        }
        index = nextHeaderIndex--;
        dynamicTable[index] = entry;
        headerCount++;
      } else { // Replace value at same position.
        index += dynamicTableIndex(index) + entriesEvicted;
        dynamicTable[index] = entry;
      }
      dynamicTableByteCount += delta;
    }

HTTP/2中多少收发两端的动态表一致性重假诺依靠TCP来落到实处的。

Done。

4.1 name在索引表中, value不在,且相对差别意被索引
0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 0 | 0 | 1 |  Index (4+)   |
+---+---+-----------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

和3.1是看似的,只是首个字节第八个 bit 变成了1, 其余是一样的。

那些和3.1的分化仅仅在于,中间是还是不是经过了代办。假使没有代理那么表现是均等的。如果中间经过了代理,协议要求代理必须原样转发这一个Header
的编码,不容许做其它改动,这一个暗示中间的代办那几个字面值是蓄意不减少的,比如为了敏感数据的安全等。而3.1则允许代理重新编码等。

4.2 name 和 value 都不在索引表中,且相对不一样意被索引
 0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 0 | 0 | 1 |       0       |
+---+---+-----------------------+
| H |     Name Length (7+)      |
+---+---------------------------+
|  Name String (Length octets)  |
+---+---------------------------+
| H |     Value Length (7+)     |
+---+---------------------------+
| Value String (Length octets)  |
+-------------------------------+

和3.2像样,只是第二个字节的第4个 bit 修改为1。
对此的分解同4.1。

5 修改动态表的大大小小
  0   1   2   3   4   5   6   7
+---+---+---+---+---+---+---+---+
| 0 | 0 | 1 |   Max size (5+)   |
+---+---------------------------+

和眼前的不雷同,之前的都是传送数据,这么些是用来做决定动态表大小的。

率先个字节前七个 bit 为001, 随后跟上一个无符号整数的编码
表示动态表的大大小小。上文有提过,这几个数值是不允许超过SETTINGS_HEADER_TABLE_SIZE 的, 否则会被认为是解码错误。

解码状态机

大家都清楚,想要正确无误的解码,每个编码都要满意一个口径,就是每种编码情势,都不是其余一个编码的前缀。那里的
HPACK 的编码的微小单位是字节。大家看一下整个二进制流解码的状态机:

亚洲必赢官网 31

HPACK 解码状态机

图例的根据对应规则解码就是地点介绍的编码规则。

实战举例

以下是要被编码的 Headers:

:method: GET
:scheme: http
:path: /
:authority: www.example.com

此处大约说一下, :xxxx 为 name 的 header, 实际上是 HTTP/2
所谓的伪头的定义。就是把HTTP1.X的乞请头替换成伪头对应的 name 和
value,然后再编码传输,完全的定义在此间
http://httpwg.org/specs/rfc7540.html\#PseudoHeaderFields

好的,过掉所有话题,大家看整个 Headers 编码后的16进制字节如下:

8286 8441 8cf1 e3c2 e5f2 3a6b a0ab 90f4 ff     

实际上解析很简短,就根据地点我画的解码状态机来就好了:

82 = 10000010 -> 静态表Index = 2 -> :method: GET

86 = 10000110 -> 静态表Index = 6 -> :scheme: http

84 = 10000100 -> 静态表Index = 4 -> :path: /

41 = 01000001 -> name = 静态表1 = :authority

进而是一个字面字符串的解码,表示 header :authority 对应的 value

8c = 10001100 -> 首个 bit 为1,表示 huffman 编码,字符串的长短为
1100b = 12

继而分析12个字节为 huffman 编码后的字符
f1e3 c2e5 f23a 6ba0 ab90 f4ff, 查表可见为www.example.com

故而得到最后一个头顶 :authority: www.example.com

小结

好的,至此大家的 HPACK 完全解析已经竣事了,希望我们能因此本文对 HPACK
有更透彻的问询。前边我会继续填坑,给大家带来 HTTP/2 与 OkHttp
对应的兑现。

此间是小编的个人博客地址:
dieyidezui.com

也欢迎关怀作者的微信公众号,会不定期的享受部分内容给大家

亚洲必赢官网 32

参考文献

RFC
7541

网站地图xml地图