明明应聘的是文员,上班第一天文员会有老员工带吗却让我干了一天的体力活

上面代码中客户端声明自己可鉯接受任何格式的数据。

Content-Encoding 字段说明数据的压缩方法表示服务器返回的数据使用了什么压缩格式

上面表示服务器返回的数据采用了 gzip 方式压縮,告知客户端需要用此方式解压

客户端在请求时,用 Accept-Encoding 字段说明自己可以接受哪些压缩方法

Get 方法的含义是请求从服务器获取资源,这個资源可以是静态的文本、页面、图片视频等

比如,你打开我的文章浏览器就会发送 GET 请求给服务器,服务器就会返回文章的所有文字忣资源


比如,你在我文章底部敲入了留言后点击「提交」(暗示你们留言),浏览器就会执行一次 POST 请求把你的留言文字放进了报文 body 裏,然后拼接好 POST 请求头通过 TCP 协议发送给服务器。

GET 和 POST 方法都是安全和幂等的吗

先说明下安全和幂等的概念:

在 HTTP 协议里,所谓的「安全」昰指请求方法不会「破坏」服务器上的资源

POST 因为是「新增或提交数据」的操作,会修改服务器上的资源所以是不安全的,且多次提交數据就会创建多个资源所以不是幂等的。

你知道的 HTTP(1.1) 的优点有哪些怎么体现的?

HTTP 基本的报文格式就是 header + body头部信息也是 key-value 简单文本的形式,易于理解降低了学习和使用的门槛。

HTTP协议里的各类请求方法、URI/URL、状态码、头字段等每个组成要求都没有被固定死都允许开发人员洎定义和扩充。

同时 HTTP 由于是工作在应用层( OSI 第七层)则它下层可以随意变化。

3. 应用广泛和跨平台

互联网发展至今HTTP 的应用范围非常的广泛,从台式机的浏览器到手机上的各种 APP从看新闻、刷贴吧到购物、理财、吃鸡,HTTP 的应用片地开花同时天然具有跨平台的优越性。

HTTP 协议裏有优缺点一体的双刃剑分别是「无状态、明文传输」,同时还有一大缺点「不安全」

无状态的好处,因为服务器不会去记忆 HTTP 的状态所以不需要额外的资源来记录状态信息,这能减轻服务器的负担能够把更多的 CPU 和内存用来对外提供服务。

无状态的坏处既然服务器沒有记忆能力,它在完成有关联性的操作时会非常麻烦

例如登录->添加购物车->下单->结算->支付,这系列操作都要知道用户的身份才行但服務器不知道这些请求是有关联的,每次都要问一遍身份信息

这样每操作一次,都要验证信息这样的购物体验还能愉快吗?别问问就昰酸爽!

对于无状态的问题,解法方案有很多种其中比较简单的方式用 Cookie 技术。

Cookie 通过在请求和响应报文中写入 Cookie 信息来控制客户端的状态

楿当于,在客户端第一次请求后服务器会下发一个装有客户信息的「小贴纸」,后续客户端请求服务器的时候带上「小贴纸」,服务器就能认得了了

明文意味着在传输过程中的信息,是可方便阅读的通过浏览器的 F12 控制台或 Wireshark 抓包都可以直接肉眼查看,为我们调试工作帶了极大的便利性

但是这正是这样,HTTP 的所有信息都暴露在了光天化日下相当于信息裸奔。在传输的漫长的过程中信息的内容都毫无隱私可言,很容易就能被窃取如果里面有你的账号密码信息,那你号没了

HTTP 比较严重的缺点就是不安全:

通信使用明文(不加密),内嫆可能会被窃听比如,账号信息容易泄漏那你号没了。

HTTP 协议是基于 TCP/IP并且使用了「请求 - 应答」的通信模式,所以性能的关键就在这两點里

早期 HTTP/1.0 性能上的一个很大的问题,那就是每发起一个请求都要新建一次 TCP 连接(三次握手),而且是串行请求做了无畏的 TCP 连接建立囷断开,增加了通信开销

为了解决上述 TCP 连接问题,HTTP/1.1 提出了长连接的通信方式也叫持久连接。这种方式的好处在于减少了 TCP 连接的重复建竝和断开所造成的额外开销减轻了服务器端的负载。

持久连接的特点是只要任意一端没有明确提出断开连接,则保持 TCP 连接状态

HTTP/1.1 采用叻长连接的方式,这使得管道(pipeline)网络传输成为了可能

即可在同一个 TCP 连接里面,客户端可以发起多个请求只要第一个请求发出去了,鈈必等其回来就可以发第二个请求出去,可以减少整体的响应时间

举例来说,客户端需要请求两个资源以前的做法是,在同一个TCP连接里面先发送 A 请求,然后等待服务器做出回应收到后再发出 B 请求。管道机制则是允许浏览器同时发出 A 请求和 B 请求

「请求 - 应答」的模式加剧了 HTTP 的性能问题。

因为当顺序发送的请求序列中的一个请求因为某种原因被阻塞时在后面排队的所有请求也一同被阻塞了,会招致愙户端一直请求不到数据这也就是「队头阻塞」。好比上班的路上塞车

HTTP 是超文本传输协议,信息是明文传输存在安全风险的问题。HTTPS 則解决 HTTP 不安全的缺陷在 TCP 和 HTTP 网络层之间加入了 SSL/TLS 安全协议,使得报文能够加密传输

HTTP 由于是明文传输,所以安全上存在以下三个风险:

窃听風险比如通信链路上可以获取通信内容,用户号容易没

可以很好的解决了上述的风险:

信息加密:交互信息无法被窃取,但你的号会洇为「自身忘记」账号而没

HTTPS 是如何解决上面的三个风险的?

混合加密的方式实现信息的机密性解决了窃听的风险。

通过混合加密的方式可以保证信息的机密性解决了窃听的风险。

在通信建立前采用非对称加密的方式交换「会话秘钥」后续就不再使用非对称加密。

对稱加密只使用一个密钥运算速度快,密钥必须保密无法做到安全的密钥交换。

摘要算法用来实现完整性能够为数据生成独一无二的「指纹」,用于校验数据的完整性解决了篡改的风险。


客户端先向服务器端索要公钥然后用公钥加密信息,服务器收到密文后用自巳的私钥解密。

这就存在些问题如何保证公钥不被篡改和信任度?

所以这里就需要借助第三方权威机构 CA (数字证书认证机构)将服务器公钥放在数字证书(由数字证书认证机构颁发)中,只要证书是可信的公钥就是可信的。

通过数字证书的方式保证服务器公钥的身份解决冒充的风险。

HTTPS 是如何建立连接的其间交互了什么?

客户端向服务器索要并验证服务器的公钥

SSL/TLS 的「握手阶段」涉及四次通信,可見下图:


首先由客户端向服务器发起加密通信请求,也就是 ClientHello 请求

在这一步,客户端主要向服务器发送以下信息:

(2)客户端生产的随機数(Client Random)后面用于生产「会话秘钥」。

(3)客户端支持的密码套件列表如 RSA 加密算法。

服务器收到客户端请求后向客户端发出响应,吔就是 SeverHello服务器回应的内容有如下内容:

(1)确认 SSL/ TLS 协议版本,如果浏览器不支持则关闭加密通信。

(2)服务器生产的随机数(Server Random)后面鼡于生产「会话秘钥」。

(3)确认的密码套件列表如 RSA 加密算法。

(4)服务器的数字证书

客户端收到服务器的回应之后,首先通过浏览器或者操作系统中的 CA 公钥确认服务器的数字证书的真实性。

如果证书没有问题客户端会从数字证书中取出服务器的公钥,然后使用它加密报文向服务器发送如下信息:

(1)一个随机数(pre-master key)。该随机数会被服务器公钥加密

(2)加密通信算法改变通知,表示随后的信息嘟将用「会话秘钥」加密通信

(3)客户端握手结束通知,表示客户端的握手阶段已经结束这一项同时把之前所有内容的发生的数据做個摘要,用来供服务端校验

上面第一项的随机数是整个握手阶段的第三个随机数,这样服务器和客户端就同时有三个随机数接着就用雙方协商的加密算法,各自生成本次通信的「会话秘钥」

服务器收到客户端的第三个随机数(pre-master key)之后,通过协商的加密算法计算出本佽通信的「会话秘钥」。然后向客户端发生最后的信息:

(1)加密通信算法改变通知,表示随后的信息都将用「会话秘钥」加密通信

(2)服务器握手结束通知,表示服务器的握手阶段已经结束这一项同时把之前所有内容的发生的数据做个摘要,用来供客户端校验

至此,整个 SSL/TLS 的握手阶段全部结束接下来,客户端与服务器进入加密通信就完全是使用普通的 HTTP 协议,只不过用「会话秘钥」加密内容

使鼡 TCP 长连接的方式改善了 HTTP/1.0 短连接造成的性能开销。

请求 / 响应头部(Header)未经压缩就发送首部信息越多延迟越大。只能压缩 Body 的部分;

HTTP/2 会压缩头(Header)如果你同时发出多个请求他们的头是一样的或是相似的,那么协议会帮你消除重复的分。

这就是所谓的 HPACK 算法:在客户端和服务器哃时维护一张头信息表所有字段都会存入这个表,生成一个索引号以后就不发送同样字段了,只发送索引号这样就提高速度了。

HTTP/2 不洅像 HTTP/1.1 里的纯文本形式的报文而是全面采用了二进制格式。

头信息和数据体都是二进制并且统称为帧(frame):头信息帧和数据帧。

HTTP/2 的数据包不是按顺序发送的同一个连接里面连续的数据包,可能属于不同的回应因此,必须要对数据包做标记指出它属于哪个回应。

每个請求或回应的所有数据包称为一个数据流(Stream)。

每个数据流都标记着一个独一无二的编号其中规定客户端发出的数据流编号为奇数, 垺务器发出的数据流编号为偶数

客户端还可以指定数据流的优先级优先级高的请求,服务器就先响应该请求

HTTP/2 是可以在一个连接中并发哆个请求或回应,而不用按照顺序一一对应

移除了 HTTP/1.1 中的串行请求,不需要排队等待也就不会再出现「队头阻塞」问题,降低了延迟夶幅度提高了连接的利用率。

举例来说在一个 TCP 连接里,服务器收到了客户端 A 和 B 的两个请求如果发现 A 处理过程非常耗时,于是就回应 A 请求已经处理好的部分接着回应 B 请求,完成后再回应 A 请求剩下的部分。

HTTP/2 还在一定程度上改善了传统的「请求 - 应答」工作模式服务不再昰被动地响应,也可以主动向客户端发送消息

举例来说,在浏览器刚请求 HTML 的时候就提前把可能会用到的 JS、CSS 文件等静态资源主动发给客戶端,减少延时的等待也就是服务器推送(Server Push,也叫 Cache Push)

所以一旦发生了丢包现象,就会触发 TCP 的重传机制这样在一个 TCP 连接中的所有的 HTTP 请求都必须等待这个丢了的包被重传回来。

HTTP/1.1 中的管道( pipeline)传输中如果有一个请求阻塞了那么队列后请求也统统被阻塞住了

UDP 发生是不管顺序,也不管丢包的所以不会出现 HTTP/1.1 的队头阻塞 和 HTTP/2 的一个丢包全部重传问题。

大家都知道 UDP 是不可靠传输的但基于 UDP 的 QUIC 协议 可以实现类似 TCP 的可靠性传输。

QUIC 有自己的一套机制可以保证传输的可靠性的当某个流发生丢包时,只会阻塞这个流其他流不会受到影响。

QUIC 是新协议对于很哆网络设备,根本不知道什么是 QUIC只会当做 UDP,这样会出现新的问题所以 HTTP/3 现在普及的进度非常的缓慢,不知道未来 UDP 是否能够逆袭 TCP

[4] 阮一峰.HTTP 協议入门.阮一峰的网络日志.

接近 30 张图片,都是从一条线两条线画出来灰常的费劲,深切感受到画图也是个体力活啊!

爱偷懒的我其实不愛画图但为了让大家能更好的理解,在跟自己无数次斗争后踏上了耗时耗体力的画图的不归路,希望对你们有帮助!

创造不易啊画圖也不易,不想被白嫖哦各位「三连」走起就是对小林创造的最大支持和动力了,我们下次见!

我要回帖

更多关于 第一天文员会有老员工带吗 的文章

 

随机推荐