gitbook/Java性能调优实战/docs/99774.md

255 lines
15 KiB
Markdown
Raw Permalink Normal View History

2022-09-03 22:05:03 +08:00
# 09 | 网络通信优化之序列化避免使用Java序列化
你好,我是刘超。
当前大部分后端服务都是基于微服务架构实现的。服务按照业务划分被拆分,实现了服务的解耦,但同时也带来了新的问题,不同业务之间通信需要通过接口实现调用。两个服务之间要共享一个数据对象,就需要从对象转换成二进制流,通过网络传输,传送到对方服务,再转换回对象,供服务方法调用。**这个编码和解码过程我们称之为序列化与反序列化。**
在大量并发请求的情况下,如果序列化的速度慢,会导致请求响应时间增加;而序列化后的传输数据体积大,会导致网络吞吐量下降。所以一个优秀的序列化框架可以提高系统的整体性能。
我们知道Java提供了RMI框架可以实现服务与服务之间的接口暴露和调用RMI中对数据对象的序列化采用的是Java序列化。而目前主流的微服务框架却几乎没有用到Java序列化SpringCloud用的是Json序列化Dubbo虽然兼容了Java序列化但默认使用的是Hessian序列化。这是为什么呢
今天我们就来深入了解下Java序列化再对比近两年比较火的Protobuf序列化看看Protobuf是如何实现最优序列化的。
## Java序列化
在说缺陷之前你先得知道什么是Java序列化以及它的实现原理。
Java提供了一种序列化机制这种机制能够将一个对象序列化为二进制形式字节数组用于写入磁盘或输出到网络同时也能从网络或磁盘中读取字节数组反序列化成对象在程序中使用。
![](https://static001.geekbang.org/resource/image/bd/e2/bd4bc4b2746f4b005ca26042412f4ee2.png)
JDK提供的两个输入、输出流对象ObjectInputStream和ObjectOutputStream它们只能对实现了Serializable接口的类的对象进行反序列化和序列化。
ObjectOutputStream的默认序列化方式仅对对象的非transient的实例变量进行序列化而不会序列化对象的transient的实例变量也不会序列化静态变量。
在实现了Serializable接口的类的对象中会生成一个serialVersionUID的版本号这个版本号有什么用呢它会在反序列化过程中来验证序列化对象是否加载了反序列化的类如果是具有相同类名的不同版本号的类在反序列化中是无法获取对象的。
具体实现序列化的是writeObject和readObject通常这两个方法是默认的当然我们也可以在实现Serializable接口的类中对其进行重写定制一套属于自己的序列化与反序列化机制。
另外Java序列化的类中还定义了两个重写方法writeReplace()和readResolve(),前者是用来在序列化之前替换序列化对象的,后者是用来在反序列化之后对返回对象进行处理的。
## Java序列化的缺陷
如果你用过一些RPC通信框架你就会发现这些框架很少使用JDK提供的序列化。其实不用和不好用多半是挂钩的下面我们就一起来看看JDK默认的序列化到底存在着哪些缺陷。
### 1.无法跨语言
现在的系统设计越来越多元化很多系统都使用了多种语言来编写应用程序。比如我们公司开发的一些大型游戏就使用了多种语言C++写游戏服务Java/Go写周边服务Python写一些监控应用。
而Java序列化目前只适用基于Java语言实现的框架其它语言大部分都没有使用Java的序列化框架也没有实现Java序列化这套协议。因此如果是两个基于不同语言编写的应用程序相互通信则无法实现两个应用服务之间传输对象的序列化与反序列化。
### 2.易被攻击
Java官网安全编码指导方针中说明“对不信任数据的反序列化从本质上来说是危险的应该予以避免”。可见Java序列化是不安全的。
我们知道对象是通过在ObjectInputStream上调用readObject()方法进行反序列化的这个方法其实是一个神奇的构造器它可以将类路径上几乎所有实现了Serializable接口的对象都实例化。
这也就意味着,在反序列化字节流的过程中,该方法可以执行任意类型的代码,这是非常危险的。
对于需要长时间进行反序列化的对象不需要执行任何代码也可以发起一次攻击。攻击者可以创建循环对象链然后将序列化后的对象传输到程序中反序列化这种情况会导致hashCode方法被调用次数呈次方爆发式增长, 从而引发栈溢出异常。例如下面这个案例就可以很好地说明。
```
Set root = new HashSet();
Set s1 = root;
Set s2 = new HashSet();
for (int i = 0; i < 100; i++) {
Set t1 = new HashSet();
Set t2 = new HashSet();
t1.add("foo"); //使t2不等于t1
s1.add(t1);
s1.add(t2);
s2.add(t1);
s2.add(t2);
s1 = t1;
s2 = t2;
}
```
2015年FoxGlove Security安全团队的breenmachine发布过一篇长博客主要内容是通过Apache Commons CollectionsJava反序列化漏洞可以实现攻击。一度横扫了WebLogic、WebSphere、JBoss、Jenkins、OpenNMS的最新版各大Java Web Server纷纷躺枪。
其实Apache Commons Collections就是一个第三方基础库它扩展了Java标准库里的Collection结构提供了很多强有力的数据结构类型并且实现了各种集合工具类。
实现攻击的原理就是Apache Commons Collections允许链式的任意的类函数反射调用攻击者通过“实现了Java序列化协议”的端口把攻击代码上传到服务器上再由Apache Commons Collections里的TransformedMap来执行。
**那么后来是如何解决这个漏洞的呢?**
很多序列化协议都制定了一套数据结构来保存和获取对象。例如JSON序列化、ProtocolBuf等它们只支持一些基本类型和数组数据类型这样可以避免反序列化创建一些不确定的实例。虽然它们的设计简单但足以满足当前大部分系统的数据传输需求。
我们也可以通过反序列化对象白名单来控制反序列化对象可以重写resolveClass方法并在该方法中校验对象名字。代码如下所示
```
@Override
protected Class resolveClass(ObjectStreamClass desc) throws IOException,ClassNotFoundException {
if (!desc.getName().equals(Bicycle.class.getName())) {
throw new InvalidClassException(
"Unauthorized deserialization attempt", desc.getName());
}
return super.resolveClass(desc);
}
```
### 3.序列化后的流太大
序列化后的二进制流大小能体现序列化的性能。序列化后的二进制数组越大,占用的存储空间就越多,存储硬件的成本就越高。如果我们是进行网络传输,则占用的带宽就更多,这时就会影响到系统的吞吐量。
Java序列化中使用了ObjectOutputStream来实现对象转二进制编码那么这种序列化机制实现的二进制编码完成的二进制数组大小相比于NIO中的ByteBuffer实现的二进制编码完成的数组大小有没有区别呢
我们可以通过一个简单的例子来验证下:
```
User user = new User();
user.setUserName("test");
user.setPassword("test");
ByteArrayOutputStream os =new ByteArrayOutputStream();
ObjectOutputStream out = new ObjectOutputStream(os);
out.writeObject(user);
byte[] testByte = os.toByteArray();
System.out.print("ObjectOutputStream 字节编码长度:" + testByte.length + "\n");
```
```
ByteBuffer byteBuffer = ByteBuffer.allocate( 2048);
byte[] userName = user.getUserName().getBytes();
byte[] password = user.getPassword().getBytes();
byteBuffer.putInt(userName.length);
byteBuffer.put(userName);
byteBuffer.putInt(password.length);
byteBuffer.put(password);
byteBuffer.flip();
byte[] bytes = new byte[byteBuffer.remaining()];
System.out.print("ByteBuffer 字节编码长度:" + bytes.length+ "\n");
```
运行结果:
```
ObjectOutputStream 字节编码长度99
ByteBuffer 字节编码长度16
```
这里我们可以清楚地看到Java序列化实现的二进制编码完成的二进制数组大小比ByteBuffer实现的二进制编码完成的二进制数组大小要大上几倍。因此Java序列后的流会变大最终会影响到系统的吞吐量。
### 4.序列化性能太差
序列化的速度也是体现序列化性能的重要指标如果序列化的速度慢就会影响网络通信的效率从而增加系统的响应时间。我们再来通过上面这个例子来对比下Java序列化与NIO中的ByteBuffer编码的性能
```
User user = new User();
user.setUserName("test");
user.setPassword("test");
long startTime = System.currentTimeMillis();
for(int i=0; i<1000; i++) {
ByteArrayOutputStream os =new ByteArrayOutputStream();
ObjectOutputStream out = new ObjectOutputStream(os);
out.writeObject(user);
out.flush();
out.close();
byte[] testByte = os.toByteArray();
os.close();
}
long endTime = System.currentTimeMillis();
System.out.print("ObjectOutputStream 序列化时间:" + (endTime - startTime) + "\n");
```
```
long startTime1 = System.currentTimeMillis();
for(int i=0; i<1000; i++) {
ByteBuffer byteBuffer = ByteBuffer.allocate( 2048);
byte[] userName = user.getUserName().getBytes();
byte[] password = user.getPassword().getBytes();
byteBuffer.putInt(userName.length);
byteBuffer.put(userName);
byteBuffer.putInt(password.length);
byteBuffer.put(password);
byteBuffer.flip();
byte[] bytes = new byte[byteBuffer.remaining()];
}
long endTime1 = System.currentTimeMillis();
System.out.print("ByteBuffer 序列化时间:" + (endTime1 - startTime1)+ "\n");
```
运行结果:
```
ObjectOutputStream 序列化时间29
ByteBuffer 序列化时间6
```
通过以上案例我们可以清楚地看到Java序列化中的编码耗时要比ByteBuffer长很多。
## 使用Protobuf序列化替换Java序列化
目前业内优秀的序列化框架有很多而且大部分都避免了Java默认序列化的一些缺陷。例如最近几年比较流行的FastJson、Kryo、Protobuf、Hessian等。**我们完全可以找一种替换掉Java序列化这里我推荐使用Protobuf序列化框架。**
Protobuf是由Google推出且支持多语言的序列化框架目前在主流网站上的序列化框架性能对比测试报告中Protobuf无论是编解码耗时还是二进制流压缩大小都名列前茅。
Protobuf以一个 .proto 后缀的文件为基础这个文件描述了字段以及字段类型通过工具可以生成不同语言的数据结构文件。在序列化该数据对象的时候Protobuf通过.proto文件描述来生成Protocol Buffers格式的编码。
**这里拓展一点我来讲下什么是Protocol Buffers存储格式以及它的实现原理。**
Protocol Buffers 是一种轻便高效的结构化数据存储格式。它使用T-L-V标识 - 长度 - 字段值的数据格式来存储数据T代表字段的正数序列(tag)Protocol Buffers 将对象中的每个字段和正数序列对应起来对应关系的信息是由生成的代码来保证的。在序列化的时候用整数值来代替字段名称于是传输流量就可以大幅缩减L代表Value的字节长度一般也只占一个字节V则代表字段值经过编码后的值。这种数据格式不需要分隔符也不需要空格同时减少了冗余字段名。
Protobuf定义了一套自己的编码方式几乎可以映射Java/Python等语言的所有基础数据类型。不同的编码方式对应不同的数据类型还能采用不同的存储格式。如下图所示
![](https://static001.geekbang.org/resource/image/ec/eb/ec0ebe4f622e9edcd9de86cb92f15eeb.jpg)
对于存储Varint编码数据由于数据占用的存储空间是固定的就不需要存储字节长度 Length所以实际上Protocol Buffers的存储方式是 T - V这样就又减少了一个字节的存储空间。
Protobuf定义的Varint编码方式是一种变长的编码方式每个字节的最后一位(即最高位)是一个标志位(msb)用0和1来表示0表示当前字节已经是最后一个字节1表示这个数字后面还有一个字节。
对于int32类型数字一般需要4个字节表示若采用Varint编码方式对于很小的int32类型数字就可以用1个字节来表示。对于大部分整数类型数据来说一般都是小于256所以这种操作可以起到很好地压缩数据的效果。
我们知道int32代表正负数所以一般最后一位是用来表示正负值现在Varint编码方式将最后一位用作了标志位那还如何去表示正负整数呢如果使用int32/int64表示负数就需要多个字节来表示在Varint编码类型中通过Zigzag编码进行转换将负数转换成无符号数再采用sint32/sint64来表示负数这样就可以大大地减少编码后的字节数。
Protobuf的这种数据存储格式不仅压缩存储数据的效果好 在编码和解码的性能方面也很高效。Protobuf的编码和解码过程结合.proto文件格式加上Protocol Buffer独特的编码格式只需要简单的数据运算以及位移等操作就可以完成编码与解码。可以说Protobuf的整体性能非常优秀。
## 总结
无论是网路传输还是磁盘持久化数据,我们都需要将数据编码成字节码,而我们平时在程序中使用的数据都是基于内存的数据类型或者对象,我们需要通过编码将这些数据转化成二进制字节流;如果需要接收或者再使用时,又需要通过解码将二进制字节流转换成内存数据。我们通常将这两个过程称为序列化与反序列化。
Java默认的序列化是通过Serializable接口实现的只要类实现了该接口同时生成一个默认的版本号我们无需手动设置该类就会自动实现序列化与反序列化。
Java默认的序列化虽然实现方便但却存在安全漏洞、不跨语言以及性能差等缺陷所以我强烈建议你避免使用Java序列化。
纵观主流序列化框架FastJson、Protobuf、Kryo是比较有特点的而且性能以及安全方面都得到了业界的认可我们可以结合自身业务来选择一种适合的序列化框架来优化系统的序列化性能。
## 思考题
这是一个使用单例模式实现的类如果我们将该类实现Java的Serializable接口它还是单例吗如果要你来写一个实现了Java的Serializable接口的单例你会怎么写呢
```
public class Singleton implements Serializable{
private final static Singleton singleInstance = new Singleton();
private Singleton(){}
public static Singleton getInstance(){
return singleInstance;
}
}
```
期待在留言区看到你的见解。也欢迎你点击“请朋友读”,把今天的内容分享给身边的朋友,邀请他一起学习。