Netty(4)NIO 和 BIO

柔光的暖阳◎ 2024-04-08 08:36 142阅读 0赞

stream & channel

stream 不会自动缓冲数据,channel 会利用系统提供的发送缓冲区、接收缓冲区(更为底层)

stream 仅支持阻塞 API;channel 同时支持阻塞、非阻塞 API,网络 channel 可配合 selector 实现多路复用

二者均为全双工,即读写可以同时进行

IO模型

同步阻塞、同步非阻塞、同步多路复用、异步阻塞(不存在此情况)、异步非阻塞

一共有五种IO模型《Unix网络编程》

  1. 阻塞IO
  2. 非阻塞IO
  3. 多路复用
  4. 信号异步
  5. 异步IO

基础概念

同步线程自己去获取结果(一个线程)

类似亲力亲为

异步线程自己不去获取结果,而是由其它线程送结果(至少两个线程)

类似老板可以让员工去处理其他事情
在这里插入图片描述

当调用一次 channel.read 或 stream.read 后,会切换至操作系统内核态来完成真正数据读取,而读取又分为两个阶段,分别为:

  • 等待数据阶段
  • 复制数据阶段

    在这里插入图片描述

阻塞IO(同步)

情况说明:

  1. 当用户线程发起一次read,此时便会由用户程序空间切换到Linux内核空间,
  2. 这时候使用内核空间真正的去读取,
  3. 这时候网络上可能还没有数据真正的发送过来,这时候read就会被阻塞住(就是线程停止下来,什么都做不了),
  4. 直到数据到了,这时候进行数据的复制,等数据全部复制完了,值由Linux内核空间,切换回用户程序空间,
  5. 这时候read方法的调用便告一段落,如下图所示:
    在这里插入图片描述

像上面的这种就称为阻塞IO

  • 这里的阻塞就是指用户线程被阻塞了,在读取期间什么都做不了

非阻塞IO(同步)

发起read的线程和接收read的线程是同一种线程

情况说明:

  1. 用户线程调用read方法,
  2. 如果这时候数据还没有传输过来,会立刻返回,告诉用户线程读到的为0
  3. 用户线程这边再次进行read方法的调用,Linux内核空间会立刻返回…
  4. 在上面的过程中,用户线程一直没有停下来,一直在运行,所以这种情况就被称为非阻塞,
  5. 当某一次调用read方法时,发现有数据了,这是完成第二个阶段复制数据,复制数据时,用户线程还是会被阻塞住,等待数据复制完毕,这时候用户线程可以继续运行(数据拿到了)。如下图所示:
    在这里插入图片描述
    相对于阻塞IO,涉及多次用户程序空间和Linux内核空间的调换,影响系统稳定性

多路复用(同步)

发起read的线程和接收read的线程是同一种线程

情况说明:

  1. 用户线程调用select方法,切换到Linux内核空间,这时候会阻塞住,等待事件发送
  2. 当有事件发送后,内核空间会告诉用户线程有新事件read发生
  3. 这时用户线程,可以根据selectionKey拿到channel,去调用一次read
  4. read期间还是需要去复制数据,这期间还是阻塞住了,等待数据复制完毕 。如下图所示
    在这里插入图片描述
    通过分析可以发现,这个过程中有两个地方阻塞:select在等待数据时,read在复制数据时

与阻塞IO相比

  1. 阻塞IO:当channel发送数据时,无法去处理第二次发送数据的处理(需要等待第一次处理完成)
    在这里插入图片描述
  2. 多路复用:一个selector可以去监视多个channel上的事件(一次性处理多个channel的事件,等待事件的时间都在第一回合等完了),不管是什么事件都可以触发selector去处理,如下图:
    在这里插入图片描述

信号异步

异步IO(AIO)

AIO 用来解决数据复制阶段的阻塞问题

  • 同步意味着,在进行读写操作时,线程需要等待结果,还是相当于闲置
  • 异步意味着,在进行读写操作时,线程不必等待结果,而是将来由操作系统来通过回调方式由另外的线程来获得结果

异步模型需要底层操作系统(Kernel)提供支持

  • Windows 系统通过 IOCP 实现了真正的异步 IO
  • Linux 系统异步 IO 在 2.6 版本引入,但其底层实现还是用多路复用模拟了异步 IO,性能没有优势

文件 AIO

  1. try (AsynchronousFileChannel channel = AsynchronousFileChannel.open(Paths.get("data.txt"), StandardOpenOption.READ)) {
  2. // 参数1 ByteBuffer
  3. // 参数2 读取的起始位置
  4. // 参数3 附件
  5. // 参数4 回调对象 CompletionHandler
  6. ByteBuffer buffer = ByteBuffer.allocate(16);
  7. log.debug("read begin...");
  8. channel.read(buffer, 0, buffer, new CompletionHandler<Integer, ByteBuffer>() {
  9. @Override // read 成功
  10. public void completed(Integer result, ByteBuffer attachment) {
  11. log.debug("read completed...: "+ result);
  12. //切换到读模式
  13. attachment.flip();
  14. debugAll(attachment);
  15. }
  16. @Override // read 失败
  17. public void failed(Throwable exc, ByteBuffer attachment) {
  18. exc.printStackTrace();
  19. }
  20. });
  21. log.debug("read end...");
  22. } catch (IOException e) {
  23. e.printStackTrace();
  24. }
  25. //使主线程先不结束,completed这个重写方法是守护线程(如果其他线程运行完了,守护线程也会结束)
  26. System.in.read();

可以看到(直接贴其他的截图了…)
在这里插入图片描述

  • 响应文件读取成功的是另一个线程 Thread-5
  • 主线程并没有 IO 操作阻塞

零拷贝

传统方法

传统的 IO 将一个文件通过 socket 写出

  1. File f = new File("helloword/data.txt");
  2. RandomAccessFile file = new RandomAccessFile(file, "r");
  3. byte[] buf = new byte[(int)f.length()];
  4. file.read(buf);
  5. Socket socket = ...;
  6. socket.getOutputStream().write(buf);

内部工作流程:
在这里插入图片描述
12是read方法的内部工作流程,34是write方法的内部工作流程:

  1. java 本身并不具备 IO 读写能力,因此 read 方法调用后,要从 java 程序的用户态切换至内核态,去调用操作系统(Kernel)的读能力,将数据读入内核缓冲区。这期间用户线程阻塞,操作系统使用 DMA(Direct Memory Access)来实现文件读,其间也不会使用 cpu

    DMA 也可以理解为硬件单元,用来解放 cpu 完成文件 IO

  2. 内核态切换回用户态,将数据从内核缓冲区读入用户缓冲区(即 byte[] buf),这期间 cpu 会参与拷贝,无法利用 DMA
  3. 调用 write 方法,这时将数据从用户缓冲区(byte[] buf)写入 socket 缓冲区,cpu 会参与拷贝
  4. 接下来要向网卡写数据,这项能力 java 又不具备,因此又得从用户态切换至内核态,调用操作系统的写能力,使用 DMA 将 socket 缓冲区的数据写入网卡,不会使用 cpu

java 的 IO 实际不是物理设备级别的读写,而是缓存的复制,底层的真正读写是操作系统来完成的

  • 用户态与内核态的切换发生了 3 次,这个操作比较重量级

    1. 第一次是调用read()方法时,从java变成操作系统
    2. 第二次是read()方法结束,从操作系统变为java
    3. 第三次是write()方法的调用,从java变成操作系统
  • 数据拷贝了共 4 次

    1. 上图所示的1234

使用NIO优化

减少一次数据拷贝

通过 DirectByteBuffer ,减少一次数据的拷贝

  • ByteBuffer.allocate(10) HeapByteBuffer 使用的还是 java 内存
  • ByteBuffer.allocateDirect(10) DirectByteBuffer 使用的是操作系统内存

在这里插入图片描述
大部分步骤与优化前相同,不再赘述。唯有一点:java 可以使用 DirectByteBuf 将堆外内存映射到 jvm 内存中来直接访问使用

  • 这块内存不受 jvm 垃圾回收的影响,因此内存地址固定,有助于 IO 读写
  • java 中的 DirectByteBuf 对象仅维护了此内存的虚引用,内存回收分成两步

    • DirectByteBuf 对象被垃圾回收,将虚引用加入引用队列
    • 通过专门线程访问引用队列,根据虚引用释放堆外内存
  • 减少了一次数据拷贝,用户态与内核态的切换次数没有减少

进一步优化:一次切换,拷贝三次(linux 2.1)

底层采用了 linux 2.1 后提供的 sendFile 方法,java 中对应着两个 channel 调用 transferTo/transferFrom 方法拷贝数据

transferTo/transferFrom 方法可以直接将数据发送到socket缓冲区(通过sendFile方法),不经过java

在这里插入图片描述

  1. java 调用 transferTo 方法后,要从 java 程序的用户态切换至内核态,使用 DMA将数据读入内核缓冲区,不会使用 cpu
  2. 数据从内核缓冲区传输到 socket 缓冲区,cpu 会参与拷贝
  3. 最后使用 DMA 将 socket 缓冲区的数据写入网卡,不会使用 cpu

可以看到

  • 只发生了一次用户态与内核态的切换
  • 数据拷贝了 3 次

进一步优化:一次切换,拷贝两次(linux 2.4)

有一种实现,可以直接将内核缓冲区的数据发送到网卡(网络设备),只是中间有一些少量的数据会写入socket缓冲区中
在这里插入图片描述

  1. java 调用 transferTo 方法后,要从 java 程序的用户态切换至内核态,使用 DMA将数据读入内核缓冲区,不会使用 cpu
  2. 只会将一些 offset 和 length 信息拷入 socket 缓冲区,几乎无消耗
  3. 使用 DMA 将 内核缓冲区的数据写入网卡,不会使用 cpu

整个过程仅只发生了一次用户态与内核态的切换,数据拷贝了 2 次

实现零拷贝(从文件传输的角度)

java中对应的transferTo方法,Linux中的sendFile方法都可以叫做零拷贝

零:指的是不用在java中间进行拷贝了

所谓的【零拷贝】,并不是真正无拷贝,而是在不会拷贝重复数据到 jvm 内存中,零拷贝的优点有

  • 更少的用户态与内核态的切换
  • 不利用 cpu 计算,减少 cpu 缓存伪共享
  • 零拷贝适合小文件传输

发表评论

表情:
评论列表 (有 0 条评论,142人围观)

还没有评论,来说两句吧...

相关阅读