目录
4、ChannelOption.SO_SNDBUF和ChannelOption.SO_RCVBUF
一、基于netty创建udp服务端以及对应通道设置关键
@Configuration @RefreshScope public class NettyUdpServer { @Value("${netty.server.udpPort}") private int port; private EventLoopGroup bossGroup;//主线程 private Channel channel;//通道 private ChannelFuture future; //回调 @Autowired private DataCollector dataCollector;; public Channel start() throws InterruptedException { //判断是否支持Epoll模式,从而创建不同的线程组 bossGroup = Epoll.isAvailable()? new EpollEventLoopGroup() : new NioEventLoopGroup(); try { Bootstrap b = new Bootstrap(); //linux平台下增加SO_REUSEPORT特性提高性能,支持多个进程或者线程绑定到同一个端口,提高服务器程序的吞吐性能 if(Epoll.isAvailable()) { //设置反应器线程组 b.group(bossGroup) .handler(new EpollUdpServerInitializer(dataCollector)) //设置nio类型的通道 .channel(EpollDatagramChannel.class) .option(ChannelOption.SO_BROADCAST, true) .option(ChannelOption.SO_REUSEADDR, true) .option(ChannelOption.SO_RCVBUF, 1024 * 1024) .option(EpollChannelOption.SO_REUSEPORT, true); }else{ //设置反应器线程组 b.group(bossGroup) .handler(new UdpServerInitializer(dataCollector)) //设置nio类型的通道 .channel(NioDatagramChannel.class) //设置通道的参数 .option(ChannelOption.SO_BROADCAST, true) .option(ChannelOption.SO_REUSEADDR, true); } //Channel channel = server.bind(port).sync().channel(); //开始绑定服务器,通过调用sync()同步方法阻塞直到绑定成功 //ChannelFuture channelFuture = b.bind(port).sync(); //等待通道关闭的异步任务结束 //ChannelFuture closeFuture = channelFuture.channel().closeFuture(); //closeFuture.sync(); ChannelFuture f = b.bind(port).sync(); channel = f.channel(); if(f.isSuccess()){ //MasterSelector registry = new MasterSelector("","netty-services", port); System.out.println("UDP服务器启动,监听在端口:" + port); }else { channel.closeFuture().sync(); } } finally { //bossGroup.shutdownGracefully().sync(); } System.out.println("Udp服务器启动,监听在端口:"+port); return channel; } }
以上代码中Epoll.isAvailable()用户判断是window还是linux环境,linux环境默认采用Epoll相关通道,所以显式设置EpollDatagramChannel通道。在处理(handler)的设置中要根据不同的通道设置初始化的通道类型:
linux环境下EpollDatagramChannel通道设置 .handler(new EpollUdpServerInitializer(dataCollector))具体代码
public class EpollUdpServerInitializer extends ChannelInitializer<EpollDatagramChannel> { private final DataCollector dataCollector; public EpollUdpServerInitializer(DataCollector dataCollector) { this.dataCollector = dataCollector; } @Override protected void initChannel(EpollDatagramChannel epollDatagramChannel) throws Exception { epollDatagramChannel.pipeline() //添加netty空闲超时检查的支持 .addLast(new UdpServerHandler(dataCollector)); }
要使 通过服务器端通过EpollDatagramChannel通道发送数据,客户端能够正常接收到数据,下图中标红的泛型通道类要与服务器端设置的通道类一致
同意要支持Nio类型通道为NioDatagramChannel.class时,通道初始化为:
public class UdpServerInitializer extends ChannelInitializer<NioDatagramChannel> { private final DataCollector dataCollector; public UdpServerInitializer(DataCollector dataCollector) { this.dataCollector = dataCollector; } @Override protected void initChannel(NioDatagramChannel nioDatagramChannel) throws Exception { nioDatagramChannel.pipeline() //添加netty空闲超时检查的支持 .addLast(new UdpServerHandler(dataCollector)); } }
要使 通过服务器端通过NioDatagramChannel通道发送数据,客户端能够正常接收到数据,下图中标红的泛型通道类要与服务器端设置的通道类一致
二、发送数据
关键代码,采用writeAndFlush发送数据,注意:要发送udp数据报,
public class UdpServerHandler extends SimpleChannelInboundHandler<DatagramPacket> { /**设置最大消息大小*/ private static final int MAX_MESSAGE_SIZE = 2048; /**线程池*/ private ExecutorService executorService; private final DataCollector dataCollector; public UdpServerHandler(DataCollector dataCollector) { this.dataCollector = dataCollector; //根据当前系统可用的处理器数量创建一个固定长度的线程池 executorService = Executors.newFixedThreadPool(Runtime.getRuntime().availableProcessors()); } @Override protected void channelRead0(ChannelHandlerContext ctx, DatagramPacket datagramPacket) throws Exception { ByteBuf buffer = datagramPacket.content(); //确保不会超出最大消息大小 if(buffer.readableBytes() > MAX_MESSAGE_SIZE) { buffer.release(); return; } UdpDatagram udpDatagram = parseUdpDatagram(buffer); UdpDatagram respUdpDatagram = dataCollector.processUdpDatagram(udpDatagram); if (null != respUdpDatagram) { handleReceivedData(ctx, respUdpDatagram, datagramPacket); } } /** * 处理接收到的数据 * @param ctx * @param udpDatagram */ public void handleReceivedData(ChannelHandlerContext ctx, UdpDatagram udpDatagram, DatagramPacket datagramPacket) throws ExecutionException, InterruptedException { Channel channel = ctx.channel(); if (log.isInfoEnabled()) { log.info("received udp message: sessionId: {}, opCode: {}, short messageId: {}", ctx.channel().id(), udpDatagram.getMessageTypeEnum(), udpDatagram.getShortMessageId()); } byte[] payloadBytes = udpDatagram.getPayloadBytes(); ByteBuf copiedBuffer = Unpooled.copiedBuffer(payloadBytes); ChannelFuture channelFuture = channel.writeAndFlush(new DatagramPacket(copiedBuffer.retain(), datagramPacket.sender())); channelFuture.addListener(new ChannelFutureListener() { @Override public void operationComplete(ChannelFuture channelFuture) throws Exception { if (channelFuture.isSuccess()) { // 数据发送成功 log.info("数据发送成功:sender host: {}, sender port:{}, sender address:{}",datagramPacket.sender().getHostName(),datagramPacket.sender().getPort(), datagramPacket.sender().getAddress()); } else { // 数据发送失败 log.error("数据发送失败: {}",channelFuture.cause().getStackTrace()); channelFuture.cause().printStackTrace(); } } }); } @Override public void handlerAdded(ChannelHandlerContext ctx) throws Exception { dataCollector.tcpConnect(ctx.channel()); } @Override public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception { if (log.isWarnEnabled()) { log.warn("udp session throw an exception, sessionId:{} exception message: {}", ctx.channel().id().asLongText(), cause.getMessage()); } } //当客户端关闭链接时关闭通道 @Override public void handlerRemoved(ChannelHandlerContext ctx) throws Exception { dataCollector.tcpChannelDisconnect(ctx.channel()); } }
处理类继承SimpleChannelInboundHandler类泛型类为DatagramPacket
writeAndFlush方法中发送的数据类型要是DatagramPacket
三、netty中的ChannelOption常用参数说明
1、ChannelOption.SO_BACKLOG
ChannelOption.SO_BACKLOG对应的是tcp/ip协议listen函数中的backlog参数。函数listen(int socketfd, int backlog)用来初始化服务端可连接队列。
服务端处理客户端连接请求是顺序处理的,所以同一时间只能处理一个客户端连接,多个客户端来的时候,服务端将不能处理的客户端连接请求放在队列中等待处理,backlog参数指定了队列的大小。
2、ChannelOption.SO_REUSEADDR
ChanneOption.SO_REUSEADDR对应于套接字选项中的SO_REUSEADDR,这个参数表示允许重复使用本地地址和端口。
比如,某个服务器进程占用了TCP的80端口进行监听,此时再次监听该端口就会返回错误,使用该参数就可以解决问题,该参数允许共用该端口,这个在服务器程序中比较常使用。
比如某个进程非正常退出,该程序占用的端口可能要被占用一段时间才能允许其他进程使用,而且程序死掉以后,内核一需要一定的时间才能够释放此端口,不设置SO_REUSEADDR就无法正常使用该端口。
3、ChannelOption.SO_KEEPALIVE
Channeloption.SO_KEEPALIVE参数对应于套接字选项中的SO_KEEPALIVE,该参数用于设置TCP连接,当设置该选项以后,连接会测试链接的状态,这个选项用于可能长时间没有数据交流的连接。
当设置该选项以后,如果在两小时内没有数据的通信时,TCP会自动发送一个活动探测数据报文。
4、ChannelOption.SO_SNDBUF和ChannelOption.SO_RCVBUF
ChannelOption.SO_SNDBUF参数对应于套接字选项中的SO_SNDBUF,ChannelOption.SO_RCVBUF参数对应于套接字选项中的SO_RCVBUF这两个参数用于操作发送缓冲区大小和接受缓冲区大小。
接收缓冲区用于保存网络协议站内收到的数据,直到应用程序读取成功,发送缓冲区用于保存发送数据,直到发送成功。
5、ChannelOption.SO_LINGER
ChannelOption.SO_LINGER参数对应于套接字选项中的SO_LINGER,Linux内核默认的处理方式是当用户调用close()方法的时候,函数返回,在可能的情况下,尽量发送数据,不一定保证会发送剩余的数据,造成了数据的不确定性,使用SO_LINGER可以阻塞close()的调用时间,直到数据完全发送。
6、ChannelOption.TCP_NODELAY
ChannelOption.TCP_NODELAY参数对应于套接字选项中的TCP_NODELAY,该参数的使用与Nagle算法有关。
Nagle算法是将小的数据包组装为更大的帧然后进行发送,而不是输入一次发送一次,因此在数据包不足的时候会等待其他数据的到来,组装成大的数据包进行发送,虽然该算法有效提高了网络的有效负载,但是却造成了延时。
而该参数的作用就是禁止使用Nagle算法,使用于小数据即时传输。和TCP_NODELAY相对应的是TCP_CORK,该选项是需要等到发送的数据量最大的时候,一次性发送数据,适用于文件传输。
SO_BROADCAST | 对应套接字层的套接字:SO_BROADCAST,将消息发送到广播地址。 如果目标中指定的接口支持广播数据包,则启用此选项可让应用程序发送广播消息。 |
SO_KEEPALIVE | 对应套接字层的套接字:SO_KEEPALIVE,保持连接。 在空闲套接字上发送探测,以验证套接字是否仍处于活动状态。 |
SO_SNDBUF | 对应套接字层的套接字:SO_SNDBUF,设置发送缓冲区的大小。 |
SO_RCVBUF | 对应套接字层的套接字:SO_RCVBUF,获取接收缓冲区的大小。 |
SO_REUSEADDR | 对应套接字层的套接字:SO_REUSEADDR,本地地址复用。 启用此选项允许绑定已使用的本地地址。 |
SO_LINGER | 对应套接字层的套接字:SO_LINGER,延迟关闭连接。 启用此选项,在调用close时如果存在未发送的数据时,在close期间将阻止调用应用程序,直到数据被传输或连接超时。 |
SO_BACKLOG | 对应TCP/IP协议中<font color=red>backlog</font>参数,<font color=red>backlog</font>即连接队列,设置TCP中的连接队列大小。如果队列满了,会发送一个ECONNREFUSED错误信息给C端,即“ Connection refused”。 |
SO_TIMEOUT | 等待客户连接的超时时间。 |
IP_TOS | 对应套接字层的套接字:IP_TOS,在IP标头中设置服务类型(TOS)和优先级。 |
IP_MULTICAST_ADDR | 对应IP层的套接字选项:IP_MULTICAST_IF,设置应发送多播数据报的传出接口。 |
IP_MULTICAST_IF | 对应IP层的套接字选项:IP_MULTICAST_IF2,设置应发送多播数据报的IPV6传出接口。 |
IP_MULTICAST_TTL | 对应IP层的套接字选项:IP_MULTICAST_TTL,在传出的 多播数据报的IP头中设置生存时间(TTL)。 |
IP_MULTICAST_LOOP_DISABLED | 取消 指定应将 传出的多播数据报的副本 回传到发送主机,只要它是多播组的成员即可。 |
TCP_NODELAY | 对应TCP层的套接字选项:TCP_NODELAY,指定TCP是否遵循<font color=#35b998>Nagle算法</font> 决定何时发送数据。Nagle算法代表通过减少必须发送包的个数来增加网络软件系统的效率。即尽可能发送大块数据避免网络中充斥着大量的小数据块。如果要追求高实时性,需要设置关闭Nagle算法;如果需要追求减少网络交互次数,则设置开启Nagle算法。 |
ChannelOption通用配置
参数 | 说明 |
ALLOCATOR | ByteBuf的分配器,默认值为ByteBufAllocator.DEFAULT。 |
RCVBUF_ALLOCATOR | 用于Channel分配接受Buffer的分配器,默认值为AdaptiveRecvByteBufAllocator.DEFAULT,是一个自适应的接受缓冲区分配器,能根据接受到的数据自动调节大小。可选值为FixedRecvByteBufAllocator,固定大小的接受缓冲区分配器。 |
MESSAGE_SIZE_ESTIMATOR | 消息大小估算器,默认为DefaultMessageSizeEstimator.DEFAULT。估算ByteBuf、ByteBufHolder和FileRegion的大小,其中ByteBuf和ByteBufHolder为实际大小,FileRegion估算值为0。该值估算的字节数在计算水位时使用,FileRegion为0可知FileRegion不影响高低水位。 |
CONNECT_TIMEOUT_MILLIS | 连接超时毫秒数,默认值30000毫秒即30秒。 |
WRITE_SPIN_COUNT | 一个Loop写操作执行的最大次数,默认值为16。也就是说,对于大数据量的写操作至多进行16次,如果16次仍没有全部写完数据,此时会提交一个新的写任务给EventLoop,任务将在下次调度继续执行。这样,其他的写请求才能被响应不会因为单个大数据量写请求而耽误。 |
WRITE_BUFFER_WATER_MARK | |
ALLOW_HALF_CLOSURE | 一个连接的远端关闭时本地端是否关闭,默认值为False。值为False时,连接自动关闭;为True时,触发ChannelInboundHandler的userEventTriggered()方法,事件为ChannelInputShutdownEvent。 |
AUTO_READ | 自动读取,默认值为True。Netty只在必要的时候才设置关心相应的I/O事件。对于读操作,需要调用channel.read()设置关心的I/O事件为OP_READ,这样若有数据到达才能读取以供用户处理。该值为True时,每次读操作完毕后会自动调用channel.read(),从而有数据到达便能读取;否则,需要用户手动调用channel.read()。需要注意的是:当调用config.setAutoRead(boolean)方法时,如果状态由false变为true,将会调用channel.read()方法读取数据;由true变为false,将调用config.autoReadCleared()方法终止数据读取。 |