在阅读游戏底层的common库代码时,发现其对Epoll的使用方式有点没看明白

int nCount = m_oEpollCtrl.Wait(2);
if(nCount == -1)
{
	if(errno == EINTR) return;

	//Error, notify logical layer
	GetNetWork()->GetNetEvtMgr().WriteErrorEvt(NET_SYS_ERROR, errno);
	return;
}
if(nCount == 0) return; 
for(int i = 0; i < nCount; ++i)
{
	epoll_event* poEvent = m_oEpollCtrl.GetEvent(i);
	assert(poEvent != NULL);
	if(poEvent == NULL) continue;

    // 不明白代码为什么在这里直接转换
	EpollData* poData = static_cast<EpollData*>(poEvent->data.ptr);

代码里面直接对 ptr 进行了转换,而EpollData是我们自己定义的结构,当时不明白为什么可以这样直接转换?

// linux 系统下对 epoll_data 和 epoll_event 的定义
typedef union epoll_data {
    void *ptr;
    int fd;
    __uint32_t u32;
    __uint64_t u64;
} epoll_data_t;

struct epoll_event {
    __uint32_t events; /* Epoll events */
    epoll_data_t data; /* User data variable */
};

于是查看了下资料,也查看了网上博客上很多人写的代码例子,Epoll的接口非常简单,就三个接口

1、 int epoll_create(int size);
创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大。这个参数不同于select()中的第一个参数,给出最大监听的fd+1的值。需要注意的是,当创建好epoll句柄后,它就是会占用一个fd值,在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close()关闭,否则可能导致fd被耗尽。

2、int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
epoll的事件注册函数,它不同与select()是在监听事件时告诉内核要监听什么类型的事件,而是在这里先注册要监听的事件类型。第一个参数是epoll_create()的返回值,第二个参数表示动作,用三个宏来表示: EPOLL_CTL_ADD:注册新的fd到epfd中; EPOLL_CTL_MOD:修改已经注册的fd的监听事件; EPOLL_CTL_DEL:从epfd中删除一个fd; 第三个参数是需要监听的fd,第四个参数是告诉内核需要监听什么事,struct

3、int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
等待事件的产生,类似于select()调用。参数events用来从内核得到事件的集合,maxevents告之内核这个events有多大,这个 maxevents的值不能大于创建epoll_create()时的size,参数timeout是超时时间(毫秒,0会立即返回,-1将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回0表示已超时。

for( ; ; )
{
    nfds = epoll_wait(epfd,events,20,500);
    for(i=0;i<nfds;++i)
    {
        if(events[i].data.fd==listenfd) //有新的连接
        {
            connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen); //accept这个连接
            ev.data.fd=connfd;
            ev.events=EPOLLIN|EPOLLET;
            epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev); //将新的fd添加到epoll的监听队列中
        }
        else if( events[i].events&EPOLLIN ) //接收到数据,读socket
        {
            n = read(sockfd, line, MAXLINE)) < 0    //读
            ev.data.ptr = md;     //md为自定义类型,添加数据
            ev.events=EPOLLOUT|EPOLLET;
            epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);//修改标识符,等待下一个循环时发送数据,异步处理的精髓
        }
        else if(events[i].events&EPOLLOUT) //有数据待发送,写socket
        {
            struct myepoll_data* md = (myepoll_data*)events[i].data.ptr;    //取数据
            sockfd = md->fd;
            send( sockfd, md->ptr, strlen((char*)md->ptr), 0 );        //发送数据
            ev.data.fd=sockfd;
            ev.events=EPOLLIN|EPOLLET;
            epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev); //修改标识符,等待下一个循环时接收数据
        }
        else
        {
            //其他的处理
        }
    }
}

// 这个是epoll里面的ev
epoll_event ev; 

ev.data 是一个 union,fd 和 ptr 不能够同时使用
在epoll_ctl 的时候,会把 ev 带进去,
epoll_wait 的时候,会把 ev 带进去的ev带出来,

在我们的项目里面,没有使用 data 结构里面的 fd, 
而是把 每一个 socket class 类的this指针给了 ptr,这样在收到信息的时候,可以直接对类对象进行直接的操作。

具体的优势,我觉得可能也就是省去了去查找类对象的时间吧