当前位置: 首页 > news >正文

可以做外包的网站iis 建立默认网站

可以做外包的网站,iis 建立默认网站,网站后台上传软件,上海万户网络技术有限公司转载#xff1a;http://blog.csdn.net/hacker00011000/article/details/52160590 一、select、poll、epoll之间的区别总结[整理]   select#xff0c;poll#xff0c;epoll都是IO多路复用的机制。I/O多路复用就通过一种机制#xff0c;可以监视多个描述符#xff0c;一…转载http://blog.csdn.net/hacker00011000/article/details/52160590 一、select、poll、epoll之间的区别总结[整理]    selectpollepoll都是IO多路复用的机制。I/O多路复用就通过一种机制可以监视多个描述符一旦某个描述符就绪一般是读就绪或者写就绪能够通知程序进行相应的读写操作。但selectpollepoll本质上都是同步I/O因为他们都需要在读写事件就绪后自己负责进行读写也就是说这个读写过程是阻塞的而异步I/O则无需自己负责进行读写异步I/O的实现会负责把数据从内核拷贝到用户空间。关于这三种IO多路复用的用法前面三篇总结写的很清楚并用服务器回射echo程序进行了测试。连接如下所示 selecthttp://www.cnblogs.com/Anker/archive/2013/08/14/3258674.html pollhttp://www.cnblogs.com/Anker/archive/2013/08/15/3261006.html epollhttp://www.cnblogs.com/Anker/archive/2013/08/17/3263780.html 今天对这三种IO多路复用进行对比参考网上和书上面的资料整理如下 1、select实现 select的调用过程如下所示 1使用copy_from_user从用户空间拷贝fd_set到内核空间 2注册回调函数__pollwait 3遍历所有fd调用其对应的poll方法对于socket这个poll方法是sock_pollsock_poll根据情况会调用到tcp_poll,udp_poll或者datagram_poll 4以tcp_poll为例其核心实现就是__pollwait也就是上面注册的回调函数。 5__pollwait的主要工作就是把current当前进程挂到设备的等待队列中不同的设备有不同的等待队列对于tcp_poll来说其等待队列是sk-sk_sleep注意把进程挂到等待队列中并不代表进程已经睡眠了。在设备收到一条消息网络设备或填写完文件数据磁盘设备后会唤醒设备等待队列上睡眠的进程这时current便被唤醒了。 6poll方法返回时会返回一个描述读写操作是否就绪的mask掩码根据这个mask掩码给fd_set赋值。 7如果遍历完所有的fd还没有返回一个可读写的mask掩码则会调用schedule_timeout是调用select的进程也就是current进入睡眠。当设备驱动发生自身资源可读写后会唤醒其等待队列上睡眠的进程。如果超过一定的超时时间schedule_timeout指定还是没人唤醒则调用select的进程会重新被唤醒获得CPU进而重新遍历fd判断有没有就绪的fd。 8把fd_set从内核空间拷贝到用户空间。 总结 select的几大缺点 1每次调用select都需要把fd集合从用户态拷贝到内核态这个开销在fd很多时会很大 2同时每次调用select都需要在内核遍历传递进来的所有fd这个开销在fd很多时也很大 3select支持的文件描述符数量太小了默认是1024 2 poll实现 poll的实现和select非常相似只是描述fd集合的方式不同poll使用pollfd结构而不是select的fd_set结构其他的都差不多。 关于select和poll的实现分析可以参考下面几篇博文 http://blog.csdn.net/lizhiguo0532/article/details/6568964#comments http://blog.csdn.net/lizhiguo0532/article/details/6568968 http://blog.csdn.net/lizhiguo0532/article/details/6568969 http://www.ibm.com/developerworks/cn/linux/l-cn-edntwk/index.html?cadrs- http://linux.chinaunix.net/techdoc/net/2009/05/03/1109887.shtml 3、epoll epoll既然是对select和poll的改进就应该能避免上述的三个缺点。那epoll都是怎么解决的呢在此之前我们先看一下epoll和select和poll的调用接口上的不同select和poll都只提供了一个函数——select或者poll函数。而epoll提供了三个函数epoll_create,epoll_ctl和epoll_waitepoll_create是创建一个epoll句柄epoll_ctl是注册要监听的事件类型epoll_wait则是等待事件的产生。 对于第一个缺点epoll的解决方案在epoll_ctl函数中。每次注册新的事件到epoll句柄中时在epoll_ctl中指定EPOLL_CTL_ADD会把所有的fd拷贝进内核而不是在epoll_wait的时候重复拷贝。epoll保证了每个fd在整个过程中只会拷贝一次。 对于第二个缺点epoll的解决方案不像select或poll一样每次都把current轮流加入fd对应的设备等待队列中而只在epoll_ctl时把current挂一遍这一遍必不可少并为每个fd指定一个回调函数当设备就绪唤醒等待队列上的等待者时就会调用这个回调函数而这个回调函数会把就绪的fd加入一个就绪链表。epoll_wait的工作实际上就是在这个就绪链表中查看有没有就绪的fd利用schedule_timeout()实现睡一会判断一会的效果和select实现中的第7步是类似的。 对于第三个缺点epoll没有这个限制它所支持的FD上限是最大可以打开文件的数目这个数字一般远大于2048,举个例子,在1GB内存的机器上大约是10万左右具体数目可以cat /proc/sys/fs/file-max察看,一般来说这个数目和系统内存关系很大。 总结 1selectpoll实现需要自己不断轮询所有fd集合直到设备就绪期间可能要睡眠和唤醒多次交替。而epoll其实也需要调用epoll_wait不断轮询就绪链表期间也可能多次睡眠和唤醒交替但是它是设备就绪时调用回调函数把就绪fd放入就绪链表中并唤醒在epoll_wait中进入睡眠的进程。虽然都要睡眠和交替但是select和poll在“醒着”的时候要遍历整个fd集合而epoll在“醒着”的时候只要判断一下就绪链表是否为空就行了这节省了大量的CPU时间。这就是回调机制带来的性能提升。 2selectpoll每次调用都要把fd集合从用户态往内核态拷贝一次并且要把current往设备等待队列中挂一次而epoll只要一次拷贝而且把current往等待队列上挂也只挂一次在epoll_wait的开始注意这里的等待队列并不是设备等待队列只是一个epoll内部定义的等待队列。这也能节省不少的开销。 参考资料 http://www.cnblogs.com/apprentice89/archive/2013/05/09/3070051.html http://www.linuxidc.com/Linux/2012-05/59873p3.htm http://xingyunbaijunwei.blog.163.com/blog/static/76538067201241685556302/ http://blog.csdn.net/kkxgx/article/details/7717125 https://banu.com/blog/2/how-to-use-epoll-a-complete-example-in-c/epoll-example.c 二、epoll详解 前言  I/O多路复用有很多种实现。在linux上2.4内核前主要是select和poll自Linux 2.6内核正式引入epoll以来epoll已经成为了目前实现高性能网络服务器的必备技术。尽管他们的使用方法不尽相同但是本质上却没有什么区别。本文将重点探讨将放在EPOLL的实现与使用详解。  为什么会是EPOLL  1、select的缺陷  高并发的核心解决方案是1个线程处理所有连接的“等待消息准备好”这一点上epoll和select是无争议的。但select预估错误了一件事当数十万并发连接存在时可能每一毫秒只有数百个活跃的连接同时其余数十万连接在这一毫秒是非活跃的。select的使用方法是这样的 返回的活跃连接 select全部待监控的连接。 什么时候会调用select方法呢在你认为需要找出有报文到达的活跃连接时就应该调用。所以调用select在高并发时是会被频繁调用的。这样这个频繁调用的方法就很有必要看看它是否有效率因为它的轻微效率损失都会被“频繁”二字所放大。它有效率损失吗显而易见全部待监控连接是数以十万计的返回的只是数百个活跃连接这本身就是无效率的表现。被放大后就会发现处理并发上万个连接时select就完全力不从心了。 此外在Linux内核中select所用到的FD_SET是有限的即内核中有个参数__FD_SETSIZE定义了每个FD_SET的句柄个数。 /linux/posix_types.h: #define __FD_SETSIZE 102412 其次内核中实现 select是用轮询方法即每次检测都会遍历所有FD_SET中的句柄显然select函数执行时间与FD_SET中的句柄个数有一个比例关系即 select要检测的句柄数越多就会越费时。看到这里您可能要要问了你为什么不提poll笔者认为select与poll在内部机制方面并没有太大的差异。相比于select机制poll只是取消了最大监控文件描述符数限制并没有从根本上解决select存在的问题。 接下来我们看张图当并发连接为较小时select与epoll似乎并无多少差距。可是当并发连接上来以后select就显得力不从心了。  主流I/O复用机制的benchmark  2、epoll高效的奥秘  epoll精巧的使用了3个方法来实现select方法要做的事  新建epoll描述符epoll_create() epoll_ctrl(epoll描述符添加或者删除所有待监控的连接) 返回的活跃连接 epoll_wait epoll描述符 与select相比epoll分清了频繁调用和不频繁调用的操作。例如epoll_ctrl是不太频繁调用的而epoll_wait是非常频繁调用的。这时epoll_wait却几乎没有入参这比select的效率高出一大截而且它也不会随着并发连接的增加使得入参越发多起来导致内核执行效率下降。 笔者在这里不想过多贴出epoll的代码片段。如果大家有兴趣可以参考文末贴出的博文链接和Linux相关源码。 要深刻理解epoll首先得了解epoll的三大关键要素mmap、红黑树、链表  epoll是通过内核与用户空间mmap同一块内存实现的。mmap将用户空间的一块地址和内核空间的一块地址同时映射到相同的一块物理内存地址不管是用户空间还是内核空间都是虚拟地址最终要通过地址映射映射到物理地址使得这块物理内存对内核和对用户均可见减少用户态和内核态之间的数据交换。 epoll上就是相当减少了epoll监听的句柄从用户态copy到内核态内核可以直接看到epoll监听的句柄效率高。 红黑树将存储epoll所监听的套接字。上面mmap出来的内存如何保存epoll所监听的套接字必然也得有一套数据结构epoll在实现上采用红黑树去存储所有套接字当添加或者删除一个套接字时epoll_ctl都在红黑树上去处理红黑树本身插入和删除性能比较好时间复杂度O(lgN)。 下面几个关键数据结构的定义 struct epitem {struct rb_node rbn; //用于主结构管理的红黑树struct list_head rdllink; //事件就绪队列struct epitem *next; //用于主结构体中的链表struct epoll_filefd ffd; //每个fd生成的一个结构int nwait; struct list_head pwqlist; //poll等待队列struct eventpoll *ep; //该项属于哪个主结构体struct list_head fllink; //链接fd对应的file链表struct epoll_event event; //注册的感兴趣的事件,也就是用户空间的 } struct eventpoll {spin_lock_t lock; //对本数据结构的访问struct mutex mtx; //防止使用时被删除wait_queue_head_t wq; //sys_epoll_wait() 使用的等待队列wait_queue_head_t poll_wait; //file-poll()使用的等待队列struct list_head rdllist; //事件满足条件的链表struct rb_root rbr; //用于管理所有fd的红黑树struct epitem *ovflist; //将事件到达的fd进行链接起来发送至用户空间 }12345678910111213141516171819202122 3、添加以及返回事件 通过epoll_ctl函数添加进来的事件都会被放在红黑树的某个节点内所以重复添加是没有用的。当把事件添加进来的时候时候会完成关键的一步那就是该事件都会与相应的设备网卡驱动程序建立回调关系当相应的事件发生后就会调用这个回调函数该回调函数在内核中被称为ep_poll_callback,这个回调函数其实就所把这个事件添加到rdlist这个双向链表中。一旦有事件发生epoll就会将该事件添加到双向链表中。那么当我们调用epoll_wait时epoll_wait只需要检查rdlist双向链表中是否有存在注册的事件效率非常可观。这里也需要将发生了的事件复制到用户态内存中即可。 4、epoll_wait的工作流程 epoll_wait调用ep_poll当rdlist为空无就绪fd时挂起当前进程直到rdlist不空时进程才被唤醒。 文件fd状态改变buffer由不可读变为可读或由不可写变为可写导致相应fd上的回调函数ep_poll_callback()被调用。 ep_poll_callback将相应fd对应epitem加入rdlist导致rdlist不空进程被唤醒epoll_wait得以继续执行。 ep_events_transfer函数将rdlist中的epitem拷贝到txlist中并将rdlist清空。 ep_send_events函数很关键它扫描txlist中的每个epitem调用其关联fd对用的poll方法。此时对poll的调用仅仅是取得fd上较新的events防止之前events被更新之后将取得的events和相应的fd发送到用户空间封装在struct epoll_event从epoll_wait返回。 需要注意的是epoll并不是在所有的应用场景都会比select和poll高很多。尤其是当活动连接比较多的时候回调函数被触发得过于频繁的时候epoll的效率也会受到显著影响所以epoll特别适用于连接数量多但活动连接较少的情况。 5、epoll使用方式的注意点  5.1文件描述符的创建 #include sys/epoll.hint epoll_create ( int size );12 在epoll早期的实现中对于监控文件描述符的组织并不是使用红黑树而是hash表。这里的size实际上已经没有意义  5.2注册监控事件 #include sys/epoll.h int epoll_ctl ( int epfd, int op, int fd, struct epoll_event *event );12 函数说明 fd要操作的文件描述符 op指定操作类型 操作类型 EPOLL_CTL_ADD往事件表中注册fd上的事件 EPOLL_CTL_MOD修改fd上的注册事件 EPOLL_CTL_DEL删除fd上的注册事件 event指定事件它是epoll_event结构指针类型 epoll_event定义 struct epoll_event {__unit32_t events; // epoll事件epoll_data_t data; // 用户数据 };12345 结构体说明 events描述事件类型和poll支持的事件类型基本相同两个额外的事件EPOLLET和EPOLLONESHOT高效运作的关键 data成员存储用户数据 typedef union epoll_data {void* ptr; //指定与fd相关的用户数据int fd; //指定事件所从属的目标文件描述符uint32_t u32;uint64_t u64; } epoll_data_t;1234567 5.3epoll_wait函数 #include sys/epoll.h int epoll_wait ( int epfd, struct epoll_event* events, int maxevents, int timeout );12 返回成功时返回就绪的文件描述符的个数失败时返回-1并设置errno timeout指定epoll的超时时间单位是毫秒。当timeout为-1是epoll_wait调用将永远阻塞直到某个时间发生。当timeout为0时epoll_wait调用将立即返回。 maxevents指定最多监听多少个事件 events检测到事件将所有就绪的事件从内核事件表中复制到它的第二个参数events指向的数组中。 6、EPOLLONESHOT事件  使用场合 一个线程在读取完某个socket上的数据后开始处理这些数据而数据的处理过程中该socket又有新数据可读此时另外一个线程被唤醒来读取这些新的数据。 于是就出现了两个线程同时操作一个socket的局面。可以使用epoll的EPOLLONESHOT事件实现一个socket连接在任一时刻都被一个线程处理。 作用 对于注册了EPOLLONESHOT事件的文件描述符操作系统最多出发其上注册的一个可读可写或异常事件且只能触发一次。 使用 注册了EPOLLONESHOT事件的socket一旦被某个线程处理完毕该线程就应该立即重置这个socket上的EPOLLONESHOT事件以确保这个socket下一次可读时其EPOLLIN事件能被触发进而让其他工作线程有机会继续处理这个sockt。 效果 尽管一个socket在不同事件可能被不同的线程处理但同一时刻肯定只有一个线程在为它服务这就保证了连接的完整性从而避免了很多可能的竞态条件。 7、LT与ET模式  在这里笔者强烈推荐《彻底学会使用epoll》系列博文这是笔者看过的对epoll的ET和LT模式讲解最为详尽和易懂的博文。下面的实例均来自该系列博文。限于篇幅原因很多关键的细节不能完全摘录。  ******Code*******  Code1      Result1 当用户输入一组字符这组字符被送入buffer字符停留在buffer中又因为buffer由空变为不空所以ET返回读就绪输出”welcome to epoll’s world”。 之后程序再次执行epoll_wait此时虽然buffer中有内容可读但是根据我们上节的分析ET并不返回就绪导致epoll_wait阻塞。底层原因是ET下就绪fd的epitem只被放入rdlist一次。 用户再次输入一组字符导致buffer中的内容增多根据我们上节的分析这将导致fd状态的改变是对应的epitem再次加入rdlist从而使epoll_wait返回读就绪再次输出“Welcome to epoll’s world”。 接下来我们将上面程序的第11行做如下修改 ev.eventsEPOLLIN; //默认使用LT模式1 程序陷入死循环因为用户输入任意数据后数据被送入buffer且没有被读出所以LT模式下每次epoll_wait都认为buffer可读返回读就绪。导致每次都会输出”welcome to epoll’s world” Code2    Result2    本程序依然使用LT模式但是每次epoll_wait返回读就绪的时候我们都将buffer缓冲中的内容read出来所以导致buffer再次清空下次调用epoll_wait就会阻塞。所以能够实现我们所想要的功能——当用户从控制台有任何输入操作时输出”welcome to epoll’s world” Code3    Result3    程序依然使用ET但是每次读就绪后都主动的再次MOD IN事件我们发现程序再次出现死循环也就是每次返回读就绪。但是注意如果我们将MOD改为ADD将不会产生任何影响。别忘了每次ADD一个描述符都会在epitem组成的红黑树中添加一个项我们之前已经ADD过一次再次ADD将阻止添加所以在次调用ADD IN事件不会有任何影响。 Code4    Result4    这个程序的功能是只要标准输出写就绪就输出“welcome to epoll’s world”。我们发现这将是一个死循环。下面具体分析一下这个程序的执行过程  首先初始buffer为空buffer中有空间可写这时无论是ET还是LT都会将对应的epitem加入rdlist导致epoll_wait就返回写就绪。 程序想标准输出输出”welcome to epoll’s world”和换行符因为标准输出为控制台的时候缓冲是“行缓冲”,所以换行符导致buffer中的内容清空这就对应第二节中ET模式下写就绪的第二种情况——当有旧数据被发送走时即buffer中待写的内容变少得时候会触发fd状态的改变。所以下次epoll_wait会返回写就绪。如此循环往复。 Code5    Result5    与程序四相比程序五只是将输出语句的printf的换行符移除。我们看到程序成挂起状态。因为第一次epoll_wait返回写就绪后程序向标准输出的buffer中写入“welcome to epoll’s world”但是因为没有输出换行所以buffer中的内容一直存在下次epoll_wait的时候虽然有写空间但是ET模式下不再返回写就绪。回忆第一节关于ET的实现这种情况原因就是第一次buffer为空导致epitem加入rdlist返回一次就绪后移除此epitem之后虽然buffer仍然可写但是由于对应epitem已经不再rdlist中就不会对其就绪fd的events的在检测了。 Code6    Result6    程序六相对程序五仅仅是修改ET模式为默认的LT模式我们发现程序再次死循环。这时候原因已经很清楚了因为当向buffer写入”welcome to epoll’s world”后虽然buffer没有输出清空但是LT模式下只有buffer有写空间就返回写就绪所以会一直输出”welcome to epoll’s world”,当buffer满的时候buffer会自动刷清输出同样会造成epoll_wait返回写就绪。 Code7    Result7    程序七相对于程序五在每次向标准输出的buffer输出”welcome to epoll’s world”后重新MOD OUT事件。所以相当于每次都会返回就绪导致程序循环输出。 8、分析  经过前面的案例分析我们已经了解到当epoll工作在ET模式下时对于读操作如果read一次没有读尽buffer中的数据那么下次将得不到读就绪的通知造成buffer中已有的数据无机会读出除非有新的数据再次到达。对于写操作主要是因为ET模式下fd通常为非阻塞造成的一个问题——如何保证将用户要求写的数据写完。  要解决上述两个ET模式下的读写问题我们必须实现  对于读只要buffer中还有数据就一直读 对于写只要buffer还有空间且用户请求写的数据还未写完就一直写。 9、ET模式下的accept问题  请思考以下一种场景在某一时刻有多个连接同时到达服务器的 TCP 就绪队列瞬间积累多个就绪连接由于是边缘触发模式epoll 只会通知一次accept 只处理一个连接导致 TCP 就绪队列中剩下的连接都得不到处理。在这种情形下我们应该如何有效的处理呢  解决的方法是解决办法是用 while 循环抱住 accept 调用处理完 TCP 就绪队列中的所有连接后再退出循环。如何知道是否处理完就绪队列中的所有连接呢 accept 返回 -1 并且 errno 设置为 EAGAIN 就表示所有连接都处理完。  关于ET的accept问题这篇博文的参考价值很高如果有兴趣可以链接过去围观一下。 9.1、ET模式为什么要设置在非阻塞模式下工作  因为ET模式下的读写需要一直读或写直到出错对于读当读到的实际字节数小于请求字节数时就可以停止而如果你的文件描述符如果不是非阻塞的那这个一直读或一直写势必会在最后一次阻塞。这样就不能在阻塞在epoll_wait上了造成其他文件描述符的任务饿死。 10、小结  LT水平触发效率会低于ET触发尤其在大并发大流量的情况下。但是LT对代码编写要求比较低不容易出现问题。LT模式服务编写上的表现是只要有数据没有被获取内核就不断通知你因此不用担心事件丢失的情况。  ET边缘触发效率非常高在并发大流量的情况下会比LT少很多epoll的系统调用因此效率高。但是对编程要求高需要细致的处理每个请求否则容易发生丢失事件的情况。  从本质上讲与LT相比ET模型是通过减少系统调用来达到提高并行效率的。  epoll使用的梳理与总结到这里就告一段落了。限于篇幅原因很多细节都被略过了。后面参考给出的链接强烈推荐阅读。疏谬之处万望斧正
http://www.huolong8.cn/news/348826/

相关文章:

  • 网站引导页案例值得关注的网站
  • 网站建设需要多长时间账户竞价托管公司
  • 赣榆区住房和城乡建设局网站简单大方的网站
  • 怎么在360自己做网站吗wordpress 无法创建目录
  • 跨境电商一件代发货源平台没有网站怎么做排名优化
  • 做网站和编程上海网站建设明细表
  • 珲春网站建设网站备案 接入商
  • 怎样建设好网站做微商做什么网站比较好
  • 泉州市网站制作企业分享几款做淘客网站的服务器
  • 免费制作主图的网站wordpress 如何调试
  • 网站整体建设方案论文电子政务网站建设法律法规
  • 课程网站开发开题报告临沧市住房和城乡建设局网站
  • 商务网站建设报告书先进的网站设计公司
  • 怎样做国外能看到的网站网站怎么注册域名
  • 网站可以做多少个网页通州网站建设站开发评价
  • 建设网站网站企业做金融资讯用什么网站程序
  • 广东专业移动网站服务商赣州网红打卡旅游景点
  • 公交公司网站建设的意义安徽网络优化方案
  • 怎样进入网站的后台平面设计素材网站有哪些
  • 平顶山建设网站网站备案怎么更改吗
  • 做网站 用什么语言好科技教育司
  • 揭阳网站建设工作比较好的网站公司吗
  • 管理网站用什么系统好织梦网站创建商品栏目
  • 网站链接跳转怎么做广州做外贸网站建设
  • 设计比较好的网站网络科技公司简介模板
  • 儿童网站html模板电子商务网站建设的盈利模式
  • 怎样接做网站的活百度推广营销中心
  • 服装类的网站建设俄罗斯局势最新消息
  • 重庆网站建设兼职厦门市建设局网站
  • 怎么介绍自己做的企业网站页面Wordpress网站调用代码