通过线程池实现,每个SOCKET一个线程,性能很稳定,每秒种10个连接,服务器运行了3天没出现任何异常情况,散分!

解决方案 »

  1.   

    恩,我写了一个CRPSocket类,派生了一个CRPSelect类
    近期我打算完成事件模型和完成端口模型类
      

  2.   

    lihai   
    代码 发上来看看阿
      

  3.   

    客户端也可以用的,等我整理好再说,可以加我的MSN:winsock_1981@hotmail.com
      

  4.   

    可以发代码来研究一下吗??[email protected]
      

  5.   

    Per connect per thread?扩展性不是很好呢?可能你同一个Acceptor处理的连接并不多罢了.
      

  6.   

    gx ,可以发代码出来吗? 俺的[email protected].谢谢
      

  7.   

    谢谢楼主 也算我一份  [email protected]
      

  8.   

    偶不接分  偶接代码  也给我也发一份吧 [email protected]
      

  9.   

    我要哦  [email protected]
    谢谢楼猪
      

  10.   

    不错,我试图用模板把WinSock2所有模式统一起来呢。
      

  11.   

    可以共享的?学习学习[email protected]
      

  12.   

    那个我也想要哦,[email protected]
      

  13.   

    每个socket一个线程那还是select啊?用线程池可以避免线程创建销毁的开销。但也有其它弱点。
      

  14.   

    我想要代码看看,呵呵, 谢楼主了。
    [email protected]
      

  15.   

    接分,接代码!
    [email protected]
      

  16.   

    恭喜楼主,也给我发一份吧,谢谢
    [email protected]
      

  17.   

    [email protected]
    先谢过(=_=)
      

  18.   

    线程多的话,置换CPU时间片会不会成问题啊?
      

  19.   

    先谢了,给我发一份吧,[email protected]
      

  20.   

    线程过多切换会消耗CPU的……
      

  21.   

    一连接一线程,可伸缩性不好。建议用异步的做服务器。俺一个完成端口的,也写成ActiveX了。也很稳定。
      

  22.   

    接分,接代码!
    [email protected]
      

  23.   

    这样的封装实际用途不大的,线程开销太大了,就算先成封装得好,1000个线程系统就会崩溃了。我封装了两个CAsyncSocket(一个是Select->Event模型,另一个是完成端口模型),均完全兼容MFC的CAsyncSocket,通过了并发数千客户的测试,测试中,测试服务器CPU占用率未超过20%.
      

  24.   

    压力测试效果如何?server能否支持上千个client同时数据/视频传输?
      

  25.   

    真的很牛,分啊,代码啊, [email protected]
      

  26.   

    如果程序管理的连接数少用这个办法还不错,如果做P2P的应用,连接数可能高达上千,你岂不要创建上千个线程?呵呵,系统的负载多大啊
    不知你为何不使用一个线程管理64个SOCKET事件呢?这样线程数大大减少,性能和你那个也差不多
      

  27.   

    对于Select模型,我想一个线程一个Socket比较合适,但是Select模型要用来做服务器程序,有点不合适,我的这个封装类只适合做小型的服务器的程序,同时连接数控制在200左右比较合适
      

  28.   

    select +多线程 奇怪组合阿
      

  29.   

    我正在学习,能发一份给我吗?[email protected]
      

  30.   

    晚了...晚了....不过还是恭喜楼主.
    楼主看到了的话能给我传份代码吗?
    最近我也在看有关SELECT的东东
    [email protected]
    谢谢拉!