os x上的node.js socket.io服务器不能连接超过120个客户端
我正在编写socket.io-client node.js机器人应用程序,以测试也在节点下运行的基于socket.io的服务器应用程序的性能. 通常,服务器运行ubuntu linux,但我在本地开发机上也安装并配置了相同的服务器应用程序(node.js,nginx,socket.io). 如果启动bot-“ script”脚本并启动200个与服务器建立单独连接的bot,则对真正的服务器(linux服务器)也没有任何问题. 但是,如果我连接到基于本地os x的“服务器”,则无法真正超过120个连接. 我遇到了断开连接,陈旧的套接字以及断开/重新连接的无限循环的情况,在socket.io的标准设置下,完成连接(延迟的重新连接尝试)的时间将越来越长. 在这样的测试过程中,我的本地开发机几乎承受了0%的负载,因此它与内存或处理器无关. 我已经从第二台本地计算机上尝试了相同的bot脚本,以确保该问题与与服务器在同一台计算机上运行的bot无关.但是我也遇到同样的问题. 一旦我将bot脚本指向真正的服务器,我就没有任何问题. 当我处于出现问题的范围之内,即与超过120个客户端进行推送时,我尝试使用浏览器(真实的用户场景)访问我的本地开发服务器并刷新多次.有时我会收到“内部服务器500”. 让我认为也许这与nginx无关,与socket.io不相关?还是常规OS X(非服务器)计算机上的其他一些基本套接字限制? 最佳答案
我在发布此问题之前做了所有的谷歌搜索…..
3分钟后,我偶然发现了答案: 在终端中写:
我得到了答案:
所以我猜情况已经很封闭了. 一个只需在终端中写:
其中xyz是允许的连接数. 在这里找到答案: (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
- Nginx:重写文件的目录路径
- 通过https/SSL访问NGINX/PHP-FPM时速度极慢
- google-chrome – Chrome会忽略ETag标头,只使用内存缓存/
- ruby – Gitlab配置问题:: NGINX Unicorn端口冲突
- 在Nginx v.1.3.9中启用Chunked Transfer编码
- nginx – $request_uri后缀的变量,与位置块前缀不匹配
- php – Nginx重写或内部重定向循环,同时内部重定向到“/i
- nginx try_files处理两次,如果设置了错误回退,则会失败
- 如何为Nginx设置client_max_body_size动态
- json – 如何在proxy_pass中设置内容类型?