Hello! On Tue, Jun 18, 2013 at 12:54 AM, Zheng Ping wrote: > 我看到你好像也为lua-resty-http贡献了代码,lua-resty-http对于把请求分解成发送跨服务器的请求是相当有用的,我有个疑问,你怎么不把它集成进openresty中呢? 因为我一直都没有时间从社区挑选和打磨出一个我觉得满意的 lua-resty-http 库。事实上,社区中有多个 lua-resty-http 的实现。 Best regards, -agentzh
春哥好: 现在我们需要lua-resty-http做发起新的http的请求,就目前来看这个库能上生产环境么,这个库你不是满意 是否能上生产环境呢?你推荐使用lua-resty-http还是nginx内部的proxy_pass方式?在 2013年6月19日星期三 UTC+8上午2:42:09,agentzh写道:Hello! On Tue, Jun 18, 2013 at 12:54 AM, Zheng Ping wrote: > 我看到你好像也为lua-resty-http贡献了代码,lua-resty-http对于把请求分解成发送跨服务器的请求是相当有用的,我有个疑问,你怎么不把它集成进openresty中呢? 因为我一直都没有时间从社区挑选和打磨出一个我觉得满意的 lua-resty-http 库。事实上,社区中有多个 lua-resty-http 的实现。 Best regards, -agentzh --
春哥好: 现在我们需要lua-resty-http做发起新的http的请求,就目前来看这个库能上生产环境么,这个库你不是满意 是否能上生产环境呢?
你推荐使用lua-resty-http还是nginx内部的proxy_pass方式?
在 2013年6月19日星期三 UTC+8上午2:42:09,agentzh写道:Hello! On Tue, Jun 18, 2013 at 12:54 AM, Zheng Ping wrote: > 我看到你好像也为lua-resty-http贡献了代码,lua-resty-http对于把请求分解成发送跨服务器的请求是相当有用的,我有个疑问,你怎么不把它集成进openresty中呢? 因为我一直都没有时间从社区挑选和打磨出一个我觉得满意的 lua-resty-http 库。事实上,社区中有多个 lua-resty-http 的实现。 Best regards, -agentzh --
Hello在 2016年7月22日 下午6:31, <soae...@gmail.com>写道:春哥好: 现在我们需要lua-resty-http做发起新的http的请求,就目前来看这个库能上生产环境么,这个库你不是满意 是否能上生产环境呢?据我所知,目前所有开源的 lua-resty-http 都不是春哥写的,都属于 OpenResty 的第三方库我觉得很多是够生产标准的,比如:pintsized/lua-resty-http而然,其实我认为春哥的标准比生产标准更高,哈哈,个人理解 :) 你推荐使用lua-resty-http还是nginx内部的proxy_pass方式?看你的需求,如果你只需要一个简单代理,为什么不直接使用 proxy_pass 呢,还不用写代码不过,正如温总所言,lua-resty-http 更加灵活,看你要干什么了在 2013年6月19日星期三 UTC+8上午2:42:09,agentzh写道:Hello! On Tue, Jun 18, 2013 at 12:54 AM, Zheng Ping wrote: > 我看到你好像也为lua-resty-http贡献了代码,lua-resty-http对于把请求分解成发送跨服务器的请求是相当有用的,我有个疑问,你怎么不把它集成进openresty中呢? 因为我一直都没有时间从社区挑选和打磨出一个我觉得满意的 lua-resty-http 库。事实上,社区中有多个 lua-resty-http 的实现。 Best regards, -agentzh --
Hello! 2016-07-28 4:23 GMT-07:00 高岩: > lua-resty-http比proxy机制最大的弱势就在upstream和cosocket的差距,upstream有众多的策略,而cosocket的策略则略显单薄,也没有提供server管理,需要自己去管理和实现各种策略。。。 我们有现成的纯 Lua 的负载均长国策略库: https://github.com/agentzh/lua-resty-chash 感谢德江的贡献。德江貌似还有一个 round robin 的实现还没有公开? > 而且如果后端返回的response太大的话,用lua-resty-http也有内存使用上的风险,cpu消耗也会变大 > 如果使用 proxy_pass + ngx.location.capture(),其实内存消耗远比 lua-resty-http 高,即使后者也使用全缓冲模式。当然,James Hurst 的 lua-resty-http 库支持流式处理响应,所以此时内存效率会好非常多。 仅供参考。 Regards, -agentzh
Hello! 2016-07-28 4:23 GMT-07:00 高岩: > lua-resty-http比proxy机制最大的弱势就在upstream和cosocket的差距,upstream有众多的策略,而cosocket的策略则略显单薄,也没有提供server管理,需要自己去管理和实现各种策略。。。 我们有现成的纯 Lua 的负载均长国策略库: https://github.com/agentzh/lua-resty-chash 感谢德江的贡献。德江貌似还有一个 round robin 的实现还没有公开?
> 而且如果后端返回的response太大的话,用lua-resty-http也有内存使用上的风险,cpu消耗也会变大 > 如果使用 proxy_pass + ngx.location.capture(),其实内存消耗远比 lua-resty-http 高,即使后者也使用全缓冲模式。当然,James Hurst 的 lua-resty-http 库支持流式处理响应,所以此时内存效率会好非常多。 仅供参考。 Regards, -agentzh --
Hello! 2016-08-03 7:14 GMT-07:00 DeJiang Zhu: > > 报告春哥,round robin 我也提交在这个仓库了,虽然跟仓库名不搭 :) > 或许我们可以换个仓库名?比如 lua-resty-hash > hash 这个名字也不对,毕竟 round robin 也不算 hash. 干脆叫 lua-resty-balancer 好了 :) 后面还可以加 modulo hash 之类的 :) Regards, -agentzh