> openresty做反向代理, 客户端对openresty进行请求下载一个很大的文件, 然后openresty想分段对后端服务器请求,
> 比如请求一个100M的文件, openresty第一次向后端服务器请求10M, 然后和后端服务器断开连接, 慢慢的把数据传送到客户端,
> 传完之后, 在向后端服务器请求.
这样子岂不是要在proxy上面缓存这10M内容,proxy压力很大呀
On Jul 4, 1:07 am, agentzh <agen...@gmail.com> wrote:
> Hello!
>
> 2012/7/3 yong yu:
>
> > 如果我要实现一个这样的功能, 用openresty可以实现吗,
> > 实现的功能:
> > openresty做反向代理, 客户端对openresty进行请求下载一个很大的文件, 然后openresty想分段对后端服务器请求,
> > 比如请求一个100M的文件, openresty第一次向后端服务器请求10M, 然后和后端服务器断开连接, 慢慢的把数据传送到客户端,
> > 传完之后, 在向后端服务器请求.
>
> > 这个功能openresty可以实现吗
>
> 当然可以。具体做法是通过 ngx_lua 的 cosocket API 来访问后端服务器,同时使用 ngx.print(...) 和
> ngx.flush(true) 调用来做严格非缓冲的下游输出。可以参考官方文档中的这几节:
>
> http://wiki.nginx.org/HttpLuaModule#ngx.socket.tcp
> http://wiki.nginx.org/HttpLuaModule#ngx.print
> http://wiki.nginx.org/HttpLuaModule#ngx.flush
>
> Best regards,
> -agentzh
>
> P.S. 同时抄送给 openresty 邮件组:https://groups.google.com/group/openresty/欢迎你也加入这个邮件组。;