为什么一定要使用nginx发日志呢?
nginx只管写磁盘就好,
至于怎么发, 发到哪里去,不应该在nginx中做。
scribe, fluentd, flume这块东西已经比较成熟了。
On Tuesday, November 6, 2012 at 5:58 PM, 张伟 wrote:
log_by_lua 禁止了 Cosocket API functions (e.g., ngx.socket.tcp and ngx.req.socket)
只能考虑tengine的pipe-log了:
http://tengine.taobao.org/document/http_log.html在 2012年11月6日 上午9:44,
nikua...@gmail.com <niku...@gmail.com>写道:
我理解的scribe是和Hadoop一起做离线计算的,不能做在线实时计算,storm是twitter开源的实时计算框架,现在想能不能把openresty和storm结合起来,用
Lua来写日志提交给storm,然后在storm里分析、计算日志。
在 2012年11月5日星期一UTC+8下午8时40分05秒,张伟写道:
nginx + scribe
在 2012年11月5日 下午7:05,
nikua...@gmail.com <nikua...@gmail.com>写道:
如题,日志量很大,整个Nginx集群几十台机器可能一秒上万个请求,如何汇总这些日志到一个同一的地方做日志分析?
也就是需要一个实时的日志汇总模块分散到每个Nginx上,实时的将单台Nginx上的HTTP请求的日志发送到日志中心,然后日志中心做统一处理,
不知道openresty有没有现成的模型可以很容易的实现这个日志实时上报功能?
看了看淘宝的TimeTunnel是做实时日志收集和分析的,不知道能和Nginx很好的集成么?