• <em id="6vhwh"><rt id="6vhwh"></rt></em>

    <style id="6vhwh"></style>

    <style id="6vhwh"></style>
    1. <style id="6vhwh"></style>
        <sub id="6vhwh"><p id="6vhwh"></p></sub>
        <p id="6vhwh"></p>
          1. 国产亚洲欧洲av综合一区二区三区 ,色爱综合另类图片av,亚洲av免费成人在线,久久热在线视频精品视频,成在人线av无码免费,国产精品一区二区久久毛片,亚洲精品成人片在线观看精品字幕 ,久久亚洲精品成人av秋霞

            sojson(sojson測速)

            更新時間:2023-03-02 08:35:55 閱讀: 評論:0

            閱讀目錄

            設計思路如下ELK的工作流程elasticarch的安裝elasticarch的問題elasticarch的概念elasticarch的操作方法elasticarch-head的安裝語言設置安裝配置查詢語法kibana創建索引模式(手動)kibana創建索引模式(自動)ELK 索引生命周期管理問題解決Kibana rver is not ready yet出現的原因kibana可以做哪些分析logstash和filebeat的對比自動創建elasticarch的索引關于grok語法問題解決前言

            起源許多年前,一個剛結婚的名叫 Shay Banon 的失業開發者,跟著他的妻子去了倫敦,他的妻子在那里學習廚師。 在尋找一個賺錢的工作的時候,為了給他的妻子做一個食譜搜索引擎,他開始使用 Lucene 的一個早期版本。直接使用 Lucene 是很難的,因此 Shay 開始做一個抽象層,Java 開發者使用它可以很簡單的給他們的程序添加搜索功能。 他發布了他的第一個開源項目 Compass。后來 Shay 獲得了一份工作,主要是高性能,分布式環境下的內存數據網格。這個對于高性能,實時,分布式搜索引擎的需求尤為突出, 他決定重寫 Compass,把它變為一個獨立的服務并取名 Elasticarch。第一個公開版本在2010年2月發布,從此以后,Elasticarch 已經成為了 Github 上最活躍的項目之一,他擁有超過300名 contributors(目前736名 contributors )。 一家公司已經開始圍繞 Elasticarch 提供商業服務,并開發新的特性,但是,Elasticarch 將永遠開源并對所有人可用。據說,Shay 的妻子還在等著她的食譜搜索引擎…?

            設計思路如下

            有3臺機器

            2臺做elasticarch的主副節點

            1臺做kibana和elasticarch_head 由于機器匱乏我還在這臺機器上部署了logstash和nginx服務(雖然下面的架構中都提到了redis等緩存,但是暫時沒有加該服務,后期會研究添加上的)

            先說目的:將nginx的日志通過logstash收集后發送到ela,然后kibana進行展示

            環境如下elasticarch master 10.5.2.175:9200elasticarch salve 10.5.2.176:9200logstash 172.17.211.153 啟動命令: nohup /usr/local/logstash/bin/logstash -f /usr/local/logstash/config/agent.conf -w 10 -l /usr/local/logstash/logs/logstash-plain.log &nginx es-head: 172.16.211.143:9100kibana: 172.16.211.143:5601

            架構如下:

            加redis/kafa的原因:在生產環境中,我們的日志可能會有瞬時高峰,而這個時候如果直接存入es,可能會導致es承受不住,從而影響日志的收集和查詢。

            一般情況下,我們會將日志存直接放到kafka或者redis這種讀寫性能非常高的應用中,作為一個緩存,然后通過下游組件(例如logstash)進行消費、過濾后存入ES,然后通過可視化界面查看。

            ELK的工作流程logstash客戶端收集到日志后將日志存入到redis之類的緩存中Logstash_rver將數據從redis中提取出來并根據/usr/local/logstash/patterns下的文件(文件名隨意取)這里叫grok-patterns里面根據不同的日志,比如apache、nginx服務規定的不同格式來進行切割,切割完畢后將日志存入到elastaicarch中,格式里面的key vlaue值就是els中的字段和值elastaicarch對logstash_rver發送過來的值進行集群保存,提供被調用接口以及快速的搜索服務(這里還可以安裝分詞插件,當做搜索引擎)kibana對es根據條件進行搜索并對搜索到的數據進行展示,使我們看起來更加直觀。一、elasticarch

            Elasticarch 是一個開源的搜索引擎,建立在一個全文搜索引擎庫 Apache Lucene? 基礎之上。 Lucene 可以說是當下最先進、高性能、全功能的搜索引擎庫—無論是開源還是私有。

            中文文檔https://www.elastic.co/guide/cn/elasticarch/guide/current/intro.html#intro

            elasticarch的安裝

            具體安裝可以參考https://www.cnblogs.com/yanjieli/p/11187430.html這個教程,這里直說下配置和思路,首先懂思路,安裝看教程就行。

            需要有jdk環境vim /etc/elasticarch/jvm.options2g2g1.vim /etc/elasticarch/elasticarch.ymlhttp.port: 9200discovery.zen.ping.unicast.hosts: ["10.5.2.175","10.5.2.176"]network.host: 10.5.2.1752.vim /etc/systemd/system.confDefaultLimitNOFILE=65536DefaultLimitNPROC=32000DefaultLimitMEMLOCK=infinity3.vim /etc/curity/limits.conf* soft nofile 65536* hard nofile 65536* soft nproc 32000* hard nproc 32000* hard memlock unlimited* soft memlock unlimited4.vim /etc/sysconfig/elasticarchJAVA_HOME=/usr/java/jdk1.8.0_1515.vim /usr/lib/systemd/system/elasticarch.rvice[Service]LimitMEMLOCK=infinityelasticarch的問題

            啟動elasticarch失敗,報找不到JAVA環境,可明明系統是有的 解決方法如下:

            vim /etc/sysconfig/elasticarchJAVA_HOME=/usr/java/jdk1.8.0_151elasticarch的概念

            index 索引 相當于數據庫里的“數據庫” 他是我們存儲和索引關聯數據的地方

            type 類數據 將一類的數據放到一起 相當于數據庫中的“表”

            id 相當于數據庫表中的一行

            Elastic 本質上是一個分布式數據庫,允許多臺服務器協同工作,每臺服務器可以運行多個 Elastic 實例。單個 Elastic 實例稱為一個節點(node)。一組節點構成一個集群(cluster)。Elastic 會索引所有字段,經過處理后寫入一個反向索引(Inverted Index)。查找數據的時候,直接查找該索引。倒排索引(反向索引)原始文檔創建倒排索引列表倒排索引創建索引的流程:1) 首先把所有的原始數據進行編號,形成文檔列表2) 把文檔數據進行分詞,得到很多的詞條,以詞條為索引。保存包含這些詞條的文檔的編號信息。搜索的過程:當用戶輸入任意的詞條時,首先對用戶輸入的數據進行分詞,得到用戶要搜索的所有詞條,然后拿著這些詞條去倒排索引列表中進行匹配。找到這些詞條就能找到包含這些詞條的所有文檔的編號。然后根據這些編號去文檔列表中找到文檔所以,Elastic 數據管理的頂層單位就叫做 Index(索引)。它是單個數據庫的同義詞。每個 Index (即數據庫)的名字必須是小寫。

            下面的命令可以查看當前節點的所有 Index。

            $ curl -X GET 'http://localhost:9200/_cat/indices?v

            index 索引 相當于數據庫里的“數據庫” 他是我們存儲和索引關聯數據的地方

            type 類數據 將一類的數據放到一起 相當于數據庫中的“表”

            id 相當于數據庫表中的一行

            pertty 在網頁中格式化輸出響應內容

            elasticarch的操作方法

            官方教程在這里,我覺得這個更加實用官方教程 https://www.cnblogs.com/chuyuan/p/11380744.html

            # 增加http://10.5.103.176:9200/databa1/table1 { "name": "doudou", "age": 4.5, "weight": 20,}# 查詢# 以上方法是正確的但是再增加一個table2的是否發生如下報錯http://10.5.103.176:9200/databa1/table2{ "name": "dianche1", "weight": 1000}原因是elastic arch在6.x版本調整了, 一個index只能存儲一種type。

            GET /atguigu/_mapping1. 檢索文檔Mysql : lect * from ur where id = 1ES : GET /atguigu/doc/1響應結果{ "_index" : "megacorp", "_type" : "employee", "_id" : "1", "_version" : 1, "found" : true, "_source" : { "first_name" : "John", "last_name" : "Smith", "age" : 25, "about" : "I love to go rock climbing", "interests": [ "sports", "music" ] }}2.簡單檢索Mysql : lect * from urES : GET /megacorp/employee/_arch3.全文檢索ES : GET /megacorp/employee/_arch?q=haha查詢出所有文檔字段值為haha的文檔4.搜索(模糊查詢)ES : GET /megacorp/employee/_arch?q=hello查詢出所有文檔字段值分詞后包含hello的文檔5.聚合PUT atguigu/_mapping/doc{ "properties": { "interests": { "type": "text", "fielddata": true } }}elasticarch-head的安裝

            ealsticarch只是后端提供各種api,那么怎么直觀的使用它呢?elasticarch-head將是一款專門針對于elasticarch的客戶端工具,是es的集群管理工具、數據可視化、增刪改查工具。相關詳細的教程在這里1 https://www.sojson.com/blog/85.html2 https://www.cnblogs.com/xuwenjin/p/8792919.html3 https://blog.csdn.net/huwei2003/article/details/40581143

            一、下載head插件https://github.com/mobz/elasticarch-head二、解壓到任意目錄注意:為避免找不到,一定要和elasticarch的安裝目錄區分開三、安裝Node.js因為head是一個Node.js項目。所以,如果沒有安裝nodejs需要先安裝Node.js32位安裝包下載地址: https://nodejs.org/dist/v4.4.3/node-v4.4.3-x86.tar.gz64位安裝包下載地址: https://nodejs.org/dist/v4.4.3/node-v4.4.3-x64.tar.gz檢測PATH環境變量是否配置了Node.js,打開命令行輸入命令"which npm",輸出如下結果:/usr/bin/npmwget https://nodejs.org/dist/latest-v8.x/node-v8.16.0.tar.gztar xf node-v8.16.0.tar.gzcd node-v8.16.0./configure --prefix=/usr/local/node-v8.16make -j 8 && make install添加環境變量vim /etc/profile################nodejs###############export NODE_HOME=/usr/local/node-v8.16export PATH=$PATH:$NODE_HOME/binsource /etc/profilenode -vv8.16.0npm -v6.4.1四、安裝npm yum install npm -y五、es-head安裝:解壓源碼包:elasticarch-head.tar.gz啟動:cd /usr/local/src/elasticarch-headnpm run start &訪問地址是http://{你的ip地址}:9200/_plugin/head/在瀏覽器中輸入:這臺機器的ip+端口http://10.5.2.220:9100/

            問題解決:在elasticarch中沒有當天的索引

            頭一天使用過的bj日志第二天無法收集到,原因是昨天logstash已經收集過一遍,就被打過了標簽,今天再使用的話,如果這個日志是不再增加的就不會被收集,因為日志中沒有新的內容進來,解決方法如下:

            在logstash的config文件下的agent.conf加入以下配置start_position =>"beginning"#檢查時間戳二、kibana語言設置

            vim config/kibana.ymli18n.locale: "en" 或者zh-CN中文systemctl restart kibana重啟即可安裝配置

            重新加載systemctl配置,這個是針對centos7以上使用systemctl kibana restart命令的

            systemctl daemon-reload

            這里由于是二進制的安裝方法,所以要設置一個systemctl start kibana.rvice的啟動方法

            1. vim /usr/lib/systemd/system/kibana.rvice添加以下內容[Unit]Description=KibanaAfter=network.target[Service]ExecStart=/usr/local/kibana/bin/kibanaType=simplePIDFile=/usr/local/kibana/kibana.pidRestart=always#Ur=es 這里我直接使用root用戶進行啟動#Group=es[Install]WantedBy=default.target2. 重新加載一下配置文件systemctl daemon-reload3. 啟動systemctl start kibana.rvice4. 訪問測試http://10.5.2.220:5601查詢語法

            參考地址1 參考地址2 參考地址3https://blog.csdn.net/u013958257/article/details/88567581

            kibana查詢語法基于Lucene

            Lucene是apache軟件基金會4 jakarta項目組的一個子項目,是一個開放源代碼的全文檢索引擎工具包,但它不是一個完整的全文檢索引擎,而是一個全文檢索引擎的架構,提供了完整的查詢引擎和索引引擎,部分文本分析引擎(英文與德文兩種西方語言)。Lucene的目的是為軟件開發人員提供一個簡單易用的工具包,以方便的在目標系統中實現全文檢索的功能,或者是以此為基礎建立起完整的全文檢索引擎。Lucene是一套用于全文檢索和搜尋的開源程式庫,由Apache軟件基金會支持和提供。Lucene提供了一個簡單卻強大的應用程式接口,能夠做全文索引和搜尋。在Java開發環境里Lucene是一個成熟的免費開源工具。就其本身而言,Lucene是當前以及最近幾年最受歡迎的免費Java信息檢索程序庫。人們經常提到信息檢索程序庫,雖然與搜索引擎有關,但不應該將信息檢索程序庫與搜索引擎相混淆。Lucene最初是由Doug Cutting開發的,在SourceForge的網站上提供下載。在2001年9月作為高質量的開源Java產品加入到Apache軟件基金會的 Jakarta家族中

            kibana在ELK陣營中用來查詢展示數據elasticarch構建在Lucene之上,過濾器語法和Lucene相同

            1. 根據某個字段查詢精確匹配: agent:"Mozilla/5.0"如果不帶雙引號,只要包含指定值就可以搜索到 agent:Mozilla/5.0如果是數值類型沒有以上區別2. 數組范圍查詢[7758794 TO 7758794] 表示等于,原意思是一個區間范圍指定區間: respon:[100 TO 200]大于等于指定數值的: respon:[201 TO *]小于等于指定數值的: respon:[* TO 200]3. 從指定時間到現在/或者查詢指定時間前數據2015-05-20T09:20:41.943Z之后的數據: @timestamp:{2015-05-20T09:20:41.943Z TO *}2015-05-20T09:20:41.943Z之前的數據: @timestamp:{* TO 2015-05-20T09:20:41.943Z }指定時間范圍: @timestamp:{2015-05-20T09:20:41.943Z TO 015-05-22T09:20:41.943Z}備注:09:20:41事實上是17:20:41,存在8個小時差4. 正則匹配包含指定值: request:/uploads*/不包含指定值: !request:/uploads*/5. 邏輯查詢AND(與關系數據庫一樣) request:/uploads*/ AND respon:404OR(與關系數據庫一樣) request:/uploads*/ OR respon:200組合查詢: (uid OR token) AND version6. 存在/不存在存在host字段但不存在url字段: _exists_:host AND _missing_:url特殊轉義字符+ – && || ! () {} [] ^” ~ * ? : kibana創建索引模式(手動)

            https://blog.csdn.net/weixin_34727238/article/details/81540692

            當在els中有了當天的索引,就可以到kibana中取創建索引模式了,只是這里提供了一手動創建的方式,無法自動進行,需要本地定義腳本的方式進行自動索引的創建。

            等所有索引都創建完畢后,在下面就能看到了

            然后在下面這個里面就能看到我們的索引里面的數據情況了,前提是你的logstash成功將切割后的日志發送到了els中

            否則就是以下這種的

            kibana創建索引模式(自動)

            由于logstash客戶端運行的問題,只要有當天日志產生,就會將該日志發送給elasticarch,然后會在elasticarch里面產生一個新的索引

            方法如下:

            在kibana節點上寫一個腳本,然后設置定時任務執行kibana中索引與elasticarch的關聯vim /usr/local/scripts/kibana_create_index.sh#!/bin/bashtoday=`date +%Y-%m-%d`index_name="nginx-log-${today}.log"curl -X POST -H "kbn-xsrf:reporting" -H "Content-Type: application/json" -d '{"attributes":{"title":"'$log_name'"}}' 'http://172.16.211.143:5601/api/saved_objects/index-pattern'這里遇到一個問題,json中調用變量的問題,一直調用不到,后來各種查詢原來是格式不對json數據里變量要用''括起來<font color=gray size=72>color=gray</font>

            json數據里變量要用''括起來https://www.cnblogs.com/landhu/p/7048255.html

            ELK 索引生命周期管理問題解決Kibana rver is not ready yet出現的原因

            第一點:KB、ES版本不一致(網上大部分都是這么說的)

            解決方法:把KB和ES版本調整為統一版本

            第二點:kibana.yml中配置有問題(通過查看日志,發現了Error: No Living connections的問題)

            解決方法:將配置文件kibana.yml中的elasticarch.url改為正確的鏈接,默認為: http://elasticarch:9200

            改為http://自己的IP地址:9200

            第三點:瀏覽器沒有緩過來

            解決方法:刷新幾次瀏覽器。

            終極解決方法:在elasticarch中刪除kibana的相關索引,只是再打開kibana看不到其他了之前創建的圖形什么的了

            kibana可以做哪些分析

            分析的必要性:頂級

            用戶分布PV、UV狀態碼訪問時間

            更多圖形看這里https://www.cnblogs.com/hanyifeng/p/5860731.html

            比較牛逼一點的教程看這里https://www.bilibili.com/video/BV1TE411A77i?p=6

            三、logstashlogstash和filebeat的對比

            Filebeat是收集日志的另外一種方式,二者區別在于以下

            Filebeat用于日志收集和傳輸,相比Logstash更加輕量級和易部署,對系統資源開銷更小,日志流架構的話,Filebeat適合部署在收集的最前端,Logstash相比Filebeat功能更強,可以在Filebeat收集之后,由Logstash進一步做日志的解析,至于kafka也可以考慮添加,然后收集的數據都存放在elasticarch中。

            logstash和filebeat都是可以作為日志采集的工具,目前日志采集的工具有很多種,如fluentd, flume, logstash,betas等等。甚至最后我決定用filebeat作為日志采集端工具的時候,還有人問我為什么不用flume,logstash等采集工具。logstash出現時間要比filebeat早許多,隨著時間發展,logstash不僅僅是一個日志采集工具,它也是可以作為一個日志搜集工具,有豐富的input|filter|output插件可以使用。常用的ELK日志采集方案中,大部分的做法就是將所有節點的日志內容上送到kafka消息隊列,然后使用logstash集群讀取消息隊列內容,根據配置文件進行過濾。上送到elasticarch。logstash詳細信息可前往https://www.elastic.co/logstash是使用Java編寫,插件是使用jruby編寫,對機器的資源要求會比較高,網上有一篇關于其性能測試的報告。之前自己也做過和filebeat的測試對比。在采集日志方面,對CPU,內存上都要比前者高很多。LogStash::Inputs::Syslog 性能測試與優化filebeat也是elastic.公司開發的,其官方的說法是為了替代logstash-forward。采用go語言開發。代碼開源。elastic/beats filebeat是beats的一個文件采集工具,目前其官方基于libbeats平臺開發的還有Packetbeat, Metricbeat, Winlogbeat。filebeat性能非常好,部署簡單。是一個非常理想的文件采集工具。我自己采集工具也是基于beats源碼進行的二次開發。

            https://blog.csdn.net/m0_38120325/article/details/79072921

            自動創建elasticarch的索引

            在logstash客戶端的配置文件中會有這么一個配置文件

            就是會將日志發送到當天日期的索引匯總,沒有的話自動創建索引,我們只需要做的就是每日刪除舊的索引。

            電子書教程推薦:http://doc.yonyoucloud.com/doc/logstash-best-practice-cn/get_start/introduction.html

            啟動方法 基于最基礎的 nohup 方式nohup /usr/local/logstash/bin/logstash -f /usr/local/logstash/conf/agent.conf &> /dev/null也可以用daemontools來進行管理安裝yum -y install supervisord --enablerepo=epel在 /etc/supervisord.conf 配置文件里添加內容,定義你要啟動的程序:[program:elkpro_1]environment=LS_HEAP_SIZE=5000mdirectory=/opt/logstashcommand=/opt/logstash/bin/logstash -f /etc/logstash/pro1.conf --pluginpath /opt/logstash/plugins/ -w 10 -l /var/log/logstash/pro1.log[program:elkpro_2]environment=LS_HEAP_SIZE=5000mdirectory=/opt/logstashcommand=/opt/logstash/bin/logstash -f /etc/logstash/pro2.conf --pluginpath /opt/logstash/plugins/ -w 10 -l /var/log/logstash/pro2.log然后啟動 rvice supervisord start 即可。logstash 會以 supervisord 子進程的身份運行,你還可以使用 supervisorctl 命令,單獨控制一系列 logstash 子進程中某一個進程的啟停操作:supervisorctl stop elkpro_2關于grok語法

            官方給定的語法

            https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns

            https://github.com/elastic/logstash/tree/v1.4.2/patterns

            如果你使用的正則語言可以將nginx日志進行匹配,就可以成功對日志進行切割,效果看下圖:

            調試的過程中可以使用這個網站來進行正則語法的測試:http://grokdebug.herokuapp.com/

            1. 線上配置的信息格式192.168.70.94 跟權威指南中的一樣SYSLOGBASE %{SYSLOGTIMESTAMP:timestamp} (?:%{SYSLOGFACILITY} )?%{SYSLOGHOST:logsource} %{SYSLOGPROG}:以下這個是Logstash默認自帶了Apache標準日志的grok正則表達式:COMMONAPACHELOG %{IPORHOST:clientip} %{USER:ident} %{USER:auth} [%{HTTPDATE:timestamp}] "(?:%{WORD:verb} %{NOTSPACE:request}(?: HTTP/%{NUMBER:httpversion})?|%{DATA:rawrequest})" %{NUMBER:respon} (?:%{NUMBER:bytes}|-)COMBINEDAPACHELOG %{COMMONAPACHELOG} %{QS:referrer} %{QS:agent}2. 我的nginx日志切割格式NGINX_ACCESS %{IPORHOST:remote_addr} - %{USERNAME:remote_ur} [%{HTTPDATE:tiem_local}] "%{DATA:request}" %{INT:status} %{NUMBER:bytes_nt} "%{DATA:http_referer}" "%{DATA:http_ur_agent}"MAINNGINXLOG %{COMBINEDAPACHELOG} %{QS:x_forwarded_for}

            COMBINEDAPACHELOG 合并的apache日志 logstash客戶端用的是這種方式COMMONAPACHELOG 普通的apache日志

            當grok匹配失敗的時候,插件會為這個事件打個tag,默認是_grokparfailure。LogStash允許你把這些處理失敗的事件路由到其他地方做后續的處理input { # ... }filter { grok { match => { "message" => "%{TIMESTAMP_ISO8601:timestamp} [%{IPV4:ip};%{WORD:environment}] %{LOGLEVEL:log_level} %{GREEDYDATA:message}" } }}output { if "_grokparfailure" in [tags] { # write events that didn't match to a file file { "path" => "/tmp/grok_failures.txt" } } el { elasticarch { } }}

            看下面紅色的地方,表示grok匹配失敗,才會將tags的標簽定義成_grokparfailure這個默認的

            解決說是要設置錨點 目前不懂什么意思 先放到這里

            https://www.jianshu.com/p/86133dd66ca4

            另外一種說法,暫時不會用,先放著1.if "_grokparfailure" in [tags] { drop { } }2.match語句跟第一個一樣的 沒啥要點,看著官網例子搞就行了3.盡量用grok吧 ,grep功能以后要去掉的。

            當時想的另外一種解決方法就是改nginx的日志格式成json形式的,但是我不想用這種方法。

            log_format json '{"@timestamp":"$time_iso8601",' '"host":"$rver_addr",' '"clientip":"$remote_addr",' '"request":"$request",' '"status":"$status",' '"request_method": "$request_method",' '"size":"$body_bytes_nt",' '"request_time":"$request_time",' '"upstreamtime":"$upstream_respon_time",' '"upstreamhost":"$upstream_addr",' '"http_host":"$host",' '"url":"$uri",' '"http_forward":"$http_x_forwarded_for",' '"referer":"$http_referer",' '"agent":"$http_ur_agent"}';access_log /var/log/nginx/access.log json ;問題解決Nginx日志沒有被成功切割的終極原因

            以下是兩種日志方式: log_format main '$remote_addr - $remote_ur [$time_iso8601] "$request" ' '$status $body_bytes_nt "$http_referer" ' '"$http_ur_agent" "$http_x_forwarded_for" "$host" "$request_time"'; log_format format2 '$remote_addr - $remote_ur [$time_local] "$request" ' '$status $body_bytes_nt "$http_referer" ' '"$http_ur_agent" "$http_x_forwarded_for" "$host" "$request_time"'; 在logstash中進行切割的時候調用的時間變量是不同的,靈感來自如下: grok { match => { "message" => "%{TIMESTAMP_ISO8601:time}" } }date{ match => ["time", "yyyy-MM-dd HH:mm:ss", "ISO8601"] target => "@timestamp" }mutate{ remove_field => ["time"] }定義:HTTPDATE %{MONTHDAY}/%{MONTH}/%{YEAR}:%{TIME} %{INT}TIMESTAMP_ISO8601 %{YEAR}-%{MONTHNUM}-%{MONTHDAY}[T ]%{HOUR}:?%{MINUTE}(?::?%{SECOND})?%{ISO8601_TIMEZONE}?#NGINX_ACCESS %{IPORHOST:remote_addr} - %{USERNAME:remote_ur} [%{HTTPDATE:time_iso8601}] "%{DATA:request}" %{INT:status} %{NUMBER:bytes_nt} "%{DATA:http_referer}" "%{DATA:http_ur_agent}"{DATA:http_ur_agent}"NGINX_ACCESS %{IPORHOST:remote_addr} - %{USERNAME:remote_ur} [%{TIMESTAMP_ISO8601:time_iso8601}] "%{DATA:request}" %{INT:status} %{NUMBER:bytes_nt} "%{DATA:http_referer}" "%{DATA:http_ur_agent}"SYSLOGBASE %{SYSLOGTIMESTAMP:timestamp} (?:%{SYSLOGFACILITY} )?%{SYSLOGHOST:logsource} %{SYSLOGPROG}:COMMONAPACHELOG %{IPORHOST:clientip} %{USER:ident} %{USER:auth} [%{HTTPDATE:timestamp}] "(?:%{WORD:verb} %{NOTSPACE:request}(?: HTTP/%{NUMBER:httpversion})?|%{DATA:rawrequest})" %{NUMBER:respon} (?:%{NUMBER:bytes}|-)COMBINEDAPACHELOG %{COMMONAPACHELOG} %{QS:referrer} %{QS:agent}Nginx中時間格式1:$time_local 對應logstash中[%{HTTPDATE:timestamp}]Nginx中時間格式2:$time_iso8601 對應logstash中[%{TIMESTAMP_ISO8601:timestamp}]

            作者:思綢之路

            鏈接:https://www.cnblogs.com/zanao/p/13072595.html

            本文發布于:2023-02-28 21:01:00,感謝您對本站的認可!

            本文鏈接:http://www.newhan.cn/zhishi/a/1677717355100710.html

            版權聲明:本站內容均來自互聯網,僅供演示用,請勿用于商業和其他非法用途。如果侵犯了您的權益請與我們聯系,我們將在24小時內刪除。

            本文word下載地址:sojson(sojson測速).doc

            本文 PDF 下載地址:sojson(sojson測速).pdf

            標簽:測速   sojson
            相關文章
            留言與評論(共有 0 條評論)
               
            驗證碼:
            推薦文章
            排行榜
            Copyright ?2019-2022 Comsenz Inc.Powered by ? 實用文體寫作網旗下知識大全大全欄目是一個全百科類寶庫! 優秀范文|法律文書|專利查詢|
            主站蜘蛛池模板: 欧美福利电影A在线播放| 和尚伦流澡到高潮h在线观看| 国产丝袜丝视频在线观看| 久久香蕉国产线看观看猫咪av| 精品视频一区二区三区不卡 | 五月丁香啪啪| 国产精品剧情亚洲二区| 俄罗斯少妇性XXXX另类| 国产精品福利自产拍久久| 成人无码一区二区三区网站| 韩国无码中文字幕在线视频| 两个人在线观看的www高清免费| 狠狠躁夜夜躁人人爽天天bl| 91免费精品国偷自产在线在线| 亚洲老熟女@tubeumtv| 东京热无码国产精品| 最近中文字幕2019免费| 内射视频福利在线观看| 精品亚洲无人区一区二区| 亚洲色成人一区二区三区| 光棍天堂在线手机播放免费| 国产偷国产偷高清精品| 久久久久无码精品国产h动漫| 国产精品国产精品一区精品| 成人性生交片无码免费看| 久久精品免费自拍视频| 亚洲a∨国产av综合av| 免费人成网站免费看视频| 国产精品中文字幕免费| 大帝AV在线一区二区三区| 国产免费网站看v片元遮挡| HEYZO无码中文字幕人妻| 永久黄网站色视频免费直播| 欧美videos粗暴| 不卡一区二区三区视频播放| 我国产码在线观看av哈哈哈网站| 夜夜爽免费888视频| av在线播放日韩亚洲欧我不卡 | 2021最新国产在线人成| ww污污污网站在线看com| h无码精品3d动漫在线观看|