EFK教程 – EFK快速入門指南

  • 2019 年 10 月 27 日
  • 筆記

通過部署elasticsearch(三節點)+filebeat+kibana快速入門EFK,並搭建起可用的demo環境測試效果

作者:「發顛的小狼」,歡迎轉載與投稿


目錄

▪ 用途
▪ 實驗架構
▪ EFK軟件安裝
▪ elasticsearch配置
▪ filebeat配置
▪ kibana配置
▪ 啟動服務
▪ kibana界面配置
▪ 測試
▪ 後續文章


用途

▷ 通過filebeat實時收集nginx訪問日誌、傳輸至elasticsearch集群
▷ filebeat將收集的日誌傳輸至elasticsearch集群
▷ 通過kibana展示日誌


實驗架構

▷ 服務器配置

▷ 架構圖


EFK軟件安裝

版本說明

▷ elasticsearch 7.3.2
▷ filebeat 7.3.2
▷ kibana 7.3.2

注意事項

▷ 三個組件版本必須一致
▷ elasticsearch必須3台以上且總數量為單數

安裝路徑

▷ /opt/elasticsearch
▷ /opt/filebeat
▷ /opt/kibana

elasticsearch安裝:3台es均執行相同的安裝步驟

mkdir -p /opt/software && cd /opt/software  wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.3.2-linux-x86_64.tar.gz  tar -zxvf elasticsearch-7.3.2-linux-x86_64.tar.gz  mv elasticsearch-7.3.2 /opt/elasticsearch  useradd elasticsearch -d /opt/elasticsearch -s /sbin/nologin  mkdir -p /opt/logs/elasticsearch  chown elasticsearch.elasticsearch /opt/elasticsearch -R  chown elasticsearch.elasticsearch /opt/logs/elasticsearch -R    # 限制一個進程可以擁有的VMA(虛擬內存區域)的數量要超過262144,不然elasticsearch會報max virtual memory areas vm.max_map_count [65535] is too low, increase to at least [262144]  echo "vm.max_map_count = 655350" >> /etc/sysctl.conf  sysctl -p

filebeat安裝

mkdir -p /opt/software && cd /opt/software  wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.3.2-linux-x86_64.tar.gz  mkdir -p /opt/logs/filebeat/  tar -zxvf filebeat-7.3.2-linux-x86_64.tar.gz  mv filebeat-7.3.2-linux-x86_64 /opt/filebeat

kibana安裝

mkdir -p /opt/software && cd /opt/software  wget https://artifacts.elastic.co/downloads/kibana/kibana-7.3.2-linux-x86_64.tar.gz  tar -zxvf kibana-7.3.2-linux-x86_64.tar.gz  mv kibana-7.3.2-linux-x86_64 /opt/kibana  useradd kibana -d /opt/kibana -s /sbin/nologin  chown kibana.kibana /opt/kibana -R

nginx安裝(用於生成日誌,被filebeat收集)

# 只在192.168.1.11安裝  yum install -y nginx  /usr/sbin/nginx -c /etc/nginx/nginx.conf

elasticsearch配置

▷ 192.168.1.31 /opt/elasticsearch/config/elasticsearch.yml

# 集群名字  cluster.name: my-application    # 節點名字  node.name: 192.168.1.31    # 日誌位置  path.logs: /opt/logs/elasticsearch    # 本節點訪問IP  network.host: 192.168.1.31    # 本節點訪問  http.port: 9200    # 節點運輸端口  transport.port: 9300    # 集群中其他主機的列表  discovery.seed_hosts: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]    # 首次啟動全新的Elasticsearch集群時,在第一次選舉中便對其票數進行計數的master節點的集合  cluster.initial_master_nodes: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]    # 啟用跨域資源共享  http.cors.enabled: true  http.cors.allow-origin: "*"    # 只要有2台數據或主節點已加入集群,就可以恢復  gateway.recover_after_nodes: 2

▷ 192.168.1.32 /opt/elasticsearch/config/elasticsearch.yml

# 集群名字  cluster.name: my-application    # 節點名字  node.name: 192.168.1.32    # 日誌位置  path.logs: /opt/logs/elasticsearch    # 本節點訪問IP  network.host: 192.168.1.32    # 本節點訪問  http.port: 9200    # 節點運輸端口  transport.port: 9300    # 集群中其他主機的列表  discovery.seed_hosts: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]    # 首次啟動全新的Elasticsearch集群時,在第一次選舉中便對其票數進行計數的master節點的集合  cluster.initial_master_nodes: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]    # 啟用跨域資源共享  http.cors.enabled: true  http.cors.allow-origin: "*"    # 只要有2台數據或主節點已加入集群,就可以恢復  gateway.recover_after_nodes: 2

▷ 192.168.1.33 /opt/elasticsearch/config/elasticsearch.yml

# 集群名字  cluster.name: my-application    # 節點名字  node.name: 192.168.1.33    # 日誌位置  path.logs: /opt/logs/elasticsearch    # 本節點訪問IP  network.host: 192.168.1.33    # 本節點訪問  http.port: 9200    # 節點運輸端口  transport.port: 9300    # 集群中其他主機的列表  discovery.seed_hosts: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]    # 首次啟動全新的Elasticsearch集群時,在第一次選舉中便對其票數進行計數的master節點的集合  cluster.initial_master_nodes: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]    # 啟用跨域資源共享  http.cors.enabled: true  http.cors.allow-origin: "*"    # 只要有2台數據或主節點已加入集群,就可以恢復  gateway.recover_after_nodes: 2

filebeat配置

192.168.1.11 /opt/filebeat/filebeat.yml

# 文件輸入  filebeat.inputs:    # 文件輸入類型    - type: log      # 開啟加載      enabled: true      # 文件位置      paths:        - /var/log/nginx/access.log      # 自定義參數      fields:        type: nginx_access  # 類型是nginx_access,和上面fields.type是一致的    # 輸出至elasticsearch  output.elasticsearch:    # elasticsearch集群    hosts: ["http://192.168.1.31:9200",            "http://192.168.1.32:9200",            "http://192.168.1.33:9200"]      # 索引配置    indices:      # 索引名      - index: "nginx_access_%{+yyy.MM}"        # 當類型是nginx_access時使用此索引        when.equals:          fields.type: "nginx_access"    # 關閉自帶模板  setup.template.enabled: false    # 開啟日誌記錄  logging.to_files: true  # 日誌等級  logging.level: info  # 日誌文件  logging.files:    # 日誌位置    path: /opt/logs/filebeat/    # 日誌名字    name: filebeat    # 日誌輪轉期限,必須要2~1024    keepfiles: 7    # 日誌輪轉權限    permissions: 0600

kibana配置

192.168.1.21 /opt/kibana/config/kibana.yml

# 本節點訪問端口  server.port: 5601    # 本節點IP  server.host: "192.168.1.21"    # 本節點名字  server.name: "192.168.1.21"    # elasticsearch集群IP  elasticsearch.hosts: ["http://192.168.1.31:9200",                        "http://192.168.1.32:9200",                        "http://192.168.1.33:9200"]

啟動服務

# elasticsearch啟動(3台es均啟動)  sudo -u elasticsearch /opt/elasticsearch/bin/elasticsearch    # filebeat啟動  /opt/filebeat/filebeat -e -c /opt/filebeat/filebeat.yml -d "publish"    # kibana啟動  sudo -u kibana /opt/kibana/bin/kibana -c /opt/kibana/config/kibana.yml

上面的啟動方法是位於前台運行。systemd配置方法,會在《EFK教程》系列後續文章中提供,敬請關注!


kibana界面配置

1️⃣ 使用瀏覽器訪問192.168.1.21:5601,看到以下界面表示啟動成功

2️⃣ 點"Try our sample data"

3️⃣ "Help us improve the Elastic Stack by providing usage statistics for basic features. We will not share this data outside of Elastic"點"no」

4️⃣ "Add Data to kibana"點"Add data"

5️⃣ 進入視圖


測試

訪問nginx,生成日誌

curl -I "http://192.168.1.11"

在kibana上查看數據

1️⃣ 創建索引模板

2️⃣ 輸入你要創建的索引模板的名字

3️⃣ 查看之前CURL的數據


後續文章

本文是《EFK教程》系列文章的第一篇,後續EFK文章將逐步發佈,包含角色分離、性能優化等許多乾貨,敬請關注!