FuFu KK8s
  • K~K8s index
  • Kubernetes 的基礎世界
  • Why container is not Docker
  • Startup Local Kubernetes via Minikube
  • K8s Master node Component 介紹
  • NameSpace、Deployments 概念說明
  • 常見的 kubectl 指令
  • 回顧第一次部署,淺談 Pod、Deployment
  • 回顧第一次部署,淺談 Service
  • 今日來介紹 Pod 靜態文件~ Manifest
  • Pod 的健康檢查方式
  • Pod 的健康檢查方式 Part-2
  • Pod 的資源請求、上限
  • Pod 資料,如何持久化存放、讀取
  • Pod 副本管理~ 描述 ReplicaSet 控制器
  • Pod 副本管理~ 實作篇
  • 淺談 DaemonSet,及相對 ReplicaSet 的差異
  • 來說說 Label
  • 從 Label 再回頭談 Service
  • Service 續集之 Cluster IP、Kube-proxy、LoadBalancer
  • 從 Service 發現 K8s 網路層全貌
  • Container Data Persistent
  • 發現、初談 StatefulSet
  • 再談 StatefulSet
  • 認識 ConfigMap
  • 第一次使用 Play with Kubernetes
  • 手工 Installing kubeadm
  • 手工 Installing CRI-O、kubeadm init
  • 繼上篇,排查 kubelet、kubeadm init 問題
  • Installing a pod network add-on
  • K8s add Nodes(join)
  • 驗證自建的 K8s
  • 筆記
    • kubectl get 筆記
    • kubectl 部署筆記
    • kubectl describe nodes
  • 實務記憶篇
    • 整理下記憶
    • 有哪些 Kubernetes 雲端服務
    • 如何從本機連線至 GKE Pod
    • GCP Memorystore 服務介紹
    • 如何連線至 GCP Memorystore
    • GCP Cloud SQL 服務介紹
    • 如何連線至 Cloud SQL
    • 關於 GCP VPC 網路
    • HELM 工具用途
    • 臨時題目:查修 prometheus
    • 繼續離題:繼續查修Prometheus
    • 臨時題目:限定 Pod 訪問外網時,固定 public ip
    • K8s 監控數據來源 Prometheus
    • 監控要告警啊 AlertManager
    • 監控要有圖表啊 Grafana
    • Grafana收集Kubernetes系統資訊
    • 系統 Log 資料
    • 系統 Log 資料收集至 EFK
    • 關於 EFK 角色
    • 系統 Log 資料 - fluent-bit 串接
    • 開放網站對外存取
    • 網站提供 https 安全連線服務 - 憑證管理
    • 網站提供 https 安全連線服務 - 憑證與Ingress整合
    • 網站提供 https 安全連線服務 - Istio 範例
    • 需要額外的 非http 連線
    • Istio 初略介紹
    • Istio 整合 Certmanager DNS01
    • 番外篇:Istio 如何限制訪問來源
    • 番外篇:如何擴充 PV PVC storage size
    • 番外篇:如何利用 Binlog 還原資料庫
  • Helm 實務學習心得
    • Helm requirements 見解
    • 同環境,一次部署多個相同App
  • Python
    • 11-1 Firebase 資料庫簡介
Powered by GitBook
On this page
  • Log架構
  • ELK簡略
  1. 實務記憶篇

系統 Log 資料

PreviousGrafana收集Kubernetes系統資訊Next系統 Log 資料收集至 EFK

Last updated 5 years ago

任何系統運作後,都會產出系統記錄Log,Kubernetes Container環境下產出的log,經過標準輸出stdout後,存放於K8s worker node的目錄下/var/log/../*.log。 每個 node 都個別執行不同的 AP應用服務,並且隨著Pod的變動,Log屬性與目錄相對會隨著變動。 因此需要透過Log架構來特別處理此事。

Log架構

K8s 叢集環境中,worker node會隨著應用需求而異動、增減,因此我們在每個worker node上藉由DaemonSet方式來部署圖中的logging-agent-pod。

上述只是收集Log的開端,收集Log後我們還需要一套系統作為收集、分析、儲存、資料圖表等等。目前市面上這類系統,除了 ELK 之外,仍有其他眾多方案,如果是初期導入使用,建議可以先從 ELK 方面著手,等上手後如有更多不同因素需求面向,可以在評估其他可行方案。

ELK簡略

ELK 是三項開源方案的簡稱:Elasticsearch、Logstash 和 Kibana 現在官方有個新名稱:Elastic Stack

  • Elasticsearch:簡稱 ES,是一套以Lucene基礎的搜尋引擎,基於Json格式而開發與應用,提供Web接口存放Log資料。ES 本身支援分散式架構,引擎是透過Java語言開發的,所以對Java based的服務運行需要有一定的學習與瞭解。

  • Logstash:此作為收集Log的logging-agent角色,能夠採集、分析、過濾和傳送資料到 ES 或其他目的地。本身支援Grok語法可將非結構化log數據進行分析與組成結構化,例如IP地址解碼出地理坐標,匿名化或排除敏感字段,並簡化整體處理過程。

  • Kibana:此為 ES 的開源數據圖表化方案。它在 ES 集群上所存在的Log索引內容之中提供圖表化功能。

抱歉,我不是故意要擾亂視聽...... 因為,ELK名稱比較眾人所知......因此借題做開場說明。 回到環境中,下一篇我要用EFK作為 K8s 環境上Log收集的主要系統。 F = Fluent Bit