Changes

Jump to: navigation, search

Centralized logging in swarm

No change in size, 18:06, 28 September 2018
Bevezető
A cél az, hogy minden a swarm cluster-ben futó konténer logját összegyűjtsük egy központi, nagyon hatékonyan kereshető adatbázisban, ami az Elasticsearch lesz. Az Elastichserach-be a szintén Elastic termékkel, a logStash-el fogjuk betölteni az adatokat. LogStash-ből is csak egy darabra van szükség, nem kell minden node-on fusson egy konténer belőle. A Logstash képes a sysout-ot átalakítani Elastichsearch dokumentumokra. A logStash-hez a logspout nevű program fogja elküldeni a sysout-ot minden node minden docker image-éből. A logspout rákapcsolódik a docker szoket-re, majd log proxiként továbbít minden logot a logStash konténernek. Értelem szerűen a logspout-ot minden egyes konténerre fel kell telepíteni.
:[[File:ClipCapIt-180926180928-200910200618.PNG]]
A logokat a szintén Elastic termékkel, a Kibana-val fogjuk vizualizálni, elemezni. Az előbb felsorolt 4 komponens az erre a célra létrehozott elk nevű overlay hálózaton fog egymással kommunikálni, ahol közvetlen el fogják egymást érni az overlay hálózatos IP címükkel. Mind az Elastichsearch, mind a Kibana webkonzol portját publikálni fogjuk az ingress hálózaton, hogy elérjük őket a böngészőből.

Navigation menu