 Autor: [Piotr Wasilewski](/autorzy/piotr-wasilewski) Architekt rozwiązań chmurowych · Zweryfikowano Kwiecień 2026

1.  [Strona główna](/) ›
2.  [Baza wiedzy](/baza-wiedzy/) ›
3.  Grafana Unified Alerting

# Grafana Unified Alerting — reguły, contact points i on-call

Opublikowano: 10 kwietnia 2026 · Kategoria: VPS

Grafana 9+ zastąpiło stary system alertowania (panel-by-panel) nowym Unified Alerting — jednym centralnym miejscem do zarządzania regułami, kanałami powiadomień i harmonogramem dyżurów. To nie tylko ewolucja UI — to zupełnie nowa architektura z wbudowanym Alertmanagerem, wielodataźródłowymi regułami i integracją z Grafana OnCall.

## Legacy vs Unified Alerting — porównanie

Cecha

Legacy (<Grafana 9)

Unified (Grafana 9+)

Zasięg

Per panel

Centralne zarządzanie

Datasources

1 per alert

Wiele w jednej regule

Routing

Notification channels

Notification policies (drzewo)

Silencing

Brak

Silences z matchers

Stan alertów

OK/Alerting

Normal/Pending/Firing/No data/Error

Zewn. Alertmanager

Brak

Wbudowany + external

## Tworzenie alert rule — krok po kroku

Przejdź do **Alerting → Alert rules → New alert rule**. Proces tworzenia reguły ma 5 kroków:

1.  **Query & conditions** — zapytanie (PromQL/LogQL/SQL) + reducer (Last, Mean, Max) + condition (threshold: B > 85)
2.  **Alert evaluation behavior** — evaluate every 1m, for 5m (PENDING zanim FIRING)
3.  **Add details** — nazwa, folder, group, labels, annotations
4.  **Notifications** — contact point, notification policy
5.  **Confirm and save**

Przykładowa reguła dla wysokiego CPU — query A jako PromQL, expression B jako Reduce:

\# Query A (Prometheus datasource):
100 - (avg by(instance) (rate(node\_cpu\_seconds\_total{mode="idle"}\[5m\])) \* 100)

# Expression B: Reduce
Operation: Last
Input: A
Output: B

# Condition: WHEN B IS ABOVE 85
# Evaluate every: 1m / For: 5m

## Contact Points — kanały powiadomień

Grafana Unified Alerting obsługuje dziesiątki integracji. Najpopularniejsze:

Integracja

Wymagane dane

Kiedy używać

Slack

Webhook URL lub Bot Token + Channel

Alerty dev/ops teamów, informacyjne

Telegram

Bot API Token + Chat ID

Małe zespoły, mobilne alerty

OpsGenie

API Key, Region

On-call management, eskalacje

PagerDuty

Integration Key (Events API v2)

24/7 on-call, krytyczna infrastruktura

Email

SMTP config w grafana.ini

Raporty, alerty mniej pilne

Webhook

URL endpointu

Własne integracje, Teams, Discord

Konfiguracja Telegramu przez UI: **Alerting → Contact points → Add** → Telegram → wpisz Bot API Token i Chat ID. Możesz dostosować treść wiadomości szablonem Go:

\# Przykładowy template dla Telegrama (w polu Message):
{{ define "telegram.default.message" -}}
{{ if eq .Status "firing" }}🚨 ALERT{{ else }}✅ RESOLVED{{ end }}

\*{{ .CommonAnnotations.summary }}\*
{{ .CommonAnnotations.description }}

Severity: {{ .CommonLabels.severity }}
{{- end }}

## Notification Policies — drzewo routingu

Notification policies (dawniej "routes") decydują który contact point dostanie dany alert. Root policy obsługuje wszystkie alerty, nested policies — podzbiory według matchers:

\# Schemat drzewa routingu:
Root policy:
  contact\_point: default-email
  group\_by: \[grafana\_folder, alertname\]
  group\_wait: 30s
  group\_interval: 5m
  repeat\_interval: 4h

  Nested policy 1:
    matchers: severity=critical
    contact\_point: pagerduty-team
    repeat\_interval: 1h

  Nested policy 2:
    matchers: team=database
    contact\_point: slack-db-channel
    group\_by: \[alertname, instance\]

## Silences — tymczasowe wyciszanie

**Alerting → Silences → New silence**. Definiujesz matchers (label=value lub label=~regex), czas trwania i opcjonalnie komentarz. Silence jest aktywne natychmiast — alerty pasujące do matchers nie generują powiadomień przez ten czas. Silences możesz też tworzyć bezpośrednio z listy aktywnych alertów (przycisk "Silence").

## Grafana OnCall — harmonogram dyżurów

Grafana OnCall (open-source, instalacja na własnym serwerze lub Grafana Cloud) rozszerza Unified Alerting o zarządzanie on-call:

-   **Schedules** — harmonogram dyżurów (tygodniowy, rotacyjny, warstwy primary+secondary)
-   **Escalation chains** — jeśli osoba dyżurująca nie odpowie w X minut → powiadamiasz kolejną
-   **Integracje** — Grafana Alerting, Prometheus Alertmanager, PagerDuty, Zabbix
-   **Mobile App** — natywna apka iOS/Android z push alertami i acknowledge

**Tip:** Grafana OnCall możesz zainstalować przez Docker lub jako Helm chart dla Kubernetes. Połącz z Unified Alerting przez webhook contact point — OnCall dostaje alerty i zarządza kto je dostaje i kiedy.

## Najczęstsze pytania

Czym różni się Grafana Unified Alerting od legacy alerting? +

Legacy alerting (Grafana &lt;9) działał panel-by-panel — każdy wykres miał własny alert z notyfikacją. Unified alerting (Grafana 9+, domyślny) to centralne zarządzanie: alert rules z pełnym PromQL/LogQL, wiele datasource w jednej regule, contact points wielokanałowe, notification policies jako drzewo routingu analogiczne do Alertmanagera. Unified alerting ma też wbudowany Alertmanager (lub możliwość podłączenia zewnętrznego).

Jak skonfigurować alert rule w Grafana Unified Alerting? +

Alerting → Alert rules → New alert rule. Wybierz typ: Grafana managed (dowolny datasource przez Grafana) lub Mimir/Loki/Prometheus managed (reguły trzymane w backendzie). Dla Grafana managed: query A (np. PromQL), opcjonalnie expression B (reduce Last(A)), warunek threshold (B &gt; 85). Ustaw evaluate every 1m, for 5m (PENDING→FIRING), folder i group. Dodaj labels (severity=critical) i annotations (summary, description).

Jak skonfigurować Telegram jako contact point w Grafanie? +

Alerting → Contact points → Add contact point. Wybierz Telegram. Wypełnij BOT API Token (z @BotFather) i Chat ID (ID czatu lub kanału — możesz pobrać przez @userinfobot). Message template możesz dostosować używając Go templates. Zalecane: włącz "Send resolved message" żeby wiedzieć gdy problem zniknie. Przetestuj przyciskiem "Test" — bot powinien wysłać wiadomość.

Co to są Notification Policies i jak je skonfigurować? +

Notification policies (Alerting → Notification policies) to drzewo routingu — analogia do route w alertmanager.yml. Root policy wskazuje domyślny contact point. Możesz dodawać nested policies z matchers (np. severity=critical → PagerDuty, team=database → Slack #db). Każda policy ma group\_wait, group\_interval, repeat\_interval. Alerty "przepływają" przez drzewo i trafiają do pierwszego pasującego contact point (chyba że continue=true).

Jak połączyć Grafana Unified Alerting z zewnętrznym Alertmanagerem? +

W grafana.ini ustaw \[unified\_alerting\] → alertmanager\_config\_poll\_interval i external\_alertmanagers\_sources. Lub przez UI: Alerting → Admin → External Alertmanager → Add. Grafana wyśle alerty do zewnętrznego Alertmanagera i opcjonalnie użyje jego konfiguracji routingu. Przydatne gdy masz istniejący Alertmanager z dojrzałą konfiguracją i nie chcesz jej duplikować w Grafanie.

## Sprawdź oferty pasujące do tego scenariusza

Poniżej masz szybkie przejścia do ofert i stron z kodami rabatowymi tam, gdzie są dostępne.

Contabo

VPS z 8 GB RAM — komfortowe uruchomienie Grafany ze wszystkimi pluginami

VPS Grafana

[Aktywuj rabat →](/out/contabo)

#Reklama · link partnerski

[Zobacz kod rabatowy →](/kody-rabatowe/contabo)

Mikrus

Tani VPS do testowania Grafana Unified Alerting z Prometheusem

Dev VPS

[Aktywuj rabat →](/out/mikrus)

#Reklama · link partnerski

[Zobacz kod rabatowy →](/kody-rabatowe/mikrus)

home.pl

Serwer VPS z polskim supportem do monitorowania infrastruktury

PL Support

[Aktywuj rabat →](/out/home-pl)

#Reklama · link partnerski

[Zobacz kod rabatowy →](/kody-rabatowe/home-pl)

## Powiązane strony

-   [Prometheus Alertmanager — konfiguracja alertów](/baza-wiedzy/prometheus-alertmanager-konfiguracja)
-   [Prometheus + Grafana — monitoring VPS](/baza-wiedzy/monitoring-grafana-prometheus)
-   [Grafana Loki — agregacja logów z LogQL](/baza-wiedzy/loki-grafana-logi)
-   [Wszystkie artykuły](/baza-wiedzy/)