如何監控你的 Rust 應用程序?

在這篇文章中,我們將從 DevOps 的角度展示如何監控 Rust 應用程序並生成跟蹤數據。

我們使用廣泛認可的 Jaeger UI 進行分析跟蹤,以深入瞭解應用程序的行爲。並從這些痕跡中得出 RED(率、錯誤和持續時間) 指標,並在 Grafana 中監控它們。

我們的演練需要做到以下 4 點:

在我們深入討論細節之前,請確保你的系統上安裝了以下軟件並正常運行:

構建和測試 Rust 應用程序

我們將使用 Actix web 框架創建一個基本的 Rust 應用程序,它將從 JSONPlaceholder 網站的公共 web API 獲取帖子及其評論,並將其顯示爲 JSON。

項目初始化和核心依賴項

新建一個名爲 rust-app-tracing 的目錄並在目錄下創建一個 Rust 項目:

cargo new web-api

在 Cargo.toml 文件中加入以下依賴項:

[dependencies]
actix-web = "4.1.0"
actix-web-opentelemetry = "0.13.0"
anyhow = "1.0.71"
futures = "0.3.28"
opentelemetry = { version = "0.19.0", default-features = false, features = ["trace""rt-tokio"] }
opentelemetry-otlp = { version = "0.12.0"features = ["reqwest-client""reqwest-rustls""http-proto"] }
opentelemetry-semantic-conventions = "0.11.0"
reqwest = {version = "0.11.18"features = ["json"] }
serde = { version = "1.0.143"features = ["derive"] }
serde_json = "1.0.83"
tokio = { version = "1.24"features = ["full"] }
tracing = "0.1.36"
tracing-bunyan-formatter = "0.3.3"
tracing-opentelemetry = "0.19.0"
tracing-subscriber = { version = "0.3"features = ["env-filter"] }
rand = "0.8.5"
log = "0.4.17"
tracing-actix-web = "0.7"

web API 應用程序代碼

首先,創建一個名爲 src/telemetry.rs 的文件來配置應用程序的跟蹤。我們將在其中設置所有的跟蹤配置。

use opentelemetry::{global, KeyValue};

use opentelemetry::sdk::propagation::TraceContextPropagator;
use opentelemetry::sdk::{trace, Resource};
use opentelemetry_otlp::WithExportConfig;
use tracing_bunyan_formatter::{BunyanFormattingLayer, JsonStorageLayer};
use tracing_subscriber::Registry;
use tracing_subscriber::{prelude::*, EnvFilter};

const SERVICE_NAME: &'static str = "quickwit-jaeger-demo";

pub fn init_telemetry(exporter_endpoint: &str) {
    // 創建 gRPC 輸出
    let exporter = opentelemetry_otlp::new_exporter()
        .tonic()
        .with_endpoint(exporter_endpoint);

    // 定義跟蹤器
    let tracer = opentelemetry_otlp::new_pipeline()
        .tracing()
        .with_exporter(exporter)
        .with_trace_config(
            trace::config().with_resource(Resource::new(vec![KeyValue::new(
                opentelemetry_semantic_conventions::resource::SERVICE_NAME,
                SERVICE_NAME.to_string(),
            )])),
        )
        .install_batch(opentelemetry::runtime::Tokio)
        .expect("Error: Failed to initialize the tracer.");

    // 定義訂閱者
    let subscriber = Registry::default();

    // 定義過濾器,基於級別過濾跟蹤(trace, debug, info, warn, error)
    let level_filter_layer = EnvFilter::try_from_default_env().unwrap_or(EnvFilter::new("INFO"));

    // 添加我們自定義配置的跟蹤器
    let tracing_layer = tracing_opentelemetry::layer().with_tracer(tracer);

    // 用於打印到標準輸出
    let formatting_layer = BunyanFormattingLayer::new(
        SERVICE_NAME.to_string(),
        std::io::stdout,
    );

    global::set_text_map_propagator(TraceContextPropagator::new());

    subscriber
        .with(level_filter_layer)
        .with(tracing_layer)
        .with(JsonStorageLayer)
        .with(formatting_layer)
        .init()
}

接下來,讓我們實現 API 端點,同時向處理程序函數添加一些檢測。重要的是要注意,我們的重點不是這個應用程序做什麼,而是從應用程序生成有意義的和可利用的跟蹤數據。

首先,我們創建一個 src/models.rs 文件,用於序列化和反序列化帖子和評論:

use serde::{Serialize, Deserialize};

#[derive(Debug, Serialize, Deserialize)]
#[serde(rename_all = "camelCase")]
pub struct Post {
    pub user_id: i64,
    pub id: i64,
    pub title: String,
    pub body: String,
    #[serde(default)]
    pub comments: Vec<Comment>,
}

#[derive(Debug, Serialize, Deserialize)]
#[serde(rename_all = "camelCase")]
pub struct Comment {
    pub post_id: i64,
    pub id: i64,
    pub name: String,
    pub email: String,
    pub body: String,
}

接下來,讓我們實現 API 端點的處理程序。注意 instrument 屬性裝飾了一些函數。這就是我們如何啓用函數的跟蹤及對它執行後續任務的跟蹤。

創建一個 src/lib.rs 文件:

mod telemetry;
mod models;

use futures::StreamExt;
use rand::seq::SliceRandom;
pub use telemetry::init_telemetry;
pub use models::{Post, Comment};

use anyhow::anyhow;
use reqwest::{Client, StatusCode};
use serde::{de::DeserializeOwned};

use actix_web::{get, web, Error, HttpResponse};
use tracing::instrument;

const BASE_API_URL: &'static str = "https://jsonplaceholder.typicode.com";

// web api: /posts
pub fn fetch_posts_service() -> actix_web::Scope {
    web::scope("/posts")
        .service(get_posts)
}

#[instrument(level = "info", name = "get_posts", skip_all)]
#[get("")]
async fn get_posts() -> Result<HttpResponse, Error> {
    // 隨機模擬請求處理中的錯誤
    let choices = [200, 400, 401, 200, 500, 501, 200, 500];
    let mut rng = rand::thread_rng();
    let choice = choices.choose(&mut rng)
        .unwrap()
        .clone();
    match choice {
        400..=401 => Ok(HttpResponse::new(StatusCode::from_u16(choice).unwrap())),
        500..=501 => Ok(HttpResponse::new(StatusCode::from_u16(choice).unwrap())),
        _ ={
            let posts = fetch_posts(20)
                .await
                .map_err(actix_web::error::ErrorInternalServerError)?;
            Ok(HttpResponse::Ok().json(posts))
        }
    }
}

// 獲取帖子
#[instrument(level = "info", name = "fetch_posts")]
async fn fetch_posts(limit: usize) -> anyhow::Result<Vec<Post>> {
    let client = Client::new();
    let url = format!("{}/posts", BASE_API_URL);
    let mut posts: Vec<Post> = request_url(&client, &url).await?;
    posts.truncate(limit);
    let post_idx_to_ids: Vec<(usize, i64)= posts.iter().enumerate().map(|(idx, post)| (idx, post.id)).collect();

    // 獲取帖子評論
    for (index, post_id) in post_idx_to_ids {
        let comments = fetch_comments(&client, post_id).await?;
        posts[index].comments = comments
    }

    Ok(posts)
}

// 獲取特定帖子的評論
#[instrument(level = "info", name = "fetch_comments", skip(client))]
async fn fetch_comments(client: &Client, post_id: i64) ->  anyhow::Result<Vec<Comment>> {
    let url = format!("{}/posts/{}/comments", BASE_API_URL, post_id);
    let comments: Vec<Comment> = request_url(&client, &url).await?;
    Ok(comments)
}

// 發送get請求和反序列化json響應
async fn request_url<T: DeserializeOwned>(client: &Client, url: &str) -> anyhow::Result<T> {
    let response = client.get(url)
        .send()
        .await?;
    match response.status() {
        reqwest::StatusCode::OK =>
            response.json::<T>()
            .await
            .map_err(|err| anyhow!(err.to_string()))
        ,
        _ => Err(anyhow!(format!("Request error with statusCode `{}`", response.status()))),
    }
}

在上面的代碼中,我們只發送跟蹤數據。還可以使用功能強大的日誌收集器收集日誌並向接收後端中發送。

最後,我們編寫 src/main.rs 文件,用於啓動服務:

use actix_web::{App, HttpServer};

use tracing_actix_web::TracingLogger;
use web_api::{init_telemetry, fetch_posts_service};

const EXPORTER_ENDPOINT: &'static str = "http://localhost:7281";

#[actix_web::main]
async fn main() -> std::io::Result<(){
    init_telemetry(EXPORTER_ENDPOINT);

    HttpServer::new(move || {
        App::new()
            .wrap(TracingLogger::default())
            .service(fetch_posts_service())
    })
    .bind(("127.0.0.1", 9000))?
    .run()
    .await
}

執行 cargo run,然後在瀏覽器中輸入:http://127.0.0.1:9000/posts,如圖:

監控 Rust 應用程序

使用 Quickwit 來提取跟蹤數據

我們將創建一個 rust-app-tracing/docker-compose.yaml 文件來簡化 Quickwit、Jaeger 和 Grafana 之間的設置。下面的 docker-compose 文件包含所有必要的配置。

version: '3'
services:
  quickwit:
    image: quickwit/quickwit:latest
    command: run
    restart: always
    environment:
      QW_ENABLE_OTLP_ENDPOINT: true 
      QW_ENABLE_JAEGER_ENDPOINT: true 
    ports:
      - '7280:7280'
      - '7281:7281'
    volumes:
      - ./qwdata:/quickwit/qwdata

  jaeger:
    image: jaegertracing/jaeger-query:latest
    restart: always
    depends_on:
      - quickwit
    environment:
      SPAN_STORAGE_TYPE: 'grpc-plugin'
      GRPC_STORAGE_SERVER: 'quickwit:7281'
    ports:
      - '16686:16686'

  grafana:
    image: grafana/grafana-enterprise:latest
    restart: always
    user: root
    depends_on:
      - quickwit
    environment:
      GF_PLUGINS_ALLOW_LOADING_UNSIGNED_PLUGINS: 'quickwit-quickwit-datasource'
    ports:
      - '3000:3000'
    volumes:
      - ./grafana-storage:/var/lib/grafana

在 rust-app-tracing 目錄下創建用於存儲 Quickwit 數據的 qwdata 目錄。

然後,在 rust-app-tracing 目錄下創建 grafana-storage/plugins 目錄,下載並放置 Quickwit Grafana 數據源插件在這個位置。

wget https://github.com/quickwit-oss/quickwit-datasource/releases/download/v0.2.0/quickwit-quickwit-datasource-0.2.0.zip \
&& mkdir -p grafana-storage/plugins \
&& unzip quickwit-quickwit-datasource-0.2.0.zip -d grafana-storage/plugins

現在讓我們運行以下命令啓動所有服務 (Quickwit, Jaeger, Grafana):

docker compose up -d

現在進入 web-api 目錄,運行我們的 web 應用程序:

cargo run

執行如下命令:

curl -X GET http://localhost:9000/posts

等待大約 10 秒,新跟蹤將被編入索引並可用於搜索。

現在可以通過 CURL 搜索 otel-traces-v0_6 索引來檢查 Quickwit 是否已經索引了跟蹤數據。

curl -X POST http://localhost:7280/api/v1/otel-traces-v0_6/search -H 'Content-Type: application/json' -d '{ "query": "service_name:quickwit-jaeger-demo" }'

你也可以使用 Quickwit UI 查看數據:http://localhost:7280/ui/search,

如圖:

使用 Jaeger UI 分析痕跡

Jaeger 容器已經運行,通過 http://localhost:16686 地址就可以可視化的查看應用程序的跟蹤數據。

從上面的截圖中可以看到,我們依次爲每個帖子獲取評論。也就是說,我們一個接一個地提出二十個請求,這使得整個請求處理時間更長。

我們能做得更好嗎?讓我們利用 Tokio 和 Rust futures crate 的異步流特性來併發地獲取評論。

修改 fetch_posts 函數,以便以批處理的方式併發地運行請求,每次處理 10 個請求。這應該能加快一點速度。

// 獲取帖子
#[instrument(level = "info", name = "fetch_posts")]
async fn fetch_posts(limit: usize) -> anyhow::Result<Vec<Post>> {
    let client = Client::new();
    let url = format!("{}/posts", BASE_API_URL);
    let mut posts: Vec<Post> = request_url(&client, &url).await?;
    posts.truncate(limit);
    let post_idx_to_ids: Vec<(usize, i64)= posts.iter().enumerate().map(|(idx, post)| (idx, post.id)).collect();

    // 獲取帖子評論
    // for (index, post_id) in post_idx_to_ids {
    //     let comments = fetch_comments(&client, post_id).await?;
    //     posts[index].comments = comments
    // }

    // 併發獲取帖子評論
    let tasks: Vec<_> = post_idx_to_ids
        .into_iter()
        .map(|(index, post_id)| {
            let moved_client = client.clone();
            async move {
                let comments_fetch_result = fetch_comments(&moved_client, post_id).await;
                (index, comments_fetch_result)
            }
        })
        .collect();
    let mut stream = futures::stream::iter(tasks)
        .buffer_unordered(10);
    while let Some((index, comments_fetch_result)) = stream.next().await {
        let comments = comments_fetch_result?;
        posts[index].comments = comments;
    }

    Ok(posts)
}

重新運行程序,再次查看,發現時間縮短了。

使用 Grafana 監控應用程序指標

Jaeger 適合集中檢查單個痕跡。但是,如果我們想要監視服務的延遲,該怎麼辦呢?如果我們想用給定的跟蹤元數據計算錯誤或請求的數量,該怎麼辦?

這就是 Grafana 儀表板發揮作用的地方,我們希望從追蹤的數據中構建 RED 指標,並在 Grafana 中可視化它們。

在瀏覽器中輸入 http://localhost:3000/login,使用 admin 作爲用戶名和密碼登錄。登錄後,我們可以連接到 Quickwit,並使用新發布的 Quickwit 數據源插件查詢我們的應用程序跟蹤數據。

總結

在這篇文章中,我們深入探討了如何實現 Rust 應用程序的分佈式跟蹤以及如何使用它來監視應用程序的性能。

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/95MhAp341u3IdiPErFisng