bỏ qua Nội dung chính
Chào mừng bạn đến với Gimasys!
Hotline: +84 974 417 099 (HCM) | +84 987 682 505 (HN) gcp@gimasys.com

Giám sát các ứng dụng Google ADK Agentic bằng Datadog LLM Observability

Google’s Agent Development Kit (ADK) cung cấp cho bạn các khối xây dựng để tạo ra các hệ thống tác nhân mạnh mẽ. Các tác nhân đa bước này có thể lập kế hoạch, lặp lại, cộng tác và gọi các công cụ một cách linh hoạt để tự giải quyết vấn đề. Tuy nhiên, tính linh hoạt này cũng khiến chúng trở nên khó đoán, dẫn đến các vấn đề tiềm ẩn như đầu ra không đầy đủ, chi phí phát sinh ngoài dự kiến ​​và rủi ro bảo mật. Để giúp bạn quản lý sự phức tạp này, Datadog LLM Observability giờ đây cung cấp khả năng tự động hóa việc giám sát cho các hệ thống được xây dựng bằng ADK. Sự tích hợp này cho phép bạn theo dõi hành vi của tác nhân, kiểm soát chi phí và lỗi, đồng thời tối ưu hóa tác nhân về chất lượng phản hồi và độ an toàn thông qua thử nghiệm ngoại tuyến và đánh giá trực tuyến mà không cần thiết lập thủ công phức tạp.

Điều này rất quan trọng vì các hệ thống tác nhân rất phức tạp, và sự tương tác giữa các tác nhân cũng như bản chất phi xác định của LLM khiến việc dự đoán phản hồi trở nên khó khăn.

Các rủi ro thường gặp khi vận hành các tác nhân này bao gồm:

  • Tốc độ thay đổi: Các mô hình nền tảng mới được cập nhật hàng tuần và các mẫu nhắc nhở “thực tiễn tốt nhất” cũng thay đổi nhanh chóng. Các nhóm phải liên tục đánh giá các sự kết hợp mới.
  • Chuyển giao đa tác nhân: Nếu một tác nhân tạo ra đầu ra chất lượng thấp, nó có thể lan truyền xuống và khiến các tác nhân khác đưa ra quyết định kém hiệu quả.
  • Vòng lặp và thử lại: Các trình lập kế hoạch có thể bị kẹt khi gọi cùng một công cụ nhiều lần, chẳng hạn như thử lại truy vấn tìm kiếm vô thời hạn, gây ra hiện tượng tăng đột biến độ trễ.
  • Chi phí ẩn: Một bước lập kế hoạch sai hướng duy nhất có thể làm tăng mức sử dụng mã thông báo hoặc số lượng cuộc gọi API, đẩy chi phí vượt quá ngân sách.
  • An toàn và chính xác: Phản hồi của LLM có thể chứa ảo giác, dữ liệu nhạy cảm hoặc các nỗ lực chèn nhắc nhở, gây ra rủi ro về sự cố bảo mật và giảm lòng tin của khách hàng.

Cuối cùng, ADK chỉ là một trong nhiều framework tác nhân có sẵn trên thị trường. Việc phải tự tay tích hợp nó chỉ làm tăng thêm độ khó học tập cho một quy trình vốn đã tốn nhiều thời gian và dễ xảy ra lỗi.

Quyết định của tác nhân theo dõi và các hành vi bất thường

Datadog LLM Observability giải quyết những khó khăn này bằng cách tự động đo lường và theo dõi các tác nhân ADK của bạn, cho phép bạn bắt đầu đánh giá các tác nhân ngoại tuyến và giám sát chúng trong môi trường sản xuất chỉ trong vài phút mà không cần thay đổi mã. Điều này cho phép bạn hình dung mọi bước và lựa chọn của trình lập kế hoạch — từ điều phối tác nhân đến các lệnh gọi công cụ — trên một dòng thời gian theo dõi duy nhất.

Ví dụ, nếu một tác nhân chọn công cụ không chính xác để phản hồi truy vấn của người dùng, nó có thể dẫn đến lỗi không mong muốn hoặc phản hồi không chính xác. Bạn có thể sử dụng các công cụ trực quan của Datadog để xác định chính xác bước mà công cụ không chính xác được chọn, giúp việc khắc phục sự cố dễ dàng hơn và giúp bạn tái tạo lại vấn đề.

Theo dõi mức sử dụng token và độ trễ

Việc tăng đột ngột độ trễ hoặc chi phí thường là dấu hiệu của sự cố trong các ứng dụng dựa trên tác nhân. Datadog cho phép bạn xem mức sử dụng token và độ trễ cho mỗi công cụ, nhánh và quy trình làm việc để xác định lỗi xảy ra ở đâu và ảnh hưởng như thế nào đến các bước tiếp theo.

Ví dụ, nếu một tác nhân lập kế hoạch thử lại công cụ tóm tắt năm lần, nó có thể làm tăng đáng kể độ trễ. Datadog làm nổi bật các vòng lặp này, cho bạn thấy chính xác thời gian chúng mất và tác động chi phí liên quan.

Đánh giá chất lượng phản hồi và tính bảo mật của tác nhân.

Các chỉ số hiệu suất hoạt động như độ trễ là tín hiệu giám sát quan trọng, nhưng để có cái nhìn toàn diện về hiệu suất của các ứng dụng dựa trên tác nhân, các nhóm cũng cần đánh giá chất lượng ngữ nghĩa của LLM và phản hồi của tác nhân. Datadog cung cấp các đánh giá tích hợp để phát hiện ảo giác, rò rỉ thông tin nhận dạng cá nhân (PII), tiêm thông tin nhắc nhở và các phản hồi không an toàn.

Bạn cũng có thể thêm các phần đánh giá tùy chỉnh, bao gồm: LLM-as-a-judge evaluators, để kiểm tra theo lĩnh vực cụ thể. Ví dụ, nếu một tác nhân truy xuất tìm nạp các tài liệu không liên quan dẫn đến câu trả lời lạc đề, một trình đánh giá tùy chỉnh có thể gắn cờ dấu vết đó là có mức độ liên quan truy xuất thấp.

Lặp lại nhanh chóng và tự tin với các thí nghiệm.

Khi bạn triển khai một lời nhắc hệ thống mới, bạn có thể nhận thấy sự gia tăng đột biến về độ trễ hoặc sự thay đổi về tính nhất quán của đầu ra. Datadog cho phép bạn phát lại các lệnh gọi LLM trong môi trường sản xuất trong Playground để kiểm tra các mô hình, lời nhắc hoặc tham số khác nhau nhằm tìm ra cấu hình giúp bạn tiến gần hơn đến hành vi lý tưởng.Từ đó, bạn có thể chạy thí nghiệm có cấu trúc So sánh các phiên bản cạnh nhau bằng cách sử dụng các tập dữ liệu được xây dựng từ lưu lượng truy cập thực tế để tối ưu hóa hiệu suất hoạt động và chức năng. Vì mọi bước của tác nhân đều được ghi lại thông qua công cụ ADK, bạn có đầy đủ ngữ cảnh cần thiết để tái tạo các lỗi và xác nhận các bản sửa lỗi trước khi triển khai.

Bắt đầu sử dụng Datadog LLM Observability

Datadog LLM Observability đơn giản hóa việc giám sát và gỡ lỗi cho các hệ thống Google ADK, giúp người dùng gỡ lỗi hoạt động của tác nhân, đánh giá phản hồi, lặp lại nhanh chóng và xác thực các thay đổi trước khi triển khai chúng vào môi trường sản xuất.

Bạn có thể bắt đầu ngay hôm nay với phiên bản mới nhất của LLM Observability SDK, hoặc bắt đầu dùng thử miễn phí nếu bạn là người mới sử dụng Datadog.

Để biết thêm thông tin về cách gỡ lỗi hoạt động của tác nhân và đánh giá phản hồi, hãy xem tài liệu của Datadog.

Trở lại đầu trang
0974 417 099