OpenLLMetry

Материал из Документация Ключ-АСТРОМ
Версия от 08:22, 29 января 2026; IKuznetsov (обсуждение | вклад) (Новая страница: «'''OpenLLMetry''' обеспечивает мониторинг моделей ИИ, собирая и нормализуя ключевые показатели...»)
(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)

OpenLLMetry обеспечивает мониторинг моделей ИИ, собирая и нормализуя ключевые показатели эффективности (KPI) из различных фреймворков ИИ. Используя дополнительный слой SDK OpenTelemetry, эти данные беспрепятственно передаются в среду Ключ-АСТРОМ, предлагая расширенную аналитику и целостное представление о стеке развертывания ИИ.

Учитывая широкое распространение Python в разработке моделей ИИ, OpenTelemetry служит надежным стандартом для сбора данных, включая трассировки, метрики и логи. Хотя автоматическая инструментация OpenTelemetry предоставляет информацию о диапазонах и основных атрибутах ресурсов, она не позволяет получить доступ к конкретным ключевым показателям эффективности (KPI), критически важным для моделей ИИ, таким как название модели, версия, токены подсказок и завершения, а также параметры температуры.

OpenLLMetry устраняет этот пробел, поддерживая популярные фреймворки ИИ, такие как OpenAI, HuggingFace, Pinecone и LangChain. Стандартизация сбора основных KPI модели с помощью OpenTelemetry обеспечивает всестороннюю наблюдаемость. Открытый SDK OpenLLMetry, построенный на основе OpenTelemetry, позволяет получить анализ вашего приложения LLM.

Благодаря интеграции собранных данных со средой Ключ-АСТРОМ, пользователи могут анализировать метрики, трассировки и логи LLM в контексте всех трассировок и информации на уровне кода. Поддерживаемый Traceloop под лицензией Apache 2.0, OpenLLMetry становится ценной частью для владельцев продуктов, обеспечивая прозрачное представление производительности моделей ИИ.

Приведенный ниже пример демонстрирует, как собирать информацию о модели OpenAI LLM, построенной на основе фреймворка LangChain.

Пример: модель OpenAI LLM с использованием LangChain

В этом примере мы демонстрируем реализацию настраиваемой модели LLM с использованием облачного сервиса OpenAI и фреймворка LangChain. Этот компактный пример демонстрирует интеграцию LangChain для создания шаблонного слоя для модели LLM.

Основная задача модели ИИ — предоставить краткое изложение целей бизнеса компании. LangChain добавляет уровень гибкости, позволяя пользователям динамически изменять компанию и определять максимальную длину ответа, сгенерированного ИИ.

Для беспрепятственного экспорта и анализа собранных данных следуйте инструкциям в руководстве по началу работы, чтобы создать токен Ключ-АСТРОМ.

Процесс начинается с инициализации SDK Traceloop OpenLLMetry. Затем мы аннотируем ключевые задачи модели для повышения наблюдаемости, как показано в предоставленном фрагменте кода.

Этот комплексный подход не только демонстрирует практическую реализацию модели LLM, но и подчеркивает важность настройки Ключ-АСТРОМ OpenTelemetry для эффективного экспорта и анализа данных, обеспечивая предприятиям надежную систему для оценки производительности моделей ИИ.

import os

import openai

from langchain.llms import OpenAI

from langchain.chat_models import ChatOpenAI

from langchain.prompts import ChatPromptTemplate

from traceloop.sdk import Traceloop

from traceloop.sdk.decorators import workflow, task

os.environ['OTEL_EXPORTER_OTLP_METRICS_TEMPORALITY_PREFERENCE'] = "delta"

headers = { "Authorization": "Api-Token <YOUR_DT_API_TOKEN>" }

Traceloop.init(

    app_name="<your-service>",

    api_endpoint="https://<YOUR_ENV>.live.astromkey.com/api/v2/otlp",

    headers=headers,

    disable_batch=True

)

openai.api_key = os.getenv("OPENAI_API_KEY")

@task(name="add_prompt_context")

def add_prompt_context():

    prompt = ChatPromptTemplate.from_template("explain the business of company {company} in a max of {length} words")

    model = ChatOpenAI()

    chain = prompt | model

    return chain

@task(name="prep_prompt_chain")

def prep_prompt_chain():

    return add_prompt_context()

@workflow(name="ask_question")

def prompt_question():

    chain = prep_prompt_chain()

    return chain.invoke({"company": "astromkey", "length" : 50})

if  __name__ == "__main__":

    print(prompt_question())

Далее мы запускаем нашу модель ИИ и запрашиваем информацию о компании Ключ-АСТРОМ, получая в ответ 50 токенов, как описано ниже.

>python chaining.py

Traceloop exporting traces to https://<MY_ENV>.live.astromkey.com/api/v2/otlp, authenticating with custom headers

content='astromkey is a software intelligence company that provides monitoring and analytics solutions for modern cloud environments. They offer a platform that helps businesses optimize their software performance, improve customer experience, and accelerate digital transformation by leveraging AI-driven insights and automation.'

В среде Ключ-АСТРОМ вы можете отслеживать свою модель ИИ в режиме реального времени, изучать ее атрибуты и оценивать надежность и задержку каждой конкретной задачи LangChain.