<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://doc.ruscomtech.ru/index.php?action=history&amp;feed=atom&amp;title=OpenLLMetry</id>
	<title>OpenLLMetry - История изменений</title>
	<link rel="self" type="application/atom+xml" href="https://doc.ruscomtech.ru/index.php?action=history&amp;feed=atom&amp;title=OpenLLMetry"/>
	<link rel="alternate" type="text/html" href="https://doc.ruscomtech.ru/index.php?title=OpenLLMetry&amp;action=history"/>
	<updated>2026-05-11T14:13:50Z</updated>
	<subtitle>История изменений этой страницы в вики</subtitle>
	<generator>MediaWiki 1.36.1</generator>
	<entry>
		<id>https://doc.ruscomtech.ru/index.php?title=OpenLLMetry&amp;diff=6128&amp;oldid=prev</id>
		<title>IKuznetsov: Новая страница: «'''OpenLLMetry''' обеспечивает мониторинг моделей ИИ, собирая и нормализуя ключевые показатели...»</title>
		<link rel="alternate" type="text/html" href="https://doc.ruscomtech.ru/index.php?title=OpenLLMetry&amp;diff=6128&amp;oldid=prev"/>
		<updated>2026-01-29T08:22:39Z</updated>

		<summary type="html">&lt;p&gt;Новая страница: «&amp;#039;&amp;#039;&amp;#039;OpenLLMetry&amp;#039;&amp;#039;&amp;#039; обеспечивает мониторинг моделей ИИ, собирая и нормализуя ключевые показатели...»&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;'''OpenLLMetry''' обеспечивает мониторинг моделей ИИ, собирая и нормализуя ключевые показатели эффективности ('''KPI''') из различных фреймворков ИИ. Используя дополнительный слой '''SDK OpenTelemetry''', эти данные беспрепятственно передаются в среду Ключ-АСТРОМ, предлагая расширенную аналитику и целостное представление о стеке развертывания ИИ.&lt;br /&gt;
&lt;br /&gt;
Учитывая широкое распространение '''Python''' в разработке моделей ИИ, '''OpenTelemetry''' служит надежным стандартом для сбора данных, включая трассировки, метрики и логи. Хотя автоматическая инструментация '''OpenTelemetry''' предоставляет информацию о диапазонах и основных атрибутах ресурсов, она не позволяет получить доступ к конкретным ключевым показателям эффективности ('''KPI'''), критически важным для моделей ИИ, таким как название модели, версия, токены подсказок и завершения, а также параметры температуры.&lt;br /&gt;
&lt;br /&gt;
'''OpenLLMetry''' устраняет этот пробел, поддерживая популярные фреймворки ИИ, такие как '''OpenAI''', '''HuggingFace''', '''Pinecone''' и '''LangChain'''. Стандартизация сбора основных '''KPI''' модели с помощью '''OpenTelemetry''' обеспечивает всестороннюю наблюдаемость. Открытый '''SDK OpenLLMetry''', построенный на основе '''OpenTelemetry''', позволяет получить анализ вашего приложения '''LLM'''.&lt;br /&gt;
&lt;br /&gt;
Благодаря интеграции собранных данных со средой Ключ-АСТРОМ, пользователи могут анализировать метрики, трассировки и логи '''LLM''' в контексте всех трассировок и информации на уровне кода. Поддерживаемый '''Traceloop''' под лицензией '''Apache 2.0''', '''OpenLLMetry''' становится ценной частью для владельцев продуктов, обеспечивая прозрачное представление производительности моделей ИИ.&lt;br /&gt;
&lt;br /&gt;
Приведенный ниже пример демонстрирует, как собирать информацию о модели '''OpenAI''' '''LLM''', построенной на основе фреймворка '''LangChain'''.&lt;br /&gt;
&lt;br /&gt;
== Пример: модель OpenAI LLM с использованием LangChain ==&lt;br /&gt;
В этом примере мы демонстрируем реализацию настраиваемой модели '''LLM''' с использованием облачного сервиса '''OpenAI''' и фреймворка '''LangChain'''. Этот компактный пример демонстрирует интеграцию '''LangChain''' для создания шаблонного слоя для модели '''LLM'''.&lt;br /&gt;
&lt;br /&gt;
Основная задача модели ИИ — предоставить краткое изложение целей бизнеса компании. '''LangChain''' добавляет уровень гибкости, позволяя пользователям динамически изменять компанию и определять максимальную длину ответа, сгенерированного ИИ.&lt;br /&gt;
&lt;br /&gt;
Для беспрепятственного экспорта и анализа собранных данных следуйте инструкциям в руководстве по [[Начало работы с наблюдаемостью ИИ и LLM|началу работы]], чтобы создать токен Ключ-АСТРОМ.&lt;br /&gt;
&lt;br /&gt;
Процесс начинается с инициализации '''SDK Traceloop OpenLLMetry'''. Затем мы аннотируем ключевые задачи модели для повышения наблюдаемости, как показано в предоставленном фрагменте кода.&lt;br /&gt;
&lt;br /&gt;
Этот комплексный подход не только демонстрирует практическую реализацию модели '''LLM''', но и подчеркивает важность настройки Ключ-АСТРОМ '''OpenTelemetry''' для эффективного экспорта и анализа данных, обеспечивая предприятиям надежную систему для оценки производительности моделей ИИ.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|import os&lt;br /&gt;
&lt;br /&gt;
import openai&lt;br /&gt;
&lt;br /&gt;
from langchain.llms import OpenAI&lt;br /&gt;
&lt;br /&gt;
from langchain.chat_models import ChatOpenAI&lt;br /&gt;
&lt;br /&gt;
from langchain.prompts import ChatPromptTemplate&lt;br /&gt;
&lt;br /&gt;
from traceloop.sdk import Traceloop&lt;br /&gt;
&lt;br /&gt;
from traceloop.sdk.decorators import workflow, task&lt;br /&gt;
&lt;br /&gt;
os.environ['OTEL_EXPORTER_OTLP_METRICS_TEMPORALITY_PREFERENCE'] = &amp;quot;delta&amp;quot;&lt;br /&gt;
&lt;br /&gt;
headers = { &amp;quot;Authorization&amp;quot;: &amp;quot;Api-Token &amp;lt;YOUR_DT_API_TOKEN&amp;gt;&amp;quot; }&lt;br /&gt;
&lt;br /&gt;
Traceloop.init(&lt;br /&gt;
&lt;br /&gt;
    app_name=&amp;quot;&amp;lt;your-service&amp;gt;&amp;quot;,&lt;br /&gt;
&lt;br /&gt;
    api_endpoint=&amp;quot;https://&amp;lt;YOUR_ENV&amp;gt;.live.astromkey.com/api/v2/otlp&amp;quot;,&lt;br /&gt;
&lt;br /&gt;
    headers=headers,&lt;br /&gt;
&lt;br /&gt;
    disable_batch=True&lt;br /&gt;
&lt;br /&gt;
)&lt;br /&gt;
&lt;br /&gt;
openai.api_key = os.getenv(&amp;quot;OPENAI_API_KEY&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
@task(name=&amp;quot;add_prompt_context&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
def add_prompt_context():&lt;br /&gt;
&lt;br /&gt;
    prompt = ChatPromptTemplate.from_template(&amp;quot;explain the business of company {company} in a max of {length} words&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
    model = ChatOpenAI()&lt;br /&gt;
&lt;br /&gt;
    chain = prompt | model&lt;br /&gt;
&lt;br /&gt;
    return chain&lt;br /&gt;
&lt;br /&gt;
@task(name=&amp;quot;prep_prompt_chain&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
def prep_prompt_chain():&lt;br /&gt;
&lt;br /&gt;
    return add_prompt_context()&lt;br /&gt;
&lt;br /&gt;
@workflow(name=&amp;quot;ask_question&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
def prompt_question():&lt;br /&gt;
&lt;br /&gt;
    chain = prep_prompt_chain()&lt;br /&gt;
&lt;br /&gt;
    return chain.invoke({&amp;quot;company&amp;quot;: &amp;quot;astromkey&amp;quot;, &amp;quot;length&amp;quot; : 50})&lt;br /&gt;
&lt;br /&gt;
if  __name__ == &amp;quot;__main__&amp;quot;:&lt;br /&gt;
&lt;br /&gt;
    print(prompt_question())&lt;br /&gt;
|}&lt;br /&gt;
Далее мы запускаем нашу модель ИИ и запрашиваем информацию о компании Ключ-АСТРОМ, получая в ответ 50 токенов, как описано ниже.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|&amp;gt;python chaining.py&lt;br /&gt;
&lt;br /&gt;
Traceloop exporting traces to https://&amp;lt;MY_ENV&amp;gt;.live.astromkey.com/api/v2/otlp, authenticating with custom headers&lt;br /&gt;
&lt;br /&gt;
content='astromkey is a software intelligence company that provides monitoring and analytics solutions for modern cloud environments. They offer a platform that helps businesses optimize their software performance, improve customer experience, and accelerate digital transformation by leveraging AI-driven insights and automation.'&lt;br /&gt;
|}&lt;br /&gt;
В среде Ключ-АСТРОМ вы можете отслеживать свою модель ИИ в режиме реального времени, изучать ее атрибуты и оценивать надежность и задержку каждой конкретной задачи '''LangChain.'''&lt;/div&gt;</summary>
		<author><name>IKuznetsov</name></author>
	</entry>
</feed>