Настройка ассистента в провайдере GPT
Здесь вы узнаете какие есть настройки в провайдере GPT и ассистенте
Last updated
Здесь вы узнаете какие есть настройки в провайдере GPT и ассистенте
Last updated
Чтобы добавить провайдер GPT вам необходимо авторизоваться в личном кабинете IntellectDialog и перейти в раздел Провайдеры и нажать кнопку Добавить
Далее в категориях вам необходимо выбрать Искусственный интеллект и провайдер ChatGPT
После выбора провайдера у вас откроется дополнительное меню, где вы сможете произвести настройки
Более подробно о каждом пункте:
Наименование - здесь вы указываете название в произвольном формате (как вам нравится)
Выберите модель - здесь вы можете ввести название модели на которой будет работать ваш бот от gpt o1-mini до gpt-4.1, это модель которая отвечает за ответ, который видит пользователь.
Температура - Это как "настроение" модели. Если Температура высокая (например, 1.0), модель будет более "креативной", возможно, будет использовать более редкие слова или строить необычные фразы. Если Температура низкая (например, 0.2), модель будет выбирать более предсказуемые и простые варианты. В итоге ответы будут более стандартными и сдержанными.
Тоp P - Представьте, что модель выбирает следующее слово из списка возможных вариантов. Top P определяет, сколько из этих вариантов модель будет рассматривать. Например, если Top P = 0.9, модель возьмет в расчет только те варианты, которые в сумме дают 90% вероятности. Это помогает избегать совсем неожиданных и странных слов.
После сохранения настроек у вас появится кнопка Настроить для Ассистента
Внутри ассистента есть такие параметры, как:
Название организации - применяется по умолчанию.
Провайдер - название, заданное во время добавления провайдера.
Инструкция для ассистента - общая инструкция работы бота, которая составляется промпт-инженером.
Автообновление в днях - если информация для бота загружена в виде ссылки на документ и информация в нём обновляется, данный параметр настраивается в зависимости от того, как часто вносятся правки.
Максимальное количество результатов - ограничивает сколько фрагментов из документа (или других данных) будет использоваться для ответа. Пример: Если стоит 3, то ChatGPT будет использовать топ-3 наиболее релевантных фрагмента из файла для генерации ответа. Больше — точнее и богаче контекст, но выше нагрузка на модель и возможны "размытые" ответы.
Пороговое значение оценки - это минимальный "рейтинг релевантности", при котором фрагмент документа допускается в обработку. Чем выше порог — тем жёстче фильтрация нерелевантных данных. Пример: Если порог 0.8, то только фрагменты, оценённые моделью как сильно релевантные (80%+) попадут в ответ. Если поставить 0.3, то даже слабосвязанные куски могут использоваться — это может быть полезно при неоднозначных вопросах.
Модель для поиска данных в файле - выбор модели определяет, какая именно модель поиска данных в виде векторов используется для поиска релевантных фрагментов. Модели default_2024_08_21 и auto (ranker) используются в ChatGPT для поиска и ранжирования информации в файле (например, при загрузке PDF, CSV и других документов).
Вот в чём основное различие:
✅ default_2024_08_21 Это базовая модель поиска, используется по умолчанию. Работает быстро и стабильно. Подходит для простого семантического поиска, когда не требуется сложное ранжирование. Не использует дополнительные механизмы оценки релевантности. Когда использовать: Если у тебя обычный файл (текст, заметки, данные) и нужно просто найти релевантные фрагменты по запросу.
🤖 auto Это более умная система с ранжированием, которая динамически выбирает подходящий механизм поиска и оценки. Использует специализированный ранкер, который оценивает, насколько найденные фрагменты действительно отвечают на вопрос. Может быть медленнее, но точнее, особенно на больших или сложных документах. Может переключаться между режимами в зависимости от запроса. Когда использовать: Если у тебя сложные документы, много текста или тебе нужна максимальная точность и качественные ответы на вопросы.
Важно! Инструкции по ответам на запросы пользователя и промпт в сценарии не должны противоречить общей инструкции, из-за этого бот может начать пропускать ответы.
А также список файлов, загруженных в качестве базы знаний для бота в доступных форматах или ссылкой на документ.
key - здесь указывается ключ из вашего личного кабинета OpenAI, ключ можно получить здесь
Выберите модель для технических запросов - здесь вы вводите название модели на которой будут обрабатываться технические запросы, т.е все запросы, которые будут происходить внутри системы: распознавание намерений, сопоставление переменных и т.д.(полное описание действий доступно при включении команды loggerOn), на которые будут тратиться токены. Следует отметить, что для разных моделей - разная тарификация токенов, актуальная информация по тарификации токенов находится тут: Рекомендуем! Производить изначальное тестирование на более продвинутой модели, а затем постепенно опускать до более упрощенной версии и сверять как корректируется логика и время ответов.