Имя: Пароль:
1C
 
Confaster — ИИ-агент для 1С Конфигуратора с MCP сервером
0 N-S-B
 
22.03.26
12:12
ИИ помощник со встроенным MCP сервером, который работает прямо внутри Конфигуратора. Автодополнение кода, ревью, исправление ошибок, доработка методов, документирующие комментарии — всё без переключения из Конфигуратора.

Теперь полноценная работа с ИИ доступна не только в 1C:EDT, но и в классическом Конфигураторе. Не надо больше переключаться между чатом с ИИ и Конфигуратором, копировать и вставлять код. Confaster работает прямо внутри Конфигуратора, видит весь код текущего модуля. А если сделать выгрузку конфигурации, то подключится еще и локальный MCP сервер, который поможет ИИ ориентироваться по всей конфигурации.

На текущий момент реализованы такие функции:

Автодополнение кода
Вы пишите код, Confaster анализирует контекст - название функции\процедуры, окружающий код в модуле и предлагает продолжение кода прямо в редакторе. Применить подсказку можно нажав клавишу Tab. Код автоматически порционно вставится сразу после курсора.
Если подсказка будет надоедать или мешать, ее интенсивность можно отрегулировать в настройках, либо вовсе отключить.

Доработка и исправление кода
Выделите участок кода, который надо доработать или исправить, выберите соответствующий пункт в контекстном меню и опишите, что ИИ должен сделать. Либо можно просто установить курсор внутри функции или процедуры, если пожелание к доработке относятся ко всему методу. Предложенная доработка или исправление сразу же будет применено и отразится в Конфигураторе.
При необходимости можно отключить авто-применение исправлений\доработок и просто копировать результат из чата.

Объяснение и Ревью кода
Просто поставьте курсор внутри функции или процедуры, либо выделите непонятный участок кода и попросите Confaster объяснить его или провести ревью.

Документирующий комментарий
Установите курсор внутри процедуры или функции, выберите действие «Документирующий комментарий» — и ИИ сгенерирует полное описание: назначение, параметры и возвращаемое значение. Готовый комментарий автоматически вставляется перед методом.

MCP-сервер: расширенный контекст для ИИ
В помощника встроен MCP сервер, который помогает ИИ-моделям понимать не только текущий модуль, а контекст всей конфигурации

Чтобы MCP сервер работал необходимо выгрузить конфигурацию. Сделать это можно прямо из контекстного меню в редакторе кода.
После выгрузки MCP-сервер подключается автоматически. Теперь при запросе от ИИ он предоставляет расширенную информацию:
-Если ИИ при объяснении кода обнаруживает вызов метода из другого модуля, MCP-сервер пришлёт код этого метода.
-Если ИИ нужна структура справочника, документа или другого объекта метаданных — MCP-сервер предоставит и её.
-Если ИИ запросит информацию о том, где ссылка на текущий объект используется, MCP-сервер так же пришлет эту информацию.
И многое другое, что может запросить модель ИИ у агента.
Чтобы MCP сервер отдавал актуальный контекст, регулярно делайте выгрузку конфигурации. Во время сеанса работы в Конфигураторе только первая выгрузка может занять длительное время, все последующие выгрузки (если не закрывать Конфигуратор), будут происходить очень быстро.

Поддерживаемые модели
Confaster работает со всеми популярными моделями, в том числе с 1С:Напарник, ChatGPT, Claude, Gemini, DeepSeek и другими. Причем зарубежные модели работают через шлюз OpenRouter, что позволяет работать с ними без использования VPN или прокси.

Бесплатный вариант: На текущий момент 1С предоставляет доступ к своей ИИ модели «1С:Напарник» бесплатно, достаточно зарегистрироваться на ИТС и получить ключ на сайте Напарника ( https://code.1c.ai/tokens/ ).

Как начать работу с Confaster
Чтобы начать работать с помощником достаточно указать API ключ для нужной модели в настройках. Для этого щелкните по значку помощника в трее около часов и выберите пункт Настройки и укажите бесплатный токен от 1С:Напарника, либо свой ключ от шлюза OpenRouter.
Так же на компьютере должен быть установлен .NET Desktop Runtime. Если он не установлен, программа сама предложит его скачать с сайта Microsoft ( https://dotnet.microsoft.com/en-us/download/dotnet/8.0 ).

Сайт проекта https://confaster.ru/
1 Garykom
 
гуру
21.03.26
23:07
Еще бы распознавание речи прикрутить
Обычно скорость речи выше чем скорость набора на клавиатуре
Но обязательно с горячей кнопкой на клаве, чтобы все не воспринималось

Это так, мечты
Типа говоришь ему: В строке № 10501 исправь ошибку - и оно само исправляет, хотя бы простейшие типа ; забыл или нечто вроде
Или: В строках с MM по NN измени идентификатор XX на YY
2 aka MIK
 
22.03.26
01:46
-
3 VladZ
 
22.03.26
12:10
(0) Куда выгружается конфигурация? Не понял.
4 Волшебник
 
22.03.26
12:13
(3) очевидно, в файлы
5 VladZ
 
22.03.26
12:17
(4) Это я понял. Перефразирую вопрос: конфигурация выгружается в файлы локально? Или уходит в облако?

Не понятно, как хранятся эти файлы. Допустим, у меня несколько баз ЗУП, которые отличаются по функционалу. Как эта система поймет в какой именно ЗУП я сейчас нахожусь?
6 VladZ
 
22.03.26
12:38
Не понял, как работает с расширениями.
7 N-S-B
 
22.03.26
12:43
(5) Файлы выгружаются по умолчанию сюда %appdata%\Confaster\Bases. В обновлении добавлю возможность указать свою выгрузку или перенести выгруженную.
(6) Выгрузка расширений не поддерживается на текущий момент
8 VladZ
 
22.03.26
12:52
(7) Расширения можно прикрутить?
9 palsergeich
 
22.03.26
13:17
Автор.
годнота.
Продолжай и не бросай.
Очень нужно еще openapi для локальных моделей / моделей которых нет в списке, у меня например есть z.ai а он только через openapi.
Я начал тестить, но напарник упал у вендора.
Начало многообещающее и выглядит как то чего долго не хватало отрасли.
10 Timon1405
 
22.03.26
14:59
(7) 1. выгрузил расширение руками и закинул в корень src проекта, в логах напарника было видно что напарник его увидел в файлах когда grepal, так что тема рабочая.
выгружать расширения можно было бы опционально как раз в корень базы "C:\Program Files\1cv8\common\1cestart.exe" DESIGNER /S"Server\Database" /N"User" /P"Password" /DumpConfigToFiles "/local_PATH_cfe" -AllExtensions
11 Web00001
 
22.03.26
15:46
Так и не увидел ответа на вопрос, почему приложение не запускается без доступа к сайту где ищет обновления
12 Garykom
 
гуру
22.03.26
16:28
(11) Ну тыж программист
Настрой переназначение на свой сайт-заглушку, где сервис-эмулятор выдаст "обновы нету"
13 N-S-B
 
23.03.26
01:27
Вышло обновление Confaster v1.0.7

-Поддержка любых OpenAI-совместимых моделей. Теперь можно подключить любой сервис с OpenAI-совместимым API, включая локальные LLM (LM Studio, Ollama и др.).

-Настройка OpenRouter заменена. Если вы использовали OpenRouter, переключитесь на «OpenAI-совместимая», укажите Endpoint URL https://openrouter.ai/api/v1 , API Key и модель.

-Поддержка Claude Code. Если у вас есть подписка Claude Pro или Max, можно использовать локального ИИ-агента Claude Code — это выгоднее, чем обращаться к API напрямую.

-Бесплатная модель Qwen. Добавлена поддержка Qwen с бесплатным лимитом до 1000 запросов в сутки. Для начала работы достаточно авторизоваться через аккаунт Qwen.

-Указание папки выгрузки. Теперь для работы ИИ с конфигурацией можно указать папку с уже имеющейся XML-выгрузкой базы, либо заменить папку выгрузки по умолчанию на другую.
14 Web00001
 
23.03.26
06:28
(12)Ну понятно, надо зареверсинженерить какой там должен быть ответ. Потом написать сервис, который будет висеть на сервере и отдавать нужное значение, следить, чтобы он был доступен. Здесь понятна твоя мысль, делать этого я конечно не буду, даже если бы мог выделить на это время(слишком сложно для меня, перехватывать трафик, анализировать ответы которые могут быть зашифрованы). Но даже если и заморочиться, это не даст ответа на два вопроса:
1. Почему это происходит.
2. Почему автор отвечает на все вопросы кроме этого.
15 N-S-B
 
23.03.26
07:38
(11) (14)  Ничего секретного и подозрительного там нет, программа лезет на сайт проверить обновление, чтобы принудительно обновиться и ограничить запуск старых версий - поэтому без доступа на сайт приложение не будет работать.
16 Kongo2019
 
23.03.26
08:45
ИИ конечно замечательно, но кто подскажет как купить подписку на Claude Code например?
18 d4rkmesa
 
23.03.26
09:17
(13) Очень круто, спасибо.
22 АгентБезопасной Нацио
 
23.03.26
09:26
(16) сейчас на озоне можно
23 Timon1405
 
23.03.26
09:28
(0) пара пожеланий по рабочему окну
1. бывает что ответ ИИ не сработал по таймауту - добавить кнопку повторить запрос чтобы не копипастить запрос снова
2. думающие модели могут уйти в астрал зациклившись. нужен способ принудительно остановить поток создания. сейчас только  Диспетчер спасает от такого
24 N-S-B
 
23.03.26
09:33
(23) Какую модель используете, что она у вас по таймауту отваливается?
И какая думает так долго?
Я ни с тем ни с другим не сталкивался. Только qwen пока тестил обратил внимание, что размышляет очень уж много даже над простейшим вопросом, но это тоже не более минуты
25 Garykom
 
гуру
23.03.26
09:35
(24) Локальные модели могут долго отвечать
26 Timon1405
 
23.03.26
10:10
(24) по таймауту может упасть любая недоступная. про долго думать точно не скажу, я выставил openrouter/auto и он перекинул на gemini thinking. я про саму возможность остановки процесса ответа/рассуждения по инициативе пользователя
30 aka MIK
 
23.03.26
13:05
(15) зачем ограничивать старые версии?
31 Timon1405
 
23.03.26
13:54
(30) чтобы автору не тратить время на их поддержу.
для простоты можно было предложить автообновление сделать отключаемым и не принимать претензии по прошлым версиям.
32 aka MIK
 
23.03.26
15:09
(0) периодически перестает работать и пишет "Установите курсор внутри"

Внутри чего?
33 N-S-B
 
23.03.26
18:37
(30) Чтобы у пользователя гарантированна была только последняя версия.
(32) Команды в контекстном меню шестеренки работают только тогда, когда у вас либо выделен участок кода, либо курсор находится внутри функции\процедуры.
34 Web00001
 
23.03.26
18:46
(31)Ну сейчас то прям служба поддержки бесплатного продукта развернута и просто не хватает ресурсов все версии поддерживать.

(33)Все исключительно ради вашего блага. Где-то такое уже было
35 Fragster
 
гуру
24.03.26
10:17
(34)>Все исключительно ради вашего блага. Где-то такое уже было

ну конкретно тут надо только формулировку поменять. а вот выгрузка в файлы сделана прям жестко
36 aka MIK
 
24.03.26
13:45
(33) разумеется курсор внутри процедуры, но скрипт этого не видит

Плюс, непонятно где и когда включается MCP. Например, при создании описания функции ИИ выдумывает типы входящих параметров, вместо того чтобы проанализировать использование их в коде и заюзать MCP для этого
37 N-S-B
 
25.03.26
00:29
(36) Какая версия платформы?
При обращении к ИИ, Конфастер сообщает, какие инструменты есть для поиска других модулей и методов, а ИИ уже сам решает, когда вызывать инструменты MCP.
38 Fynjy
 
25.03.26
19:00
(37) у него не 1С скорей всего, а BAF )))
39 N-S-B
 
27.03.26
03:42
Вышло обновление Confaster v1.0.8

-Confaster больше не перекрывает платформенные значки точек останова и меток. Стало удобнее отлаживаться и не терять метки.

-Добавлена кнопка остановки генерации ответа. Пригодится, если ИИ слишком долго «размышляет» или генерирует объёмный ответ.

-Добавлена история чатов. Теперь можно вернуться к предыдущему чату и продолжить обсуждение другого вопроса.

-Оптимизировано автодополнение кода при наборе. Ранее некоторые модели могли переходить в режим «размышления», из-за чего генерация кода занимала слишком много времени.

-Добавлена поддержка работы через Proxy. Подойдёт для работы через корпоративный прокси-сервер или если вы используете прокси вместо VPN для доступа к заблокированным ИИ-моделям.

-Новый режим отображения окна — «Только поверх окна Конфигуратора». Пока активно окно Конфигуратора 1С, Confaster отображается поверх него. При переключении на другие окна Confaster перестаёт закрывать собой остальные приложения.
40 voleg2
 
28.03.26
00:53
Не совсем понятно как работать с Ollama.
Настройки такие: Endpoint: http://localhost:11434
API KEY: <пусто>
Модель (ID): deepseek-coder-v2:16b

Если писать в чат, то ошибка: Object reference not set to an instance of an object.
41 voleg2
 
28.03.26
00:58
Я думаю проблема в том, что принудительно требуется API KEY. Ollama работает локально и никакого API KEY там нет.
42 voleg2
 
28.03.26
00:59
Вывод: С локальной Ollama не работает.
43 N-S-B
 
29.03.26
14:43
Судя по документации Ollama, надо использовать такой URL для Endpoint http://localhost:11434/v1
44 VladZ
 
30.03.26
10:19
(39) Как быстро можно прикрутить работу с расширениями ?
45 Asmody
 
30.03.26
10:22
(41) поставь любой API KEY. локальная ollama его игнорирует
46 Fragster
 
гуру
30.03.26
11:13
кстати, кто пробовал не на видеокартах, а на новых процессорах ai серии гонять нейросетки? стоит обновлять ноутбук на что-то с 64 гигами и такой процессор? (сейчас 32 гига и амд 7840, всё грустно)
47 d4rkmesa
 
30.03.26
11:38
(46) 64Гб ничего существенно нового не принесет относительно 32, субъективно, это просто современная рабочая станция, для тех кто "успел" такую купить. У меня такая только на работе, домой хотел одно время взять Evo X2, но сейчас нет в продаже вариантов с 96 и 128Гб памяти, да и в целом народ в комментах пишет, что есть вопросу к использованию.
Тут надо исходить из того, что использовать будете и какая скорость нужна. Судя по реддиту https://www.reddit.com/r/GMKtec/comments/1l7sy8x/review_gmktec_evo_x2_a_beast_on_paper_a_bit_of_a/?tl=ru  ,  у Evo X2 128Gb:
Модель OpenAI 20B: ~64 токена/сек
Модель OpenAI 120B: ~42,85 токена/сек
Первую вроде и на вашем железе можно запустить, но что там со скоростью - вопрос.
48 Krendel
 
30.03.26
11:47
(46) В любом случае посмотри, но мне мои технари заявили, что разница в генерации 3 порядка. Поэтому пока только Видюхи.

По крайней мере доступные публичные ИИ модели. Может у компаний есть модели с оптимизацией под Оперативку и ОЗУ.

Я рассматривал возможность купить сервачок для расчетов в пределах 1кк
49 Fragster
 
гуру
30.03.26
12:23
(47) там вроде про комп с видеокартой, я же про изменение в процессоре. типа амдшные АИ чипы относительно не-AI в пять и более раз быстрее. хотелось бы правды. сейчас прям совсем грустно.
50 Fragster
 
гуру
30.03.26
12:24
(48) тратить 1кк на комп домой ради сомнительного применения я пока не готов.
51 Fragster
 
гуру
30.03.26
12:25
(49) UPD посмотрел - там на интеграшке. тогда выглядит интересно.
52 Fragster
 
гуру
30.03.26
12:28
хотя с другой стороны - относительно простенькие запросы кушают тысячи токенов. со скоростью 50 токенов в секунду оно будет вечность считаться. https://i.imgur.com/7U0BSr7.png
53 Krendel
 
30.03.26
12:46
(50) Я про то, что хотел на пром сервере поднять ИИ, с 256гб оперативы и 2 процами.

А стандартная 4090, работает быстрее
54 d4rkmesa
 
30.03.26
13:06
(51) Имхо, пока это ai-блоки первого поколения, толку от них немного, ну примерно как от MMX и 3DNow в 1999. Некоторые модели требуют сразу видеокарту nVidia на 16+ Gb и поддержки CUDA.
(52) Вот поэтому не стал брать.
55 voleg2
 
31.03.26
12:45
С Ollama я разобрался. Получилось работать с локальными моделями.
56 voleg2
 
31.03.26
13:03
Там все так: client = OpenAI(
    base_url='http://localhost:11434/v1/',
    api_key='ollama',  # required but ignored
)
57 voleg2
 
31.03.26
13:11
(46) Так все и будет. Например на RTX3090 10к CUDA.
Это топ до сих пор, и 24 Гб памяти.

На б/у рынке 3090 не дорого 30 - 60 т.р.
Вам для нейронок не нужны никакие технологии кроме количества CUDA.

Но в сравнении с топами при том же числе +- CUDA - под 200 т.р. разницы не увидите.

Единственно в чем, только в энергоэффективности.

Тот же ComfyUI уже использует всю доступную память на компе. VRAM + RAM + SSD. Поэтому все это добро и выросло в цене.
58 X Leshiy
 
03.04.26
12:10
(0) "Редактор кода не найден"

1.0.7 работало
59 N-S-B
 
03.04.26
14:56
(58) Какая платформа, винда? Платформа не от имени администратора запущена? Модуль открыт какой-нибудь?
60 X Leshiy
 
03.04.26
16:38
(59) 8.3.27.1786, win10, от администратора, открыт. Конфастер тоже от администратора открывал, не от администратора)