Эксперимент: улучшаем реальную статью с Obsidian Copilot
Привет, Хабр!В своей работе мне приходится держать в голове очень много информации, иногда настолько, что нельзя не полагаться на современные технологии. В этот раз я хочу проверить, можно ли собрать для автора рабочую систему, в которой заметки, черновики и готовые статьи живут в хранилище Obsidian, а локальная бол...
Привет, Хабр!В своей работе мне приходится держать в голове очень много информации, иногда настолько, что нельзя не полагаться на современные технологии. В этот раз я хочу проверить, можно ли собрать для автора рабочую систему, в которой заметки, черновики и готовые статьи живут в хранилище Obsidian, а локальная большая языковая модель DeepSeek-R1 помогает работать с этим массивом знаний прямо внутри хранилища. Смысл эксперимента не в том, чтобы переложить письмо на нейросеть, а в том, чтобы быстрее доставать уже осмысленную информацию, а не каждый раз заново разбирать сырые источники. Готовый текст затем уходит в рабочий GitLab, где ту же базу видит другой автор и может продолжить работу по той же схеме.Меня здесь интересует не очередной сервис «всё в одном», а воспроизводимый процесс, в котором каждый инструмент закрывает свой участок авторской работы. В предыдущем тексте о «Втором мозге» уже был важный вывод: нейросеть не заменила автора, но стала полезным усилителем там, где есть заметки, структура и понятные правила работы с текстом. Настало время для нового опыта с применением ИИ.В этот раз я применяю ту же логику к локальному сценарию. Вместо облачного помощника использую DeepSeek-R1 через Ollama на своем рабочем компьютере. Подключаю модель к Obsidian через плагин Copilot и проверяю, насколько удобно создавать новые материалы на основе существующей базы знаний и корпуса текстов.По сути, эта статья тоже является частью эксперимента: я собираю её из уже существующих заметок, связанных .md-файлов и ручной редактуры после диалога с локальной моделью. Ознакомиться с экспериментом
Связанные теги
Компании и люди
Линия сюжета
Copilot
Последние материалы и связанные ссылки по теме Copilot.
Copilot
Последние материалы и связанный контекст по теме Copilot.
Habr
Последние материалы и связанный контекст по теме Habr.
Habr
Последние материалы и связанные ссылки по теме Habr.
Obsidian
Последние материалы и связанный контекст по теме Obsidian.
Obsidian
Последние материалы и связанные ссылки по теме Obsidian.
Продолжить следить за темой
Переходите к связанным материалам, страницам сущностей и активным линиям сюжета.
Колобок-стек: я от бабушки ушёл, или как мы написали свой сервер алертов на 16 МБ
Pusk — self-hosted сервер алертов на 16 МБ. Один бинарник, без внешних сервисов, частично совместим с Telegram Bot API (13 методов из 80+). Типичная ситуация: несколько серверов...
Перестаньте присылать мне Word. Отправьте лучше ссылку
На днях прислали в рабочую почту очередное ТЗ в Word на разработку, для комментирования и оценки реализации. При том что у нас есть корпоративный Confluence - мощнейшая система,...
[Перевод] Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)
Привет, Хаброжители! Большие языковые модели по-прежнему просто предсказывают следующее слово. Два года назад одна лишь эта причина казалось достаточной, чтобы их отвергать — ве...
х3 бюджета на запрос — фреймворк SCALE для AI-фичи, которую нельзя убить
Выкатили в прод диалогового ассистента на LLM. Метрики вовлечённости и удержания подросли, в поддержке меньше типичных претензий про отсутствие AI, а в финмодели строка расходов...
Как тестировать API прямо в IDE, или почему я больше не использую Postman
Postman используют миллионы разработчиков — и не зря. Удобный интерфейс, коллекции, окружения, командный доступ. О чём еще мечтать?Но если вы большую часть дня проводите в IDE, ...
КП за 30 секунд — и ещё 9 задач, которые я больше не делаю руками
Я работаю с Claude каждый день, по многу часов. За это время я автоматизировал кучу рутины — от утренних брифингов до генерации коммерческих предложений. Не теоретически. Реальн...
Страницы сущностей
Рекламный слот
Встроенный блок в статье
Зарезервированный партнерский слот для релевантных инструментов, сервисов и аккуратных редакционных интеграций.
Похожие статьи
Еще материалы, которые пересекаются по тегам, источнику или категории.
Колобок-стек: я от бабушки ушёл, или как мы написали свой сервер алертов на 16 МБ
Pusk — self-hosted сервер алертов на 16 МБ. Один бинарник, без внешних сервисов, частично совместим с Telegram Bot API (13 методов из 80+). Типичная ситуация: несколько серверов...
Перестаньте присылать мне Word. Отправьте лучше ссылку
На днях прислали в рабочую почту очередное ТЗ в Word на разработку, для комментирования и оценки реализации. При том что у нас есть корпоративный Confluence - мощнейшая система,...
[Перевод] Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)
Привет, Хаброжители! Большие языковые модели по-прежнему просто предсказывают следующее слово. Два года назад одна лишь эта причина казалось достаточной, чтобы их отвергать — ве...
х3 бюджета на запрос — фреймворк SCALE для AI-фичи, которую нельзя убить
Выкатили в прод диалогового ассистента на LLM. Метрики вовлечённости и удержания подросли, в поддержке меньше типичных претензий про отсутствие AI, а в финмодели строка расходов...
Еще материалы от Habr
Свежие публикации и продолжение темы от той же редакции.
Колобок-стек: я от бабушки ушёл, или как мы написали свой сервер алертов на 16 МБ
Pusk — self-hosted сервер алертов на 16 МБ. Один бинарник, без внешних сервисов, частично совместим с Telegram Bot API (13 методов из 80+). Типичная ситуация: несколько серверов...
Перестаньте присылать мне Word. Отправьте лучше ссылку
На днях прислали в рабочую почту очередное ТЗ в Word на разработку, для комментирования и оценки реализации. При том что у нас есть корпоративный Confluence - мощнейшая система,...
[Перевод] Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)
Привет, Хаброжители! Большие языковые модели по-прежнему просто предсказывают следующее слово. Два года назад одна лишь эта причина казалось достаточной, чтобы их отвергать — ве...
х3 бюджета на запрос — фреймворк SCALE для AI-фичи, которую нельзя убить
Выкатили в прод диалогового ассистента на LLM. Метрики вовлечённости и удержания подросли, в поддержке меньше типичных претензий про отсутствие AI, а в финмодели строка расходов...
Дополнительное покрытие этой темы
Похожие публикации и близкие по смыслу материалы по этой же теме.
Эксперимент: улучшаем реальную статью с Obsidian Copilot
Привет, Хабр! В своей работе мне приходится держать в голове очень много информации, иногда настолько, что нельзя не полагаться на современные технологии. В этот раз я хочу пров...
Машинный перевод с локальным контекстом в Obsidian Copilot
Привет, Хабр.Мне по работе часто приходится заниматься переводом, и чтобы упростить себе жизнь, я решил настроить себе помощника, который был бы знаком с контекстом моей работы....