News Grower

Независимое покрытие AI, стартапов и технологий.

Эксперимент: улучшаем реальную статью с Obsidian Copilot

Привет, Хабр!В своей работе мне приходится держать в голове очень много информации, иногда настолько, что нельзя не полагаться на современные технологии. В этот раз я хочу проверить, можно ли собрать для автора рабочую систему, в которой заметки, черновики и готовые статьи живут в хранилище Obsidian, а локальная бол...

Автор: satirfying (ТестОпс) Оригинальный источник
Эксперимент: улучшаем реальную статью с Obsidian Copilot

Привет, Хабр!В своей работе мне приходится держать в голове очень много информации, иногда настолько, что нельзя не полагаться на современные технологии. В этот раз я хочу проверить, можно ли собрать для автора рабочую систему, в которой заметки, черновики и готовые статьи живут в хранилище Obsidian, а локальная большая языковая модель DeepSeek-R1 помогает работать с этим массивом знаний прямо внутри хранилища. Смысл эксперимента не в том, чтобы переложить письмо на нейросеть, а в том, чтобы быстрее доставать уже осмысленную информацию, а не каждый раз заново разбирать сырые источники. Готовый текст затем уходит в рабочий GitLab, где ту же базу видит другой автор и может продолжить работу по той же схеме.Меня здесь интересует не очередной сервис «всё в одном», а воспроизводимый процесс, в котором каждый инструмент закрывает свой участок авторской работы. В предыдущем тексте о «Втором мозге» уже был важный вывод: нейросеть не заменила автора, но стала полезным усилителем там, где есть заметки, структура и понятные правила работы с текстом. Настало время для нового опыта с применением ИИ.В этот раз я применяю ту же логику к локальному сценарию. Вместо облачного помощника использую DeepSeek-R1 через Ollama на своем рабочем компьютере. Подключаю модель к Obsidian через плагин Copilot и проверяю, насколько удобно создавать новые материалы на основе существующей базы знаний и корпуса текстов.По сути, эта статья тоже является частью эксперимента: я собираю её из уже существующих заметок, связанных .md-файлов и ручной редактуры после диалога с локальной моделью. Ознакомиться с экспериментом

Связанные теги

Компании и люди

Линия сюжета

Продолжить следить за темой

Переходите к связанным материалам, страницам сущностей и активным линиям сюжета.

Колобок-стек: я от бабушки ушёл, или как мы написали свой сервер алертов на 16 МБ

Колобок-стек: я от бабушки ушёл, или как мы написали свой сервер алертов на 16 МБ

Pusk — self-hosted сервер алертов на 16 МБ. Один бинарник, без внешних сервисов, частично совместим с Telegram Bot API (13 методов из 80+). Типичная ситуация: несколько серверов...

Перестаньте присылать мне Word. Отправьте лучше ссылку

На днях прислали в рабочую почту очередное ТЗ в Word на разработку, для комментирования и оценки реализации. При том что у нас есть корпоративный Confluence - мощнейшая система,...

[Перевод] Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)

[Перевод] Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)

Привет, Хаброжители! Большие языковые модели по-прежнему просто предсказывают следующее слово. Два года назад одна лишь эта причина казалось достаточной, чтобы их отвергать — ве...

х3 бюджета на запрос — фреймворк SCALE для AI-фичи, которую нельзя убить

х3 бюджета на запрос — фреймворк SCALE для AI-фичи, которую нельзя убить

Выкатили в прод диалогового ассистента на LLM. Метрики вовлечённости и удержания подросли, в поддержке меньше типичных претензий про отсутствие AI, а в финмодели строка расходов...

Как тестировать API прямо в IDE, или почему я больше не использую Postman

Как тестировать API прямо в IDE, или почему я больше не использую Postman

Postman используют миллионы разработчиков — и не зря. Удобный интерфейс, коллекции, окружения, командный доступ. О чём еще мечтать?Но если вы большую часть дня проводите в IDE, ...

КП за 30 секунд — и ещё 9 задач, которые я больше не делаю руками

КП за 30 секунд — и ещё 9 задач, которые я больше не делаю руками

Я работаю с Claude каждый день, по многу часов. За это время я автоматизировал кучу рутины — от утренних брифингов до генерации коммерческих предложений. Не теоретически. Реальн...

Рекламный слот

Встроенный блок в статье

Зарезервированный партнерский слот для релевантных инструментов, сервисов и аккуратных редакционных интеграций.

Партнерский слот

Похожие статьи

Еще материалы, которые пересекаются по тегам, источнику или категории.

Колобок-стек: я от бабушки ушёл, или как мы написали свой сервер алертов на 16 МБ

Колобок-стек: я от бабушки ушёл, или как мы написали свой сервер алертов на 16 МБ

Pusk — self-hosted сервер алертов на 16 МБ. Один бинарник, без внешних сервисов, частично совместим с Telegram Bot API (13 методов из 80+). Типичная ситуация: несколько серверов...

Перестаньте присылать мне Word. Отправьте лучше ссылку

На днях прислали в рабочую почту очередное ТЗ в Word на разработку, для комментирования и оценки реализации. При том что у нас есть корпоративный Confluence - мощнейшая система,...

[Перевод] Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)

[Перевод] Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)

Привет, Хаброжители! Большие языковые модели по-прежнему просто предсказывают следующее слово. Два года назад одна лишь эта причина казалось достаточной, чтобы их отвергать — ве...

х3 бюджета на запрос — фреймворк SCALE для AI-фичи, которую нельзя убить

х3 бюджета на запрос — фреймворк SCALE для AI-фичи, которую нельзя убить

Выкатили в прод диалогового ассистента на LLM. Метрики вовлечённости и удержания подросли, в поддержке меньше типичных претензий про отсутствие AI, а в финмодели строка расходов...

Еще материалы от Habr

Свежие публикации и продолжение темы от той же редакции.

Открыть страницу источника
Колобок-стек: я от бабушки ушёл, или как мы написали свой сервер алертов на 16 МБ

Колобок-стек: я от бабушки ушёл, или как мы написали свой сервер алертов на 16 МБ

Pusk — self-hosted сервер алертов на 16 МБ. Один бинарник, без внешних сервисов, частично совместим с Telegram Bot API (13 методов из 80+). Типичная ситуация: несколько серверов...

Перестаньте присылать мне Word. Отправьте лучше ссылку

На днях прислали в рабочую почту очередное ТЗ в Word на разработку, для комментирования и оценки реализации. При том что у нас есть корпоративный Confluence - мощнейшая система,...

[Перевод] Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)

[Перевод] Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)

Привет, Хаброжители! Большие языковые модели по-прежнему просто предсказывают следующее слово. Два года назад одна лишь эта причина казалось достаточной, чтобы их отвергать — ве...

х3 бюджета на запрос — фреймворк SCALE для AI-фичи, которую нельзя убить

х3 бюджета на запрос — фреймворк SCALE для AI-фичи, которую нельзя убить

Выкатили в прод диалогового ассистента на LLM. Метрики вовлечённости и удержания подросли, в поддержке меньше типичных претензий про отсутствие AI, а в финмодели строка расходов...

Дополнительное покрытие этой темы

Похожие публикации и близкие по смыслу материалы по этой же теме.

Эксперимент: улучшаем реальную статью с Obsidian Copilot

Эксперимент: улучшаем реальную статью с Obsidian Copilot

Привет, Хабр! В своей работе мне приходится держать в голове очень много информации, иногда настолько, что нельзя не полагаться на современные технологии. В этот раз я хочу пров...

Машинный перевод с локальным контекстом в Obsidian Copilot

Машинный перевод с локальным контекстом в Obsidian Copilot

Привет, Хабр.Мне по работе часто приходится заниматься переводом, и чтобы упростить себе жизнь, я решил настроить себе помощника, который был бы знаком с контекстом моей работы....