News Grower

Независимое покрытие AI, стартапов и технологий.

Как мы перестроили тестирование релизов 1С и сократили цикл выпуска вдвое

Когда проект небольшой, а релизы выходят редко, тестирование чаще всего строится интуитивно. Что-то проверили, что-то упустили — в худшем случае исправили по факту. Такой подход может работать годами, пока система не начинает расти.Этот материал вырос из нашего доклада на Infostart Tech Event в прошлом году. Здесь я...

Автор: ds_1C (Бэклог) Оригинальный источник
Как мы перестроили тестирование релизов 1С и сократили цикл выпуска вдвое

Когда проект небольшой, а релизы выходят редко, тестирование чаще всего строится интуитивно. Что-то проверили, что-то упустили — в худшем случае исправили по факту. Такой подход может работать годами, пока система не начинает расти.Этот материал вырос из нашего доклада на Infostart Tech Event в прошлом году. Здесь я подробно разберу, как мы перестраивали процесс тестирования релизов в крупном проекте 1С:ЗУП: с чего начали, какие проблемы выявили, почему не стали автоматизировать всё подряд и к какому результату в итоге пришли.

Связанные теги

Компании и люди

Линия сюжета

Продолжить следить за темой

Переходите к связанным материалам, страницам сущностей и активным линиям сюжета.

Почему я перестал писать bash-скрипты и написал свой язык

Время от времени мне нужно выполнить примитивный сценарий в терминале, но каждый раз это заканчивается очередным гуглежом «bash iterate each file» или «bash file has string». А ...

[Перевод] Как работают ИИ-агенты для разработки

[Перевод] Как работают ИИ-агенты для разработки

ИИ-агенты для разработки быстро стали частью повседневной практики, но за внешней «магией» скрывается вполне конкретная архитектура: языковая модель, системный промпт, инструмен...

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

Попытка обсудить использование LLM для анализа текстов на одном религиозном форуме закончилась быстрым блокированием и удалением темы. Статья задаётся вопросом: почему нейросети...

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потре...

Cruzo — минималистичный UI-фреймворк без лишней сложности

Cruzo — минималистичный UI-фреймворк без лишней сложности

Иногда возникает странное ощущение, что фронтенд уже не про решение задач.А про поддержание сложности.Я в разработке ещё до AngularJS и React. Тогда всё было просто: HTML и немн...

Рекламный слот

Встроенный блок в статье

Зарезервированный партнерский слот для релевантных инструментов, сервисов и аккуратных редакционных интеграций.

Партнерский слот

Похожие статьи

Еще материалы, которые пересекаются по тегам, источнику или категории.

Почему я перестал писать bash-скрипты и написал свой язык

Время от времени мне нужно выполнить примитивный сценарий в терминале, но каждый раз это заканчивается очередным гуглежом «bash iterate each file» или «bash file has string». А ...

[Перевод] Как работают ИИ-агенты для разработки

[Перевод] Как работают ИИ-агенты для разработки

ИИ-агенты для разработки быстро стали частью повседневной практики, но за внешней «магией» скрывается вполне конкретная архитектура: языковая модель, системный промпт, инструмен...

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

Попытка обсудить использование LLM для анализа текстов на одном религиозном форуме закончилась быстрым блокированием и удалением темы. Статья задаётся вопросом: почему нейросети...

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потре...

Еще материалы от Habr

Свежие публикации и продолжение темы от той же редакции.

Открыть страницу источника

Почему я перестал писать bash-скрипты и написал свой язык

Время от времени мне нужно выполнить примитивный сценарий в терминале, но каждый раз это заканчивается очередным гуглежом «bash iterate each file» или «bash file has string». А ...

[Перевод] Как работают ИИ-агенты для разработки

[Перевод] Как работают ИИ-агенты для разработки

ИИ-агенты для разработки быстро стали частью повседневной практики, но за внешней «магией» скрывается вполне конкретная архитектура: языковая модель, системный промпт, инструмен...

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

Попытка обсудить использование LLM для анализа текстов на одном религиозном форуме закончилась быстрым блокированием и удалением темы. Статья задаётся вопросом: почему нейросети...

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потре...