Я работал над довольно большим проектом Python с несколькими тестами.
Некоторые специфические части приложения требуют интенсивного тестирования процессора, и наш подход к тестированию всего перед фиксацией перестал иметь смысл.
С тех пор мы приняли подход селективного тестирования на основе тегов. Проблема в том, что по мере роста кодовой базы поддержание упомянутой схемы тегирования становится несколько громоздким, и я хотел бы начать изучать, можем ли мы создать что-то более умное.
В предыдущем задании тестовая система была такова, что она проверяла только код, на который повлияли изменения в коммите.
Похоже, что Mighty Moose использует аналогичный подход для языков CLR
. Используя их как источник вдохновения, я задаюсь вопросом: какие есть альтернативы (если таковые имеются) для интеллектуального выборочного тестирования в проектах Python
?
Если их нет, каковы были бы хорошие начальные подходы для создания чего-то подобного?