Я унаследовал один проект в svn: 30Gb в более чем 300 000 файлах. Есть много двоичных файлов, в основном в папке с изображениями. Операции, такие как обновление всего проекта, могут быть значительно медленными.
Команда разработала процесс только для запуска обновления/переключения в конкретных папках, на которых они работают, и заканчивая проверкой в сломанном коде, потому что "он работает на моем компьютере". Любая рабочая копия одного человека может включать устаревший код, код переключения и код, забытый никогда. Кроме того, имеет место минимальное разветвление.
Мое личное решение - небольшая bash checkout/build script в 5 утра каждое утро, однако не у всех есть мужество командной строки, чтобы даже скопировать мое решение, и скорее бы это было бы комфортом черепахи svn и сломанным процессом.
Кто-нибудь пытался настроить такой большой репозиторий и может дать совет? Есть ли какая-нибудь лучшая практика, которую я могу реализовать для работы с большими репозиториями, которые я могу облегчить?
P.S. внешние эффекты не кажутся хорошей идеей, и Оптимизация SVN для сохранения больших репозиториев не применяется здесь, потому что я имею дело с одним проектом
P.P.S. В настоящее время рассматривается также: http://www.ibm.com/developerworks/java/library/j-svnbins.html