He heredado un único proyecto en svn: 30Gb en más de 300 000 archivos. Hay toneladas de archivos binarios allí en su mayoría en una carpeta de imágenes. Operaciones como actualizar todo el proyecto pueden ser dramáticamente lentas.Mejores prácticas para un solo proyecto SVN grande
El equipo ha desarrollado un proceso para ejecutar solo la actualización/activar las carpetas específicas en las que están trabajando y terminar revisando el código roto porque "funciona en mi computadora". La copia de trabajo de una persona puede incluir un código obsoleto, un código cambiado y un código olvidado que nunca se haya confirmado. Además, se produce una ramificación mínima.
Mi solución personal es un pequeño script bash checkout/build a las 5 a.m. todas las mañanas; sin embargo, no todos tienen la valentía de línea de comandos para copiar mi solución y preferirían la comodidad del svn de tortuga y el proceso roto.
¿Alguien ha intentado sintonizar un repositorio tan grande y puede dar consejos? ¿Hay algunas prácticas recomendadas que pueda implementar para trabajar con repositorios grandes en los que pueda facilitar el acceso a todos?
P.S. los externos no parecen ser una buena idea y SVN optimizations to keep large repositories responsive no se aplica aquí porque estoy tratando con un solo proyecto
P.P.S. Esto actualmente se está analizando también: http://www.ibm.com/developerworks/java/library/j-svnbins.html
¿Tiene alguna noticia sobre este tema? Estoy experimentando un problema similar en nuestro proyecto. –