Usted puede notar en Bucket Restrictions and Limitations, se afirma:
There is no limit to the number of objects that can be stored in a bucket
Mi experiencia es que un gran número de objetos en un solo cubo no afectará el rendimiento de conseguir un solo objeto por su llave (que es, get parece ser de complejidad constante).
Tener un número muy grande de objeto también does not affect the speed of listing a given number of objects:
List performance is not substantially affected by the total number of keys in your bucket
Sin embargo, debo advertirle, que la mayoría de las herramientas de gestión de S3 que he usado (como S3Fox) se ahogue y morir una muerte horrible lento cuando intentando acceder a una cubeta con una gran cantidad de objetos. Una herramienta que parece funcionar bien con un gran número de objetos es S3 Browser (tienen una versión gratuita y una versión Pro, no estoy afiliado a ellos de ninguna manera).
El uso de "carpetas" o prefijos, no cambia ninguno de estos puntos (obtener y enumerar un número dado de objetos son todavía constantes, la mayoría de las herramientas todavía se sobreponen y cuelgan).
- [Restricciones y limitaciones del paquete] (http://docs.amazonwebservices.com/AmazonS3/latest/dev/BucketRestrictions.html) - [Límite del segmento Amazon S3] (http://seocracy.com/2009/ 08/amazon-s3-bucket-limit /) – David