2010-10-20 17 views
47

¿Alguien sabe si hay un límite en la cantidad de objetos que puedo colocar en un cubo S3? ¿Puedo poner un millón, 10 millones, etc. en un solo cubo?Límite S3 para objetos en un cubo

+1

¿Por qué no bajar un millón o 10 millones y descubrirlo? – PurplePilot

+14

10.000 solicitudes de $ .01 podrían ser costosas para encontrar los límites de outter. Gracias por la cita a continuación – Quotient

+0

Sus 20,000 por $ 0.01 ahora – Petah

Respuesta

60

Según Amazon:

escribir, leer y borrar objetos que contienen de 1 byte a 5 terabytes de datos cada uno. La cantidad de objetos que puedes almacenar es ilimitada.

Fuente: http://aws.amazon.com/s3/details/ a partir del 3 sep, 2015.

+16

FYI - Ahora es una limitación de 5 TB por objeto. – Chad

+4

¿Puede proporcionar un enlace a la documentación que está citando? –

+1

"Puedes almacenar tantos objetos como quieras dentro de una cubeta y escribir, leer y eliminar objetos en tu cubeta. Los objetos pueden tener hasta 5 terabytes de tamaño". - http://aws.amazon.com/s3/details/ (desde el 4 de marzo de 2015) – Yoga

13

Parece que el límite ha cambiado. Puede almacenar 5TB para un solo objeto.

El volumen total de datos y la cantidad de objetos que puede almacenar son ilimitados. Los objetos individuales de Amazon S3 pueden variar en tamaño de 1 byte a 5 terabytes. El objeto más grande que se puede cargar en un solo PUT es de 5 gigabytes. Para objetos de más de 100 megabytes, los clientes deben considerar usar la capacidad de Carga de partes múltiples.

http://aws.amazon.com/s3/faqs/#How_much_data_can_I_store

0

"Puede almacenar tantos objetos como desee dentro de un cubo, y escribir, lectura y borrar objetos en su cubo. Los objetos pueden ser de hasta 5 terabytes de tamaño "

de http://aws.amazon.com/s3/details/ (como de marcha cuarto 2015)

-1

@ Acyra- rendimiento de la entrega objeto a partir de un solo cubo dependería en gran medida de los nombres de los objetos en el mismo.

Si los nombres de los archivos se alejaron mediante caracteres aleatorios, sus ubicaciones físicas se extenderían aún más en el hardware de AWS, pero si llamaras a todo 'common-x.jpg', 'common-y.jpg', esos objetos se se almacenan juntos.

Esto puede ralentizar la entrega de los archivos si los solicita simultáneamente pero no lo suficiente como para preocuparse, el mayor riesgo es la pérdida de datos o una interrupción, ya que estos objetos se almacenan juntos se perderán o no estarán disponibles.

+0

¿Tiene alguna referencia para esto, o es una suposición educada? Podría adivinar que los objetos S3 están fragmentados/codificados por nombre de archivo, o podría adivinar que se utiliza algo más aleatorizado como un sha1/md5 o algo así ... pero sin material de origen, en realidad, no lo sé. – fazy

3
  • No hay límite en los objetos por cubo.
  • Hay un límite de 100 depósitos por cuenta (debe solicitar Amazon si necesita más).
  • No hay caída de rendimiento incluso si almacena millones de objetos en un único contenedor .

a partir de documentos,

No hay límite para el número de objetos que se pueden almacenar en un cubo y ninguna diferencia en el rendimiento si se utiliza muchos cubos o sólo algunos. Puede almacenar todos sus objetos en un único contenedor, o puede organizarlos en varios segmentos.

como de Ago 2016

1

Si bien se puede almacenar un número ilimitado de archivos/objetos en un solo cubo, cuando se va a enumerar un "directorio" en un cubo, que sólo le dará los primeros 1000 archivos/objetos en ese cubo por defecto. Para acceder a todos los archivos en un "directorio" grande como este, debe realizar múltiples llamadas a su API.

Cuestiones relacionadas