A veces veo constantes de entero definidas en hexadecimal, en lugar de números decimales. Esta es una pequeña parte que tomé de una clase GL10:¿Por qué usar constantes hexadecimales?
public static final int GL_STACK_UNDERFLOW = 0x0504;
public static final int GL_OUT_OF_MEMORY = 0x0505;
public static final int GL_EXP = 0x0800;
public static final int GL_EXP2 = 0x0801;
public static final int GL_FOG_DENSITY = 0x0B62;
public static final int GL_FOG_START = 0x0B63;
public static final int GL_FOG_END = 0x0B64;
public static final int GL_FOG_MODE = 0x0B65;
Es obvio que es más simple de definir 2914
en lugar de 0x0B62
, por lo que es allí quizá algunos ganancia de rendimiento? Literalmente no lo creo, desde entonces debería ser el trabajo del compilador cambiarlo.
No hay nada de rendimiento al respecto - a veces es una convención de codificación, a veces es una máscara de bits, a veces es una variable de bandera, a veces es solo un número – Petesh
Y a veces es sólo para confundir a los principiantes;) – mallaudin
@mallaudin Los principiantes primero deben aprender los conceptos básicos. No OpenGl. –