2009-12-10 20 views
9

No puedo encontrar ninguna información sobre cómo Google determina si usted es cloaking su contenido. ¿Cómo, desde un punto de vista técnico, crees que están determinando esto? ¿Están enviando cosas distintas del googlebot y comparándolas con los resultados de googlebot? ¿Tienen un equipo de seres humanos comparando? ¿O pueden decir de alguna manera que ha verificado el agente de usuario y ha ejecutado una ruta de código diferente porque vio "googlebot" en el nombre?¿Cómo sabe Google que está encubriendo?

Está en relación con esta cuestión en legitimate url cloaking for seo. Si el contenido de texto es exactamente el mismo, pero la representación es diferente (html de estilo 1995 vs. ajax vs. flash), ¿hay realmente un problema con el encubrimiento?

Gracias por su puesta en este caso.

Respuesta

3

Por lo que yo sé, cómo Google prepara resultados del motor de búsqueda es secreto y en constante cambio. Spoofing diferentes usuarios-agentes es fácil, por lo que pueden hacer eso. También pueden, en el caso de Javascript, representar páginas parciales o enteras. "¿Tienen un equipo de seres humanos comparando?" Esto es dudoso Se ha escrito mucho sobre las estrategias de rastreo de Google, incluido el this, pero si hay seres humanos involucrados, solo se les llama para casos específicos. Incluso dudo de esto: cualquier persona -la potencia gastada probablemente se gaste ajustando el motor rastreador.

1

Google mira a su sitio mientras que la presentación de agente de usuario que no sea el robot de Google.

+2

Lo hacen? ¿Y este otro usuario-agente todavía se identifica como algún tipo de robot? De lo contrario, ¿no sería eso muy furtivo por parte de Google? – Thilo

+5

Proporcione una fuente –

+0

Incluso los diferentes agentes de usuarios no pueden ayudar a Google a decir si un navegador ha usado el índice z para superponer un div para ocultar cierto contenido de la vista: ¿esto califica como "encubrimiento"? –

1

Consulte el Google Chrome comic book page 11 donde se describe (incluso mejor que los términos comunes) acerca de cómo una herramienta de Google puede tomar un esquema de una página web. Podrían estar usando esta o una tecnología similar para la indexación de búsqueda de Google y la detección de capa, al menos ese sería otro buen uso.

alt text

+0

¿Puede explicarme un poco cómo se relaciona esto (que es una prueba automática de un motor de renderizado) con la detección de capa? – Thilo

+0

Estoy especulando con que la tecnología podría volverse a empaquetar como "lo que el navegador piensa que se muestra" y aplicarse a lo que el robot de Google realmente raspa. No sería diferente a TestSwarm para jQuery http://testswarm.com/ pero Google usaría granjas de servidores para ello. Yah, está por ahí pero tiene jirones de viabilidad. –

+0

Mi explicación probablemente no es muy clara, pero básicamente digo que si Google (a través de Chrome) puede crear tecnología que demuestre una diferencia entre lo que un navegador web "ve" y lo que realmente se ve, entonces la idea no es inviable. también pueden tener otras tecnologías que comparan el mundo web "pensar" versus "ver". –

1

En realidad, muchos de los algos de Google son trivialmente invertida y están lejos de ser una ciencia exacta. En el caso de, llamado, "detección de camuflaje", todas las suposiciones previas son sobre el dinero (aparte de, algo irónicamente, John K lol). Si no me crees, configura algunos sitios de prueba (entradas) y algunos " encubrimiento de casos de prueba (entradas adicionales), envíe sus sitios al tío Google (procesamiento) y pruebe sus no suposiciones a través de percepciones cuánticas cognitivas correlativas basadas en humanos pseudo-avanzadas (< - por cierto, lo inventé para el valor de entretenimiento (y ahora estoy anidando paréntesis para realmente ensuciar con tu mente :)) AKA "comprobando que Google resuena para ver si todavía estás prohibido" (salidas). Loop hasta la aclaración == True (noob!) Lol

1

Google contrata contratistas (indirectamente, a través de una agencia externa, por muy bajo salario) para revisar manualmente los documentos devueltos como resultados de búsqueda y juzgar su relevancia para los términos de búsqueda, calidad de traducciones, etc. Dudo mucho que esta sea su única herramienta para detectar el encubrimiento, pero es una de ellas.

0

Una prueba muy simple sería comparar el tamaño del archivo de una página web que el Googlbot vio con el tamaño del archivo de la página escaneada por un usuario de Google que se parece a un usuario normal.

Esto podría detectar candidatos más sospechosos para el examen closeer.

0

llaman su página utilizando herramientas como el rizo y construir un hash a partir de la página sin el agente de usuario, entonces construyen otra hash con el robot de Google de agente de usuario. Los dos valores hash deben ser similares, tienen algoritmos para comprobar los valores hash y saber si su encubrimiento o no

+2

Técnicamente su respuesta es correcta, pero sería mejor proporcionar enlaces para respaldar la información que ha proporcionado para mejorar la calidad de esta respuesta. –

Cuestiones relacionadas