Los contenidos de un sitio web de comercio (ASP.NET MVC) son rastreados regularmente por la competencia. Estas personas son programadores y utilizan métodos sofisticados para rastrear el sitio, por lo que no es posible identificarlos por IP. Desafortunadamente, la sustitución de valores por imágenes no es una opción, ya que el sitio debe seguir siendo legible para lectores de pantalla (JAWS).Protección del contenido del sitio web de los rastreadores
Mi idea personal está usando robots.txt: prohibir el acceso a los rastreadores de una URL normal en la página (esto podría ser disfrazada como un enlace normal detalle del artículo, pero oculta a los usuarios normales URL válido: http://example.com?itemId=1234 Prohibida: http://example.com?itemId=123 bajo 128) . Si un propietario de IP ingresó al enlace prohibido, se mostrará una validación de CAPTCHA. Un usuario normal nunca seguiría un enlace como este porque no está visible, Google no tiene que rastrearlo porque es falso. El problema con esto es que el lector de pantalla aún lee el enlace y no creo que esto sea tan efectivo como para que valga la pena implementarlo.
Si su competencia se preocupa lo suficiente como para usar diferentes proxies, ¿por qué diablos deberían preocuparse por su robots.txt? – Jacob
En su texto oculto que lee el lector de pantalla, ¿por qué no dice algo así como 'ignore este enlace, es solo para bots' –
+1 Buena pregunta. –