Conséquence, le site peut ne pas se référencer. Il est recommandé de vérifier comment est vu votre site par ces robots en utilisant l'extension User Agent Switcher de firefox et en le configurant avec le user-agent du robot que vous souhaitez tester:
- Googlebot/2.1 (+http://www.google.com/bot.html)
- Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
- Googlebot-Image/1.0
Et voici l'erreur que renvoit le robot:
"Partial rendering requires a browser that supports W3C DOM Level 1.0."
Avec le framework Ajax.Net on peut tester si le browser supporte ou non le partial rendering, ce qui laisse l'opportunité de le désactiver:
protected void Page_Init(object sender, EventArgs e)
{
MasterScriptManager.SupportsPartialRendering = !Request.Browser.Crawler
&& MasterScriptManager.SupportsPartialRendering;
}
Pour compléter cela, il peut être interessant d'ajouter un répertoire app_browser avec un .browser adapté comme kowitz le suggére ce qui peut améliorer l'indexation de votre site.
Après cela, il faut être un peu patient pour que le site se référence!
Aucun commentaire:
Enregistrer un commentaire