Будет ли использование!# Ajax при сканировании на не-JS доступном сайте генерировать дублирующийся контент в поисковых системах?
У меня есть веб-сайт, который работает как с JS, так и с выключенным. Все ссылки на странице в обычном формате формы <a href="/pagename">
но если посетитель достигнет его с доступным JS, он будет изменен на <a href="#/pagename">
и обрабатывается с использованием события hahshchange.
В результате получается 2 возможных URL, указывающих на один и тот же контент (www.site.com/pagename
а также www.site.com/#/pagename
).
Примечание: если вы достигнете www.site.com/pagename
с JS вы будете автоматически перенаправлены на www.site.com/#/pagename
Теперь мне интересно, если я должен реализовать формат hashbang (www.site.com/#!/pagename
) или нет, так как я не знаю, приведет ли это к дублированию контента при сканировании ботами? Часто задаваемые вопросы Google не сильно помогли по этому конкретному вопросу.
1 ответ
Это, вероятно, вызовет проблемы с дублирующимся контентом, но трудно сказать наверняка, поскольку crawlable ajax - это новая вещь. Но вы можете легко решить эту проблему, используя канонические URL.