Будет ли использование!# Ajax при сканировании на не-JS доступном сайте генерировать дублирующийся контент в поисковых системах?

У меня есть веб-сайт, который работает как с JS, так и с выключенным. Все ссылки на странице в обычном формате формы <a href="/pagename">но если посетитель достигнет его с доступным JS, он будет изменен на <a href="#/pagename"> и обрабатывается с использованием события hahshchange.

В результате получается 2 возможных URL, указывающих на один и тот же контент (www.site.com/pagename а также www.site.com/#/pagename).

Примечание: если вы достигнете www.site.com/pagename с JS вы будете автоматически перенаправлены на www.site.com/#/pagename

Теперь мне интересно, если я должен реализовать формат hashbang (www.site.com/#!/pagename) или нет, так как я не знаю, приведет ли это к дублированию контента при сканировании ботами? Часто задаваемые вопросы Google не сильно помогли по этому конкретному вопросу.

1 ответ

Решение

Это, вероятно, вызовет проблемы с дублирующимся контентом, но трудно сказать наверняка, поскольку crawlable ajax - это новая вещь. Но вы можете легко решить эту проблему, используя канонические URL.

Другие вопросы по тегам