Можно ли предотвратить сканирование определенного контента (например, SEO), но при этом разрешить спам-ботам / скребкам его видеть?
Это "очень" особый вариант использования. Но допустим, у нас есть следующее:
У меня есть веб-страница www.myportfolio.com, и внутри нее я хочу перечислить несколько писем, например:
<p class="email1">john.doe@gmail.com<p>
Добавив этот контент, я буду влиять на SEO страницы. Но это проблема, я не хочу, чтобы этот контент влиял на SEO-рейтинг страницы. НО я хочу, чтобы спамеры и скребки страниц могли читать этот контент в любом случае. Итак, в конечном итоге,
Можно ли сказать роботу Google (и другим ботам) не сканировать этот субконтент, а сканировать остальную часть страницы?
И, пожалуйста, предоставьте несколько авторитетных источников для ваших ответов. Спасибо.
1 ответ
Короче нет, не в самом чистом смысле. Вы можете указать Google/Bing/Yahoo/etc исключить сайт, каталог или страницу, используя robots.txt, вы можете сделать исключение на уровне страницы, используя теги "без индекса", но не раздел.
Что вы можете сделать, так это поместить контент, нарушающий работу, на другую исходную страницу и перетащить его на главную страницу с помощью iframe, и просто заблокировать исходную страницу с помощью роботов или мета "без индекса" (<meta name="robots" content="noindex, nofollow">
).