Можно ли разделить пользователей и ботов (пауков, сканеров) и показывать рекламные баннеры только для пользователей на страницах AMP?

Клиент спрашивал о не показе рекламных баннеров для ботов, потому что компания теряет деньги в результате.

Я реализовал эту логику на страницах без AMP, я анализирую User-Agent с помощью JavaScript на стороне клиента. Причиной реализации этого на стороне клиента был кеш, я боялся, что если кеш будет сохранен, то при разборе сайта все люди после этого вообще не увидят рекламу.

Теперь у меня есть задача использовать эту логику на страницах AMP текущего сайта и подумать о том, как я могу сделать это и на стороне клиента, потому что проект AMP не дает мне возможности использовать пользовательский JavaScript обычно.

2 ответа

Вы ищете термин "маскировка", и он резко наказывается поисковыми системами, такими как Google: https://support.google.com/webmasters/answer/66355?hl=en&ref_topic=6001971

Под маскировкой понимается практика представления различного контента или URL-адресов пользователям и поисковым системам. Клоакинг считается нарушением Руководства Google для веб-мастеров, поскольку он дает нашим пользователям результаты, отличные от ожидаемых.

Некоторые примеры маскировки включают в себя:

Обслуживание страницы текста HTML для поисковых систем, при этом показывая пользователям страницу с изображениями или Flash. Вставка текста или ключевых слов в страницу только тогда, когда пользовательский агент, запрашивающий страницу, является поисковой системой, а не посетителем, если ваш сайт использует технологии. что поисковые системы испытывают затруднения при доступе, такие как JavaScript, изображения или Flash, см. наши рекомендации, чтобы сделать этот контент доступным для поисковых систем и пользователей без маскировки.

Если сайт взломан, то хакер нередко использует маскировку, чтобы владелец сайта смог его обнаружить. Узнайте больше о взломанных сайтах.

Google также оштрафовывает сайты по разным причинам, как по причине того, что их результаты поиска являются релевантными, так и за то, что они не перенаправляют пользователей на сайты, которые являются болезненными для использования из-за количества промежуточной рекламы, и, вероятно, непрозрачно, чтобы сделать их объявления Google более привлекательными людям тогда реклама, которая более навязчива.

Короче говоря, это плохая идея, и ваш сайт будет пойман, и в результате ваш сайт пострадает.

Тем не менее, вы должны иметь возможность фильтровать контент на основе агента пользователя. Большинство ботов с хорошим поведением сообщат, что они боты, но не все.

Если у вас нет явного списка IP-адресов для обслуживания различного контента, вы не сможете поймать ботов, которые легко выдают себя за пользователей, не используя скрытые приемы.

Это заставляет меня спрашивать,

Клиент спрашивал о не показе рекламных баннеров для ботов, потому что компания теряет деньги в результате.

Как именно они теряют деньги в результате? Если это "упущенная выгода", то это не потеря денег. Боты так или иначе никогда бы не отреагировали на рекламу.

Если это пропускная способность, то стоимость минимальна по сравнению с потерями, которые вы получите, если вы будете обслуживать контент по-другому для ботов, чем для людей, и вас поймают.

Если боты затем перенаправляют ваш контент вашим пользователям, фильтруя рекламу, то вам нужно каким-то образом напрямую заблокировать этих ботов или иным образом заставить их доказать, что они люди, прежде чем продолжить, лучше использовать CAPTCHA.

Если это простая проблема с отчетами, боты MOST, как правило, сообщают, что они являются ботами, и аналитика Google должна иметь возможность отфильтровать их с некоторыми изменениями, а те, которые не могут быть легко различимы в любом случае.

Клиент использует интерфейс DoubleClick для генерации отчетов о денежных доходах от рекламных кампаний компаний. Каждый месяц Google вычитает огромную сумму заработка для одной компании. И это было главной проблемой. Этот издатель нарушил правила размещения рекламы и имел количество предупреждений в консоли издателя Google.

Решение для обнаружения трафика ботов было реализовано и не решило проблему. Я использовал собственный JavaScript и попытался проанализировать UserAgent + я дополнительно использовал список известных плохих ботов UserAgents.

Другие вопросы по тегам