После перехода на HTTPS консоль поиска Google сообщает, что мой robots.txt блокирует все URL в карте сайта

Вчера я установил SSL-сертификат на один из моих доменов, обновил ссылки и карту сайта и т. Д.

Сегодня я снова отправил карту сайта в Google Search Console, и, к своему ужасу, он говорит, что 5 257 из 5 310 URL-адресов в карте сайта заблокированы robots.txt,

Я добавил новый https в Google Search Console, и при отправке карты сайта я получаю ту же ошибку, что и в старом http имущество.

Вот мой robots.txt доступно по адресу https://adrdangerousgoods.com/robots.txt:

User-agent: *

Sitemap: https://adrdangerousgoods.com/sitemap.xml
Sitemap: http://adrfarligtgods.se/sitemap-swe.xml

Allow: *

Мой домен - https://adrdangerousgoods.com/ а карта сайта - карта сайта, доступная по адресу https://adrdangerousgoods.com/sitemap.xml. Я проверял robots.txt с помощью инструмента в консоли поиска Google он ничего не блокирует (очевидно, так как он настроен на полный доступ).

я использую .htaccess выполнять 301 redirects на все запросы http://adrdangerousgoods.com в https://adrdangerousgoods.com,

Есть идеи, что здесь происходит? Не уверен, стоит ли мне просто подождать и посмотреть, нужно ли Google что-то обновить где-то или действительно что-то не так с моим sitemap/robots.txt/ другим материалом.

1 ответ

Пожалуйста, замените код, как показано ниже, и попробуйте:
Пользователь-агент: *
Разрешать: /

Карта сайта: https://adrdangerousgoods.com/sitemap.xml
Карта сайта: http://adrfarligtgods.se/sitemap-swe.xml

Дайте мне знать, если это работает.

Другие вопросы по тегам