После перехода на HTTPS консоль поиска Google сообщает, что мой robots.txt блокирует все URL в карте сайта
Вчера я установил SSL-сертификат на один из моих доменов, обновил ссылки и карту сайта и т. Д.
Сегодня я снова отправил карту сайта в Google Search Console, и, к своему ужасу, он говорит, что 5 257 из 5 310 URL-адресов в карте сайта заблокированы robots.txt
,
Я добавил новый https
в Google Search Console, и при отправке карты сайта я получаю ту же ошибку, что и в старом http
имущество.
Вот мой robots.txt
доступно по адресу https://adrdangerousgoods.com/robots.txt:
User-agent: *
Sitemap: https://adrdangerousgoods.com/sitemap.xml
Sitemap: http://adrfarligtgods.se/sitemap-swe.xml
Allow: *
Мой домен - https://adrdangerousgoods.com/ а карта сайта - карта сайта, доступная по адресу https://adrdangerousgoods.com/sitemap.xml. Я проверял robots.txt
с помощью инструмента в консоли поиска Google он ничего не блокирует (очевидно, так как он настроен на полный доступ).
я использую .htaccess
выполнять 301 redirects
на все запросы http://adrdangerousgoods.com
в https://adrdangerousgoods.com
,
Есть идеи, что здесь происходит? Не уверен, стоит ли мне просто подождать и посмотреть, нужно ли Google что-то обновить где-то или действительно что-то не так с моим sitemap/robots.txt/ другим материалом.
1 ответ
Пожалуйста, замените код, как показано ниже, и попробуйте:
Пользователь-агент: *
Разрешать: /
Карта сайта: https://adrdangerousgoods.com/sitemap.xml
Карта сайта: http://adrfarligtgods.se/sitemap-swe.xml
Дайте мне знать, если это работает.