Анализ robots.txtСервис позволяет проверить, открыты или закрыты страницы от сканирования роботом поисковой системы Google или Яндекс в файле robots.txt. Пожалуйста, вводите адреса страниц по одному в строку с указанием http/https-протокола. Для адресов без протокола по умолчанию будет использоваться протокол https. Вы можете проверять сразу страницы разных сайтов, в результатах проверки они будут сгруппированы по сайтам. В результатах проверки вы увидите, закрыты или открыты страницы для сканирования каждой из поисковых систем и если да, каким правилом