Проблема в этом. У меня есть несколько URL-адресов в системе у меня есть, что есть эта картинаПроблемы с пониманием блокировки некоторых URL-адресов на robot.txt
http://foo-editable.mydomain.com/menu1/option2
http://bar-editable.mydomain.com/menu3/option1
Я хотел бы указать в файле robot.txt, что они не должны сканироваться. Тем не менее, я не уверен, правилен ли этот шаблон:
User-agent: Googlebot
Disallow: -editable.mydomain.com/*
Будет ли он работать так, как я ожидал?