Директива Что делает?
User-agent * Указывает на робота, для которого действуют перечисленные в robots.txt правила.
Disallow Robots txt запретить индексацию разделов или закрыть страницу в robots txt.
Sitemap Указывает путь к файлу Sitemap, который размещен на сайте.
Clean-param Указывает роботу, что URL страницы содержит параметры (например, UTM-метки), которые не нужно учитывать при индексировании.
Allow Настройка файла robots txt: разрешает индексирование разделов или отдельных страниц сайта.
Crawl-delay
Задает роботу минимальный период времени (в секундах) между окончанием загрузки одной страницы и началом загрузки следующей.
Рекомендуем вместо директивы использовать настройку скорости обхода в Яндекс.Вебмастере.