Самый простой и популярный способ закрыть веб-страницу от поисковой индексации – это указать для неё соответствующую директиву в файле robots.txt. Для этого, собственно, файл robots.txt и существует – устанавливать запрет от поисковой индексации на директории, каталоги, файлы и страницы сайта. Однако, закрывать отдельные! веб-страницы через метатег robots – гораздо надёжнее...

Якоря на сайте нужны, чтобы направить пользователя СРАЗУ в заданное конкретное место веб-страницы и избавить бедолагу от ненужного листания и просмотра всего материала. При переходе по такой «заякореннной» ссылке – браузер сам автоматически прокрутит веб-страницу ИМЕННО до того места, где этот якорь установлен.