chmutov2005@gmail.com Skype: alexfin1 Мой статус

Работа поисковых машин с сайтами допускает возможность управления процессом взаимодействия со стороны владельца площадки. В частности, посещая сайт или блог, поисковые машины в первую очередь ищут файл robots.txt, в котором прописаны инструкции для индексации, а, если таковой отсутствует, то поисковик считает себя вправе индексировать ресурс по собственному усмотрению.

WordPress robots.txt: что это и зачем он необходим?

Сущность robots.txt

Если вам встретился где-нибудь термин wordpress robots.txt, то знайте, что речь идёт о текстовом файле, который находится в корневой директории сайта и служит для обеспечения коммуникаций между владельцем площадки (или веб-мастером) и поисковой машиной относительно индексации. Попасть в поисковую выдачу стремиться каждая площадка, однако большинство сайтов имеют разделы, которые лучше скрыть от пользователя. Например, речь идёт о страницах с технической или конфиденциальной информацией. Если такие данные попадут в сеть, то, минимум – будет скандал, максимум – репутация фирмы претерпит несовместимый с жизнью удар. Именно поэтому жизненно необходимо правильно управлять процессом индексации, чтобы она приносила только пользу как в контексте продвижения сайта к вершинам рейтинга поисковой выдачи, так и в смысле привлечения целевой аудитории. Инструментом, который позволяет управлять процессом индексации, выступает текстовый файл wordpress robots.txt. Если в корневой папке сайта таковой отсутствует, то его можно легко создать с помощью блокнота или любого другого текстового редактора, позволяющего создавать файлы с таким расширением. Однако просто создать файл robots.txt и поместить его в корневую директорию сайта не достаточно для того, чтобы повлиять на индексацию. Для этого необходимо осуществить настройку данного файла.

Настройка robots.txt

Для того чтобы файл wordpress robots.txt мог надлежащим образом выполнять возложенные на него обязанности посредника между владельцем сайта и поисковым роботом по вопросам индексации, необходимо осуществить его настройку. Под настройкой файла robots.txt следует понимать его заполнение. Не секрет, что поисковые роботы не понимают обычного английского, русского или какого-либо иного «человеческого» языка, поэтому общаться с ними нужно посредством иных специальных приёмов. В частности, для заполнения файла robots.txt используются так называемые директивы, то есть прописные команды, который поисковая машина однозначно «понимает» и неукоснительно выполняет. Существует много различных директив, предназначенных для «общения» владельца площадки с поисковым роботом, однако из всего из большого количества можно выделить три основные, которые имеют определяющее значение. Итак, речь идёт о директивах Allow, Disallow и User-agent. Первая из трёх фундаментальных директив служит для указания поисковому роботу на страницы и разделы сайта, которые можно и нужно индексировать. Втора директива, напротив, указывает поисковику, на какие разделы ему лучше «закрыть глаза». И, наконец, третья команда — User-agent – служит для того, чтобы поисковые роботы понимали, для кого именно из них прописаны вышеописанные инструкции.

Поделитесь с друзьями в соц. сетях!

Опубликовать в Одноклассники
Опубликовать в Мой Мир
Опубликовать в LiveJournal
Опубликовать в Google Plus

2 комментария: WordPress robots.txt: что это и зачем он необходим?

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Поиск по интернету
ПОЛУЧАЙТЕ ОБНОВЛЕНИЯ БЛОГА

Введите Ваш E-mail@

Подпишитесь на YouTube-канал!
Создай ИМ всего за 15 секунд!
Создать интернет магазин на платформе InSales
Бесплатный хостинг на месяц!
Тариф «Первый»: 2 сайта, 1 Гб, 2 MySQL, 2 FTP