Безопасная работа на сайте, или как уберечься от ошибок индексации?
Pharmcash - фарм партнерка владеет несколькими партнерками и колцентром, низкие цены!
ZipWap - признанный лидер конверта мобильного трафика, старожилы рынка!
___________________
Каждый сайт выводится на суд пользователей не случайно, а в строгом соответствии с отданными поисковым роботам командами. Владелец площадки по собственному
усмотрению может открыть свой сайта для индексации некоторым или всем поисковикам или же скрыть его от глаз пользователей частично или полностью.
Безопасная работа на сайте, или как уберечься от ошибок индексации?
Смотрите полный видеокурс на iTunes
Чем грозит бесконтрольная индексация?
Для того чтобы работа на сайте была безопасной, необходимо соблюдать определённые правила. В частности, это касается индексации площадки, когда она попадает на всеобщее обозрение. Любой сайт – сложная система, которая состоит из набора титульных и нетитульных страниц. Как правило, пользователи видят только те разделы, которые предназначены для них, однако существует немало связанных скрытых страниц, которые несут в себе техническую информацию. Действительно безопасная работа на сайте возможна только при условии сокрытия технических разделов сайта, поскольку выложенной на них информацией могут в корыстных целях воспользоваться злоумышленники. Сайт с открытым техническим разделом является лёгкой добычей для мало-мальски опытного хакера – нет ничего проще взломать такую площадку и воспользоваться хранящейся на ней конфиденциальной информацией. Последняя может также попасть на всеобщее обозрение, если скрытые страницы сайта по ошибке попадут в индекс поисковой системы. Так, к примеру, покупатели интернет-магазина могут с удивлением обнаружить, что их контактные данные, возраст и прочие личные данные стали достоянием общественности сети. Такие промахи могут нанести непоправимый удар репутации фирмы и вызвать крупный международный скандал.
Как избежать негативных последствий некорректной индексации?
Итак, мы уже убедились, что обнародование технических разделов или скрытых страниц с конфиденциальной информацией – это самое страшное, что только может случиться с площадкой. К счастью, владельцы сайтов могут контролировать процесс индексации, указывая поисковым роботам какие разделы следует выводить на всеобщее обозрение, а какие оставить в тени. Чтобы работа на сайте была максимально комфортной и безопасной для всех сторон процесса, используется специальный файл robots.txt, который предназначен для того, чтобы указывать какой поисковой робот может индексировать тот или иной раздел площадки. В большинстве случаев такой файл можно найти в корневой директории сайта, а если он там отсутствует, то нет ничего проще, чем создать его собственноручно с помощью программы «Блокнот». Названный robots.txt пустой файл следует заполнить определённым образом. Поисковые роботы контактируют с сайтами на языке директив, основными из которых являются Allow, Disallow и User-agent. Первая директива разрешает поисковику индексировать сайт или определённый его раздел, вторая – отдаёт команду частично или полностью скрыть площадку от глаз пользователей и поисковой системы, ну а третья команда указывает, для какого именно поисковика предназначена команда на сокрытие или открытие сайта для индексации. Существует также масса других директив, которые указывают на основное зеркало сайта (Host), отражают путь к карте сайта (Sitemap), определяют интервал, периодичность и скорость загрузки страниц сайта (Crawl-delay, Request-rate и Visit-time соответственно) и мн. др.
___________________
Leadsbox.com - новая CPA. Выплаты без холдов! Rate : 90%!!!
SellUS.ru- агрегатор товаров для продаж в Рунете, лучшее решение для Вашего трафа
Myrxpartner.biz - комиссия в фарме до 80%? Супер условия работы!!!
|