Внутрення оптимизция сайта, seo аспекты.

Сегодня я расскажу вам о трех китах любого проекта в интернете. Я вас уверяю без них как без воздуха в топ не пройти. На seo курсах этому посвятили целое занятие. Так что отнеситесь к этому серьезно. Первый кит – это файл robots.txt. Данный файл служит для ограничения доступа поисковых ботов к разделам сайта. Прежде чем прочитать ваш сайт, поисковый бот сначала обращается к файлу robots.txt , затем начитавшись ваших запретов или разрешений, начинает сканировать сайт. Вы должны знать, что данный файл является рекомендательным и из-за него в бан не попадешь. Это значит, что он не может полностью запретить чтение вашего сайта. Хорошие боты его смотрят и учитывают, а вот плохие тихонько читают все подряд и относят инфу своему хозяину. Вас это не должно пугать. Ведь мы дружим с хорошими ботами и их поисковыми системами. Так, что будим ориентироваться на них. Синтаксис : robots.txt и ни как иначе. Данный файл должен всегда находиться в корневой директории сайта, потому как ищется роботами только там и нигде, к вам в дом робот или бот не пойдет. Важно знать: некоторые оптимизаторы рекомендуют прописывать файлы, о которых посторонним вообще знать не стоит. Я не рекомендую вам это делать. Указав их в robots.txt любой злоумышленник может про них узнать. Ведь robots.txt может открыть и посмотреть любой человек вот так: site.ru/robots.txt. Пример robots.txt . Для Yandex лучше делать отдельную секцию и указывать главное зеркало сайта.

User-agent: *

Disallow:
Sitemap: site.ru/sitemap.xml

User-agent: Yandex
Disallow:
Host: site.ru

Как вы видите в robots.txt есть директива Sitemap –это и есть наш второй кит, без которого как и без первого не может существовать не один сайт в интернете. Говоря простыми словами Sitemap -это карта вашего сайта написанная в специальном формате xml понятном роботам. Ее можно сделать вручную, если ваш сайт состоит из 3 страниц, а можно автоматически при помощи sitemap генераторов. Их очень легко отыскать через поиск. Sitemap для оптимизации сайта, очень важная вещь. Многие СMS такие как ворд пресс умеют автоматически ее генерировать. Первое и самое главное предназначение карты сайта- это провести поискового бота по всем страницам . Если ее нет бот может и не проиндексировать новую страницу, а за это время ее могут скопировать и выдать на другом ресурсе за свою. Как защищаться от копирования я уже рассказал тут. Запомнили? Если нет пишем в коменты я направлю. Третий кит самый жирный и самый важный- это файл .htaccss. Он является помощником robots.txt. Что нельзя сделать в robots.txt можно сделать в файле .htaccss. Так как он управляет конфигурацией веб сервера Apache. Прежде чем лапатить файл .htaccss я рекомендую его скопировать и сохранить в темном прохладном месте, а то получится как у меня, просеошите целый день и можете положить сайт на землю с небес. Но борьба стоит свеч. Сделанная директива .htaccess выполняет редирект посетителя, запрашивающего документ на другой URL . Выполняет внешний редирект (сообщая браузеру о необходимости загрузить другой URL ).Как я сделал редирект и зачем он нужен, можно почитать в моей статье. Вот и прошел еще один урок по теме seo курсы artox media и я уже не чайник, я оптимизатор или оптимист )) Смотрим комикс по теме. Блин про красный сертификат я забыл? Рекомендую посмотреть данную страницу, быть может, там на красном сертификате уже появилась появилась моя фамилия.

Сделай доброе дело. Пожалуйста, нажми кнопку: на небесах это зачтется!

Теги:

Комментирование закрыто.