Внутренняя и внешняя оптимизация сайтов: приручаем пауков!

Внутренняя и внешняя оптимизация сайтов: приручаем пауков!

Продолжая цикл тематических статей о поисковой оптимизации (SEO) на Родине Линков, мы вплотную подобрались к очень важному аспекту деятельности любого SEOшника - знанию принципов работы поисковых систем, пониманию «логики» работы поисковых роботов и принципов ранжирования сайтов.

В данной статье мы рассмотрим основные принципы и методы внутренней и внешней оптимизации сайтов под поисковые запросы. SEO, как структура или комплекс мероприятий по оптимизации сайтов под поисковые запросы, по своей сути универсальная, дихотомичная. Мы уже знаем, что ее условно разделяют на «черную» и «белую», сеошников, в свою очередь на добрых и злых, и что самое интересное - SEO подразделяется на внутреннюю и внешнюю.

Внутренняя поисковая оптимизация (ВПО) – это определенный набор мероприятий, действий, направленный на улучшение сайта, улучшение факторов, влияющих на ранжирование, которые, в свою очередь, влияют на позицию в поисковой выдаче.

Если говорить об успешности проекта в целом, то именно ВПО обеспечивает этот успех. Из чего же строится внутренняя поисковая оптимизация?

внутренняя оптимизация

Прежде всего - это:

Составление семантического ядра сайта

Смысл этого действия состоит в том, чтобы сформировать необходимый набор ключевых слов, по которым впоследствии сайт будет «продвигаться».

Редактирование, оптимизация контента

Этот процесс подразумевает, что необходимо не только внимательно и скрупулезно составить ключевые слова и фразы, обеспечивая тем самым релевантность страницы, но также облегчить изображения под web и оптимизировать код HTML под современные требования. Немаловажное значение имеет дизайн, форматирование текста и отсутствие орфографических ошибок.

Структура сайта.

Под ней понимается оптимизация поиска в рамках самого сайта, составление карты сайта, а также внутренняя перелинковка. Вы должны продумать структуру сайта таким образом, чтобы он был удобен для восприятия и пользования. Сложные нелогичные нагромождения из большого количества страниц, зачастую, вызывают у пользователей раздражение и приводят к тому, что сайт покидается навсегда. Кроме того, уже в самом начале желательно озадачиться ЧПУ или так называемым «человекопонятным» URL.

Robots.txt - пожалуй самая важная техническая деталь ВПО. Файл /robots.txt содержит в себе ряд инструкций и указаний поисковым роботам (spiders). Он может разрешать (allow) или запрещать (disallow) индексировать определенные директории. Кроме того, именно этот файл важен при склейке зеркал сайтов. Более подробно о Robots.txt мы скажем ниже.

А теперь попытаемся приручить поискового паука?

spiders

Итак, мы выяснили, что пауки(spiders) работают по указаниям, инструкциям, записанным в файле /robots.txt. На самом деле робот индексирует только те файлы и директории сервера, которые не обозначены в файле /robots.txt.

Сам файл может содержать 0 или более записей, связанных с тем или иным роботом. Это определяется значением поля agent_id. Значение можно указывать и для каждого отдельного робота, и для всех сразу. Т.е. дать паукам прямые инструкции, что именно им не надо индексировать.

Синтаксис файла обеспечивает возможность формирования запретных областей индексирования. Эти области можно задавать и одному и всем роботам одновременно.

Поисковые системы предъявляют к файлу robots.txt определенные требования. Если не соблюдать эти требования, то это неизбежно приведет к неправильному считыванию машиной поисковой системы необходимых инструкций или к полной недееспособности файла.

Основные требования к файлу /robots.txt:

  • размещайте файл в корневом каталоге сайта,
  • название файла должно быть написано прописными буквами, в нижнем регистре;
  • создавать файл необходимо в текстовом формате Unix;
  • при копировании файла на сайт настройте FTP-клиент на текстовой режим обмена файлами.

Что содержит файл robots.txt?

Прежде всего, две записи: “user-agent” и “disallow”. Названия записей к регистру букв нечувствительны. Некоторые поисковики могут поддерживать и дополнительные записи, например: “host”, чтобы определить основное зеркало сайта.

Зеркало сайта – это копия основного сайта, находящаяся в индексе поисковых систем.

У каждой записи в файле исключительно свое предназначение, записи могут повторяться. Это зависит от количества страниц или директорий, которые нужно закрыть от индексации. Также количество повторяющихся записей зависит и от количества spiders, к которым вы обращаетесь.

Для того, чтобы файл прочитывался верно, нужно, чтобы директива disallow присутствовала после каждой записи user-agent.

Если же файл robots.txt будет полностью пустым, то это эквивалентно его отсутствию. Отсутствие файла равноценно разрешению на индексирование всего сайта.

В последующих статьях мы рассмотрим более подробно синтаксис и правила составления файла robots.txt , а пока остановимся лишь на основных требованиях поисковых систем к этому файлу.

Внешняя оптимизация - включает в себя ряд мероприятий, которые направлены на получение ссылочной массы на сайт, а также анализ сайтов конкурентов. Увеличивать ссылочную массу можно самыми различными способами, как бесплатными, так и платными. Буквально несколько лет назад было вполне достаточно закупить на бирже ссылок больше, чем у конкурентов и оказаться в ТОПе, но сегодня эти методы уже не действуют. Ссылки сегодня утратили былую магическую мощь, и особое внимание в наши дни нужно уделять все же внутренней оптимизации. Однако не утратили своей актуальности, и по-прежнему широко используются для продвижения сайтов так называемые «вечные» ссылки.

Вечная ссылка – это ссылка с трастового сайта, купленная на бирже ссылок. В отличие от временных ссылок, которые отслеживаются поисковыми машинами и часто снимаются, вечная ссылка оплачивается только один раз и действует на протяжении всего срока существования сайта.

Почему вечные ссылки лучше?

Обычные ссылки сегодня доставляют ряд неоправданных хлопот. Они легко выявляются поисковыми системами, которые накладывают целый ряд штрафных санкций на покупные ссылки, лишая при этом сайты PR и удаляя из своего индекса.

Вечная ссылка естественна. Она может быть окружена тематическим текстом. Вечные ссылки потенциально эффективнее обычных покупных ссылок. Ведь чем продолжительные срок ее существования на сайте, тем больший вес она ему придает.

Новичкам SEO можно порекомендовать приобретение вечных ссылок для своих сайтов, а также начинать внешнюю оптимизацию с бесплатных методов.

Например, вы можете зарегистрироваться в профилях трастовых сайтов, анонсировать материалы на других ресурсах, меняться постовыми, уместны и гостевые посты…. Одним словом, тут подойдет все, что способно наращивать ссылочную массу.

В цикле статей о секретах SEO мы продолжим разбор основополагающих принципов поисковой оптимизации. Следите за публикациями о секретах SEO на Родине Линков, и становитесь профессионалами вместе с нами.

Автор , на 17 сентября 2013 г. в Термины.

Расскажите друзьям:


Комментарии

Комментирование отключено.

Услуги
Спецпредложения

Подписка на блог

без спама, не чаще одного раза в неделю

Кто победит?

Facebook

VKontakte