На главную Напишите нам! Напишите нам!
15-11-2012
ВНУТРЕННЯЯ ОПТИМИЗАЦИЯ ВАШЕГО САЙТА

И так, мы уже определились со списком поисковых (ключевых) запросов, кото- рые собираемся продвигать. Провели анализ сайтов конкурентов и прикинули примерный бюджет который нам потребуется. Пришло время провести внутреннюю оптимизацию нашего сайта. Первым делом нам надо определиться какие страницы нашего сайта мы будем оптимизировать. Рекомендую первым делом вернуть к табличке сделанной нами при анализе конкурентов и посмот- реть какие страницы в топе по конкурен- тным ВЧ запросам. Если по вашему ВЧ запросу в топе только морды, а загля- нув дальше и посмотрев ТОП20 увидев что там тоже одни морды – не стоит даже и пытаться продвигать этот запрос на внутренней странице. Вообще конечно желательно всегда продвигать ВЧ запросы на главной станице сайта (морде). Но бывают иногда ситуации когда ВЧ много (например, крупный портал) и приходится под часть высокочастотных запросов оптимизировать внутренние страницы сайта.

С целях рационализации трудозатрат необходимо сгруппировать наши запросы. Группируются запросы по разным факторам, например по услугам: «аренда автомобилей без водителя», «аренда автомобилей без водителя Москва» - их явно можно продвигать на одной странице. Можно группировать по маркам товаров, по городам, по повторяющимся основным ключевым запросам и т.д. Я рекомендую одну страницу оптимизировать под 2-5 запросов, это в среднем, бывает и больше. Если запросов не много, то можно продвигать их все на одной главной странице. Если много, то распределяем по внутренним страницам. Чуть не забыл сказать, страница должна соответствовать тому поисковому запросу под который она оптимизируется. Иначе юзер пришедший по запросу «аренда автомобилей Москва» и увидев на странице информацию про то как поменять фаркоп на КАМАЗе сразу уйдет с вашего сайта. Когда запросов много запасайтесь терпением и все равно доводите работу до конца.

Если у вас уже готовый сайт и вы собираетесь продвигать множество НЧ, то релевантные страницы можно найти при помощи того же Яндекса. Делается это через расширенный поиск, задаем свой вопрос, урл сайта на котором искать его и нажимаем поиск. Первая страница в выдаче и будет самой релевантной. С запросами и страницами определились. Идем далее.

Анализ контента сайта (страницы), объем и качество текстов

Контент страницы или попросту говоря текст (статья) на сайте должен быть высокого качества. Подразделяют три вида Интернет контента: копирайт, рерайт и копипаст. Копипаст это по сути воровство чужого текста и размещение на своем сайте, нас это не интересует. Рерайт – это когда берется чужая статья, прочитывается и на ее основе, но уже другими словами излагается та же самая информация. Этот вид статей назовем эконом вариантом. И наконец копирайт – это написанная с нуля статья, желательно написанная человеком хорошо разбирающемся в сути того вопроса про который он писал. В идеале это должен быть журналист. Так вот анализ контента на сайте показывает, что лучше всего размещать копирайт статьи, к ним у поисковиков не будет ни каких претензий. А так же вас не будут пугать авторскими правами, которые кстати надо уважать. В общем нужен текст хорошего качества.

Объем текста должен быть не менее 1,5-2 тысяч символов. Слишком большой объем тоже ни к чему, делать объем текста больше 6-7 тысяч символов не стоит. Если конечно у вас на сайте не инструкция по эксплуатации супер современной атомной подводной лодки. Хотя и такую инструкцию я бы тоже разбил на кусочки.

Поисковые системы очень любят большие контентные сайты. Они любят когда сайты часто обновляются и на них появляется новый контент. Примите к сведению – чем больше страниц на сайте (с уникальным текстом) тем лучше к нему относятся поисковые системы.

Количество и плотность ключевых слов на странице

Споры про количество ключевых слов на странице идут уже давно среди оптимизаторов. Кто то говорит что плотность ключевых слов должна быть в пределах 4-6%, кто то что 5-8%. Как ее посчитать, да просто. Если у вас на странице 1000 слов, и ключевое слово встретилось 60 раз, то плотность его будет 6%. Придерживайтесь примерно этих цифр. Старайтесь соблюдать падеж и порядок следования ключевых слов. Это так называемое «прямое вхождение ключа». То есть если у нас есть запрос «аренда автомобилей в Москве» то и в тексте он должен встречаться именно в таком виде и таком порядке. Кроме того необходимо присутствие в нашем тексте и различных склонений этой фразы: «аренду автомобиля в Москве», «арендовать автомобили в Москве» и т.д.

Так же нужно что бы слова из всей фразы встречались в тексте по отдельности или меньшими сочетаниями – «аренда автомобилей», «аренда в Москве» и т.д. Думаю принцип понятен. Сильно не увлекайтесь в этом, помните, что во всем должна быть мера. Сам же текст должен быть хорошо читаем для ваших клиентов. А то бывает оптимизируют страницу под ключи так, что сам текст читать противно из за невероятных речевых оборотов.

Поисковые системы умеют определять морфологию слов и это один из элементов проверки на качество текста. Кроме то есть специальные алгоритмы которые определяют степень уникальности текста (именно поэтому рекомендую не пользоваться рерайтом). По этому в первую очередь пишите текст для свих пользователей и уже во вторую для поисковых систем.

Количество ключевых слов и плотность ключевых слов вы можете посмотреть в уже известной нам по анализу конкурентов программе Yazzle.

анализ плотности ключевых слов в Yazzle
скринсшот анализа плотности Yazzle

Внутренняя перелинковка сайта

Внутренняя перелинковка сайта позволяет перенаправлять и сосредотачивать статический вес на нужной нам (продвигаемой) странице. Внутренняя перелинковка очень хорошо помогает при продвижение НЧ запросов. На сайте с большим количеством страниц многие НЧ запросы можно вывести с топ одной внутренней линковкой, а иногда даже СЧ запросы.

Способы внутренней перелинковки страниц у каждого оптимизатора свои. Первым этапом вашей перелинковки должно стать создание карты сайта. Что такое карта сайта думаю пояснять не надо. Вторым этапом может стать создание словарика терминов (сленга) вашей тематики на сайте. Это очень хороший способ внутренней перелинковки. Из каждой статьи в которой упоминается термин делаем ссылку на наш словарик и тем самым вытягивает дополнительные запросы в ТОП и соответственно получаем дополнительный около тематический трафик.

Линковать можно и без словаря, а просто из всех статей на определенную, продвигаемую нами страницу. Если мы продвигаем главную страницу сайта, то и ссылки должны вести с внутренних страниц на главную. Ссылаться нужно конечно же продвигаемыми нами словами. Т.е. если я продвигаю морду по запросу «аренда автомобилей», то и анкоры ссылок с внутренних страниц должны содержать этот запрос. Очень полезно ссылаться не только прямым вхождение ключа а так же и его словоформами – «арендуем автомобиль», «аренду автомобиля», «аренде автомобилей» и т.д.

Хорошим приемом перелинковки служит список тематических статей внизу страницы. Т.е. на странице есть статья на тему «аренда грузовых автомобилей», а в конце статьи пишем что то типа «рекомендуем так же прочитать» и далее список ссылок на другие тематические стати сайта.

Файл robots.txt

Абсолютно все поисковые боты при посещении сайта первым делом проверяют наличие в корневой директории файла robots.txt. Если он присутствует то бот следует инструкциям прописанным в нем. Что же это за файл? Далеко не все вебмастера знают как им пользоваться и потому не создают файл robots.txt совсем. Часто на форумах можно услышать вопрос «как составить robots.txt». Что ж уделим немного внимания этому нужному элементу оптимизации сайта.

Формат файла robots.txt

В файле robots.txt всегда должны быть как минимум две следующие директивы:

User-agent: - определяет для какого бота какой поисковой системы будут следующие инструкции
Disallow: - указывает какую директорию сайта (конкретную страницу) не индексировать.

Можно задать одинаковые директивы для всех поисковых систем, для этого нужно в User-agent поставить «звездочку»:

User-agent: *

В общем случае синтаксис файла robots.txt выглядит так:

User-agent: *
Disallow: /file.html
Disallow: /papka/

Где, * - указывает что инструкции для всех поисковых систем
Disallow: /file.html – запрещает индексацию файла file.html
Disallow: /papka/ - запрещает индексацию всех файлов папки «papka»

Если вам не надо запрещать к индексации ни каких страниц сайта, то ваш правильный robots.txt будет выглядеть так:

User-agent: *
Disallow:

Robots.txt для Яндекса (Yandex)

Всегда нужно указывать в файле robots.txt для Яндекса директиву «Host». Директива host в robots.txt указывает поисковой системе Яндекс как нужно индексировать сайт: с «www» или без «www». Применение директивы «Host» позволит избежать проблем с зеркалом сайта. Лучше сразу все сделать правильно. Пример robots.txt для Яндекса:

User-agent: Yandex
Disallow: /cgi-bin
Host: www.site.ru

На приведенном примере robots.txt указано что бы Yandex индексировал сайт с www. А на следующем примере без него:

User-agent: Yandex
Disallow: /cgi-bin
Host: site.ru

Часто новички задают вопрос: «как лучше с www или без?». Отвечу: принципиальной разницы ни какой нету. Сайт будет абсолютно одинаково работать и так и так. НО вам надо обязательно определиться с этим и прописать в Host. Если вы этого не сделаете то в индексе Яндекса появятся дубли страниц. Будут страницы и с www и без. Это негативно скажется на продвижении сайта.

Важный момент, директиву host понимает только Yandex поэтому для него и для других поисковых систем нужно разделять директивы. Содержание файла robots.txt будет следующим:

User-agent: Yandex
Disallow: /cgi-bin
Host: site.ru

User-agent: *
Disallow: /cgi-bin

Где отдельные директивы для Яндекса и отдельные для всех прочих ПС. Думаю этих данных должно вам хватить для правильного составления файла robots.txt.

Ошибки при оптимизации сайта

При разработке своего проекта многие вебмастера допускают ошибки оптимизации сайта. Как правило ошибки оптимизации плохо влияют на индексацию сайта поисковыми системами, на релевантность страниц, а так же нарушают лицензии поисковых систем. Давайте рассмотрим основные ошибки при оптимизации сайта.

Навигация через скрипты

Как правило, вставляя ссылку на другую страницу сайта применяют тег <A>. Это правильное решение с точки зрения оптимизации сайта. Но есть и другие способы, например посредством технологий JavaScript или Flash. Роботы поисковых систем, в частности Яндекса, не переходят по таким ссылкам. По этому не желательно их применять. Но если в силу каких то причин вы все таки используете такие методы построения активной ссылки, то рекомендую дублировать такие ссылки посредством уже упомянутого выше тега <A>.

Использование фреймов

Не знаю насчет ПС Google, но Яндекс точно не индексирует содержимое фреймов. Поэтому советую воздержаться от использования фреймов. Это теги HTML <FRAMESET>, <FRAME>, <IFRAME>.

Множество редиректов

Старайтесь как можно меньше использовать редиректы или совсем откажитесь от них. Редиректы могут помочь в очень малом количестве случаев, когда они реально необходимы (перенаправление юзеров на новые страницы с устаревших). Яндекс не очень их любит.

Уникальность адреса страницы

Любая страница вашего сайта должна быть доступна только по одному физическому URL. Кроме того, в идеале, адрес страницы не должен содержать идентификаторы ссесий, а так же списки cgi параметров. Закрывайте дубли страниц через robots.txt.

Клоакинг

Не делайте клоакинг на сайте. Клоакинг это когда роботу поисковой системы выдается одно содержимое страницы, а юзер видит совсем другое. С этим борются абсолютно все поисковые системы и вы обязательно попадете под фильтры за клоакинг. К нему можно отнести скрытый текст на странице закрытый от пользователей различными способами (display:none, невидимый цвет и т.д.)

Пустые страницы

Не делайте пустые страницы на сайте. Страницы с одними картинками, служебной информацией, контактными данными, различными формами для вода информации и прочие старайтесь закрывать от индексации в robots.txt. Поисковые системы не любят такие страницы и потому идет «минус в карму» всему сайту. Текста на странице должно быть не меньше 1к символов (1к символов - это мое ИМХО).

Soft 404

Одна из частых ошибок состоит в замене сообщения об ошибке 404 (страница не найдена) для несуществующих страниц на страницу заглушку, которая возвращяется с кодом ответа 200 (ОК). При данном раскладе ПС будет думать что страница существует, и оставит ее в своей индексной базе. Это приведет к более медленной индексации вашего сайта. А оно вам надо?

Графические заголовки

Довольно часто, для придания привлекательности сайту, делают большие графические заголовки, тем самым закрывая все верхнюю часть страницы. Не советую так поступать. Верхняя часть страницы это место на которое в первую очередь смотрят поисковые системы «глазами» своих ботов. Именно сюда нужно включать главные ключевые запросы, но делать это без фанатизма.

Графическое меню

В последнее время такое явление как графическое меню встречается все реже и реже, тем не менее не могу не упомянуть его. По сути это когда меню сделано картинками (иконками, пиктограммами и т.д.), а ссылка из меню для перехода является картинкой. Это не правильно, ссылка должна быть текстовой и содержать нужный нам ключевой запрос.

Линкопомойки

Линкопомойки это уже по сути пережиток прошло и встречаются в основном на старых заброшенных сайта. Что такое линкопомойка? Возьмите пример некачественного каталога немодерируемых ссылок – вот вам и линкопомойка. Не стоит вешать на свой сайт десятки и сотни ссылок неизвестно на кого, да и еще на одной странице.

Стабилизаторы напряжения СинПро - обеспечивают нормальную работу обору- дования, подключенного после стабилизатора, при существенных неполадках напряжения в сети. Номинальное напряжение питания, указанное в технических паспортах оборудования определяет его надежную и стабильную работу, кроме того увеличивают ресурс работы этого оборудования. Стабилизаторы напряжения обес- печивают аварийную защиту оборудования от различных нестандартных  ситуаций в электросети:

  • при сильно завышенных напряжениях в сети;
  • при  аварийном напряжении 380В;
  • при  чрезвычайно заниженном напряжении;
  • при аварийных импульсах сетевого напряжения;
  • при бросках напряжения при коммутационных процессах в электросети.
Класс!
Яндекс.Метрика
Копирование возможно при указании прямой индексируемой гиперссылки