Набивая контентом свой блог или сайт мы все с надеждой юзаем запросы в гугл чтоб увидеть там что ваши странички со свежими публикациями проиндексированны. Но не стоит особо сразу радоваться, это пока может мало что значит. Давайте разберёмся какие особенности индексации гугла.
Начнём с того, что у гугла есть два индекса - основной и дополнительный. Страницы, попавшие в основной индекс, рейтингуются по различным параметрам, и участвуют в топовой выдаче результатов гугла. Юзер поисковика набирая запрос переходит именно на эти документы. Страницы из основного индекса как раз и будут приносить траффик. Страницы сайта контент которых не представляет никакой ценности попадают в дополнительный индекс (он же Supplemental Index, "сопли" и прочие ругательства).Там они и будут пребывать, пока юзер не наберёт какой-нибудь особо экзотический запрос, для которого не нашлось ответа в страницах основного индекса. Такие второсортные страницы google сохраняет в своей базе лишь потому, что мощности и возможности позволяют нормально работать, не мешая нормальной работе с базой основного индекса. Попадая в "сопли" не стоит надеятся что даже отполировав статью до идеальных условий она сразу поедет в основной индекс. Из самого названия "дополнительный" должно быть ясно, что обновления в нём не будут происходить так же часто, как и в основном. Также суплементал индекс не безразмерный и вашу страницу оттуда могут со временем выкинуть для свежих пополнений.
Теперь думаю стало ясно почему не надо с криками радоваться от каждой новой проиндексированной страницы вашего сайта, а всё предварительно оценивать и анализировать. Стоит помнить, что если у вас тотальная тенденция к попаданию страниц в дополнительный индекс, то соответственно доверия гугла к сайту падает, что означает что гуглбот уже реже будет заглядывать к вам на сайт, а это как вы сами понимаете мучительная смерть для сайта.
Теперь перейдём к непосредственной оценке вашего сайта. Чтоб силами Гугла проверить какие страницы вашего сайта есть в основном индексе надо в поиске google ввести запрос:
site:http://yoursite.com/& .
Помните, что www.yoursite.com и yoursite.com тут в глазах Гугла не одно и то же. Также могу посоветовать сервис для
оценки сайта гуглом. В поле надо вписать свой домен и после проверки увидите общее количество проиндексированых Гуглботом страниц, количество станиц в основном и дополнительном индексах. Также будет сформировано "качество сайта" - это соотношение страниц в основном индексе к страницам дополнительного. И будет дано небольшое заключение о сайте.
Вот например результат тестирования для моего сайта:
В индексе гугла 201 страниц сайта emoney-expert.com
Из них в основном индексе 98 страниц;
В дополнительном индексе 103 страниц.
Качество сайта emoney-expert.com 49%
Замечательный результат- Гугл сайт уважает.
Сайт представлен в индексе Гугла полно, и тот уже должен однозначно определиться в своём отношении к ресурсу. Можно вполне доверять полученному результату.
Надо понимать что понятие "качество" тут чисто теоретическое. Для подтверждения этого наведу такие цифры microsoft.com 64%, google.com 48%, digg.com 39%.
Давайте рассмотрим по каким причинам страницы сайта попадают в Supplemental Index.
Копипастерный контент. Заюзаный контент, аналоги которого уже в достаточном количистве присутствуют в основном индексе google не нужны.
Маленький объём текста. Он может даже быть и уникальный, но если там всего лишь несколько слов, то гугл не воспринимает как что-то серьёзное. Так что если уж взялись писать, то постарайтесь чтоб вас как говорится "понесло".
Повторение контента на сайте. Если какие-то страницы одного и того же сайта мало чем различаются, то большая вероятность попадания их в дополнительный список.
Отклонение от тематики сайта. Не стоит публиковать статью, котороя кардинально отличается от тематики сайта. Гугл вас может не понять.
Переведенный текст. Многие в погоне за уникальностью контента тупо в переводчике переводят буржуйскую статью ставят привлекательный титл и потерают руки. Гугл не дурак, знает множество языков, и понимает где нормальный грамотный перевод, а где машинная бессмыслица.
Ну и теперь как итог всего, перейдём к советам как же избежать попадания на "скамейку запасных" Гугля.
Из своих наблюдений скажу что тут
уникальность контента отнюдь не главный козырь (конечно я не говорю про нагло ворованные тексты).
Козырем же есть бэклинки. Вам необходимо обзавестись большим количеством качественных ссылок на сайт - это позволит получить максимальное количество страниц Вашего сайта в основном индексе. "Дружить" стоит с страницами которые уже есть в основном индексе. И как результат ваши страницы от такой дружбы и получат нормальный
PR. Слепой спам по сайтам и всевозможным каталогам тоже может до добра не довести, в индексе Гугла страницы будут, но они будут в дополнительном индексе, и никакой пользы от этого не будет.
Особенно для блогеров надо бороться с проблемой маленьких постов. Если уже пишите о чем-то, то пишите докладно. Также уникальность, а главное востребованность контента важно, поетому прежде чем писать погуглите что до вас уже написали. А также немаловажно стараться, чтоб Ваш контент не растаскивали бесконтрольно по всему Рунету, тем самым дублируя его. В благодарность будете получать поисковый трафик долго и в большом размере. И всегда старайтесь аннализировать состояние вашего сайта и делать свои выводы и коректировки...
Для кого тема не новая пишите свой опыт и мысли в коментах, интересно будет обсудить. Желаю всем крепкой дружбы с Гуглом и всегда попадать только в топы)