Фильтры Google

Фильтры Google также необходимо знать для более качественного продвижения сайта. В данном случае работает правило: "Не знание - не освобождает от ответственности", поэтому давайте изучать...

Итак какие же бывают фильтры Гугла:

Возраст сайта

  1. Domain Name Age - то есть возраст домена играет определяющую роль в раскрутке ресурса. Если домену вашего сайта пару недель, то он автоматически попадает под этот фильтр, но он не смертельный и через 3-6 месяцев обычно сам "сползает".
  2. SandBox - песочница, в ней изначально также сидят "свежевылупленные домены", а также ресурсы, которые не развиваются большое количество времени. Выход один: развивать сайт, ведь без вас это делать некому. 

Внутренние факторы

  1. Florida (некоторые называются его Over optimization (переоптимизация)) - старый фильтр гугла за переспам контента в тексте, в метатегах. Возможно проседание всего сайта по всем запросам. Написание текстов для людей оградит ваш сайт от него.  Данный сайт https://saitsozdanie.ru - Google очень любит, так как контент самый уникальный и поэтому с Гугла трафик больше и он основной) - что ж поделаешь, так как Яндекс наложил на него свой АГС (позже снял). Как выйти из под него: рекомендации такие же как и для фильтра яндекс - переоптимизация.
  2. Supplemental Results - (его еще называют "сопли") - накладывается на страницы сайта с одинаковым контентом, перемещая их в дополнительную выдачу. Как выйти из под него: уникализировать страницы сайта и мета-теги, а также шаблоны и по возможности движок.
  3. Omitted Results – накладывается в случае, когда контент очень схож с текстом на другом сайте. Благодаря ему страница понижается в выдаче и ТОПа практически не достигает. Часто попадают страницы товаров интернет-магазинов. На самом деле, мошенники стали настолько умелыми, что могут загонять под него главные страницы чужих сайтов (то есть дурачат Гугл, а обращение к нему может ни к чему не привести, такое у нас было! просто нет ответа) - ну, а последствия я думаю вы понимаете какие-могут быть.
  4. Duplicate Content – накладывается в случае обнаружения дублированного контента(спер с другого сайта - получи фильтр, все справедливо!). Он стимулирует оптимизаторов находить уникальные описания, а не воровать. Ворованный контент Google отлично определяет.
  5. Brocken Links Filter – данный фильтр Гугла нацелен на выявление и пессимизацию сайтов с большим количеством битых ссылок. Какой вывод можно сделать о сайте, который содержит большое количество нерабочих ссылок(которые проставлены, но перейдя по ним, уже не существует сайтика)? По-моему, очевидно, что это ГС. 
  6. Page Load Time Filter – Гугл заботясь о своих пользователях намерен выставлять в своем ТОПе только быстрозагружаемые ресурсы, а те, которые превышают определенное время загрузки ждет этот фильтр. Как выйти из под него: проверьте ваше детище на скорость загрузки сайта и вы наверняка обнаружите какую-то техническую причину мешающую ему загружаться более быстро. Решите эти вопросы, оптимизируйте скрипты и другие модули и картинки - и все должно улучшиться.

Ссылочное

  1. Bombing - накладывается за большое количество ссылок с одинаковым анкором.  Как выйти из под него: использовать разнообразный текст в ссылках, но лучше просто не допускать, чем "вылечивать".
  2. -30 - накладывается в случае использования не белых методов раскрутки сайта - дорвеи, клоакинг, скрытые редиректы и прочее. Сайт резко снижает позиции примерно -30, поэтому так и называется. Есть вариант, что лечение невозможно - я не балуюсь черными способами продвижения - поэтому по этому фильтру ничего добавить не могу.
  3. Link.html Page Filter - может накладываться за наличие линкопомойки на сайте, например раздел "Ссылки".
  4. LinkFarming Filter и ReciprocalLinksFilter - фильтры Гугла, которые накладываются за участие в сетях по обмену ссылками.
  5. Co-Citation Filter – данный фильтр работает примерно так: если вы получили ссылку с сайта, который ссылается также на плохие ресурсы или откровенное Г, то возможно и ваш сайтик такой же?) То есть видимо ваш сайт ставят на проверку по этому факту. Таким образом конкуренты пытаются мочить лучшие сайты закупая на них ссылочки с плохих ресурсов - хорошо, что поисковики фильтруют такие моменты. Как выйти из под него: внимательно относитесь к выбору доноров, плохие ссылки снимайте или отказывайтесь от них.
  6. To Many Links at Once Filter – аналогичен яндексовскому "ссылочный взрыв" - накладывается за неестественный и резкий прирост ссылочный массы на сайт. Не рекомендуется резко их снимать! Действие всех этих ссылок может зануляться.

Теперь зная фильтры поисковой системы Google можно не "напарываться" на них - делайте сайты для людей с уникальным контентом и Гугл вас полюбит!

Далее смотри современные фильтрики Панда и Пингвин

Добавить комментарий


Защитный код
Обновить