За что банит Google и способы избежания бана
Это краткий обзор фильтров, которые могут применяться к сайтам поисковой системой Google. Также здесь указываются некоторые методы, позволяющие обойти их.
Итак, песочный ящик или песочница (Google Sandbox). Этот фильтр отслеживает дату создания сайта и не позволяет «молодым» занимать ведущие позиции. Обойти его можно с помощью системы рекомендаций. Если старый сайт размещает ссылку на молодой ресурс, то позиции последнего автоматически повышаются.
По такому же принципу работает и возрастной фильтр для доменных имен. Это более пристрастный фильтр, методы обхода такие же, как и для предыдущего: необходимо размещать ссылки на различных старых сайтах.
Фильтр бомбардировки (Google Bombing). Применяется к тем сайтам, на которые ссылаются разные ресурсы, но по одному и тому же набору ключевых слов. Лечением от этого фильтра могут стать разные текстовые ссылки на ваш сайт. Если же фильтр уже наложен поисковой системой, то поможет только повторное занесение сайта в индекс.
Фильтр дублирования содержимого(Google Duplicate Content Filter). Поисковая система не дает высоких позиций сайтам, которые используют неоригинальное содержимое. Их не учитывают в поиске или оставляют в качестве дополнительных вариантов.
Дополнительные результаты поиска(Google Supplemental Results). Поисковая система формирует вспомогательную базу поиска. Туда попадают и молодые сайты и некоторые страницы сайтов давних. Выйти из этой базы можно с помощью дополнительных ссылок с сайтов, заслуживающих доверия поисковика.
Google -30. Это штраф на 30 позиций в списке, который поисковая система может применить к сайту. Но применяется он только в отношении сайтов, которые были замечены в спамерской деятельности. Обойти этот фильтр нельзя. Но если он был применен по ошибке, из-за дефектов оптимизации сайта, то вебмастер может устранить спорные элементы и послать вторичный запрос на включение в индекс.
Фильтрация пропущенных поисковых результатов. Этот фильтр также отслеживает сайты с неоригинальным содержимым, но особый упор делается на уникальность тэгов title, description. Чтобы сайт не подпадал под такую фильтрацию, вебмастеру необходимо тщательно прорабатывать код и бороться с дефектами внутренней перелинковки.
Фильтр для генераторов ссылок. Страницы сайтов, которые содержат множество ссылок разной тематики, будут терять место в выдаче результатов поиска. Обойти этот фильтр нельзя, проще соблюдать правила и не входить в подобные системы генерации ссылок.
Фильтрация по времени загрузки. Если страница вашего сайта будет грузиться медленно, то робот выждет определенное время и двинется дальше по страницам. Таким образом, страница никогда не будет индексирована. Решение очень простое: максимально оптимизировать страницу для быстрой загрузки. Не перегружать ее роликами, установить ограничения файлов страницы по размеру.
Фильтр для сайтов с дефектами ссылок. Поисковая система автоматически не индексирует страницы, в которых нарушена внутренняя перелинковка ссылок. Обойти фильтр можно единственным образом: вебмастер должен тщательно проверить взаимное соответствие всех ссылок.
Фильтрация участников систем платного обмена ссылками. Поисковые системы не приветствуют такой способ заработка и раскрутки сайта как платный обмен ссылками. Система вычисляет участников обмена и налагает на них штрафы. В эту систему фильтрации входит такой фильтр страниц по заголовкам links.htm. Этот фильтр можно обойти путем замены заголовка. Например, замените links на goodsites или friends.


Реклама

 
Статьи  Статьи
При копировании информации,
ссылка на источник (phpcode.ru) желательна
© 2007 phpcode.ru