Disavow links или как определить под каким фильтром Гугла и находится сайт

Google Disavow Links: что это значит и как им пользоваться

Больше видео на нашем канале — изучайте интернет-маркетинг с SEMANTICA

В каком случае необходимо отклонение ссылок

Количество релевантных ссылок оценивается в Google как показатель надежности сайта. Чем их больше — тем лучше.

Иногда на продвижении этот факт сказывается положительно, иногда — отрицательно. Например, чтобы «утопить» ресурс, конкуренты разместили на подозрительном сайте большое число ссылок на него. Алгоритм Penguin от Google сочтет сайт, на который ведут «плохие» ссылки, недобросовестным и наложит санкции. Позиции в поисковой выдаче опустятся, а входящий трафик уменьшится.

Второй пример — при оптимизации было закуплено чрезмерное количество ссылок, в том числе на «плохих» ресурсах.

Для избежания вышеописанных ситуаций и существует Google Disavow Links. Если им грамотно пользоваться, можно снять санкции с сайта. Механизм работы напоминает файл robots.txt, который закрывает от индексирования страницы, Disavow Links — это тоже список страниц, но тех, внешние ссылки с которых нужно не брать в расчет при ранжировании сайта.

Глава Google Webspam Мэтт Каттс говорит, что использовать Disavow Links нужно осторожно, только в ситуации, когда на веб-сайт начали указывать спам-ссылки, к которым мастер не имеет никакого отношения.

Если сайт попал под фильтр Penguin, и есть основания полагать, что в ссылочном профиле содержатся нежелательные ссылки, следует воспользоваться Google Disavow Links.

Когда мастер явно укажет, что внешнюю ссылку следует обнулить, Google перестанет в течение некоторого времени ее учитывать.

Как грамотно воспользоваться Google Disavow Links

Начать следует со сбора ссылок. Удобнее всего будет воспользоваться Google Webmaster Tool.

  1. Выбрать свой портал на странице Search Console.
  2. Перейти в меню Поисковый трафикСсылки на сайт.
  3. В меню «Наиболее часто ссылаются» выбрать «Дополнительно».
  4. Нажать Загрузить больше ссылок для примера (изначально размеры выдачи отражают только первые 1000 ссылок)

В результате получится список со всеми ресурсами, которые ссылаются на сайт. Этот список нужно перенести в текстовый файл.

Анализируем

Далее следует проанализировать полученный список. Часть ссылок можно оставить, некоторые — отклонить.

Совет: все действия лучше фиксировать. В дальнейшем запросе на пересмотр в Google можно приложить файл с подробным описанием анализа ссылочного профиля и формированием списка нежелательных адресов.

Если нежелательная ссылка была куплена на бирже, можно воспользоваться внутренним сервисом для обнуления. Или сразу попросить веб-разработчика сайта удалить нежелательную ссылку.

Другой вариант — ссылка естественная. В таком случае придется договориться с владельцем портала об удалении. Некоторые недобросовестные владельцы могут просить за это денег. Такие просьбы следует игнорировать и фиксировать в файле.

Используем Disavow Links

В Google Webmaster нужно найти Disavow Links, выбрать нужный сайт и загрузить список с ссылками, которые нужно обнулить. Google не предъявляет требования к имени файла, но все символы в нем должны быть в кодировке 7-bit ASCII или UTF-8.

Чтобы удалить все ссылки и со страниц-дублей, нужно использовать ключевое слово «domain:». С символа «#» начинается комментарий. Каждый URL-адрес помещается на отдельную строчку.

Приведем пример правильно составленного файла со списком ссылок на отклонение:

Чтобы воспользоваться инструментом Disavow Links, необходимо подготовить список для удаления, о котором говорилось ранее.

Направляем запрос о пересмотре

Направлять письмо нужно только тогда, когда вы четко понимаете, что сайт находится под санкциями.

В тексте следует писать конкретно и по существу. Не отрицать того, что на ресурс указывали нежелательные ссылки. А наличие файла, в котором отражена проведенная работа по выявлению «вредных» ссылок, добавит письму утвердительности.

Как правило, санкции с сайта, если он отфильтрован алгоритмом Penguin, снимаются с новым обновлением. Четких дат нет — можно ждать и неделю, и месяц.

Как утверждает Google, инструментом Disavow Links нужно пользоваться только в крайних случаях. Иногда это может привести к понижению ранга сайта, ухудшению его показателей. Однако, если сайт попал под санкции и нет возможности самостоятельно удалить все негативные ссылки, Disavow Links может спасти ситуацию.

Специалисты студии SEMANTICA проведут комплексный анализ сайта по следующему плану:

– Технический аудит.
– Оптимизация.
– Коммерческие факторы.
– Внешние факторы.

Мы не просто говорим, в чем проблемы. Мы помогаем их решить

Фильтры Google — что делать, если сайт попал под санкции от Гугла

Если у вас похожая ситуация, значит ваш сайт попал под фильтр Гугла. Давайте посмотрим, какие существуют фильтры поисковой системы Google, причины попадания под эти фильтры и какие есть способы вывода сайта из-под санкций.

Sandbox (песочница)

Фильтр накладывает ограничения на новые или «молодые» сайты (от 2 недель до года). Таким образом, Гугл следит, как будет развиваться ресурс. Определить, что ваш сайт находится под фильтром легко — он полностью отсутствует в индексе.

Способ выхода из-под фильтра Sandbox достаточно прост — нужно регулярно наполнять сайт полезным и уникальным контентом, проводить внутреннюю оптимизацию страниц (делать внутреннюю перелинковку), а также осторожно закупать ссылки на бирже. Ни в коем случае нельзя допускать резкого ссылочного взрыва, а доноров нужно подбирать очень качественно. О том, как закупать вечные ссылки на бирже Gogetlinks, вы можете почитать в этой статье.

Domain name age (возраст домена)

Этот фильтр сильно созвучен с предыдущим. На все новые домены накладываются ограничения, но после достижения сайтом определенного уровня траста, ограничения снимаются.

Также, как и в предыдущем случае — это молодой возраст сайта, как правило, менее 1 года.

Избежать данный фильтр поисковой системы Google поможет покупка старого домена с историей, только нужно смотреть, чтобы история была положительной, и на домен не было наложено штрафных санкций. Также еще один способ — это покупка трастовых ссылок, но опять осторожно и аккуратно. Ну и, конечно, не забрасывайте ваш сайт, продолжайте его развивать, потому что после вывода из-под санкций пойдет активный рост трафика.

Too many links at once (много ссылок сразу)

Результатом попадания под фильтр является сильное падение трафика с Google, а также обнуляются все внешние ссылки на сайт, то есть они не имеют уже никакого веса.

Предупреждением таких санкций является плавная и постепенная закупка ссылок, чтобы в глазах поисковика этот процесс выглядел естественным. Если же сайт попал под фильтр, то рекомендуется значительно снизить наращивание ссылочного, но имеющиеся ссылки не трогать. Ориентировочно, через 1−3 месяца фильтр снимается.

Bombing (бомбежка)

Этот фильтр интересен тем, что санкции накладываются не на весь сайт, а на те страницы, которые Google воспринял, как спамные. Эти страницы перестают расти в позициях или вылетают из индекса.

А он всего один — нужно удалить ВСЕ такие ссылки или поставить на них разные анкоры, причем не пропустить ни одну ссылку, иначе Google не снимет санкции. Ну, а дальше остается только ждать по разным источникам от 2 месяцев до 1,5 года.

Broken Links (битые ссылки)

Чтобы устранить данную проблему, нужно найти все битые ссылки на сайте (это можно сделать, используя программу Xenu или аналог) и заменить их на правильные, либо удалить совсем.

Давным-давно, когда интернет был совсем молодой, многие владельцы сайтов пользовались способом обмена ссылками, чтобы увеличить трастовость своих ресурсов. Но со временем, когда поисковые системы улучшались этот способ перестал учитываться, и сейчас Google фильтрует такие сайты.

Для предупреждения фильтра рекомендуется ставить не более 3−4 внешних ссылок на сторонние ресурсы, а если сайт попал под санкции, то срочно убирать такие ссылки.

CO-citation linking filter (социтирование)

Google внимательно отслеживает тематики площадок, ссылающихся на ваш ресурс, и учитывает это в поиске. Например, если на ваш сайт по тематике выращивания помидоров ссылается сайт инвестиционно-консалтинговых услуг, Гугл может определить вашу тематику, как финансовую, и понизить в выдаче по вашим основным запросам.

Внимательно следите за тем, на каких ресурсах вы размещаете ссылки, чтобы тематики обязательно совпадали или были смежные. Если же сайт попал под санкции, то необходимо снять все ссылки с нетематических или некачественных сайтов. А если таких сайтов много и вручную это сделать не получится, то порядок действий следующий:

  • составить список всех ссылающихся сайтов (через сервис ahrefs.com);
  • отсортировать все нетематические сайты;
  • добавить их в сервис Disavow Link (мы написали о нем отдельную статью).

Таким образом, Google перестанет учитывать эти ссылки при индексации вашего сайта. Дальше остается только ждать, когда будет снят фильтр.

Page load time (время загрузки страницы)

Рекомендуется, чтобы скорость загрузки страниц не превышала 7 секунд (проверяется с помощью сервиса Page Speed). Данный сервис даст вам четкие рекомендации, что нужно сделать, чтобы увеличить скорость загрузки сайта.

Omitted results (опущенные результаты)

Результатом попадания под этот фильтр является отсутствие сайта в основном поиске Google. И только на самой последней странице выдачи будет ссылка «Показать скрытые результаты», нажав на которую в поиске появится и ваш сайт.

Если сайт попал под фильтр, то необходимо переписать контент, чтобы все тексты были уникальными. А также нужно сделать хорошую внутреннюю перелинковку.

Гугл тщательно борется с методами черного SEO, и данный фильтр создан специально для этой цели. В результате штрафных санкций сайт понижается на 30 позиций.

Фильтр накладывается за следующие нарушения:

К счастью, выйти из-под данного фильтра не сложно — нужно всего лишь устранить вышеприведенные причины.

Over optimization (переоптимизация)

В результате действия данного фильтра сайт пессимизируется в выдаче или полностью исключается из индекса, в зависимости от степени нарушения.

Если сайт попал под санкции, вам нужно правильно оптимизировать все страницы сайта. Для этой цели лучше всего посмотреть топ конкурентов по выдаче и сделать оптимизацию похожим образом.

Фильтр Панда от Google является одним из самых тяжелых для любого сайта, так как он охватывает несколько вышеперечисленных фильтров, и выход из-под панды — это долгий и болезненный процесс.

Соответственно, для выхода из-под санкций от Панды нужно поработать комплексно над всеми этими факторами — сделать качественный и уникальный контент, грамотную оптимизацию страниц, убрать рекламу с сайта. Постепенно, по мере правильного развития сайта, санкции будут сняты, но этот процесс долгий и может занять по времени более года.

Penguin (пингвин)

Фильтр Пингвин от Гугл так же, как и Панда является очень проблемным. Похожим образом Пингвин состоит из нескольких вышеперечисленных фильтров, которые имеют отношение к ссылочному продвижению.

Выход из-под Пингвина также является долгим и болезненным процессом. Подробнее, как проверить сайт на фильтры Гугла и снять санкции пингвина я напишу в отдельной статье.

icon by Eugen Belyakoff

– Только качественный трафик из Яндекса и Google
– Понятная отчетность о работе и о планах работ
– Полная прозрачность работ

Отклонение обратных ссылок

Если в отношении вашего сайта были вручную приняты меры из-за искусственных ссылок на него, попробуйте удалить эти ссылки с тех сайтов, на которых они расположены. Также это необходимо сделать, если вы полагаете, что в отношении вашего сайта скоро будут приняты меры в связи с использованием платных ссылок или других схем обмена ссылками, нарушающих наши рекомендации по обеспечению качества. Если удалить ссылки не удается, отклоните их.

Мы делаем все возможное, чтобы другие сайты не могли негативно повлиять на рейтинг вашего сайта. Но в некоторых случаях входящие ссылки могут ухудшить мнение Google о вашем сайте. Например, это может произойти, если вы или нанятый вами специалист по поисковой оптимизации создали платные ссылки или применили другие схемы обмена ссылками, которые нарушают наши рекомендации по обеспечению качества. Прежде всего рекомендуем удалить как можно больше таких ссылок из Интернета.

Шаг 0. Определите необходимость отклонения ссылок

В большинстве случаев Google может самостоятельно определить, каким ссылкам можно доверять, поэтому веб-мастерам обычно не требуется использовать этот инструмент.

Когда отклонение ссылок необходимо

  1. На ваш сайт указывает большое количество искусственных или низкокачественных ссылок.
  2. Из-за этих ссылок в отношении вашего сайта уже были или вероятно будут вручную приняты меры.

Шаг 1. Создайте список ссылок

Создайте текстовый файл со списком ссылок, которые вы хотите отклонить.

Формат файла со ссылками

  • Укажите каждый URL или домен на отдельной строке. Нельзя вводить полный путь, ведущий к определенному разделу, например example.com/ru/.
  • Чтобы отклонить домен или субдомен, укажите префикс domain: , например domain:example.com .
  • Используйте в качестве кодировки для текстового файла UTF-8 или 7-битные символы ASCII.
  • Название файла должно заканчиваться суффиксом .txt.
  • Чтобы добавить комментарий, поставьте в начале строки знак решетки (#). Google проигнорирует такие строки.

Пример

Если вы хотите отклонить URL или сайты, которые вы обнаружили в отчете о ссылках по вашему сайту, скачайте данные из отчета, нажав кнопку экспорта. Не забудьте удалить из скачанного файла те ссылки, которые не нужно отклонять.

Шаг 2. Отправьте список в Google

Теперь загрузите список страниц и доменов, которые вы хотите отклонить.

  1. Откройте страницу Отклонение ссылок.
  2. Выберите свой сайт.
  3. Нажмите Отклонение ссылок.
  4. Выберите созданный файл, нажав соответствующую кнопку.
  5. Обработка загруженных вами данных может занять несколько недель. По мере того как наши роботы сканируют сеть и заново обрабатывают встречающиеся им страницы, ссылки из вашего списка будут учитываться в нашем индексе.

Отклоненные адреса по-прежнему будут показываться в отчете о ссылках.

Disavow links или как определить под каким фильтром Гугла и находится сайт

You are using an outdated browser. Please upgrade your browser.

By signing up, you agree to our Terms of Service and Privacy Policy.

Есть достаточное количество причин, по которым сайт может попасть под фильтры поисковой системы Google . Это, к примеру, агрессивная реклама на сайте, переоптимизация контента или низкое качество ресурса в целом. Но это еще не весь список. Как определить, что Ваш сайт находится под фильтрами, рассмотрим далее.

Появление новых алгоритмов поисковых систем в большинстве случаев просто пугает веб-мастеров. Так, например, Ваш сайт может агрессивно восприниматься поисковыми системами, если:

  • имеется контент замаскированный под гостевой спам;
  • большое количество сео-анкоров;
  • неуникальный контент;
  • есть спамные рассылки в блоках и комментариях;
  • есть скрытые от пользователей ссылки и другое.

В случае попадания ресурса под санкции поисковика, могут быть полностью утеряны позиции сайта в системе, а это означает, что вся работа, которая проводилась до этого попросту будет утрачена. Согласитесь, что такой судьбы для своего онлайн-проекта не желает ни один веб-мастер.

Как распознать, что Ваш сайт находится под фильтром поисковых систем?

О некоторых наложенных фильтрах поисковая система сообщает официально в разделе Google Webmaster Tools. Эти сообщения означают, что к Вашему сайту были приняты меры, из-за возможных нарушений:

  • наличие исскуственных ссылок на Ваш онлайн-проект;
  • присутствуют исскуственные ссылки на Вашем сайте;
  • Ваш ресурс взломан;
  • спам и спам от пользователей;
  • скрытая переадресация;
  • избыточное количество ключевиков или скрытый текст на сайте;
  • бесплатный хостинг, который распростаняет спам.

Но какие сайты “любит” Гугл? Подробнее рассмотрено зде с ь .

Рассмотрим каждый из фильтров и то, как выйти из под его действия.

Этот фильтр накладывается на молодые сайты до 1 года. В данный период поисковая система следит за тем, как ведет себя сайт. Проверить наличие фильтра легко – сайт отсутствует в индексе. Попадание “песочницу” может произойти из-за быстрого наращивания ссылочной масы, это кажется Google очень подозрительным и он налаживает санкции на молодой ресурс, ведь подобное поведение расценивается как спам.

Для того, чтобы не попасть под данный фильтр, закупать ссылки нужно очень осторожно, ни в коем случае не допускать “ссылочного взрыва” и наполнять сайт уникальным полезным контентом. Акуратно выбирайте доноров сайта, чтобы не допустить попадания в “песочницу”.

Фильтр Domain name age (возраст домена).

Этот фильтр также налаживается на молодые сайты, которым меньше года. Но ограничения снимаются, когда домен сайта достигает определенного уровня траста. Чтобы избежать фильтра, можно купить старый домен с положительной историей или же закупать трастовые ссылки, но очень акуратно.

Фильтр “Too many links at once” (много ссылок сразу).

Когда налаживается данный фильтр, веб-мастер замечает резкое падения трафика с Гугл, а внешние ссылки на ресурс уже не имеют никакого веса. Это случается из-за резкого ссылочного взрыва, поисковая система считает это неестественным и применяет санкции к сайту.

Если Ваш сайт попал под данный фильтр, то Вам следует значительно снизить наращивание ссылок, а те, что уже есть, не нужно трогать. Через 1-3 месяца фильтр будет снят.

Наказанию подвергается не весь сайт, а отдельные его страницы, которые поисковик воспринял как спамные. Причина: фильтр наказывает сайт, на который ведут много внешних ссылок с одинаковым анкором или текстом. Поисковая система считает это не натуральным. Для того, чтобы избавиться от этого, необходимо или удалить все ссылки или поменять анкоры, а далее просто ждать результата.

Фильтр “Битые ссылки”.

Этот фильтр накладывается на сайты, которые имеют много страниц с 404 ошибкой. Эти ссылки раздражают не только посетителей сайта, но и поисковую систему, которая не может проиндексировать данную страницу. Поэтому удаляйте битые ссылки, чтобы не попасть под фильтр.

Ранее между веб-мастерами было популярно обмениваться ссылками, но сегодня Гугл наказывает за такие обмены. Поэтому ставьте не более 4 ссылок на сайты-партнеров, а если все-таки попали под фильтров, то подобные ссылки необходимо убрать с сайта немедленно.

Фильтр “Page load time” (время загрузки страницы).

Google не любит сайты, которые имеют низкую скорость загрузки сайта. Поэтому он может понизить ресурс в выдаче именно по этой причине. Рекомендовано, чтобы скорость загрузки сайта не превышала 7 секунд, чем быстрее – тем лучше. Это параметр можно проверить с помощью специального сервиса – PageSpeed.

Фильтр “Omitted results” (опущенные результаты).

Действие этого фильтра определяется, когда Ваш сайт отсутствует в результатах основного поиска. Его можно увидеть только когда в поиска открыть скрытые результаты. Данный фильтр налаживается на сайт за дубли и слабую перелинковку страниц.

Если ресурс уже под действием фильтра, необходимо переписать контент сделав его уникальным и улучшить внутреннюю перелинковку.

Данный метод санкций был создан для борьбы с “черным сео”. Если фильтр наложен, позиции сайта понижаются на -30. За что наказывает фильтр: скрытый редирект, клоакинг, дорвеи. Если причины устранены, фильтр прекращает свое действие.

Сайт может понизится в выдаче или полностью исключиться с индекса. Все это действие данного фильтра. Он может быть наложен из-за чрезмерной оптимизации страниц, например, перебор с количеством ключевых слов, высокий уровень плотности ключевиков, переоптимизация мета-тегов, картинок. Чтобы фильтр прекратил действие на Ваш сайт, необходимо правильно оптимизировать страницы сайта.

Один из самых опасных фильтров. Он охватывает несколько сразу фильтров и для того, чтобы из-под него выйти необходимо много времени и сил. Это фильтр может быть наложен по многим причинам, среди которых: дублирующийся контент, чрезмерная оптимизация, продажа ссылок или агрессивная реклама на сайте, накрутка поведенческих факторов. Для того, чтобы выйти из-под его действия, необходимо проделать целый комплекс действий нацеленных на улучшения сайта. Это может занять достаточно много времени, в некоторых случаях до 1,5 года.

Также как и предыдущий фильтр является очень проблемным для владельца сайта. Алгоритм имеет непосредственное отношение к ссылочному продвижению. Санкции могут настигнуть Ваш онлайн-ресурс, если Вы закупаете слишком большое количество ссылок за раз; если эти ссылки имеют один и тот же анкор; если ссылки являются не тематическими или вы производите обмен ссылками. Выйти из-под “Пингвина” очень сложно, этот процесс также является долговременным.

Кстати, более подробно фильтры “Панда” и “Пингвин” описаны в моей статье “ Три алгоритма Google обновления, которых «ждут» все SEO-шники ”.

Как найти плохие внешние ссылки и избавиться от их влияния на ранжирование сайта

Ссылки являются фактором ранжирования, часто используются оптимизаторами и в зависимости от качества могут принести как пользу при раскрутке сайта, так и вред.

MegaIndex анализирует найденные в интернете ссылки применяя множество факторов, робот MegaIndex проводит автоматическую разметку на токсичные (спамные) и органические ссылки.

Сервис позволяет провести выгрузку плохих ссылок для последующего дополнительного анализа и загрузки в Google Disavow Links Tool или отправки для дезавуирования в Яндекс.

  1. Используя приложение Внешние ссылки, Вы находите потенциально опасные ссылки;
  2. Вы анализируете список из потенциально опасных ссылок и определяете опасные;
  3. Вы отправляете отобранные опасные ссылки в Google Disavow Links Tool или в Yandex по форме обратной связи.

Как итог:

  • Продвигаемый сайт будет в безопасности от штрафных санкций Google и Яндекс за ссылочный спам;
  • И после дезавуирования опасных ссылок позиции сайта могут вырасти.

Какие ссылки плохие

Плохими ссылки считаются спамные ссылки, предназначенные для манипулирования результатами поисковой выдачи.

Анализ ссылочного профиля сайта по внешним ссылкам проводится с целью выявления спамных ссылок и их оперативного дезавуирования.

Если сайт продвигается белыми методами, навряд ли правильно отказываться от мониторинга ссылочной массы. Размещать спамные ссылки и ссылки со спамом в анкорах на сайт могут конкуренты.

Аналитика ссылочного профиля проводится:

  • На старте работ по внешней оптимизации сайта с целью очистки ссылочного профиля продвигаемого сайта;
  • При выводе сайта из-под санкций поисковых систем;
  • При поступлении бесплатных уведомлений об опасных ссылках. Уведомления приходят от MegaIndex каждый месяц, если добавили сайт в систему.

В MegaIndex разработаны специальные методы API для получения информации о ссылках.

Пример использование API. Запрос информации про изменения ссылочной массы для домена indexoid.com.

Используя API можно получать данные о внешних ссылках используя следующие методы:

  • backlinks — метод API позволяющий получить обратные ссылки. Стоимость запроса: 1.00 Units/запрос, 0.20 Units/строка
  • backlinks/total — метод API позволяющий получить сжатые данные по обратным ссылкам. Стоимость запроса: 20.00 Units/запрос
  • backlinks/subdomains — метод API позволяющий получить обратные ссылки на поддомены. Стоимость запроса: 1.00 Units/запрос, 0.20 Units/строка
  • backlinks/changes — изменение ссылочной массы. Стоимость запроса: 5.00 Units/запрос
  • backlinks/url_counters_total — социальные шаринги в видимости, ссылки в видимости. Стоимость запроса: 10.00 Units/запрос
  • backlinks/counters — метод позволяет просмотреть общие данные по домену, Yandex каталог, обратные ссылки. Стоимость запроса: 20.00 Units/запрос

Пример ответа по API

Цены на API

Стоимость запроса: 1 unit за 1 запрос.

  • 20 000 units — 500 рублей (0.025 рублей за 1 unit)
  • 50 000 units — 1 000 рублей (0.02 рублей за 1 unit)
  • 200 000 units — 3 000 рублей (0.015 рублей за unit)
  • 500 000 units — 6 000 рублей (0.012 рублей за 1 unit)
  • 1 000 000 units- 10 000 рублей (0.01 рублей за 1 unit)

Например, при покупке 1 000 000 units за 10 000 рублей, проверка позиции сайта по запросу будет стоить 1 копейку (за 1 рубль можно проверить 100 запросов в выдаче).

Используя API, вы можете получать данные о балансе units:

Страница для пополнения units — https://ru.megaindex.com/api/payd. Страница отображается после входа в аккаунт.

Дезавуирование плохих ссылок

Рекомендуется избавиться от всех опасных и подозрительных обратных ссылок обнаруженных при проверке ссылочного профиля сайта, чтобы продвигаемый сайт был в полной безопасности от штрафных санкций поисковых систем Google и Яндекс за манипулирование ранжированием сайта.

  1. Проанализируйте потенциально опасные ссылки отобранные MegaIndex и выберите опасные;
  2. Импортируйте плохие внешние ссылки из MegaIndex;
  3. Загрузите файл в Google Disavow Links Tool или в Яндекс по форме обратной связи.

Определенная доля плохих ссылок в ссылочном профиле допускается, но максимальный порог зависит от тематики и поисковой системы. Общий отчет по ссылкам выводит долю плохих и естественных ссылок. Пример — https://ru.megaindex.com/backlinks/gazeta.ru

Сравнение ссылочного профиля с средним среди сайтов конкурентов полезно для определения допустимой доли токсичных ссылок и определения вероятности попадания под фильтр. Рекомендуется держать долю плохих ссылок на уровне не выше основных конкурентов.

Алгоритмы анализа внешних ссылок в SEO

Выбранный MegaIndex подход подразумевает единственное решение — обучение алгоритма на базе множества факторов, аналогично поисковым алгоритмам.

Как MegaIndex определяет плохая ссылка или нет:

  • Задается два множества, которые используются для обучения алгоритма: плохие ссылки, естественные ссылки
  • На вход подается размеченная выборка, где заранее известно, какие ссылки SEO, а какие нет
  • Аналитическая команда MegaIndex потрудилась над выработкой различных критериев для ссылок, используемых для обучения алгоритма разметки. Всего критериев 100, хотя реально полезных не более 30
  • Сервис не считает определенный сайт на 100% плохим или хорошим. На сайте могут быть естественные и SEO-ссылки
  • Сервис не загружает всем известные базы сайтов из бирж ссылок, чтобы алгоритм одинаково работал для всех известных и закрытых сервисов получения SEO-ссылок

Работа с проектами в MegaIndex — Видео

Как найти плохие ссылки — ВИДЕО

Отклонение обратных ссылок с инструментом от Google

Крайняя инстанция – Disavow Links Tool или Как выполнить отклонение ссылок в Google

Абсолютно любой веб-мастер может оказаться в ситуации, когда позиции его сайта страдают от негативного влияния некачественных внешних ссылок. При этом, чтобы реабилитировать веб-ресурс в глазах поисковиков, обычно достаточно выполнить отклонение обратных ссылок, которое подразумевает их физическое удаление с сайтов-доноров.

К сожалению, сделать это удается не всегда и несколько неподдающихся удалению ссылок могут стать серьезной проблемой. По крайней мере так было до 2012 года, пока не появился специнструмент для отклонения ссылок в Google – Disavow Links Tool.

Его появление стало для многих приятной неожиданностью и было воспринято, как подарок от поисковика, который обещал облегчить решение проблем с наведением порядка в ссылочной массе продвигаемых сайтов и вывода их из-под Пингвина.

Что нужно знать перед использованием Disavow Links Tool для отклонения ссылок Гуглом

  1. Отклонение обратных ссылок с помощью Disavow Links Tool не предназначено для их физического удаления с сайтов-доноров. Результатом работы этого инструмента становится лишь предотвращение учета влияния плохих ссылок на ранжирование целевого веб-ресурса. В списке внешних ссылок, доступном в Search Console, они все равно будут продолжать отображаться.
  2. Google рекомендует применять Disavow Links Tool для отклонения обратных ссылок только в крайних случаях, когда избавиться от их влияния никакими другими способами не удается.
  3. Выполнять отклонение ссылок Гуглом нужно только будучи уверенным в том, что они действительно плохо влияют на позиции Вашего веб-сайта. То есть:

a) Если Вы получали письма от Google с уведомлениями об обнаружении неестественных ссылок;

b) Если Вы можете связать падение позиций своего сайта с произведенными ранее действиями по закупке ссылок.

Google предупреждает, что неумелое обращение с Disavow Links Tool в большинстве случаев может навредить продвижению сайта в поиске.

  • После выполнения процедуры отклонения обратных ссылок, отправлять запросы в Google-поддержку о пересмотре сайта не требуется. Поисковые алгоритмы автоматически снимут пессимизирующие санкции после обработки отправленных в Disavow Links Tool ссылок (если в составленном Вами списке будут те, которые действительно являются причиной ухудшения позиций).
  • Отправленные запросы на отклонение обратных ссылок обрабатываются не сразу. На это и последующую переиндексацию требуется как минимум несколько недель.
  • Пошаговый алгоритм работы с Disavow Links Tool

    1. Выбор ссылок, отклонение которых требуется. Для этого нужно выгрузить из Search Console список всех внешних ссылок целевого веб-сайта (в .csv или Google Таблицы), пройдя по пути «Поисковый трафик/Ссылки на ваш сайт/Дополнительно/Загрузить больше ссылок для примера».

    Важно проделать это действие для всех существующих зеркал Вашего сайта (с www и без, с доступом по http и по https), чтобы составить максимально охватывающий внешнюю ссылочную массу список.

    Анализ полученного списка ссылок. Можно выполнить его, проверяя каждый сайт-донор с помощью специализированных сервисов вроде pr-cy.ru (особенно обращаем внимание на факт нахождения под фильтрами и показатели авторитетности).

    Также можно обратиться за помощью к Яндекс.Вебмастеру, в котором список внешних ссылок отображается с указанием тИЦ доноров (чем ниже тИЦ, тем подозрительнее).

    Вариант для крупных проектов, бюджет продвижения которых включает статью непредвиденных расходов – заказать платный аудит сайта (полный или с уклоном на проверку качества ссылочной массы).

    Прежде, чем переходить к следующему шагу нужно попытаться удалить некачественные ссылки стандартными способами (об имеющихся в виду способах читаем в статье «Как удалить плохие (спамные) ссылки на Ваш сайт»).

    Ссылки, которые удалить физически с доноров не получилось, необходимо сохранить в файле нужного формата для последующей загрузки в Disavow Links Tool.

    Воспользовавшись стандартным Блокнотом или бесплатно загрузив Notepad++, создаем обычный текстовый файл (.txt) с кодировкой UTF-8 или 7-bit ASCII. В нем перечисляем все ссылки, отклонение Гуглом которых требуется.

    Также имеется возможность указания доменов, для которых будут игнорироваться все страницы, ссылающиеся на Ваш сайт. Для этого нужно указать их с помощью команды «domain:» (каждый с новой строки).

    Для повышения вероятности того, что отклонение ссылок Гуглом будет выполнено, можно добавить комментарии, поясняющие причину обращения к Disavow Links Tool. Каждый комментарий пишем с новой строки, начинающейся с символа «#» (решетка). Пример оформления файла для отклонения обратных ссылок:

    Для того, чтобы воспользоваться Disavow Links Tool, нужно перейти по адресу: https://www.google.com/webmasters/tools/disavow-links-main, выбрать нужный сайт и нажать «Отклонение ссылок».

    На следующей странице будет отображено предупреждение об осторожном использовании данного инструментом и снова кнопка «Отклонение ссылок», после нажатия на которую Вам будет предложено выбрать для загрузки файл, в котором Вы предварительно сохранили список ссылок для отклонения Гуглом.

    Может случиться ситуация, когда Вы после отправки файла обнаружите, что забыли включить в него некоторые ссылки. При этом если загрузить новый файл, предыдущий будет заменен. Поэтому в таком случае, нужно отправлять дополненную версию предыдущего файла, а не новый с несколькими ссылками, о которых ранее забыли.

  • Далее – остается только ждать. Если Вы правильно определись со ссылками, которые приводят к занижению позиций Вашего сайта, через несколько недель после отправки запроса их негативное влияние будет устранено.
  • А как же Яндекс?

    У второго по популярности поискового гиганта, коим является Яндекс, инструменты помогающие с отклонением обратных ссылок, отсутствуют.

    И несмотря на то, что Яндекс в ответ на письма с просьбой произвести выборочное отклонение ссылок плохого качества чаще всего отвечает, что беспокоиться не о чем и что они никак не влияют на позиции, отрицательное влияние все же имеется.

    Его алгоритм Минусинск неустанно работает над понижением позиций веб-сайтов, уличенных в использовании SEO-ссылок. При этом, чтобы выйти из-под фильтра, Яндекс рекомендует избавиться от таких ссылок. И стало быть, если какие-то из них Вы никак удалить не можете, это Ваши проблемы – от Яндекса помощи в отклонении обратных ссылок не дождешься.

    Искренне надеемся, что ссылочная масса Вашего сайта всегда будет состоять только из качественных ссылок и часто обращаться к инструменту Disavow Links Tool Вам не придется. Если такой опыт все же случится, просьба поделиться своим опытом в комментариях под статьей.

    Новый инструмент от Google — отклонение ссылок

    На своем блоге Google анонсировал новый инструмент в панели для вебмастеров. Как и обещал Мэтт Каттс в начале лета, теперь появилась возможность отключать ряд ненужных ссылок, если вы считаете, что для вашего сайта они работают плохо.

    Если вам ранее приходили письма счастья от Google или вы попали под Пингвина, выбраться стало намного проще, главное — удалить правильные ссылки Правда гугл предупреждает, что если вы не получали уведомления о неестественных ссылках, то лучше инструмент всё же не использовать, чтобы не навредить сайту.

    Стоит отметить, что если вы владелец ресурса, который забыл удалить доступ к панели третьим лицам, с которыми уже давно не сотрудничаете, то рекомендуется сменить пароли и убрать старых пользователей, чтобы подстраховаться.

    Сначала необходимо будет выбрать сайт и подтвердить ваши ответственные действия.

    Что интересно, дальше вы не увидите список ссылок, которые можно пыкнуть и сказать, чтобы Google их не учитывал. Вам придется найти плохие ссылки самим и загрузить файл с ними через специальную форму.

    Это должен быть простой файл с адресом страницы в каждой новой строке. Если есть необходимость отключить ссылки не со страницы, а с домена в целом, то можно использовать конструкцию

    При необходимости редактирования или добавления новых ссылок, необходимо будет загрузить файл к себе на компьютер, внести все нужные изменения и добавить его снова. Ограничение лишь одно, текстовый файл не должен превышать 2 Mb.

    Сами ссылки можно найти в панели Google для вебмастеров в пункте меню “Трафик”.

    После того, как вы загрузите ссылки, они будут для Google рекомендациями, а не строгой директивой, поэтому, не удивляйтесь, если с первого раза у вас ничего не получится и сайт по прежнему будет находиться в … дальних позициях выдачи Также после загрузки необходимо время для переиндексации страниц, которые вы исключили. Поэтому, может пройти несколько недель прежде чем вы заметите изменения.

    Все подробности по использованию инструмента можно найти на странице справки.

    Фильтры Гугла

    Поисковые системы постоянно совершенствуют методы ранжирования. Некачественные сайты они опускают ниже в выдаче, хорошие ресурсы, наоборот, поднимают. Это автоматизированный процесс, который регулируется множеством алгоритмов. Похожие способы отсеивания низкопробных проектов объединяют в крупные блоки, так называемые фильтры.

    Поисковый фильтр – это сложный алгоритм, направленный на отбор качественных сайтов и исключение из поиска тех проектов, которые не будут отвечать поисковому запросу. Попасть под фильтр Google для каждого оптимизатора – страшный сон, особенно если это касается исключения из поиска. У мирового поискового гиганта есть несколько фильтров.

    Наиболее известные фильтры Гугла:

    • «Песочница», в нее попадают молодые сайты;
    • Supplementary Results – деление выдачи на основную и вспомогательную;
    • «Панда»;
    • «Пингвин»;
    • «Минус 30»;
    • «Черепаха»;
    • «Битые ссылки».

    Разумеется, это не окончательный список. У Гугла имеется как множество факторов ранжирования, так и множество фильтров.

    Фильтр Гугла «Песочница»

    Под этот фильтр попадают все новые сайты, которым еще предстоит доказать, что проекты жизнеспособны и созданы для людей. Если интернет-ресурс находится под этим фильтром, то это означает низкий уровень доверия поисковика к сайту. Чтобы улучшить показатели траста, нужно продолжать заниматься проектом, наполнять его качественным контентом и всячески развивать. Новые площадки могут находиться под фильтром примерно полгода после создания. Иногда больше, иногда меньше.

    Фильтр Supplementary Results

    У поисковика есть основная и вспомогательная выдача. Страницы, которые Гугл посчитал качественными, попадают в основную. Остальные же отправляются во вспомогательную. Причины, по которым можно угодить под Supplementary Results:

    • Контент низкого качества;
    • Использование копипаста на сайте;
    • Размещение переоптимизированных текстов;
    • Отсутствие текстового наполнения;
    • Неоптимизированная структура статей.

    Чтобы выйти из-под фильтра Гугл, необходимо улучшать качество материалов, размещенных на сайте. Требуется убрать весь копипаст, опубликовать полезную для пользователей информацию, статьи дописать до минимального значения (от 500 символов).

    Фильтр Гугла Panda

    Фильтр «Панда» появился у Гугла в 2011 году. Он отсеивает площадки с некачественным контентом, копипастом, переоптимизированными текстами, нетематической информацией. Вывод сайт из-под фильтра Гугла – длительный процесс. Нужно детально прорабатывать статьи и сайт в целом.

    За какие злодеяния можно угодить под «Панду»?

    • Использование копипаста;
    • Наличие дублей заголовков и мета-тегов;
    • Шаблонное наполнение сайта;
    • Плохие поведенческие факторы, большое количество отказов;
    • Переоптимизация текстов, изобилие ключевых слов на странице.

    Как определить, что сайт попал под фильтр Гугла? Сделать это очень просто по статистике позиций и посещаемости. Если поисковик стал выкидывать страницы из выдачи, по ним заходит всё меньше посетителей, вполне вероятно, что проект находится под фильтром. Улучшение контента и попытки исправить ситуацию возымеют свое действие, но не сразу, а со временем. Только комплексная работа с сайтом поможет вернуть трафик.

    «Пингвин» – еще один фильтр поисковой системы Гугл

    Фильтр Гугла «Пингвин» может применяться автоматически и вручную. Его задача – исключить из выдачи сайты, которые используют черные методы продвижения. Он появился в 2012 году, и многим вебмастерам создал немало головной боли. Санкции применяются к площадкам с некачественными ссылками, алгоритм опускает их в выдаче или вовсе исключает из поиска. Фильтр оценивает качество входящих и исходящих ссылок, естественность их прироста.

    Как выходить из-под фильтра Гугл?

    • Нужно убрать с проекта некачественные ссылки;
    • Закрыть от индексации внешние ссылки (сама ссылка закрывается атрибутом rel=»nofollow», текст ссылки для Яндекса – тегом , в Google не работает);
    • В сервисе для вебмастеров Гугл в разделе «Поисковый трафик» нужно посмотреть внешние домены, на которых находятся некачественные сайты со ссылками на ваш проект, и запретить учет этих ссылок на странице https://www.google.com/webmasters/tools/disavow-links-main (это сервис от Google, который позволяет контролировать влияние ссылок на сайт).

    Вывод из-под фильтра Гугла «Пингвин» имеет понятный алгоритм. Главное – правильно определить, какая ссылка является качественной и благоприятно сказывается на продвижении, а какая – нет. Для этого необходимо основательно подойти к изучению всей ссылочной массы, причем как входящей, так и исходящей. Можно вычищать линки постепенно, начиная с откровенно некачественных, таким образом сокращая их число. Если ситуация с позициями и трафиком начинает выправляться, то выбран верный путь. Добавлять домены в сервис Гугл вебмастер стоит осторожно, т.к. можно исключить и хорошие качественные ссылки.

    Однако стоит заметить, что с сентября 2016 года фильтр «Пингвин» вошел в основной алгоритм поисковой системы Google, и понять, что причиной падения позиций сайта произошло из-за санкций за некачественные ссылки, стало сложнее.

    Фильтр «Минус 30»

    Этот фильтр Гугла понижает позиции сайта в выдаче и накладывается за использование черных методов продвижения, копипаста, бесполезного контента и в других ситуациях. Он призван очистить выдачу от спама, избавиться от проектов со скрытыми редиректами, дорвеями. Под дорвеем понимается сайт с автоматический переадресацией на другой ресурс. Гугл борется с такими методами оптимизации и понижает проекты в выдаче за их использование. Сайты, которые находятся под санкциями, не могут быть выше 30 позиции.

    Как не попасть под фильтры Гугла? Общие рекомендации

    Обойти некоторые фильтры все же не получится, например, «Песочницу», однако можно снизить вероятность не попасть под остальные. В первую очередь, надо ответственно подходить к наполнению и развитию проекта, избегать копипаста, дублирования, наличия мусорных ссылок. Предстоит вплотную поработать со скоростью загрузки страниц (Гугл не любит медленные сайты), избавиться от битых ссылок. Обнаружить проблемы поможет комплексный аудит сайта.

    Как проверить фильтр Гугла?

    Если сайт начал терять позиции в выдаче зарубежного поисковика и в связи с этим упала посещаемость, нужно обязательно проверить, а не находится ли проект под фильтром. Если это так, то по виду фильтра можно понять, как дальше из-под него выходить. Хорошая новость: любой сайт можно вывести из-под фильтра. Но есть и плохая – в отдельных случаях на это может потребоваться много времени: от полугода и более.

    Фильтры Google: их виды и методы борьбы с ними

    Поисковая система Google — признанный лидер по числу обрабатываемых запросов в сутки. За последнее десятилетие она создала более 100 региональных версий, а в некоторых странах остается первой и единственной поисковой системой.

    В этой статье речь пойдет об алгоритмах Гугла и его механизмах фильтрации поисковой выдачи. Эта информация необходима как специалистам SEO, так и пользователям, чьи сайты могут оказаться в зоне риска.

    Классификация фильтров поисковой системы Гугл

    Разделяют ручные и автоматические (алгоритмические) методы наложения фильтров. Ручные санкции применяются модераторами при проверке сайта в том случае, если алгоритм ПС оказался не способен определить необходимость фильтрации. Как правило, ручные санкции гораздо проще снять после переговоров с поддержкой поисковой системы Google, так как модератор четко указывает причину наложения фильтра. Но если сайт попал под алгоритмический фильтр Гугла, то быстро проверить, какой именно вид санкций применен, не так просто. Веб-мастер не предоставит вам никакой информации, и необходимые решения придется искать самостоятельно.

    Проверка и вывод сайта из-под ручных фильтров Гугла

    Ручные санкции накладываются в том случае, если применялись:

    • дорвейные технологии;
    • искусственные SEO-ссылки;
    • агрессивный спам ключевыми словами;
    • технологии черного SEO (создание дорвеев, клоакинг, сокрытие текста, сателлиты, маскировка отдельных элементов сайта);
    • некачественный, неуникальный и спамный контент.

    Проверить сайт на предмет попадания под ручной фильтр поисковой системы легко в панели Google Webmaster Tools. В случае если для Вашего сайта ручные санкции не применялись, в меню «Инструменты для веб-мастеров» Вы увидите следующее сообщение:

    Тем не менее, если ручной фильтр был применен, то для выхода сайта из-под него требуется внимательно ознакомиться с информацией в вышеназванной вкладке и следовать указанным инструкциям для устранения проблем.

    Как узнать, что сайт попал под автоматический фильтр Google?

    Фильтров в поисковой системе Гугл очень много, и быстро проверить, какой именно тип санкций был применен, довольно сложно. ПС учитывают множество факторов ранжирования площадок, и задача любого поисковика — сделать выдачу максимально релевантной. Однако ошибаться могут даже машины, и Гугл в этом плане не исключение.

    Ваш ресурс мог оказаться под фильтром, если Вы не манипулировали выдачей, не накручивали ссылочную массу и ключи и в целом не злоупотребляли черным и серым SEO, однако заметили, что в один период:

    — резко упал трафик;

    — в Google Webmaster Tools появилось сообщение, что обнаружены искусственные ссылки на сайт.

    Перечислим некоторые фильтры Гугла:

    • «Песочница»;
    • Domain name Age («Возраст домена»);
    • Google Omitted Results («Дополнительные результаты»);
    • Page Load Time («Длительное время загрузки»);
    • Broken Link Filter («Много битых ссылок»);
    • Bombing («Бомбежка»);
    • Bowling («Боулинг»);
    • Too Many Links at once («Много ссылок сразу»);
    • Links («Линкопомойки»);
    • CO-citation Linking Filter («Социтирование»);
    • -30 («Минус тридцать»);
    • Duplicate Content («Дублирующийся контент»);
    • Over Optimization («Чрезмерная оптимизация»);
    • Google page layout («Много рекламы в верхней части страницы»);
    • Фильтр за всплывающие окна;
    • Google Panda;
    • Google Penguin.

    Рассмотрим несколько самых серьезных фильтров Гугла.

    Penguin («Пингвин»)

    Был запущен в 2012 году. Попадание под этот фильтр характеризуется резким падением трафика. Как правило, проседание совпадает с моментом переиндексации выдачи. Этот фильтр «наказывает» площадки за неестественную ссылочную массу. Если после очередного обновления алгоритма Вы заметили проседание трафика на сайт, то, вероятно, к ресурсу были применены санкции.

    Как выглядит график посещаемости сайта под фильтром Penguin:

    К манипулированию ссылочной массой Гугл относит:

    • присутствие в анкоре ссылки прямого вхождения ключевого запроса;
    • размещение ссылочной массы на некачественных и спамных площадках;
    • присутствие сквозных ссылок в сайдбаре и/или футере;
    • ссылочный обмен;
    • хаотичное и неравномерное распределение анкоров по страницам ресурса.

    Метод вывода сайта из-под фильтра довольно прост: достаточно убрать некачественные и неестественные ссылки, устранить внутренние ошибки (клоакинг, дубли) и постепенно наращивать естественную ссылочную массу без резкого увеличения этих ссылок.

    Некорректные ссылки могут возникать по разным причинам, и самая распространенная — некачественные работы, проведенные по внешней SЕО-оптимизации. Например, покупные ссылки на сайт, за которые Гугл может применить санкции.

    Нередко встречаются ситуации по обнаружению ссылок на ресурс, которые были проставлены конкурентами с сайтов с взрослой тематикой или с вредоносными источниками. Также до сих пор встречаются сайты с огромным количеством ссылок, проставленных в те годы, когда определяющим фактором было не качество ссылок, а их количество.

    Обычно ссылки можно удалить через переписку с веб-мастерами площадок, с которых они ведут. Но бывают случаи, когда это невозможно. В таких ситуациях проводится так называемое дезавуирование ссылок.

    Слово «дезавуирование» произошло от фр. desavouer — «отказываться», «выражать неодобрение». Таким образом, дезавуирование ссылок — это процесс, при котором владелец ресурса указывает поисковику, что данные ссылки не нужно учитывать при ранжировании сайта, и снимает с себя ответственность за их появление.

    Дезавуировать нежелательные ссылки сам Гугл рекомендует с помощью инструмента Disavow Links.

    Правила использования сервиса:

    Шаг первый. Переходим на страницу Disavow Links Tool и выбираем наш домен:

    Шаг второй. Загружаем txt-файл со списком ссылок, которые необходимо удалить. Кодировка файла — UTF-8 или 7-bit ASCII. Каждую ссылку требуется писать с новой строки, также можно запретить и домен, и отдельную страницу сайта, используя команду domain. При необходимости оставить комментарий нужно проставить в начале строки символ #.

    ВАЖНО: размер загружаемого файла не должен превышать 2 Мб.

    Ссылки, индексируемые Google, вы можете проверить в панели веб-мастера:

    Шаг третий: Ждем новой индексации с учетом загруженных запретов (этот процесс может занять от нескольких дней до месяца) и после отправляем сайт на пересмотр: https://www.google.com/webmasters/ tools/recons >

    Panda («Панда»)

    Этот пессимизирующий фильтр поисковой системы Google был введен в 2011 году. Его основная цель — борьба с некачественным контентом и рекламой, не имеющей отношения к тематике текста, а также целостная оценка наполнения сайта.

    Так выглядит график посещаемости сайта, попавшего под фильтр Panda:

    Чтобы избежать фильтра «Панда», на Вашем сайте не должны присутствовать:

    • неуникальные, скопированные тексты;
    • нетематические ссылки;
    • спам ключевыми словами, переоптимизация;
    • неуникальные метатеги, дубли страниц и пр.

    Процесс вывода сайта из-под фильтра «Панда» трудозатратный и долгий. Необходимо провести работы по комплексному аудиту, уделить внимание каждой странице, исправить каждую внутреннюю техническую ошибку. Подробно об этом фильтре Вы можете прочитать в нашей статье.

    Что необходимо делать, чтобы не попадать под фильтры поисковой системы Google?

    В первую очередь не следует нарушать правила честной оптимизации. Рекомендации по основам адекватной оптимизации дают как крупные компании по продвижению, так и сами поисковые системы. Наполнять страницы следует только уникальным и интересным для пользователей контентом. Необходимо избегать резкого роста ссылочной массы, возникновения дублей страниц или всего сайта. Нельзя размещать нетематическую рекламу и пренебрегать основами юзабилити, следует оперативно проверять сайт и исправлять возникающие технические ошибки.

    Google Disavow Tool

    Google Disavow Tool – это инструмент для отклонения внешних ссылок в поисковой системе Google. Вебмастер сам может указать, какие внешние ссылки учитывать, а какие нет.

    Что следует учитывать при использовании инструмента

    На счет Google Disavow Tool много мнений. Одни эксперты утверждают, что он оказывает негативное влияние на ранжирование сайта, другие же наглядно показывают, как их ресурсы выходят из-под фильтра «Пингвин». В любом случае, при использовании данного сервиса вы должны знать, что…

    • отклонение ссылок в Google Disavow Links физически не удаляет ссылки с сайтов-доноров. С помощью этого инструмента вы лишь указываете поисковым алгоритмам, нужно ли учитывать определенные ссылки при ранжировании или нет;
    • отклонять ссылки нужно лишь в том случае, если вы на 100 % уверены, что они негативно влияют на продвижение сайта. В Google предупреждают, что вы можете навредить своему сайту, если не умеете работать с сервисом. Отклоняйте ссылки только в том случае, если после продвижения заметен резкий спад позиций или Google направил вам официальное письмо с обнаружением некачественных доноров;
    • использовать Google Disavow Tool нужно только в крайних случаях. Старайтесь решать вопросы с владельцами сайтов и, если вас игнорируют, прибегайте к помощи сервиса;
    • отправлять запрос в Google для подтверждения отклонения ссылок в Google Disavow Links не требуется. Все процедуры выполняются автоматически;
    • процесс отклонения может занимать несколько недель. Время требуется на обработку запросов и переиндексацию. Для каждого конкретного сайта временной промежуток может сильно различаться.

    Как грамотно использовать Google Disavow Tool

    1. Зайдите в Google Disavow Tool и выберите свой сайт в списке.
    2. Нажмите на вкладку «Поисковый трафик» и выберите пункт «Ссылки на сайт».
    3. Далее кликните по вкладке «Наиболее часто ссылаются» и выберите пункт «Дополнительно».
    4. Нажмите кнопку «Загрузить больше ссылок для примера», в результате чего получите полный список сайтов, которые ссылаются на ваш ресурс.
    5. Проверьте список через разные сервисы, чтобы понять, какие доноры качественные, а какие нет.
    6. Напишите всем владельцам сайтов, которые вас не устраивают, чтобы удалили ссылки со своих ресурсов.
    7. Если в течение недели на ваши просьбы никто не откликнулся, перейдите в пункт Google Disavow Links и выберите необходимый сайт.
    8. Загрузите полный список ссылок, которые нужно отклонить и подтвердите операцию.

    Важный момент! Если в сервисе Google Disavow Tool вы загружаете список повторно, то все ранее указанные ссылки не будут учтены. Вам нужно составлять список доноров с учетом тех, которые вы указывали ранее.

    Чтобы повысить шансы на отклонение ссылок, можно указать в комментариях в Google Disavow Links к каждому сайту причину обращения.

    Есть ли альтернатива у Яндекса

    На момент написания этого материала инструмент Google Disavow Links актуален только для поисковой системы Google. В Яндексе инструментов для отклонения ссылок не существует, хотя и присутствуют похожие алгоритмы, пессимизирующие сайты за некачественные ссылки, например «Минусинск». В этом случае для Яндекса возможна только отправка запроса по электронной почте с указанием конкретного списка сайтов, которые не должны учитываться при ранжировании вашего сайта. Каков будет исход – никто не знает. Поэтому тщательно продумывайте стратегию продвижения сайта за счет внешней оптимизации и закупки ссылок.

    Ссылка на основную публикацию