Панда от Google: что новенького? Google Panda – как работает он и как работать с ним Цели обновления Google Panda.

Здравствуйте, уважаемые читатели блога сайт. В этом посте я хочу чуть-чуть порассуждать о том, что у меня сейчас крутится в голове. В основном все мысли заняты проблемой , под которые меня угораздило угодить за последние полтора года. По приведенной ссылке вы найдете статью, где я описываю сложившуюся ситуацию, включая переписку с техподдержкой зеркала рунета.

За прошедшие с момента выхода той публикации четыре с половиной месяца, я по очереди (начиная с первых постов за 2009 год) вычитывал и вносил правки (убрал возможный спам любыми словами, а так же обуздал внутреннюю перелинковку до вменяемых пределов) в 360 своих статей из 411 существующих на данный момент. Несколько десятков из них были полностью переписаны, во многих десятках обновлены скриншоты, внесены исправления, дополнения и т.д.

В общем, делал все, что мог, не покладая рук. Проявилась за это время чудовищная работоспособность (по 12 часов в сутки пахал и от 2 до 6 статей умудрялся за это время окучивать). Появились и первые положительные результаты в плане улучшившихся позиций и увеличившейся посещаемости с Яндекса и Google.

Вот только по-прежнему терзают сомнения по поводу того, под каким именно фильтром Гугла я сижу вот уже полтора года — Панда или Пингвин. В связи с этим встает вопрос, а нужно ли заморачиваться с отбором спамных обратных ссылок и добавлять их в Disavow links , как это советуют делать всем, кто пострадал от Пингвина. Да и как это сделать при 30 000 беков в Гугл Вебмастере?

Послабление фильтров с Яндекса и Гугла

Как я уже упоминал, работоспособность сейчас имеет место быть просто феноменальная и было бы здорово ее приложить еще к чему-то полезному и перспективному, ибо статей для переделки осталось уже не много, да и спама в них уже не найти, разве что только мелочи разные подправляю.

Ребят, сразу извиняюсь, что далее буду использовать нетолерантное «трафик», а не количество посетителей с такой-то поисковой системы, ибо так реально проще и доступнее получается (меньше слов, а больше смысла). Ничего личного, только бизнес. Спасибо.

25 сентября я обнаружил, что получаю с Яндекса трафика в два-три раза больше , чем обычно в последнее время.

На общей картине посещаемости это отразилось примерно так:

Во-первых, это было несколько неожиданно, ибо как раз к этому времени я полностью смирился со сложившейся плачевной ситуацией и просто продолжал пахать без особых претензий на результат. Причем, еще летом я порой готов был рвать и метать из-за бессилия чего-то изменить в лучшую сторону, а тут полностью перестал дергаться.

Во-вторых, не имея опыта выхода из под фильтров, не знаю что и думать о будущих перспективах. Трафик по Яндексу вернулся не весь и я себя успокаиваю тем, что и падал он не сразу, а в течении нескольких апов.

Кстати, загнать по фильтр можно не только тонной ссылок с ГС (у меня в начале этой весны наблюдался чудовищный всплеск ссылочного в несколько тысяч бэков и не к одному из них я причастен не был). Могут пытаться играть и на поведенческом, т.е. ухудшать метрики как поведения пользователей в выдаче, так и на сайте.

Например, все той же весной у меня появился тысячный трафик с каких-то сайтов анекдотов, приколов и прочей ерунды, которые ничем иным, как ГС, и назвать-то было трудно. Что это было — не понятно. Например, при переходе к чтению очередного анекдота пользователь попадал на мою страницу 404 и не знал, что ему делать. Пришлось даже под таких посетителей, чтобы хоть чуток снизить показатель их отказов.

Пингвин до сих пор придерживается принципа общего обновления алгоритма фильтрации и можно четко отследить (если этим заморочиться) все его апдейты. Сейчас, кстати, похоже идет его очередное обновление до версии 2.1, что подтверждают соответствующие ветки на Сео форумах.

Панда же последнее время стала фактически частью общего алгоритма, который Гугл использует при ранжировании, и ярко выраженных ее апдейтов для всех сайтов сразу уже, скорее всего, не будет. Но тем не менее, если вернуться немного в историю, то по дате начала падения трафика можно сделать вывод, под какой именно фильтр попал тот или иной ресурс.

Как определить под каким фильтром Google находится сайт — под Пандой или под Пингвином

Кстати, именно такой способ предлагает использовать буржуйский онлайн ресурс Barracuda, а именно его продукт под названием Panguin Tool .

Проблема в том, что этому сервису нужно будет предоставить доступ к статистике вашего счетчика Гугл Аналитикс , а он уже наложит на выдранный из него график точные даты апдейтов Панды и Пингвина, чтобы понять что именно из этого дуэта подкосило ваш ресурс.

По началу я подумал, что у меня есть по крайней мере две причины этого не делать:

  1. Во-первых, у меня Аналитикс еще и года не стоит, ибо раньше меня полностью устраивала , ну, и ЛИ счетчик тоже вполне себе информативный.
  2. Во-вторых, на том же у меня висит и Адсенс, а это же деньги, которые никому не стоит доверять. Но чуть погодя я вспомнил, что Аналитикс, равно как и Метрика, имеет возможность создания гостевых аккаунтов, чем я и попробовал воспользоваться.

В общем, я зашел в своем основном аккаунте Аналитикса в администрирование и делегировал права на просмотр и анализ статистики другому своему аку в Гугле, к которому вообще ничего такого не привязано.

После этого в том браузере, где я уже был авторизован под этим не слишком важным аккаунтом, перешел по ссылке «Log-in to Analytics» со страницы Panguin Tool и меня попросили подтвердить мое желание предоставить этому приложению данные по статистике из Аналитикса.

Я не возражал. После этого меня попросили выбрать конкретный счетчик.

Ну, и в конце концов предоставили желаемый график с датами релизов Панды и Пингвина , но, как упоминал чуть выше, счетчик этот у меня стоит не так давно и начало 2012 года он не захватил.

Поэтому определить, какой именно фильтр наложил Гугл на мой сайт, таким образом не удалось. К тому же, в конце весны и начале лета этого года я вообще снимал код Аналитикса по не понятным мне сейчас причинам. То снижение трафика с Google, которое имело место быть весной этого же года, вроде бы ни с Пандой, ни с Пингвином не коррелируются.

Но, возможно, вам повезет больше. На графике и в приведенных ниже таблицах еще можно посмотреть статистику по приземляющим страницам и по ключевым словам, с которых шел трафик.

Второй способ определиться с тем, какой именно зверь вас покусал, это посмотреть на косвенные признаки (отпечатки зубов). Например, считается, что при попадании под Пингвин у вас просядут позиции только по отдельным запросам , целевые страницы которых окажутся заспамленны плохими входящими ссылками.

При Панде же, скорее всего, будет общее проседание трафика, как будто бы у вас , хотя о самой уместности употребления этого термина ведутся споры. У меня ситуация в этом плане больше похожа на второй вариант.

Однако, сейчас спам был устранен, но изменения в лучшую сторону по Гуглу начались только после движения по Яндексу. В связи с этим я по-прежнему остаюсь в растерянности по поводу своих дальнейших действий и их целесообразности.

Disavow links — как сообщить Гуглу о плохих ссылках на сайт

Делается это на вкладке «Поисковый трафик» — «Ссылки на ваш сайт». Над приведенным списком у вас будет три кнопки, которые позволят выгрузить все найденные в Google бэки. Мне больше всего нравится последний вариант, ибо там будет иметь место сортировка по дате появления беклинков.

Однако, тут будет приведена информация только по 1000 доменам, с которых проставлено на ваш сайт больше всего беклинков. Судя по различным сервисам анализа беков, на мой блог проставлены ссылки с трех тысяч доменов и их общее число больше доступных в Гугле тридцати тысяч.

Но не суть. Давайте представим, что я пробежался по этим Урлам и с высокой долей вероятности выявил те странички или даже целые домены, которым не место в моем ссылочном профиле. Теперь остается только оформить все это богатство в один файл с расширение txt и любым удобным вам названием.

При составлении файла для Disavow links необходимо будет придерживаться простых правил :

  1. Урл каждой новой страницы или домен пишутся на отдельной строке: http://plohoysite.ru/plohaystranichka.html
  2. Домен оформляется по следующему принципу: domain:plohoysite.com
  3. Можно добавлять комментарии, но перед ними обязательно должна стоять решетка (# — хеш)

Как только список подготовите, то переходите на страницу Disavow links (прямого пути из интерфейса Google вебмастера я не нашел, видимо боятся, что будут использовать этот инструмент не обдумано):

Выбираете из списка нужный вам сайт и жмете на кнопку «Отклонение ссылок» . Вас предупредят о возможных отрицательных последствиях сего действа, хотя я, вроде бы еще не встречал подобных отзывов на форумах, но возможно что те, кто добавлял сюда свои списки, уже не имели трафика с Гугла, а уйти в минус, как известно, не возможно.

Кстати, лично меня эта надпись настораживает, ибо не хотелось бы необдуманными действия усугубить, а не улучшить сложившуюся ситуацию. Ну, а если вы все же решитесь на эксперимент, то на следующей странице вам предложат загрузить с компьютера подготовленный файл с Disavow links и отправить его Гуглу на рассмотрение.

Но проставить в столбик отобранные URL адреса или домены — это самое простое. А вот самое сложно как раз и состоит в отсеивании этих самых спамных и плохих обратных ссылок, чтобы потом попросить Google их не учитывать.

Положение усугубляется еще и тем, что нет однозначного мнения о пользе этого действа, даже если вы точно знаете, что ваш сайт пострадал от Пингвина или на него были наложены ручные санкции. Мнения специалистов разделились. Например, Девака ради дела даже добавил в Disavow links все до единого беки на свой блог , но результата не увидел, хотя именно он склоняется к полезности этого инструмента, как ни странно.

Кстати, при наложении ручных санкций ситуация с выходом из-под фильтра может быть даже более простой, а точнее более быстрой. Фильтры наложенные вручную сейчас можно увидеть в Гугл Вебмастере на вкладке «Поисковый трафик» — «Меры принятые вручную» .

В этом случае уже через пару недель после загрузки списка в Disavow links и подаче заявки на пересмотр (как я понимаю, сейчас это можно сделать на этой же вкладке, а не на отдельной хитроспрятанной странице, как это было раньше) фильтр может быть снят и позиции вернутся к своим первоначальным значениям.

Как отбирать плохие обратные ссылки для добавления в Disavow links

В случае же Пингвина и удачного удаления спамных ссылок результата придется ждать довольно долго — до следующего апдейта этого алгоритма. Возможно, что это будет занимать месяцы, а возможно что и год. Вы по-прежнему хотите попробовать Disavow links? Ну, что же, тогда я поделюсь с вами теми моментами, которые я почерпнул при поиске способа создания этого списка.

Делать это вручную у меня не получилось не из-за огромного количества монотонной работы, а из-за того, что я не обладаю должной интуицией, чтобы по внешнему виду и тем небольшим статистическим данным, которые собирают , делать выводы о добавлении данной страницы или всего домена в список неблагонадежных.

Тут однозначно нужна автоматизация , которая должна четко отделить зерна от плевел и ни в коем случае не «выплеснуть вместе с водой и ребенка». Очевидно, что нужны какие-то сервисы, которые кроме того, что смогут собрать всю ссылочную массу ведущую на ваш сайт, способны были бы еще и вынести оценку качества для каждого из доноров.

Такие сервисы есть и многие вебмастера, а уж тем более оптимизаторы, их знают. Другое дело, что за анализ большого количества бэков в этих сервисах придется заплатить и очень даже не малое количество денег. Причем, если вы профессионально используете подобные ресурсы каждый день, то деньги окупятся сторицей, но для нашей задачи это будет расточительством, как мне кажется.

На серче проскакивала публикация, где представитель одной из крупных SEO контор делился своим опытом подбора кандидатов для списка Disavow links. Он предложил использовать три ссылочных сервиса : буржуйский от Moz под названием Open Site Explorer , а так же отечественные Solomono (Линкпад) и Ahrefs .

Как я понял, мне нужно месяц ни есть и не пить, чтобы оплатить проверку моих нескольких десятков тысяч беклинков и выгрузить все данные по ним для дальнейшего анализа и обработки. Конечно же, крупная Сео контора всеми этими платными пакетами и так обладает, ибо они полностью окупаются при постоянной работе с десятками, а то и сотнями проектов заказчиков.

Но метод его довольно-таки убедителен. Товарищ предлагает выгрузить из Open Site Explorer, Solomono и Ahrefs показатели качества доноров. Они называются Domain Authority, iGood и Ahrefs Domain Rank, соответственно.

Затем свести все это дело в одну таблицу и отбирать кандидатов в Disavow links по принципу наименьших весовых коэффициентов качества донора во всех этих трех сервисах в купе. Это позволит снизить вероятность ошибки.

К сожалению, позволить себе такую роскошь могут не многие, хотя, если бы кто-то вынес это на аутосорсинг , то я бы не отказался воспользоваться за умеренную плату, но при этом мне бы хотелось получить не просто список кандидатов для Disavow links, а именно все эти выгрузки из Open Site Explorer, Solomono и Ahrefs, чтобы самому убедиться в справедливости сделанных выводов и в том, что меня не водят за нос.

Второй вариант поиска спамных обратных ссылок в своем ссылочном профиле, который мне попался на глаза, заключался в использовании платной программы ФастТраст от Алаича (известный блогер). Собственно, на промо сайте этой программы я наткнулся как раз на описание подготовки списка кандидатов на удаления для Disavow links .

Вроде бы все замечательно. Цена 3000 рублей, что хотя и дороговато, но терпимо, тем более, что ее можно приобрести и за бонусы Профит Партнера, которых у меня как раз имеется нужное количество.

Но! Я присмотрелся повнимательнее к требованиям и желательным условиям, при которых данная программа будет работать корректно. Оказалось, что не все так просто:

В общем, это охладило мой пыл и я понял, что купить программу это еще полдела, а нужно будет еще прокси искать, деньги в Ahrefs вкладывать, чтобы получить наиболее актуальный результат. Да и времени на сбор данных, думаю, уйдет довольно много.

Поэтому решил взять паузу и, пока из головы не вылетело, записать все свои текущие мысли по поводу Пингвина и Disavow links в этом посте, чтобы потом к этому вернуться.

Ну, вот, где-то так, примерно. А вы что думаете по поводу фильтра примененного Гуглом к ktonanovenkogo? Это Панда или Пингвин? С Disavow links линк стоит заморачиваться? Если стоит, то каким образом вычленять галимые бэки?

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Вывод сайта из под фильтра Google Пингвин - пошаговое руководство За что можно получить бан в Яндексе, попасть под АГС или портяночный фильтр, а также пути выхода из-под этих санкций
GoGetLinks - вечные ссылки для продвижения сайта и заработок на бирже ГоГетЛинкс для вебмастеров
Статистика поисковых запросов Яндекса, Google и Рамблера, как и зачем работать с Вордстатом
Расшифровка и разъяснение Seo сокращений, терминов и жаргонизмов
СЕО терминология, сокращения и жаргон
Онлайн сервисы для вебмастеров - все, что нужно для написания статей, их поисковой оптимизации и анализа ее успешности
Способы оптимизации контента и учет тематики сайта при ссылочном продвижении для сведения затрат к минимуму
Rel Nofollow и Noindex - как закрыть от индексации Яндексом и Гуглом внешние ссылки на сайте

Известно, что алгоритм Google Panda представляет собой совокупность обновлений систем поиска, нацеленных на увеличение релевантности страниц в выдаче. Для этого берется во внимание около ста различных факторов. В результате анализа сайты с низким качеством контента и выраженной переоптимизацией понижаются в выдаче.

Особое внимание алгоритм «Панда» уделяет внутренним факторам, в первую очередь текстовому контенту. Рассматривается его объем, уникальность, степень заспамленности ключами и прочее. Тем самым Panda дополняет другой алгоритм Google - Penguin, отвечающий за внешние факторы ранжирования сайта.

Также во внимание берутся процент отказов, логичность структуры сайта и правильность перелинковки.

Близкого знакомства с «Пандой», конечно, лучше сторониться. Но если сайт все же попал под фильтр, важно своевременно узнать об этом. Достоверно определить этот факт невозможно, так как информация о дате выхода обновлений Google «Панды» отсутствует. Но косвенным свидетельством попадания под фильтр будет снижение числа посетителей из ПС Гугл. Стоит отметить, что фильтр накладывается на весь сайт, поэтому, выполняя работы по выводу, необходимо уделять внимание ресурсу в целом.

Как определить, что сайт под фильтром Google «Панда»?

Воспользуйтесь сервисом проверки уникальности текстов - например, WebSite Auditor, Advego Plagiatus или любым другим Вам доступным, но при этом корректным. Необходимо определить уникальность всех документов на сайте. Если большая часть контента (от 20% и более) скопирована из других источников, рекомендуем принять меры по уникализации проблемных участков.

  1. Смотрим на содержательность контента. Пользователи должны находить на странице необходимый ответ на свой вопрос. Проверку на фильтр Гугла по этому параметру также должны пройти все страницы.
    • Необходимо наполнять страницы сайта максимально информативным и развернутым контентом: текстовым, графическим, медийным. «Панда» оценивает не только текстовую релевантность, но и общее наполнение страницы.
    • Следует удалить повторяющийся контент, который не терпит алгоритм Google Panda.
  2. Нужно проверить тексты на переизбыток ключевых слов. «Панда» накладывается за переспамленность.
  3. При подготовке нового качественного контента для сайта принимайте во внимание, насколько вовлечены пользователи, на основании статистики систем аналитики Гугла.
  4. Необходимо выстаивать правильную структуру сайта с логичной перелинковкой внутренних страниц.

Как перестать быть интересным алгоритму Google Panda?

В первую очередь необходимо сделать полный аудит сайта и определить, что могло вызвать наложение фильтра. Далее можно приступать к устранению недочетов.

  1. Уделите особое внимание контенту. Объем текста должен превышать 400 символов. Чтобы избежать попадания под действие фильтра Гугла «Панда», не менее важно отредактировать текст: он должен быть содержательным, удобочитаемым и уникальным. Дубли страниц необходимо удалить. Следует также подчистить от лишних ключей сам текст, а также заголовки и метатеги. Важно, чтобы сайт был в должной мере наполнен информацией, полезной для посетителей (например, новостями, статьями, разделами «Вопрос – ответ» и прочим).
  2. Постройте правильную структуру сайта. Это ключевое требование для правильной перелинковки страниц. Также важно исправить все технические ошибки сайта.
  3. Избавьтесь от нерелевантной рекламы. Если на странице имеются агрессивные всплывающие окна, поп- и кликандеры, пусть даже и по теме, не сомневайтесь, что интерес со стороны Google «Панды» - лишь вопрос времени. Решите сами, стоит ли потенциальная выгода от такой рекламы порождаемых ею рисков.
  4. Определите работоспособность ссылок (как внешних, так и внутренних). Для этого отлично подойдет плагин Broken Link Cheker или сервис Netpeak Spider . Не помешает добавить и дополнительную навигацию.

Главное при этом - помнить, что цель алгоритма «Панда» заключается в блокировке плохого контента. Google Panda любит большое количество уникального контента. Чем его больше, тем выше вероятность, что фильтр снимут. Нужно только периодически индексировать страницы.

Это основные рекомендации, которые позволят избежать санкций со стороны Гугла. Их можно использовать в качестве базовых еще на этапе создания сайта, его наполнения и продвижения. Чем более содержательным будет веб-ресурс, тем меньше ему угрожает этот алгоритм. Соответственно, позиции в выдаче будут предельно устойчивыми.

Если сайт попал под фильтр, то до следующего апдейта он уже не сможет освободиться от влияния Google Panda. Именно поэтому лучше предупредить проблемы, чем потом их решать.

Полезно 1

Давным давно, в далёкой-далёкой галактике, поисковая система Google создала алгоритм, который получил название Panda. Разработали этот алгоритм всего два человека, это Амит Сингал вместе Мэтт Катс. Этот алгоритм отличается от своих собратьев тем, что, прежде всего он рассчитан на человеческий фактор. А также алгоритм учитывает и другие факторы при ранжировании сайта.

В этом материала мы постарались собрать всё, что может касаться алгоритма Google Panda, как его определить и как под него не попасть, чтобы с успехом продвигать сайт .

Что учитывает алгоритм Google Panda

Уникален ли контент на сайте

Алгоритм Панда, прежде всего, обращает внимание, не встречается ли на других сайтах такой же контент. Более того, он ищет не только похожие тексты на сайтах или страницах также учитываются и фрагменты текстов. Другими словами, уникальность текста определяется с помощью процентного соотношения. Допустим, если статья была скопирована полностью, значит, уникальность равна нулю. Если же скопирована часть текста, то уникальность может быть 80%, например.

Алгоритм рассчитывает уникальность как самого сайта, так и отдельной страницы, в том числе и относительно других страниц сайта. Вдобавок к этому алгоритм панда имеет на вооружении такой инструмент, как шаблонность. Другими словами, он может определить похожие страницы на разных сайтах, даже если они продвигаются с помощью различных ключевых слов.

Более того, этот алгоритм обращает внимание и на рекламу . Если на сайте, который оказывает юридические услуги, размещена реклама конкурентов, то это алгоритм фиксирует и учитывает при ранжировании сайта.

Задача поисковых систем давать пользователю ответ на его вопрос. Задача алгоритма Панда немножко спустить на землю, владельцев сайтов, цель которых только заработок. В общем, цель этого алгоритм до ужаса проста. В поисковой выдаче должны быть только уникальные, актуальные и полезные сайты. Вот пример, как создавать хороший образовательный контент .

Количество и качество ссылок (ссылочный профиль)

Алгоритм также учитывает ссылки. Причём он учитывает все ссылки, и входящие и исходящие. Требование всего одно, и тот и другой сайт должен быть одной тематики. Конечно же, алгоритм отслеживает количество входящих и исходящих ссылок, но это не самый важный фактор при ранжировании сайта. Первое, что его интересует, это человеческий фактор. Другими словами, он внимательно смотрит за пользователем на сайте. Что он делает, сколько времени проводит, читает ли он материал, заполняет ли формы и так далее. Конечно, разработчики проделали огромную работу, по созданию и обкатке этого алгоритма. По сути, этот алгоритм потребовал шлифовки и других алгоритмов, чтобы поисковая система могла выдавать только качественные сайты.

При введении этого алгоритма при ранжировании сайта, попасть в ТОП поисковой выдачи могут только реально полезные и качественные сайты. Именно этот алгоритм, и сделал поисковую систему Google мощным поисковым инструментом. Это подтверждается тем, что аудитория Гугл растёт в геометрической прогрессии. Более того, бюджет компании так же растёт как на дрожжах. Ведь обмануть пользователя ещё можно, используя так называемые чёрные методы продвижения. Различные фишки и агрессивную рекламу. А вот инвестора обмануть нельзя, и он прекрасно знает и осознаёт, что Гугл – дело прибыльное.

Конечно, такой рост компании это заслуга не только одного алгоритма. А теперь вернёмся к теме статьи.

Поведенческие факторы

В этот показатель входит целый ряд критериев, такие как:

  • показатель отказов;
  • сколько времени проводит человек на сайте за одну сессию;
  • сколько страниц он посетил за один визит;
  • возвращается ли он на сайт и как часто;
  • сколько показывается сайт в выдаче, и сколько переходят по ссылке (CTR).

Все это алгоритм отслеживает, причём он делает это для каждого пользователя. То есть он следит за каждым посетителем и внимательно смотрит, что он делает, переходит ли по ссылкам, заполняет ли формы, прокручивает страницу вниз или нет и так далее. Таким образом, алгоритм определяет, отвечает ли на запросы пользователь сайт или отдельная страница и находит ли пользователь ответ на запрос введённый в поисковую строку.

Как понять, что сайт попал под фильтр Panda и что делать?

  1. Резкое падение трафика. Если Вы обнаружили, что количество переходов из Google резко снизилось, то одной из возможных причин, может являться Panda и технические проблемы сайта, которые не были выявлены:
    — медленный ответ сервера;
    — недоступность страниц и прочие.
    Чтобы проверить это внимательно проанализируйте данный Google Analytics и Search Console .
  2. Аккуратнее с ссылками. Хоть ссылки для Google остаются ключевым факторам ранжирования, не стоит слишком заострять внимание на них, потому что поисковик давно научился отличать естественные ссылки от закупленных, а так же выявлять неествественный прирост ссылочной массы.
  3. Плохие тексты. Тексты написанные не человеческим языком, с множеством орфографических ошибок, короткие, не уникальные и размещённые в виде газетной полосы — убьют любой сайт, так как служат сигналом для Панды понизить сайт в выдаче.
    Что делать? Пишите качественный, уникальный контент, который полезен для пользователей, тщательно его проверяйте и редактируйте.
  4. Нет видео и фото. Если Вы не разбавляйте содержание статей и страниц сайта, картинками, инфографикой и видео, то глазу читателя просто не за что зацепиться и если это плохо для пользователя, значит это не нравится Панде.
    Добавляйте больше оптимизированных фото и видео, заполняя атрибуты alt и title .
  5. Мало внутренних ссылок. Зайдя на сайт, пользователь должен легко и не принуждёно перемещаться по нему, при этом попадая именно на те страницы, которые он ожидал увидеть. И здесь очень важно сделать грамотную внутреннюю перелинковку, которая позволит переходить на такие страницы. Так же отличным решением будет разместить виджеты с последними записями в блоге, самыми популярными статьями и наиболее интересными разделами.

И помните: «Лучше не злите Панду!».

Привет, читатели. Сегодня публикую очередную интересную статью на наболевшую тему – . Наверняка, многие помнят, что 24 февраля этого года могучий гугл внедрил новый алгоритм, цель которого – ранжировать сайты по новой схеме.

Конечно, не сказать, что новый алгоритм изничтожил все сайты из выдачи, но 12% всех поисковых результатов были пересмотрены, причем, не в лучшую для владельцев сайтов сторону. Результат применения Google Panda невозможно было не заметить. На многих сайтах трафик с гугла упал в два раза. У многих и того больше.

Быть может, вы и не ощутили на себе действие этого алгоритма, но не стоит радоваться прежде времени. Никогда не поздно попасть под загребущие лапы Google Panda. В этой статье я расскажу про сам алгоритм, а также о том, как его можно обойти.

Ответьте на вопрос: вот вы готовы к тому, что в один прекрасный день SE трафика на вашем сайте станет ровно в два раза меньше? Если нет, то могу заверить, что от такого сюрприза не застрахован никто. Но для начала давайте поговорим о том, как выявить факт попадания вашего сайта под удар Google Panda

Как выявить попал ли сайт под фильтр Google Panda?

Вообще, можно использовать разные системы статистики, но лучше всего использовать Google Analytics, т.к. именно эта система статистики разработана непосредственно в кулуарах ПС Google, и никто кроме нее не отражает настолько точно статистику гугла.

Наверняка, многие, у кого есть англоязычные сайты, которые представлены в американской выдаче, смогли ощутить на своих сайтах удар Панды. Ниже я покажу, насколько катастрофичен ущерб, причиняемый Google Panda. Но, кроме этого, мы посмотрим, как выявить факт применения фильтра к вашему сайту, и искать пути решения проблемы.

Конечно, Google Panda в первую очередь ударила по американской выдаче. В ру гугле все значительно проще, нет таких жестких ограничений, но все равно, рекомендую ознакомиться с данной статьей, чтобы быть готовым к встрече с новым алгоритмом.

Ну, а теперь к делу. Самое первое, что нам нужно будет сделать – это зайти в свой аккаунт Google Analytics. Не у всех ребят, работающих в рунете, есть сайты, ориентированные на выдачу США, поэтому если зайдете в аккаунт GA, и увидите то, что на скриншоте ниже, то можно подумать, что все нормально, и Google Panda обошел вас стороной:

Но, правда, это только первое впечатление. На самом деле все значительно сложнее, и копать здесь нужно глубже. В аккаунте Google Analytics переходим на вкладку «Источники трафика» (Traffic Sources), после этого переходим – «Поисковые машины» (Search Engines). Затем выбираем non-paid (не оплачиваемые):

Здесь виден расклад по поисковикам. Стрелочкой отмечена поисковая система Google. Нажимаем сюда. Это нужно для того чтобы видеть статистику по трафику исключительно по этой поисковой системе.

Далее жмем на вкладку «Ключевые слова» (Keywords). На скриншоте вы можете увидеть ее в зеленой рамочке. Появляется такое вот большое меню, как видно снизу на скрине. Из этого меню выбираем «Country/Territory». Этот элемент выделен в красную рамку. Делаем это для того чтобы поставить фильтрацию данных по определенной стране. Нажимаем на этот элемент:

Здесь на скриншоте хорошо видно, что, начиная с 24 февраля, траф с гуглопоиска значительно просел. Более чем на 50%. Скажите, это причина для расстройства?

Смотрим на левое меню. Здесь выбираем Advanced Segments , а после этого создаем новый сегмент. В этом сегменте указываем следующие настройки:

Этот сегмент можно назвать как вам больше нравится. Здесь, например, он называется «G US organic». Теперь сохраняем этот сегмент. Далее все наши данные будут относиться только к посетителям, приходящим на наш сайт из органического поиска США, из поисковой системы Google.

В общем, это все пока только на словах. На деле же, давайте попытаемся понять, для чего вообще нужен Google Panda. Главное назначение Google Panda – почистить выдачу от УГ сайтов.

Мэтт Катс (Matt Cutts) заявил, что Google Panda ударит по:

    Сайтам, имеющим много бесполезного контента

    Сайтам, наполняемых копипастом

Все это нужно для того чтобы «дать дорогу» в топ качественным сайтам, имеющим оригинальное и интересное наполнение, сайтам, которые не забиты «под завязку» рекламой.

Конечно, в первую очередь от фильтра Google Panda пострадают ГС. Но фильтр несовершенен, поэтому создатели фильтра прекрасно понимают, что от него могут пострадать и нормальные сайты, а потому при возникновении проблем можно смело связываться через фидбэк.

Кстати, в данном примере рассмотрен нормальный сайт – СДЛ, а не какой-то УГ. Фундамент этого сайта – качественные статьи, написанные различными специалистами. Кроме того, к сайту прикручен сервис наподобие Q and A (вопрос-ответ), где все участники могут найти ответы на интересующие их вопросы. Да, сервисы Q&A по идее могут быть мишенью для Google Panda, потому что страницы таких сервисов часто содержат мало контента. Но есть факты, когда Google Panda косила и нормальные контентные сайты, где нет ни форумов, ни других сервисов наподобие Q&A.

Когда вас может «накрыть» Google Panda?

Конечно, ни один из разработчиков Google Panda (Мэтт Катс и Амит Сингал) тайну не раскрыли, но все-таки из их интервью журналу Wired можно сделать определенные выводы относительно нюансов работы данного фильтра

Ниже представлен список потенциальных факторов, по совокупности которых можно попасть под удар Google Panda:

    Большое количество копипаста. По наблюдениям, самое страшное то, что за копипаст может быть пессимизирован весь сайт, а не отдельные его страницы

    Значительное превалирование на сайте неуникального контента над уникальным

    Нерелевантность страницы поисковым запросам, по которым она продвигается, либо находится в выдаче

    Переоптимизация страницы

    Высокий показатель отказов

    Мало времени, которое пользователи проводят на сайте

    Незначительный процент возвратов

    Много некачественных ссылок на страницах. Некачественных, в смысле – нетематических и ссылок, ведущих на откровенные ГС

Ладно, если ваш сайт подходит только под один из этих пунктов, это еще ничего. Но если он подходит под многие, то это может быть причиной удара Google Panda. Кстати, необходимо научиться различать штрафные санкции от бана в целом. И ваш сайт будет находиться в ауте до тех пор, пока вы не поднимете его качество на новый уровень. Google Panda – это очень серьезный алгоритм, и если на вашем сайте есть несколько страниц с откровенным Г, то это может быть причиной «потопления» всего сайта, хотя все остальные страницы сайта могут быть с качественным контентом.

Есть возможность посмотреть, как был наложен фильтр: на уровне сайта или на уровне страниц

Если фильтр был наложен в рамках всего сайта, то наверняка вы это увидите и невооруженным глазом, потому что это скажется на всех страницах сайта. Если использовать наш пример, то можно использовать отчеты «G US organic», и увидеть вот что…

Идем в Content > Top Landing Pages. Без комментов, все и так видно:

Это статистика для лендингов. То есть, для отдельных страниц. Здесь их 4272. Для того чтобы узнать, все ли страницы пострадали от Google Panda, нам нужно немного похимичить с отчетами в гугл аналитикс:

    Нужно сделать отчет по самым важным для нас страницам

    Нужно сделать отчет по группам страниц. Можно сделать сортировку по урлам. Например, отобрать только страницы, которые содержат слово forum

Делается это просто:

Выше я говорил о том, что Google Panda накладывает фильтр на весь сайт. Такое мнение, во всяком случае, витает по форумам. Но на самом деле, когда я сделал анализ нескольких сайтов согласно описанным выше мною фильтрам, то пришел к мнению, что Google Panda фильтрует все-таки не весь сайт, а только на уровне страниц, а значит не все так уж страшно, как изначально казалось.

Анализируйте, какой тип страниц фильтрует Google Panda

В том случае, если вы уже получили оплеуху от Google Panda, то анализируйте ваш сайт согласно фильтрам, которые я приводил выше. Это позволит узнать, какой тип страниц зафильтрован. Я находил интересные факты. Например, то, что под фильтр попадали «тяжелые» страницы, с большим количеством контента, уникального, между прочим. И видел много страниц, на которых контента было на несколько тысяч символов, и все равно такие страницы попадали под фильтр. Причина? Просто на этих страницах было чересчур много рекламы. А на некоторых сайтах наоборот, трафик из гугла подрос. И на них тоже была реклама, но ее было значительно меньше. Разумеется, это не полный список всех действий для выявления/защиты от Google Panda. На некоторых сайтах, которые попали под Google Panda, поснимали абсолютно всю рекламу. Правда, пока сильных изменений замечено не было. Прошло еще слишком мало времени, чтобы делать какие-то выводы

мкр. Черная Речка, д.15 Россия, Санкт-Петербург 8 812 497 19 87

Алгоритм Гугл Панда: обновления Google Panda 2018


ПОДЕЛИЛИСЬ

Обновление Google Panda изменило мир SEO.

Круто если нет, но лучше прочтите эту статью, будет полезно узнать что изменилось с внедрением алгоритма Google Panda и как избежать понижения в поисковой выдаче Google.

Обновление Google Panda. Справочная информация по SEO

Ознакомьтесь для начала с инфографикой.


С чего все началось.

ДО Panda SEO чем-то стал напоминать «грязный бизнес», и сайты качественные не всегда выигрывали в ранжировании.

Поскольку все больше и больше становилось неактуальных сайтов, плагиата и сайтов с плохим содержанием, они стали превосходить число хороших в результатах поиска.

Для борьбы со спамом Google потребовалось новое обновление.

Обновление Google Panda. Что это такое и что оно дает?

Panda, вероятно, войдет в историю как один из самых известных обновлений Google.

Главной задачей Panda было улучшить работу пользователей, избавив верхние поисковые места от спам-страниц.

Новое обновление и алгоритм учитывали репутацию сайта, дизайн, скорость загрузки и пользовательский интерфейс, чтобы людям было удобнее.

Как обновление Google Panda затронуло сайты

Эффект Panda был далеко идущими — и все еще ощущаются многими сегодня.

Первоначальное обновление в 2011 году затронуло примерно 12% поисковых запросов, что означает, что 12% рейтинга в Google резко изменилось.

Особенно это ощущалось крупными контент-фермами, включая About.com, eHow, Demand Media и Yahoos Associated Content.

Более 80% сайтов, на которые негативно повлияло обновление Panda, по-прежнему справляются с убытками.

Хронология обновления Google Panda

Panda регулярно обновляется с момента ее появления в 2011 году.

Обновление происходит, когда Google просматривает все сайты в Интернете, и проверяет их на алгоритм Panda. Обновление — это фактическое изменение алгоритма Panda.

Таким образом, алгоритм Google Panda обновлялся с 24 февраля 2011 года до 17 июля 2015 года.

Цели обновления Google Panda

На протяжении многих своих изменений основное внимание в обновлениях Panda уделялось отсеиванию низкокачественного контента из результатов поиска пользователей.

К проблемам, которые он затрагивает, относятся:

  • Скудный контент — страницы со слабым или небольшим содержанием; если у вас несколько страниц с парочкой предложений в каждой, они, скорее всего, будут классифицированы как скудный контент. Если только на одной или двух страницах, тогда все ОК. Но если таким является весь сайт, то это «красный флаг».
  • Дублирующийся контент — контент, который повторяется. Это может быть содержимое, которое копируется с других страниц в Интернете или показывается на нескольких страницах вашего сайта с незначительным изменением текста.
  • Некачественный контент — любой контент, лишенный адекватной информации.
  • Машинный или автогенерируемый контент — любое содержимое, автоматически формируемое специальными алгоритмами, приложениями или другими источниками в которых не задействованы люди.
  • Плохой слог — слишком много заметных ошибок в стилистике и грамматике.
  • Слишком много тем в рамках одного сайта — если ваш сайт не имеет четкой темы и охватывает несколько тем, вместо того, чтобы сосредоточиться на чем-то одном
  • Отсутствие авторитетного мнения — контент из непроверенных источников
  • Слишком много 404 ошибок или редиректов
  • Заполнение ключевыми словами — обилие ключевых слов в попытке манипулировать рейтингами
  • Контент-фермы — большое количество коротких, некачественных страниц
  • Слишком много рекламы — если на странице больше рекламы, чем полезного текста.
  • Низкокачественные партнерские ссылки — низкокачественный контент, ведущий на партнерские страницы.
  • Контент, который не соответствует поисковым запросам — страницы, которые показывают некорректную информацию.
  • Сайты, заблокированные пользователем — сайты, заблокированные пользователями через расширения.

Как обновления Google Panda повлияли на SEO-стратегию

Последствия обновления Panda ощутил весь мир маркетинга, и ее внедрение привело к существенному сдвигу в SEO.

В основном, оптимизаторы должны теперь ориентироваться на удобство интерфейса сайта для его посетителей.

Ран ее главная цель SEO заключалась в том, чтобы контент был доступен для поисковых систем и соответствовал необходимым запросам с помощью добавления необходимых ключевых слов и построению ссылочной массы, ведущей на необходимые продвигаемые страницы.

Тепер ь же а кцент делается на пользователя, а не на алгоритмы поисковых систем .

Это акцент на качество, а не на количество.

Например, многие думали, что путь к первому месту Google — это выкладывать контент каждый день, чтобы Google постоянно его индексировал.

Но из-за Панды, если вы ведете блог просто ради того, чтоб вести, можно принести больше вреда, чем пользы. Каждая опубликованная вами статья должна быть качественной, уникальной и предоставлять читателям необходимые ответы и информацию.

Качественный контент, дизайн и полезность = заслуженный, высокий ранг.

Чтобы занять первое место, вам нужно его заслужить.

Цитата от представителя Google резюмирует: «Создатели контента не должны думать, сколько посетителей у них было в день, а скольким посетителям они помогли».

Как узнать, пострадали ли вы от обновления Google Panda

Наиболее очевидным предупреждающим знаком является внезапное падение трафика.

Если это произошло с вашим сайтом во время известного обновления алгоритма, вы, вероятно, пострадали от штрафа Panda.

Другой способ определить — посмотреть на общее качество вашего сайта. Снимите розовые очки, и ответьте себе на вопросы.

  • Являются ли ваши показатели отказов высокими?
  • Делятся ли вашим контентом и получает ли он комментарии?
  • Удобна ли навигация и ссылки?
  • Проверьте общее качество сайта. Если у вас есть сомнения, то у Google явно тоже;)

Пострадали от Панды? Как реабилитироваться

Первый шаг: не паникуйте. Вместо этого приступайте к работе.

Обновления Panda происходят примерно раз в месяц, что дает вам немного времени для работы.

Между обновлениями, если вы предпримете правильные шаги, то начнете видеть некоторые улучшения в своем рейтинге. Иногда Google повторно обновляет все ваши изменения.

Теперь к конкретике. Когда Panda наносит удар, нужно восстанавливаться через контент.

Как Panda проверяет ваш контент

Поскольку Панда только за качественный контент, это именно то, с чего вам нужно начинать.

Прежде всего, не удаляйте одним махом весь контент, даже некачественный. Лучше исправьте имеющийся и добавьте то, чего ему не хватает.

Если убрать все, можно сделать еще хуже.

Если вы сомневаетесь в качестве страницы, перейдите к своим метрикам. Страницы с высокими показателями отказов и с низким уровнем времяпрепровождения на сайте человека говорит о том, что с контентом явные проблемы.

Если вы не уверены, то

Список довольно внушительный получился))

Поэтому начните со страниц, которые в ТОПе и приносят больше всего трафика. Чтобы узнать какие именно это страницы (если еще не знаете), посмотрите аналитику (можно через Google Analytics).

Помимо собственного контента, важно следить за тем, что пишут пользователи сайта.

Не весь контент, написанный пользователями, плох, но он подчиняется тем же стандартам качества, что и любой другой контент на вашем сайте.

Обратите особое внимание на качество, если ваш сайт содержит форумы и там много комментариев.

Алгоритм рассматривает комментарии как часть вашего контента. Поэтому, если эти комментарии содержат полезную информацию в дополнение к содержанию, то это может быть хорошим дополнением к вашему сайту.

А низкокачественные комментарии могут повредить вашему сайту. Но не удаляйте комментарии полностью. Это может повредить ваш сайт с точки зрения взаимодействия с пользователем.

Каков статус обновления Google Panda сегодня?

Гугл Панда все еще жива и здорова… и продолжает развиваться.

Фактически, Panda получила повышение: в 2016 году она стала частью основного алгоритма Google.

Самое большое изменение, которое заметили большинство пользователей — это конец официальных объявлений.

Panda стала основой, потому что она больше не требует большого количества изменений.

То есть основное внимание уделяется качественному контенту и опыту пользователя.

Завершение обновления Google Panda

Panda революционизировала SEO. Для большинства изменения были к лучшему.

Сегодня принципы Panda — это общие стратегии SEO.

Поэтому, если вы их не используете, настало время уделять серьезное внимание Панде.

Думаю, статья была полезной, даже тем, кто не особо в теме SEO.