Поведенческие факторы

Поведенческие факторы

Оглядываясь на события прошедшего года, понимаешь, что он стал для большинства оптимизаторов и веб-мастеров очень насыщенным. И если всеми любимая поисковая система Рунета Яндекс вела себя достаточно сдержанно, то Google преподнес несколько значимых “подарков”.

В 2012 году Google, до этого являвшийся “отдушиной” для оптимизаторов, в одночасье превратился из добродушного друга в строгого полицая. Если раньше добиться хороших результатов можно было за счет “продавливания” ТОПа, по большому счету, лишь ссылочной массой, то теперь правила игры изменились. Однако у оптимизаторов есть на руках все необходимые инструменты для эффективного продвижения в данной поисковой системе. Какие именно? Об этом и пойдет речь в моем мастер-классе. Но обо всем по порядку.

Как изменились правила игры

Для начала предлагаю совершить небольшой экскурс в историю. Первые ощутимые трудности при продвижении сайтов в Google начались у западных SEO-специалистов еще в середине 2011 года.

  • Всё началось с появления алгоритма под дружелюбным названием “Панда”. Его целью являлось выявление низкокачественного контента, с которым он успешно борется до сих пор. Стоит отметить, что “Панда” пришла в Рунет гораздо позже, и первые трудности у отечественных оптимизаторов начались лишь в начале 2012 года.
  • Весной 2012 года компания Google представила новый алгоритм “ ” , который, также как и “Панда”, был направлен на борьбу с поисковым спамом. В отличие от других нововведений, “Пингвин” был запущен одновременно для большинства стран, в том числе и для России.
  • 28 ноября 2012 года небезызвестный Мэтт Катс объявил в своем блоге о готовящемся новом “EDM-алгоритме” , направленном на борьбу с SEO-доменами (это домены с прямым вхождением поискового запроса, как, например, plastikovie-okna-v-moskve.ru). После появления первой информации о запуске “EDM” многие оптимизаторы и владельцы SEO-доменов заметили значительное снижение трафика на их сайты.

Как мы видим, прошлый год оказался крайне насыщенным на события. Конечно, основные принципы продвижения в поисковой системе Google, по сути, не изменились. Все те инструменты, которые ранее давали результат, работают до сих пор, вот только качеству этих инструментов сейчас придается особое значение. На сегодняшний момент для эффективного продвижения в Google стоит работать по трем ключевым направлениям:

  1. Плавное наращивание ссылочной массы.
  2. Написание качественных и, что самое главное, продающих текстов.
  3. Работа с “кликовыми” поведенческими метриками.

Далее давайте рассмотрим ряд кейсов из моей практики, которые наглядно иллюстрируют то, как, используя озвученные выше методы, я справился с последствиями нововведений Google, а теперь работаю над увеличением пресловутой отработки (повышением % запросов в ТОП 10, которые достигли своей цели).

Примеры из жизни

Ввиду соглашения с клиентами о неразглашении информации, данные, представленные ниже, были обезличены. Итак, поехали:

Проект 1: возраст 3 года 8 месяцев, активно продвигается последние 18 месяцев. Это один из тех сайтов, который на себе ощутил удары новых алгоритмов и :



Как видно из графика, после запуска “Пингвина” (24-26 апреля) позиции данного сайта существенно просели. Помимо этого, в мае и июне наблюдалась тенденция к уменьшению % выведенных в ТОП запросов. Однако, начиная с июля, после того, как были проанализированы обратные ссылки и качество текстов, а также проведены соответствующие работы, стала проявляться положительная тенденция к росту. На сегодняшний день проект полностью оправился от падения, Google восстановлен и даже увеличен за счет повышения количества запросов, находящихся в ТОП 10.

Проект 2: возраст 2 года 5 месяцев, продвигается последние 2 года. Сайт получил штрафную карточку от Google после запуска “Пингвина”. Для сравнения ниже приведены данные по отработке проекта в обеих поисковых системах:



Как видно на графике, Проект 2 также получил пенальти от Google, однако при этом видимость сайта в поисковой системе Яндекс осталась на прежнем уровне. Отчасти это позволило минимизировать потери в трафике, поскольку в случае с данным ресурсом распределение трафика из поисковых систем выглядит следующим образом: Яндекс — 70%, Google — 30%. Тем не менее, работа над ошибками также была оперативно проведена, после чего позиции сайта восстановились.

Проект 3: молодой сайт, возраст 5 месяцев, продвижение проекта ведется с запуска ресурса.



Это наиболее интересный проект с точки зрения инструментов, которые использовались при продвижении. На его примере отчетливо видно, как плавно наращиваемая вкупе с качественным контентом показывают хороший результат. Стоит сделать оговорку: хотя ссылочная масса по большей части игнорирует тематику продвигаемого ресурса, но ввиду молодости сайта, ссылки закупались только с качественных и проверенных на других проектах донорах.

Отмечу, что, как показывает практика, в 90% случаев то, что хорошо для Google, хорошо и для Яндекса. Разумеется, рост позиций в главной поисковой системе Рунета не такой “взрывной”, как в Google, но он есть. Однако это уже совсем другая история, которую, в свете запуска новой , оставим для следующего мастер-класса.

Как достичь хороших результатов

Наверняка у вас мог возникнуть вопрос: “Как добиться хороших результатов или вернуть утраченные позиции в Google?” . Ответ прост: нужно количество превратить в качество . Бездумный подход, который раньше работал в подавляющем большинстве случаев, теперь не пройдет. Безусловно, и сейчас можно встретить индивидов, которые пытают продвигать свои проекты “по-старому”, но результат в большинстве таких случаев попросту отсутствует.

Как я уже писал выше, в настоящий момент в Google на первый план вышли контент, грамотная работа со ссылочной массой и . Далее я постараюсь максимально подробно рассказать про каждую из этих составляющих.

1. Контент. Ни для кого не секрет, что после запуска алгоритма “Панда” зарубежные оптимизаторы стали уделять большое внимание качеству контента на своих сайтах. Как показало время, наполнение сайта уникальной и полезной информацией дает положительный эффект в долгосрочной перспективе как в плане SEO, так и в плане маркетинга и рекламы в целом.

Как создать качественный текст, который заинтересует не только посетителей, но и роботов поисковых систем?

Все достаточно просто, и ниже я постараюсь описать по пунктам, чем стоит руководствоваться SEO-специалистам при составлении технического задания (ТЗ) копирайтерам на написание текстов:

  • Анализ конкурентов по поисковой выдаче . На этапе составления ТЗ копирайтеру стоит в первую очередь смотреть на сайты конкурентов. Основными критериями для оценки являются:
  • Размер текста . Исходя из данных о конкурентах, определяемся с минимальным и максимальным размером текста и, основываясь на принципах здравой логики, определяемся с объемом для своего текста. По своему опыту могу сказать, что не нужно стараться писать “простыни” — в 99% случаев для донесения всей необходимой информации хватает 2000-2500 символов. В конце концов, поставьте себя на место пользователя и подумайте, стали бы вы сами читать многостраничный текст о том, как хорошо “купить пластиковые окна в Москве”.
  • Количество вхождений фразы в текст . Проверяем количество точных вхождений и вхождений в словоформы ключевой фразы (например, “пластиковые окна”) в текст. По-отдельности для каждого слова, т.е. для слов “пластиковые”, “окна” и производных от них, мы смотрим на количество вхождений в текст. На основании полученных данных вычисляем максимальную плотность фразы и её отдельных слов.
  • Количество вхождений фразы в h1- h3 . Здесь все просто — смотрим на количество точных вхождений ключевой фразы в тегах h1-h3 в тексте.

Анализ текстов на страницах конкурентов можно провести в сервисе Rookee абсолютно бесплатно:


  • Естественность текстов . Оцениваем естественность текстов на страницах сайтов конкурентов. Для этого можно также использовать анализ в сервисе Rookee:


Чем значения столбцов ближе к идеальному значению, тем лучше. В приведенном примере текст не совсем естественный, и, как минимум, я бы на порядок сократил количество вхождений со словом “шина”.

  • Польза . Не стоит делать контент ради контента, всегда при его создании думайте о пользе для своих посетителей. Если же контент создается только ради позиций, то лично я считаю, что такой текст лучше в принципе не писать. Не будьте “just another one”, будьте лучшими!

Итак, после того, как текст готов, оцениваем его качество и, если оно нас устраивает с точки зрения конечного пользователя, то проверяем его на естественность инструментами, озвученными выше.

Обращаю внимание на то, что ключевую роль в цепочке “SEO-специалист —> текст” обычно играет копирайтер. Поэтому, если вы не уверены в качестве работы копирайтера или не знаете, где найти толкового специалиста, могу посоветовать заказать .

2. Работа со ссылочной массой . Для начала давайте вспомним, как ещё год назад осуществлялось продвижение в Google. Примерно это выглядело так:

1. идем на биржу или обращаемся в сервис по продаже ссылок,

2. покупаем “over 9000” ссылок на свой сайт,

4. получаем результат!

Наверняка, кто-то из вас узнал в этом и себя. Что же сейчас? В существующих реалиях такой подход если и дает эффект, то очень непродолжительный и крайне ненадежный.

Вот два мифа, которые появились в среде оптимизаторов после выхода “Пингвина”:

  • Влияние тематики на связку донор — акцептор . Факт в том, что в российской версии Google роль тематики сильно преувеличена. Если посмотреть первые 10 результатов по любому коммерческому запросу и проанализировать обратные ссылки, стоящие на сайты из ТОП 10, то в подавляющем большинстве случаев мы увидим ссылки с нетематических площадок, которые, тем не менее, хорошо работают.
  • Точное вхождение ключевой фразы в анкоры . Есть мнение, что большое количество точных вхождений ключа в анкоры ссылок негативно сказывается на позициях. Не сказывается — проверено. Грамотное использование анкоров с точным вхождением, точным вхождением с окружением и точным вхождением с разбавлением позволяет избежать переспама анкор-листа и получить стабильный рост позиций. Но зацикливаться именно на этих типах анкоров не стоит — импровизируйте! К слову, если вы продвигаете сайт в сервисе Rookee, вы можете выбрать стратегию продвижения именно под Google и самостоятельно настроить генерацию текстов ссылок:


В идеале, для достижения положительных результатов нужно плавно наращивать ссылочную массу. Необходимо, чтобы картина прироста ссылочной массы была максимально равномерной и продолжительной по времени. У большинства моих проектов график прироста ссылочной массы выглядит примерно так:





Еще один важный момент, который стоит учитывать для получения от Google максимальной отдачи: не сосредотачивайте всю ссылочную массу только лишь на продвигаемых страницах — для поисковых систем это выглядит неестественно.

Если показать наглядно, то не советую делать так :



Старайтесь делать так:


  • Поведенческие факторы (ПФ) . О ПФ и их влиянии на результаты поиска мы привыкли говорить в контексте поисковой системы Яндекс. Но не стоит забывать, что Google тоже использует ПФ при ранжировании сайтов в поисковой выдаче. Немаловажную роль здесь играет показатель CTR (кликабельности) ссылки в поисковой выдаче. К примеру, запрос с CTR 10% стабильно держится в ТОП 3 поисковой выдачи:


А вот запросу с CTR, равным 1%, пока только предстоит побороться за внимание пользователей в поисковой выдаче:



Если мы говорим о CTR ссылки на наш сайт в поисковой выдаче, то стоит упомянуть, что на кликабельность прямо влияет качество самого сниппета. Мне всегда очень нравилось, как выглядят сниппеты SEO-компаний в украинской выдаче Google. Многие методы, которые используют украинские специалисты, можно и нужно использовать для повышения CTR своего сайта в выдаче. Для наглядности приведу несколько наиболее интересных, на мой взгляд, примеров, взятых из выдачи (Google, Киев):

Чтобы сделать для своего сайта такой же выделяющийся сниппет, достаточно добавить в текст description специальные символы. Открываем таблицу спецсимволов HTML (ее можно найти в интернете) и, используя их, составляем красивый и выделяющийся description для своего сайта.

2.

В данных сниппетах используется несколько техник:

  • Сниппет №25 — рейтинг и количество отзывов реализовано с использованием микроформатов, их еще называют “микроразметкой” (прочитать про нее можно в справке Яндекса).
  • Сниппет №26 — URL украшен спецсимволами и аватаркой автора из Google+. Чтобы добавить в сниппет аватарку из G+, достаточно вставить ссылку на свой аккаунт в формате текст_ссылки. Спецсимволы в ссылке на страницу реализованы через связку “микроформат + спецсимволы HTML”. Если посмотреть код страницы, то мы увидим следующую конструкцию:

Опять же, если вы хотите получить такую же красоту, то читаем справку по микроформатам, ссылку на которую я уже приводил выше.

Исходя из своего опыта, могу посоветовать всем читателям работать над своими сниппетами — использовать представленные выше техники и придумывать свои. К примеру, спецсимволы можно указывать и в теге Title — это тоже будет способствовать улучшению кликабельности сниппета в выдаче поисковой системы Google. Улучшая CTR сниппетов, вы будете в конечном счете улучшать и кликовые поведенческие метрики, что в конечном итоге положительно отразится и на росте позиций в поиске.

В заключение статьи я хочу сказать, во-первых, надеюсь, что данный материал был вам полезен. Во-вторых, надеюсь, что мне удалось развенчать некоторые мифы об агрессивности поисковой системы Google по отношению к SEO-специалистам. Используя информацию из данного мастер-класса, вы точно сможете эффективно продвигать свои ресурсы в Google.

Успехов и максимально быстрой дороги к ТОПу!



Поведенческие факторы и их учет в Яндекс и Гугле
На протяжении этого курса мы уже много раз повторяли – пишите хорошие тексты, ставьте хорошие ссылки, делайте хороший сайт – поисковые системы учтут все это и подарят вам высокие позиции. Поведенческие факторы ранжирования – сокращенно ПФ – это и есть те самые алгоритмы, которые позволяют поисковикам отличать по настоящему хорошие сайты от подделок.

Мы можем написать тематические тексты, купить ссылки – и вполне вероятно сумеем обмануть «машину». Но человека обмануть не получится – и поисковые системы научились это использовать.

ПФ учитывают множество различных факторов из разных областей. Тут и поведение пользователя на сайте, и «кликабельность» страницы в результатах выдачи, и источники трафика. Все их мы подробно рассмотрим. Начнем же с самых базовых принципов, чтобы понимать как вообще работают поведенческие факторы.

Очень упрощенно модель ранжирования результатов можно описать так:

Релевантность: текст страницы отвечает на запрос? Если да:

ПФ: пользователям нравится страница? Если да – высокие позиции, если нет – значит это сайт-подделка.

Итого приходим к одной очень важной мысли. Накрутить поведенческие факторы достаточно легко, поэтому:

1. Главная задача учета ПФ – не тащить хорошие сайты в ТОП, а убирать оттуда плохие. Мысль не совсем очевидная, но очень важная.

Если у сайта отличные ПФ – то возможны два варианта: либо сайт хороший, либо поведенческие накручивают. Если ПФ плохие – вывод только один, сайт тоже не фонтан.

Это работает так: сайт занимает 3-е место по некоторому запросу. По третьему месту обычно кликают 40% посетителей. Если же на данный сайт переходят только 10% - значит что-то тут не то. Яндекс посчитал ресурс хорошим. Но пользователи, только увидев TITLE/сниппет, уже понимают – нужной информации у вас они не найдут. Стало быть позиции однозначно нужно понизить.

А вот если «кликабельность» сайта в выдаче высокая – то это МОЖЕТ поднять его, а может и не поднять. Тут уже поисковики будут оценивать ПФ в комплексе с другими факторами ранжирования.

2. Поведенческие факторы оцениваются относительно конкурентов по выдаче. Т.е. нет каких-то точных цифр – если на сайте Васи пользователи просматривают 50 страниц – то сайт хороший.

Условие нужно формулировать так: если на сайте Васи глубина просмотра БОЛЬШЕ чем на сайте Пети, то Вася – лучше.

Пример условный, глубина просмотра не является особо значимым условием, но суть вы поняли. Поведенческие сайта сравниваются с соседями по выдаче. Если у одного из сайтов они сильно выбиваются вверх или вниз – то это повод для пересмотра позиций. Особенно, если выбиваются вниз.

3. ПФ бывают нескольких видов.

Поведение пользователя в поисковой системе (кликабельность объявления, возвраты в поиск)

Поведение пользователя на сайте (глубина просмотра, время посещения, показатель отказов)

- «возвратные» факторы (повторные визиты, добавление сайта в закладки)

Навигационные факторы (поиск по названию фирмы или имени домена, прямые заходы на сайт)

Непоисковые ПФ (трафик с других сайтов, соц. сетей и т.п.)

Поведенческие факторы внешних ссылок (есть ли по ссылкам живые переходы – этот момент мы уже рассматривали в главах про набор ссылочной массы).

4. ПФ бывают запросо-зависимыми либо независимыми.

Некоторые поведенческие факторы (кликабельность объявления) рассчитываются для конкретного ключевого слова. Страница плохо отвечает на один запрос, но вполне вероятно хорошо отвечает на другой. ПФ нужно смотреть для каждого конкретного запроса.

Другие же (поиск по бренду, непоисковый трафик) являются показателем качества всего ресурса в целом. Они будут влиять скорее на траст сайта, чем на позиции по конкретным ключевым словам.

Источники информации о ПФ
После прочтения этого материала у любого человека возникает логичный вопрос. А откуда вообще поисковые системы узнают всю эту информацию? Большой Брат следит за нами? В принципе так оно и есть.

У поисковиков есть три главных источника информации:

- собственная выдача . Отслеживается поведение пользователя непосредственно в процессе поиска в Гугле или Яндексе

- браузеры и тулбары . Очень и очень неслучайно и Гугл и Яндекс выпустили на рынок свои браузеры. Казалось бы, ну зачем им лезть в сферу разработки ПО, да еще и бесплатного. Ан нет.

Если вы пользуетесь одним из таких фирменных браузеров, либо у вас установлены Яндекс.Бар или Гугл.Тулбар – то все посещенные вами сайты будут известны поисковой системы. Данные передаются обезличенно, но информацию о полезности сайтов поисковики получают.

Благодаря этим инструментам они видят очень многое. Какие сайты нравятся пользователям, а с каких они уходят. По каким ссылкам кликают (это к вопросу о качественности и естественности ссылочной массы). На какие сайты возвращаются повторно. И многие другие показатели.

- системы статистики. Яндекс Метрика и Гугл Аналитикс - это бесплатные и очень мощные инструменты для анализа посещаемости вашего сайта. По каким ключевым фразам приходят к вам люди, какие страницы смотрят, какие запросы имеют высокую конверсию визит-покупка, а какие низкую. Всего не перечислить.


И эти классные инструменты поисковики дают нам абсолютно бесплатно. В обмен же мы отдаем им всю информацию о наших сайтах.

Официальная позиция поисковиков однозначна – системы статистики не учитываются при ранжировании. Но как-то слишком уж наивно думать, что имея в руках мощнейший инструмент для улучшения результатов выдачи, поисковые системы не будут его использовать.

Некоторые вебмастера опасаются устанавливать счетчики поисковых систем на свои сайты. На мой взгляд страхи необоснованные. Если у вас более менее нормальный сайт, то установка счетчиков скорее в плюс сыграет.

Также неоднократно обсуждалось, что крупнейший независимый счетчик Рунета LiveInternet продает свою статистику Яндексу. Неизвестно так ли это на самом деле, но вполне возможно.

Накрутка поведенческих факторов
Я уже писал, что ПФ поддаются накрутке. Как с помощью специальных автоматических программ, так и с помощью специальных сервисов, на которых сидят армии школьников, готовых делать заданные действия за сверх-символическую оплату.

Именно поэтому поисковики вынуждены ограничивать влияние поведенческих факторов.

На мой взгляд накрутка ПФ дело бесперспективное. Если у сайта хорошие поведенческие, то они скорее всего хорошие в комплексе. Т.е. там и возвраты на сайт, и малый процент отказов, и большой непоисковый трафик и т.д. «Подделать» все это разом не получится, а накрутка какого-то одного показателя эффекта не даст.

Ну и не забывайте, что ПФ используются в большей степени для отсева плохих сайтов. Т.е. даже мега-хорошие ПФ могут на рост позиций не повлиять.

Моя книга издана в бумажном варианте. Если этот учебник оказался для вас полезным - то вы можете отблагодарить меня не только морально, но и вполне осязаемо.
Для этого нужно перейти на

Было достаточно простым занятием. Стоило лишь закупить ссылок в специализированных сервисах и Ваш сайт за короткий промежуток времени перемещался в топ. Но время не стоит на месте - алгоритмы поисковых систем постоянно улучшаются и пересматриваются. То, что работало несколько лет назад может принести вред сегодня.

Чтобы не получить санкций от поисковых систем нужно следовать последним тенденциям, которые говорят о том, что сайт, в первую очередь, должен быть удобен и полезен для людей. Одним из важнейших критериев оценки удобства ресурса для пользователей являются поведенческие факторы. Именно о них мы более подробно поговорим в данной статье.

Что такое поведенческие факторы?

Под данным понятием понимаются любые действия, которые совершил посетитель на Вашем сайте после перехода из поисковой системы. Страница захода, количество времени проведенного на сайте, глубина просмотра страниц, возвраты, заполнение форм, клики по ссылкам – все эти манипуляции можно отнести к поведенческим факторам. Они одинаково применимы как для Google так и для Яндекс.

До недавнего времени поведенческие факторы были своеобразным мифом. Некоторые оптимизаторы верили, что они влияют на ранжирование сайтов, а другие нет. Но сейчас на 100% доказано, что они действительно оказывают влияние на поисковую выдачу.

Поведенческие факторы работают комплексно и неразрывно друг от друга, т.е. при ранжировании учитывается не какой-то определенный фактор, а их совокупность. На них очень сложно повлиять искусственно, так как, во-первых, их точный список неизвестен никому (кроме инженеров Яндекса), а во-вторых, все показатели имеют определенный стандарт и любое отклонение или необычное поведение станут поводом для пристального внимания поисковых систем.

Список поведенческих факторов Яндекс и Google

Стандартные инструменты аналитики от Яндекс и Google дают возможность проанализировать некоторые поведенческие факторы. Опытным путем мы составили список факторов, которые имеют наибольшее влияние на поведенческое продвижение.

    Процент отказов.

    Один из самых важных показателей, которому нужно уделить основное внимание. Под отказами понимается процент случаев, когда человек просмотрел одну страницу и покинул сайт, или при нахождении на странице менее 15 секунд (в том случае, если Вы активировали пункт «точный показатель отказов» в Яндекс.Метрике).

    Количество времени, которое провел пользователь на ресурсе.

    Очередной важный показатель, так как руководствуясь банальной логикой понятно, что если сайт интересен посетителю, то он пробудет на нем длительное время и просмотрит множество страниц.

    Глубина просмотра.

    Под данным поведенческим фактором подразумевается усредненное количество страниц, на которых побывал пользователь в рамках одной сессии. Опять-таки, логично предположить, что если сайт интересен, то глубина просмотра будет высокой, а следовательно, сайт должен хорошо ранжироваться.

    Показатель возвратов.

    Если посетитель зашел к Вам на сайт, а через некоторое время вернулся (например через закладки или ввел адрес сайта в поиск), то это служит хорошим знаком для поисковика, так как, скорей всего, сайт оказался полезен пользователю.

    Привлекательность сниппета.

    Если пользователи кликают именно на Ваш сайт в результатах поиска (даже если он находится не в топ-3), а после этого проводят длительное время на ресурсе и просматривают множество страниц, то сниппет подобран хорошо и соответствует запросу.

Как осуществляется поведенческое продвижение

Оно зависит от множества факторов, которые зависят от тематики ресурса и некоторых других вещей. К сожалению, идеальной схемы продвижения не существует, однако есть основополагающие принципы, которые способны положительно повлиять на поведенческое продвижение. Ниже мы приведем основные из них:

    Использование аналитики.

    Яндекс и Google предоставляют мощнейшие инструменты, которые позволяют наблюдать за поведением и деятельностью Ваших посетителей. Необходимо отслеживать страницы, которые имеют большой процент отказов. Затем оптимизировать их, сделать текст более интересным, а если это невозможно, то стоит задуматься над их удалением.

    Качественный контент.

Здравствуйте, уважаемые читатели блога сайт. Сегодня будет статья на тему, о которой говорят уже все кому не лень — поведенческие факторы. На самом деле уже многие в курсе что это такое, да и я сам около полугода назад писал о пользовательских характеристиках, как одном из трех китов, на которых стоит продвижение сайтов в современных условиях.

Особенный резонанс влияние поведенческих факторов, а точнее их накрутка, получили в последнее время. Яндекс с конца мая начал пессимизировать ресурсы, использующие различные способы накрутки поведения пользователей на сайте. Причем, все это было сделано с большой помпой, под горячую руку попало очень много ресурсов и в том числе лидеры области . Все это получило большую общественную огласку (ролик в новостях по ТВ, статья в ведомостях, масса публикаций и обсуждений в интернете).

Поведенческие факторы — история появления

Т.е. Яндекс сотворил эдакую показательную порку всех тех, кого ему далось поймать за руку на накрутке поведенческих факторов продвижения (а с точки зрения поисковых систем — документов ). Понятно, что как только оптимизаторы поняли, что за накрутку поведения посетителей можно , то тут же стали пытаться завалить таким не хитрым способом своих конкурентов.

Вроде бы как даже всего нескольких оплаченных, например, в юзаераторе (один из многочисленных сервисов предлагающих услуги накрутки пользовательских характеристик) кликов по сайтам конкурентов из поисковой выдачи Яндекса было достаточно для того, чтобы отправить этого конкурента под фильтр. В результате, по тем запросам, по которым продвигался данный ресурс с помощью накрутки ПФ, он резко выпадал за Топ 100.

Наверное, большинству из вас, уважаемые читатели, понятно, что до бесконечности так продолжаться не могло и сейчас поисковик номер один в рунете уже не наказывает за подобную накрутку, но это вовсе не значит, что теперь все могут бросать это делать. Скорее всего у Яндекса сейчас работает алгоритм, который просто нивелирует (обнуляет) влияние накрутки, тем самым полностью сводя на нет результат от этого способа продвижения.

Но давайте вернемся к тому, что такое поведенческие факторы, на какие группы они подразделяются, какие способы накрутки ПФ существовали (и продолжают существовать, но уже не будут иметь такой сумасшедшей популярности), как Яндекс, да и мы с вами, можем определить, что на ресурсе проводилась накрутка ПФ, и какие существуют «белые» способы улучшения влияния ПФ на продвижение ().

Итак, откуда и когда именно появилось понятие пользовательских факторов , и какая из поисковых машин стала его первой использовать? Кто-то считает, что еще в 2004 году после появления алгоритма Флорида в Google (сейчас текущий алгоритм уже называется Панда) эта поисковая система стала активно учитывать ПФ на ресурсе, и именно тогда произошло проседание многих искусственно накрученных и накачанных ссылками сайтов.

Также достоверно известно, что не безызвестная компания Микрософт (имеющая непосредственно отношение к ) в 2008 опубликовала документ , поясняющий принцип работы такого показателя как Browserank, который судя по опубликованному документу должен был стать гораздо более эффективным инструментом, чем разработанный гораздо раньше всем вам известный .

Если обобщать, то Browserank в какой-то степени является аналогом pagerank, но при этом вес отдельных документов в сети оценивается не по проставленным ссылками, а по конкретным осуществленным переходам по этим ссылкам , т.е. по кликам. При использовании Browserank гораздо более высокие позиции в поисковой выдачи должны были получить сайты социальных сетей и других ресурсов, где пользователи проявляют большую активность (кликают).

Ну, и относительно недавно об учете пользовательских характеристик заговорил и Яндекс. Так почему же всем без исключения поисковикам, которые хотят иметь актуальную и релевантную выдачу, нужно учитывать ПФ? Наверное, просто потому, что два других основных фактора, на которые обращали поисковики свое внимание при ранжирования документов, уже себя изжили. Я говорю об анализе непосредственно контента документа и анализа проставленных на этот документ ссылок.

Нет, конечно же, текст и ссылки по-прежнему влияют на ранжирование, но они уже не могут оказывать решающего влияния из-за того, что сильно дискредитированы, попросту заспамлены . Сначала оптимизаторы (вот, гады) заспамили тексты и все те факторы текстовой оптимизации, на которые обращали особое внимание поисковые системы ( в заголовках, тегах выделения, мета тегах и т.п.).

А потом эти самые оптимизаторы (чтоб им) заспамили и ссылочные факторы, на которые поисковики поначалу возлагали очень большие надежды, ибо текст оптимизировать совсем не сложно, а вот ссылки на себя проставлять ведь нужно с других ресурсов, что значительно сложнее.

Но данную проблему решили биржи ссылок, например:

  1. МираЛинкс описанный
  2. ГоГетЛинкс — читайте о нюансах работы с ним
  3. ГетГудЛинкс — описание возможности по покупке ссылок со страниц имеющих PR (большой статический вес)
  4. РотаПост — полный обзор возможностей биржи

Они стали посредниками между теми, кто желал продажей ссылок со своего сайта, и теми, кто желал получить преимущество в продвижении, купив нужное количество бэклинков с нужными анкорами.

Теперь использование ключевых слов, по которым продвигается ваша статья (), стало равнозначно тому, как будто бы вы сами сообщили поисковику (в письменной форме) о том, что данные ссылки являются покупными. Нет, конечно же, они хоть и знают, что ссылка покупная, но все равно могут ее учитывать, но встает вопрос, а насколько учитываются они при ранжировании.

Для некоммерческих поисковых запросов велика вероятность того, что покупная ссылка (с оптимизированным анкором) вообще учитываться не будет, а вот для коммерческого запроса эти ссылки по-прежнему работают, но с такими большими оговорками, что, пожалуй, вам никто не даст точного ответа как именно. Все оптимизаторы покупают бэклинки, но многие уже начинают улучшать не покупкой дополнительных ссылок, а, наоборот, снятием заведомо плохих. Вот как извратили такую хорошую идею.

В общем, Яндекс и Гугл по-прежнему учитывают оптимизированность текстов и проставленные обратные ссылки, но уже с очень и очень большим количеством оговорок. И тут как раз очень кстати пришлись поведенческие факторы.

Если попробовать проследить за поведением пользователей в выдаче, а так же на сайтах (страницы которых должна ранжировать поисковая машина), то можно при должном умении извлечь из этого очень много полезной информации, позволяющей лучше настроить ранжирование по всем запросам и получить выдачу еще более релевантную им.

Получается своеобразная обратная связь , когда сами посетители своими действиями подтверждают или, наоборот, опровергают право нахождения данного ресурса на данной позиции в поисковой выдаче.

Но тут опять же все не «здорово живешь». Во-первых, снова возникает угроза того, что пользовательские факторы очень быстро заспамят (что, собственно, и происходит), а во-вторых, нужно не просто собрать информацию о поведении посетителей и в поисковой выдаче (для поисковиков это не проблема), и на самих пользовательских ресурсах (где им статистику собрать сложнее, но тоже можно), а еще ее и интерпретировать либо в плюс, либо в минус.

Но давайте обо всем поговорим по порядку и попробуем разложить информацию по полочкам.

Расчет поведенческих факторов в выдаче и на сайте

Итак, давайте подумаем, на что и где именно могут обращать внимание поисковики при анализе ПФ. Вообще принято считать, что они отслеживают поведение пользователей в двух основных местах:

  1. в своей собственной поисковой выдаче
  2. на ранжируемых сайтах

Давайте посмотрим, на что могут обращать внимание поисковые системы при учете поведения пользователей в поисковой выдаче :


Как поисковики узнают о поведение людей на сайте и на что смотрят

Понятно, что из своей собственной выдачи и Яндекс, и Google смогут вытянуть всю необходимую им информацию о ПФ, но вот непосредственно на пользовательских проектах у них такой власти уже нет. Но тем не менее поисковые системы с успехом решают данную задачу, а значит мы сможем предположить как это им удается.

Итак, как же Яндекс и Google смогут оценить поведение пользователей на вашем сайте :

  1. обладает богатейшим функционалом и при этом является бесплатным. Никогда не задумывались, зачем его разработчикам быть столь щедрыми? Да просто они получают в случае установки их счетчика на сайт всю необходимую им информацию для ранжирования ресурса, опираясь на поведенческие факторы. Это вполне логично.
  2. Довольно не сложно продолжить логическую цепочку и прийти к выводу, что, скорее всего, такие приложения для как , панель Google или та же способны собирать нужные данные о поведении посетителей на ресурсах, которые те (в смысле «обаренные» пользователи) посещают.
  3. Вы, наверное, все знаете, что в интернете, и в частности в рунете, существует масса бесплатных сервисов, предоставляющих свои счетчики посещений. А какая им выгода от того, что вы поставите на свой проект их скрипт? Обратная ссылка? Возможно, но слишком мелко. Тут, наверняка, есть более заманчивые варианты. Если у одного игрока интернет бизнеса есть то, что нужно другому, то они завсегда смогут договориться об обоюдной выгоде:
    1. — есть мнение, что сливает за денежку набранную Яндексу
    2. — судя по тому, что , то и в области учета поведенческих факторов при ранжировании у них возможно такое же тесное сотрудничество

Наверное, можно и еще чего-нибудь придумать, но и этого вполне хватает, чтобы понять, что поведение посетителей на любом ресурсе рунета для Яндекса (и Гугла) в той или иной степени не будет являться секретом.

Но ведь пользователи это не асессоры Яндекса, которым специально платят зарплату за то, чтобы они давали оценки веб проектам по целому ряду позиций. Им денег никто не платит и то, как понимать их действия, Яндексу придется как-то решать самому, используя логику и силу программистской мысли.

Причем, один и тот же показатель поведенческих факторов для ресурсов разных тематик может означать в одном случае хорошо, а в другом — не очень.

Так, а теперь давайте подумает, какие ПФ на сайте могут учитывать поисковиками:

  1. Ну, наверное, учитывается много факторов, но наверняка такая характеристика, как показатель отказов , будет учитываться обязательно. Показатель отказов показывает отношение сессий с единичной глубиной (точка входа совпадает с точкой выхода) к общему числу сессий. Если вам это не очень понятно, то обязательно ознакомьтесь со статьей о посещаемости сайта (ссылка на нее была приведена чуть выше), где все это очень подробно разжевано.
  2. Думаю, что при анализе поведенческих факторов поисковиками учитывается также и продолжительность сессии — время, проведенное посетителем на сайте, пока он не сделал перерыва в открывании страниц более 30 минут или не закрыл браузер.
  3. Ну и глубина сессии (сколько страниц просмотрел пользователь за одну сессию) по всей вероятности тоже должна приниматься в расчет.
  4. Так же, на мой взгляд, поисковики должны учитывать объем и, что более важно, источники трафика на сайт. Другими словами, лучше будет, если посетители на ваш проект будут приходить не только с выдач поисковиков, но и из других источников, как, например, закладки браузера, социальные сети и т.п.

Анализ пользовательских факторов и способы их улучшения

Если с последним пунктом все ясно, то вот по первым трем такой ясности и однозначности нет. Судите сами, у интернет магазина (а еще даже лучше для примера подойдут доставка пиццы или заказ такси) может быть очень короткая сессия и показатель отказов близкий к ста процентам (посетитель зашел на страницу, увидел номер контактного телефона и ушел звонить), но тем не менее сам интернет магазин может быть очень хорошим и будет хорошо ранжироваться в Яндексе.

Для новостного же портала или блога, подобного тому что вы сейчас читаете, показатель отказов в 100% (ваш ресурс пользователям, скорее всего, не интересен) или даже в 90% будет катастрофой, которая лишит его львиной доли трафика с поисковых систем.

Т.е. ПФ учитываются Яндексом и другими поисковиками сугубо избирательно. Видимо существуют определенные срезы сайтов по тематикам , для которых у Яндекса есть усредненные показатели поведенческих факторов и с которыми будут сравниваться все другие ресурсы отнесенные к этому же срезу.

Т.е. слишком низкий показатель отказов для магазина по доставке пиццы может быть интерпретирован поисковиками как не очень положительный ПФ (пользователи слишком долго ищут нужный им телефон для заказа), и возможно что позиция этого ресурса будет несколько скорректирована в худшую сторону. Но думаю, что по одному единственному поведенческому показателю такое решение вряд ли будет выноситься.

Как узнать, какие значения ПФ будут нормальными именно для вашего ресурса ? У Гугла есть масса полезных сервисов, которыми мало кто пользуется, например, все тот же DoubleClick Ad Planner, который я толком и не понимаю для чего нужен, но вот его данные могут нам пригодиться в оценке пользовательских факторов собственного проекта.

Введя на этой странице (для входа на нее нужно иметь ) в поле «Просмотреть данные о сайте» URL своего ресурса, вы получите массу полезной информации о своем веб проекте. В области «Статистика по трафику» в двух самых нижних строчках вы как раз и увидите ваши пользовательские характеристики:

Надеюсь, что вы знаете другие ресурсы в вашей тематике, с которыми можете сравнить имеющиеся у них и у вас поведенческие факторы. Я, например, сравнил свой блог с проектом Михаила Шакина, который имеет по мнению DoubleClick Ad Planner такие ПФ:

Если вы таких ресурсов не знаете, то посмотрите что вам присоветует сам Ad Planner в области «Также посещенные сайты». Как бы это один из, наверное, многих способов проверки соответствия ваших поведенческих факторов стандартам принятым в вашей нише.

Теперь еще осталось сказать пару слов про белые способы улучшения пользовательских характеристик для своего сайта:

  1. Не устаю приводить в пример Михаила Шакина — он уже года три как использует очень хороший способ увеличения продолжительности сессии (времени проведенного пользователями на его блоге). Наверное, и сами уже догадались? Я говорю про видеоролики в конце каждого его поста. Очень хорошая идея, ведь недаром Михаил уверено ориентируется в буржуйском SEO, которое несколько опережает Сео рунета.
  2. Второй способ подольше удержать пользователей на своем сайте — это создание какого-то интересного или полезного сервиса, который может занять ваших посетителей на некоторое время. Чего именно стоит сделать зависит, наверное, от тематики вашего ресурса. У меня лично никаких идей по этому поводу для своего блога нет, а жаль.
  3. Наверное, самый избитый совет, который дают все по поводу улучшения поведенческих факторов, это поработать над (удобством пользования вашим ресурсом). Что тут сказать? Дело это не просто сложное, а очень и очень сложное, так что каждый решает его по мере своего умения.
  4. Также очень не плохо будет понять, что попытка продвижения по тем поисковым запросам, которые не полно отражены на страницах вашего ресурса, может привести только к ухудшению пользовательских факторов . То, что попало в выдачу поисковиков случайно, само по себе отсеется (пользователи проголосуют за это высоким показателем отказов и короткой сессией), но делать это специально не стоит.
  5. Для лучшей оценки вашего сайта поисковыми системы с точки зрения поведения посетителей, вам нужно будет сформировать костяк своей постоянной аудитории ( вам в руки, ну или ) или же стараться постоянно получать поток посетителей с источников отличных от поисковых выдачи ().
  6. Такая безобидная с виду вещь, как часто встречающиеся , может служить мощнейшим стимулом для проседания поведенческих характеристик ранжирования. Раздражает это многих. Увы и ах, но такие патологически безграмотные типы, как я, вынуждены прибегать к различным онлайн способам проверки орфографии до и после публикации статьи на блоге.
  7. , как ни банально и не избито это звучит, влияет в итоге на посещаемость вашего проекта. Поисковикам до лампочки, почему именно посетители сразу покидают ваш проект так ничего не нем и не посмотрев. Это может быть плохого качества SEO контент, а может быть пауза в несколько секунд, которая сопровождает открытие каждой его страницы.

Запрещенные способы и методы накрутки ПФ

Так, а теперь давайте посмотрим, какие такие накрутки поведенческих факторов занимали умы многих оптимизаторов и оптимизаторских контор до недавнего времени. Насколько я понимаю, накручивали именно поведение в поисковой выдаче Яндекса, а не непосредственно на сайте.

Причем, можно выделить два вида накрутки :

    Накрутка ПФ через ботнет, т.е. через сеть зомбированных вирусом компьютеров по всему миру. Владельцы компьютеров зараженных вирусом при этом обычно ничего не замечают и спокойно шарятся по интернету, а скрипт вируса заходит в выдачу Яндекса по нужному запросу и осуществляет от имени этого пользователя переход на нужный сайт.

    Что примечательно, данный вирус еще умеет подменять рекламные объявления на ресурсах, по которым ходит владелец зараженного компьютера на другие (заказанные). Но это только по слухам (читайте про мою эпопею ). Вообще, ботнет — это уже уголовно наказуемое преступление, а сотрудничество с его хозяином, наверное, равносильно скупке краденного. Собственно, сам Яндекс говорит о том, что за такой способ накрутки (равно как за другие) он будет наказывать.

    Накрутка поведенческих факторов вручную за счет армии не шибко дорогих кликеров из бирж подобных юзератору. Т.е. оптимизатор давал задание набрать в поисковой строке Яндекса определенный запрос, а затем перейти со страницы открывшейся поисковой выдачи на нужный сайт.

    На первый взгляд такой способ может показаться очень даже приемлемым, ибо получается дешево и сердито, а связать клики совершенно различных (физических) пользователей с юзератором или другим сервисом накрутки, казалось бы очень сложно. Но это только казалось.

Собственно, даже не нужно быть Яндексом, чтобы понять, что, например, самый известный из зафильтрованных проектов Megaseo накручивал ПФ. В общем-то, они и сами это признали, но тем не менее достаточно зайти на Alexa (кстати, Alexa появился даже раньше Гугла, хоть и не стал столь успешным) и перейти на страницу с данными по Megaseo:

Http://www.alexa.com/siteinfo/megaseo.ru

Переходите на вкладку «Clickstream»:

И видите следующую картину:

Как объясняют знающие люди, выделенный на скриншоте домен является персональным сервисом накрутки, на который могли попасть только пользователи зарегистрированные в Megaseo. Возможно именно поэтому получилось так, что «уши из под шапки видны».

Немного поясню по последнему скриншоту. В верхней табличке приведены ресурсы, с которых люди чаще всего заходили на Megaseo, а внизу, на которые посетители чаще всего уходили с этого зафильтрованного оптимизаторского ресурса.

В общем-то, если уж обычные смертные с их куцыми способами и средствами способны заподозрить что-то неладное, то что уж говорить про Яндекс. Он все знает и все видит. И в общем-то, он показательно дал сильную затрещину самым зарвавшимся накрутчикам ПФ, а дальше он, скорее всего, вообще перестанет учитывать подобные вещи (т.е. будет обнулять влияние накрутки поведенческого ). Иначе в юзераторе конкуренты начнут заказывать друг друга на попадание под фильтр.

В довершение хочу привести видео по теме использования поведенческих факторов в продвижении сайтов рунета — психология поведения пользователей на сайте :

Удачи вам! До скорых встреч на страницах блога сайт

посмотреть еще ролики можно перейдя на
");">

Вам может быть интересно

Контент для сайта - как наполнение уникальным и полезным контентом помогает в современном продвижении сайтов
Релевантность и ранжирование - что это такое и какие факторы влияют на положение сайтов в выдаче Яндекса и Гугла
Как ключевые слова влияют на продвижение сайта в поисковых системах



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows