Запрет ссылочного в Яндексе

Что такое минусинск?

15 апреля Яндекс в лице Александра Садовского на международной конференции «Неделя Байнета» объявил о изменении отношения Яндекса к «ссылочному». «Ссылочное» — влияние на поисковую оптимизацию внешними ссылками. Теперь Яндекс будет не игнорировать те ссылки, которые он считает не качественным, а наказывать за такие ссылки.

Мы разослали письмо клиентам в тот же день с предупреждением о введении нового алгоритма. Но в письме не было никаких конкретных рекомендаций, только предупреждение о том, что будет запущен новый алгоритм и что мы сообщим подробности после того как разберемся подробнее. После этого Александром Садовским были даны дополнительные интервью, в помощи раздела Вебмастера Яндекса появилась некоторая уточняющая информация. Теперь мы можем сообщить дополнительную информацию.

Почему это важно?

Ссылочное ранжирование является второй по важности в поисковой оптимизации группой факторов. Важнее только внутренняя оптимизации. По грубым подсчетам, на внешнюю оптимизацию приходилось в 2013-2014 до 30-40% «успеха».

Когда стартует новый алгоритм?

Алгоритм стартует с 15 мая.

В чем будет выражаться наказание?

В среднем «наказанный» сайт опуститься на 14 позиций. Т.е. грубо говоря, окажется на 2-ой или 3-ей странице, что достаточно для падения траффика в разы.

А можно ли в первоисточнике посмотреть, что наговорил Яндекс?

Да, вот видео запись выступления:

Какие сайты затронет алгоритм?

Под санкции попадут сайты, которые активно используют ссылки для влияния на ранжирование.

Будут ли наложены санкции конкретно на мой сайт?

Нам это доподлинно не известно. Яндекс озвучил единственный способ – уведомление в панели вебмастера. В уведомлении не упоминается какой конкретно сайт попадает под санкции, поэтому мы не можем сказать какие именно сайты попадут под санкции. Но если у Вас есть доступ в панель вебмастера и там единственный сайт, то самый лучший вариант – посмотреть самостоятельно.

Мы получили уведомления только на 9.5% процентов сайтов, подключенных к панелям вебмастера.

Пока озвученные критерии наложения такие:

  • Много ссылок, ведущих на сайт
  • SEO-Ссылки, закупаемые именно в биржах и агрегаторах
  • Долгий срок закупки ссылок
  • Закупаемых ссылок больше чем у конкурентов в тематике. «Поэтому алгоритм будет периодически, раз в 2-4 недели, выявлять лидеров закупки SEO-ссылок и, если они не снимут ссылки, ограничивать их в ранжировании. С каждой итерацией «безопасный» порог будет понижаться, чтобы в конце концов явление массовых закупок ссылок исчезло совсем.»

На какой срок будут наложены санкции.

Период будет достаточно долгим для того, чтобы экономика сайта могла пострадать. Речь идет о сроках не в неделю, а от нескольких месяцев до полугода.

Что делать?

Я рекомендую снимать ссылки. Безопасность – превыше всего. Более того – падение позиций не произойдет.

Почему не произойдет падения позиций, если снять ссылки?

Яндекс официально сам заявляет, что ссылки снимать – безопасно. Но это не амнистия к новому алгоритму.  Дело в том, что за последние годы роль ссылок в поисковой оптимизации изменилась. Раньше ссылки передавали «вес»: чем больше ссылок и из чем более авторитетных источников они были, тем выше были позиции сайта. И чтобы добиться успеха достаточно было увеличить бюджет на ссылочное. Последнее время роль ссылок изменилась. Ссылки стали играть роль сигнала. Сайт таким образом передавал поисковику заявку «ранжируйте меня по такому-то запросу выше». После того как заявка была поисковиком «увидена», роль ссылки снижалась.

Почему отмена ссылочного – это проблема?

Вторая задача ссылки на сегодня, кроме сигнала – это расширение анкор-листа, количества фраз, по которым Вы хотите увеличить видимость.  С помощью внешних ссылок можно продвинуть сайт по таким фразам, которых нет на сайте. На сегодняшний момент внутренние ссылки оказывают меньшее влияние, чем внешние.

Да и вообще внешние ссылки оказывают очень существенное влияние.

Получается, что вообще ссылки запретили?

Нет, экосистема не может существовать без интернета. Яндекс в своем понимании разделяет ссылки с seo бирж и ссылки, получаемые естественным образом.

Вопрос к А. Садовскому: “Если я, как частный блогер, пишу, что купила товар на конкретном сайте и мне он понравился, при этом давая ссылку из своего поста на ресурс, как Яндекс расценит это?”

А. Садовский: «Если речь идет не о системе ссылок, а блогер написал, что ему что-то действительно понравилось – это не SEO-ссылка. Яндекс относится к такому явлению нормально, ведь намерения автора поста в данном случае сводятся к тому, чтобы, действительно, что-то порекомендовать.»

И опять цитата Садовского в другом контексте:

“Ссылок может быть сколько угодно, мы не ограничиваем качественные ссылки в количестве. Качественных ссылок должно быть столько, сколько потребностей возникает у каждого конкретного бизнеса и у пользователей.»

И цитата из нового раздела Webmaster.Yandex.ru “Естественные ссылки, размещенные на качественных сайтах, влияют на ссылочный профиль положительно, а SEO-ссылки — отрицательно.”

Может ли конкурент купить ссылки на меня в бирже, чтобы понизить меня в выдаче?

Яндекс утверждает, что нет. А. Садовский: «точность определения, что сайт вел закупки сам, а не его «подставили», очень высокая».

В реальности это означает, что да, конкурент может Вам навредить. Аналогичная ситуация существует с поведенческими факторами.

На меня закуплено всего 10 (всего 10.000) ссылок. Понизят ли меня за это количество?

2 цитаты Садовского:

“Что касается некачественных ссылок, то здесь, как раз, порог [количество ссылок, ответ был в контексте обсуждения допустимого количества входящих ссылок на сайт, прим. А. Волкова.] ограничен. Абсолютный порог мы не разглашаем, но, как только он будет превышен, то сайт попадает в зону риска.”

«Имеет значение доля SEO-ссылок среди всех ссылок на сайт.»

А что с другими поисковыми машинами?

В Google давно существовали фильтры, которые накладывали санкции на сайт за низкокачественные ссылки. Алгоритм назывался Пингвин. С учетом этого алгоритма мы уже давно научились закупать ссылки аккуратно.

В чем главное отличие Минусинска от Пингвина:

Дело в отношении поисковых машин к вебмастерам и владельцам сайтов.

Цель Google – сделать выдачу лучше.

Цель Яндекс – снизить объемы продажи seo, чтобы им было проще выявлять качественные сигналы от некачественных (т.е. фактически сами признают, что с определением качества ссылки у них проблемы) и наказать владельцев сайтов, чтобы исключить будущие манипуляции поисковой выдачей.

Для Яндекс – кириллистический сегмент интернета стратегически важен, а в русскоязычном интернете изначально процветала торговля ссылками.

Для Google русскоязычный сегмент малая толика, чуть выше мат. погрешности.

Google дает четкую информацию о том, что на сайт наложены санкции. В панели вебмастера Google всегда можно получить ответ наложены санкции или нет.

Яндекс разослал такое предупреждение только 1 раз, не называя какой конкретно сайт получит санкции.

Google   показывает конкретные ссылки, за которые наложены санкции.

Яндекс делать это не собирается, устраивая из этого тайну.

В Google можно исправить ситуацию, удалив негативные ссылки и подать заявку на пересмотр.

В Яндексе возможность подать заявку на пересмотр санкций отсутствует, а максимум что получит сайт в ответ на письма в тех поддержку – шаблонное письмо о том, что нужно развивать сайт.

Яндекс не скрывает, что считает в выдаче должны быть только его сайты. Сейчас доля собственных проектов Яндекса в выдаче – 3.5%. Остановить его может только суд, но ФАС пока игнорирует проблему.

Google только мечтает, чтобы в выдаче были только его сайты. Но его суд уже остановил – у Google куча законодательных ограничений и проигранных судов.

Означает ли это, что поисковой оптимизацией необходимо прекратить заниматься?

Нет, конечно не означает. Остается еще множество инструментов поисковой оптимизации.  Даже ссылки можно и нужно проставлять на свой сайт и подробнее об этом в следующем пункте. Но главное – на ранжирование сайта влияет множество факторов. У нас есть информация о МатриксНете Яндекса 2011 года – это 800 факторов ранжирования. Яндекс утверждает, что число факторов увеличилось более 1000. По мере того, как влияние одного фактора уменьшается (в данном случае ссылок), роль других факторов возрастает.

Будете ли Вы дальше проставлять ссылки на сайт?

Как ни странно – да. Мы откажемся от закупки ссылок на биржах и перейдем к получению ссылок другими способами. К сожалению, они будут дороже и сложнее. Кроме того, пострадает размер анкор-листа, мы не сможем скупить ссылки тысячами за несколько рублей.

Мы будем добывать ссылки на сайтах, которые не замечены в массовой продаже ссылок и не участвуют в seo-ссылках.

У нас есть инструменты, которые могут анализировать сайты, видеть их входящие ссылки. Топ поисковика пустым не бывает. После запуска нового алгоритма, у нас будет возможность проанализировать ссылочных профиль тех сайтов, которые остались в выдаче.

А что произойдет с SEO рынком?

Большинство компаний уйдут в область либо:

  • Только внутренней оптимизации и консалтинга
  • Либо начнут действовать по шаблону получения ссылок из:
    • Площадок пресс-релизов
    • Каталогов организаций
    • Гостевых постов блогеров

Это вынужденная мера для них, чтобы обеспечить низкий уровень затрат и технологичность процесса. Но к сожалению, это приведет к эпохе массового спама в linkbuilding. Это неизбежно, так как на seo рынке множество компаний, работающих по конвейерному принципу и частных специалистов-дилетантов. А в последующем массовый спам в linkbuilding приведет к замусориванию этого канала как сигнала и снижению его ценности.

Какая основная проблема новой поисковой оптимизации?

Проблема в том, что получение траффика из поисковиков станет сложнее и медленнее. Клиенты же хотят траффика много и моментально. Еще и желательно, не участвуя в процессе и не занимаясь другими маркетинговыми активностями.

И тут мы как раз согласны с Яндексом, что правильная поисковая оптимизация – это «улучшение сервиса, контента и дизайна, то есть инвестиции в удобство и оригинальность.», а это постоянный и не быстрый процесс.

Влияние возраста страницы на позицию в выдаче. Как ускорить продвижение?

Наверное, Вам приходилось замечать, что на молодых сайтах, даже с нужным и интересным материалом, хостов из Яндекса практически нет. И это когда страницы уже проиндексированы. Все дело в том, что возраст страницы является одним из важнейших факторов ранжирования для Яндекса: доверия намного больше к старым страницам, ведь если сайт не попал под АГС, контент на странице находится долго — значит вполне логично предположить, что он интересен, уникален и востребован пользователями, а, следовательно, – его можно разместить повыше.
Для того чтобы искусственно состарить страницу, достаточно поставить перенаправление: 301 редирект в htaccess файле со старой страницы. Выглядеть это будет таким образом:

Redirect permanent /ссылка_на старую_страницу http://вашсайт.com/ссылка_на_новую_страницу

или

Redirect 301 /ссылка_на старую_страницу http http://вашсайт.com/ссылка_на_новую_страницу
В качестве донора для «состаривания» подойдет любая ненужная страница в возрасте. Это могут быть: не приносящие трафик захламленные станицы, а также страницы, на которых нельзя разместить текст технически, из-за особенностей движка. Подойдут страницы, находящиеся на низких позициях – это не имеет значения, потому что нас интересует только возраст.
Выбрав донора, нужно установить 301 редирект с него на страницу, которую Вы продвигаете.

Узнаем возраст страницы

vozrast донора
Отсчет возраста страницы начинается с момента индексирования, поэтому в Google и Яндекс – возраст может быть разным. Чтобы узнать возраст страниц Вашего ресурса для Яндекса — в поисковой форме нужно вписать «host: вашсайт.com». Далее, нужно отсортировать документы по дате (ссылка на сортировку находится внизу страницы выдачи). После того, как документы будут выстроены в порядке убывания, дату индексации можно будет увидеть под заголовком.
Если использовать redirect в разумных пределах, то никаких санкций со стороны Яндекса не будет. 301 редирект используется также при перенесении ресурса на другой хостинг или движок, что влечет за собой изменение структуры внутренних адресов, поэтому воспринимается этот «хак» поисковиком адекватно, однако злоупотреблять им не стоит.

Поисковые алгоритмы ранжирования Яндекса

 

Проблематика  ранжирования результатов поиска стоит перед поисковой машиной с самого начала ее запуска.  Еще с 2003 года Илья Сегалович (один из сооснователей Яндекса) постоянно публикует свои доклады на РОМИП (Российский семинар по Оценке Методов Информационного Поиска). Поисковые алгоритмы, в близком виде к тому, что мы уже привыкли видеть, Яндекс ввел в 2007 году.  В это время в России Интернет вошел уже практически в каждый дом.

Количество сайтов на запрос достигло своей критической массы, и нужно было каким-то образом присудить позицию каждого в поисковике, определив релевантность (соответствие ключевым словам) текста к запросу. Модификация принципов ранжирования сайтов в выдаче — и была первой задачей поисковых алгоритмов.

Нужно сказать, что Яндекс несколько отстал от Гугла, который уже в 1998 году ввел в свои алгоритмы ссылочный фактор. Текстовой релевантности на тот момент было уже недостаточно, а поисковые машины типа Lycos и WebCrawler, которые обогнали Wandex 1993 года только тем, что стали учитывать раньше содержит ли страница ключевые слова — не соответствовали требованиям: на такое количество интернет ресурсов нужна была и ссылочная релевантность. Конечно же, команда Яндекс, понимая, что представляет российский продукт, который на своей территории должен вытеснить конкурентов, старалась качественно подойти к решению вопроса.

Названия алгоритмов были позаимствованы у городов. Блогеры заметили, что последняя буква некого алгоритма — является первой, следующего за ним. Таким образом, получилось виртуальное путешествие из Магадана в Калининград, которое продолжается и по сей день.

Поисковые алгоритмы Яндекса

Магадан. Май 2008 года.

Основные изменения, на которые повлиял алгоритм:

  • Значительное увеличение факторов ранжирования.
  • Фильтрация запросов с учетом гео-зависимости.
  • Внедрение транслитерации. Теперь при вводе слов «Київ» , «Дошка» — слова не изменятся на «Киев» и «Доска», а останутся в прежней словоформе. Это же касается и старославянских слов.

Основные функции алгоритма:

  • Определение типа страницы: html, pdf, doc;
  • Определение уникальности контента;
  • Формирование выдачи с учетом всех вышеперечисленных изменений.

Позже алгоритм был обновлен до версии «Магадан 2.0». В ней были доработаны баги релиза. К одним из наибольших успехов можно причислить улучшение обработки многословных запросов.

Находка. Сентябрь 2008 года.

По сути, данный алгоритм является продолжением «Магадана», то есть его более совершенной версией, которая претерпела по сравнению с предшественницей следующие изменения:

  • Применение формулы при ранжировании.
  • Новый способ учета стоп-слов и словосочетаний.
  • Улучшение разбора слов в случаях написания через дефис и слитно: при вводе «авиа билеты» — теперь выдавались страницы со словами «авиабилеты», «авто ваз» — соответствует «АвтоВАЗ» и т.п.

Алгоритм нравился сеошникам и вебмастерам: за счет склейки и расклейки слов можно было значительно расширить семантическое ядро и неплохо сэкономить на продвижении.

Арзамас и Анадырь. Апрель 2010 года.

Первое название алгоритма – «Анадырь», но в ходе своей эволюции, он получил название «Арзамас».

Новые изменения:

  • Более глубокое понимание русского языка: жаргон, словоформы. Например «Питер», теперь распознается, не только как американское имя, но и в первую очередь, как «Санкт-Петербург». Для такого тонкого и неоднозначного языка — нововведение было крайне необходимым.
  • Анализируя статистику запросов, поисковая машина стала определять приблизительный возраст пользователя, что, конечно же, нашло свое отображение в метрике.

АГС-17 и АГС-30. Осень 2009 года.

«АГС» — алгоритм, отсеявший многих новичков в интернет индустрии. Основная задача – поиск ресурсов, не соответствующих требованиям Яндекса: копипаст, переоптимизация, наличие вирусов и т.п. При обнаружении такого ресурса — Яндекс снижает объем в выдаче до 15 страниц, что способствует падению сайта. Вернуть сайт на прежние позиции практически невозможно. Некоторую надежду дает обращение в Яндекс Вебмастер и быстрое пополнение сайта свежим, уникальным контентом. Так можно попробовать исправить ситуацию только в том случае, если есть надежда выиграть апелляцию. Нужно учитывать, что «АГС» накладывается не только алгоритмом, но и в ручном режиме.

Снежинск. Ноябрь 2009 года.

С этого времени, можно сказать, что Яндекс стал обладать неким подобием искусственного интеллекта – MatrixNet. Теперь поисковая машина умеет учиться сама. Полностью изменяется система ранжирования: для одного документа учитывается несколько тысяч поисковых параметров.

MatrixNet работает следующим образом:

  • составляются пары «запрос-документ»;
  • паре присваивается значение релевантности;
  • значению из интервала [0..1] – присваивается «истинная» релевантность.

Самый простой способ получить «истинную» релевантность — взять выдачу по тому же запросу из алгоритма «Арзамас». Этот способ применяли сеошники, но на самом деле, скорее всего поиск значения имел совсем другие корни, потому что, иначе — выдача «Снежинска» практически повторяла бы выдачу «Арзамаса».

После того, как релевантность присвоена, сам алгоритм стремится вывести выдачу максимально близкую к значению «истинной» релевантности при помощи формулы:

F = a1*f1 + a2*f2 + … + an*fn , значение n –несколько тысяч.

«Снежинск» спутал карты сеошникам сложностью своих формул. Вот пример одной из функций:

F = 3:14*log7(f9(q; d)) + ef66(q;d) + … (из презентации Яндекса)

Функций было очень много, логики в них практически никакой (по крайней мере, ее сложно найти) и каждая из функций вносила очень небольшой вклад в итоговое значение релевантности.

Таким образом, получилось, что вклад прямых вхождений для каждой пары «запрос-документ» — вычислить практически невозможно. В ходе обучения коэффициент ak менялся по 10 раз в день.

Теперь определение места ресурса в ТОПе с учетом статистики, веса и т.д. — стало не тривиальной математической задачей.

Можно сказать, что алгоритм в целом дал хорошие результаты, но дьявол, как всегда укрылся в деталях: по многим запросам выдача оставляла желать лучшего.

Также были внедрены новые региональные факторы, но при этом, локализованное ранжирование еще не коснулось Беларуси, Украины и Казахстана.

Конаково. Неофициальное название, которое присвоено аппгрейту «Снежинска».

Если в алгоритме от «Арзамаса» до «Снежинска» — было всего 19 крупнейших регионов с функцией локализации, то в «Конаково» — их уже 1250 городов. Акцент делается на региональное продвижение сайта.

Обнинск. Август 2010 года.

Формула ранжирования, по сравнению с «Конаково» — еще усложнилась. Теперь страницы с датой занесения можно было отыскать в кэше. В связи с этим, возникла потребность использования Last-Modified: при приходе робота на большой ресурс — ему будет на много проще внести в поиск последние изменения, если указать на них, если же Last-Modified не прописан, то индексация ресурса идет заново и робот «пробегает» все страницы, что может вызвать ошибку «502 Bad Gateway». От этого страдают в основном новостные ресурсы.

Продолжена работа над гео-независимыми запросами.

Краснодар. Декабрь 2010 года.

Главное отличие – присутствие поисковых категорий: быт, авто, работа, новости, обучение и прочие. Кроме того, с появлением «Краснодара» — всерьез заговорили о поведенческих факторах. Ранжирование ведется при помощи новой формулы с обновленным набором гео-факторов. Введена технология «Спектр».

Калининград. 12.12.12.

Последняя версия поискового алгоритма, учитывает уже и персональный поиск. Кроме того, в «Калининграде» более 1200 регионов (как в «Кандаково»), со своей формулой релевантности. Команда Яндекс, еще за год до появления этого алгоритма поставила задачу персонализации пользователя, потому что деление только на регионы – достаточно примитивно. Так, около 30% запросов – это не поиск новой информации, а дополнение к предыдущей, и, конечно же, этим фактом нельзя пренебречь.

В основу алгоритма «Калининград» легли принципы «Арзамаса», но теперь Яндекс стремится узнать своего пользователя. Например, вводя слово «пицца» — кто-то ищет как ее заказать, а кто-то ее рецепты. И, конечно же, в данном случае понятно, что поисковая формула должна быть для каждого своя.

Главный плюс такого подхода – скорейший доступ к любимым сайтам. Давно замечено, что на знакомые сайты пользователь кликает более охотно и теперь в выдаче эти сайты будут показываться чаще.

Если раньше выдача определялась запросом, то теперь — цепочкой запросов. Для того чтобы запустить «Калининград» — была проведена колоссальная работа: в течение года испробовано 10 разных формул, выделяющих интересы; проведен эксперимент с участием 50 млн. пользователей. В результате было выделено около 400 тыс. различных тем по запросам, которые вошли в поисковые подсказки. Но главное в персональном ранжировании – это тема. На любой запрос, если не изучать цепочку, может быть своя формула ранжирования. Яндекс отказался от сегментации и для каждого пользователя формула получается своя, она бесконечно изменяется, анализируя последние запросы.

Персонализация понимает и то, что за одним компьютером и в одном браузере могут находиться несколько разных человек, например, муж и жена. Муж — интересуется кино и для него своя цепочка запросов, и, соответственно, своя выдача; жена – интересуется рецептами и запросы, связанные с кино — никак не влияют на ее цепочку и выдачу по рецептам.

На практике получается, что у человека меняется около 75% запросов. При этом, при включенном персональном поиске — кликабельность первого результата выдачи больше на 37%. Кроме того, поиск занимает на 14% меньше времени.

Нужно сказать, что введение данного алгоритма, по мнению сеошников – осложнило продвижение новых сайтов. Потому что теперь пользователь ходит как бы по кругу сайтов, на которые он уже кликал. Стал не столь актуален показатель тИЦ. Кроме того, большинство пользователей до сих пор не в курсе, что им на 90% сузили кругозор, даже без их согласия. А вот к плюсам относят – продвижение только с помощью качественного контента, брендинга и индивидуальности. Теперь, для того чтобы привязать к себе постоянную аудиторию – нужно действительно понравиться.

Алгоритм «Калининград» работает не только в России, но и везде где есть Яндекс.

Использованная литература:

 

 

 

Несколько простых способов повысить свою доходность в SAPE.

1)      Ссылки со страниц второго уровня стоят дороже, чем ссылки со страниц третьего уровня. Повысьте уровень некоторых страниц с 3-го до 2-го. Сделайте расширенный блок навигации по сайту (чуть ли ни карту сайта).

2)      Мало ссылок, продаваемых с одной страницы. При добавлении сайта по умолчанию устанавливается опция «продавать» по 3 ссылки с каждой страницы. Эта опция влияет на такой показатель, как «потенциальный максимум» внешних ссылок со страницы. Оптимизаторы стараются, в первую очередь, покупать ссылки с тех страниц, где внешних ссылок немного. Поэтому, если Вы установите опцию «по 1-ой ссылке со страницы», то продадите такие ссылки очень быстро. Потом этот порог можно постепенно повышать по мере того, как свободные места будут распроданы.

3)      Иногда ссылки снимаются из-за того, что превышен лимит внешних ссылок. Например, это может быть из-за того, что Вы успешно продали много ссылок, какой-то рекламодатель вышел из sleep. В течение 7 дней ссылки, которые вышли за такой лимит, снимаются. Что нужно делать в таком случае? В первую очередь проверить через SAPE количество фактических ссылок на странице. Может быть, их меньше, чем считает SAPE. Это происходит из-за того, что SAPE не всегда реально успевает обновлять информацию. Во-вторых, посмотрите, может быть, на странице присутствуют ссылки не из системы. Это могут быть ссылки из контента или в шаблоне сайта. Может быть, их можно закрыть от индексации. В-третьих, если все способы уже испробованы, то Вы можете управлять тем, от какой ссылки отказаться. Вы можете удалить самую дешевую ссылку либо, наоборот, сохранить самую старую или ту, что никогда не уходит в sleep.

4)      Собственно важнейший показатель, упомянутый в пункте выше, – внешние ссылки вне системы. Это ссылки из контента либо ссылки с шаблонов. В SAPE есть возможность посмотреть страницы с «левыми» ссылками. Изучите, исправьте ситуацию и запустите пересчет внешних ссылок.

5)      Сканирование глубже. SAPE работает как кравлер поисковика: переходит ссылка за ссылкой по страницам сайта. При этом  в SAPE есть ограничение по тому, насколько глубоко он забирается и насколько много страниц он принимает во вниманию. Если у Вас не меняется меню, то может быть так, что при каждой переиндексации у Вас появляется только несколько новых страниц. Чтобы сканировать больше, можно в случайном порядке отображать несколько ссылок на внутренние страницы сайта.

6)      Смена цен. Это самый сомнительный совет, потому что мне лень проводить точные математические исследования, и я тут действую по интуиции. В ценах есть 4 момента:

  • Многие покупают с ценой до 1 руб. Учитывайте при этом комиссию сапы. Т.е. у Вас должна быть цена 90 коп.
  • Многие покупают с ценой до 5 руб.
  • Если у Вас цены выше средних, то это отображается оптимизатору. Фишка «дорого, значит, круто» тут не сработает.
  • Иногда можно демпингануть на несколько дней и получить много заявок.

7)      Повышение цен для уже размещенных ссылок. Совет прост: никогда не повышайте цены для уже размещенных ссылок. Больше потеряете.

8)      Выключение страниц не в индексе Яндекса. SAPE при индексации принимает такие страницы. А вот оптимизатор нет. Проверяйте страницы на наличие их в индексе и исключайте то, что не в индексе. Иначе или в черный список, или просто упустите заказ.

Если Вы разместили пост с ошибкой

Если Вы разместили пост с грамматической ошибкой в FB или VK, то в этом случае необходимо сначала долго и больно бить виноватого. Потому что в FB или VK нельзя редактировать пост.
Если Вы его разместили только что, и на него нет еще никаких реакций, то его нужно просто удалить и разместить повторно.
Но если же Вы разместили его вчера, то тут все сложнее. В зависимости от значимости ошибки и контекста Вам придется либо проигнорировать ошибку, либо принести извинения читателю, либо удалить пост, если он был мало значим. Размещение же повторно приведет к худшему эффекту.

  1. Он появится в ленте снова. Для тех, кто читал ленту внимательно, это будет удивительно: достойна ли новость повторной публикации.
  2. Вы потеряете все комментарии и лайки в этом случае.
  3. Зачастую такая идея «исправлений» может прийти Вам в голову не в самое удачное время суток: пост может не получить свою аудиторию повторно. А нам нужны исключительно высоко рейтинговые посты, чтобы добиваться максимального эффекта (по крайней мере, в FB), чтобы чаще оказываться в ленте.
  4. У Вас уменьшится статистика. А так как у нас есть цель как можно чаще мелькать в ленте у подписчиков, то каждые 10 просмотров не лишние.

Обновление: материал устарел. В Facebook и во ВКонтакте появилась возможность редактировать пост. Во ВКонтакте проходит это без следа, а Facebook появляется возможность посетителям видеть историю правок.

Google: страницы не уходят из Гугла

 

У любого явления есть сильные и слабые стороны. Плюсы и минусы. Индексатор Гугла очень шустрый (это вроде бы как плюс). Но вот только вчера Вам сайт взломали и залили дорвей, а уже сегодня все 3000 страниц этого мусора в индексе. И Вы вроде бы тут же все удалили, время идет, а мусор успешно держится в индексе.
Дело в том, что Гугл держит страницы в индексе подолгу, добровольно не отпуская. Такой же эффект будет у Вас, если Вы освободили домен. Домена с нами давно уж нет, а контент в индексе есть. Причем держаться он там может и по 3-4 месяца.
Что нужно делать в таких случаях?
Вариант 1. В индекс попала временная или случайная страница. В этом случае страницу можно удалить через панель вебмастера Гугла. Способ подойдет в случае, если страницы с таким адресом в будущем не будет использоваться. Например, как раз в случае с трояном.
Вариант 2. Запретить индексацию полностью. Для всех поисковых систем. Полезно в тех случаях, когда хотите перейти на новый домен, а старый забросить.
Вариант 3. Подмножество 2-го варианта. Запретить индексацию части страниц, отдельные файлы, директории. Также можно «попросить» поисковик игнорировать некоторые GET параметры с помощью cleanparam в robots.txt.

Почему в индексе Google страниц больше чем у Яндекса.

Если Вы анализируете свой сайт с помощью различных сервисов, то частенько можете увидеть, что число проиндексированных страниц в Яндексе и Гугле разнится, причем в пользу Гугла. Механизмы работы поисковых машин отличаются, их алгоритмы срабатывают по-разному. Вот 3 нюанса работы Гугла, из-за любого из них число страниц в индексе может быть больше ожидаемого:

  • Неверная статистика. Когда Вы проверяете число страниц, Гугл может Вам написать: «Найдено около 120 страниц». Но когда Вы будете листать результаты поиска, переходя со страницы на страницу, число может резко упасть, причем до величин, более-менее соответствующих ожидаемым.
  • Игнорирование инструкции Google. Явление не частое, но бывает. В результате в индексе могут оказаться служебные страницы, не предназначенные для индексации. Например, страницы тегов или архивы. В качестве гипотезы выскажу, что происходит это не из-за игнорирования robots.txt Гуглом, а из-за того что Гугл и Яндекс в разном порядке учитывают инструкции запрета и разрешения индексации.
  • Любовь к старью. Встречались, наверное, когда-нибудь с таким, что кто-то из Ваших знакомых (а может, и Вы сами) хранит у себя старые фотографии, пожелтевшие вырезки из газет или покрытые слоем пыли CD и кассеты. Вот и Гугл примерно так же. Он хранит у себя зачастую кучу того, с чем можно спокойно расстаться.

Это могут быть:

  • удаленные страницы, если сервер до сих пор по старому URL выдает 200 код ответа сервера;
  • дубликаты страниц в идентификационной сессии в URL;
  • внутренние технические ссылки, например, ссылки на страницы результатов поиска по сайту.

Вот такие старинные страницы могут быть весьма вредны для поисковой оптимизации. Они могут дезориентировать поисковик, смещая веса и иногда выступая в качестве ошибочных релевантных страниц по роду запросов. Кроме того, индексатор поисковика тратит лишние ресурсы на индексацию таких страниц, что может обернуться нехваткой внимания к нужным страницам.
Поэтому рекомендую обратить внимание на то, какие ищет страницы в индексе у Гугла, и, если там есть лишние страницы, взять этот вопрос под контроль.
Отдельно нужно отметить, что попадание в индекс страниц с результатами поиска по сайту иногда может привести к положительным результатам: выходу в топ по низкочастотным запросам. Это происходит из-за того, что запрошенная фраза попадает в шаблоне страницы в теги title и H, а также выделяется в найденном тексте. Так что будьте вдвое внимательнее.

Проиндексированный robots.txt

 

Недавно в результате, видимо, ошибки Google включил в свой поисковый индекс файлы robots.txt от различных сайтов. robots.txt – служебный файл, который содержит в себе инструкции для поисковых машин о том, как правильно индексировать сайт, по мнению владельца сайта. Данный файл является рекомендательным. Хороший поисковик должен слушаться таких инструкций. Вредный поисковик – игнорирует. В целом, в файле нет ничего секретного, он доступен любому пользователю. Однако перфекционистам может не понравиться, что в индексе Гугла находится то, что для индексации не предназначено.
Как избавиться от robots.txt, если уж он попал в индекс.
1) Запретить индексацию инструкцией же в самом robots.txt;
Disallow: /robots.txt
2) Удалить файл из панели вебмастера Гугла.

SEO для изображений

Далеко не все веб-мастера обращают внимание на оптимизацию изображений. А зря. Немалая часть пользователей использует сервис «Картинки» компании Google и других поисковиков. С помощью оптимизации можно добиться, чтобы картинки с Вашего сайта выдавались в числе первых, а значит, стабильно привлекали большее количество посетителей. Кроме того, SEO сделает изображение более релевантным материалам, размещенным на странице, и облегчит поисковым системам задачу классифицировать контент. Еще один бонус – линкбайтинг. Пользователи, впечатленные интересными и красивыми картинками, поделятся ссылками со своими знакомыми, те – с другими людьми и т.д. Таким образом ссылки веерно распространяются по всей сети. В качестве примеров можно привести демотиваторы и набирающие популярность мемы.

На рейтинг картинок влияют как стандартные для всего контента ранжирующие факторы, так и специализированные. От чего зависит рейтинг изображений и как его повысить, рассказал поисковый аналитик Рейд Бандремер.

1. Параметр alt text (альтернативный текст)
Изначально этот параметр был введен, чтобы помочь людям со слабым зрением или тем, кто пользовался текстовым браузером и не имел возможность видеть изображение. Он добавляется к картинке, поясняя, что на ней изображено. Выглядит как конструкция alt=»___».
Желательно, чтобы альтернативный текст был уникальным. Эффективность оптимизации упадет, если использовать одинаковый текст для многих картинок. Использование в alt text целевых ключевых слов повысит релевантность страницы, но только в том случае, если это не будет простое перечисление всех ключей. Поисковые системы обращают внимание на релевантное и естественное применение ключевых слов. Больший вес получают слова, размещенные в первой части текста.
Для шаблонной графики не имеет смысла применять параметр alt text, так как она может повторяться на страницах сайта и не привносит ничего нового. Более того, поисковые системы считают его избыточным.

2. Имя файла
Правильное имя файла повышает рейтинг изображения и релевантность страницы. Оно обязательно должно иметь отношение к картинке. Осмысленное название лучше, чем набор цифр и букв. Можно сгруппировать изображения по тематике, используя в имени одинаковый ключ и разные числа. Это немного добавит картинкам SEO-вес. Пожелания к использованию в имени файла ключевых слов те же, что и для alt text: не перебарщивайте.

3. Контент страницы
Качество размещенных на сайте материалов, а также авторитет страницы очень сильно влияют на местоположение картинки в выдаче результатов. Чем выше рейтинг страницы, чем ближе к топу она находится, тем выше рейтинг изображения, размещенного на ней. По контенту (особенно по заголовку и расположенному рядом с изображением текстом) поисковики определяют тематику картинки.
Как уже говорилось ранее, пользователи с удовольствием делятся ссылками на занимательные, полезные, удивительные изображения и изображения «в тему». В результате популярные фотографии и рисунки обеспечивают сайт стабильным трафиком.

4. Ссылки
Думаю, тот факт, что входящие ссылки являются весьма важным инструментом в SEO, ни для кого не станет открытием. Для оптимизации картинок роль ссылок не меньше. Точно также поисковиками учитываются количество входящих ссылок, их текст и репутация сайтов, с которых они ведут.
Текстом ссылки в данном случае является alt text, поэтому создавайте его вдумчиво.
Google рекомендует упрощать процесс размещения ссылок на картинку. Можно использовать на странице специальный HTML-код, содержащий ссылку и на картинку, и на сайт. С помощью этого кода посетители смогут размещать изображение у себя на сайтах и в блогах. При этом сохраняется ссылка на первоисточник.
По поводу «хотлинков». Далеко не все веб-мастера приветствуют размещение на картинке прямых ссылок, вызывающих ее непосредственно с сервера. Это обусловлено дополнительной нагрузкой на сайт и возможностью нарушения авторских прав. С другой стороны, «хотлинки» повышают рейтинг картинки, так как являются внешними ссылками.

5. Размер файла
Если размер изображения слишком велик, у пользователя может не хватить терпения дождаться загрузки страницы. Большинство поисковых систем тоже не любят больших файлов, хотя найти картинку, затрудняющую индексацию, достаточно проблематично. Исключение составляет Яндекс, предпочитающий больший вес.

6. Текст на картинках
Как правило, следует избегать текста на изображениях. Если же приходится использовать такие картинки, то alt text должен соответствовать словам на них. В случае, когда изображение является главным, используйте теги h1 или h2. В этом случае поисковики обратят особое внимание на альтернативный текст картинки.

7. Хранение изображений на внешних серверах
Хостирование изображений – весьма спорная вещь. С одной стороны, ускоряется загрузка страниц. С другой – вес ссылки на изображение передается сайту, на котором она хранится. В этом случае необходимо проанализировать, что перевесит: преимущества, которые дает SEO, или скорость загрузки.

8. Карта сайта
Изображения следует добавить и в карту сайта. Тогда поисковые системы проиндексируют их. В карте сайта должны присутствовать специальные теги для изображений. Можно создать отдельную карту для картинок.

9. Оптимизация изображений – не первоочередное задание
В Интернете найдется не так уж много сайтов с идеальной оптимизацией картинок. Трудозатраты на SEO изображений достаточно велики и не всегда оправданы. В первую очередь следует решать более насущные задачи. Кроме того, если выложенные на сайте картинки в большинстве своем типовые, то их оптимизация абсолютно нецелесообразна.
Как правило, достаточным будет внесение изменений, не требующих особых временных затрат. Если у CMS есть такая функция, можно одновременно загружать новые значения alt text для всех картинок. А вот изменение имени файлов и их последующая выгрузка на сервер часто оказывается бесполезной тратой времени.
Как понять, что оптимизация изображений принесет свои плоды? Есть несколько ситуаций, когда SEO целесообразно.

  • На сайте размещено много изображений. Это могут быть медиапорталы, интернет-магазины и пр.
  • Картинки на сайте – это то, чем Вы можете заинтересовать посетителей. Речь идет об авторских изображениях на сайтах фотографов, дизайнеров, архитекторов и др.
  • Без изображений затрудняется понимание пользователем текста. Имеются в виду разного рода графики, диаграммы, таблицы.
  • Производится оптимизация целевых с точки зрения SEO разделов.
  • Большинство посетителей попадает на сайт в результате поиска изображений по ключевым словам. В этом случае следует проанализировать, какие запросы вводятся для поиска именно картинок, а затем оптимизировать изображения под них. Google Analytics поможет оценить качество и количество трафика, генерируемого такими ключами.
  • Изображения на сайте могут привести к линкбайтингу. Имеет смысл оптимизировать именно те рисунки и фотографии, которые заинтересуют пользователя, вызовут у него желание поделиться найденной информацией. Основные поисковые системы разработали для веб-мастеров инструменты, позволяющие отследить, какие изображения пользуются наибольшей популярностью.
  • На SEO картинок «для людей» тратиться много времени и средств. В этом случае имеет смысл параллельно оптимизировать изображения и «для поисковиков».

В качестве примера рассмотрим результаты поиска Google Картинок по запросу «атлантический океан». Два первых изображения размещены в статье об этом океане на сайте Википедия. Это яркий пример того, насколько важна репутация страницы. В данном случае огромное количество сайтов приводят ссылки на эту статью, текст и изображение релевантны, страница содержит много информации об океане. Нетрудно догадаться, что статья тоже расположена на первом месте в выдаче результатов.
Следующие три картинки взяты с сайтов русских энциклопедий krugosvet.ru и vokrugsveta.ru. На них ведет меньше ссылок, но качество контента тоже высокое, в описании присутствуют ключевые слова.


Шестая картинка размещена в научно-популярном блоге oceanology.ru. Помимо ключей в статье используются ключи в альтернативном тексте (например, «alt=»Атлантический океан, мыс Канаверал, Флорида»»).
Кстати, используя плагин SeoQuake для Firefox, можно увидеть количество сайтов, ссылающихся на картинку («хотлинки»).
Дальнейший анализ результатов подтвердил вышеупомянутые факты: важны авторитет страницы, наличие достаточного количества внешних ссылок, ключей в альтернативном тексте, имени файла и текстах статей.

Свежие записи
video

Детальный мастер-класс по увеличению трафика сайта в 4 раза. Алексей Волков

В вебинаре обучающего центра CyberMarketing Алексей Волков провел мастер-класс по увеличению трафика в 4 раза. В мастер-классе были рассмотрены: Пошаговая кластеризация Навигация Пошаговая работа...
Выбор редакции