Category: SEO(Страница 3 из 4)

Революционные настроения в SEO индустрии

black-hat-seo-300x160 Предстоящее изменение алгоритмов «Яндекса» перестанет рассматривать внешние ссылки как фактор для ранжирования сайтов в поисковой выдаче. Эта новость уже сейчас озадачила сообщество оптимизаторов, а в ближайшей перспективе должна привести к переменам на SEO-рынке.

Руководитель отдела веб-поиска «Яндекса» Александр Садовский 5 декабря 2013 г. сделал сенсационное заявление. Согласно его обещанию, в начале 2014 г. в результате запуска нового алгоритма «Яндекс» прекратит учитывать в ранжировании поисковой выдачи внешние ссылки.

Изменение коснется только коммерческих запросов и поначалу будет реализовано только в Москве и Московской области, хотя со временем распространится и на остальные регионы страны.

Информационные запросы, результатом которых становится поиск СМИ и блогов, отмена учета внешних ссылок не коснется.

Никаких других подробностей о новом поисковом алгоритме, включая его название, Садовский не сообщил.

Абсолютное большинство поисковых машин, включая Google и «Яндекс», при назначении сайтам позиции в своей поисковой выдаче (то есть при ранжировании) до сих пор принимало во внимание имеющиеся в Сети внешние ссылки на эти сайты.

Поэтому недорогая технология искусственной простановки внешних ссылок на заинтересованные в продвижении ресурсы стала одним из важнейших и популярнейших инструментов поисковой оптимизации (SEO, Search Engine Optimization).

В связи с новой политикой «Яндекса» интересно вспомнить о продаже Mail.ru Group компаниям Романа Абрамовича доли в крупной российской бирже ссылок Sape.ru (выручка в 2012 г. 869 млн руб.). О сделке стало известно в октябре 2013 г.

Российский рынок поисковой оптимизации всех видов, по данным компании «Ашманов и партнеры», приведенным в исследовании «Экономика Рунета 2012-2013», в 2012 г. составил 10,24 млрд руб., показав 20% роста к 2011 г. Те же «Ашманов и партнеры» прогнозируют объем рынка SEO в 2013 г. как 11–12 млрд руб.

Заявление Александра Садовского успело поляризовать блогосферу на два лагеря: резко критикующих идею «Яндекса» исключить внешние ссылки из факторов ранжирования и активно приветствующих этот шаг.

Главный аргумент критиков состоит в том, что отныне малобюджетным проектам и разработчикам-одиночкам (фрилансерам) будет трудно улучшить свое положение в поисковой выдаче «Яндекса».

Сторонники нововведения подчеркивают два его главных плюса: скорое уменьшение числа «мусорных ссылок» в Сети и укрепление рыночных позиций квалифицированных и дорогих оптимизаторов.

Три крупных и известных SEO-компании, к которым обратился CNews, отказались по горячим следам комментировать заявление Садовского, заявив, что изучают ситуацию.

Сам глава отдела веб-поиска «Яндекса» рассказал CNews, что «ссылочная реформа» началась, когда коммерческие ссылки утратили свое значение «как сигнал для определения релевантности».

Из примерно 800 используемых в алгоритме «Яндекса» факторов ранжирования, по словам Александра Садовского, лишь около 50 основано на внешних ссылках.

Для выявления наиболее релевантных ответов на запрос пользователя, «Яндекс» пробует извлекать сигнал из каждого вида данных, однако, «когда источник данных сильно зашумлен из-за постоянного спама, сигнал теряется, и данные становятся бесполезны», говорит Садовский. «Яндекс» уже проводил эксперимент по отказу от их учета и нашел, что «качество поиска осталось по-прежнему высоким».

Глава поиска «Яндекса» признает, что реакция в соцсетях и блогах на нововведение оказалась «бурной и неоднозначной», однако, замечает, что так бывает при любых изменениях в ранжировании.

Садовский дает понять, что у SEO-сообщества были все шансы подготовиться к отказу «Яндекса» от учета ссылок. По его словам, эта тенденция была очевидна, а вес ссылок в ранжировании постоянно снижался: «Мы говорили об этом на конференциях, в интервью на протяжении последних трех лет. Речь идет просто о закономерном постепенном схлопывании неэффективного для продвижения в «Яндексе» инструмента, которое, наконец, все заметили».

В долгосрочной перспективе, по мнению Садовского, «ссылочная реформа» переориентирует рынок с «махровой оптимизации» в сторону интернет-маркетинга: оказанию услуг по улучшению юзабилити, повышению конверсии посетителей в покупателей и т.д.
Дополнение.

После публикации этого материала одна из крупнейших российских SEO-компаний SeoPult обнародовала заявление, где выразила уверенность, «что качественные сайты, которые продвигаются комплексно, не потеряют своих позиций и трафика из поисковой системы «Яндекс» после внедрения нового алгоритма, а ссылочное ранжирование будет продолжать учитываться для абсолютного большинства запросов».

Итак, после запуска нового алгоритма в 2014 году «Яндекс» полностью перестанет учитывать внешние ссылки при ранжировании сайтов.

Влияние ссылок на позицию сайта в поисковой выдаче постоянно уменьшалось, однако исключить его полностью может оказаться не совсем правильным решением.

И остается много вопросов:

Как будут ранжироваться коммерческие сайты теперь?
По большинству коммерческих высокочастотных запросов и раньше пробиться в топ 10 новым сайтам было практически не реально, теперь данная ситуация еще больше усугубляется.
Что будет с крупнейшими биржами ссылок, такими как Sape?
Так что, рынок SEO умрет?

professionali.ru, cnews.ru, habrahabr.ru

Google: Как сделать перелинковку без ущерба для позиций

google Мэтт Каттс рассказал как сделать перелинковку без ущерба для позиций

Неделю назад, Мэтту Каттсу поступило два вопроса о том, как стоит проставлять ссылки на сайте. Глава отдела по противодействию веб-спама ответил на них крайне оперативно.

Первый вопрос касался создания дополнительного сайта по смежной тематике, как в случае сайта о рыбалке и отдельного сайта о прикормке. Пользователя из Токио интересовало, будут ли применены к нему санкции, если поисковая система увидит в регистрационных данных одного владельца. Речь идет о сайтах с качественным контентом, а не о банальном сателлите сомнительной пользы.

По словам Каттса, нет особой проблемы, если один сайт ссылается на другой, и это сайты одного владельца. Проблемы могут начаться, если таких сайтов не 2, а скажем, 50, 90, 150. В этом случае они больше похожи на сетку сателитов. В таком случае, будут наложены санкции за накрутку ссылочного. А в случае небольшого количества, до 5 сайтов, можно успешно использовать данную стратегию ссылочного продвижения. Также Мэтт Каттс отметил, что что проблемы действительно начнутся, если содержимое сайтов будет дублироваться.

А вопрос пользователя из Лос-Анджелеса касался наличия внутренних анкорных ссылок с точным вхождением ключевых слов. Могут ли они повредить продвижению, с учетом того, что они помогают пользователям перемещаться по сайту?

На этот вопрос, Мэтт Каттс ответил, что внутренние ссылки, как правило, не являются причиной данной проблемы. Но, подчеркнул, что это касается тех случаев, когда на сайте нет 5000 ссылок с повторяющимися анкорами, и которые ведут на одну страницу. В случае нормальных сайтов, например каталога, или использования шаблона, где ссылки повторяются на каждой странице ресурса, проблем не возникнет, если таких ссылок не много.

Google будет исключать из поиска страницы крупных сайтов без полезного контента

google В очередном видео для вебмастеров Метт Каттс ответил на вопрос пользователя, который состоял в следующем – какие действия предпримет интернет гигант по отношению к страницам крупных, известных сайтов, в том случае, если информация, представленная на них, не обладает полезностью для пользователя? Скажем, это могут быть пустые страницы с отзывами, или страницы псевдо компаний созданные в различных социальных сетях.

По словам Каттса очень непросто создать четкие критерии по ограничению подобных сайтов в выдаче. Если не касаться конкретных примеров, а говорить вообще, то первым делом обращается внимание на добавочную ценность страницы. С этой целью сканируется весь контент на сайте с целью обнаружения дополнительного контента, который может оказаться полезным для пользователя. Этот фактор учитывается во время создания алгоритмов. Бывают случаи, когда в качестве результатов поиска по названию крупного сайта, выдается следующий ответ – «по вашему запросу ничего не найдено». Это – прямое свидетельство отсутствия на сайте полезного контента.

Однако еще в 2009 году в компании столкнулись с крайне негативной оценкой пользователей формулировки «Результатов на странице не найдено». Дело в том, что пользователи не любят тратить время на поиск не приносящий результата, поэтому, задача Google предоставить своим пользователям полезную выдачу, исключив из нее такие страницы.

Мэтт Каттс to раз порекомендовал владельцам сайтов следить за тем, чтобы на их ресурсах не было пустых страниц, поскольку пользователям это не нравится. Согласно «Руководству по качеству поиска Google», поисковая система может исключить из поиска пустые страницы, и такие показатели как размер или известность площадки, не имеют большого значения.

Читать далее…

SEO-шпионаж (Технологии поискового маркетинга)

SEO-анализ Работа оптимизатора не так однообразна, как может показаться на первый взгляд — часто приходится решать нетривиальные задачи: например, шпионить.

Для чего нужен анализ конкурентов

Работая над продвижением сайта, сложно добиться успеха без подробного анализа сайтов конкурентов. Именно они помогают выбрать наиболее выгодную стратегию продвижения, так как задача оптимизатора состоит в том, чтобы обойти всех в SERP, а не просто сделать сайт, отвечающий требованиям поисковика.

Зная слабые места конкурентов, можно сильно сократить бюджет продвижения. Ваш соперник потратил много денег на вывод трех-четырех высокочастотных слов? Нет смысла пытаться его обогнать именно по ним, используйте другие ключевики, которые могут в совокупности дать больший трафик и обойдутся в разы дешевле.

Даже опытные оптимизаторы совершают ошибки. Обнаружив их у конкурентов, можно поучиться на чужом опыте, не допустить их в своем проекте и в итоге обойти сайты соперников. Дело остается за малым — добыть эти «секретные материалы», которые помогут выиграть гонку позиций.

Читать далее…

Поддержка оригинальных текстов и файлов Sitemap в API Яндекс.Вебмастера

775350037 Еще одна хорошая новость от Яндекса.Api Яндекс.Вебмастера отныне поддерживает оригинальные тексты и файлы Sitemap.

API Яндекс.Вебмастера — это программный интерфейс, позволяющий разработчикам создавать приложения с использованием данных из сервиса.

Например, можно дать возможность пользователям получать и редактировать списки своих сайтов или подтверждать права на управление сайтом. Также можно, дать возможность получать статистику его индексирования. В общем, возможности использования API крайне широки.

Читать далее…

© 2007–2024, konyakov.ru