- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет!
Ребята, очень нужна ваша помощь по возвращению сайта в индекс Яндекса!
Итак, есть сайт по каталогу автозапчастей. Клиент отказался чтобы адрес сайта указывали в теме на форуме, поэтому, к сожалению, могу только высылать адрес в личку - за это сразу прошу прощения :(
В чем дело: Дело в том, что несколько месяцев назад сайт практически полностью вылетел из индекса Яндекса и одновременно был исключен из Яндекс.Каталога (добавлялся на условиях платной регистрации).
На данный момент в индексе Яндекса - 1 страница сайта, в индексе Google - 12000.
Что делалось: ничего не делалось, работы на сайте не проводились в течение последних 6 месяцев.
При запросе в тех.поддержку от Платона пришел следующий ответ:
Приносим извинения за задержку с ответом.
Проанализировав страницы Вашего сайта, наши алгоритмы приняли решение временно ограничить количество его страниц в поиске. Обратите внимание, что не все страницы, известные поиску Яндекса, включены в индекс и ранжируются высоко. На решение алгоритма может оказать влияние наличие страниц, предназначенных для робота-индексатора, а не для чтения пользователями, наличие SEO-ссылок, размещение неуникальной информации и другие факторы.
Наше понимание качественных сайтов отражено в следующих документах:
http://help.yandex.ru/webmaster/?id=995342
http://webmaster.ya.ru/replies.xml?item_no=325&ncrnd=2022
http://webmaster.ya.ru/replies.xml?item_no=3772
http://webmaster.ya.ru/replies.xml?item_no=4967&ncrnd=1743
По Вашему обращению в службу поддержки мы проверили, не было ли допущено каких-либо ошибок в работе наших алгоритмов, и таковых обнаружено не было. Мы считаем, что алгоритмы поступили вполне корректно, ограничив количество страниц Вашего сайта в поиске.
Если Вы будете развивать сайт для пользователей, размещать уникальную и полезную информацию и следовать нашим рекомендациям, то количество страниц Вашего сайта в выдаче должно увеличиться, и он будет ранжироваться выше. Если этого не произойдет, то Вы можете снова написать нам, и мы проверим правильность работы наших алгоритмов.
Обратите внимание, повторная проверка возможна не ранее, чем через месяц.
Собственно основные подозрения, которые сразу появились из этого ответа:
1. Излишняя оптимизация сайта клиентом
2. Продажа клиентом с сайта SEO-ссылок
3. Использование систем Clickunder и Popunder рекламы
4. Неуникальный контент
После общения с клиентом выяснилось, что пункты 1, 2, 3 не применялись, а вот что касается неуникального контента, то он есть.
Т.к. сайт является в некотором роде интернет-магазином, описания "товаров" пересекаются с конкурентами. Кроме того, часто публикуются неуникальные новости о выходе той или иной продукции. И всё это составляет около 90% сайта.
Вопрос: стоит ли искать причину ограничения в индексации именно в неуникальном контенте, либо тут что-то другое?
На данный момент специально прописали в robots.txt к индексации только несколько страниц сайта, чтобы более детально разобраться почему не индексируется сайт Яндексом, но ничего не произошло - в индексе Яндекса спустя месяц по-прежнему 1 страница (должно было быть хотя бы 10-20).
P.S. Большое спасибо всем за ответы, при первом же запросе вышлю сайт в личку.
P.P.S. Ещё раз прошу прощения, что не могу указать адрес сайта сразу - понимаю, что без него толком ничего и не посоветуешь.
Спасибо!
Всем привет!
Вопрос: стоит ли искать причину ограничения в индексации именно в неуникальном контенте, либо тут что-то другое?
1. Излишняя оптимизация сайта клиентом
2. Продажа клиентом с сайта SEO-ссылок
3. Использование систем Clickunder и Popunder рекламы
4. Неуникальный контент
Причина может быть в чем угодно!
Дайте сайт в личку!
С 99% вероятностью могу заявить что вы схлопотали АГС.
ничего не делалось, работы на сайте не проводились в течение последних 6 месяцев.
Одна из причин вылета.
Излишняя оптимизация сайта клиентом
Это могло повлиять только на пессимизм, но никак не на вылет из индекса.
а вот что касается неуникального контента, то он есть.
Т.к. сайт является в некотором роде интернет-магазином, описания "товаров" пересекаются с конкурентами. Кроме того, часто публикуются неуникальные новости о выходе той или иной продукции. И всё это составляет около 90% сайта.
А вот вам и ответ ;)
в индексе Яндекса спустя месяц по-прежнему 1 страница
Если дальше ничего не будете делать то и в дальнейшем эта цифра не увеличится.
Вот вам несколько советов по вытаскиванию сайта из под фильтра:
1. Уникализировать весь контент
2. Перелинковать весь сайт (в том числе и рандомная перелинковка)
3. Закупить трастовых ссылок с крупных интернет магазинов или сайтов схожей тематики
4. Ждать от 6 месяцев до 2 лет.
P.S. по советам прошу не пинать что ничего дельного не сказал, но то что я перечислил - обязательно.
P.S.S не стал говорить про переклейки доменов и т.д.
И ещё вопрос к вам:
был исключен из Яндекс.Каталога (добавлялся на условиях платной регистрации).
Какую причину удаления вам написали?
Уберите все продажные ссылки.
artrush, выслал сайт в личку.
Да их на сайте и нет :)
SateClub, выслал сайт в личку.
Что Вы :) У меня так свыше 10 проектов спокойно висит уже третий год :)
Тогда у меня вопрос в следующем: почему конкуренты по-прежнему в индексе? :) Ведь у них всё практически тоже самое :)
Спасибо за советы, будем принимать к сведению :)
В первый раз когда писали спросили у модераторов о причине исключения, но ответа не последовало. Сейчас написали второй раз - ждем в ближайшее время, что скажут.
SateClub, выслал сайт в личку.
Сайт посмотрел. Приятный внешний вид, но ужасное наполнение. Описание многих товаров у вас максимум в 50 символов, и то не уникальное.
Многие тексты очень уж сильно переоптимизированы, и такое ощущение что сгенерированы на автомате из ключевых слов вордстата.
Разберитесь с роботсом, зачем вы прописали Disallow: /
Все товары у вас дублируются в разделе Новости. В Новостях у вас сответствено должны быть новости о поступлении нового товара в продажу.
Что Вы У меня так свыше 10 проектов спокойно висит уже третий год
Каждый проект отличается чем от другого, нельзя по одному судить все, а так же по всем судить один.
Тогда у меня вопрос в следующем: почему конкуренты по-прежнему в индексе?
Возможно они это делают умнее чем вы ;)
В первый раз когда писали спросили у модераторов о причине исключения, но ответа не последовало. Сейчас написали второй раз - ждем в ближайшее время, что скажут.
Интересно будет узнать. Просто сайт под фильтром не является причиной исключения из ЯКа.
Это я с Вами согласен.
Перед Disallow для Яндекса стоит ряд директив Allow. При текущем robots.txt было предположение исключить из индекса все страницы сайта, кроме более-менее нормальных и посмотреть как будет происходить их индексация. Это было сделано специально, но ничего толком и не принесло :(
Возможно :)
Постараюсь сообщить, спасибо за ответы!
Это я с Вами согласен.
Вот с этого и начните реабилитацию сайта. Всё таки домен старый и по веб архиву видно что с самого начала его жизни он был в этой теме.
Перед Disallow для Яндекса стоит ряд директив Allow. При текущем robots.txt было предположение исключить из индекса все страницы сайта, кроме более-менее нормальных и посмотреть как будет происходить их индексация. Это было сделано специально, но ничего толком и не принесло
Сомнительный способ. Приведите в порядок роботс.
И ещё пару советов:
В гугле то сайт успешно работает, хотя у него всего 3480 страниц в основном индексе. Если чуть доделаете шаблон + перелинковку то смело загоните большое количество страниц в индекс.
Собирайте траф с гугла. В дальнейшем возможно и Яндекс за ним подтянется.