- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Господа, подскажите, я в отчаянии. Сайту месяцев 6, а рассказал Google и Яндексу о сайте порядка 3 месяцев назад.
Ранжируется сайт очень плохо, причины не ясны до конца. Установлены canonical, но Яндекс упорно считает эти страницы дублями и удаляет, потом опять возвращает их поиск опираясь на значение canonical. Ссылки начал закупать вечные, пока куплено немного. Статьи и новости, в основном.
Возникла идея (правильная ли ?) попробовать накрутить ПФ, заходить будут живые люди по запросам, но тут встал такой момент: если нас можно найти по НЧ ключевой фразе - "купить баребушек недорого в москве" и люди найдут нас на 5 странице, потом мы плавно поползем на 2 (уже проверил, работает) значит ли это, что мы выводим в топ только этот запрос, а по другим ВЧ - "баребушки купить" мы так и останемся в топ 100500 ? Верна ли мысль, что выводится в топ только сам запрос или сайт с остальными ключами тоже подтянется ? Надеюсь верно изложил мысль.
Господа, подскажите, я в отчаянии. Сайту месяцев 6, а рассказал Google и Яндексу о сайте порядка 3 месяцев назад.
Ранжируется сайт очень плохо, причины не ясны до конца.
Вероятнее всего причины в недостаточно качественном исполнении и слабой оптимизации сайта.
Установлены canonical, но Яндекс упорно считает эти страницы дублями и удаляет, потом опять возвращает их поиск опираясь на значение canonical.
Ну вот, значит есть проблемы с внутренними дублями.
Ссылки начал закупать вечные, пока куплено немного. Статьи и новости, в основном.
Пока до конца не закончите базовую техничку со ссылками не спешите.
Возникла идея (правильная ли ?) попробовать накрутить ПФ, заходить будут живые люди по запросам, но тут встал такой момент: если нас можно найти по НЧ ключевой фразе - "купить баребушек недорого в москве" и люди найдут нас на 5 странице, потом мы плавно поползем на 2 (уже проверил, работает) значит ли это, что мы выводим в топ только этот запрос, а по другим ВЧ - "баребушки купить" мы так и останемся в топ 100500 ? Верна ли мысль, что выводится в топ только сам запрос или сайт с остальными ключами тоже подтянется ? Надеюсь верно изложил мысль.
1. Для начала проведите аудит сайта и исправьте все текущие проблемы, включая те, которые вы наверняка не видите.
2. Рассматривайте работу с ПФ только для запросов, которые есть в TOP10, а для этого надо поднимать в TOP10 низко и микро частотный хвост запросов. Возможно, аккуратно работать с брендовыми трафиком, если он уместен.
Теперь отвечая на ваш вопрос - да, продвижением НЧ запроса в составе которого есть ВЧ запрос также повышают свою видимость, однако в зависимости от конкуренции (и других причин), это процесс может быть выражен не линейно.
Вероятнее всего причины в недостаточно качественном исполнении и слабой оптимизации сайта.
Ну вот, значит есть проблемы с внутренними дублями.
Пока до конца не закончите базовую техничку со ссылками не спешите.
1. Для начала проведите аудит сайта и исправьте все текущие проблемы, включая те, которые вы наверняка не видите.
2. Рассматривайте работу с ПФ только для запросов, которые есть в TOP10, а для этого надо поднимать в TOP10 низко и микро частотный хвост запросов. Возможно, аккуратно работать с брендовыми трафиком, если он уместен.
Теперь отвечая на ваш вопрос - да, продвижением НЧ запроса в составе которого есть ВЧ запрос также повышают свою видимость, однако в зависимости от конкуренции (и других причин), это процесс может быть выражен не линейно.
Спасибо за совет. Могу ли у вас поинтересоваться, есть куча сервисов которые показывают уникальные ссылки на сайт, при проверке моего сайта все сервисы твердят, что ссылок нет, хотя на сайте доноре они висят и проиндексированы, является ли это проблемой ?
Спасибо за совет. Могу ли у вас поинтересоваться, есть куча сервисов которые показывают уникальные ссылки на сайт, при проверке моего сайта все сервисы твердят, что ссылок нет, хотя на сайте доноре они висят и проиндексированы, является ли это проблемой ?
Нет.
Могу ли у вас поинтересоваться, есть куча сервисов которые показывают уникальные ссылки на сайт, при проверке моего сайта все сервисы твердят, что ссылок нет
В данном предложении вы сами себе противоречите.
Но ситуация может быть следующая. Все сторонние сервисы как правило выводят ранее сохранённую информацию и эта информация может быть неактуальной (на момент проверки).
Т.е. если вы физически удалите внешнюю ссылку на свой сайт, то сервис всё равно будет хранить в базе прежнюю информацию о присутствии ссылки, пока это часть информации не будет обновлена. Процесс обновления может занять несколько месяцев.
хотя на сайте доноре они висят и проиндексированы, является ли это проблемой ?
Нет, это не проблема, это специфика работы.
Проверяйте для себя дополнительно актуальность рабочей информации и вопрос снят.
Ранжируется сайт очень плохо, причины не ясны до конца. Установлены canonical, но Яндекс упорно считает эти страницы дублями и удаляет, потом опять возвращает их поиск опираясь на значение canonical.
Удалить все дубли на сайте.
Сanonical не работает, точно так-же как файл роботс, это тоже просто рекомендация.
В данном предложении вы сами себе противоречите.
Но ситуация может быть следующая. Все сторонние сервисы как правило выводят ранее сохранённую информацию и эта информация может быть неактуальной (на момент проверки).
Т.е. если вы физически удалите внешнюю ссылку на свой сайт, то сервис всё равно будет хранить в базе прежнюю информацию о присутствии ссылки, пока это часть информации не будет обновлена. Процесс обновления может занять несколько месяцев.
Нет, это не проблема, это специфика работы.
Проверяйте для себя дополнительно актуальность рабочей информации и вопрос снят.
Спасибо.
Удалить все дубли на сайте.
Сanonical не работает, точно так-же как файл роботс, это тоже просто рекомендация.
Дело в том, что раньше Яндекс удалял мои страницы как дубли, после присвоения Сanonical , проблема с товарными дублями ушла. Но появилась новая: основной каталог Яндекс периодически относит к дублям, почему - не понятно, потом опять возвращает в поиск, это глюк ? Как удалить дубль страницы каталога я не знаю, его физически не могу найти.
Еще есть проблема малоценных страниц, но из индекса выбывают не так часто, как было раньше, бывало и по 100 страниц удалял, потом, опять же, возвращал обратно. С этим как можно бороться ?
Но появилась новая: основной каталог Яндекс периодически относит к дублям, почему - не понятно, потом опять возвращает в поиск, это глюк ? Как удалить дубль страницы каталога я не знаю, его физически не могу найти.
В вебмастере смотри, там можно найти дубли страниц, то что он заносит в индекс, когда выкидывает основную страницу
С малоценными сложнее, слишком много факторов, и технических ошибок, которые могут у тебя быть
Гугли, изучай
В вебмастере смотри, там можно найти дубли страниц, то что он заносит в индекс, когда выкидывает основную страницу
С малоценными сложнее, слишком много факторов, и технических ошибок, которые могут у тебя быть
Гугли, изучай
Изучил. Сайт работает на Битриксе, проблема в том, что присутствуют в дублях такие вещи как: /filter/clear/apply/ и /filter/type/ . Закрыть их от индексации нельзя, они формируют доп страницы, как быть ?
Простым языком, если кто-то воспользовался Умным фильтром, то его значение попадает в дубли. И естественно это является ошибкой - "Одинаковые заголовки и описания страниц". Выглядит это так.
Добавил в robots - disallow: /*?q= Disallow: /*sortby= Disallow: */filter/*.
Надеюсь правильно сделал.