- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Имеется сайт: лаймен - мужской портал. Сайту 1 год.
Достаточно хорошие, стабильные позиции по яндексу сейчас. После 3 месяцев функционирования сайта - позиции сайта по гуглу стали в топ, но потом они начали день за днем уходить, и вот уже через 7 месяцев функционирования все скатилось в попу.
Закупка ссылок немного оживило ситуацию, но позиции застряли в топ 30-40, и по прежнему в них стоят.
Ситуация:
Ситуация с кейвордами и дискрпишеном такая, что они ставятся только на раздел. А каждая статья получает такой титл: "Название статьи - название раздела".
ЧПУ сделать из-за особенностей движка нельзя.
Когда на странице комментарий больше 25, то она замораживается и создается, подстраничка . (например для статьи: http://lieman.ru/articles/rasstavanija/?idnews=221 ). Это выглядит как:
http://lieman.ru/articles/rasstavanija?page=4&idnews=221
Все это особенности движка. Насколько сильно это влияет на ранжирование, и какие еще косяки есть?
Что мешает сменить двиг?
Вижу "название статьи - название сайта", что не смертельно. По Гуглу это надо изучать, возможно ссылочное в минус пошло, возможно аура. А вот <h2>Похожие статьи</h2> и <h1>Статьи (Публикации)</h1> это в любом случае плохо и это то что сразу в коде режет глаз.
Добрый день.
Имеется сайт: лаймен - мужской портал. Сайту 1 год.
Достаточно хорошие, стабильные позиции по яндексу сейчас. После 3 месяцев функционирования сайта - позиции сайта по гуглу стали в топ, но потом они начали день за днем уходить, и вот уже через 7 месяцев функционирования все скатилось в попу.
Закупка ссылок немного оживило ситуацию, но позиции застряли в топ 30-40, и по прежнему в них стоят.
Ситуация:
Ситуация с кейвордами и дискрпишеном такая, что они ставятся только на раздел. А каждая статья получает такой титл: "Название статьи - название раздела".
ЧПУ сделать из-за особенностей движка нельзя.
Когда на странице комментарий больше 25, то она замораживается и создается, подстраничка . (например для статьи: http://lieman.ru/articles/rasstavanija/?idnews=221 ). Это выглядит как:
http://lieman.ru/articles/rasstavanija?page=4&idnews=221
Все это особенности движка. Насколько сильно это влияет на ранжирование, и какие еще косяки есть?
Есть смысл проверить на дубли и на уникальность контент. По симптомам - панда.
А если закрывать дубли от гугла- то это исключать урлы в самом гугле (через вебмастер) или пилить в роботе? Как лучше это сделать?
Вы, кстати, не сказали о наличии ручных фильтров на сайт. Может есть смысл сначала их проверить?
Ручных нет. Проверял.
Ручных нет. Проверял.
на обоих зеркалах с ввв и без смотрели?
А если закрывать дубли от гугла- то это исключать урлы в самом гугле (через вебмастер) или пилить в роботе? Как лучше это сделать?
Закрывать в роботах не правильно. Дубль не исчезает при этом.
Варианты для дублей, выбирайте:
1. 301 на "правильную" страницу
Хорошо для передачи веса, особенно если были внешние ссылки на дубль. Сработает через 2-4 недели.
2. отдавать 404 или 410
Вес теряется, т.к. не передается как в п.1
410 - срабатывает в гугле быстрее чем 404... Сработает как только гуглобот пройдет по всем страницам-дублям.
3. Внутри тег robots=noindex и canonical на оригинальную страницу
Вес не передается, страница выбрасывается из индекса. Сработает как только гуглобот пройдет по всем страницам-дублям.
Закрывать в роботах не правильно. Дубль не исчезает при этом.
Это почему? Может руки кривые? 😂
Это почему? Может руки кривые? 😂
Тут на форуме все или экстрасенсы и/или врачи, диагноз ставят с лету...
Закрыть в роботах - поставить запрет гуглу на индексацию страницы УЖЕ им проиндексированной, а не на выбросить ее из индекса.
Или предлагаете, чтоб у него в "голове" она продолжала "висеть" в виде дубля, пока он через 4-8 месяцев про нее не забудет? Ну, можно и так. Только я так понимаю ТС хочет все сделать гораздо быстрее...