- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайту около месяца, гугль проиндексировал 44 000 страниц, несколько дней назад заметил снижение общего трафа... смотрю site:url
вроде как к-во страниц о которых знает гугл увеличелось, а в серпе - 90 стрниц:confused:
В чём может быть причина и к чему это может привести?
п.с. - пол года назад наблюдалась похожая ситуация с другим сайтом - 37 000 html файлов, библиотека (пр 5). В один прекрасный день - в серпе только морда и главные страници разделов - 7 стр., хотя было написано мол 37 000 страниц проиндексировано. За это время поставил форум - форум в выдаче есть, страници разделов есть... остального нет ((
Линкаторами не пользуюсь
А контента откуда столько? Сами библиотеку районную цифровали? Если контент заимствованный, то есть неоригинальный - то ничего удивительного... В настоящее время Google довольно эффективно борется с дупликатами...
на момент создания библиотеки - 100% уникальный контент....
сейчас уже могут где то дубли повылазить, так как народ стал "заимствовать"
Тогда как решение, посоветовал бы вам
- просмотреть сайт на предмет страниц содержащих одинаковых контент, но с разными адресами (грубо говоря чтобы не было дубликатов и внутри сайта)
- сделать внутри разделов мини-карты содержимого разделов (то есть проработать над тем, чтобы до самых дальних уголков сайта пауки поисковых систем могли добраться кротчайшим путём)
- добыть на сайт несколько авторитетных ссылок, для такого объхема страниц желательно хотя бы пару PR 5/10
спасибо, учту!
с последним сайтом похожая ситуация - дублей нет но текст очень похож (описалово закачек)