- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день. Есть форум на vbulletin 3. Недавно упал траффик с гугла, я зашел в панель вебмастера и увидел, что как раз с момента падения около 20 тысяч страниц были помечены ошибкой "Доступ к отправленному URL заблокирован в файле robots.txt". В качестве примера приведены профили пользователей, которые действительно запрещены для индексации в роботсе. Прогнал сайт через бесплатный анализ pr-cy и он показал, что из индекса недавно вылетело 3000 страниц (это примерно 25% от все проиндексированных). Не понимаю почему так произошло, роботс последний раз трогал лет 6-7 назад и все было нормально. Почему именно сейчас вылезла такая проблема и как лучше поступить? Открывать для индексации профили, основная масса которых не содержит вообще никакого контента мне видится не самой разумной затеей. Тем более, что страниц с профилями в 2 раза больше, чем проиндексированных страниц с контентом.
Была такая проблема, но Гугл рекомендовал размещать тег noindex для страниц которые вы не хотите индексировать. Видимо, Гугл усек, где большая движуха и проигнорировал robots. У некоторых даже директории admin просканировал.
кто его поймет вообще?
Проиндексировано, несмотря на блокировку в файле robots.txt
те он проиндексировал страницы, а мне выдал предупреждение еще и пальчиком погрозил? что делать то? убирать в robots.txt запрет?
Ребята у человека деиндекс а вы ему про ноиндекс)))
ТС отправил на проверку в веб-мастер ?
ТС отправил на проверку в веб-мастер ?
В панели вебмастера вчера запустил перепроверку, если вы об этом. Сейчас статус проверки "начато". Но надежд, что это что-то изменит не особо много. Роботс я не менял, соответственно ошибки со страниц сняты не будут наверное.
Ну в общем проверка ничего не изменила. Что делать-то? Идиотизм какой-то. Если разрешу к индексации 20 с лишним тысяч страниц без контента - это плохо для сайта?
Значит проблема не в профилях а в тех 3000 вылетевших из индекса
Значит проблема не в профилях а в тех 3000 вылетевших из индекса
Сейчас проверил страницы вернулись обратно в индекс. Не знаю благодаря запущенной проверке или нет. Но количество страниц с ошибкой в панели не изменилось: по прежнему более 20 тысяч.
Ситуация с траффиком пока не изменилась. Он ниже на 10%, чем был раньше. Понаблюдаю.
В общем гугл так и не вернул траффик. Страницы в индекс вернулись, а ошибки так и висят в панели вебмастера.
Ну вот такой вот он ненадежный товарищ
Займитесь ссылочным
Займитесь ссылочным
А можно ссылку на актуальные материалы по ссылочному продвижению? Никогда раньше не занимался, а инфы в интернете тонны.