- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый вечер.
Есть сайт - 45000 страниц, в индексе 5000 страниц (роботом закрыто всего 3 страницы от индексации). То-есть яша 40000 страниц выкинул как дубли. Большинство из них (99%) это страницы каталога, который выглядит мягко говоря не айс, уникальных описаний нету. Да и видок - как будто базу данных листаешь.
По каталогу двигать ничего не планируется.
Внимание вопрос - самый верный вариант - закрыть весь каталог к чертям от индексации в robots.txt ?
Некоторые запросы в топе по морде на данный момент - такое сокращение страниц в индексе может как-то повлиять на позиции, или на "борьбу" с конкурентами ?
PS Если закрыть каталог - останется стрнаничек 50 всего.
PSS. Сайт уже довольно давно в таком положении, но как-то стремно, что схватит в один момент за такое количество дублей.
Не понятно, какую цель преследует автор.
Цель закрыть все дубли от индексации.
А каталог там по сути и есть - один большой дубль.
wnt добавил 20.04.2011 в 10:53
Или вообще этого не стоит делать, и оставить все как есть ?
wnt добавил 20.04.2011 в 15:28
Ну так господа - будут мнения, повлияет ли это на позиции в целом ?
Если от 5000 страниц в индексе останется штук 50 ?
Или не трогать и пусть будет все как есть ?
Не понятно, какую цель преследует автор.
А что не ясного-то ???
Есть сайт, много дублей в каталоге, яша сам их режет. Чтобы не получить в один день за дубли санкции - закрыть их от индексации в роботс, как решение данной проблемы - нормальное ?
Но если у сайта в индексе останется штук 80 страниц, от былых 5000, не скажется ли это на позициях ?
А что не ясного-то ???
Есть сайт, много дублей в каталоге, яша сам их режет. Чтобы не получить в один день за дубли санкции - закрыть их от индексации в роботс, как решение данной проблемы - нормальное ?
Но если у сайта в индексе останется штук 80 страниц, от былых 5000, не скажется ли это на позициях ?
Мужик, вот и я порой не понимаю этих умников)
Короче, на позиции повлияет, в robots.txt убирать нужно.
Все равно непонятно, какую цель преследует автор.