- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток участникам этого форума.
Вопрос непосредственно к знатокам CMS DLE. Общие моменты о том, как скрыть от поисковиков множество дублей, я уже знаю. Хотелось бы узнать, насколько резонно использовать в данном случае файлик .htaccess, находящийся в корне сайта?
Как я понял, в нем собственно и хранятся те самый дубли. Можно ли банально поудалять, например, вот такие вещи:
Здесь упоминается о тегах, индексацию которых я бы хотел прекратить.
Заранее спасибо за помощь, надеюсь, что кто-то откликнется.
P.S. Тапками не бить, о проблеме прочитал достаточно много материала. Хочется узнать, насколько негативно скажется подобное на будущей индексации.
А не проще все ненужное закрыть в robots ?
в 9,3 page/1/ нету
А не проще все ненужное закрыть в robots ?
Cогласен на все 100% Зачем что то выдумыать?
А не проще все ненужное закрыть в robots ?
У меня был следующий диалог с Googlebot:
"http://mysite.ru/2011/ Заблокировано по строке 6: Disallow: /2011/
Распознается в качестве каталога; у некоторых файлов могут быть другие ограничения"
Насколько я понимаю, это означает, что в /2011/ еще непосредственно лежат подкаталоги, которые гугл может и видеть? Был бы очень признателен, если бы кто-то разъяснил этот момент.
в 9,3 page/1/ нету
К слову, в 9,3 есть /page/2/, /2011/, /tags/, которые и создают ненужные дубли страниц, уже находящиеся в индексе. Т.е. я одновременно преследую еще и цель как можно более скорейшего их удаления из индекса. Возможно, если удалить нужные записи в .htaccess, страницы, на которых располагались дубли, будут выдавать такое: "По данному адресу публикаций на сайте не найдено, либо у вас нет доступа для просмотра информации по данному адресу." и быстрее выпадут из индекса? Например, мне теги абсолютно не сдались. Даже лучше будет без них :)
Если вы пропишете Disallow: /2011/ - то как я понимаю каталог и подкаталоги - будут запрещены к индексации.
Ну если не помогает, сделайте специально под google бот ещё один запрет - хотя наверно смысла нет.
Спасибо всем отписавшимся.