- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Помогите пожалуйста решить вопрос, который никак не дает покоя. Перерыл полинтернета и все никак не определюсь, поэтому отнеситесь пожалуйста снисходительно.
Стоит ли закрывать страницы в robots.txt на DLE.
Если да, объясните пожалуйста почему, если нет - тоже.
Для себя я думаю, что наверное все таки не стоит, так как каким же образом ПС будет индексировать ссылки, ведущие на полные новости, если я буду обязательно закрывать всякие календари и прочие.
Sitemap - пока не в счет, хотелось бы услышать ответ без нее ... ?
у меня на всех страницах с дублями выводится meta noindex - на всех страницах категорий, на страницах навигации /page/ и т.д.
есть две карты сайта - html и xml, с индексацией нет проблем
у меня на всех сайтах закрыты в robots. Нафиг они нужны то, уникального контента все равно нет на них
Ну а как ПС будет индексировать полные новости, если к ним он попросту не дойдет ?
Допустим, что нет карты сайта (гипотетически)
Пожалуйста, ответьте стоит ли все таки запрещать PAGE ? И объясните почему...
И объясните почему...
Большое дублирование страниц внутри сайта - один из факторов АГС.
Ну а как ПС будет индексировать полные новости
Карта сайта в помощь.
P. S. - Архив и теги тоже не лишним будет закрыть.
Большое дублирование страниц внутри сайта - один из факторов АГС.
Карта сайта в помощь.
P. S. - Архив и теги тоже не лишним будет закрыть.
Спасибо, наверное все таки закрою ))
Архив закрыл и через роботс и через <meta name="robots" content="noindex" />
Теги закрыл через роботс только...
Кто бы подсказал, также как теги закрыть через <meta name="robots" content="noindex" />. Ну и пейджи тоже...
Имеется ввиду, где и что нужно изменить в PHP, как было изменено для архивов (DLE 9.3)
Ну а как ПС будет индексировать полные новости, если к ним он попросту не дойдет ?
Допустим, что нет карты сайта (гипотетически)
Не вижу никакой проблемы. Робот пройдется по всем ссылкам, просто не будет включать в индекс запрещенные вами страницы
Могу ошибаться, но в новом движке 9.3 разработчиками реализован редирект с дублей страниц. В админке настраивается. Таким образом проблема дублей не решается ?
Могу ошибаться, но в новом движке 9.3 разработчиками реализован редирект с дублей страниц. В админке настраивается. Таким образом проблема дублей не решается ?
Да верно, дубли страниц я уже давно закрыл.
Могу ошибаться, но в новом движке 9.3 разработчиками реализован редирект с дублей страниц. В админке настраивается. Таким образом проблема дублей не решается ?
Решается:
Т.е раньше можно было забить вместе с id все что угодно в url и новость откроется по этому адресу или переместили новости в другую категорию, а они также были доступны и в старой, и боты спокойно "бегали" везде. Сейчас эту проблему решили на уровне двига, новости открываютя только по заданному адресу, для всего остального редирект. Теперь не нужно заморачиваться с .htaccess и сторонними модулями.
Page, tags, catalog и архивы из другой оперы, достаточно закрыть в роботс или meta noindex поставить, если нужно.
И как заявляет разработчик в v.9.4: