- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
нужно клеить с основной статьёй 301-м редиректом
Мммм, простите, что клеить? Теги? К чему?
Дыры там нет, там есть пустой роботс.
Мммм, простите, что клеить? Теги? К чему?
Дыры там нет, там есть пустой роботс.
Вот я тоже так думаю, никакого редиректа мне не нужно, ибо там все правильно расположено, то что это не нравится яше, закрыть в роботсе.
Да роботс пустой. А как закрыть страницы эти, можете в двух словах объяснить? Или надо мануалы там всякие изучать...?
Спасибо за вашу помощь, уже получше себя чувствую)) Не все потеряно да?
Мммм, простите, что клеить? Теги? К чему?
Дыры там нет, там есть пустой роботс.
Клеить дубль контента с оригиналом, теги могут выводится корректно без генерации URL на уже существующую публикацию, если происходит генерация URL то значит CMS работает с ошибкой, либо настроена с ошибкой.
Роботс лишь указывает роботу что не нужно индексировать, страницу контактов, профили пользователей и.т.д.
Можно конечно в роботс сейчас запретить индексить страницу тегов, но дубли то уже есть и их надо куда-то девать...
Akeli4, погуглите "robots.txt для wordpress"
Клеить дубль контента с оригиналом, теги могут выводится корректно без генерации URL на уже существующую публикацию, если происходит генерация URL то значит CMS работает с ошибкой, либо настроена с ошибкой.
Роботс лишь указывает роботу что не нужно индексировать, страницу контактов, профили пользователей и.т.д.
Можно конечно в роботс сейчас запретить индексить страницу тегов, но дубли то уже есть и их надо куда-то девать...
Ничего не понятно про урлы и генерацию. Мне нужно что бы яндекс определял страницы с тегами типа "исторические игры", Экшен игры и т.д. Там полюбому будут дубли. Это же тэги, я не понимаю, как же на других сайтах все работает.
Ничего не понятно про урлы и генерацию. Мне нужно что бы яндекс определял страницы с тегами типа "исторические игры", Экшен игры и т.д. Там полюбому будут дубли. Это же тэги, я не понимаю, как же на других сайтах все работает.
Объясняю:
Есть оригинал статьи, он имеет URL site*ru/article-1.html
а есть тег например "бюстгалтеры" с неверным URL на странице тегов, т.е. эта же статья только вот URL уже другой site*ru/bustgalters/article-1.html
должно быть если тыкаем на тег:
попадаем на site*ru/tags/тут список страниц с оригинальными URL без подстановки тега например:
site*ru/article-1.html
site*ru/article-2.html
site*ru/article-3.html
т.е. для яши site*ru/article-1.html и site*ru/bustgalters/article-1.html разные адреса, и если на них одинаковый контент, то это выходит что дубль...
---------- Добавлено 28.01.2013 в 18:51 ----------
пример робост с сайта на ДЛЕ, разделы которые не должны попасть в поиск исключены (запрещены) к сканированию роботом
User-agent: *
Disallow: /engine/go.php
Disallow: /engine/download.php
Disallow: /user/
Disallow: /newposts/
Disallow: /statistics.html
Disallow: /*subaction=userinfo
Disallow: /*subaction=newposts
Disallow: /*do=lastcomments
Disallow: /*do=feedback
Disallow: /*do=register
Disallow: /*do=lostpassword
Disallow: /*do=addnews
Disallow: /*do=stats
Disallow: /*do=pm
Host: www.site.ru --- тут основное зеркало сайта
Sitemap: http://www.site.ru/sitemap.xml ---- тут указываем карту сайта для робота
Объясняю:
Есть оригинал статьи, он имеет URL site*ru/article-1.html
а есть тег например "бюстгалтеры" с неверным URL на странице тегов, т.е. эта же статья только вот URL уже другой site*ru/bustgalters/article-1.html
должно быть если тыкаем на тег:
попадаем на site*ru/tags/тут список страниц с оригинальными URL без подстановки тега например:
site*ru/article-1.html
site*ru/article-2.html
site*ru/article-3.html
т.е. для яши site*ru/article-1.html и site*ru/bustgalters/article-1.html разные адреса, и если на них одинаковый контент, то это выходит что дубль...
Все равно не совсем понял... вы уж извините.
Вот например :
http://gamegam.ru/tag/kosmicheskie-onlajn-igry
http://gamegam.ru/tag/ekshen-onlajn-igry
Там у меня будет одна и таже игра ( с одиноковым описанием ), и если я уберу "/tag/" , все равно останется дубль, ведь так?
Все равно не совсем понял... вы уж извините.
Вот например :
http://gamegam.ru/tag/kosmicheskie-onlajn-igry
http://gamegam.ru/tag/ekshen-onlajn-igry
Там у меня будет одна и таже игра ( с одиноковым описанием ), и если я уберу "/tag/" , все равно останется дубль, ведь так?
Извините, я затрудняюсь вам ответить так что бы вам стало понятно.
могу лишь сказать что одна еденица контента (статья) должна быть доступна хотя бы только для индексации по одному адресу.
В Вашем случае, я думаю что да, необходимо запретить индексацию страницы с тегами.либо вообще убрать их т.к. смысла в них не вижу.
Намного эффективнее и лучше сделать sitemap.xml
XAnTY, Чего? %)
Akeli4, Смысл в другом. У вас на странице http://gamegam.ru/tag/kosmicheskie-onlajn-igry находятся вырезки из текста, фигурирующего на страницах отдельных записей. И это не очень хорошо.
пример робост с сайта на ДЛЕ, разделы которые не должны попасть в поиск исключены (запрещены) к сканированию роботом
User-agent: *
Disallow: /engine/go.php
Disallow: /engine/download.php
Disallow: /user/
Disallow: /newposts/
Disallow: /statistics.html
Disallow: /*subaction=userinfo
Disallow: /*subaction=newposts
Disallow: /*do=lastcomments
Disallow: /*do=feedback
Disallow: /*do=register
Disallow: /*do=lostpassword
Disallow: /*do=addnews
Disallow: /*do=stats
Disallow: /*do=pm
Host: www.site.ru --- тут основное зеркало сайта
Sitemap: http://www.site.ru/sitemap.xml ---- тут указываем карту сайта для робота
Да но мне нужно, что бы страницы с тэгами были в поиске... как же быть(
p.s. мне кажется я все равно не до конца понимаю что вы мне хотите сказать.
Нельзя ли конкретно, что мне поможет? Что сделать надо?