Яндекс исключил из поиска сайт, что делать? :(

123 4
TaediumVitae
На сайте с 22.09.2011
Offline
41
#11
XAnTY:
нужно клеить с основной статьёй 301-м редиректом

Мммм, простите, что клеить? Теги? К чему?

Дыры там нет, там есть пустой роботс.

A4
На сайте с 10.12.2011
Offline
99
#12
TaediumVitae:
Мммм, простите, что клеить? Теги? К чему?
Дыры там нет, там есть пустой роботс.

Вот я тоже так думаю, никакого редиректа мне не нужно, ибо там все правильно расположено, то что это не нравится яше, закрыть в роботсе.

Да роботс пустой. А как закрыть страницы эти, можете в двух словах объяснить? Или надо мануалы там всякие изучать...?

Спасибо за вашу помощь, уже получше себя чувствую)) Не все потеряно да?

Кто не рискует - тот не обламывается.
XAnTY
На сайте с 14.11.2012
Offline
7
#13
TaediumVitae:
Мммм, простите, что клеить? Теги? К чему?
Дыры там нет, там есть пустой роботс.

Клеить дубль контента с оригиналом, теги могут выводится корректно без генерации URL на уже существующую публикацию, если происходит генерация URL то значит CMS работает с ошибкой, либо настроена с ошибкой.

Роботс лишь указывает роботу что не нужно индексировать, страницу контактов, профили пользователей и.т.д.

Можно конечно в роботс сейчас запретить индексить страницу тегов, но дубли то уже есть и их надо куда-то девать...

Зарабатываю [ тут ] (http://www.partner.referals.info/) 500$ в мес. пассивно. Конкурент google adsense и яндекс директ - новая рекламная сеть ВКонтакте (http://vk.referals.info/) Получил в репу? - дай здачи!
TaediumVitae
На сайте с 22.09.2011
Offline
41
#14

Akeli4, погуглите "robots.txt для wordpress"

A4
На сайте с 10.12.2011
Offline
99
#15
XAnTY:
Клеить дубль контента с оригиналом, теги могут выводится корректно без генерации URL на уже существующую публикацию, если происходит генерация URL то значит CMS работает с ошибкой, либо настроена с ошибкой.

Роботс лишь указывает роботу что не нужно индексировать, страницу контактов, профили пользователей и.т.д.

Можно конечно в роботс сейчас запретить индексить страницу тегов, но дубли то уже есть и их надо куда-то девать...

Ничего не понятно про урлы и генерацию. Мне нужно что бы яндекс определял страницы с тегами типа "исторические игры", Экшен игры и т.д. Там полюбому будут дубли. Это же тэги, я не понимаю, как же на других сайтах все работает.

XAnTY
На сайте с 14.11.2012
Offline
7
#16
Akeli4:
Ничего не понятно про урлы и генерацию. Мне нужно что бы яндекс определял страницы с тегами типа "исторические игры", Экшен игры и т.д. Там полюбому будут дубли. Это же тэги, я не понимаю, как же на других сайтах все работает.

Объясняю:

Есть оригинал статьи, он имеет URL site*ru/article-1.html

а есть тег например "бюстгалтеры" с неверным URL на странице тегов, т.е. эта же статья только вот URL уже другой site*ru/bustgalters/article-1.html

должно быть если тыкаем на тег:

попадаем на site*ru/tags/тут список страниц с оригинальными URL без подстановки тега например:

site*ru/article-1.html

site*ru/article-2.html

site*ru/article-3.html

т.е. для яши site*ru/article-1.html и site*ru/bustgalters/article-1.html разные адреса, и если на них одинаковый контент, то это выходит что дубль...

---------- Добавлено 28.01.2013 в 18:51 ----------

пример робост с сайта на ДЛЕ, разделы которые не должны попасть в поиск исключены (запрещены) к сканированию роботом

User-agent: *

Disallow: /engine/go.php

Disallow: /engine/download.php

Disallow: /user/

Disallow: /newposts/

Disallow: /statistics.html

Disallow: /*subaction=userinfo

Disallow: /*subaction=newposts

Disallow: /*do=lastcomments

Disallow: /*do=feedback

Disallow: /*do=register

Disallow: /*do=lostpassword

Disallow: /*do=addnews

Disallow: /*do=stats

Disallow: /*do=pm

Host: www.site.ru --- тут основное зеркало сайта

Sitemap: http://www.site.ru/sitemap.xml ---- тут указываем карту сайта для робота

A4
На сайте с 10.12.2011
Offline
99
#17
XAnTY:
Объясняю:

Есть оригинал статьи, он имеет URL site*ru/article-1.html

а есть тег например "бюстгалтеры" с неверным URL на странице тегов, т.е. эта же статья только вот URL уже другой site*ru/bustgalters/article-1.html

должно быть если тыкаем на тег:

попадаем на site*ru/tags/тут список страниц с оригинальными URL без подстановки тега например:
site*ru/article-1.html
site*ru/article-2.html
site*ru/article-3.html


т.е. для яши site*ru/article-1.html и site*ru/bustgalters/article-1.html разные адреса, и если на них одинаковый контент, то это выходит что дубль...

Все равно не совсем понял... вы уж извините.

Вот например :

http://gamegam.ru/tag/kosmicheskie-onlajn-igry

http://gamegam.ru/tag/ekshen-onlajn-igry

Там у меня будет одна и таже игра ( с одиноковым описанием ), и если я уберу "/tag/" , все равно останется дубль, ведь так?

XAnTY
На сайте с 14.11.2012
Offline
7
#18
Akeli4:
Все равно не совсем понял... вы уж извините.

Вот например :

http://gamegam.ru/tag/kosmicheskie-onlajn-igry
http://gamegam.ru/tag/ekshen-onlajn-igry

Там у меня будет одна и таже игра ( с одиноковым описанием ), и если я уберу "/tag/" , все равно останется дубль, ведь так?

Извините, я затрудняюсь вам ответить так что бы вам стало понятно.

могу лишь сказать что одна еденица контента (статья) должна быть доступна хотя бы только для индексации по одному адресу.

В Вашем случае, я думаю что да, необходимо запретить индексацию страницы с тегами.либо вообще убрать их т.к. смысла в них не вижу.

Намного эффективнее и лучше сделать sitemap.xml

TaediumVitae
На сайте с 22.09.2011
Offline
41
#19

XAnTY, Чего? %)

Akeli4, Смысл в другом. У вас на странице http://gamegam.ru/tag/kosmicheskie-onlajn-igry находятся вырезки из текста, фигурирующего на страницах отдельных записей. И это не очень хорошо.

A4
На сайте с 10.12.2011
Offline
99
#20
XAnTY:



пример робост с сайта на ДЛЕ, разделы которые не должны попасть в поиск исключены (запрещены) к сканированию роботом

User-agent: *
Disallow: /engine/go.php
Disallow: /engine/download.php
Disallow: /user/
Disallow: /newposts/
Disallow: /statistics.html
Disallow: /*subaction=userinfo
Disallow: /*subaction=newposts
Disallow: /*do=lastcomments
Disallow: /*do=feedback
Disallow: /*do=register
Disallow: /*do=lostpassword
Disallow: /*do=addnews
Disallow: /*do=stats
Disallow: /*do=pm

Host: www.site.ru --- тут основное зеркало сайта
Sitemap: http://www.site.ru/sitemap.xml ---- тут указываем карту сайта для робота

Да но мне нужно, что бы страницы с тэгами были в поиске... как же быть(

p.s. мне кажется я все равно не до конца понимаю что вы мне хотите сказать.

Нельзя ли конкретно, что мне поможет? Что сделать надо?

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий