Предложения яндексу по дублям

12
[Удален]
1037

Много, ну очень много разговор ходит по дублям, как от пользователей так и самим яндексом.

Дак вот предложения Яндексу:

Сделать такую же фиче как по уникальности контента, сделать так что бы вебмастера могли загружать только те страницы какие они хотели бы видеть в поиске.

Ну вот допустим я загрузил карту сайта в ЯВ у меня там одни урлы на статьи, а яндекс индексирует все.

А вот допустим я зашел бы ЯВ и ввел свои адреса которые хотел бы я увидеть в поиске и яндекс только бы их в поиск выводил, не, ну конечно если яндексу мои урлы с контентом не нравятся он бы их мог удалять по своим алгоритмам, но за то не индексировал бы всякие дубли и всякую хрень.

Как вам моя идея? просьба отписаться по теме

Kitlink
На сайте с 14.11.2006
Offline
54
#1

А если это "ненужное" закрыть в ноиндекс? Тогда на сколько я понимаю Яндекс не будет это кушать...

Большая нагрузка на вебмастера, хорошо когда у вас 100 страниц, но когда их 100.000, то это может стать проблемой... да и вообще ни к чему, есть же уже инструмент для того, чтобы сказать "это ешь, а это не трожь" :)

П.С. иль в robots.txt прописать чего нужно, а чего нет...

murvuz
На сайте с 14.06.2007
Offline
191
#2

А если на сайте 100К страниц? ;)

Проще за пару минут в роботсе закрыть директории (типо архивов, тегов... или по маске).

" А не спеть ли нам песню? О любвииии..."
A2
На сайте с 17.11.2009
Offline
52
#3
jungledrums:
Много, ну очень много разговор ходит по дублям, как от пользователей так и самим яндексом.

Дак вот предложения Яндексу:

Сделать такую же фиче как по уникальности контента, сделать так что бы вебмастера могли загружать только те страницы какие они хотели бы видеть в поиске.

Ну вот допустим я загрузил карту сайта в ЯВ у меня там одни урлы на статьи, а яндекс индексирует все.
А вот допустим я зашел бы ЯВ и ввел свои адреса которые хотел бы я увидеть в поиске и яндекс только бы их в поиск выводил, не, ну конечно если яндексу мои урлы с контентом не нравятся он бы их мог удалять по своим алгоритмам, но за то не индексировал бы всякие дубли и всякую хрень.

Как вам моя идея? просьба отписаться по теме

а что robots.txt отменили?

Какой смысл делать такой сервис если есть robots.txt? В котором можно запретить ненужные страницы.

basilic
На сайте с 16.05.2008
Offline
369
#4

Для того чтобы закрыть ненужное нужно использовать роботс.

dimarrik
На сайте с 05.05.2007
Offline
185
#5
murvuz:
А если на сайте 100К страниц? ;)
Проще за пару минут в роботсе закрыть директории (типо архивов, тегов... или по маске).

Ага..А еще када контен обновляется не 1 раз в месяц, а каждую минуту, еще и пачкой..

basilic
На сайте с 16.05.2008
Offline
369
#6

asmakovec2, basilic, dimarrik снайперы, блин)) 00:24

[Удален]
#7

dimarrik, а что обновлять роботс скриптом очень сложно? :)

dimarrik
На сайте с 05.05.2007
Offline
185
#8

basilic, мистика😂

burunduk так разговор шел вроде как о карте сайта, хотя и ее можно обновлять, но зачем такой гемор..а про роботс я вроде ниче не говорил)

Не так меня поняли...Я как бы поддержал murvuz

[Удален]
#9

Причем тут роботс, даже если я закрою в роботсе, а яндекс все равно найдет что то левое чтобы проиндексировать. А если я не особо знаком с той или иной CMS ? то мне лучше урлы прописать в ЯВ и все было бы норм

A2
На сайте с 17.11.2009
Offline
52
#10
dimarrik:
basilic, мистика😂

burunduk так разговор шел вроде как о карте сайта, хотя и ее можно обновлять, но зачем такой гемор..а про роботс я вроде ниче не говорил)

Не так меня поняли...Я как бы поддержал murvuz

та ну и пусть эти страницы будут в карте сайта. Их же всё равно не будет робот индексировать если закрыть в роботсе.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий