страницы заблокированы в robots, но в индекс попадают

12
Василий Ткачев
На сайте с 19.05.2005
Offline
481
#11
eqw999:
без внутренних ссылок нельзя - пользователи должны переходить на эти страницы

а в чем проблема-то? я и не говорил удалять их :)

Продвигаем естественно ( http://www.inetessentials.ru/ ) и непринужденно. Практический курс по оптимизации ( https://allintop.ru/optimization/ ) - без воды и на основе сайтов студентов. Ежегодная конференция All in Top Conf (https://www.allintopconf.ru/)
E9
На сайте с 02.11.2010
Offline
20
#12
inetessentials:
а в чем проблема-то? я и не говорил удалять их :)

возможно, вопрос будет наивным, но что означает "внутренние ссылки отрубите"?

eqw999 добавил 18.01.2011 в 12:50

Kost:
Начнем с начала.
Вот именно, в чем проблема?

Не вижу проблемы.
Робот страницы не индексирует и ни по каким запросам содержимое страниц не находит, он не знает, что написано на странице.

Проблема только в том, что кол-во страниц в гугл получается в 3 раза больше, чем в яндексе. Когда оптимизатор рассматривает этот сайт для покупки на нем ссылок, то делает вывод, что сайт плохо индексируется яндексом.

Василий Ткачев
На сайте с 19.05.2005
Offline
481
#13
eqw999:
возможно, вопрос будет наивным, но что означает "внутренние ссылки отрубите"?

закрыть их от робота.. для тех, кто в танке, например, ява скриптом

Webliberty
На сайте с 30.10.2010
Offline
141
#14

удаляйте вручную (запрос на удаление страницы в панели инструментов гугла) - я так делал

https://webliberty.ru | Подпись заверена нотариусом ©️
LK
На сайте с 18.01.2011
Offline
1
#15

webliberty прав - запрос на удаление страницы из индекса в вебмастер тулз поможет (придется немного подождать пока изменения отобразятся в выдаче)

nickspring
На сайте с 29.03.2006
Offline
228
#16

Можно попробовать на этих страницах отдавать 404-й HTTP код :)

K
На сайте с 31.01.2001
Offline
737
#17
nickspring:
Можно попробовать на этих страницах отдавать 404-й HTTP код

А робот об этом узнает? Или чтобы проверить код он может временно нарушить запрет в robots.txt ?

Что-то я сомневаюсь.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
nickspring
На сайте с 29.03.2006
Offline
228
#18

Робот в принципе не индексирует 404-е :D

B
На сайте с 13.11.2002
Offline
89
#19

теоретики хехе... :)

если отдавать 404код и запретить в роботсе - то этих страниц будет ещё больше в индексе и они будут учавствовать в серпе с тайтлами (тайтлы в серпе будут состоять из анкоров ссылок на эти самые страницы с 404, запрещённые роботсом)... :)

всё это проверено на ПРАКТИКЕ... :) кто не верит - сам проверит... :)

чтобы избавится от таких страниц нужно или как уже сказали в ВМТ отправлять запросы или запрещать роботсом и отдавать 301 допустим на морду с них... :)

Rudelad
На сайте с 11.06.2009
Offline
45
#20
webliberty:
удаляйте вручную (запрос на удаление страницы в панели инструментов гугла) - я так делал

А если таких страниц 50 тыщ, и все в корне лежат? ))

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий