Проблема в том, что на сайте порядком 3-х миллионов страниц с контентом. Сделать нормальную перелинковку этого всего добра нереально. Люди легко находят то, что им надо через поиск или с помощью различных фильтров, но для гугла картина выглядит очень печально, т.к. пока он еле еле достал 200к страниц и то это походу те, которые лежали на поверхности. Такое ощущение, что страницы, которые закрыты роботсом он просто не посещает и по ссылкам с них не переходит дальше, а кушает только то, что появляется на поверхности.
По этому и такой вопрос про передачу веса страницы и краулит ли гугл страницы, на которые идут ссылки с закрытых роботсом страниц.
Я поставил конкретный вопрос в первом сообщении, причем тут самопис или нет.
То, что они не будут индексироваться - ежу понятно, а будет ли их вес передаваться?
Самопис полный с нуля.
😂 это я написал дословный перевод с статей с забугорных сайтов, надо было в кавычки взять наверное. Имеется ввиду во первых pagerank во вторых вес страницы, её влиянее на другие страницы. Ну и у меня подозрение, что если страница закрыта robots.txt, то ссылки на ней гугл не видит и по ним не идет, может и не прав, по этому создал эту тему.
Спасибо, интересная информация, отличная от многих других статей.
Хоть бы ссылкой подкрепили своё сообщение. Я повторюсь - информации много, но она разницся от статьи к статье. Я же хочу услышать больше конркретики и специфики.
Я так же сделал в начале, но после прочтения некоторых статей и посмотрев, как плохо гугл индексирует, сайт задумался над правильностью решения.
Эм, второй пункт это вы на что ответили?
Немного подкорректировал первый пост, убрал повторяющиеся вопросы, сформулированные по-разному.
Сотрудничал. Купил домен. Всё пучком.
С помощью ТС оплатил счет на 3500 евро, всё ровно. Спасибо.
Делал лого. Хорошо справился.
Есть палка, обращайтесь.
Стукните в аську, мелочь оплачу.