Если свои страницы надо добавлять, то самый лучший вариант - это сделать sitemap.xml и добавить в Google Webmasters. Проиндексирует тысячи страниц за неделю.
Вес передаваться не будет, так как страница не будет участвовать в графе ссылок. А вот по самим ссылкам может запросто пройти, чтобы их проиндексировать.
Можно сделать другое - <meta name='robots' content='noarchive'>. Тогда, не будет ссылки "cache" в сниппете. А по команде cache: будет показывать, что вашей страницы нет в индексе - но, она будет все-равно искаться, как обычно. Никто из любопытных не сможет посмотреть, какой на самом деле у вас кэш страницы. Гугл, естественно, будет знать какой, а пользователи нет :)
Все жду прихлопа с 2008 года. Мож, хоть теперь прихлопнут, раз такие люди беспокоятся 😂
Могу сделать, чтобы не заменяло. Кэш обновится, проверишь :) Там надо букву вплотную поставить перед ❺ вместо пробелов - и оно не будет на ➄ заменять.
Отображение зависит от символа, регионального домена гугла, твоего браузера и операционки, title или description. Все работает на винде и под Firefox в google.com. При других условиях что-то начинает отпадать и не показываться, как надо.
Кстати, поиск по символу работал всегда. Не знаю, что ты заметил. Я год назад последний раз проверял - искало и тогда многие символы.
Если сайт удален из индекса инстументом удаления, то и возвращать его надо им же. Там же написано, что после этого сайт в течение 3 месяцев не сможет появиться в идексе.
Если сайт долго был закрыт в robots.txt, то да, есть такой прикол, что он долго не будет индексироваться. В этом случае, надо в инструменте тестирования robots.txt нажать кнопку обновить robots.txt. И потом, добавить сайт в индекс с помощью "Добавить урл" .
Но, у вас скорее первый случай. Я надеюсь контент не копипаст? :)
Дык внешние ссылки можно заставить проиндексировать со своего Google Webmasters, если шо 😮
Если обратных ссылок нет в Webmasters или они есть, то это ни о чем не говорит. У меня есть сайты, где в Webmasters-обратках свои же доноры, которые уже с год как expired, и я никак их не могу убрать.
Google теперь не хуже индексирует, а в разы лучше. И ссылки учитываются практически сразу, если вообще учитываются. Также, большой плюс дается связке [авторитетный сайт] + [уникальный текст]. Новые статьи стают в топ10 практически без ссылок при большом к-ве конкурентов. Как именно, трудно объяснить.
Мда, знания SEO-шниками матчасти удручают.
Проверьте тупо кусок <title> этой страницы и спите спокойно, все ранжирует.
"title и description, оф.инфа - Страница 3" - 1 результат
"title и description, оф.инфа" - 4 результата
Спасибо за совет, буду продолжать и дальше так делать 🤪
Я давно заганяю чужие страницы через свой Google Webmasters :)
Если страница не запрещена к индексации и там в порядке с контентом - то должно помочь.
http://saney.ru/blog/seo/google-index-fast/
Надо в Google Webmasters запросить удаление папки и запретить ее в robots.txt.
Через полдня эти 100к страниц сдует из индекса.
Ага, не с того сайта скопировал, конечно.