Этой фишке уже 10 лет скоро будет. Поздравляю прозревших :D
Цветные, правда, не везде показывает.
Короче, чтобы вы долго не искали и не дурили друг-друга, пример burunduk уже сработал. И правильный ответ, что анкоры из ссылок с хэшами во второй и дальше одинаковых ссылках учитываются. Только в них должно присутствовать ключевое слово со страницы акцептора :)
inanchor:"нечисть Telegram, звероящур выпустил снег"
богоносец, Эксперты, видимо, не понимают, что хэш не передается по http протоколу :) Плюс, очевидно же, что через 3 дня таки учтется анкор, и сайт будет искаться по первой ссылке, а по хешам и второй нет.
Кстати, если эти запросы в двойных кавычках уже сейчас вводить в поиске по картинкам, то видно, что картинки акцептора уже находит по запросам первой ссылки в коде, и не находит по второй и хэшам :)
Я, кстати, мимоходом расклеил эту страницу на 2, при живом canonical в коде :D
скриншот
Enice,
Сегодня и в консоли Google Webmasters ввели ограничение на 10 ссылок подряд. Еще наблюдаю, но, вроде, через час опять пускает 10 штук добавить.
1. Как добавлять чужие страницы на индексацию в своем Google Webmasters:
http://saney.ru/blog/seo/google-index-fast/
2. На основе предыдущего варианта создается sitemap.xml со ссылками редиректами на чужие сайты. И добавляется в свой google webmasters к какому-то сайту, который не жалко. Можно купить чистый домен или сделать поддомен, и вообще без контента зарядить один этот sitemap.xml.
3. На бесплатном блог-хостинге, который любит google, создаете блог. Или свой блог делаете. Постите переводной или генеренный текст, в который вставляете карты ссылок - по 100-200. Гугл по всем ссылкам проходит в день индексации статьи.
богоносец,
Опять ньюбы набрасывают на вентилятор? 😂
В эксперимент надо добавить варианты с #!/post-1314306 и ?var=12345 в конце :)
Оба варианта будут рассмотрены гуглом как разные страницы, с разными анкорами - пока не склеятся. Так как немногие владельцы сайтов делают защиту от дубликатов страниц с "?var=123", то анкор обои таких ссылок на одной странице может учитываться.
https://developers.google.com/webmasters/ajax-crawling/docs/specification
Все сайты в мире индексируются гуглом со слешом в конце домена. Для особо одаренных, которые будут пытаться расклеить, они написали справку https://webmasters.googleblog.com/2010/04/to-slash-or-not-to-slash.html - в которой написано, что вы не сможете этого сделать, даже, если вы Чак-Норрис :D
А я верчу по-всякому все эти зарубежные исследования и их гуру волшебников, которые рассказывают про влияние на CTR помета тибетских жуков, собранного рано утром белокурыми девственницами. Просто добавляю в title и description спецсимволы ❶❷❸❹❺ - и все исследования катятся в жо.. :) Уже более 10 лет это использую и оно работает :)
Попробуйте уменьшить плотность по этим ключам на странице.
Разве это всплеск? Всплеск это от 0 до 1000. Эта проблема актуальна для новых сайтов, которые вообще не индексируются - за месяц 300 страниц, если ничего не делать. А если на сайте 10 летней давности что-то всплескнулось, то это не чудо, так и должно быть :)
Если это тот сайт, что я видел, то ему без разницы - без дэоптимизации трафика не будет. Он по-ходу, под фильтром серьезным с 2013 года, судя по semrush. Googlebot ходит даже на забаненные сайты, если что )) Если тупо сменить домен, и залить на него тот сайт - будет больше толк :)
Могу спалить целых 2 варианта, которые пока хоть как-то ускоряют индексацию. Все-равно никто не поверит 😂
============
1. В Google Webmasters в настройках сайта выставляете вручную "Ограничить максимальную скорость сканирования Google" на максимум. Когда кликните, вы увидите, на каком уровне он сейчас для гугла автоматически стоит. Через какое-то время (10-30 мин) добавляете какую-то страницу вручную на индексацию. После этого Google начинает индексировать, и что самое главное, добавлять в индекс по 400-500 страниц в сутки (если сайт более-менее нормальный). Ну, это хоть что-то. Также, если сайт на тысячи страниц, то не добавляйте сразу sitemap.xml. Он видит, что страниц тысячи, и вяло индексирует.
Тут я уже рассказывал /ru/forum/comment/14939181
2. Напишите XML-RPC пингатор и пингуйте страницы, которые надо проиндексировать на адрес http://blogsearch.google.com/ping/RPC2. На каждый ping-запрос на сайт приходит googlebot.
Но, тут есть нюанс, он штук 500 страниц добавит в индекс, а потом прекратит. Бот будет заходить, а в индекс не добавлять. Тогда, можно по 100 страниц в день пинговать с разных ip. Но, если уже остановилось добавление в индекс, то все - он не будет больше реагировать.
В таком случае, находите какой-то авторитетный сайт, на котором не закрыты и индексируются редиректы на внешние сайты. Тоесть, по команде site:чужой-домен.com/redirect.php?url=www. видно, что эти редиректы гугл индексирует на том сайте.
Берете, дописываете к редиректу свою страницу и пингуете полный адрес редиректа. Если сайт авторитетный, то ваши страницы сразу залетают в индекс. Но, ограниченное число раз с пингующего ip.
Чередуете такие домены с редиректами и свои ip. Пингуете примерно по 50-100 ссылок с одного ip.
Ну, и наблюдаете результат. Где-то будет, где-то нет. У меня на дорвеях результат есть.
2.1 Как разновидность этого пинга - еще можно пинговать страницы чужих сайтов, которые имеют вот такое http://www.garten-eigenzell.de/link.php?link=vash-domain.com/1/page.html
Также, к обоим методам желательно, чтобы ваш сайт отдавал заголовок Last-Modified: с сегодняшней датой.
Всем удачи. Дерзайте. Потом скажете, помогло или нет :)