Saney

Рейтинг
173
Регистрация
25.12.2003
Интересы
Affiliate Marketing
Арамис:

Ушёл из дорвеев насовсем - железно!

Слабак 😂

У меня есть редиректы на своих доменах, которые ссылаются на чужой сайт, а по низкочастотному запросу мои редиректы в топе вместо того сайта :) Автор все правильно заметил. Есть такое. Если вы чего-то не видели - это не означает, что этого нет :)

Можно еще в Google таблицах в ячейке прописать формулу

=IMPORTXML("http://domain.com/sitemap.xml","//*[local-name() ='url']/*[local-name() ='loc']")

На каждую страницу сайта надо поставить внешние ссылки и будет индекс :)

Ну какой twitter? :) Как вы собираетесь им загонять от 10к страниц? Плюс, через время такие страницы выпадут из индекса и больше гуглбот по ним никогда не пройдет. Внешние ссылки и только ссылки. По ним бот будет постоянно ходить и держать страницы в индексе.

Сейчас спалю еще один вариант, у кого голова есть, должен понять:

1. Берете ненужный домен/поддомен, который не жалко - даже новый.

2. Заливаете на него скрипт редиректа, который по входящему параметру редиректит на другой сайт 301 ( /redirect.php?url=www.targetdomain.com ).

3. Делаете 1 страницу текста на морду сайта, чтобы сразу не попал под фильтр какой-то.

4. Делаете sitemap файл в txt формате в таком виде:

4. Добавляете этот сайт в google webmasters.

5. Добавляете sitemap.txt на индексацию.

Готово, googlebot начал работать.

Дополнительно можно на морде этого сайта еще сделать и html ссылки на эти редиректы. Или еще добавить текстовых страниц и с них по 100 html ссылок поставить.

<a href="http://mydomain.com/redirect.php?url=www.targetdomain.com/page1.html">Keyword</a>

Из нюансов... sitemap.txt карты лучше делать не более 1000 ссылок. Лучше новый поддомен/домен взять и дальше другую пачку туда зарядить. Гугл сразу жадно индексирует, потом замедляется.

Google будет индексировать нормально. Гораздо хуже ситуация, когда висячая страница есть в sitemap.xml, но, ее нет в графе ссылок. Со временем такая страница выпадет из индекса. Для гугла важны ссылки.

timelessness, И где я не прав? :) Я же написал "ПФ внутри сайта". Не вводите людей в заблуждение. Патент 2006 года про клики по ссылкам в выдаче и время возврата к выдаче после клика. Эти факторы работают, клики можно накручивать. А внутри сайта никакие дебаты, пляски, надписи на заборе или moz, показатель отказов, клики по меню, лайки, движения мышкой и прочая ересь не могут изменить реальность :)

Секта свидетелей ПФ внутри сайта уже становится агрессивной :)

https://www.webpronews.com/matt-cutts-google-doesnt-use-bounce-rate/

https://www.youtube.com/watch?v=CgBw9tbAQhU

Максимум, что учитывается - это клики из выдачи, тоесть CTR сниппета. И вернулся или нет юзер в выдачу. Дорвеи с моментальным редиректом, простым клоакингом по ip google бота спокойно можно встретить по низкочастотке. По вашей мифологии у них должен быть показатель отказов 100% и время нахождение на сайте 0 секунд - а они живут годами, проклятые, доколе :)

По-идеи, для уменьшения нагрузки при SQL запросах в базу - новые по дате скачивания роботом находятся в конце. Для google заметил, что страницы с плохим качеством, без текста, под фильтрами, закрытые в robots.txt - тоже в конце идут.

Создаете новый блог на blogger.com.

Добавляете уникальную переводную статью на каком-то экзотическом языке. В нее вставляете штук 100 ссылок на свои страницы, которые надо проиндексировать. Без ключевиков лучше, или с левыми словами.

Блог добавляете в Google Webmaster. Посылаете эту статью на индексацию fetch as google. Googlebot бот как дурной начинает лазить по всем этим ссылкам. Лучше, даже, чем если на самом сайте добавлять эти страницы.

Увеличиваете к-во таких блогов и статей, чтобы было на каждую внутреннюю страницу вашего сайта 3-5 внешних ссылок с blogspot.com.

Это лучше, даже, чем sitemap.xml в итоге будет. Так как внешние ссылки больше котируются. Даже, если страница сайта плохого качества, но, на нее стоят внешние ссылки - она должна быть проиндексирована.

Всего: 1062