єтого делать мне не надо. забудте про єто. давте предположим, что получится
Talisman13, Ловец снов, вопрос не в том как загнать поисковика на сайт.
вопрос. чем плоха частая смена урлов (не их количества) ссылочной масы?
по мнению 5 чел. трудно судить
нет рандомных страниц. страниц всего 100. все в индексе. 10 проиндексированых ссылок на страницу есть. вопрос в том, что каждый раз эти 10 страниц другие.
например
на страницу А
сегодня ссылаются В1, В3, ... , В9, В11 (непарные)
завтра - В2, В4, ... , В10, В12 (парные)
что плохого в этом? почему когда постояно одни и теже - это лучше?
при открытии страницы. (роботом, посетителем)
проиндексит и будет знать
а какой минус?
10 ссылок то гарантировано будут на страницу ссылатся
не правильно поняли. их постояно 30, но постояно с разных страниц.
понял правильно
проиндексированы
это понятно!
аргументируйте. чем это плохо?
если бы это еще и подтвердил Яндекс (попадание в Як или хотябы в РСЯ). смогли бы покупать ссылки на сайтах из Як - это в идеале.
если счас ТИЦ нулевой, то
прогноз исходящих <=3, есть в Як, тематика АВТО
думаю так лучше. тематику сайта Яндекс определил? Сайт в Як?