Robots.txt для этого и создан, но это всего лишь рекомендации. Для большей уверенности можно также добавить мета-тег robots со значением noindex на каждой странице.
Js выполняется на стороне клиента. Нагрузку на сервер дают внутренние скрипты, например на php.
Я вот вообще зарегистрировал фамильный домен topolyan.com "на потом". Сделал три страницы без особого дизайна, поставил немного ссылок. Еще для почты использую. Когда все же у меня будет хватать опыта и писательского таланта вести блог и я доведу сайт до ума, то домен уже будет достаточно старым, что только плюс в глазах ПС.
eis, то есть 300-600 ссылок в месяц? Лучше в GGL покупать сначала 5-10 как можно более хороших ссылок в месяц. И хорошо разбавлять анкоры, покупать с брендовыми анкорами, URL в анкоре.
Тиц это далеко не главный показатель. Нужно смотреть на качество и трастовость донора. Также на его заспамленость и прочее. Но, в общем, лучше несколько хороших тематических ссылок, чем много не не очень хороших.
IV-й, ТС это и так понимает же.
Но все таки хром или еще что-то не передает такой информации. А даже если и передавал бы, то все равно вполне естественно, что для зарегистрированных пользователей информация другая. Клоакингом не будет считаться 100%.
87793, у меня нет этого чекбокса. Видимо, потому что подпись я не устанавливал.---------- Добавлено 27.12.2014 в 21:10 ----------Редактировал подпись (чекбокс появился, кстати), но в старых постах она не отображается, только в новых.
Почему она не должна выходить? На ней же есть прямое вхождение запроса.
Просто карта сайта уже успела переиндексироваться, а страница еще не успела проиндексироваться.
Да, с robots.txt у вас все в порядке.
Можно наполнить ее текстом. Юзеру показать, что товара пока нет и предложить перейти в категорию высшей вложенности. Но очень желательно, чтобы эта категория тоже отвечала на запрос или тоже была интересна юзеру.
Правильно. Но если ТС будет активно общаться на паре строительных форумов, то ссылки с таких профилей или подписей будут как раз в пользу.