NikoLite

NikoLite
Рейтинг
99
Регистрация
21.05.2007
Dexter88:
Str256, прощу прощения, надо было процитировать. выше ответ писал по этой фразе:"На выдачу траст влияет не сильно, скорее на стабильность в выдаче." Имелась ввиду именно выдача по данному запросу. или имелась ввиду позиции сайта по данному запросу. стабильность позиций сайта или стабильность выдачи по запросу?

траст - показатель сайта...

Здесь все частично правы - тема такова, что ссылки ровно как и текст учитывается сразу после индексации. Но что касается ссылок, когда речь идет о передаче веса, не стоит забывать, что покупая ссылку вы получаете не только ссылочный вес донора но и частичку траста. так как ап траста происходит реже обычных апдейтов, замечается некая закономерность - больших и маленьких апов. вот как раз 1-2 раза в 2 недели приблизительно и происходит АП Траста, что и вводит вас большое заблуждение относительно начала работы ссылки. судя из выше сказанного, конечно если ссылка поставлена(куплена) на нормальном сайте траст сайта растет и пропорционально растет эффективность(польза) ссылки

IndexSa:

NikoLite, К сожалению приходится верить глазам, вон яркий пример с юни ;(

Сейчас выдача по регионам не совсем релевантна... Что касается Москвы, формула ранжирования еще не перенастроена с учетом региональности, после перенастройки позиции сайта могут измениться. (с) Садовский

бойтесь 😂

NikoLite добавил 30.04.2009 в 14:19

Seax:
Значица будем плодить региональные сайты... Пусть не все 30-50, но 10 на крупные регионы сделаем. На "Владик" ещё и китайский язык добавим 😆

Интересно, а технически Яндекс справится? Вообще регианальная надстройка алгоритма много ресурсов жрёт?

достаточно сделать один сайт релевантный для нескольких регионов

IndexSa:
Да и так понятно, что делать :) детплощадки.ру остаются, для регионов делаются детплощадки-краснодар.ру детплощадки-сочи.ру итд. На региональных сайтах на каждой страничке пишется индекс и адрес,
к примеру:
Наш офис: 614065 г. Пермь, ул. Бригадирская, д. 20
На каждой страничке упоминание города в падежах, и все. В топ с 5 ссылками.

Если сайт релевантен для разных регионов он будет в выдаче, если нет - значит нет (с) А.Садовский

Seax:
Если выдача в Твери, Магадане и Сочи одинаковая... то! достаточно ли будет сделать 1 сайт с привязкой к одному из региональных городов, чтобы иметь высокие позиции в "региональной" выдаче?

Регионов будет много, в ближайшее время добавица 30-50 (с) А. Садовский

и это не самое страшное 😂

есть такое дело!!!

RatID:
Google по составлению файла robots.txt дает ссылку на этот ресурс http://www.robotstxt.org/orig.html но тут ничего про диррективу Host не написано. Так что в данном случае нужно либо просто ждать, либо попробовать сделать для обоих сайтов SiteMap и скормить их Google.

Host - директива только для яндекса и гуглом не учитывается, порой бывают такие вещи что в топе по нч попадается 2 сайта - с www и без, на разных позициях

yanus:
если все стало ясно может просвятите?:
1.какое отношение имеет www.сайт.ru к сайт.ru? это два совершеннно разных домена, не связанных друг с другом, поэтому, добавив www.сайт.ru, вы его проиндексируете, при этом сайт.ru останется зеркалом сайт.com.
2.зачем создавать robots.txt если на сайт.ru Я его просто не прочитает, даже если редирект снят (в базе Я сайт.ru так и висит зеркалом, поэтому не индексирует)? на www.сайт.ru его Я прочитает, но в итоге получиться цепочка зеркал заканчивающаяся сайт.com

ТС заливайте подготовленный сайт на домен сайт.ru и пишите челобитную Платону. пишите обстоятельно, продумайте аргументацию, чтобы в суппорте не посчитали, что вы что-то "химичите". только в этом случае имеет смысл создавать robots.txt, а если точнее, его нужно будет обязательно создавать

Ну ты понаписал. сам хоть понял? человеку требуется просто расклеить сайты, основные требования для данного действия:

1. убрать редирект с сайтов которые не нуждаются в склейке

2. прописать в robots.txt дерективу

Host: xxx.ru* - где сайт xxx.ru является основным сайтом.

при условие, что сайты xxx.ru и xxx.com не являются обсолютно идентичными, при обходе сайтов роботом склейщиком, робот увидит что сайты не являются зеркалами и расклеит их.

вот так

вобщем после просмотра сайта стало всё ясно!

вопервых необходимо создать robots.txt и указать основной сайт, вовторых после добавления сайта с www было получено сообщение:

Адрес www.m*****a.ru успешно добавлен. По мере обхода робота он будет проиндексирован и станет доступным для поиска. - можете еще разок попробовать сами, но незабудьте про robots.txt так как это единственный способ расклеить правильно сайты☝

Всего: 393