art11, Гугл не отказывается индексировать страницы лишь потому, что они находятся слишком глубоко в структуре сайта.
Единственная причина, по которой Гугл может не проиндексировать страницу (кроме санкций, естественно), это чрезмерно низкий PageRank (ниже некоторого порогового значения). Если структура сайта сделана таким образом, что PR в достаточном количестве достается даже самым глубоким страницам, Гугл проиндексирует весь сайт.
XTR, одна страница берется из основого индекса, а другая из индекса быстроробота. Такое и раньше встречалось.
Возможно, выдача по более высокочастотному запросу берется из кэша, потому данные быстроробота в ней не учитываются.
Пользуйтесь фоксом.
Grimm, на ТИЦ не ориентируйтесь. Ссылка с ТИЦ 50 иногда бывает более эффективной, чем ссылка с ТИЦ 1000.
Насчет жирных и худых - и у тех и у других есть свои плюсы:
Жирная ссылка обычно быстрее учитывается.
Жирная ссылка быстро выдает свою неэффективность, например, в случае наложения фильта.
Худые ссылки позволяют охватить большое количество среднечастотников.
cronk, уже обсуждалось.
Лёлик, IE часто игнорирует документ, отдаваемый с 404 ошибкой, и показывает свой дефолтный. По моим наблюдениям, это зависит от объема такого документа. Если он слишком маленький, IE кажет стандартную страницу о 404 ошибке. Поэкспериментируйте с увеличением объема документа.
Остальные браузеры всегда послушно кажут тот документ, который отдает сервер. И лишь при его отсутствии показывают дефолное сообщение об ошибке.
MineOptim, думаю, в Америке защитить права художника существенно проще, чем в России, и даже проще, чем в Украине. Возможно, стоит обратиться в местную (американскую) адвокатскую контору.
watr, вообще после последнего пересчета такое явления довольно часто встречается. Причины не знаю.
Это не может быть причиной.
watr, внутренние страницы ссылаются на главную?
Народ лечит истощенные нервы. :)