у яндекса в урлах явно интелекту побольше - вот страницы форумов на phpBB он даже запрашивает без надоедливой переменной sid, тогда как гугл sid запрашивает. Так что с какого кандачка Яндекс склеивает то на www то на без него - это вопрос сложно предсказуемый и проще всего не продвигать эти домены раздельно - склеивать с самого начала редиректом и ссылки стараться ставить на один выбранный. Лично я выбрасываю www.
Стандарт очень даже причём. Только речь идёт не о спецификации HTML, а о чистоте логической разметки XML (xHTML). Самое главное отличие H1 от alt не в реакции поисковика (хотя и это полезная разница), а в том, что h1 при помощи CSS можно превратить в прямой текст в случае необходимости - например для просмотра наладонниками/телефонами безо всяких лишних картинок. Это учтено в тех стандартах, о которых писал a.fatman.
Эти стандарты - прежде всего идеология с акцентом на логичексую разметку вместо разметки для дизайна. Одним из лучших примеров такой разметки имхо является сайт http://mozilla.org. Очень рекомендую ознакомиться с его кодом и дизайном.
есть мнение, что поисковик не заметит какого размера картинка, если не указать её размеры в коде. Существует конечно вероятность, что вычитает индексатор картинок и наябедничает индексному боту :)
чтобы этого не случилось - весь код картинки рекомендую прописывать через <script>document.write("<img src....>");</script>
да уж, глюк с ПР просто потрясный - у меня на достаточно свежем сайте на морде 2, а на всех куда морда ссылается - 4, включая форум.
линки есть только на морду и на пару постов в форуме.
учитывая, что на морду есть три пятёрки и с десяток четвёрок можно понадеяться, что после пересчёта морда подпрыгнет до пятёрки, но с нынешним алгоритмом это становится сомнительным. 😕
ждать... ждать..
у меня молодой сайт после запуска bigdeady вылетел полностью (~300 страниц) и только сейчас робот стал интересоваться старыми страницами и потихоньку набивает индекс - за неделю 50 стр появилось
там ничего конкретного. аппаратно-програмный комплекс и всё. а нововведения базы и индекса неизвестны.
моё мнение- глюк конвертации базы и попытка сейчас новый индекс с нуля поднять (по новым ? правилам)
моё имхо - монополизм плохая штука. стал монополией - соблюдай антимонопольные правила - делись рынком принудительно. в отношении майкрософта всё понятно - когда у пользователя их операционка - это ещё не повод навязывать свой поисковик и своё видение интернета. если в эксплорере выбрать поисковик по умолчанию сложнее, чем в файрфоксе, то это уже ущемление прав пользователей (!)
дай-то бог. у меня эта картина длится 3 месяца на сайте, запущенном непосредственно перед последним дэнцом. =(
не влияет.
эти параметры лишь для приоритетов внутри твоего сайта для корректного соединения серпа. у меня статьи имеют 1.0, разделы 0.8, а корень 0.5
таким образом в серпе статьи выходят вместо корня и разделов (где есть их анонсы).
скажу даже больше. сначала выпали все страницы, потом появилось 5 старых, а потом гугл начал как бешенный читать форум. сейчас у форума ПР 4, у морды 2, в кэше 180 страниц форума (все сообщения) и те 5 страниц 3хмесячной давности.
как выход вижу сделать смену урлов страниц. пока не брался за это. думаю это поможет проиндексироваться, хотя внешние ссылки на внутренние страницы будут потеряны. может гуглы решили так бороться с внешними ссылками? =)