С Яндекса.
На 3-х сайтах различные "чудеса с доменной зоной" наблюдались.
На одном сайте за год(!) Яндекс проиндексировал 4000 страниц. Ни твиттеры, ни сотни ссылок на внутряки, ни PR-истые ccskrb с sape не помогли.
Редирект на другую доменную зону и через 1.5 месяца в индексе 67000 страниц. И ни единой ссылки не потребовалось.
Главное слово выделила болдом. Почитать форум и подумать.
И Редирект с http на https не ставить ни в коем случае - потеряете одну позицию в ТОПе.
Предлагаете методом "народного голосования" вывести Яндекс на чистую воду?
Давайте лучше на счёт третьего закона Ньютона опрос проведём, а то, может,его пора уже отменить :)
Есть опыт переноса 2-х годовалых сайтов(301 редиректом) с одной доменной зоны на другую(какие - уточнять не буду). Трафик - вырос в 1.5 раза, кроме переклейки ничего не делалось.
Экперимент - мысленный, только чтобы осознать, что ПС это предусмотрели и защитились.
А потом сообразить, что предприняли ПС чтобы защититься от подобного "параллельного Интернета"(при любых его объёмах - хоть 20 сайтов, хоть - миллион)
PS: демона Максвелла тоже физически в природе существовать не может.
Можно.
Но технически, это будут всё-равно обмен заголовками If-Modified-Since <-> Last-Modified и If-None-Match <-> Etag между клиентом и сервером, другого управления кэшем в протоколе HTTP/1.1 не предусмотрено.
Ну, кроме устаревших мета-тэгов:<meta http-equiv="Expires" content="Mon, 19 Jul 1997 15:11:03 GMT"> и <meta http-equiv="Pragma" content="no-cache">, которые сейчас используются, наоборот, для предотвращения кэширования в "админках".
PS: Вот тема про кэшировние, про которую siv1987 упомянул.
А интернет-магазины, действительно, на кэширование "болт кладут" по каким-то своим причинам. И пофиг, что им надо десятки тысяч страниц оперативно переиндексировать.
Есть.
Иначе замкнутая система "ПС-Вебмастера-Пользователи" получается сильно уязвимой со стороны "Вебмастеров".
А конечным потребителем работы всей системы является "Пользователь".
Растолкованный PageRank курю, в переводе Александра Садовского и с его комментариями.
По аналогии с демоном Максвелла и котом Шрёдингера проведём мысленный SEO-эксперимент - «параллельный Интернет».
Внимание, вопрос: сможет ли этот «параллельный интернет» влиять на ранжирование реальных сайтов в интернете, если мы начнём ставить с этой «шняги» мощные внешние ссылки в реальный мир?
ТИЦа и PR-а то в параллельном мире мы имеем столько же, сколько и в реальном.
Зачем же тогда Яндекс разместил информацию о meta keywords в своём help? Думаю - учитывает в некоторых случаях.
В данном случае Яндексу нет никакого смысла вводить в заблуждение вебмастеров.
У Лабиринта есть LastModified.
Имхо, интернет-магазины избегают кэширования на стороне клиента, тк надо решать проблемы с актуальностью "корзины" с выбранными товарами, баннерами со скидками и акциями и тп.
PS: У МВидео 2 млн страниц с индексе, а товаров - всего 13 000(по региону Москва). Похоже, они не карточками товаров трафик собирают.
Разрыв шаблона. Таки, мальчик или девочка?