Ботам нужно давать статичный HTML | XML // JS не все из них выполняют. Но G можно предложить этого не делать, закрыв скрипты в robots.txt
Не любой, а неповторимый.
Менюшки/шапки/футеры можете рисовать скриптом.
А эту проблему и решать-то не хотят, это не принесёт бабла.
Сейчас ПС ещё продолжают существовать по той причине, что бОльшая часть вебмастеров не хочет делать говна. С ними Яндекс тупо ссорится. При этом ему не удаётся сделать ГСтрой нерентабельным.
Сеанс пиара в форме брехливых ответов... наводит на предположение, что они там почувствовали перспективы (зная, что и скорость индексации в ближайший год не увеличат, а значит будут кормить копипастеров) и решили попытаться улучшить отношения с окружающей средой.
Яндекс считает это поле своим. Вот своими кривыми действиями...
ПС вообще не понимают ничего, хотя чего-то иногда находят.
А представьте, что ПС индексируют документы. Чего им индексировать? По какому урлу?
Просто он не найдёт чего индексировать.
А Cell считает это мифом.
А ПС живут в своём мире... им нужен успех... обычно это рядом с популярностью, а не качеством.
Не призвать, а на посещаемых сайтах ставить ссылки на его сервисы.
И эти зомби ползают по сайтам и сравнивают: «Этот текст продающий, а остальные нет. Цены одинаковы, значит куплю там, где продающий!»
А что такое семантика?
На сайтах самого битрикса минут за 5 дубли (или их возможность) покажете?
http://www.bitrix24.ru/?%D0%B1
HTTP/1.1 200 OK
Это проблемы смс или чего? (я просто не программер и т.п.)
http://www.1c-bitrix.ru/?duplicate 200 OK
Самый последний случай, который мне показывали:
вместо
#anchor
было
%23anchor
Ну про себя я не во втором лице выражаюсь.
Давайте упростим/усложним вопрос: А что такое т.н. «все»?
Если не знаете, могу подсказать где гнездится этот примысл.
А что такое «вы все»?
Выполнять все требования хелпа.
Если этого не делать, то придётся потерять больше времени.
Не только можно, это неизбежно. И ещё пожалеть о начатом можно.