Все просто, можно сравнить текст из двух строк, с запрсом "прокат велосипедов"
и его расширенный вариант, где будут присутствовать тематические слова - велотехника, самокаты, городские, горные ...
Соответственно, если правильно расширять текст тематическими словами, он естественно будет больше в объеме, если его расширять мусором, да, конечно релевантноть будет падать.
т.е. конечно тупо объем текста никак не коррелирует с релевантностью.
Коррелирует комплекс идеального соотношения, по мнению матрикснета на данный момент времени.
Ну а как же релевантность, LSI ?
При прочих равных правильный расширенный текст будет более релевантный, тут другой вопрос, как один документ с, не слишком, релевантным текстом, попал в топ?
А попал он по ПФ, а вот как правильно прокачать ПФ подобному документу, этот вопрос ещё интереснее.
mosbikes интересный пациент, одна страница в индексе, 288 запросов в топ 10
(это к вопросу, сколько можно запросов на одну страницу) они конечно все однотипные, но все же.
Трафик из поиска начал резко расти в марте, пересекается с трафиком из контекста, видимо именно таким образом прокачивали ПФ, дальше по нарастающей...
Коммерческие присутствуют, контента видимо достаточно, единственно не понятно, в сохраненной копии куча левых изображений....
Отлично поработали, одни позитивные эмоции, что в наше время редкость.
Профессионалы со знанием дела, прекрасно справились с поставленной задачей.
Открытые к общению, не жадные, ценник реально доступный, хоть и пришлось повозиться.
Рекомендую, обязательно будем работать дальше.
А можно цены, хотя бы для ориентира.
Сколько стоит час разовой работы?
Сколько стоит взять под контроль один сервер, и что входит в эти услуги?
Ну а в чем проблема брать статистику в метрике?
Зачем все эти Li и прочие?
по яндексу в метрике, по гуглу в аналитексе
Раскройте вопрос подробнее, каким образом пинг или прикрепленный твиттер к сайту сводит попытки индексации к нулю?
Есть такой сервис, как spywords
только он платный
Хорошо, перефразирую.
Если дубли есть, что с ними можно сделать не удаляя их физически?
то, что в идеале все просто разнести, тут проблем нет, да, так будет всё прекрасно работать,
но идем от того, что есть.
К примеру
есть страница - site.ru/страница
есть её дубликат - spb.site.ru/страница
из дубликата идут ссылки на страницу каталога, эта страница уже не дубликат, ссылки с дубликата нужны, но контент дубль.
Склоняюсь в этом случае к закрытию от индексации контента страниц дублей с сохранением рабочего состояния ссылок на этих страницах.
на данный момент, это самое простое решение.
а вообще, обязательно ли иметь главную страницу на поддомене?
может звучит и дико, но главные вылетали, остальные страницы при этом оставались жить,
т.е. сайт начинал существовать со второго уровня вложенности и это ему особо не мешало.
Ну это понятно, некая мультисайтовость итак юзается, только мультисайтовость сама по себе проблему не решает.