1-2-3-10 примеров погоды никакой не делают, а вполне сходят на "исключение из правил".
Бывают люди говорят, что мол ссылки не покупаю, а на поверку выясняется, что у сайта жирный ссылочный профиль (мало ли откуда).
Если бы сайты действительно двигались без ссылок, никто бы не тратил львиную долю времени, сил и нервов на выстраивание ссылочного профиля.
он наверное намекает на другое - на то, что нужно осваивать технологии высокоскоростного парсинга и индексации свежих статей с других сайтов.
Читабельный?
Да - скан и вебархив
По какому принципу Зербер подбирает тайтл для главной страницы при генерации статического сайта? Рандомный выбор из добавленного списка ключей?
а как вообще можно считать посетителей в зависимости от числа страниц? Дело не в страницах ведь, а в частотности ключей.
Мне тоже интересен ответ.
Такая проблемка еще - статистика работает, но после клика по любой из кнопок, например - изменить статистику с "по дням" на "по неделям", статистика обнуляется и больше не показывается.
Извините, а что им дает блокировка роботов ахрефса/маджестика?
Ведь эти сервисы все равно находят бэки на эти сайты и забирают к себе в базу. То есть, данные по домену, данные по бэкам во всяком случае, они могут получать и не заходя на акцептора.
Чисто мое имхо:
В топ невозможно без ссылок выйти, потому-что другие покупают ссылки. А раз на все сайты в нише есть много бэков, значит и на твой сайт в этой же нише должно быть много бэков. Иначе сайт будет выходить за рамки "нормального для этой ниши". А это не есть хорошо.
То же самое касается и внутренней оптимизации. Гугл собирает список сайтов в одной нише и определяет лидера по усредненным показателям для всех этих сайтов. Если кто-то потратил мега-большой бюджет на внутреннюю оптимизацию в нише, где все сайты с плохой оптимизацией - он большую часть бюджета выкинул в трубу. Гуглу нужно выстраивать выдачу из того что де-факто есть. Он все сайты с плохой оптимизацией (в том числе и мобильной) из выдачи не выкинет, если ему нечего будет показывать вместо них.
да под Гугл больше намного. Здесь в новостях статистическое исследование буржуйских сеошнегов приводили - средняя величина портянки у сайтов в топе Гугла составляет 6 тысяч символов.
Возможно у тс проблемы не в портянке как таковой, а именно в ее переоптимизации ключевыми словами, как и написано в названии темы.