Да забанить ее, все равно с нее толку 0
Ссылки - пингвин. Время - он накатывает циклично. Тем более письмо пришло. Смысл 301 редиректа, если пишут что проблема не устранена?
Я как то случайно заметил на одном популярном товаре ошибку в названии. Исправил. Траф по запросу был 10 хостов (процент конверсии прядка 20%) офигел, по неопытности исправил и через время лишился трафа. У пузатых конкурентов было все правильно, но вот достаточно много юзеров допускали ту же ошибку. Потом пришлось исправлять обратно...
Смотрите на уровень конкуренции и каков предполагается процент конверсии, иногда выгоднее написать наоборот
Видимо раньше гоняли свои сайты а сейчас конкурентов ) Бизнес тот же, эффект противоположный
2 вопроса:
1 Какую роль в ранжировании играют ссылки в % и ПФ в %
2 Когда уже гугл со всеми своими сверх алгоритмами и стремлением к качеству добьется мира во всем мире )
Выберите любой из выдачи. ) А на слабо будете деток в школе поднимать ) И как использовать буковки позвольте уж мне решать
Моральная сторона вопроса это отдельная тема, но здесь можно возразить пословицей и овцы целы и волки сыты. Серферу, зачастую плевать на проблемы вебмастеров. Так мир устроен
Они все пакуют одинаково, одинаково удобны (я же написал качественные сайты) они одинаково соблюдают рекомендации, на них висят одинаковые значки и таких примеров - масса!
Углубляться дальше в опыт и пол консультантов не будем, потому что это бред. Гугл не экстрасенс и не Бог, поэтому кучей оффлайновых факторов можно пренебречь
Второй вариант мне нравится больше
Могу уточнить: логически для примерно одинаковых качественных сайтов, имеющий примерно одинаковый контент (например инет магазин ширпотреба или новостник) какой должен быть выше?
(Ссылочную массу уже забываем)
Вот гугл пытается ввести новый алгоритм по которому каждому "похожему" сайту достанется примерно одинаковое количество трафа. Других инструментов кроме рокировки позиций он не имеет. И это вовсе не демократия а обыкновенная коммерция
Когда говорим об алгоритмах гугла, ни одну версию нельзя назвать достоверной )
Гугл пытается вычислить положеное вам количество трафика, на основании каких то параметров, и если к концу дня вы перебираете то ваш сайт падает, иначе наоборот двигает ближе к топу