Нет. Сейчас выставили те значения, которые были недели 2-3 назад.
Всё по старому, что уже гуд.
А что такое "сопли" для гугла и что они делают с сайтом?
Да, тоже заметил такое. Писал об этом здесь. Какой делаем вывод? Влияние и важность внутренней оптимизации летит к чертям? :)
Какие будут проблемы и с чем?
Можно самому запретить кеширование страницы мета тегом, при этом все ссылки будут передавать всё что нужно.
Я давно не делал сайты в ру сегменте, и то, о чём я написал, не имеет отношение к классической песочнице. :)
Я занимаюсь только хорошими сайтами, приносящими прибыль! Лепить сео блоги и литературные обозреватели мне не интересно. :)
Последний сайт сделал по коммерческой, но не очень конкурентной тематике, в которой трафа более 100K в сутки, но вордтрекер искусственно занижает это число в 20 раз. Такую вот жирную жилку нашёл. :D
Это кто такое сказал? Первый раз слышу о склейке анкоров. :)
Чем больше одинаковых анкоров, тем выше должен ранжироваться сайт по данному ключу, но это теоретически. На самом деле, палка о двух концах. С появлением большого количества одинаковых анкоров срабатывает другая часть алгоритма, отправляющая сайт под фильтр. Чем больше разнообразных анкоров, тем безопасней продвижение сайта. Какой допустимый процент одинаковых анкоров гугл держит в секрете. Я стараюсь не переходить границы 10%, используя под остальные 90% список из нескольких сот околотемных анкоров. Пока Бог миловал.
По моим наблюдения, есть некий список ключевых слов, по которым невозможно попасть в топ молодому сайту. Излишнее усердие в этом может лишь отправить под фильтр. Для выхода на нормальные позиции по этим запросом, необходимо и достаточно медленно и планомерно строить структуру тематических беков не ориентируясь на изменения в позициях. По началу результат виден не будет, это нормально. Пройдёт время, и сайт окажется на заслуженном месте.