Pavel Medvedev

Pavel Medvedev
Рейтинг
166
Регистрация
27.01.2006
Должность
оптимизатор, seo-консультант

В блоге вопросы удаляете мои. Ответьте здесь, плз.

Расскажите примерно хотя бы как траф прогнозируется по новому алгоритму рассчета, о котором писали в блоге.

Сравнил с вордстат - особой корреляции нет.

Иногда прогноз трафика по запросу в 10 и десятки раз больше чем показы Wordstat, во что мало верится.

alldev:
Никто в здравом уме не будет эксперементировать на продакшн версии

Яндекс постоянно экспериментирует с дизайном на живой аудитории. Говорили что берут выборку ~4% и на них оценивают - увеличилось ли их счастье)

Какой-то баг похоже с кампаниями.

Создал кампанию с обратным поиском.

Выбрал в опциях чтобы ссылки были только на уникальные урлы

но формируются автоматические заявки с ссылками на один урл

LEOnidUKG:
Да как через XML парсить, если у Яндекса не просто лимиты. А по времени суток! У меня есть 1100 лимитов, но я не могу ими пользоваться. Каждый час, только по 10% из всех лимитов.
Это издевательство.

Рано утром 50% за час.

Да и можно увеличивать число лимитов, добавлять свои сайты, попросить кого-нибудь передать лимиты. У меня 25К+ хватает даже при 10%/час.

если по мелкой группой, то можно попробовать написать запрос с помощью конструкции искать только на сайте1 | сайте2 | сайте3

Присущ, готов поспорить что текст, написанный хорошим копирайтером, будет в выдаче выше чем текст, который пытались подогнать под простые алгоритмы.

Будет напоминать тупой спам, скорее всего.

Тем более, как же всякие спектры, асессоры, матрикснет, который подстраивает формулу под каждый конкретный запрос/тематику. Все это добавляет множество новых неизвестных в формуле.

лет 20 назад устарел.

Он используется Яндексом так же как в феррари используется идея делать 4 круглых колеса, как у повозки.

Поисковики дают приоритет не частоте слов на странице, а тому как она решает задачи пользователя.

kodein.anon, это 2 зеркала не склеившихся.

На сайте:

1 нет редиректа с www на без (или наоборот)

2 не указан host в robots.txt (файла вообще нет)

Интересно, а какой отвал ссылок у агрегаторов после АГС, кто считал?

Судя по тому что WE делал упор на самые худшие и дешевые ссылки, отвал именно по ним в основном и замечен

kysok sabaki:
сайтов с тиц = 0 - 135 штук.
сайтов с тиц = 10 - 429 штук.
сайтов с тиц = 20 - 88 штук.
сайтов с тиц = 30 - 6 штук.
сайтов с тиц > 30 - 9 штук.

домены - помойка.

бесит что копируешь из браузера урл карты.укр/url.html

А он копируется как http://xn--80atti9b.xn--j1amh/url.html

Половину людей испугает сообщение:

Смотри, прикольный сайт http://xn--80atti9b.xn--j1amh/url.html
:)
Всего: 1393