Basilisk

Рейтинг
195
Регистрация
23.05.2001
Seo2z:

Не понял, как это "нельзя автоматически обновлять параметры текущих запросов..."? Кажется мне, что вы имели в виду то, что при обновлении стратегии, ссылки, купленные по старым параметрам остаются на месте, не заменяясь на новые ссылки, купленные по новым параметрам?

Как раз наоборот.

К примеру, вы не можете поменять процентное соотношение текстов ссылок, сохранив при этом текущие тексты. Перегенерация приведет к тому, что текущие размещенные ссылки будут изменены. Я думаю, вам не надо объяснять, к чем это приводит.

Поэтому вы можете корректировать их только вручную - добавляя новые, что сводит на нет хорошую, в общем-то, идею автоматизации данной функции.

Seo2z:

так чего ж вы в агрегаторах продвигаете? =)

Я же говорю - это инструмент, который при определенных условиях вполне себя окупает. :)

Просто надо уметь им пользоваться, знать о плюсах и минусах и не ждать полной автоматизации.

Seo2z:

P.S. Если у вас есть какие-то проблемы с конкретно моими стратегиями или стратегиями других авторов, то предалагаю перенести все обсуждение в специальную ветку, которая целиком и полностью посвящена закрытым стратегиям /ru/forum/521827

Нет, никаких проблем.

Стратегии у нас в работе только свои. :)

spef:
И урл сайта нельзя менять в проекте.

Извините, но это такая смешная ерунда, что даже не стоит упоминания. :)

Сравните, к примеру, с тем, что СТРАТЕГИИ в rookey, которые рекламируются на каждом углу - НЕ РАБОТАЮТ.

Ведь при смене наиболее важных параметров в стратегии НЕЛЬЗЯ автоматически обновить параметры текущих запросов этой стратегии с уже закупленными старыми ссылками.

Поэтому все нужно будет либо обновлять вручную, либо терять старые надежные ссылки и деньги.

Для всех... для ВСЕХ (!) проектов, где эта стратегия используется.

И эти деньги никто никому не компенсирует.

А самое смешное, что находятся клиенты, которые закупают волшебные "закрытые стратегии", а потом наивно ждут, пока им в течение полугода объясняют, что ссылки в Яндексе стали работать очень медленно...

А вы тут про урл сайта что-то говорите. :)

P.S. Только не надо думать, что в других системах-агрегаторах лучше.

Запомните - автоматического продвижения не бывает.

Все "автоматические системы" зарабатывают на вас.

А на ком им еще зарабатывать и при этом держать большой штат специалистов? На Яндексе, что ли? Или на рекламе в liveinternet?

Если вы хотите действительно хорошую надежность - работайте с биржами напрямую - к примеру, сапа+винк+время.

Они не врут.

Но с другой стороны, учтите - для новичков подобные автоматизированные системы за полгода дадут знаний примерно столько, сколько они получат за год при самостоятельном и постепенном изучении сапы, ggl, миры и т.п.

Понятно, что за ваш счет и за ваши деньги, а вы как хотели? :)

Ну или за счет клиентов... при хорошей деловой хватке. Как у нас. :)

MixEg90:
А много кто из здесь сидящих перешел на Руки из Сеопульта? или наоборот..
Вопрос Только к этим людям. Чем по вашему мнению, эффект результативнее?

Эффект сильно зависит от ручной работы.

Системы "автозакупок" предназначены не для автоматического продвижения, а для облегчения этой ручной работы с помощью автоматизации.

При этом во всех из них есть свои ошибки и недоработки.

Вопрос в том, какие из этих ошибок являются более критичными для конкретного специалиста.

Например, в Rookee, навскидку - случаи массового самостоятельного удаления ссылок, что приводит к негативной реакции Яндекса из-за "шторма", невозможность корректного изменения стратегий при наличии купленных по ним ссылок, что приводит к необходимости составлять все тексты ссылок вручную либо соглашаться на смену текстов размещенных ссылок на тип "Текст запроса" - а это опять "шторм", ну и так далее.

Собираете подобную информацию по всем системам, оцениваете критичность лично для вас и принимаете решение.

Провел сегодня эксперимент.

По одному из запросов взял первые 50 ссылок старше 5 месяцев.

Непроиндексированными помечены 8 страниц-доноров и/или ссылок.

Проверил их в Яндексе - выяснилось, что из них 6 (из восьми!) на самом деле в индексе.

У меня разработчики после таких выдающихся результатов если не вылетают, то, как минимум, под пристальный контроль QA попадают надолго. :)

Посмотрим, сколько из страниц будут реально удалены.

О результатах сообщу.

fivefinger:
Составлял список всех купленный системой ссылок, маркировал по принципу в индексе/не в индексе, после чего по сути перепроверял собственным скриптом индексацию этих двух списков.

Лично я не считаю ту погрешность, которая сейчас есть - критической, поскольку при незначительной корректировки правил снятия данная проблема лечится. Ну а в целом, надеюсь, что со временем команда рук, доведет проверку индексации до 100 точности.

96% - это из 10000 ссылок 400 ошибочных. Все-таки многовато, если учесть, что речь идет о достаточно старых и надежных ссылках.

Более того, по моим оценкам погрешность несколько выше.

Хотя надо признать, что с мая, когда я обратил внимание службы поддержки на эту проблему, точность все же повысилась.

fivefinger:
В любой системе, а особенно, если эта система достаточно сложная могут присутствовать небольшие ошибки. Что касается точности проверки проиндексированности ссылок в rookee, то по моим данным/наблюдениям точность при проверках составляет порядка 96%. Если сравнивать с другими решениями, то точность в Rookee на порядок, а то и на два порядка выше.

Сейчас мы не сравниваем между собой различные системы.

Сейчас мы говорим о конкретных ошибках, которые легко проверяются и исправляются.

Например, страница донора http://page.... может быть справедливо помечена непроиндексированной, а в то время как страницу http://www.page.... Яндекс прекрасно видит вместе с размещенной на ней ссылкой.

Между прочим, а как вы считали точность проверок систем?

Просто интересно.

support_rookee:
Данная ситуация не является типичной для нашего сервиса. Именно поэтому такие обращения требуют дополнительной проверки нашими специалистами. Мы постоянно совершенствуем наши алгоритмы работы и в доработке сервиса обязательно учтем Ваше пожелание о повышении контроля состояния страниц-доноров.

Хотелось бы узнать, почему ваши специалисты, исправляя ошибки, приведенные на скриншотах в качестве примеров, считают, что исправлена ошибка и в алгоритмах системы?

Первые же проверки после получения сообщения об исправлении показывают, что страницы, ошибочно помеченные как непроиндексированные, по-прежнему присутствуют в системе.

Предполагается, что пользователь должен самостоятельно контролировать ссылки и периодически высылать их в службу поддержки для исправления?

support_rookee:
...наш сервис разработан как инструмент, который позволяет максимально автоматизировать все этапы продвижения, именно поэтому у нас не предусмотрен предварительный просмотр ссылок перед их удалением.

Плохо, что стремление к полной автоматизации стало самоцелью, что в итоге отразилось на качестве и количестве ошибочных удалений ссылок.

support_rookee:
Точность определения индексации в системе, как правило, близка к 100%, данный параметр держится под контролем наших специалистов, поэтому возникновение случаев, подобных Вашему единичны и, соответственно, не являются спецификой работы системы.
По Вашему обращению работы практически завершены, в ближайшее время мы проинформируем Вас о результатах в рамках созданной заявки на support.

Спасибо, жду ответа.

В качестве пожелания к дальнейшему развитию системы хотелось бы предложить ее доработку до действительно автоматизированного, а главное - качественного контроля состояния страниц-доноров, что позволило бы обойтись без привлечения специалистов компании.

Ведь все автоматизированные системы вроде rookey, seopult и других, только тем и ценны для нас, что позволяют сэкономить на сотрудниках, выполняющих однообразные рутинные действия по контролю ссылок.

Ведь именно за качественную автоматизацию рутинных действий мы и платим этим системам, не правда ли?

Basilisk добавил 09.07.2011 в 09:34

Кстати, есть ли возможность каким-либо образом заблокировать удаление ссылок?

Чтобы пользователь мог просмотреть ссылки, рекомендуемые системой к удалению и либо подтвердить, либо отменить данное действие?

support_rookee:
Пришлите, пожалуйста, на support@rookee.ru Ваш логин и примеры таких ссылок.

В системе у меня уже заведено несколько обращений по этому поводу (например, №19537 или №21492), содержащих необходимые примеры.

Пока же я хочу понять, насколько часто возникает такая ситуация у разных пользователей.

Если это сложная, но единовременная проблема, решение которой еще с весны по каким-то причинам не представляется возможным - это одно. Если же это специфика работы системы - это другое, и решать эту проблему нужно иными способами. Систематическое удаление автоматизированной системой надежных ссылок просто недопустимо.

Например, сегодня, пройдясь по десятку запросов с достаточно старыми ссылками (2-8 месяцев), я обнаружил порядка 20 страниц, ошибочно помеченных как "не в индексе".

Всего: 1063