Как раз наоборот.
К примеру, вы не можете поменять процентное соотношение текстов ссылок, сохранив при этом текущие тексты. Перегенерация приведет к тому, что текущие размещенные ссылки будут изменены. Я думаю, вам не надо объяснять, к чем это приводит.
Поэтому вы можете корректировать их только вручную - добавляя новые, что сводит на нет хорошую, в общем-то, идею автоматизации данной функции.
Я же говорю - это инструмент, который при определенных условиях вполне себя окупает. :)
Просто надо уметь им пользоваться, знать о плюсах и минусах и не ждать полной автоматизации.
Нет, никаких проблем.
Стратегии у нас в работе только свои. :)
Извините, но это такая смешная ерунда, что даже не стоит упоминания. :)
Сравните, к примеру, с тем, что СТРАТЕГИИ в rookey, которые рекламируются на каждом углу - НЕ РАБОТАЮТ.
Ведь при смене наиболее важных параметров в стратегии НЕЛЬЗЯ автоматически обновить параметры текущих запросов этой стратегии с уже закупленными старыми ссылками.
Поэтому все нужно будет либо обновлять вручную, либо терять старые надежные ссылки и деньги.
Для всех... для ВСЕХ (!) проектов, где эта стратегия используется.
И эти деньги никто никому не компенсирует.
А самое смешное, что находятся клиенты, которые закупают волшебные "закрытые стратегии", а потом наивно ждут, пока им в течение полугода объясняют, что ссылки в Яндексе стали работать очень медленно...
А вы тут про урл сайта что-то говорите. :)
P.S. Только не надо думать, что в других системах-агрегаторах лучше.
Запомните - автоматического продвижения не бывает.
Все "автоматические системы" зарабатывают на вас.
А на ком им еще зарабатывать и при этом держать большой штат специалистов? На Яндексе, что ли? Или на рекламе в liveinternet?
Если вы хотите действительно хорошую надежность - работайте с биржами напрямую - к примеру, сапа+винк+время.
Они не врут.
Но с другой стороны, учтите - для новичков подобные автоматизированные системы за полгода дадут знаний примерно столько, сколько они получат за год при самостоятельном и постепенном изучении сапы, ggl, миры и т.п.
Понятно, что за ваш счет и за ваши деньги, а вы как хотели? :)
Ну или за счет клиентов... при хорошей деловой хватке. Как у нас. :)
Эффект сильно зависит от ручной работы.
Системы "автозакупок" предназначены не для автоматического продвижения, а для облегчения этой ручной работы с помощью автоматизации.
При этом во всех из них есть свои ошибки и недоработки.
Вопрос в том, какие из этих ошибок являются более критичными для конкретного специалиста.
Например, в Rookee, навскидку - случаи массового самостоятельного удаления ссылок, что приводит к негативной реакции Яндекса из-за "шторма", невозможность корректного изменения стратегий при наличии купленных по ним ссылок, что приводит к необходимости составлять все тексты ссылок вручную либо соглашаться на смену текстов размещенных ссылок на тип "Текст запроса" - а это опять "шторм", ну и так далее.
Собираете подобную информацию по всем системам, оцениваете критичность лично для вас и принимаете решение.
Провел сегодня эксперимент.
По одному из запросов взял первые 50 ссылок старше 5 месяцев.
Непроиндексированными помечены 8 страниц-доноров и/или ссылок.
Проверил их в Яндексе - выяснилось, что из них 6 (из восьми!) на самом деле в индексе.
У меня разработчики после таких выдающихся результатов если не вылетают, то, как минимум, под пристальный контроль QA попадают надолго. :)
Посмотрим, сколько из страниц будут реально удалены.
О результатах сообщу.
96% - это из 10000 ссылок 400 ошибочных. Все-таки многовато, если учесть, что речь идет о достаточно старых и надежных ссылках.
Более того, по моим оценкам погрешность несколько выше.
Хотя надо признать, что с мая, когда я обратил внимание службы поддержки на эту проблему, точность все же повысилась.
Сейчас мы не сравниваем между собой различные системы.
Сейчас мы говорим о конкретных ошибках, которые легко проверяются и исправляются.
Например, страница донора http://page.... может быть справедливо помечена непроиндексированной, а в то время как страницу http://www.page.... Яндекс прекрасно видит вместе с размещенной на ней ссылкой.
Между прочим, а как вы считали точность проверок систем?
Просто интересно.
Хотелось бы узнать, почему ваши специалисты, исправляя ошибки, приведенные на скриншотах в качестве примеров, считают, что исправлена ошибка и в алгоритмах системы?
Первые же проверки после получения сообщения об исправлении показывают, что страницы, ошибочно помеченные как непроиндексированные, по-прежнему присутствуют в системе.
Предполагается, что пользователь должен самостоятельно контролировать ссылки и периодически высылать их в службу поддержки для исправления?
Плохо, что стремление к полной автоматизации стало самоцелью, что в итоге отразилось на качестве и количестве ошибочных удалений ссылок.
Спасибо, жду ответа.
В качестве пожелания к дальнейшему развитию системы хотелось бы предложить ее доработку до действительно автоматизированного, а главное - качественного контроля состояния страниц-доноров, что позволило бы обойтись без привлечения специалистов компании.
Ведь все автоматизированные системы вроде rookey, seopult и других, только тем и ценны для нас, что позволяют сэкономить на сотрудниках, выполняющих однообразные рутинные действия по контролю ссылок.
Ведь именно за качественную автоматизацию рутинных действий мы и платим этим системам, не правда ли?
Basilisk добавил 09.07.2011 в 09:34
Кстати, есть ли возможность каким-либо образом заблокировать удаление ссылок?
Чтобы пользователь мог просмотреть ссылки, рекомендуемые системой к удалению и либо подтвердить, либо отменить данное действие?
В системе у меня уже заведено несколько обращений по этому поводу (например, №19537 или №21492), содержащих необходимые примеры.
Пока же я хочу понять, насколько часто возникает такая ситуация у разных пользователей.
Если это сложная, но единовременная проблема, решение которой еще с весны по каким-то причинам не представляется возможным - это одно. Если же это специфика работы системы - это другое, и решать эту проблему нужно иными способами. Систематическое удаление автоматизированной системой надежных ссылок просто недопустимо.
Например, сегодня, пройдясь по десятку запросов с достаточно старыми ссылками (2-8 месяцев), я обнаружил порядка 20 страниц, ошибочно помеченных как "не в индексе".