Sattt

Sattt
Рейтинг
131
Регистрация
12.04.2008

Решил вчера проверить размещенные статьи на одной площадке, которые размещал от 6 до 10 месяцев назад.

Результат:

Всего размещено - 268

Из них отсутствует - 12. Проверял функционалом системы. 1 площадка умерла окончательно, 1 была в дауне во время проверки. Потому будем считать что 11.

В принципе результат не такой уж и плохой. Но интересно другое.

Система знает о большинстве неразмещенных статьях и отображает соответствующий статус при проверке размещения.

Решил отписать ВМ по поводу снятия статьи. Сегодня пришло 3 ответа, один говорит что статья была не оплачена (тут уже никто не вспомнит, прошло 8 месяцев с момента перехода в статус "Оплачено"), другой что это случайность и статью вернем, 3й разместил на другом сайте т.к. контроль над прежней потерян (естественно, теперь никаких гарантий у меня нет по размещению).

Собственно, главный вопрос:

почему система автоматически за этим не следит и не предупреждает ВМ о отсутствии статьи?

Некоторые статьи сняты по ошибке и ВМ их возвращают.

Сегодня постоянно капча в mail'е вылазит. Правда, не такая настойчивая как в яше, после одного ввода дает проверить пару сотен запросов.

Но проблема в том, что YCCY такие непроверенные ссылки отправляет в непроиндексированные.

4ept:
мне кажется проще сделать при отображении таблицы через определенное количество ключевиков - какую-то пустую строку. чем вот такое вот решение:)

Можно и пустую строку, но лично мне нужно немного другое.

Сейчас мониторю позиции site-auditor'ом, там в этом плане всё понятно и четко получается. Есть несколько групп запросов для одного проекта, в каждой группе однотипные запросы разделены черточками.

Отмониторил то же самое Лидером, получил месиво из ключевиков без каких-либо делений.

4ept:
Группы запросов будут. но немного по другому реализованы.

Разделение на группы это другое. Я имею ввиду небольшое визуальное разделение на типы запросов. Например, есть список из 500 запросов, в нем несколько десятков однотипных запросов по 5-15 штук. Смотреть на это всё без разделения не очень удобно.

Было бы неплохо добавить запрос "---" в исключения, чтоб по нему позиции не собирались и его можно было добавлять несколько раз.

И ещё такой вопрос. Как отобразить на одной странице позиции проекта сразу по всем поисковикам? Что-то не нашел такой возможности.

ZuS:
Сохранение собственных фильтров, уже неделю стоит в todo, скоро сделаем

Думал программа уже умерла, давненько не было серьезных обновлений. Видимо рано хоронить.

Будет именно возможность задать несколько комбинаций из различных параметров?

И планируется ли дальнейшее развитие программы до уровня, описанного в первом посте? Учитывая что уже сейчас большинство функций есть, это вполне возможно.

Stripe:
Sattt, а сколько вы готовы заплатить за лицензию такой софтины?

Если софт именно "такой", около сотни долларов готов. Возможно чуть больше.

Переплачивать особого смысла не вижу, т.к. уже сейчас есть программы для проверки всех необходимых параметров. Проблема в том, что их несколько, из-за чего процесс проверки не полностью автоматизирован.

Заметил одну проблемку - добавлять несколько одинаковых запросов для мониторинга нельзя. Оно то логично, но я использую в списке запросов разделители вроде "---", чтобы визуально отделять группы однотипных запросов. Система все мои разделители удаляет, кроме первого.

К тому же пишет позицию по такому разделителю от предыдущего запроса .

Просьба добавить возможность вставки полноценных разделителей, чтобы они именно так и воспринимались.

joost:
Как проверить передает или нет вес и ссылочное сайт (страницы сайта)?

Вес передает любая ссылка, вопрос какой.

Если в теории:

1. Берем делаем сайт (страницу) для эталона, ставим с него уникальную ссылку с анкором-меткой a1.

2. После индексации вбиваем в яшу что-то вроде "zzzzzzzzzzz | "a1"", получаем позицию акцептора n1.

3. Ставим анкор-метку a2 на странице, с которой нужно замерять вес.

4. Замеряем позицию n2 акцептора по запросу "zzzzzzzzzzz | "a2"".

5. Если n2 выше чем n1, сайт не зафильтрован и что-то передает.

А далее уже мерять вес на глаз, сравнивая позиции по меткам между собой.

Но это какбэ теория, на практике нужно ещё проверить, наверняка есть подводные камни.

komdir:
На самом деле нужно подумать не о том, как расчитать формулу Снежинска в целом, а о том, чего хотели добиться работники Яндекса с его внедрением?
Хотели прежде всего добиться более адекватной выдачи, со своей точки зрения.

Да ну? Правда?

Скорее, хотели перевернуть всё с ног на голову, чтобы загнать упавшие сайты в директ. Особенно интересны молодые сайты с этой точки зрения. Старые (имею ввиду коммерческие) это в основном крупные конторы, для которых падение трафика даже на 50% не критично. А вот молодняк обычно на грани окупаемости, небольшие падения и всё... остается директ.


1. Провалились ли в выдаче сайты, которые покупали ссылки не зависимо от биржи с качественных доноров, как правило нет!
2.Провалились ли сайты использующие собственные сетки сателитов, как правило ДА.

Не наблюдал такого. Вообще если анализировать более или менее большую выборку сайтов по каким-то параметрам, логики нет нигде. Обязательно что-то не совпадет и в любой теории найдутся исключения.

Оно и не удивительно, 1000 параметров ведь :)

Avelon:
1. выберите первые 30 урлов. поставте авторежим и запуск каждый день

2. выберите вторые 30 и поставьте раз в 2 дня

и так до 30ти

Получается на урлы 1-30 каждый день будет приходить 60 заявок, на урлы 30-60 раз в 2 дня тоже 60 заявок... на урлы 870-900 раз в 30 дней 60 заявок. Мало того, что на первые 30 будет закупаться в 30 раз больше чем на последние, так и 60 в день на весь проект никак не получится.


имхо проще покупать всетаки раз в неделю сразу много. Поисковики все равно проиндексируют это не махом а постепенно (от недели до месяца в среднем).

Раз в неделю покупать нужно 420 ссылок, если в среднем по 60 в день. А автомат купит 1800, т.е. всё равно нужно руками отметать лишнее.

Хотя пока что да, это оптимальный вариант. Буду пользоваться ним, как поправят баг с установкой "Запускать каждые X дней" в пакетном режими сразу для всех урлов.

P.S. В реальности будет пару десятков проектов, на некоторые (новые) нужно 60 в день, на другие (зрелые) нужно 100, на третие (старые) можно и по 200.

При таких мастшабах ручная обработка займет много времени, даже если раз в 7 дней делать закупку.

Да уж, насоветовали. Если б так было на самом деле, все ИМ с однотипными товарами были бы зафильтрованы.

Не будет никаких проблем, при условии что сайт реальный, а не ГС созданный 2 дня назад и без входящих ссылок.

Даже если вдруг случайно попадет под фильтр, по письму платону его снимут.

Всего: 604