- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Провел тестирование на ~50 донорах. Маловато ссылок сервис находит для анализа. Вы говорите, что нужно хотя бы 20, у меня по многим донорам смотрел 4 - 5. Как результат: "не известно" и "Рекомендация: воздержаться от покупки новых ссылок". "Выходить из раздела сайта на главную страницу..." разрешал. Что ж вы дальше главной не идете? Так действительно не наберешь...
При разрешении выхода из раздела робот переходит на главную и с неё идёт дальше по всему
сайту. Берёт на заметку все ссылки которые попадутся ему на пути. А путь его 100-200 страниц.
Еще заметил: сервис подхватывает ссылки типа "продвижение сайта" из футера, ну и понятное дело "большая выдача"...
Робот пытается брать ссылки состоящие из максимального количества слов. То есть из
всех ссылок которые ему попались он берёт 20 ссылок с самыми длинными анкорами.
Обычно это 4-5 слов. Если уж никаких нет ссылок, то тогда только он берёт ссылки из
двух слов.
Кстати что это значит "большая выдача" - у вас в хелпе не отражено, насколько понял это "Если яндекс выдал выдачу 100 или более сайтов, то модуль не рассматривает выдачу, а переходит к анализу другой ссылки."
Да. Всё верно.
Нужно все-таки больше ссылок с сайта выцеплять, а "большую выдачу", "более одного донора" и "акцептор не по ссылке" вообще в отчет не включать - ни о чем ведь...
В отчёт мы включаем всё что модуль делал, потому что у нас абсолютно открытый честный алгоритм, чтобы люди знали что наш робот не ленился, а действительно нашёл всё что возможно
и проверил всё что возможно.
С тем что он не всё находит, не согласны. Робот просматривает 100-200 страниц и берёт с них всё,
если это не в NOINDEX или robots.txt. Поэтому просим написать нам личное письмо с примерами сайтов или названием аккаунта, мы посмотрим действительно ли робот не справился с задачей или с ней невозможно было справиться.
TEH.RU добавил 31.07.2009 в 18:22
"Рекомендация: воздержаться от покупки новых ссылок" (то есть система точно не определила плохой донор или хороший) в подавляющем большинстве случаев. Удалось отсеять примерно 7-10% доноров, которые были помечены как "плохие", но при детальном просмотре отчетов - то что они "плохие" понятно не на 100%. Реально плохих 1-2%, которыми можно пренебречь. Судя по описанию логики модуля, вроде бы неплохо должно все работать, но на деле как-то сыровато. Для себя решил на время забить на этот сервис.
Плохим донорам у нас выставляются баллы. Баллы считаются по специальной формуле, которая
приведена в описании сервиса. В отчётах есть все данные по которым производится рассчёт по формуле. И формула считается как раз по детальному изучению отчёта. Возможно вы хотели бы снизить порог проходного балла, то есть балл с которого сайт уже не считается плохим. Изначально он стоит 90, вы можете поставить например 80. Тогда сайты набравшие 80 будут считаться хорошими.
Посмотрел в отчеты, где "рекомендуется воздержаться" - у большого количество сайтов далеко не по 20 ссылок бралось для анализа. причем есть и такие где по 2 - 3 ссылки. Странно, вроде упоминалась цифра 20, попахивает экономией ресурсов, причем грубым. Все сайты с бирж, у каждого куча ссылок... Деньги естественно взимаются.
жаль...
Посмотрел в отчеты, где "рекомендуется воздержаться" - у большого количество сайтов далеко не по 20 ссылок бралось для анализа. причем есть и такие где по 2 - 3 ссылки. Странно, вроде упоминалась цифра 20, попахивает экономией ресурсов, причем грубым. Все сайты с бирж, у каждого куча ссылок... Деньги естественно взимаются.
жаль...
По каждому сайту в обязательном порядке набираем 20 ссылок если они там есть. Меньше набираем только в следующих случаях:
1. Если пройдено 100-200 страниц и там попалось меньше 20 ссылок.
2. Если ссылки закрыты в noindex или robots.txt
3. Если на сайте действительно мало внешних ссылок.
Не экономим, всегда проходим (если есть) не меньше 100 страниц. С них берём все внешние ссылки. Приведите примеры в личном сообщении или не в личном, проверим вместе и разберёмся по какому маршруту двигался робот и была ли там возможность найти ссылки.
TEH.RU добавил 02.08.2009 в 12:13
Также обратите внимание, если вы задаёте какой-то конкретный раздел сайта, то рекомендуем ставить опцию - выходить из раздела на главную, если ссылок в разделе мало. Потому что в разделе действительно может быть мало ссылок, хотя на сайте их много.
Исправлена ошибка. Возможно некоторое время бралось меньше страниц чем положено. Приносим извинения.