Stislov

Рейтинг
106
Регистрация
02.09.2009
Obogrel:
Подскажите, пожалуйста, парсер через api (плантный или безплатный неважно). Чтоб максимально просто - выбрал гугл, (по возможности язык интерфейса) отправил запрос и получил количество найденных сайтов и адреса с первой страницы выдачи. Желательно конечно чтоб работал быстро и не глючил. Больше ничего не нужно. Есть такой сервис?

Тоже присоединяюсь к вопросу, нужно самому формировать запрос и через api получать релевантные страницы.

Мы просто года 4 ставили эксперимент 2 страницы в выдаче по НЧ, после того как поставили 9 ссылок (тематических, без nofollow ) позиция с 3 упала на 9, после того как поставили (nofollow ) вернулось на 5 позицию. Сейчас 3-4 месяца нету, ехх .. Спасибо всем за ответы.

87793:
Так исходящие ссылки со страницы ейного веса не уменьшают :p.

Да, ладно. всегда считал, что вес перетекает от донора акцептору. Поставите тогда на меня ссылки ?) Можно почитать на эту тему или пример какой-то ?

Сейчас при использовании nofollow вес все равно уходит, но не попадает к акцептору. Но читал несколько статей, что вес с nofollow больше сохраняется.

В общем запутался, у кого какая практика была ?

87793:
А какой Вам резон не давать этим поддоменам веса? 😕

Так как мне они не важны, мне нужно оставить вес на странице каталога.

87793:
Ну и что? 😕

распределение веса, то есть мы с этой страницы перебрасываем вес на 20 разных сайтов (там поддомены)

87793:
А в чём Вы видите смысл nofollow в данном случае? 😕

со страниц СЧ идет до 20-30 ссылок на другой домен.

При запуске SupportKC, ошибка вываливается "Возникала ошибка при загрузке скриптом механизма технической поддержки"

ТС работал над моим строительным порталом 7 месяцев, трафик увеличил с 500 до 3,5-4к, также сейчас сотрудничаем над новостным порталом, целевой трафик с контекста по минимальной цене.

С какой статистикой работать. От каких данных оталкиваться ?

Класно, бы было, если можно было фильтровать запросы по доменам, если собираешь например с semrush или spywords.

Всего: 133