SEOForce

Рейтинг
121
Регистрация
02.01.2009
MiRaj:
Так сейчас и работает. С одного домена одна ссылка на один акцептор.
Или вы хотите с одного домена не более одной ссылки на все акцепторы в рамках сайта?

Да, хотелось бы, чтобы на все запросы одной кампании приходились ссылки с разных доменов. В кач-ве опции такое ведь можно реализовать?

Ну и в догонку, чтобы сервис показывал не только позиции, но и страницы продвигаемого сайта, которые на этих позициях. Если страница отличается от продвигаемой, подсвечивать красным. Или это слишком ресурсоемкая задача? :)

Bdiang:
Да, система очень медленно покупает ссылки до необходимого бюджета. Скорее топчется на месте, накупит - снимет, накупит - снимет.

Тише едешь - дальше будешь :) Тут две стороны медали... с одной - аккуратность, с другой - попытка экономить ваши деньги, как мне кажется.

Вообще хотелось бы, чтобы можно было фильтровать купленные ссылки для каждого проекта: с одного домена - одна ссылка.

jcrush:
Кстати беков более 10к прибавилось, имхо каталоги опять стали работать! Тоже радует!

Они никогда не переставали работать. Тут вообще вопрос работы каталогов неуместен, а ссылки с любой помойки будут передавать минимум веса, или вовсе 0. Да и подавляющее большинство каталогов, до сего АПа, было под фильтрами, за пределами индекса или вовсе забанены :)

В этот АП по многим проектам хороший плюс. В целом, за 1,5 месяца работы с вебэффектором, доволен и работой сервиса и экономией времени :) посмотрим, что будет дальше.

Я так понимаю статья вырождена из статьи "Т-С!" 😂 ну собственно самый действенный способ - ликвидировать похожие вхождения на "ненужных" страницах, а лучше всего временно исключить эти страницы из индекса (запрет в robots.txt -> удаление урла из базы через панель вебмастера Яндекса). Ничего ужасного в этом нет, если вы знаимаетесь целевым продвижением конкретных страниц по конкретным запросам, утрамбованных в конкретный бюджет и сроки ;) это что касается именно продвижения и обрезания сайта. Как только нужные страницы возвращаются на свои места по нужным запросам (а возвращаются они в следующий же АП, во всяком случае у меня они вернулись на следующий день после манипуляций), приступаете к оптимизации сайта и контента. Если вы уверены, что весь контент и запросы структурированы по страницам и, на ваш объективный взгляд, на каждый запрос приходится макс. одна релевантная страница сайта, можно смело выпускать в индекс.

Угу-угу, сделали из Яндекса "Иперию Зла"... щаз обзяательно кто-то дополнит "Скоро Яндексу хана, Гугл всех порвет" 🍿

stifler_x:
Он не должен индексировать вообще.

Ну для поискового индекса и рейтов не учитывает, для других целей пропускает тег.

помоему очевидно, что панель вебмастера представляет из себя набор инструментов для вебмастера, а не оптимизатора. Например по одному проекту наличие бэков меня вообще мало волнует и панелью пользуюсь лишь для того, чтобы отслеживать "копипастеров", вернее поставили они ссылку на источник или нет. Я обратил внимание на дату рядом с выгрузкой бэков - что это? дата последнего индекса ссылок?

Последние 25-30 АПов начинаются в 30-35 минут первого ночи :) причем, комдир ровно отсекал в этом отрезке))

Double Question:
Гуглу не составит вообще никакого труда занять его аудиторию.

Угу, там уже отряд Джонов Смиттов поджидает с лопатами и культяпками. Так шо и там огребать будем по полной програме, если...

Всего: 923