- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Суть есть сайт, делался как СДЛ, но потом уже решил зарабатывать с продажи ссылок. Имеет ТиЦ 200, бэки хорошенькие. Но блин из 150 обзоров (GGL) опубликованные за последние полтора месяца, есть 7 обзоров которые не хотят индексироваться, причем уже остается 5 дней до момента отклонения заявки. Статьи все хорошие покупались на advego и проверялись на уник и т.д. перед добавлением. Что я только не делал с ними и закупал ссылки в сеопульт (ставил 50 руб. автоматический режим), добавлял текста еще в статьи, выводил ссылки на эти статьи с главной страницы. Все равно ну не хотят индексироваться хоть убей ((
Какие есть способы загнать эти страницы в индекс? Поможет ли покупка жирной ссылки в PR.sape? Или есть другие способы?
А почему сразу в этом же ггл не закупиться?
А вообще смешно получается - покупать ссылки, чтобы проиндексировались чужие.
сменить адреса, купить ссылок, добавить в аддурилку.
На индексацию проблемных страниц случайно нет запрета?
Проверьте robots.txt на disallow
Да уж.. Сейчас в индекс страницу вогнать не так-то просто, не то что раньше - ссылка с твиттера и все.
По сабжу. Сделайте все в комплексе.
Ссылку с главной, ссылки с разл. соц. сетей (я.ру, вк, жж и т.д.), ссылок с сапы, ссылку с живого сайта (чтобы были переходы).
Переносил на другой адрес, до этого несколько месяцев несколько статей робот обходил стороной, ссылки не помогли. Все зависит от конкретного случая, но я такими фокусами все же предпочитаю не заниматься - мало ли
Не знаю от куда такие данные, что твиттер не помогает уже. Просто видать акки такие. Мне твиттер помогает до сих пор. После прогона индексирующий бот приходит в течении минут 30 и в ближайшее время страница появляется в быстрой выдаче.
Статьи все хорошие покупались на advego и проверялись на уник и т.д. перед добавлением.
Может проблема в статье (не понравилась Яше и все тут)? Попробуйте чуть изменить текст, добавить текста на страницу, дополнить, добавить фото.
Не знаю от куда такие данные, что твиттер не помогает уже. Просто видать акки такие. Мне твиттер помогает до сих пор. После прогона индексирующий бот приходит в течении минут 30 и в ближайшее время страница появляется в быстрой выдаче.
Твиттер точно помогает, подтверждаю. У меня на днях 24 чужих сайта долго висело в ггл с купленными мной ссылками на них, так я для ускорения их все затвитила, на следующий день вся компания дружно перешла в проиндексированные.
Проверьте robots.txt на disallow
Просто добавить в аддурл, если есть запрет укажется, если нет, тогда шляпа - бейте по социалке с хорошими аками. (Скиньте урлы в личку, прогоню по своим {для ТС})