- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
цитирую дословно
У Вас на сайте ____ была обнаружена ссылка, не закрытая от индексации
(begun)
В связи с этим, мы были вынуждены отменить задание по просьбе оптимизатора на странице ____ . Ссылку оптимизатора можете снимать.
Пожалуйста, исправьте сложившуюся ситуацию с закрытием от индексации, иначе мы будем вынуждены заблокировать Вашу площадку.
Спасибо за понимание!
Друзья, я чего то не знаю или сообщения там пишут не разобравшись в проблеме?:)
Miracle, там жалоба оптимизатора является самым главным критерием.
Я уже как то отписывал проблему, но больше с ветряными мельницами бороться нет смысла. Проще закрывать площадки.
Можете ради интереса проверить на любой площадке которая даже идеально выполнила заявку написать жалобу - 99% Ваша жалоба как оптимизатора будет удовлетворена.
Модераторы GoGetLinks на 99% не адекватны и к сожалению ничего поделать нельзя.
С одной стороны хорошо, а то я начинаю уже комплексовать )))
С другой стороны проблему все же интересно решить. До этого проблем не было со статьями!
это еще ладно, бывают товарищи которые и ноуфоллоу считают и еще кричат, что они не хотят в куче рекламы размещать свои ссылки, учитывая, что в ноуфоллоу у большинства стоят только счетчики статистики, ну т.е. задание не проходит из-за того что у меня на сайте три счетчика в ноуфоллоу стоят, вот что я должен сделать? праильно на ...й послать умного оптимизатора навсегда:)
которые и ноуфоллоу считают
ну т.е. задание не проходит из-за того что у меня на сайте три счетчика в ноуфоллоу стоят, вот что я должен сделать?
а что мешает убрать счётчики из кода?
P.S. а зачем вам 3 счётчика???
а что мешает убрать счётчики из кода?
P.S. а зачем вам 3 счётчика???
а кого это волнует зачем мне и отчего?
нравится мне
это еще ладно, бывают товарищи которые и ноуфоллоу считают и еще кричат, что они не хотят в куче рекламы размещать свои ссылки, учитывая, что в ноуфоллоу у большинства стоят только счетчики статистики, ну т.е. задание не проходит из-за того что у меня на сайте три счетчика в ноуфоллоу стоят, вот что я должен сделать? праильно на ...й послать умного оптимизатора навсегда:)
То же касается и кол-ва внутренних ссылок. Особо одаренные оптимизаторы видят что площадка - блог, где куча тегов, категорий и прочего, шлют заявку на размещение, и затем у них претензия что ссылок больше 60. Короче умом их не понять увы
Miracle, я изучил вашу ситуацию. Тут вопрос очень интересный. В сентябре 2011 обе поисковые системы давали одинаковый ответ на вопрос о JS-ссылках:
* Источник: http://help.yandex.ru/webmaster/?id=1108949. Фрагмент:
Наиболее распространенным способом размещения ссылки является HTML тег <A>. Но существуют и другие способы навигации между страницами. Например, можно использовать технологии JavaScript или Flash. Робот Яндекса не переходит по таким ссылкам, поэтому следует дублировать ссылки, реализованные при помощи скриптов, обычными текстовыми ссылками.
** Источник http://www.google.com/support/webmas...y?answer=66355 Фрагмент:
Когда робот Googlebot индексирует страницу с элементами JavaScript, он не сможет проверить или проиндексировать ссылки, скрытые в самом JavaScript.
Уже в январе Гугл подправил свой FAQ:
Когда робот Googlebot индексирует страницу с элементами JavaScript, есть вероятность, что он не сможет перейти по ссылкам, скрытым в самом JavaScript, и проиндексировать их
--------
Поэтому в Getgoodlinks, например, мы по умолчанию не считаем JS-ссылки за ссылки, но по жалобе оптимизаторов можем отменять выполненные задания, где есть превышение по количеству ссылок с учетом JS-ссылок. Что касается Gogetlinks, Яндекс не изменил свой подход, по-прежнему указывая, что не индексирует такие ссылки. Поэтому это наша ошибка, задание было отменено по аналогии с Getgoodlinks, хотя не должно было отменяться.
Примите извинения. Работу техподдержки подкорректировали.
Не считаете ли вы, что некоторые заказчики просто паразитируют на этом? Имхо лучше такого заказчика послать, чем хорошего исполнителя обидеть. Спрос на вечные ссылки будет всегда, только вот хороших исполнителей найти не всегда можно.
а кого это волнует зачем мне и отчего?
нравится мне
вы же желаете зарабатывать на продаже ссылок?
ну так сделайте так что бы проблем не было :)
вы же желаете зарабатывать на продаже ссылок?
ну так сделайте так что бы проблем не было :)
у меня проблем нет, проблемы я так думаю у тех кто считает ноуфолоу