- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
у меня проблем нет
есть - вы просто этого не знаете :)
есть - вы просто этого не знаете :)
ну и закончим на этом:)
Miracle, я изучил вашу ситуацию. Тут вопрос очень интересный. В сентябре 2011 обе поисковые системы давали одинаковый ответ на вопрос о JS-ссылках:
* Источник: http://help.yandex.ru/webmaster/?id=1108949. Фрагмент:
Наиболее распространенным способом размещения ссылки является HTML тег <A>. Но существуют и другие способы навигации между страницами. Например, можно использовать технологии JavaScript или Flash. Робот Яндекса не переходит по таким ссылкам, поэтому следует дублировать ссылки, реализованные при помощи скриптов, обычными текстовыми ссылками.
** Источник http://www.google.com/support/webmas...y?answer=66355 Фрагмент:
Когда робот Googlebot индексирует страницу с элементами JavaScript, он не сможет проверить или проиндексировать ссылки, скрытые в самом JavaScript.
Уже в январе Гугл подправил свой FAQ:
Когда робот Googlebot индексирует страницу с элементами JavaScript, есть вероятность, что он не сможет перейти по ссылкам, скрытым в самом JavaScript, и проиндексировать их
--------
Поэтому в Getgoodlinks, например, мы по умолчанию не считаем JS-ссылки за ссылки, но по жалобе оптимизаторов можем отменять выполненные задания, где есть превышение по количеству ссылок с учетом JS-ссылок. Что касается Gogetlinks, Яндекс не изменил свой подход, по-прежнему указывая, что не индексирует такие ссылки. Поэтому это наша ошибка, задание было отменено по аналогии с Getgoodlinks, хотя не должно было отменяться.
Примите извинения. Работу техподдержки подкорректировали.
спасибо за официальный ответ.
простите. я не понял. если с моей стороны никаких проблем нет, то что делать в этой ситуации.
в суппорте до сих пор не ответили.
Интересно, а как идет набор в суппорт? :)
Интересно, а как идет набор в суппорт?
Так же, как и в любой другой вшивой конторке: кумовья, друзья, "хорошие" знакомые и т.п.
Не считаете ли вы, что некоторые заказчики просто паразитируют на этом?
Не думаю.
Всё должно быть честно. Если я, как оптимизатор, плачу деньги за ссылку, то не хочу её видет в джаве или нофоллоу, потому как КПД от такой ссылки мчится к нулю.
Игорь ( Родной Портал), так тут как раз не про вашу ссылку в джаве, а про то что ваша ссылка отлично вписана, но есть контекстная реклама и вы отклоняете из-за этого заявку.
MedLib, ну я примерно также думаю, хотя есть варианты)))
Miracle, я изучил вашу ситуацию. Тут вопрос очень интересный. В сентябре 2011 обе поисковые системы давали одинаковый ответ на вопрос о JS-ссылках:
* Источник: http://help.yandex.ru/webmaster/?id=1108949. Фрагмент:
Наиболее распространенным способом размещения ссылки является HTML тег <A>. Но существуют и другие способы навигации между страницами. Например, можно использовать технологии JavaScript или Flash. Робот Яндекса не переходит по таким ссылкам, поэтому следует дублировать ссылки, реализованные при помощи скриптов, обычными текстовыми ссылками.
** Источник http://www.google.com/support/webmas...y?answer=66355 Фрагмент:
Когда робот Googlebot индексирует страницу с элементами JavaScript, он не сможет проверить или проиндексировать ссылки, скрытые в самом JavaScript.
Уже в январе Гугл подправил свой FAQ:
Когда робот Googlebot индексирует страницу с элементами JavaScript, есть вероятность, что он не сможет перейти по ссылкам, скрытым в самом JavaScript, и проиндексировать их
--------
Поэтому в Getgoodlinks, например, мы по умолчанию не считаем JS-ссылки за ссылки, но по жалобе оптимизаторов можем отменять выполненные задания, где есть превышение по количеству ссылок с учетом JS-ссылок. Что касается Gogetlinks, Яндекс не изменил свой подход, по-прежнему указывая, что не индексирует такие ссылки. Поэтому это наша ошибка, задание было отменено по аналогии с Getgoodlinks, хотя не должно было отменяться.
Примите извинения. Работу техподдержки подкорректировали.
видимо очень опасная ссылка
<script type="text/javascript">
var begun_auto_pad = НОМЕР;
var begun_block_id = ЕЩЕ НОМЕР;
</script>
<script src="http://autocontext.begun.ru/autocontext2.js" type="text/javascript"></script>
Ну а ограничение внутренних - это просто бред.
но есть контекстная реклама и вы отклоняете из-за этого заявку.
вообще-то, это нормально - нафига мне как оптимизатору другие внешние ссылки со странице донора?
видимо очень опасная ссылка
вы ради интереса посмотрите карту ссылок страницы с js ссылками (фильтр кликов по тегу <a> если не поняли)
P.S. вообще-то если на доноре стоит бегун и нет РСЯ - 99,(9)% ГС :)
---------- Добавлено 27.02.2012 в 23:44 ----------
Ну а ограничение внутренних - это просто бред.
нет, а если у вас 5000 внутренних - нафига такой донор вообще сдался? :)