- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Всегда этим пользуюсь и каждый раз удивляюсь, почему у той же Сапы такого нет.
А не удивляетесь, почему в каждом втором случае данные ЛФ расходятся с действительностью? С таким же успехом можно кидать монету - вероятность угадать одинаковая.
радости моей нет предела
Да я и рад. :) Я просто не понял, что Вы про YAP, извините.
Лично у меня данные ЛФ совпадают. Правда, я добавляю сайты, когда они большей частью в индексе, поэтому расхождение в 3-5 страниц для меня не смертельно.
Что касается плагина для UniPlace, то не могу от него оторваться. Чекает на ура. Как представлю, что мне пришлось бы ручным способом кликать по YAP, аж дурно становится.
Правда, я добавляю сайты, когда они большей частью в индексе
Я говорю о покупке ссылок. На данные ЛФ нельзя полагаться, когда подбираешь страницы для размещения. И это не упрек. Просто технически невозможно постоянно мониторить индексацию миллионов страниц.
Вот Сапа сейчас что-то такое затеяла и что? Результат такой же - в половине случаев данные о наличии страниц в индексе неверны, так там из-за таких ошибок еще и нормальные площадки вылетают из поиска.
Поэтому я думаю, что такие нововведения со стороны биржи скорее вредны. Лучше пусть каждый сам проверяет страницы со своего айпи.
данные о наличии страниц в индексе неверны, так там из-за таких ошибок еще и нормальные площадки вылетают из поиска.
Увы, надо признать, что это так. Очень обидно, когда из-за глюка перестают покупать ссылки с твоего сайта, который как был, так и находится в индексе. Конечно, администрация уже пообещала исправить проблему. Но велика вероятность, что попутно они сломают что-то ещё.
Очень обидно, когда из-за глюка перестают покупать ссылки с твоего сайта
Это не глюк, это системная проблема. Сапобот, проверяющий проиндексированность, банится Яндексом и после этого в течение нескольких часов отправляет все проверяемые площадки в список непроиндексированных, соответственно в поиске они уже не предлагаются.
долбит до конца не останавливаясь на капчу
Вот вам капча 😆
Плагин неправильно работает. ЯП помечает галочкой и зеленым цветом те страницы, которые проиндексированы яндексом.
А зачем это нужно? На мой взгляд нужно помечать галочкой и красным цветом НЕпроинексированные страницы, чтобы их можно было удалить.
На мой взгляд так проще. Посмотри на плагин винка. Он помечат галочкой плохие страницы.
А так плагин хороший. Спасибо :)
удалено
________
Только у меня плагин стал все страницы отмечать красным? (
Утром все ок было..
Видимо, Яндекс что-то изменил, так как вчера аналогичная проблема была с плагином Wink-а. Сегодня скачал новую версию для Сапы. Работает, но как-то вяло. Так что надо ждать, когда для плагина для UniPlace сделают обновление.