- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Все ответы не читал, но прочитал старпост. На каждую ссылку (учитывая что их не много). Ищите бесплатные трастовые ссылки (соцсети, комменты, сервисы вопросов и ответов). Главное максимально подходяще и тематичней. Продвигайте Ваши топовые беки, как будто продвигаете контент.
вообще не могу этим ботом ничего загнать, пустая трата денег
Как раз искал информацию про этот сервис (давно нашел, а я не уверен, что это даст эффект).
Гугл в 2015 сам съедал все ссылки, в день жадно жрал по 10 тысяч страниц, их было под миллион наверное. А теперь пишешь статью – сам не заходит. Сайтмэп видит, но все страницы сразу в исключенные и не торопится их обходить сам. Если потребовать от него через вебмастер проиндексировать – заходит, но далеко не сразу, и только 11 ссылок в день. Да, добавляет в индекс на следующий день почти все страницы, но это слишком медленно.
Я знаю, есть апи для гугл вебмастера, но настроить его непросто (первый раз попробовал, не осилил и забил). Есть ли в этом АПИ ограничение по количеству ссылок? Мне нужно очень много страниц загнать.
Потестировал сервис. Ну слегка неудобно конечно… Приходится сначала txt файл в телефон… Для проверки попробовал отправить 80 урл. Сейчас проснулся, и стал проверять. Гугл обошел каждую страницу из списка по моим логам! Потом стал проверять по запросу, залетели 19 страниц из раздела, который тестировал, и которого не было в индексе! Может быть, со временем их станет больше… Обрабатываются ещё. Но факт в том, что РЕШЕНИЕ ЕСТЬ!!!! Вот и интересно, каким образом делают эти ребята с сервиса.
Пока нашел только google indexing api, там крота на 200 адресов в сутки, но ее можно расширить. Возможно они через api делают, но вопрос: а разве можно чужой неподтвержденный сайт отправить на индексацию? Но факт в том, что есть способ! Надо его разузнать и никому не платить. А то 1 рубль за ссылку дорого слишком.
Потестировал сервис. Ну слегка неудобно конечно… Приходится сначала txt файл в телефон… Для проверки попробовал отправить 80 урл. Сейчас проснулся, и стал проверять. Гугл обошел каждую страницу из списка по моим логам! Потом стал проверять по запросу, залетели 19 страниц из раздела, который тестировал, и которого не было в индексе! Может быть, со временем их станет больше… Обрабатываются ещё. Но факт в том, что РЕШЕНИЕ ЕСТЬ!!!! Вот и интересно, каким образом делают эти ребята с сервиса.
Пока нашел только google indexing api, там крота на 200 адресов в сутки, но ее можно расширить. Возможно они через api делают, но вопрос: а разве можно чужой неподтвержденный сайт отправить на индексацию? Но факт в том, что есть способ! Надо его разузнать и никому не платить. А то 1 рубль за ссылку дорого слишком.
А с компа боты не работают?
А с компа боты не работают?
Я не знаю, насколько знаю можно с телефона или может быть через какой-нибудь эмулятор андроида получится… Уже 42 страницы из 80!!! Сервис рабочий. Но дорого! Я бы хотел найти способ бесплатно! Они же делают это как-то.
Xrumerом проспамить по форумам, гостевухам, блогам и т.п. У меня в подписи смотрите
В общем, прошло достаточно времени.
Тем сервисом все что прогнал – все страницы в индексе в итоге (в панели вебмастера они проиндексированы, а не как обычно "обнаружено, исключено"
Но это дорого… Поэтому стал копать в сторону google indexing api Для меня было сложновато, и только с 3 раза смог сегодня первый раз прогнать страницы своего сайта! Бог сразу заходит на страницы! Правда можно отправить всего 200 запросов на индексацию в сутки, но это уже не 10, и без долгих ожиданий с каптчами (светофорами и гидрантами). Но для меня лично было сложно!
В официальном мануале гугла нигде не написано, что надо сам этот апи вообще ВКЛЮЧИТЬ! Ну и есть тонкости, наподобие добавления владельца в панели вебмастера (если сделать просто "полный доступ", ничего работать не будет).
Но в итоге скачал библиотеку, настроил и проверил – оно того точно стоило. Правда, чужой сайт сканировать нельзя, и субдомены тоже, если в них не добавлен владелец. Поэтому интересно, все же каким методом пользуются разрабы того сервиса. Может быть, где-то публикуют временные ссылки, а потом их убирают?
Бог сразу заходит на страницы!
как чётко подмечено...
как чётко подмечено...
это не опечатка.