- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В гугле можно удалить не только урл, но и целый каталог. А вот как это сделать в яндексе?
robots.txt отменили ?
Disallow: /katalog/
TheStig, в роботсе уже давно прописано, но через него долго, очень долго.
TheStig, в роботсе уже давно прописано, но через него долго, очень долго.
ХАХАХА... А вы предложите более быстрый способ))) Роботс - это самый быстрый способ, ну а если вы не хотите, чтобы просматривали эти странички, то пишите перманентный редирект или просто редирект.
---------- Post added 29-07-2012 at 09:58 ----------
TheStig, в роботсе уже давно прописано, но через него долго, очень долго.
1 АП хватит.. Если вы долго ждёте, значит что-то ни то прописали... В помощь Там же и анализатор для проверки правильности прилагается..
ХАХАХА... А вы предложите более быстрый способ))) Роботс - это самый быстрый способ, ну а если вы не хотите, чтобы просматривали эти странички, то пишите перманентный редирект или просто редирект.
---------- Post added 29-07-2012 at 09:58 ----------
1 АП хватит.. Если вы долго ждёте, значит что-то ни то прописали... В помощь Там же и анализатор для проверки правильности прилагается..
Вот самый быстрый способ http://webmaster.yandex.ru/delurl.xml но я не хочу вбивать более 300 страниц вручную. В гугле этот же сервис сделан гораздо функциональнее, там можно выбрать "удалить каталог". В Яндексе же такого нет. А мне как раз бы 3-4 каталога надо удалить.
Я не долго жду, прошел всего один ап, после которого появились дубли, но по опыту знаю, что запрещенные в роботсе страницы могут вылетать месяцами.
Вот самый быстрый способ http://webmaster.yandex.ru/delurl.xml но я не хочу вбивать более 300 страниц вручную.
А в чем тогда проблема?
1. Капчи нет.
2. Метод GET.
Что стоит составить в экселе 300 строчек типа http://webmaster.yandex.ru/delurl.xml?url=http%3A%2F%2Fwww.ya.ru%2F&do=remove и отправить запросы?
bon_eur, я этого не умею(
Вот самый быстрый способ http://webmaster.yandex.ru/delurl.xml но я не хочу вбивать более 300 страниц вручную. В гугле этот же сервис сделан гораздо функциональнее, там можно выбрать "удалить каталог". В Яндексе же такого нет. А мне как раз бы 3-4 каталога надо удалить.
Я не долго жду, прошел всего один ап, после которого появились дубли, но по опыту знаю, что запрещенные в роботсе страницы могут вылетать месяцами.
Ну ни чем не быстрее))) Там тот же самый принцип - обход робота, как и в случае с роботс.тхт... У меня всегда всё нормально с роботсом было. как правило одного апа хватало, ну максимум 2.
bon_eur, я этого не умею(
1. Берете список урл на удаление, по запросу site:site.ru/catalog/.
2. Составляете в экселе строчки запросов на удаление.
3. Если не умеете скриптом, то просто 300 раз кликаете - это не долго.
ProTeg, хорошо, я попробую, спасибо!
bon_eur, спасибо за помощь. А как сделать урл на удаление? Подставить один в поле, нажать на удалить, после этого скопировать урл адрес и подставлять в определенное место свои урлы, так? Как взять список урлов из site:site.ru/catalog/ ? Если руками, то нет смысла, а спарсить я не смогу...
А как сделать урл на удаление?
В экселе есть функция СЦЕПИТЬ(), образец запроса к вебмастеру приводил выше.
Как взять список урлов из site:site.ru/catalog/ ?
Способов много. Например, плагин SEOquake к FF позволяет брать по 50 урлов из выдачи яндекса и сохранять в формат .csv, который открывается экселем.