- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Господа! Бьюсь уже третью неделю с вытиранием через robots.txt из поисковиков файлов конструкции http://www.domain.ru/?folder=5&file=ping
С рамблером закончилось совсем плачевно, но скорее всего причина была в том, что я не пропустил строку между дериктивами для разных User-Agent. Сие не помогает:
User-Agent: *
Disallow: /?folder=5&file=ping
Где грабли? Заранее благодарен!
Господа! Бьюсь уже третью неделю с вытиранием через robots.txt из поисковиков файлов конструкции http://www.domain.ru/?folder=5&file=ping
С рамблером закончилось совсем плачевно, но скорее всего причина была в том, что я не пропустил строку между дериктивами для разных User-Agent. Сие не помогает:
User-Agent: *
Disallow: /?folder=5&file=ping
Где грабли? Заранее благодарен!
Может в ДНК? :) (Шутка. Не обижайтесь.)
Как Вы выяснили, что такая конструкция robots.txt не помогает?
Что отвечает скрипт удаления в Яндексе?
В том-то и фокус, что запрос ошибок не генерит :) Так было задумано, чтоб из выдачи не пропадать по мере переиндексации с мод_реврайтом :)
Забубенил в роботс запреты на старые запросы, не помогает, бот проезжается по ним, получает опять 200 и ничего не делает :(
А вот и ответик :(
URL доступен и не запрещен в /robots.txt. Нет оснований для удаления.
А проблема была действительно в ДНК :)
Добавил снова строки в роботс, вручную засабмитил, получил ответ, что файлы будут удалены из базы по мере обхода робота! Перефразирую вопрос: "Почему автоматом не хочет удалять, а ведь цепляет роботс почти каждый день?". И еще... из роботса строки я опять удалил, уж дюже стремно опять накосяпорить и вывалиться на три недели :) А если в следующий обход бот не обнаружит дисалловных строк, он опять проиндексит старую динамику ? :) :) :)
А если в следующий обход бот не обнаружит дисалловных строк, он опять проиндексит старую динамику ? :) :) :)
Да.
Строки в robots.txt надо оставить, иначе робот не увидит запрещения. Кстати, у Вас абсолютно правильная конструкция robots.txt, никаких проблем возникнуть не должно.
Пасиба за разъяснения :) Век живи, век учись!