evildevel

evildevel
Рейтинг
39
Регистрация
14.11.2011

Страницы будут в индексе если оставить их перечисление только в сайтмапе. Но думаю, что не стоит убирать ссылки на эти страницы на самом сайте.

globkiril:
Жду апа, ели сайт и в этот раз, не появиться в выдаче, придется писать ПланКтонам

Долго ждете? Я месяц уже сижу жду.. вот думаю, это нормально?

Cthulchu:
Знаешь, я не представляю, как кто-либо может не понять общепризнанный код, описанный в стандартах http. да, 410 - и есть тот самый код. но это плохой вариант. таким образом сайт утратит траст (ну, если все страницы так кильнуть). явное удаление контента. лучше переклеить, тогда вес передастся.

Мне тоже кажется, что отдавать 410 это плохое решение. Гугл может еще и переварит, а вот за Яндекс я переживаю =(

Cthulchu:
есть код, который явно говорит: "страница удалена", ибо 404 - как правило

410 Яндекс понимает?

Cthulchu:
evildevel, мы говорим о яндексе и АГС. для яши это одно и то же. и выброс сайта из индекса всегда делался дизаллоу роботсом. С недавних пор он не работает и выбрасывают страницы с помощью 404. а за гугл - спасибо, знаю, что он различает эти директивы, но не знал, что об этом писали, спасибо.

В любом случае, имея возможность установить требуемый метатег и отдавать 404, если хотите выкинуть страницу не правильно. Так как поисковик не сразу принимает решение о исключении из индекса страницы. которая раньше была 200 а теперь вдруг стала 404. Уверен, что бот еще не один раз сделает к такой странице запрос (на это потребуется время, для яши наверное знаете сколько 🤣) прежде чем принять такое решение. На мой взгляд, более правильно отдать роботу четкую инструкцию через метатег.

---------- Добавлено 23.04.2013 в 15:21 ----------

Cthulchu:
чтобы не возникло проблем, например, в Яндексе

Если цель убрать страницы с индекса, какие проблемы могут возникнуть с Яндексом если отрыть в robots.txt требуемые страницы и поставить на них метатег ноиндекс? Не представляю.

Cthulchu:
evildevel, чочо? ноиндекс и запрет в роботсе - не одно и то же? ничегосебе! на отличненько! короче, мета роботс - дублирование функционала robots.txt. и не надо выдумывать сказки да лигендо.

нда... серч - такой серч...

Лапшу на уши не вешайте. Представьте себе, не одно и тоже. Нет гарантии того, что ранее проиндексированная страница вылетит, если в роботсе указать disallow.

Просвещайтесь: http://siteclinic.ru/blog/tehnicheskie-aspekty/soveti-ot-google/

Тема 2

Подозреваю, что Яндекс поступает точно также. Если покапаться в мануалах Яши или спросить у них, думаю последует аналогичный ответ.

boxua:
т.е. роботс лучше оставить пустым? и подскажите плз, как (где) правильно ставить на страницах тег ноиндекс?

Спасибо!

http://robotstxt.org.ru/robotsexclusion/meta

boxua:

3. Закрываем в АГСном сайте в robots.txt индексацию ПС кодом
User-agent: *
Disallow: /

В роботсе пишутся инструкции для бота. Для того, чтобы страницы удалились из индекса необходимо наоборот убрать все запреты из роботса и проставить на всех страницах метатег, noindex. В таком случае, поисковой бот загрузит страницы и обработает вышеупомянутый метатег. После этого можно спокойно ждать, когда из поиска исчезнут все страницы.

Остальное хз... Сам сейчас стою перед выбором, переносить на новый домен сайт или нет.

MudryiKaa:
Блин, ну при такой инфантильности, хоть раз в 10 дней можно АПать нормально!? Такое ощущение, что Яша на 486-х до сих пор работает...

дада)) тоже закралась такая мысль 😂

datot:
Переносить на новый домен бесполезно.

Интересно ваше мнение. Почему?

Всего: 146