- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые господа, уважаемые дамы, товарищи!
Yandex и Google показывают ссылки на странички, которых нет на сайте уже более месяца.
Сайт сделали полностью новый и переехали на новый хостинг.
Что лучше сделать, чтобы из поисковиков исчезли эти старые ссылки?
Я пока предполагаю тупо вписать в robot.txt:
User-agent: *
Disallow: /file_name_1
Disallow: /file_name_2
Disallow: /file_name_3
Скажите, насколько это правильное или неправильное решение?
И ещё. Правда ли что лучше сделать 301 редирект на URL с приставкой www? Вот мне пишут из Demis Group:
На сайте обнаружены страницы, доступные по разным адресам, но с одинаковым содержимым. Это могут быть полные дубли страниц, с точностью до буквы, а могут быть сильно похожие страницы, например таковыми являются страницы со списком товаров отсортированными в разном порядке (фактически текст тот же, но в другом порядке). Поисковые системы воспринимают это как дублирование содержимого страниц и, в лучшем случае, исключают дублирующиеся страницы из поисковой выдачи, а в худшем, накладывают на сайт штрафные санкции (бан), что крайне пагубно сказывается на всем сайте и его положении в поисковой выдаче.
В простейшем случаем решение данной проблемы осуществляется сокрытием от индексации (посредством тегов noindex, аттрибута nofollow у ссылки и необходимыми правилами в файле robots.txt) блоков, являющихся причиной появления полных или частичных дублей, например, блока сортировки товаров в каталоге. В некоторых случаях, причина — логика работы системы управления сайтом и, в этом случае, дать однозначных рекомендаций нельзя, к каждому такому случаю нужен уникальный подход. Помимо сокрытия страниц от индексации необходимо поставить перенаправление с кодом 301 (постоянный редирект) с дублирующей страницы на основную и заменить все соответствующие ссылки на сайте.
Ниже представлены найденные на сайте дубли страниц. При одобрении данного вида правок с клиентом мы самостоятельно устраним подобные дубли.
Дубли образованы из-за отсутсвия редиректа с domain.com на www.domain.com или www.domain.com → domain.com
На сколько мне известно noindex и аттрибут nofollow сейчас работаю не так как раньше, с атрибутом nofollow вес не передается, но теряется.
А на счет www или без, это ИМХО дело вкуса, я перенаправляю на "без".
На счет удаленных страниц в индексе, у меня была похожая ситуация (висели в индексе 2 месяца) ИМХО лучший вариант это редирект 301, если уместно, если нет, то 404
Ручное удаление страниц в индексе
Яндекс:webmaster.yandex.ru/delurl.xml
Google: google.com/webmasters/tools/
robots.txt
Дело вкуса конечно, но я бы обратил внимание на поисковую выдачу, и принял решение.
Если ваш сайт уже в индексте решать с www или без решать уже поздно, а редирект делать глупо, это выставляется в роботс.
Страницы что в индексе, по которым все еще пытаются получить информацию должны быть с редиректом на "туда" где они сейчас есть. Это хорошо как для пользователей так и для ПС.
Спасибо всем.
Только я не пойму главного - почему они заявляют, что на сайте дубли страниц?
Разве поисковик расценивает www.site.com/xyi.html и site.com/xyi.html как две разные страницы?
Страницы что в индексе, по которым все еще пытаются получить информацию должны быть с редиректом на "туда" где они сейчас есть. Это хорошо как для пользователей так и для ПС.
Точно так!
Но этих страниц уже нет на сайте.
Вообще их нет, они не нужны.
В общем я сейчас вручную в Яндексе вбивал URLs и удалял страницы.
Вдобавок, как советовали, в robots.txt прописал Disallow для каждой этой страницы.
Ещё главным зеркалом сайта задал domain.com вместо www.domain.com (сейчас основное зеркало).
Не знаете через сколько дней Яндекс всё это поменяет?