- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет всем! У меня такой вопрос к знающим людям)) Если в панели вебмастера Гугл в разделе "Ошибки сканирования" появляются какие-то левые URL, отдающие 404 код, нужно ли настраивать с них редиректы или что-то ещё с ними делать? Или просто забить? Ведь урлы левые, а следовательно и страницы по этим урлам мне не нужны, пусть себе отдают 404 ответ...
нужно ли настраивать с них редиректы или что-то ещё с ними делать?
Редиректы не нужны, но что делать - зависит от сайта.
В общем случае лучше грамотно сделать 404-ю.
какая у вас CMS?
какая у вас CMS?
цээмэска MODX
Левые – в смысле не значимые? Если да и их много – попробовать найти причину, может быть, там есть какие-то общие места и можно закрыть их индексацию разом. Если страниц мало, я бы попробовал скрыть их из индекса через Серчконсоль.
Левые – в смысле не значимые? Если да и их много – попробовать найти причину, может быть, там есть какие-то общие места и можно закрыть их индексацию разом. Если страниц мало, я бы попробовал скрыть их из индекса через Серчконсоль.
Да в том-то и дело, что они все разные, через robots все не закроешь, а редиректы каждый раз настраивать тоже гемор. Вот я и спрашиваю можно ли на них забить, или это плохо, что они есть и ПС за это будут применять санкции к сайту.
Если да и их много – попробовать найти причину, может быть, там есть какие-то общие места и можно закрыть их индексацию разом.
У меня такое случалось после взлома, залили скрипт с кучей левых ссылок, всё удалил, но потом ещё почти год в вебмастере висели отсутствующие страницы с кодом 404. некоторые удалял вручную, некоторые со временем сами исчезли
Вот я и спрашиваю можно ли на них забить, или это плохо, что они есть и ПС за это будут применять санкции к сайту.
Тебя волнует следствие, а о причинах ты даже не задумываешься?
Вот откуда они взялись - ты хоть выяснял? Внутряки или беки. Если беки, то какие. Мож это вирусня, которая отшивает гуглобота. И тд
Тебя волнует следствие, а о причинах ты даже не задумываешься?
Вот откуда они взялись - ты хоть выяснял? Внутряки или беки. Если беки, то какие. Мож это вирусня, которая отшивает гуглобота. И тд
То что, нужно причину выяснять- это понятно. Но как? Ты знаешь- поделись. Буду очень благода...
Но как?
Да там же ж:
панели вебмастера
гугла и яндекса. Смотреть рефереры.
Можно 404 на сайте проверить старой ксеной (xenu link sleuth) или др.
Да там же ж:
гугла и яндекса. Смотреть рефереры.
Можно 404 на сайте проверить старой ксеной (xenu link sleuth) или др.
не понял, при чём здесь рефереры, а за ссылку на программу
За ссылку на сервис спасибо)