- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Выгрузить из BM все 404 страницы и загнать их в массив, и сделать 301. Это не сложно.
Это бред и бессмысленно. Это нужно программировать на стороне сервера, а не менять через 2 месяца, когда робот соизволит зайти, в Яндекс.Вебмастер показать.
За большое количество 404 не выкинут.
Ищите другое лишнее, что можно закрыть в robots
А не проще менять на "нет на складе" или "снят с производства". Я веду несколько интернет-магазинов и поступаю таким образом. Не вижу смысла удалять страницы, которые собирают НЧ трафик, хорошая техподдержка магазина, которая всегда подскажет аналог в наличии - залог успеха. Или програмно с товаром, которого нет и не будет сразу выводить блок товаров - "Возможно вам подойдет так же:" и вывести товары по параметрам и примерно в той же ценовой категории.
Если хотите сделать редирект, что по-моему глупо - замените страницу 404, и прописав в ней редирект на главную, в таком случает на все не существующие и будущие не доступные страницы будет редирект на главную (<meta>). Если на ошибаюсь на cpanel и isp кастомные страницы 404 можно сделать.
такое может только в разделе для новичков прокатить...
даже у полностью удаленного сайта может в индексе провисеть месяц (и больше) несколько тысяч страниц со старым кешем принимающих юзеров на 404 борт, как минимум для них 301 лучше наверно, хотя и для бота тоже, ну тут я спорить даже не буду, лично мне все понятно как в данном вопросе, так и в целом по топику
даже у полностью удаленного сайта может в индексе провисеть месяц (и больше) несколько тысяч страниц со старым кешем принимающих юзеров на 404 борт,
Вы меня нисколько не удивили. Период обхода сайта роботом может быть и 3-4 месяца. Пока робот весь сайт не обойдет, ясное дело, что страницы будут в индексе.
При чем тут раздел для новичков - непонятно.
Новички, желая удалить сайт из индекса, могут груши околачивать и месяц, и два, вместо того, чтобы повесить robots.txt из двух строчек и решить проблему за 10 дней - это вполне вероятно.
Новички, желая удалить сайт из индекса, могут груши околачивать и месяц, и два, вместо того, чтобы повесить robots.txt из двух строчек и решить проблему за 10 дней - это вполне вероятно.
Кстати, не всегда помогает :) Видел, когда у сайта полностью запрещенного в роботсе в индексе висела главная (без сниппета, что характерно). При попытке выкинуть через webmaster.yandex.ru/delurl.xml Яндекс выдавал, что т.к. на страницу много внешних ссылок, удалять её он не будет.
Kost, вон оно как, аж 3-4, а еще совсем недавно вы так уверенно утверждали, что "Если 404, в ближайший 1-2 апдейта она покинет индекс."....
Блин, опять мимо, дропы после суспенда месяц парятся на парковке с закрытым роботсом, но на момент дропа так же некоторые домены имеют тысячи страниц в индексе.
Если это был намек на меня, типа я жду пару месяцев когда сношу сайт, то было смешно
п.с. В быстром удалении может помочь только делурл.
Спасибо огромное ещё раз за советы.
Как мне выше писали - в другом интернет-магазине, я бы так и поступил, просто бы оставил страницы, чтоб собирали траффик, но написал бы нет на складе или что-то на подобии. Просто этот магазин очень специфический. Если предлагается устаревший товар, то люди сразу уходят. И SEO в нём тоже отличается. Кого первого проиндексировали, тот и в топе, поболтался неделю-две три, вышел новый, снова тоже самое. Поэтому суть продвижения сводится к одному. Первому выложить товарную позицию, и чтоб первым тебя проиндексировали. От того и вопрос такой. Если кол-во 404 не имеет значения для Яндекса,(а к следующему сезону у меня их будет примерно в 2 раза больше чем действующих страниц), то я не волнуюсь. Но, и скорость индексации моего сайта тоже же уменьшается, за счёт 19К несуществующих, пока робот будет ходить по ним, может и не дойти до самого главного. Здесь подсказали delurl/ Я не поленюсь, и за 3 - 4 дня мы вручную готовы прогнать все страницы. Так поможет? Или я всё таки параноик?
Спасибо огромное ещё раз за советы.
Как мне выше писали - в другом интернет-магазине, я бы так и поступил, просто бы оставил страницы, чтоб собирали траффик, но написал бы нет на складе или что-то на подобии. Просто этот магазин очень специфический. Если предлагается устаревший товар, то люди сразу уходят. И SEO в нём тоже отличается. Кого первого проиндексировали, тот и в топе, поболтался неделю-две три, вышел новый, снова тоже самое. Поэтому суть продвижения сводится к одному. Первому выложить товарную позицию, и чтоб первым тебя проиндексировали. От того и вопрос такой. Если кол-во 404 не имеет значения для Яндекса,(а к следующему сезону у меня их будет примерно в 2 раза больше чем действующих страниц), то я не волнуюсь. Но, и скорость индексации моего сайта тоже же уменьшается, за счёт 19К несуществующих, пока робот будет ходить по ним, может и не дойти до самого главного. Здесь подсказали delurl/ Я не поленюсь, и за 3 - 4 дня мы вручную готовы прогнать все страницы. Так поможет? Или я всё таки параноик?
А что мешает:
а) Сделать раздел архив в него засовывать несуществующие товары и линковать (делать в карточке товара крупнее старого) с новыми товарами схожими по виду, артикулу, цвету и тд и писать там "нет в наличии, но зато у нас есть..."?
б) Указать на старых страницах программно <meta name="robots" content="noindex, nofollow"/>?
в) Сделать страницу с новыми товарами схожими по виду, артикулу, цвету и тд которая будет серверно отвечать 404 и гнать трафик на новые товары?
г) Группировать товары по URL тогда при однулении склада по этим товарам загонять их в Роботс?
д) Отслеживать трафик по страницам и удалять те на которые он не идет?
попробуйте, после каждых изменений перегенерировать sitemap.xml, возможно поможет в скорости индексации нужных страниц.
Первому выложить товарную позицию, и чтоб первым тебя проиндексировали.
Если вопрос стоит так, то лучше сосредоточиться на покупке ссылок на новые страницы с быстроиндексируемых доноров.
Про sitemap уже сказали, добавлю про YML.