- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую категорически!
Ничего не продвигали под Гугл, про его задвиги мало чего знаю.
Кто объяснит такой фокус с подвыподвертом?:
Был сайт инет магазина с хорошими позициями в выдачах Яндекса и Гугла. Компания решила поменять дизайн и немного структуру с максимальным сохранением ссылочной массы через редиректы и пр. как обычно.
На ключевых страницах старого сайта был проставлен 301 редирект на аналогичные на новом сайте , сами старые страницы были запрещены для индексации в robots.txt
После выкладывания нового сайта прошел месяц. Робот Гугла проиндексировал новый сайт, прочитал новый robots.txt и !!!! решил оставить в ТОПе закрытые страницы старого сайта с соответствующим снипетом:
Это 2 место по среднечастотному ВК запросу. Покупных ссылок на эту страницу не было!!
Такая же фигня по остальным аналогичным страницами с выдаче. Все в ТОПе с такой фигней.
Яндекс давно поменял в выдаче все старые страницы на новые.
В чем прикол???? Что с этим делать? Сниппет абсолютно некликабельный и толку от такого ТОПа никакого.
Зайди в вебмастер и удали эти страницы .
Сударь 21 век на дворе. Роботс и тег ноиндекс не панацея, всеравно сволочь съедает страницу, так же для сбора данных используют не только переходы по ссылкам. Поэтому как замечено вышел удалите в вебмастерсе страницу
На ключевых страницах старого сайта был проставлен 301 редирект на аналогичные на новом сайте , сами старые страницы были запрещены для индексации в robots.txt
После выкладывания нового сайта прошел месяц. Робот Гугла проиндексировал новый сайт, прочитал новый robots.txt и !!!! решил оставить в ТОПе закрытые страницы старого сайта с соответствующим снипетом:
В чем прикол???? Что с этим делать? Сниппет абсолютно некликабельный и толку от такого ТОПа никакого.
Ничего странного в этом не вижу - вы закрыли от индексации страницы с которых поставили 301 редирект на новые страницы.
Вопрос: Как поисковый робот должен прочитать, что там 301 редирект, если вы ему не даете это сделать?
Может, все-таки, открыть старые страницы для индексации? А дальше, для быстрой переиндексации, воспользуйтесь "Посмотреть, как GoogleBot" или же пингаторы, твитер,...
На всех страницах которые нужно удалить, нужно в коде прописать метатег noindex (средствами CMS).
<meta name="robots" content="noindex" />
Предварительно разрешив их индексацию в robots.txt
Так спасем мир.
Читал, много думал..
На всех страницах которые нужно удалить, нужно в коде прописать метатег noindex (средствами CMS).
Сударь 21 век на дворе. Роботс и тег ноиндекс не панацея, всеравно сволочь съедает страницу,
Все бы ничего, я только понять не могу - зачем Гуглу в ТОПе месяц как закрытые страницы?
На одной из таких, кста, забыли прописать 301 редирект и она вообще ведет на 404 ошибку. А он её все равно не выкидывает...
Тугой Яндекс разобрался со всем этим добром в первом же апдейте.
Про то, что для гугла такие страницы лучше удалить понятно, только они до 90 дней могут удаляться(( и лучше одновременно удалять их физически и на сайта, а не факт, что это хорошо для Яндекса и 301 редиректа.
Посещаемость сайта 10K уников в день, мало ли.
Тугой Яндекс разобрался со всем этим добром в первом же апдейте.
Вы очень мал,
И очень глуп,
И не видал больших за... Затруднений в жизни.
Яндекс очень любит это дело в выдаче. Вот тот же бурундук затрахался кидать примеры.
SEOraptor, как бот узнает о редиректе, если Вы страницы в роботс закрыли?
как бот узнает о редиректе, если Вы страницы в роботс закрыли?
А бот по страницам, закрытым в роботсе, не ходит, так?)
Вопрос: Как поисковый робот должен прочитать, что там 301 редирект, если вы ему не даете это сделать?
В соседней теме человек жалуется что робот ходит по страницам закрытым в роботс и ему объясняют что роботс не закрывает от роботов. Один из вас не прав.
А бот по страницам, закрытым в роботсе, не ходит, так?)
Калитка на замке, пройти рядом нельзя? :) нашел новую ссылку, пошел посмотреть. Или посмотрел, что от него прячут(клоакинг к примеру).
Сегодня закрыто. Завтра открыто. Как узнать?