- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Народ, сказать что я в шоке - ничего не сказать... Сайту 17 лет. Примерно столько же и robots.txt , в котором есть строка
Clean-param: PHPSESSID&lang&yclid&_openstat&page&nextPageSearch&numPage
Вдруг, ни с того ни с сего, 21.09.2023 из индекса вылетают ВСЕ СТРАНИЦЫ по причине:
Исключена по Clean-param
При этом инструмент проверки robots.txt говорит что страница разрешена (любая)...
Что это было, кто знает? И главное что теперь делать? Вернуть назад-то похоже, не получится просто удалением
Clean-param:
(что я и сделал уже)...
Такое впечатление, что робот яндекса в строке
Clean-param:
посчитал разделители & как одно из того, что надо запртить, и запретил все страницы! В итоге было в поиске 10 000 стало 83 (восемьдесят три!) Это просто полная задница...
Трэшак вообще. Я написал уже два письма. Пульс 120, пора пить корвалол.
В ЯВебмастере в истории обхода никаких аномалий не наблюдаете у себя?
Ну кроме того, что выкинуло 10 000 страниц, пожалуй еще одно - НОВЫМИ страницами теперь стали НЕСУЩЕСТВУЮЩИЕ, причем выкинуты из URL основные параметры, и в базу массово добавляются несуществующие страницы без них типа:
https://www.trafaret.net/?id=147&next_page=135 - это верный УРЛ где &next_page=135 это просто пагинация, а в базе теперь
https://www.trafaret.net/?next_page=135 - вообще бессмысленный...
А еще фигня такая... Выкинуло 21.09, а накануне, 20.09, я проводил некие манипуляции с кодом сайта и теоретически мог накосячить. Однажды я так уже косячил несколько лет назад когда в коде написал if (a=b) {<link rel='canonical' = главная_страница} и у меня все 10 000 страниц тоже повылетали так как канонической у них всех стала главная...
Но сейчас не вижу своего косяка, да и ковырял я в стороне - там мог только весь сайт лечь с 500 а не такая вот скрытая подлянка...
И в "страницы в поиске" за 21.09 все 10 000 страниц "Исключена по Clean-param" именно 21.09 но у всех разные даты в столбце "Последнее посещение". То есть такое впечатление что не обход инициировал эту катастрофу а обработчик базы самого яндекса...
Мне кажется, статус страницы они показывают в моменте, т.е. тот что есть сейчас. Если посмотреть дальше по датам обхода, то статус меняться не будет, хотя по идее должен. Мне ответили, что подключают разработчиков. Т.е. похоже на сбой. У первой линии поддержки, думаю, есть достаточно инструментов, чтобы сделать проверку и оценить где содержится проблема. Вам ответили?
Еще нет.
У нас двоих только? Причем не совсем одинаковый даже.