- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
перенесли сайт на новый движок на javascript, робот не мог пройти по ссылкам.
это вызвало то, что он стал ходить по базе урлов 2018 (саппорт потвердил несколько раз). там какой-то мусор из склееных урлов.
и более половины таких, по тому где ходит робот.
пока запрещаю их все в роботс
и сделал сайтмеп и каталоги ссылок. сайт на 20тыс страниц.
Dorvei : можно посмотреть в вебмастере, возможно страница добавлены в список отслеживаемых. И я бы глянул кеши ещё, особенно если cloudflare используется.
пока запрещаю их все в роботс
Т.е. вы опять их законсервировали? Зачем их запрещать в роботс?
Пусть он пройдет по всем 404 и выкинет их из своей базы
Яндекс вообще чудит последнее время и обновляется медленно
Уменьшите бедному яндексу свою базу, и все придет в норм
- Дублей страниц не должно быть на сайте, а не использовать вместо этого каноникал или роботс
- серверная статистика должна быть закрыта, админ файлы также
- Включите Last modified