- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Правильнее будет так
Еще правильнее будет так:
т.к. автора интересует конкретная страница в разделе (может внутри нее еще есть позразделы).
В любом случае - тут все описано https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html#asterisk-dollar
Приветствую.
помогите кто знает как, в яндексе вот такие ссылки стали появляться -
/страница.html]
/страница595.html%
/страница595.html>&gh
/страница595.html>
/страница24.html>?4655576
/страница54.html>#fffffffuy
/страницаty888yt8.html>анкор</a>
великое множество разных вариантов и символов после .html
сайт обычный на html, никаких движков не установлено.
В поиске страницы идут тоже с .html расширением, например site.ру/страница1.html
Как правильно прописать в роботс чтобы не было такой фигни, чтобы страницы с разными символами после .html не индексировались?
==============
Еще такие ошибки есть -
оригинальная страница выглядит так - site.ru/страница.html
а ошибка в вебмастере появляется такая - site.ru/стран.html
или так - site.ru/страниц.
Если их тоже можно както запретить в роботс то было бы отлично, хотя думаю это скорее всего к конкуренции относиться, хотя точно не знаю.
OnOf, 404 отдавать по таким урлам
FlyAway, очень спорный вопрос. А вдруг пациент грамотно проспамил? Я бы тогда оставил или все, или с хороших площадок.
Парни, help! Есть кто настраивал роботс под мультиязычный сайт (папками)?
Disallow: /user/password/
Disallow: /user/login/
а они всё равно есть в Яндексе.
Почему?
"Кодекс - это свод указаний, а не жестких законов" (с)
Если апач то закрывай через htaccess
Попробуйте форму https://webmaster.yandex.ru/tools/del-url/
Happy_Cheburashka, метатег в head вставьте