- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Яндекс проиндексировал каждую страницу сайта 2 раза без параметра - file.php и с параметром file.php?patram&xxx=111
Чтобы выкинуть страницы с параметрами, нужно их запертить для индексирования.
Но как? По одной - их слишком много. С robots.txt - не получиться...
Как это можно сделать?
если правильно поняла Вашу проблему, то можно в роботе прописать
Disallow: /file.php?patram&
он удалит из индекса все страницы, у который url начинается с www.вашсайт.ru/file.php?patram&
А лучше сделайте чтобы каждая уникальная страница имела уникальный адрес.
Страниц слишком мого - все в robots не записать
Страницы и так имеют уникальный адрес file1, file2
Но яндекс проиндексировал их и так просто и с параметром (скрипт их из календаря так отдавал)
Вот и не знаю, что делать.
Страницы и так имеют уникальный адрес file1, file2
Не так, а так уникальный адрес=уникальный контент. У вас два адреса дают одинаковый контент.
Что делать сейчас? Исправьте скрипт, что бы были только правильные ссылки, а на неправильные поставьте редирект на правильную. Тогда закрывать ничего не надо, все исправится при следующей индексации
Не так, а так уникальный адрес=уникальный контент. У вас два адреса дают одинаковый контент.
Что делать сейчас? Исправьте скрипт, что бы были только правильные ссылки,
Ну понимаете, это один и тот же файл. Только к нему прибавляются параметры. Ничего не меняется. Но если запросить файл с этими параметрами то выдается этот же файл, как и без них.
В новой версии скрипта параметров нет. (это была дата создания файла, если переходиь по ссылке из календаря)
Может быть можно как-нибудь исключить из индексирования все урлы содержащие текст - "?parametr"?
Я то понимаю и уже написал что делать. Еще раз : в скрипте если получаете параметр parametr делаете редирект на страницу без параметра, так как в новой версии в ссылках параметра нет. Дальше ждите переиндексации.
Чтобы выкинуть страницы с параметрами, нужно их запертить для индексирования.
и еще
В новой версии скрипта параметров нет.
А зачем обязательно выкидывать из индекса? Они Вам мешают прямо сейчас?