- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня сайт на php, показываются страницы как html, без cms.
Обычно все адреса страниц выглядят так: kuhni-mebel-spb.ru/fotokatalog.htm
Но вот уже второй раз яндекс вместо этой страницы показывает в выдаче страницу вида :
http://www.kuhni-mebel-spb.ru/fotokatalog.htm/foto99.htm
где /foto99.htm - совершенно отдельная страница не имеющая отношения к нужной.
При этом страница грузится в искаженном виде. набираем в поиске "фото кухонь" и на 4 месте видим пример.
Как запретить/переадресовать и заведомо исключить такую ситуацию в будущем? Что и где прописать? Например чтобы все адреса вида: "сайт.ru/страница1/страница2/" приводились к виду "сайт.ru/страница1/"
Во-первых, в индексе у вас сайт с www, а внутренние ссылки без www
Почему на странице http://kuhni-mebel-spb.ru/fotokatalog.htm ссылка на foto99.html перекидывает обратно в каталог? зачем тогда она вообще нужна?
Закройте в robots косячную страницу от индексации и настройте движок так, чтобы по несуществующим/ненужным адресам выдавалась 404-я
Во-первых, в индексе у вас сайт с www, а внутренние ссылки без www
Возможно, это было всегда. Мало похоже на причину косяка.
Это я уже пытался сделать редирект но толку ноль, вернул все обратно.
Какой командой закрыть ее? Как в роботс прописывать косячные адреса чтобы выдавать 404?
Движка нет, это все рукописное.
Возможно, это было всегда. Мало похоже на причину косяка.
это не причина конечно, просто как замечание
Это я уже пытался сделать редирект но толку ноль, вернул все обратно.
Редирект нужно было делать на конечную страницу и ждать придется несколько месяцев
Какой командой закрыть ее? Как в роботс прописывать косячные адреса чтобы выдавать 404?
Движка нет, это все рукописное.
Закрыть командой:
Disallow: /fotokatalog.htm/foto99.htm
Но скрипты тогда тоже нужно смотреть, чтобы 404-ю сделать.
И таким образом прописать ВСЕ возможные комбинации в роботс ?
нельзя ли как то унифицированно запретить адреса: например disallow fotokatalog.htm/*.htm ?