Повторюсь, CMS у сайта нет, но это не суть.
А могла ли такая проблема возникнуть если в тексте страницы stranitsa.htm прописан адрес не полностью
site.ru/stranitsa2.htm а стоит слеш : <a href='/stranitsa2.htm'> страница 2 </a>
взял, сейчас везде поставил только прямые ссылки!
Можно и конкретно, я не против:
вот сайт www.kuhni-mebel-spb.ru
вот каталог: www.kuhni-mebel-spb.ru/fotokatalog.htm
вот например по региону Санкт Петербург на 6 место по "угловые кухни" лезет www.kuhni-mebel-spb.ru/fotokatalog.htm/foto83.htm
хотя всю жизнь был каталог !
Возможно мой пациент подойдет, как раз сейчас обдумываю все способы увеличения конверсии и ПФ... Показал пациента в личке !
присоединюсь к последнему вопросу: что кому будет спустя 3 месяца? Рекламодателю разместившему статью? Вебмастеру снявшему статью?
Получил сегодня консультацию. Все четко, доступно и понятно. Некоторые моменты были очевидными и шокирующими. Теперь впереди много работы над более-чем-годовалым безделием.
Сайт у меня большой, непростой и не паханый :) однако договорились на нормальную сумму. Всем советую, это того стоит.
Буду рад зайти сюда с отчетом обо всех примененных советах и методах :)
И таким образом прописать ВСЕ возможные комбинации в роботс ?
нельзя ли как то унифицированно запретить адреса: например disallow fotokatalog.htm/*.htm ?
Возможно, это было всегда. Мало похоже на причину косяка.
Это я уже пытался сделать редирект но толку ноль, вернул все обратно.
Какой командой закрыть ее? Как в роботс прописывать косячные адреса чтобы выдавать 404?
Движка нет, это все рукописное.
с другого форума пришло решение:
то есть избавиться от возможности составить неправильный адрес URL ...
дополнение:
<?php
if (array_key_exists('PATH_INFO', $_SERVER))
{
header('HTTP/1.1 301 Moved Permanently');
header('Location: '.$_SERVER['SCRIPT_NAME']);
}
?>
Вставьте этот код в начало каждого файла.
движок это я сам - создающий каждую нужную мне страницу на основе одной из существующих.
Раньше дублей не было. Проблема возникла 4-8 дней назад.
Запретил */pravila.htm в роботсе, посмотрим что будет.
Пошел сканировать.
Но если и так - то ошибка была и раньше - и только за последние 5 дней она стала заметны Яндексу.
В индекс попали несколько таких страниц типа сайт/страница нужная/страница другая
- и вчерашний ап обернулся полной жопой... :(
Дело не в тексте и не в релевантности:
они одинаковы
он увидел откуда-то 2 страницы вместо 1 (раньше такого ведь не было, сайт не новый.) - и ту которая продвигается (ссылки, картинки..) убрал из индекса оставив */pravila.htm
Движка нет, это php страницы работающие под расширением htm.