Andytolsty

Рейтинг
73
Регистрация
04.09.2008

Повторюсь, CMS у сайта нет, но это не суть.

А могла ли такая проблема возникнуть если в тексте страницы stranitsa.htm прописан адрес не полностью

site.ru/stranitsa2.htm а стоит слеш : <a href='/stranitsa2.htm'> страница 2 </a>

взял, сейчас везде поставил только прямые ссылки!

Можно и конкретно, я не против:

вот сайт www.kuhni-mebel-spb.ru

вот каталог: www.kuhni-mebel-spb.ru/fotokatalog.htm

вот например по региону Санкт Петербург на 6 место по "угловые кухни" лезет www.kuhni-mebel-spb.ru/fotokatalog.htm/foto83.htm

хотя всю жизнь был каталог !

Возможно мой пациент подойдет, как раз сейчас обдумываю все способы увеличения конверсии и ПФ... Показал пациента в личке !

присоединюсь к последнему вопросу: что кому будет спустя 3 месяца? Рекламодателю разместившему статью? Вебмастеру снявшему статью?

Получил сегодня консультацию. Все четко, доступно и понятно. Некоторые моменты были очевидными и шокирующими. Теперь впереди много работы над более-чем-годовалым безделием.

Сайт у меня большой, непростой и не паханый :) однако договорились на нормальную сумму. Всем советую, это того стоит.

Буду рад зайти сюда с отчетом обо всех примененных советах и методах :)

И таким образом прописать ВСЕ возможные комбинации в роботс ?

нельзя ли как то унифицированно запретить адреса: например disallow fotokatalog.htm/*.htm ?

faedrus:
Во-первых, в индексе у вас сайт с www, а внутренние ссылки без www

Возможно, это было всегда. Мало похоже на причину косяка.

Почему на странице http://kuhni-mebel-spb.ru/fotokatalog.htm ссылка на foto99.html перекидывает обратно в каталог? зачем тогда она вообще нужна?

Это я уже пытался сделать редирект но толку ноль, вернул все обратно.

Закройте в robots косячную страницу от индексации и настройте движок так, чтобы по несуществующим/ненужным адресам выдавалась 404-я

Какой командой закрыть ее? Как в роботс прописывать косячные адреса чтобы выдавать 404?

Движка нет, это все рукописное.

с другого форума пришло решение:


Методами PHP можно решить так. Брать переменную $_SERVER['PATH_INFO'], если она не существует или равна пустой строке, то значит это нормальная ссылка. Если эта переменная существует, значит в url записали дополнительные символы после расширения файла, а значит надо сделать редирект 301 Moved Permanently на страницу с нормальным url. Я думаю такое решение должно работать.

то есть избавиться от возможности составить неправильный адрес URL ...

дополнение:

<?php

if (array_key_exists('PATH_INFO', $_SERVER))

{

header('HTTP/1.1 301 Moved Permanently');

header('Location: '.$_SERVER['SCRIPT_NAME']);

}

?>

Вставьте этот код в начало каждого файла.

движок это я сам - создающий каждую нужную мне страницу на основе одной из существующих.

Раньше дублей не было. Проблема возникла 4-8 дней назад.

Запретил */pravila.htm в роботсе, посмотрим что будет.

Пошел сканировать.

Но если и так - то ошибка была и раньше - и только за последние 5 дней она стала заметны Яндексу.

В индекс попали несколько таких страниц типа сайт/страница нужная/страница другая

- и вчерашний ап обернулся полной жопой... :(

Дело не в тексте и не в релевантности:

они одинаковы

он увидел откуда-то 2 страницы вместо 1 (раньше такого ведь не было, сайт не новый.) - и ту которая продвигается (ссылки, картинки..) убрал из индекса оставив */pravila.htm

Движка нет, это php страницы работающие под расширением htm.

123 4
Всего: 34