Надеюсь, что все понимают, что в базе очень много мусора и действительно рабочих каталогов очень не большой процент.
Вчера скачал ее просто ради интереса и проверил статус код, возвращаемый страницами…
Очень многие страницы (формы) вернули 404 код (страница не найдена).
Если кому интересно, вот немного почищенный, но далеко не идеальный, список каталогов (482 шт):
ИМХО, бессмысленно искать ошибку, если сам подход неправильный.
Так Вы бы так и сказали, что подгружаете страницу как обычный файл, а не как страницу сайта... это ведь многое меняет…
Пути к файлам на диске и пути к файлам на сайте указываются по разному, поэтому браузер не может найти картинку и соответственно подгрузить и отобразить ее.
Поставьте себе виртуальный сервер, например пакет Денвер (http://www.denwer.ru/) и скорее всего несколько вопросов у Вас решатся сами собой.
Как я понимаю, Вам нужно сделать редирект до загрузки страницы…
Вот пример такого редиректа (прописывается в .htaccess):
Redirect 301 /cat/page1.htm http://www.site.ru/dir/page1.htm
Означает, что страница /cat/page1.htm перемещена постоянно по адресу http://www.site.ru/dir/page1.htm
Пример работающего фона: style="background-image: url(/img/bg1.gif);"
---
Тут можно почитать подробнее: http://htmlbook.ru/css/?cat=1
В любом случае за Ваши пожелания СПАСИБО, но что побудило Вас создать такой топик?
Думаю, что возможно.
Был один раз такой случай на практике:
- Сайт прописан в ЯК (site.net);
- Сайт выдавался по адресу site.net и sudomain.site.net
- Директива Host не прописана
В один прекрасный момент с индекса выпали все проиндексированные страницы для site.net, появились для sudomain.site.net и в ЯКЕ изменился адрес на sudomain.site.net
PS: Сайт вели далекие от оптимизации люди.
Я бы ничего не платил! Разве что можно узнать у человека номер кошелька и попытаться найти его реальные данные: имя, адрес и пр.
Заплатите сегодня одному, завтра к Вам постучится второй (или первый, но с другого адреса). А то, что сделать 100 действительно качественно сайтов - это точно, но это далеко не повод клепать низкосортные сателлиты и потом думать, как поступить в подобных случаях. Лучше этих 300$ потратить на создание более качественных сателиттов, за которые не нужно будет боятся.
Вот отличный сервис для проверки HTTP-заголовков, отдаваемых web-сервером: http://seolab.ru/add/header.htm
Для справки: для большинства динамически генерируемых сайтов (страниц) не выдается дата последней модификации (last-modified) и не обрабатывается if-modified-since. Это объясняется тем, что ее нужно отдавать и обрабатывать вручную, что требует дополнительных работ над сайтом, поэтому большинство программистов это просто игнорируют. Хотя такая обработка помогает при работе с сайтом пользователям (за счет кэширования страниц), индексации больших сайтов поисковыми системами и т.п.
Для решения подобных вопросов я использую PHP.
В Вашем случае это можно сделать примерно так (код требует доработки, в зависимости от структуры Вашего сайта):
$www=$_SERVER['REQUEST_URI']; //Обработка адреса $www и отсечение лишнего //Если нужно просто удалить все параметры: ?.... if (strstr($www,'?')) $www=substr($www,0,strpos($www,'?')); header("HTTP/1.1 301 Moved Permanently"); header("Location: http://www.site.com".$www); exit();