Swif

Рейтинг
29
Регистрация
20.08.2013

кто не получил еще, у вас деньги на балансе рапиды в личном кабинете висят? А в истории транзакций была неудачная попытка перевода на карту?

Сумма в шаблоне гораздо больше пришедшей

В рапиде в личном кабинете деньги висят, а в истории есть попытка перевода на карту по шаблону и статус "Платеж отклонен" Помнится в январе что-то подобное было.

Чтобы запретить доступ робота к сайту или некоторым его разделам, используйте директиву Disallow.

Disallow: / # блокирует доступ ко всему сайту

Чтобы разрешить доступ робота к сайту или некоторым его разделам, используйте директиву Allow.

Allow: / # разрешает доступ ко всему сайту

Если директивы не содержат параметры, робот учитывает данные следующим образом:

User-agent: Yandex

Disallow: # то же, что и Allow: /

User-agent: Yandex

Allow: # то же, что и Disallow: /

Поэтому, впринципе, у вас правильно составлен robots

---------- Добавлено 29.08.2015 в 19:11 ----------

alexdosson:
Получил такое сообщение

Google couldn't crawl your site because we were unable to access your site's robots.txt file

проблема в другом - Google не может сканировать ваш сайт, потому что он не смог получить доступ к файлу robots.txt вашего сайта

Проверьте, может в названии файла ошибка.

Ну да, что то я обходными путями накодил. Верное замечание.

Остановился на таком варианте.

<?php

$url='http://сайт.ru/';

if (substr_count($_SERVER['REQUEST_URI'], "category") >1){

$url=$url.'?category='.intval($_GET["category"]);

if (substr_count($_SERVER['REQUEST_URI'], "id") >1){

$url=$url.'&id='.intval($_GET["category"]);

...продолжить если есть еще параметры...

}

}

?>

//ну а исходя из этого уже составить

<link rel="canonical" href="<?php print $url?>"/>

получится какой бы ни был запрос, он для поисковика всегда будет правильный.

Ну вроде как то же самое перед выводом страницы -

$_GET["id"]=intval($_GET["id"]);

$_GET["t"]=intval($_GET["t"]);

$_GET["page"]=intval($_GET["page"]);

а изменить порядок параметров и отсечь лишнее в запросе -

2. Перед вызовом страницы, страница "знает" какой у нее должен быть URI и фактический REQUEST_URI сверяется с тем, что "должно быть".

Все параметры передаются в числовом виде, поэтому для исключения инъекций думаю достаточно будет привести их к соответствующему виду.

$_GET["id"]=intval($_GET["id"]);

а на счет отсечения лишних параметров в запросе - понравился вариант

Solmyr:
Я делаю так:
1. GET-запрос разбирается обычным образом и определяется, какая страница должна быть отображена.
2. Перед вызовом страницы, страница "знает" какой у нее должен быть URI и фактический REQUEST_URI сверяется с тем, что "должно быть".
3. Если не совпадает - то 301 редирект на то что "должно быть".

Попробую реализовать.

Понятно, код на PHP обработки гет запроса никто не напишет. Отвечу сам на свой вопрос через несколько дней

Досада в том что это не CMS, а самописный движок, и $_SERVER['REQUEST_URI'] я и пытаюсь обработать. в том то и вопрос топика, Конечно, если вы только с CMS работаете, то мы не поймем друг друга, ибо ваших знаний в php для этого не достаточно...

12
Всего: 15