postavkin

Рейтинг
601
Регистрация
06.01.2009
LEOnidUKG:
Кто вам такое сказал? 🍿

урлы, которые будут дублироваться дописью к ним "?..."

/laminat_parto

/derevo-parket

/master-flomaster

/peri-laminat

/qudro-stroy

и т.д., ещё больше сотни

---------- Добавлено 26.04.2014 в 23:47 ----------

Простите, я не настолько спец как Вы, это ссылку Вы показали с какой целью?

---------- Добавлено 26.04.2014 в 23:50 ----------

Вообщем переход по урлу со знаком "?" не подходит я подумал. Ведь для ПС это два разных урла

url1.php и url1.php?identif=2

а значит, вероятнее всего, ПФ будут учитываться для url1.php?identif=2 при переходе на него, а не для url1.php

Не подходит. Переход и по той и другой ссылке должен быть осуществлен в url1.php

ps а значит ссылке №2 надо давать какой то class, при нажатии на которую передается в сессию некое значение.

кто знает - подскажите, пожалуйста, как это сделать.

siv1987:
роботс'у без разницы сколько у вас там ссылок

Вы не поняли - в роботсе не получится сделать исключение для определенного набора ссылок (страниц) где в урле "?"

LEOnidUKG:
Ну или делать через форму и POST запрос.

А вместо ссылок сделать button и всё. PHP считает на какой было нажатие.

:) одна из ссылок должна быть индексируемой ПС.

LEOnidUKG:
Сделать исключение для этих двух ссылок. Страшного ничего не будет.
В роботСе можно будет заблокировать.

Так же заюзать: rel="canonical"

Не, через роботс не получится, страниц будет тогда много с ?

а вот про rel="canonical" почитаю, но он вроде только для Гугл.

Спасибо. Видимо других вариантов нет.

LEOnidUKG:
Сделать, чтобы не отдавали 404 ошибку. Логично?

Логично, Леонид, но, дело в том, что 404 специально сделано, чтобы дубли не появлялись.

А получается, ссыль такую сделаю, и страница будет дублем. Разве нет?

ps читал тему, что robots.txt не помогает закрыть такие дубли от индексации

---------- Добавлено 26.04.2014 в 22:39 ----------

Милованов Ю.С:

Я бы все же последовал совету Лёни, ибо "все урлы с ? отдают ошибку 404" - бред, ИМХО.

Почему бред, как написал выше, при желании можно на любом сайте насоздавать дублей внешними ссылками, дополнив реальные урлы ?..

Тему найду, покажу, если надо.

speed-core, спасибо огромное. Все ок.

borisd:
postavkin, Если сайт хорошо-посещаемый (например 1 млн чел/сутки) и большинство посетителей - просто гости, то я бы не связывался бы с сессиями, а ограничился бы кукакми.

200 -400 человек сутки. понял, поизучаю, но пока что просто надо реализовать задачу. спасибо

ps пока не понял как писать в куки

странно то, что сессия перестала записываться именно в Firefox (после проверки просмотра нескольких десятков страниц).

Бред какой то, закрыл и открыл Firefox снова, теперь пишутся сессии.

Подскажите, пожалуйста, какие могут быть причины, что в Firefox перестали записываться данные в сессию?

$_SESSION['url'][0] = "/$url";

просто перестало записывать и все.

проверил в хроме, работает.

samimages:
postavkin, то что Хостланд третьи сутки под Ддос, в этой ветке имеет значение? Ждем и надеемся!))))

Переезжать совсем не охото. Или всё таки пора?

Scaryer:
postavkin, если и админка, и сайт хостера тормозит, то здесь дело точно не в ваших нагрузках на MySQL.
Для общего развития можете воспользоваться сервисом проверки скорости сайта - http://tools.pingdom.com/fpt/ - можно узнать о своём сайте много интересного.

Спасибо. А вот этот сервис - я же не могу по нему понять, что тормозит именно хостер, я могу только увидеть впринципе скорость загрузки документа, верно?

Офигеть, некоторые документы текущая скорость загрузки 4,98s и так далее. Тот же документ у меня на сайте, открываю, виже время выполенния скриптов 0.0051сек (стоит в файле index.php и в футере нужный код).

Всего: 5509