Как идентифицировать по какой из 2-х ссылок клик в странице?

12 3
P
На сайте с 06.01.2009
Offline
592
1571

Здравствуйте.

Есть страница, в ней 2 ссылки на один урл.

Каким образом в странице входа можно определить, что клик был именно по второй?

страница и её код


<a href="/url1.php">ссылка 1</a>
<a href="/url1.php">ссылка 2</a>

к урлу ссылки 2 не могу дописать ?identifikator=2 т.к. все урлы с ? отдают ошибку 404

Спасибо заранее.

LEOnidUKG
На сайте с 25.11.2006
Offline
1748
#1
?identifikator=2 т.к. все урлы с ? отдают ошибку 404

Сделать, чтобы не отдавали 404 ошибку. Логично?

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/ ✅ Настройка и оптимизация серверов https://getmanyspeed.ru/
Милованов Ю.С
На сайте с 24.01.2008
Offline
196
#2

Есть конечно БОЛЕЕ сложный/глупый вариант...

На ссылку в событие onlick пихаем функцию, которая аяксом дернет скрипт, который в свою очередь запишет в сессию/куку идентификатор ссылки. Ну а на странице куда перешел юзер уже читаем переменную из сессии/куки.

Я бы все же последовал совету Лёни, ибо "все урлы с ? отдают ошибку 404" - бред, ИМХО.

Ну и еще вариант: добавить исключающее правило туда, где(htaccess, route.php или еще хз где) определяется, что надо отдавать 404.

Подпись))
P
На сайте с 06.01.2009
Offline
592
#3
LEOnidUKG:
Сделать, чтобы не отдавали 404 ошибку. Логично?

Логично, Леонид, но, дело в том, что 404 специально сделано, чтобы дубли не появлялись.

А получается, ссыль такую сделаю, и страница будет дублем. Разве нет?

ps читал тему, что robots.txt не помогает закрыть такие дубли от индексации

---------- Добавлено 26.04.2014 в 22:39 ----------

Милованов Ю.С:

Я бы все же последовал совету Лёни, ибо "все урлы с ? отдают ошибку 404" - бред, ИМХО.

Почему бред, как написал выше, при желании можно на любом сайте насоздавать дублей внешними ссылками, дополнив реальные урлы ?..

Тему найду, покажу, если надо.

LEOnidUKG
На сайте с 25.11.2006
Offline
1748
#4
чтобы дубли не появлялись.

Сделать исключение для этих двух ссылок. Страшного ничего не будет.

В роботСе можно будет заблокировать.

Так же заюзать: rel="canonical"

P
На сайте с 06.01.2009
Offline
592
#5
LEOnidUKG:
Сделать исключение для этих двух ссылок. Страшного ничего не будет.
В роботСе можно будет заблокировать.

Так же заюзать: rel="canonical"

Не, через роботс не получится, страниц будет тогда много с ?

а вот про rel="canonical" почитаю, но он вроде только для Гугл.

Спасибо. Видимо других вариантов нет.

LEOnidUKG
На сайте с 25.11.2006
Offline
1748
#6

Ну или делать через форму и POST запрос.

А вместо ссылок сделать button и всё. PHP считает на какой было нажатие.

P
На сайте с 06.01.2009
Offline
592
#7
LEOnidUKG:
Ну или делать через форму и POST запрос.

А вместо ссылок сделать button и всё. PHP считает на какой было нажатие.

:) одна из ссылок должна быть индексируемой ПС.

siv1987
На сайте с 02.04.2009
Offline
427
#8
postavkin:
Не, через роботс не получится, страниц будет тогда много с ?

роботс'у без разницы сколько у вас там ссылок

postavkin:
а вот про rel="canonical" почитаю, но он вроде только для Гугл.

Не только

postavkin:
ps читал тему, что robots.txt не помогает закрыть такие дубли от индексации

https://www.google.ru/search?client=opera&rls=ru&q=site:searchengines.guru+inurl:printthread.php&sourceid=opera&ie=utf-8&oe=utf-8&channel=suggest

Alipapa
На сайте с 01.02.2008
Offline
234
#9
postavkin:
а вот про rel="canonical" почитаю, но он вроде только для Гугл.

Для яндекса тоже работает, и очень четко.

Биржа фриланса - простая и удобная (http://kwork.ru/ref/2541)
LEOnidUKG
На сайте с 25.11.2006
Offline
1748
#10
postavkin:
:) одна из ссылок должна быть индексируемой ПС.

ну так пусть она индексируется. Можете даже её в display:none сделать.

А эти через форму.

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий