Станислав

Станислав
Рейтинг
258
Регистрация
27.12.2009

когда хоть домен угнали? Дни, недели, годы?

надо будет попробовать, глянуть, просто даже самому интересно стало

DiAksID:
строк 10 лишних в коде редактора страницы - и никаких дублей принципиально...

а не верю! :D

Дайте такой урл посмотреть, а я попробую дубль создать, если не создам, то бриться неделю не буду! 🤪

Милованов Ю.С:
Поиск дублей продолжается.... Найди дубль - получи жувачку:)

вот как не крути, как не защищай, а дубли все равно будут! Точнее их можно будет создать, если это кому то понадобится.

А тут получается столько проверок, и поля сравни и редирект поставь и пару условий сделай, печаль одна, а ради чего? Ради того чтобы кто то с кривыми руками не запостил не правильный урл на сайт?

Я это перебор, хотя может кому то и важно это. Я лично по этому поводу не беспокоюсь, дергаю урлы по айдишнику, меньше кода, быстрее работа, да и сплю спокойно :) А те кто кидают линк на неправильный урл, за 5 лет наверное 2-3 раза было такое, то и пущай будет дублем, который склеют ПС, а не склеют, да и х_р с ними! 🤪

bmw525gt:
Почему? Если домен зареган в зоне ком, то вернуть не реально? Сканы паспорта человека, который регал или еще какие-то документы тоже не помогают? В ру зоне с этим лучше?

какие сканы в .com Я давно уже кроме как с рушками не работаю, а раньше домен прибивался к мылу, и если мыло сменить, то и владелец меняется. А с рушками, как вы угоните? Сканы паспорта украдете? Натариуса подкупите?

DiAksID, а я первым делом как узнал о тиц и пр, вобще подумал что пиар!

Grisha:

Здравствуйте.

Согласно открытой информации сервиса whois. указанный домен делегирован на
сторонние ns-сервера:"

баааааааа

ТС. у вас домен увели, хостер не причем, где доменное имя регали, там и узнавайте.

И если все же увели, то ничего не поделаешь.

К регистратору домена пишите, о краже, но ИМХО не поможет он вам 100%

bukachuk:
На на сайте 2 открывать фрейм с параметром в URL, а там обрабатывать

вопрос в том как принять урл сайта открывающего фрейм, как рефа берет

parse_url($_SERVER['HTTP_REFERER'], PHP_URL_HOST)

но только до первого обращения, последующее ползание юзера по фрейму все обрубает

Милованов Ю.С, я знаю как проверки делать, но ИМХО столько гемору из за ссылок! Зачем столько проверок? Если кому то и придет в голову наплодить вам страниц, то наплодят в любом случае

защиту гет запроса, да понятно, ну а на url.php&post что скажем? или url.php#post

это же тоже своего рода будли страницы!

а я вобще не советую иметь урлы вида

/articles/kak-sdelat-true-site.html 

само название урла 100500 будет формироваться на стороне скрипта, а если будет формироваться, то тогда и урл появиться одинаковый и будете потом думать, а почему вместо старой статьи при полном просмотре я вижу новую!

Правильнее думаю будет так

/articles/20-kak-sdelat-true-site.html 

Ну и конечно же как описал выше Милованов Ю.С, делать проверку на соответствие урла, хотя ИМХО параноидальное самолюбие владельца сайта от дублей страниц 🤪

А потом 500 тыщ проверок и запросов и при 100 хостов сервер на лопатки опрокидывается.

Наваждение..

А если кто то запостит ссылки на сайт вида

/articles/20-kak-sdelat-true-site.html&post=post 

или так

/articles/20-kak-sdelat-true-site.html?post=post 

Дубль? Ага! Давайте в роботсе еще запретим индексировать такие урлы и добавим пару десятков тысяч строк, чисто так для пищи роботу

попробуйте так http://rghost.ru/42999736

вобще тому кто верстал нужно пальцы переломать все до единого, при чем не сразу все, а медленно, один за другим, с наслаждением! И на ногах тоже, а то мало ли приноровится =D

ТС если не поможет, проще будет весь шаблон поменять, ибо колупаться в таком коде нет желания

Всего: 1561