Господа, гуру - слезно молю выскажите ваше мнение

R
На сайте с 16.07.2012
Offline
0
644

Добрый день! Я с оптимизацией не очень дружу, поэтому и возник следующий вопрос:

Есть сайт, который построен на Backbonejs + Rails.

Почти во всех страницах используется Backbonejs - тоесть все ссылки идут с хэшом(sitename.com#users) И ни одна из страниц такого типа не индексируется. Задача проиндексировать нужные страницы в Гугл. Почитал что советует гугл - https://developers.google.com/webmasters/ajax-crawling/docs/faq#whentousewhich. Здесь как я понял предлагают 1)# -> #! + 2)PushState + 3) HTML ответ со страницей и контекстом на "?_escaped_fragment_='value' " - и в таком случае страница будет проиндексирована с контентом, который есть на HTML странице. В примере действительно все проиндексировано. Но! задача индексировать не пустые страницы а страницы+контент.

В связи с этим родилась идея:

На главной странице сделать невидимые пользователем линки на html страницы пользователей и другой интересующей меня инфы. Пускать туда только если запрос делает Гугл бот. На этих страницах показывать точно такой же контент, что и в js варианте, только в виде HTML. Гугл проиндексирует все эти страницы и будет выдавать в поисковых запросах. Если же человек переходит по этой ссылки - тогда он будет редиректаться в js вариант сайта и дальше уже там делать что душе угодно.

Вопросы: Не забанит ли гугл такой хитрый ход, при условии что контент будет один к одному что в js, что в HTML варианте? И Если это не лучший вариант, тогда подскажите как лучше делать в данной ситуации?

Заранее спасибо за посильную помощь, сори что долго описывал - попытался полностью проблему развернуть.

E
На сайте с 21.09.2009
Offline
283
#1

Railsmax, гадать не стоит скорее всего забанит. Вы никогда не определите откуда приходит бот. Бот который определяет клоакинг пока никто не находил :)

По крайней мере я не видел-читал. Попробуйте сдалеть открытые ссылки и страницу на которой дубликать закройте в ноиндекс.

Appassionato
На сайте с 22.06.2010
Offline
326
#2

Делаете в тексте страницы обычные хтмл-ссылки. Потом, если Вы в браузере, проходитесь джаваскриптом по всем ссылкам и подменяете их на хэши. Если нет, то получается статика.

Т.е. контент сайта увидят полностью и боты, и пользователи без js, и полноценные юзеры.

Хостинг Работает, как Часы ( http://tinyurl.com/nze85xw ). Проверено за 11+ лет.
AP
На сайте с 12.06.2012
Offline
4
#3

а почему Вы хотите пускать на данные страницы только Гуглбота? сделайте их доступными для всех, а на самих страницах поставьте JS редирект на правильные страницы с хеш ссылками. Для красоты, добавьте в <noscript> сообщение о том, что страница предназначена исключительно для тех, у кого выключен яваскрипт и что при включении Вы сможете воспользоваться полной версией сайта. Элегантно и никакого клоакинга, на мой взгляд

Тем, кто счастлив, некогда писать дневники, они слишком заняты жизнью. - only pozitive people!
R
На сайте с 16.07.2012
Offline
0
#4
easywind:
Railsmax, гадать не стоит скорее всего забанит. Вы никогда не определите откуда приходит бот. Бот который определяет клоакинг пока никто не находил :)
По крайней мере я не видел-читал. Попробуйте сдалеть открытые ссылки и страницу на которой дубликать закройте в ноиндекс.

def only_bot_allow

redirect_to .... unless request.user_agent.include?('google') || request.user_agent.include? 'bot'

end

- я собственно как то так планировал и в before_filter :only_bot_allow где необходимо. + редирект в зависимости от страницы запрашиваемой.

Несовсем я осознал - у меня есть куча паршлов, которые обрабатываются на фронтенде backbone, html версии пока что у меня нету. Если я сделаю открытые ссылки на html версию - тогда люди будут по ним ходить - а не по js страничкам - что мне не надо. Тоесть я хочу оставить все так же как и есть в js, но что бы эти страницы проиндексировались и ищю простейший и быстрейший путь это сделать.

---------- Добавлено 17.07.2012 в 13:05 ----------

Appassionato:
Делаете в тексте страницы обычные хтмл-ссылки. Потом, если Вы в браузере, проходитесь джаваскриптом по всем ссылкам и подменяете их на хэши. Если нет, то получается статика.

Т.е. контент сайта увидят полностью и боты, и пользователи без js, и полноценные юзеры.

Спасибо, идея зачетная - только как то не очень чисто это получается, но всеравно лучше моего варианта походу дела :)

---------- Добавлено 17.07.2012 в 13:08 ----------

AlexPer:
а почему Вы хотите пускать на данные страницы только Гуглбота? сделайте их доступными для всех, а на самих страницах поставьте JS редирект на правильные страницы с хеш ссылками. Для красоты, добавьте в <noscript> сообщение о том, что страница предназначена исключительно для тех, у кого выключен яваскрипт и что при включении Вы сможете воспользоваться полной версией сайта. Элегантно и никакого клоакинга, на мой взгляд

Огромное спасибо, вроде как идея подходит полностью!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий