- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день! Я с оптимизацией не очень дружу, поэтому и возник следующий вопрос:
Есть сайт, который построен на Backbonejs + Rails.
Почти во всех страницах используется Backbonejs - тоесть все ссылки идут с хэшом(sitename.com#users) И ни одна из страниц такого типа не индексируется. Задача проиндексировать нужные страницы в Гугл. Почитал что советует гугл - https://developers.google.com/webmasters/ajax-crawling/docs/faq#whentousewhich. Здесь как я понял предлагают 1)# -> #! + 2)PushState + 3) HTML ответ со страницей и контекстом на "?_escaped_fragment_='value' " - и в таком случае страница будет проиндексирована с контентом, который есть на HTML странице. В примере действительно все проиндексировано. Но! задача индексировать не пустые страницы а страницы+контент.
В связи с этим родилась идея:
На главной странице сделать невидимые пользователем линки на html страницы пользователей и другой интересующей меня инфы. Пускать туда только если запрос делает Гугл бот. На этих страницах показывать точно такой же контент, что и в js варианте, только в виде HTML. Гугл проиндексирует все эти страницы и будет выдавать в поисковых запросах. Если же человек переходит по этой ссылки - тогда он будет редиректаться в js вариант сайта и дальше уже там делать что душе угодно.
Вопросы: Не забанит ли гугл такой хитрый ход, при условии что контент будет один к одному что в js, что в HTML варианте? И Если это не лучший вариант, тогда подскажите как лучше делать в данной ситуации?
Заранее спасибо за посильную помощь, сори что долго описывал - попытался полностью проблему развернуть.
Railsmax, гадать не стоит скорее всего забанит. Вы никогда не определите откуда приходит бот. Бот который определяет клоакинг пока никто не находил :)
По крайней мере я не видел-читал. Попробуйте сдалеть открытые ссылки и страницу на которой дубликать закройте в ноиндекс.
Делаете в тексте страницы обычные хтмл-ссылки. Потом, если Вы в браузере, проходитесь джаваскриптом по всем ссылкам и подменяете их на хэши. Если нет, то получается статика.
Т.е. контент сайта увидят полностью и боты, и пользователи без js, и полноценные юзеры.
а почему Вы хотите пускать на данные страницы только Гуглбота? сделайте их доступными для всех, а на самих страницах поставьте JS редирект на правильные страницы с хеш ссылками. Для красоты, добавьте в <noscript> сообщение о том, что страница предназначена исключительно для тех, у кого выключен яваскрипт и что при включении Вы сможете воспользоваться полной версией сайта. Элегантно и никакого клоакинга, на мой взгляд
Railsmax, гадать не стоит скорее всего забанит. Вы никогда не определите откуда приходит бот. Бот который определяет клоакинг пока никто не находил :)
По крайней мере я не видел-читал. Попробуйте сдалеть открытые ссылки и страницу на которой дубликать закройте в ноиндекс.
def only_bot_allow
redirect_to .... unless request.user_agent.include?('google') || request.user_agent.include? 'bot'
end
- я собственно как то так планировал и в before_filter :only_bot_allow где необходимо. + редирект в зависимости от страницы запрашиваемой.
Несовсем я осознал - у меня есть куча паршлов, которые обрабатываются на фронтенде backbone, html версии пока что у меня нету. Если я сделаю открытые ссылки на html версию - тогда люди будут по ним ходить - а не по js страничкам - что мне не надо. Тоесть я хочу оставить все так же как и есть в js, но что бы эти страницы проиндексировались и ищю простейший и быстрейший путь это сделать.
---------- Добавлено 17.07.2012 в 13:05 ----------
Делаете в тексте страницы обычные хтмл-ссылки. Потом, если Вы в браузере, проходитесь джаваскриптом по всем ссылкам и подменяете их на хэши. Если нет, то получается статика.
Т.е. контент сайта увидят полностью и боты, и пользователи без js, и полноценные юзеры.
Спасибо, идея зачетная - только как то не очень чисто это получается, но всеравно лучше моего варианта походу дела :)
---------- Добавлено 17.07.2012 в 13:08 ----------
а почему Вы хотите пускать на данные страницы только Гуглбота? сделайте их доступными для всех, а на самих страницах поставьте JS редирект на правильные страницы с хеш ссылками. Для красоты, добавьте в <noscript> сообщение о том, что страница предназначена исключительно для тех, у кого выключен яваскрипт и что при включении Вы сможете воспользоваться полной версией сайта. Элегантно и никакого клоакинга, на мой взгляд
Огромное спасибо, вроде как идея подходит полностью!