- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет.
Допустим есть страница с поисковой формой. Она может быть написана в 2-х вариантах.
1) по старинке, на html ну или с минимальным использованием каких-то, например, jQuery-ui компонентов.
2) по модному и современному на всяких ангулярах, реактах и прочих, исходя из чего код страницы может быть вида:
Зайдя на такую страницу, мы увидим в браузере форму с автокомплитом и календарем: http://prntscr.com/f3kcb3
Вопросы такие:
- насколько 2-й вариант хорош для поисковых систем - так оставлять или же для ПС делать отдельную отрендеренную страницу?
- что ПС думают о так называемых неизвестных тегах autocomplete и calendar?
В интернете много разнородной информации, датированной разными годами, а учитывая, что в данной области все весьма быстро меняется, решил спросить здесь.
Спасибо.
P.S. Модераторы, извиняюсь, если не правильно выбрал тему/раздел, и прошу перенести в нужный, если ошибся.
Индексирование AJAX-сайтов Яндексом: https://yandex.ru/support/webmaster/robot-workings/ajax-indexing.xml
В гугле было аналогично, но примерно с год назад они затерли такую хелпу.
Фактически для Я-са были сделаны слепки- он оттуда брал контент, а вот Гугл откуда брал- не понятно.
sslab, если скрипты открыты для индексации гугл их прочитает
яндексу глубоко наплевать на js
- что ПС думают о так называемых неизвестных тегах autocomplete и calendar?
ни чего не думают - роботы пс намного проще браузера и просто игнорируют их
2) по модному и современному на всяких ангулярах, реактах
prerender like this
https://builtvisible.com/react-js-seo/
sslab, вам нужно настроить корректную передачу кода страниц поисковым роботам с помощью пререндера.
Пользователь может попадать на JS-версию сайта, но роботы должны видеть Html-код страниц.
Проверяйте то, что видят роботы с помощью любого плагина User-agent-switcher.
Проверяйте то, что видят роботы с помощью любого плагина User-agent-switcher
Раньше это клоакингом называли, когда когда по одному и тому же адресу код для людей и ботов отдавался по разному..
Сейчас не банят за такое?
Раньше это клоакингом называли, когда когда по одному и тому же адресу код для людей и ботов отдавался по разному..
Сейчас не банят за такое?
смотря что вы будете делать.
Не банят, конечно, здесь ведь нет нарушения в том, что пользователям выдается некий другой контент.
Они попадают на страницы с тем же контентом, что и роботы.
Но робот видит HTML-версию страницы , которую без рендеринга ему нельзя показать.
чем проще, тем лучше. Навернуть можно всё что угодно (мы в вас верим), только вот цель у вас какая?