- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хочу заняться писанием сайтов по так называемой технологии AJAX, суть которой состоит в формирование страницы на стороне пользователя при помощи JavaScript, на основе XML файлов, которые присылает серверный скрипт. Причем "загрузка" новых страниц происходит без перегрузки URL, а опять-таки JavaScript-ом и, как правило, в фоном режиме (JS угадывает, подсасывает и разбирает новые XML-файлы пока пользователь смотрит ту или иную страницу или выполняет какие-то действия).
Т.е. страница (всего одна на весь сайт) - это большой и умный JS, который сам грузит себе данные в XML-виде.
1. Вопрос в том, как такой сайт будет выглядеть с точки зрения поисковика. Он вообще сколько-нибудь приндексируется.
2. В какой степени поисковик может выполнять JS. Ведь он его не игнорирует, это точно. Что-то там он всё-таки выполняет, т.к. фокусы с "display:none" не проходят ведь :dont: .
3. Индексируются ли просто XML-файлы с сервера?
Спасибо
choupa, технология великолепная, но пользоваться ей надо только там, где она нужна - т.е. для создания сверхинтерактивных интерфейсов. JS поисковики не выполняют, за исключением выдирания ссылок из самых простых скриптом, и то по слухам. Никакой XMLHttpRequest ни один SE не поймет.
Проиндексированно будет только то, что есть в HTML-коде.
Ну, и ИМХО, организация на AJAX всего сайта скорее будет неудобна пользователю - непривычно, да и не совсем логично. К тому же, нельзя распространять ссылки на конкретный документ. Используйте HttpRequest для организации пользовательских панелей управления, которые не должны индексироваться поисковиками и на которые не нужно давать ссылки, или для отдельных сервисов, результаты работы которых, опять же, не нужно индексировать. Можно еще где-то что-то добавлять для удобства по мелочи, но делать целиком сайт по такой схеме - ИМХО не актуально.
Хотя, конечно, если надо сделать что-то промо-впечатляющее, не претендующие на позиции в поиске и на постоянных посетителей - можно и использовать для всего сайта.
Если сайт полностью на Ajax, то проиндексируется только главная.
Лучше ставить обычные href ссылки. Если их нет - поисковик не поймет
Я невидел роботов которые выполняют жаваскрипт. Да, анализировать могут, но выполнять - нет. display:none это CSS
нет
Про display:none я имел в виду, что можно ведь изначально элемент загружать видимый, а потом JS делает ему style.display='none' сразу же при загрузке страницы. Это же криминал? Поэтому я стараюсь такие штуки не использовать, чтобы не забанили. Хотя мне нравится с чисто практической точки зрения делать примечания к тексту или какие-либо подробности на странице скрытым блоком, который моментально раскрывается при необходимости.
Роботы не выполняют яваскрипт.
С другой стороны, что можно индексировать в интерфейсе? А ведь это основное применение AJAX.