- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет!
Возник вопрос, как все знают сейчас уже входит в обиход web 2.0 , и как часть этого Ajax. В связи с этим очень интересно как раскручивать такие сайты, ведь роботы в данный момент не умеют индексировать и выполнять javascript.
Получается 2 пути:
1) На ранжирование будут влиять строго внешние факторы
2) Роботы будут еще более умнее, в них будет реализована java машина.
А возможно развитие пойдет сразу по двум путям.
Хотя может быть и еще как то? Кто как думает?
Очень интересно услышать ответ на этот вопрос.
В дополнении:
Читал про смерть SEO, но ведь даже если будет какой либо персонализированный поиск прочее, то как будут ранжироваться результаты там? :-)
а можно сделать две копии сайта, html роботам, ajax пользователям
на мой взгляд это как то неправильно
имхо:
Касательно сайтов на Ajax:
Сегодня Ajax в web 2.0 тот же flash (flash в понятии Нильсена, например), и вообще я не понимаю: в век широкополосного подключения, с уже существующими системами кеширования, зачем исполнение скриптов переносить с сервера на локаль (к тому же сервер все равно производит стандартную обработку запросов)? Наверно, эконимить трафик (ну, типа, э-э, каждый раз графика не подгружается - а как же закешированные стили и графика?). Пока я не вижу необходимости в web 2.0.
К тому же парадигма web 2.0 дизайна: легкий доступ к информации, минимум "мусора" в оформлении, можно осуществлять в web 1.x. web 2.0, помоему имеет предназначение обеспечивать интерактивное взаимодействие сервисов с пользователями (большая часть страниц интернета не представляется мне интерактивный сервис). xhtml верстка, отделение описания от содержимого облегчает код оформления, то есть доля текста в коде страницы становится велика, и перезагрузка всей страницы не сильно отличается от загрузки текста. (хотя может людям нравится видеть статичное оформление страницы и красивые прелоадеры?)
Также, как индексировать такой "супердинамичный" контент? Если статичные сайты порой обделены вниманием поисковых ботов? По моему для контент-интернета все возможности ajax можно выполнять стандартными средствами.
Хотелось бы увидеть интересные аргументы экспертов по web 2.0 в защиту этой технологии, возможно даже было бы устроить ликбез-дискуссию.
сейчас уже входит в обиход web 2.0 , и как часть этого Ajax. В связи с этим очень интересно как раскручивать такие сайты, ведь роботы в данный момент не умеют индексировать и выполнять javascript
Ну, вот, к примеру, на этом форуме используется ajax. Разве это как-то мешает индексации поисковыми ботами? Я думаю, любые новые технологии нужно использовать разумно и только там, где это действительно может быть полезным.
боюсь сео умрет только после последней поисковой машины!
просто роботов научат индексить джаву, делов то, проблемы как таковой нет!
Получается 2 пути:
1) На ранжирование будут влиять строго внешние факторы
2) Роботы будут еще более умнее, в них будет реализована java машина.
Нормальные люди не делают весь сайт строго на ajax (по многим - разным причинам, не будем сейчас вдаваться). Ajax надо вносить строго дозированно, поэтому на самом деле разумен 3-ий путь
3) Применение аякса для контрольных и управляющих элементов, но не для контента как такового.
Интересно, что в первой статье посвященной Web 2.0 SEO было отличительным признаком WEB 2.0
Ajax - это только один из элементов Web 2.0 и не самый важный. Есть еще синдикация/web-службы, комьюнити а'la Wiki/LJ как средство создания контента, и др.
1. Ayavryk прав. SEO - тоже web 2.0
2. Web 2.0 и ajax это не одно и то же. Просто они появились одновременно.
3. Web 2.0 - это принцип организации сайта, где основным генератором информации являются пользователи ресурса: форумы, блоги, youTube, news2.ru, сервисы закладок и прочее.