- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сейчас многие сайты используют для генерации контеента js (в том числе вторичные запросы на сервер по ajax)
как индексируются такие страницы? пытается ли поисковик выполнить js (хотя бы частично) или просто индексирует то что отдается в тексте по http.
Насколько опастно в исходном тексте писать одно, а через js менять это на другое.
что делать с точки зрения поисковой оптимизации если html-тексты старницы сайта состоят из вызовов навроде
Насколько я знаю, google выполняет js на страницах, после этого уже анализирует полученную страницу, соответственно имхо - страница, которая подгружает другую страницу или как либо код будет проиндексирована
Ответ выше. Поменял, результат то в любом случает один получается конечный, который и заберет для индексации пс
STRIJ1986, поиск по форуму когда отменили?
Что делать - отказываться.
Яндекс такие вещи плохо понимает, гугл не испытывает с этим проблем вообще.