- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, на одном из вебинаров от сеошника крупного агрегатора услышал идею, что они создают страницы отдельно для Яндекса и Гугла. И оптимизируют эти страницы отдельно под каждый поисковик исходя из их требований. У Яндекса много вхождений ключей и меньше текста, у гугла портянки текста. Таким образом, получается "дублирующая" структура сайта, когда под один запрос создаются две разные страницы.
Вопрос для практиков: есть ли смысл от этого?
Здравствуйте, на одном из вебинаров от сеошника крупного агрегатора услышал идею, что они создают страницы отдельно для Яндекса и Гугла. И оптимизируют эти страницы отдельно под каждый поисковик исходя из их требований. У Яндекса много вхождений ключей и меньше текста, у гугла портянки текста. Таким образом, получается "дублирующая" структура сайта, когда под один запрос создаются две разные страницы.
Вопрос для практиков: есть ли смысл от этого?
Это довольно муторная и в целом напрасная затея; придётся регулировать процесс индексации, чтобы у ботов Яндекса был один адрес страниц для индексации, а у Гугла - другой. Что будете делать, если Гугл проиндексирует дубли, несмотря на запрет индексации?
Практически я таких примеров не встречал и классическая задача оптимизации и заключается в том, чтобы совместить требования обеих поисковых систем по части оптимальной индексации и последующего ранжирования.
У Яндекса и Гугла нет принципиально противоречивых алгоритмов, которые бы отрицали решения для альтернативной ПС.
Проще говоря, не надо делать "дублирующую" структуру.
Как правильно выше сказали, есть нюансы в организации региональности (и здесь Гугл действительно хуже работает с поддоменами), но и это не является непреодолимым препятствием для индексации в Гугле.
Здравствуйте, на одном из вебинаров от сеошника крупного агрегатора услышал идею, что они создают страницы отдельно для Яндекса и Гугла. И оптимизируют эти страницы отдельно под каждый поисковик исходя из их требований. У Яндекса много вхождений ключей и меньше текста, у гугла портянки текста. Таким образом, получается "дублирующая" структура сайта, когда под один запрос создаются две разные страницы.
Вопрос для практиков: есть ли смысл от этого?
это не сеошник, не переживайте.
особенно про портянки и много ключей для яндекса)
так делать - глупость несусветная