- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, на одном из вебинаров от сеошника крупного агрегатора услышал идею, что они создают страницы отдельно для Яндекса и Гугла. И оптимизируют эти страницы отдельно под каждый поисковик исходя из их требований. У Яндекса много вхождений ключей и меньше текста, у гугла портянки текста. Таким образом, получается "дублирующая" структура сайта, когда под один запрос создаются две разные страницы.
Вопрос для практиков: есть ли смысл от этого?
Здравствуйте, на одном из вебинаров от сеошника крупного агрегатора услышал идею, что они создают страницы отдельно для Яндекса и Гугла. И оптимизируют эти страницы отдельно под каждый поисковик исходя из их требований. У Яндекса много вхождений ключей и меньше текста, у гугла портянки текста. Таким образом, получается "дублирующая" структура сайта, когда под один запрос создаются две разные страницы.
Вопрос для практиков: есть ли смысл от этого?
Это довольно муторная и в целом напрасная затея; придётся регулировать процесс индексации, чтобы у ботов Яндекса был один адрес страниц для индексации, а у Гугла - другой. Что будете делать, если Гугл проиндексирует дубли, несмотря на запрет индексации?
Практически я таких примеров не встречал и классическая задача оптимизации и заключается в том, чтобы совместить требования обеих поисковых систем по части оптимальной индексации и последующего ранжирования.
У Яндекса и Гугла нет принципиально противоречивых алгоритмов, которые бы отрицали решения для альтернативной ПС.
Проще говоря, не надо делать "дублирующую" структуру.
Как правильно выше сказали, есть нюансы в организации региональности (и здесь Гугл действительно хуже работает с поддоменами), но и это не является непреодолимым препятствием для индексации в Гугле.
Здравствуйте, на одном из вебинаров от сеошника крупного агрегатора услышал идею, что они создают страницы отдельно для Яндекса и Гугла. И оптимизируют эти страницы отдельно под каждый поисковик исходя из их требований. У Яндекса много вхождений ключей и меньше текста, у гугла портянки текста. Таким образом, получается "дублирующая" структура сайта, когда под один запрос создаются две разные страницы.
Вопрос для практиков: есть ли смысл от этого?
это не сеошник, не переживайте.
особенно про портянки и много ключей для яндекса)
так делать - глупость несусветная