- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет. Занимаюсь продвижением своего сайта по продаже авиабилетов и встретился с такой проблемой. У каждого города есть свой трёхзначный IATA-код, согласно которого определяется название самого города. Я создал роутер, благодаря которому мне нет необходимости создавать директории. Например, я взял Москву, Симферополь и Сочи. И у меня получилось 6 страниц с различными направлениями - из Москвы в Симферополь и из Симферополя в Москву, из Сочи в Симферополь и из Симферополя в Сочи и т.д. Теперь ближе к сути. Эти IATA-коды я добавляю вручную и сейчас благодаря моему роутеру у меня получилось 33.000 страниц, которые попали в индекс. Но проблема в том, что среди всех страниц есть и те, по которым мало кто вообще ищет авиабилеты. Из-за этого не собирается статистика, следовательно нет данных, благодаря которым мои алгоритмы генерируют уникальные тексты. Так в чём же проблема: прямо сейчас я могу отключить ручное модерирование и добавить вообще все города планеты и у моего сайта будет уже не 33.000 направлений, а где-то около 8 млн. С одной стороны, я смогу охватить огромную аудиторию и добиться повышения количества ключевых слов по моему сайту, но с другой - я получу несколько миллионов страниц с направлениями, на которых не будет ни текста, ни графиков с ценами. В общем, такие страницы с вероятностью в 99% будут исключены из индекса. Так стоит ли вообще это делать? ПСы как-то учитывают соотношение качественных страниц к некачественным?
Малое количество контента не является причиной низкого ранжирования, если этот контент полезен для пользователя, предоставляет всю необходимую информацию по соответствующему поисковому запросу, удобно и лаконично подан.
А какие такие прям уж уникальные данные (статистика) там собирается, которой не хватает для генерации?
Автоматически сгененированные тексты ведь похожи один на другой скороее всего, разница только в городах.
Пусть алгоритмы сами и генерируют похожие тексты заменяя одни города другими + на основании каких-то данных по предыдущим городам.
К тому же, чем менее популярен, менее конкурентен запрос, тем меньшее количество текста может требоваться на его продвижение.
... на которых не будет ни текста, ни графиков с ценами.
Почему небудет графиков с ценами? а откуда эти цены берутся при наличии запросов?, надо направить алгоритмы на автоматическое получение этих графиков с ценами.
А какие такие прям уж уникальные данные (статистика) там собирается, которой не хватает для генерации?
Автоматически сгененированные тексты ведь похожи один на другой скороее всего, разница только в городах.
Пусть алгоритмы сами и генерируют похожие тексты заменяя одни города другими + на основании каких-то данных по предыдущим городам.
К тому же, чем менее популярен, менее конкурентен запрос, тем меньшее количество текста может требоваться на его продвижение.
Почему небудет графиков с ценами? а откуда эти цены берутся при наличии запросов?, надо направить алгоритмы на автоматическое получение этих графиков с ценами.
Когда пользователь начинает поиск по определённому направлению, то по его окончанию в базу кладётся информация о минимальной и максимальной цене в тот конкретный день, на который пользователь планировал вылет. Есть такие направления, на которых авиабилеты ищут ну крайне редко или не ищут совсем. Например, направление Бильбао - Гонконг - https://www.flaut.ru/tickets/bilbao/hong-kong/
По этому направлению билеты не искали совсем и там по всей странице тексты "Недостаточно информации", и только внизу статичный текст (один из четырёх возможных). Если робот зайдёт на страницу с похожим направлением, где отличаться будет только текст внизу страницы, то он с вероятностью 99% выбросит страницу из индекса с пометкой "Дубль", а потом присвоит ей статус "Недостаточно качественная".