- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сижу и думаю вот о чем, может быть конечно глупый и елементарный вопрос, но думаю многим новичкам будет интрестно знать.
Рассуждение:
имеем интернет-магазин, тематика парфюмерия, модуль плагиата Allsubmitter показывает массу плагиата, по шинглам торговых марок и наименований, к примеру шингл:
hate perfume celine celine dion
и таких масса, и совпадений по 30-40.
Вопрос: как ведут себя гугл с яшей в таких случаях? Где об этом почитать? Такие шинглы при проверке есть в каждом магазине указанной тематики и ничто не мешает им быть в топе.
Благодарю за внимание.
Их поведение зависит от многих факторов, а не только от уник. контента.
Mr.Smile добавил 11.01.2011 в 11:12
Сайт может быть в ТОП выдаче при уник. контента 0%.
Их поведение зависит от многих факторов, а не только от уник. контента.
Mr.Smile добавил 11.01.2011 в 11:12
Сайт может быть в ТОП выдаче при уник. контента 0%.
Это понятно. Меня интересует больше всего, как такой учет ведется.
Вы, как и многие тут, считаете, что ПС ранжируют сайты по набору параметров "да/нет" или точным процентным метрикам: "10% -- ок", "25 -- не очень", ">50% -- плохо" и т.д.
Но в таком случае работа алгоритма была бы сведена к абсурду: чтобы быть в ТОПе, не надо указавать наименование модели или технические характеристики товара (типа плагиат). Ну это же маразм!
Поймите: все эти инструменты, которые показывают "тошноту", "шинглы", (!) "траст", "цену ссылки", "вхождения ключа" сделаны в помощь оптимизатору, а не для его замены. Оптимизация не сводится к нажатию кнопки "проверить сайт" и переписывания в эксель данных по тошноте и вхождениям.
Меня интересует больше всего, как такой учет ведется.
И не только вас, но это коммерческая тайна ПС, а мы можем только догадываться и ставить эксперименты.
И не только вас, но это коммерческая тайна ПС, а мы можем только догадываться и ставить эксперименты.
Полностью согласен с Вами.
Вопросы исчерпаны. Спасибо за участие.
Полезно будет почитать: Сравнительный анализ методов определения нечетких
дубликатов для Web-документов от © Зеленков Ю.Г, Сегалович И.В (Яндекс ). Я нашел для себя там все ответы, пусть и староватый.