- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день, камрады
1.Позвольте спросить, что понимает команда яндекса под определением "нечеткий дубликат"?
2. Каким образом происходит как "склейка страниц"? Что стоит за этим процессом, и какие критерии используются при оценке дублей?
3. Последний вопрос, как реализован обсчет link popularity у Яндекса по сравнению с Гуглом?
greaffon, если осилите:
Методы определения нечетких дублей (pdf)
Добрый день
Вот Вы господин модератор совершенно напрасно вопрос до конца не дочитали....
Теория шинглов - любопытное, но мне кажется не совсем эффективное решение... Если действительно компоратор поисковой машины выделяет дубли на основе этой незатейливой идеи, то возникает ряд несоответствий. Как же тогда собственно поступать с нечеткими дубликатами, возникающими по сути вещей - например срочные новости или аннонсы чего либо?
За ссылку спасибо
Вы ужи извините, но хотел бы спросить я вот что - какие методы приемлемы для генерации рандомных текстов на естественном языке... Ту методику что использую я не всегда можно назвать эффективной, она в большей степени применима для низкочастотников, а при работе с большим количеством,назовем их гордым словом " уникальных статей" я столкнулся с рядом затруднений. Я использую компоратор, который некий господин анонсирует эквивалентным Я-кому,но в последние апы у меня стойкая увереность что существует несколько другая методика, более совершенная чем работа с шинглами или подбор хешей из вводных словаря....ВОт и хотел спросить у Вас собственно, что Вы знаете о подобном...
Вот Вы господин модератор совершенно напрасно вопрос до конца не дочитали....
Теория шинглов - любопытное, но мне кажется не совсем эффективное решение...
Простите, какую часть вопроса, по-вашему, я не дочитал?
Гм... видимо не поняли друг друга... что Вы знаете о системах "ГЕЯ"? Поделитесь опытом, если Вам не трудно... и вообще генерацией текстов в промышленных масштабах занимались? Поделитесь наблюдениями, в обмен на мои... Результаты моих экспериментов меня просто обескураживают, если честно....
greaffon, вам следовало более чётко сформулировать вопросы в самом начале темы. Если вам интересны методы определения дубликатов, которые использует Яндекс, приведённая мной ссылка вполне подходит для начала глубокого изучения вопроса.
Если же речь идёт о генерации тучи текстов, то это не ко мне вопрос, извините.