chaser

chaser
Рейтинг
218
Регистрация
03.08.2005
Должность
SEO-специалист
Интересы
SEO, Delphi, PHP
Dimka :

Есть ли возможность указать зеркало сайта в Topvisor при на новый домен?

Все обыскал и не нашел (

В суппорт писать не пробовал? )
LEOnidUKG #:
Так они же русскоязычные в основном. Если там не будет пользователей РФ и Беларуси, то кто кому будет, что продавать и покупать? В Украине сейчас вообще не до покупок статей, получается тупо кинули на бабки и всё. Классикой уже стала за последнюю неделю сворачивать бизнес и кидать всех под лозунги.
Видимо на все эти сервисы "сверху" нажимают - вряд ли сами владельцы бизнесов вот так рубили бы сук на котором сидят, даже в такой непростой политической/военной обстановке.
Либо есть иное давление или иная финансовая поддержка, иначе так реально им самим уйти вникуда. Альтернатив то хватает.
Mik Foxi #:

это жесть же, он так все mitm атаки пропустит.

Каспер также своим сертификатом у всех сайтов подменяет.
Видимо так надежнее.

Илья582856 #:
Здравствуйте, я так понимаю можно парсить с сайта по своим логином?
Никаких логинов для парсинга не требуется.
Shlackbaum #:

Спасибо за софтину. 

Не хватает настроек экспорта. 

В частности хотелось бы иметь возможность получить в одной Excel'ке список из неуникальных групп.

Где первым URL идет исследуемый, а следующие за ним - это его дубли начиная от наидублейшего :)

Можно ограничить количеством или (лучше) гибкой настройкой "Насколько должны быть неуникален URL группы от "главного" URL группы, чтобы попадать в группу"

Наступит проблема, когда по сути одни и те же URL будут попадать в различные группы, да и просто разные URL будут вершинами разных групп и ее тоже хорошо бы решить, но пока я не придумал как.

Но простая выгрузка в вышеописанном формате - уже шаг.


Спасибо

Возможно позже реализуем в SiteAnalyzer'e, записал в ТУДУ лист.
рецидивист #:

Наверное, не так выразил мысль. Программа открывает страницы и получает HTML-код. Дальше что происходит? Она сравнивает по шинглам HTML со всеми тегами? Она выбирает все слова внутри тегов, исключая сами теги? Она берет текст из каких-то определенных тегов, может быть, и из атрибутов, к примеру, изображений? Она берет куски текста объемом больше Х слов, склеивает их и проверяет? Или как? Какой у нее алгоритм выбора данных со страницы для сравнения?

HTML не используется, он отсекается.

Берется полный текст страницы, либо "значимый" контент (определяется алгоритмически). Затем контент сравнивается между собой.

Текст из изображений и мета-тегов не используется.

рецидивист #:
А по какому алгоритму определяется уникальность?
По шинглам

Представляем вашему вниманию новую версию бесплатной программы BatchUniqueChecker, предназначенной для массовой проверки уникальности контента нескольких страниц между собой по списку URL, карте сайта Sitemap или локальным HTML-файлам.



Что нового в версии 1.4:

  • добавлена возможность проверки на уникальность локальных файлов форматов HTML и TXT
  • в окне сравнения уникальности исходного URL с остальными добавлено отображение искомого URL
  • добавлена возможность копирования списка страниц из окна похожих URL в буфер обмена
  • увеличено максимально возможное количество импортируемых URL с 5000 до 10000
  • в основное окно программы добавлена колонка Инфо для вызова контекстного меню

Страница скачивания (4 Мб): https://site-analyzer.ru/soft/batch-unique-checker/
рецидивист #:

Не оптимально в сравнении в KeyAssort или не оптимально вообще?

У нас два варианта Hard-кластеризации, второй на большом количестве запросов работает медленно.

Но можно пользоваться и первым вполне.


Всего: 1014