chaser

chaser
Рейтинг
219
Регистрация
03.08.2005
Должность
SEO-специалист
Интересы
SEO, Delphi, PHP
TEJlO #:

Все страницы с кодом ответа 200 :-)

Скиньте примеры страниц через форму обратной связи, явно не так чтото
TEJlO #:

Спасибо за софт. Образовалась проблема 

Что делать?

Не включать страницы с редиректами )
Lazy Badger #:

Смишно! Может еще и "документацию читать"?! 🤣

Точняк, от лукавого все это )

А вообще суппорт у них шустрый так то

Dimka :

Есть ли возможность указать зеркало сайта в Topvisor при на новый домен?

Все обыскал и не нашел (

В суппорт писать не пробовал? )
LEOnidUKG #:
Так они же русскоязычные в основном. Если там не будет пользователей РФ и Беларуси, то кто кому будет, что продавать и покупать? В Украине сейчас вообще не до покупок статей, получается тупо кинули на бабки и всё. Классикой уже стала за последнюю неделю сворачивать бизнес и кидать всех под лозунги.
Видимо на все эти сервисы "сверху" нажимают - вряд ли сами владельцы бизнесов вот так рубили бы сук на котором сидят, даже в такой непростой политической/военной обстановке.
Либо есть иное давление или иная финансовая поддержка, иначе так реально им самим уйти вникуда. Альтернатив то хватает.
Mik Foxi #:

это жесть же, он так все mitm атаки пропустит.

Каспер также своим сертификатом у всех сайтов подменяет.
Видимо так надежнее.

Илья582856 #:
Здравствуйте, я так понимаю можно парсить с сайта по своим логином?
Никаких логинов для парсинга не требуется.
Shlackbaum #:

Спасибо за софтину. 

Не хватает настроек экспорта. 

В частности хотелось бы иметь возможность получить в одной Excel'ке список из неуникальных групп.

Где первым URL идет исследуемый, а следующие за ним - это его дубли начиная от наидублейшего :)

Можно ограничить количеством или (лучше) гибкой настройкой "Насколько должны быть неуникален URL группы от "главного" URL группы, чтобы попадать в группу"

Наступит проблема, когда по сути одни и те же URL будут попадать в различные группы, да и просто разные URL будут вершинами разных групп и ее тоже хорошо бы решить, но пока я не придумал как.

Но простая выгрузка в вышеописанном формате - уже шаг.


Спасибо

Возможно позже реализуем в SiteAnalyzer'e, записал в ТУДУ лист.
рецидивист #:

Наверное, не так выразил мысль. Программа открывает страницы и получает HTML-код. Дальше что происходит? Она сравнивает по шинглам HTML со всеми тегами? Она выбирает все слова внутри тегов, исключая сами теги? Она берет текст из каких-то определенных тегов, может быть, и из атрибутов, к примеру, изображений? Она берет куски текста объемом больше Х слов, склеивает их и проверяет? Или как? Какой у нее алгоритм выбора данных со страницы для сравнения?

HTML не используется, он отсекается.

Берется полный текст страницы, либо "значимый" контент (определяется алгоритмически). Затем контент сравнивается между собой.

Текст из изображений и мета-тегов не используется.

Всего: 1017