Devvver

Devvver
Рейтинг
691
Регистрация
02.07.2008
Trudoden:
Имею опыт более 10 лет

Такой же опыт и у меня. Правда я продвигаю свои сайты.

Trudoden:
многие так называемые студии и SEO конторы работают как слепые котята без спец софта

А зачем он ? Может под бурж нужен, под рунет не надо. Если сильно нужно посканить конкурента - вы сами знаете что https://ahrefs.com/backlink-checker есть.

Мало проверок? Прокси есть. Надо полный функционал? Да скиньтесь уже на акк с бедными SEO студиями. Юзайте вместе.

Trudoden:
Любимый всеми нами majestic.com попросмт еще 40 £

Тоже под рунет не надо.

У меня на компе 2 программы для сканирования сайта (бесплатные).

Еще по одной программе для кластеризации, парсинга ключей (бесплатные).

Прокси - каюсь, платный 3 бакса в месяц.

Есть еще 2 программы которые юзаю - сам написал. Получается что бесплатно.

Итого - 3 бакса в месяц трачу на софт.

Если бы позиции сайтов зависели от купленных программ - все бы выкупил.

webiumpro:
https://neilj.github.io/Squire/

Не вижу исходного кода. А так работает.

webiumpro:
http://habibhadi.com/lab/easyeditor/

Кнопка "Code" не работает.

webiumpro:
http://kenshin54.github.io/popline/

Это вообще звиздец какой то. Не смог сам разобраться, а мне это предлагать домохозяйкам :(

webiumpro:
http://wysihtml.com/

Этот ближе всего к тому что нужно! Правда есть глюк с вставкой li и ol

IrfanView 64 попробуйте. В меню Файл-Обработать группу файлов.

На 5 день пришли бабки с Телепея. Так Приватбанк не зачислил, написал ждите еще 2 дня.

Что то мне такой вывод перестает нравится.

AlexStep, если бы сайты были на html5 - все логично. Но сайты все разные. Обычно больше 50% - это WP.

Для понимания - вбейте информационный запрос любой - к примеру "храмы Паттайи" в Яндексе

moalexey:
Возможно это подойдет под вашу задачу

Я пишу на Delphi. Поэтому и ищу алгоритм.

webiumpro:
Вы можете найти родителя h1. Значит все, что выше этого родительского контейнера, уже можно отбросить

Об этом я писал в старпосте. Но проблема определить конец статьи.

webiumpro:
Вы заинтересовали меня этой задачей. Давайте спишемся в личке и проведем эксперимент. Вы мне дадите для теста несколько сайтов, а я попробую реализовать этот алгоритм на php и вычленить контент. Я не возьму за это ни копейки, просто задача реально очень интересная.

Сегодня точно нет, я слишком пьян чтобы осилить код. В теории мы сканим любой топ 10 по информационным запросам.

Я вот это нагуглил и приуныл. Проблема не так проста как кажется

https://toster.ru/q/308852

https://toster.ru/q/23997

webiumpro:
Вполне будет достаточно html-crawler'a и регулярок.

Понятно. Почитал ответы программистов на Тостере и понял что задача нереализуемая, только гадания. Эта проблема уровня поисковиков.

WP_Expert:
по числу абзацев можно

конкретнее?

BLIKSSS:
Софт X-Parser-Light?

Я ж написал что свой софт пишу. Мне бы понять алгоритм.

webiumpro:
Все, что ниже контента статьи, как правило, будет повторяться

Так теги вообще повторяющиеся будут. Вашу мысль я понял, искать какие то повторяющиеся элементы - типа автора или кнопок поделиться или звездочек. Но такое начать определять - тут нейросеть надо писать и обучать на выборке. Сложновато.

fliger:
Сервис умер или еще жив?

очевидно что такие вопросы нужно в сервис поддержки отправлять.

KiraMango:
В среднем у нас 2-я позиция. Но рост только на 20% ( а не на 50% как скаканул вордстат)

Ну тут нужно смотреть комплексно. Возможно рост по регионам или региональным запросам, возможно рост вообще из других стран. Может быть что действительно парсеры накрутили.

Всего: 9939