- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Выложил плагин в паблик https://addons.mozilla.org/ru/firefox/addon/relesape/
Жду комментариев.
Очень даже приятная штука.
Сразу пару вопросов:
1. Что юзаете для морфологии?
2. Ковырять в сторону словосочетаний из 2-х, 3-х слов не пробовали?
3. Разбирается ли текст страницы "с точки зрения бота"?
4. Смотрели на функционал http://extheme.ru/ ? Есть планы по реализации подобного?
sokol_jack, рад что вам понравилось :)
Отвечу по пунктам
1. http://aot.ru/
2. Нет, вроде бы нет необходимости, или есть? Думаю, это может иметь смысл в именах и фамилиях.
3. Смотря что вы имеете ввиду. Парсится body и только, все тэги типа script, и т.д. "режутся", только чистый текст.
4. С сервисом не знаком, но идея определения тематики была первоначальной. Начал с простого, о тематиках еще даже не думал.
П.С.
Планирую доработать анализ соотношения кол-ва ссылок (всех) к общему кол-ву текста. Думаю, это имеет смысл, дабы не покупать ссылки с "линкопомоек" и пустых страниц.
П.П.С.
extheme с задачей не справился...
ra26info добавил 06.05.2011 в 13:38
Могут быть сбои, заранее извиняюсь - похоже мой хостер не справляет с нагрузкой. Пробую разрулить это дело.
ra26info добавил 06.05.2011 в 14:09
Нагрузку пока разрулил...
отличный плагин, но иногда бывает так что продвигаешь например запрос "книги", натыкаешься на покупку ссылки с сайта на которой выложена уникальная книга, но там нету ни одного упоминания что это книга...а просто название книги. Этот плагин бы для gogetlinks.net бы ещё...
натыкаешься на покупку ссылки с сайта на которой выложена уникальная книга, но там нету ни одного упоминания что это книга...а просто название книги.
Это по тому, что "перевешивает" остальной контент, тут ничего не поделаешь. Например, может быть "главная" на странице эта книга, но вокруг еще много всякого сопровождающего контента, а он ведь тоже анализируется.
Этот плагин бы для gogetlinks.net бы ещё...
Не знал о таком сервисе. Считаете есть смысл делать под него?
sokol_jack, рад что вам понравилось :)
О, собирали из исходников с SF?
Как минимум - "правильный" UserAgent. И еще неплохо бы плюсовые баллы давать словам в тайтле, H1, H2, ..., strong 🙄
Только если научиться фильровать "постоянные" блоки на сайте (меню, например).
extheme с задачей не справился...
Это говорит только о том, что с данной тематикой пока никто не сталкивался :)
Обучить его - дело пары минут. ;)
sokol_jack,
1. оставим детали за кадром ;)
3. да, можно сделать, только вот в как считать h1, h2, stong... Есть соображения? (Есть у меня простенький анализатор, так там я считаю title и h1 в % к общему тексту.) UA присутствует :)
"...блоки на сайте (меню, например)" - было бы не плохо, надо подумать.
"с данной тематикой пока никто не сталкивался" - наверное. Но когда я взял "облако" из 25 слов и кинул его в extheme, то тематика совпала (мода...). Я к тому, что могли бы сделать, ведь не сложно :)
Попробовал, у меня из предложеных 12 сайтов, обработал только 6 почему-то
удалить 10 раз
Попробовал, у меня из предложеных 12 сайтов, обработал только 6 почему-то
плагин в разработке. Но тут может быть так: если проверяемая страница не загружается в течении 30 секунд (проверяемый сайт не отвечает), то на нее мы не тратим время и ресурсы.
удалить 10 раз
обязательно, так и поступим ;)
обязательно, так и поступим
вы не правильно меня поняли )
это я текст удалил и дополнил до 10 символов ))
разработка полезная