- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Microsoft разработала систему поиска спамерских веб-страниц. «Strider Search Defender» ищет сайты, состоящие из ключевых слов для накрутки рейтингов в поисковых системах. Кто знает, есть ли аналоги у Яндекса?
Cистема фильтрации сделает создание спамерских страниц бессмысленным и, таким образом, уничтожит это явление, считает И-Мин Ванг (Yi-Min Wang), старший исследователь Microsoft.
Инструмент не ищет спам по содержанию. Вместо этого он использует поисковые системы для нахождения ссылок на потенциальные спамерские страницы. Эти ссылки, как правило, размещают на форумах, в гостевых книгах, комментариях к блогам и других общедоступных источниках.
Search Defender начинает работать по списку подтвержденных спамерских адресов. Компонент «Spam Hunter» ищет эти адреса в разных поисковых системах и собирает с них ссылки, которые затем снова пропускает через себя. Если есть у Яндекса аналог, то какой бот в логах?
После сбора списка потенциальных спамерских сайтов, в дело вступает «Strider URL Tracer». Он отсеивает ложные срабатывания. Модуль проверяет каждый сайт на предмет перенаправления на другие спам-страницы.
Спамеры размещают свои страницы на разных бесплатных сервисах — Angelfire, Tripod, Geocities (Yahoo) и других, а также в блогах. За счет большого количества популярных ключевых слов, спамерские страницы появляются на первых страницах в результатах запросов поисковых порталов, сообщил cnews.ru
Откуда информация появилась?
Откуда информация появилась?
http://www.yandex.ru/yandsearch?stype=www&nl=0&text=Strider+Search+Defender
думаю это не решит проблемы спам-страниц, а лишь немного изменит алгоритм создания и продвижения таких сайтов
Особенно заголовок потрясающий: "Microsoft взялась за "новый спам". А старый спам уже победили, что ли? Мне помнится они обещали извести email спам как класс году в 2007 примерно, но что-то я не припомню у них никаких разработок на эту тему. Не считая фильтра в MS Outlook, который несмотря на все апдейты по прежнему имеет очень большой false positive.
То, что делается в Microsoft Research пока носит характер Research. Все их исследования и алгоритмы хоть и побеждают на некоторых конкурсах, но практически проигрывают технологиям лидеров. Я имею в виду долю рынка поисковых запросов, которые обрабатываются MSN супротив Гугла и Яху. Altavista и та больше наработок продвинула, как мне кажется, мир праху её.
А насчет Яндекса - ну ясен пень никто не знает этого точно, кроме самих сотрудников Яндекса. Но вообще сильно сомневаюсь что создание такого агрегата пока что им сильно нужно. Все таки фильтрация достаточно сложный процесс и на первых порах маловероятно использование технологии подобного плана без серьезного контроля человека. А поскольку Яндекс не обладает ресурсами Гугла или Майкрософта (в первую очередь чисто человеческими), то они вроде бы (IMHO) ведут в сторону решения вопросов чисто технологическими методами. То есть более-менее научно обоснованными, алгоритмизируемыми и так далее. По крайней мере задачи связанные с "нечетким поиском", и прочими сложными и неоднозначными вещами пока делать толком не умеют ни у нас, ни за рубежом. Как мне кажется, если бы умели - уже давно сделали бы определение тематики сайта автоматически. А не вручную, как сейчас.
думаю это не решит проблемы спам-страниц, а лишь немного изменит алгоритм создания и продвижения таких сайтов
Присоеденюсь к Вашему мнению!
Просто спамеры будут искать другие методы и все, а разработчики поисковых систем придумывать новую защиту - и борьба будет длится бесконечно, как борьба добра и зла, ну а что зло, а что добро, это каждый решит для себя сам! :)
Очень занятная инициатива.
Невозможно выявлять переадресацию на всех индексируемых страницах, т.к. не хватит вычислительных можностей.
Микрософт собирается сначала отфильтровывать страницы с большим количеством каталожных и форумных беклинков, а затем уже только их проверять мощным парсером на предмет переадресаций.
Идея не нова и ее реализация не составила бы затруднений для любого поисковика. Такого в Яндексе нет, но рано или подно будет. Но от доров это не спасет.
В борьбе с дорами гораздо важнее научится автоматически определять сетки сайтов, которые сами себя продвигают.