- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Интересно, как поисковики отсекают искусственные документы (напр. содержащие 50 раз слово Кондиционер)?
Применяется ли при этом критерий Ципфа (Зипфа)?
Как-как.
Если густота ключевых слов явно зашкаливает за естественную, то поисковик понижает ранг страницы.
Значит, надо разбросать ключевые слова по нескольким документам и перемешать их (а вдруг анализируют еще и повторы)?
Вроде этого:
Поиск, Поисковик, Поисковый, Каталог, Запрос, Сервис, Релевантность, Посетитель, Посещаемость, Доступ, Рунет, Ссылка, Аудитория, Рейтинг...
Главное, чтобы частотность за 3-4% не вылезла?
Я бы предложил сделать выборку по принципу Page Critic в WPG - топ5 по запросу, проанализировать кривую распределения ключевых слов по документу - в начале, в середине, в конце, в специальных тэгах (не все поисковики не читают метатэги, например, некоторые их могут сравнивать с текстом документа) и попытаться ее повторить, но на довольно большом тексте - килобайт 70-100.
Как-как.
Если густота ключевых слов явно зашкаливает за естественную, то поисковик понижает ранг страницы.
Не все поисковики. Сегодня обнаружил в Рамблере на 8 месте по запросу порно (очень полезный запрос для тех, кто хочет научиться грубому спамдексингу Рамблера) потрясающую страничку. Взгляните на ее восстановленный Рамблером текст . Каково?
Не все поисковики. Сегодня обнаружил в Рамблере на 8 месте по запросу порно (очень полезный запрос для тех, кто хочет научиться грубому спамдексингу Рамблера) потрясающую страничку. Взгляните на ее восстановленный Рамблером текст . Каково?
Как же обидно, что такой дикий спам прокатывает до сих пор по таким популярным запросам! ((
Сегодня обнаружил в Рамблере на 8 месте по запросу порно (очень полезный запрос для тех, кто хочет научиться грубому спамдексингу Рамблера) потрясающую страничку
да... а ларчик (Рамблер) просто открывался.
видна явная недоработка по отсечению спама в виде искусственного документа.
Как же обидно, что такой дикий спам прокатывает до сих пор по таким популярным запросам! ((
Я уже как-то писал об эффективном спаме в Рамблер
но пока им, наверное, не до этого
[This message has been edited by Storm (edited 28-11-2001).]