- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
WhiteSmartFox, Во-первых твой алгоритм из #16 поста это мегаЖесть сравнимая с забиванием гвоздей при помощи микроскопа
Я не спорю, я сам сказал что этот алгоритм приведен только для примера, на самом деле все проще скажем у гугла есть браузер Chrome, сделать из него детектор поискового спама несложно, достаточно вместо экрана генерить текст страницы в файл (с учетом css, js и прочего) и получать url заданий от ботов. Да производительность такого "браузера" будет куда медленней чем обычного бота, но боту определяющий поисковый спам не обязательно индексировать весь интернет, вполне достаточно проверить несколько страниц сайтов находящихся в топе по большому кол-ву запросов или на которые идет большой трафик с ПС. Я не утверждаю, что ПС именно так и работают, но вполне могут применять эмуляцию "реальных" браузеров, по крайне мере я бы поиск невидимого текста именно так и реализовал, благо это совсем несложно. Не думаю что и Яндексу так уж сложно написать свой эмулятор браузера с компилятором js и css (в конце концов, все возможных "браузеров" с открытым кодом в инете как собак не резанных).
WhiteSmartFox добавил 27-01-2011 в 11:51
Во-вторых, ты неуместно применяешь понятие "клоакинг"
Да, ошибся это не клоакинг, а явный и жесткий поисковый спам, но в любом случае это очень черный метод SEO для ПС, с которым они реально борются (а не как с серыми методами типа продажи ссылок, на которые вполне могут и закрывать глаза). Не вижу большого смысла применять такое черный SEO без особых причин на СДЛ (дорвеи, сателлиты и ГС - другое дело их не жалко), потом ждать каждый ап, что или ПС научатся находить ваш спам или конкуренты стукнут на ваш сайт ПС.
Да это понятно. Но мы же в 21 веке живём, а боимся Перуна. Чисто теоретически как бот может идентифицировать портянку? Может кто-то поделится опытом её использования? У кого-нибудь были случаи бана из-за этого, ну или хотя бы о конкретных случаях слышали?
Если "невидимый кусок" будет интересен, уникален для каждой страницы, и полезен для посетителей, то почему бы его не сделать видимым? А если это будет один и тот же кусок проспамленной портянки, то эффект может получиться прямо-противоположный ожидаемому.
Это все равно, что купить лицензионную Виндовс и делать только СДЛ на рукописных движках:)
Всё дело в ограниченных ресурсах. Для 7к страниц уник писать слишком геморно. А товар должен искаццо☝.
Чем меньше голова, тем легче.
XML+XSLT => SEO © Ayavryk
вполне могут применять эмуляцию "реальных" браузеров, по крайне мере я бы поиск невидимого текста именно так и реализовал, благо это совсем несложно. Не думаю что и Яндексу так уж сложно написать свой эмулятор браузера с компилятором js и css
А проверить-то надо мильярды документов. Вам без разницы — сколько ресурсов потребует ваш вариант и сколько ихний?.. и сколько будет стоить необходимое железо. На ваш вариант никто не пойдёт — это просто убило бы их бизнес. Проще опираться на ваш страх...
А обман.JS|CSS|XSL может быть единственного типа?
ps Образец обмана бота, но не посетителя! Тут есть за что банить?
Образец обмана бота, но не посетителя! Тут есть за что банить?
Нет, что там особенно? Аналог noindex и nofllow, только другими средствами. Как раз идея показывать пользователю все, а ПС только нужное у них особых претензий не вызывает, а вот наоборот да вызывает.
WhiteSmartFox добавил 27-01-2011 в 16:18
А проверить-то надо мильярды документов
Зачем? Во-первых, если сайт использует спам он его использует всегда, т.е. с любого сайта достаточно проверить пару страниц на которые есть трафик с ПС, во-вторых, не имеет смысла обращать внимание на ГС с небольшой популярностью, а сайтов с хотя бы 100 хостами в день в рунете не так уж много (не более 200-400 тыс, просто на большее не хватит аудитории Рунета, которая самый максимум 40 млн в день :)). Проверить 2 млн страниц за месяц не так уж сложно даже с 1 сервером, даже если на каждую страницу выделять целую секунду работы всего сервера (в месяце 2,5 миллиона секунд).
ps Образец обмана бота, но не посетителя!
Вот только ненужно всех ботов "под одну гребёнку"... ;)
XML+XSLT => SEO
SEO неплохо живёт и без XSLT... и никакие "пируны" не страшны, и большие птицы нормально летают.
У кого-нибудь были случаи бана из-за этого,
Ну банить за такое явный перебор...
ну или хотя бы о конкретных случаях слышали?
...а во случаев зафильтровывания было предостаточно - ищите.
Для 7к страниц уник писать слишком геморно. А товар должен искаццо.
Да фиг с ним, что неуник (хотя можно и под АГС попасть), но если это хороший текст релевантный той странице, на которой он находится, то зачем его тогда скрывать?
Cреди небольшой популярности — множество ГС и есть — дорвеи и пр... их слишком много, гораздо больше, чем сайтов, на которые идёт трафф — где конкуренты следят за порядком. И редких/непредсказуемых запросов много...
Как я понял, ещё есть разница того что скрывать: одно спрятать одинокий ключевек и другое заспамленный текс по размерности больше видимого. Снизиться ли риск быть зафильтрованым, если проставлять св-ва display:none; left:-2011px; через Javascript?