- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
А Вы не думаете, что подстраиваясь под капризный и переменчивый алго Яндекса, Вы улетите из топов в других ПС? И потеряете может еще больше трафа?
В этом-то и "прелесть" продвижения. Приходится подстраиваться под все значимые ПС (Тындекс, Гугли и Рамблер). Но Яндекс пока приоритетный.
Хотя с некоторыми сайтами возникают из за этого проблемы. Иногда приходится менять целевые страницы по некоторым запросам.
murvuz добавил 10.02.2010 в 13:35
Какие семинары? Я что больной на голову конкурентов плодить? У меня даже когда потенциальный заказчик по телефону пытается узнать какой диаметр антенны я ему буду устанавливать. Я мочу как партизан!!!!🚬
А еще недавно цену на семинар прощупывал :)
Про среднее по топ10 — не верю.
Я написал определение спамности анкор-листа как я его понимал, а не Яндекс.
Вопрос был в контексте, что я не заметил корреляции между спамностью анкор-листа и наложением фильтра. То есть сайты улетаю вне зависимости от того заспамлен ли у них анкор-файл сильнее, чем в среднем или нет. Только вот я абсолютно не уверен, что вообще имеет смысл смотреть отдельно плотность ключевого слова в анкор-файле...
Естественно, что наши мнения с Яндексом расходятся. Иначе, если следовать моему определению и предположить, что спамный анкор-файл=фильтр, то у всех сайтов в топе был бы одинаковый анкор-файл или средние стремилось бы к нулю :)
Кстати очевидно, что Яндекс оценивает параметры относительно параметров других сайтов(хотя бы начальной выборки) И ориентироваться на средние по топу не так уж и плохо...
А закономерность между спамностью текста и наложением фильтра выделить смогли?
Закономерность между спамностью текста и наложением фильтра видна невооружённым глазом, осталось только понять какой текст Яндекс считает спамным :)
Простейшие прикидки типа плотности или количества вхождений ключевика не прокатывают, понятно, что это группа параметров, причём их критические значения зависят от значений других параметров.
Имхо, те сайты, которые ещё висят в топе с простынями с большим количеством вхождений и большой плотностью, с большим количеством тегов <strong> и тд попадут под фильтр - дело времени.
А Вы не думаете, что подстраиваясь под капризный и переменчивый алго Яндекса, Вы улетите из топов в других ПС? И потеряете может еще больше трафа?
Повезло вам с клиентами...
У себя заметил, что фильтр накладывается только если вы по достаточно конкурентным ВЧ-СЧ
просто по конкурентным ВЧ и СЧ это сильнее заметно, т.к там больше спамных текстов.
А еще недавно цену на семинар прощупывал :)
Это где такое было? Может я пьяный был или Вы че не так поняли? Я конечно могу гульнуть с телками когда сильно пьяный. Но чтоб по трезвости и на полном серьезе такого быть не может!🙅
А разве это:
Закономерность между спамностью текста и наложением фильтра видна невооружённым глазом,
не противоречит этому:
осталось только понять какой текст Яндекс считает спамным
Простейшие прикидки типа плотности или количества вхождений ключевика не прокатывают
То есть, вы говорите, что совершенно понятно то, что слетают сайты с простынями, но при этом абсолютно не ясно, из-за каких параметров они улетают. Так это, извините, не закономерность тогда. :)
mhz, если по-вашему закономерность - корреляция с одним из параметров(типа плотности, выделения тегами, кол-ва вхождений в текст и титл и тд) то её нет. Так что и нет закономерности и не надо её искать в таком понимании.
Если вы хотите, чтобы я написал функцию нескольких переменных и сказал, что когда она принимает значения больше/меньше каких-то, то фильтр накладывается, то я не смогу :)
Основные параметры этой функции и так понятны. Зашла речь об анкор-листе - не думаю, что это один из значительных параметров, хотя не утверждаю, что он не влияет.
freedz, почему сразу нет? Просто её ещё тут не нашли. :)
А какая у вас выборка, если не секрет?
почему сразу нет? Просто её ещё тут не нашли.
А может никто особо даже и не искал и не собирается :) Все забили на псевдонаучность, покромсали простыни и вернулись в топ :)
А какая у вас выборка, если не секрет?
Достаточная, чтобы говорить о том, что корреляцию с одним параметром найти не удаётся, а о большем судить не могу.
freedz, так надо искать зависимость не от одного параметра, а от совокупности. Ну мне, по крайней мере, так кажется.
Думаю зависит в большей степени сразу от
- от плотности расположения одинаковых (похожих) ключевых слов друг другу, Это означает что есть возможность вернуть запрос на нужные позиции двумя способами.
1. убрав одинаковые (похожие) ключевые слова близко находящиеся друг к другу в тексте.
2. дописав между похожими ключевыми фразами несколько предложений тем самым разбавив как сам текст так и расстояние между ключевыми словами имеющими наибольшую плотность в тексте.
Моя теория заключается в том что яндекс начал делить весть текст на пассажи равные нескольким предложениям ну к примеру 3-4 предложения (может и больше) в которых часто употребляется одна и таже ключевая фраза (слово) и так на протяжении всего текста (или нескольких пассажей). 1. Соответственно сводя 2-3 таких пассажа он делает вывод что это сео текст. 2. или Возможно он приравнивает полученное спамное слово к % плотности его вхождений на странице. 3. Ну или наоборот берет сразу слова с самым большим % встречания в тексте, и сравнивает их с частотой вхождения в в пассаж (состоящих из 3-4 предложений как я уже говорил).
Какой то вариант полюбому может быть верен, главное как он это делает примерно понятно,и как выводить из под фильтра тоже понятно.
Думаю зависит в большей степени сразу от
- от плотности расположения одинаковых (похожих) ключевых слов друг другу
интересноооооо...
а ктонить ещё замечал тако? есть какиенить контр-примеры - шо сайт вышел а слова-ключе подряд идут или неравномерно както?
+ вот в соседней ветке тож чёта курлычут за равномерность /ru/forum/457164