- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня был сайт по сериалам. Добавлял ко всем сериям -> смотреть онлайн.
В яндексе через месяц получил фильтр...))
Что впринципе логично и яша и гугл пишут, что все title должны быть уникальными
---------- Добавлено 14.10.2012 в 19:54 ----------
У моего сайта одна из страниц улетела в мае 2012 года с 1-го на 4-ое место. Яндекс сказал, что виной этому переоптимизация, хотя я ничего на странице не менял. Вообщем я не верю поддержке яндекса так как они любою проблему с плохим ранжированием под переоптимизацию стараются подогнать а порой и сами не знают как и почему страницы проседают.
В общем то аналогично, убрал частоту вхождений, сайт вернулся через пару апдейтов на прежние позиции, потихоньку растет.
Тут ещё надо разобраться, что есть переоптимизация, в общем то всё понятно, но при разных типах данных, вернее при разной форме предоставления, фильтр к контенту может относиться по разному.
Если это текст, и там, через каждое слово, употребляется ключ, то в общем то фильтр гарантирован, но если это списки или табличные данные, то отношения фильтра уже более мягкие.
Америку не открою, но ИМХО так:
Смотрю на сайты в топе по запросу и анализирую их по схеме ниже.
Составляю таблицу:
сколько раз ключ в h1, h2, ..., в тексте, в стронге, в url, в alt, в description и т.д., какое количество слов на странице всего, считаю % вхождений в текст. Вывожу средние значения, которые беру за нормативы.
Как понимаю, страницы, у которых значения больше - улетели за переспам, у которых значения меньше недооптимизированы.
Кстати, средние отклонения тоже можно посчитать. Это будут допустимые отклонения от нормативов.
Сайты в топе, имеющие уж слишком большие отклонения от среднего, как правило, имеют какое-то особое ссылочное, хитрую линковку, особый траст и т.д.
После этого сравниваю продвигаемую страницу с нормативами.
Если кому надо - http://www.seolib.ru/script/textinspect/
mr.Good, как раз сейчас провожу эксперимент по выходу сайта из под фильтра - http://makeprofitsite.ru/eksperiment-1-sajt-popal-pod-filtr.html
Переписав часть текстов + сбавив оптимизацию, все страницы сайта вернулись в индекс. Позиции скатились в низ, но по тиху возвращаются обратно в топ.
Ёпть! чуть не обоср...ся когда с сайта выходил. В наушниках на полную громкость.
P.S.
Извиняюсь за оффтоп)