- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Nitro
Как это не грустно, но чаще всего сайт улетает не только по запросу в тексте повторяющихся в большом количестве ссылок, а по всем запросам (по крайней мере примерно из одной темы). Что говорит о наложении санкций.
K. Ermakov, да, в Раме - нет проблем. Сам не делал никогда, поскольку стараюсь придерживаться неких принципов, но технически приемы такие есть.
.... конкретный пример убрал, сорри....
Санкции я имею в виду то, что сайт вылетит (или далеко уедет) по тому слову, которое было в повторе в ссылке. О пессимизиации и речи быть не может.
Извеняюсь за оффтоп. А что в этом случае делать? Разбавлять ссылками с другим текстом, тогда санкции снимутся или без письма яндексу ничего не изменится? Был опыт?
На мой взгляд, склеивание ссылок может привести как раз к такому эффекту. 400-500 одинаковых ссылок превращаются в одну, либо вообще не учитываются. Соответственно роль ссылочного ранжирования резко падает, а за счёт одного контента выйти в топ не так уж и просто. Следовательно, сайт скатывается по запросам, которые были в клонированных ссылках.
Вообще-то Яндекс может склеить страницы, в том числе ссылочные. Мы с этим столкнулись и это 100% так, но вот со склеиванием отдельных фрагментов текста (отдельные ссылки на разных страницах) сталкиваться не приходилось.
Гроссмейстер, есть такие данные?
Я с подобным сталкивался только при работе с Рамблером. Но я никогда не ставил на проекты несколько сотен абсолютно идентичных ссылок.
Я считаю вполне возможным существование на Яндексе фильтра, подобного рамблеровскому, но с более высокими пороговыми значениями. На мой взгляд, это весьма удачное решение для борьбы со ссылочным спамом и с линкаторами в частности.
Имхо... вес ссылок понизиться, или станет вообще не значительным...
Так не стоит делать только из за того.. что в начале когда вы ставите какое то количество одинаковых ссылок, ваш сайт пондимается, потом когда порог срабатывает, ваш сайт опускается, так как уменьшен вес ссылок которые ставились раньше... поэтому многие и думают, что их сайт пессимизировали, а на самом деле просто перестали учитывать ссылки поставленные ранее..
Сайт делают бяку только за действия, которые точно можно определить как действия владельца сайта (в данном случае бэклинки, но так как их нет то вам ничего плохого сделать не должны), естественно имхо...
Ссылки - фактор внешний, санкций к сайту нет и быть не может, только к ссылкам. Писать бессмысленно - только лишнее внимание, отсюда Вы сами сделали вывод - разбавляйте внешние ссылки, комбинируйте...