Я сам себе линкменджер. Иногда ищу новые сайты для обмена мебельными ссылками... Но в последнее время забросил это глупое занятие, от которого толку в 95% случаев никакого. Или линкатор стоит, или обмен с кем попало и чем попало, либо огромный многолинк, либо хотят свою ссылку на мою морду, либо на письма не отвечают. А иногда на каталог ссылок линк с морды отсутствует. В общем, глаз да глаз нужен 🙄 . Редко с кем удается договориться обменяться нормальными ссылками - такими, как за бугром или в ЯКе...
Конкурент не исчезнет, но может быть пессимизирован. А лучше всего - поставить эксперимент (и не один) и всё выяснить...
Когда я писал свой ответ, я руководствовался в первую очередь мнением победителя белорусского конкурса по поисковой оптмизации IT Marketing Challenge 2006. Смотрите сами его ответ на вопрос, как убрать нежелательные страницы из выдачи (самая первая страничка!).
Помимо этого, косвенное упоминание нашел на http://promosite.ru/articles/report-optimization-2002.php. Цитирую: Перенаправление (redirect) на сервере и на клиенте Все, что говорилось про обман посетителя с помощью скриптов на стороне клиента, верно и в случае редиректа средствами html, только обнаружить его применение гораздо легче. Соответственно В использование html-редиректа с нулевым временем задержки <meta http-equiv="REFRESH" content="0; url=http://site.ru"> или серверного редиректа (HTTP-коды 3XX: 301 Moved Permanently) со временем будет проиндексирована новая страница, а старая удалена из индекса. Однако, поскольку редиректы часто используются спаммерами поисковых систем, ваш сайт рискует быть забаненным даже при большом времени задержки при редиректе. Оптимальный выход - не использовать редиректы.
И, в-третьих, сообщение на эту тему ( как удалить ненужные странички из выдачи гугли) появилось в блоге Гринвуда (http://bloggreenwood.com/weblog/C20_2_1calendarcalendarindex.php/ за 27 ноября).
Резюмируя: за что купил - за то и продаю :) .
Если сделать 301-редирект с забаненного сайта на "чистый", то для Гугла оба они склеятся и "чистый" сайт может пессимизироваться, если сайты имеют одного владельца... Лучше поставить обычные ссылки.
Наверно, скушал ссылку с этого форума.
Согласен, что может надорваться. Но... 1) Это стимул для программистов Яндекса. Гугл ведь смог! 2) Помнится, на этом форуме очень активно обсуждалась тема, как наказать Яндекс...
Господа, поисковики любят естественность. Ссылки только на морду неестественны. К тому же, в нее нельзя впихнуть весь сайт. Поэтому надо ставить ссылки и на основные внутренние. При правильном подходе эти страницы тоже неплохо вылазят в среднеконкурентных тематиках.
По поводу метатега «revisit after». Год назад, в ноябре 2005 г., проводился эксперимент по учету этого тега Яндексом.
Цель эксперимента
Установить факт влияния тега «revisit after» на расписание роботов, т.е. посещает ли робот поисковика страницу так часто, как заявлено. Выявить различия между результатами использования тегов revisit, заголовков last modified и регулярного изменения контента.
Выводы здесь. Как оказалось, не учитываются ни этот тег, ни заголовок last modified. Рулит изменение контента.
На Вашем сайте слишком редко меняется контент. Возможны 2 варианта помощи:
1) На страницах с ценами делать с помощью серверного скрипта каждые несколько дней небольшие перестановки в таблицах с ценами (с помощью генератора случайных чисел или привязать к дате). Яндекс это поймет как изменение контента и начнет заходить чаще. На морде сделать маленький блок с примерами наименований продукции, который бы тоже периодически менялся скриптом. Главное, чтобы HTML-код менялся. Работа на один раз - а эффект на всю жизнь :) .
2) Использовать сессионные переменные. В браузере юзера они будут попадать в куки, а поисковикам интерпретатор PHP будет выдавать их в URL (типа http://www.site.ru/?session=ce2e90a572f88901d924247aa33f326c). Желательно не обозначать такие переменные как id (ранее была информация, что в этих случаях они не учитываются. Потом читал, что недавно стали учитываться). Можно s, sess, my или иначе. По сравнению с Гуглом, Яндекс намного хуже различает такие дубликаты. Например, я знаю сайт, когда из-за таких сессионных переменных Яндекс показывает в 3 раза больше страниц на сайте, чем есть (Гугл показывает верно; Рамблер занимает промежуточное положение).
Я писал о том же: много ссылок размещать вредно. Что касается морды моего сайта, то с сентября этого года (ранее совсем не размещал) вешаю только 3 ссылки, из них 1-2 тематические. Пока автоматических санкций не наблюдал. Да и вряд ли они будут включаться из-за такого малого числа ссылок (особенно если они по теме). Ведь любимые числа продавцов морд - 10 и 15. Просто во всем надо знать меру - в том числе в ссылках. Жадность - смертный грех, который карается даже Яндексом! 😂