у меня сайт на fastnext.ru, это качественно и недорого, проблем ни разу не было
все в сочи!!! на стройку века!!
Пример №1 Допустим, Вы создали текст ссылки и произвели обмен со множеством сайтов. Поисковый робот сравнивает все ссылки, указывающие на Ваш сайт и обнаруживает, что они совершенно идентичны. Но, веб мастера никак не могли придумать ссылки на Ваш сайт, совпадающие слово в слово. Значит, эти ссылки получены искусственно - Вы сами давали текст ссылок авторам сайтов, то есть пытались искусственно сгенерировать трафик и улучшить позиции своего сайта. Естественно, все эти ссылки учитываться не будут. Эта процедура называется "склеивание ссылок".
Пример №2 Вы решили все ссылки для обмена разместить на одной странице, где кроме них никакой информации не содержится. Роботу понятно, что такая страница не создается для посетителей, раз нет никаких пояснений, аннотаций, только ссылки. Такие страницы получили название "линкопомойки". За них Вы рискуете подвергнуться от пессимизации (понижения в результатах выдачи) до бана (исключения из базы поисковой системы).
А сколько у поисковых машин фильтров и каких? Никто не знает. Разрабатываются все новые, а что ж Вы хотите, что они будут смотреть сквозь пальцы на действия спаммеров?
Вывод:
Ссылка должна вести на страницу, абсолютно точно соответствующую тексту аннотации.
Помещайте у себя на сайте только ссылки, связанные с темой Ваших станиц.
Чтобы не попасть под действие спам-фильтров поисковиков и полнее охватить запросы посетителей, следует составить возможно больше различных фраз названий и описаний сайта, не менее 50. Затем, нужно добавить сайт в каталоги, чередуя разные названия и описания, сохраняя наличие в них ключевых слов. Именно благодаря этому поисковые системы ставят ваш сайт выше по данным фразам в результатах поиска. Возьмите от регистрации максимум!
Возможности программы SP-Links:
1. Определяет, находится ли проверяемая ссылка в областях между тегами <noindex> и </noindex>, <script> и </script>, <noscript> и </noscript>.
2. Находит META-теги, запрещающие индексацию всей страницы.
3. Проверяет файл robots.txt (роботы: *, Yandex, Rambler, Google, Aport, MSN, Yahoo!).
4. Подсчитывает число исходящих ссылок на странице партнера. Учитываются все ссылки, даже в области между тегами <script> и </script>.
5. Получает CY (Индекс Цитирования Яндекса) партнерского сайта.
6. Берет только текстовую информацию, не загружая графику, музыку, flash и отдельные java scripts - уменьшение трафика в несколько раз.
7. Использует мощный механизм фильтрации партнерских сайтов.
8. Формирует подробные отчеты о партнерских сайтах.
9. Создает шаблоны писем для контактов с партнерами.
по мне лучше текстовая ссылка.. а так... комукак удобнее
Ну вот замечен новый применяемый фильтр Яндекса.
1. Накладывается полностью на сайт
2. Не накладывается на интернет-магазины
3. Признаки - индексируется Яндексом, но находится глубоко и далеко в выдаче, даже по уникальным запросам
4. Причины (предполагаемые) - превышение критерия внешних ссылок, неуникальность контента (даже некачественный рерайт),
5. Выход из фильтра (предполагаемый) - замена существующего контента полностью уникальным и авторским, отказ от продажи ссылок, другие причины…
Эт
дело конечно не в названии. но есть много дркгих поисковиков, более удобных
поиск по каталогу это очень удобно
я не знаю и не хочу знать, что это за зверек. только google!