С момента переиндексации страниц и до появления их в основном индексе Яндекса проходит примерно 1-3 АПА (1-3 недели)... Это если не учитывать быстроробота...
Попробуйте порегистрировать Ваш сайт в белых каталогах, если Вы это не делали совсем или делали давно.
Трудно что-то еще добавить не видя url сайта.
У меня нет сайтов с кучей ссылок с главных и с относительно малым количеством с внутренних (каталоги и т.д.).
Я стараюсь раскручивать сайты не особо прибегая к массовым покупкам ссылок с главных, если без этого можно обойтись.
Поэтому уменьшения эффективности ссылок с главных я и не замечал...
PS: тематика подопечных сайтов - не самая простая.
Мое мнение: ссылки с главных страниц работают, как и раньше...
Может вы просто не на правильных сайтах ссылки покупаете?
И еще, сайты ведь не только на ссылках с главных держатся... Каталожными или, проще говоря, ссылками с внутренних страниц пренебрегать тоже никак нельзя.
Вчера приобрел базу каталогов...
Общее впечатление: очень хорошая база с минимальным количеством мертвых или посеревших каталогов.
Сегодня регистрировались сайты, и некоторые каталоги уже разместили ссылки (около 20-30 шт).
Мое мнение - база однозначно своих денег.
PS: Около 150 каталогов мне были известны ранее как БЕЛЫЕ, поэтому все, что описано выше касается второй части базы.
Приятно работать с такими людьми, как топикстартер.
Заказывал размещение нескольких сайтов. Все было сделано довольно быстро и качественно.
PS: К сожалению, не все каталоги проиндексированы Яндексом, но, похоже, что это только дело времени.
Мне кажется, что проблему нужно искать не в NS а на хостинге.
У меня была такая проблема, но с субдоменами. Решил только после обращения к хостеру.
Я сам использую предложенный мной вариант и мои сайты не ломали ни разу.
Конечно же, я буду очень признателен за ссылку(и) на статьи или доки по теме или просто рекомендации.
Да, я неправильно выразился. После отработки указаной ф-и останутся только допустимые символы.
У сайта есть параметры (явные переменные), что передаются в url строке, например site.com/?a=1&b=2. ?
Вы еще про DELETE забыли...
Контролировать макс. длинну значения, что ввел пользователь. Явно отрезать все лишнее функцией substr, например $q=substr($q, 0, 64);
Все текстовые запросы (ключевые слова для поиска), если такое допустимо, пропускать через функцию htmlspecialchars, например $q=htmlspecialchars($q);.
или
Вырезать все символы кроме буквенных, например:
$q=preg_replace("/[^\w\x7F-\xFF\s]/", " ", $q);
Все числовые переменные явно преобразовывайте в число, например $page=(int)$page;
Не стоит недооценивать пользователей и забывать о числовых переменных.
Этого должно хватить, чтобы защититься от большинства пакостей, что могут преподнести пользователи.