Вроде всем ответил, если не запутался в личке и форуме.
Пока предложений больше не надо, большое всем откликнувшимся спасибо!
Написал всем в личку
аналогично, зарегистрировался пол месяца назад 2 раза на 2 разных ящика, один на мэйле, один на другом домене - подтверждение не пришло, адреса остались у них в базе, как занятые, 2 письма в поддержку полностью проигнорированы. Еще один ящик специально для них заводить не хочу.
Без особых претензий, но остается вопрос - есть ли им альтернативный сервис или явно пора уже!
Вопрос - решают проблему ссылки через редирект? То есть если ссылки с сайта автоматически преобразуются к виду: /redirect.php?ssilka=http://......
а redirect.php подставляет ссылку себе в заголовок <meta http-equiv="Refresh" content="0; URL=http://....."> или через javascript.
Яндекс уже не будет воспринимать как спам такие ссылки?
Посоветуйте,
как скормить яндексу оставщиеся 5000 страниц, коль сам он есть их почему то никак не соберется?
Этот "четкий список" вам спущен сверху заказчиками? Иначе, если цель максимальное целевое попадание - нужно все таки хорошо поработать над ядром.
А дальше все просто - занести ключевые фразы в title и description в порядке приоритета и желательно без потери смысла, помня, что в title реально играет роль примерно первых 70 символов.
На главной добавить контента раз так в 10, и сделать так, чтобы основные ключевики встречались в тексте раза по 3 и в разных видах - в заголовках и т.п.
Потом наставить побольше ссылочек с других сайтов с ключевиками в разных, также желательно осмысленных, вариантах. На что уйдет энная сумма денег...
И вы в топе!
Нет там никаких ошибок.
Более того - все динамические страницы для индексации закрыты, а разрешены только статические.
Собственно - club.1-info.ru
Причем другой форум на том же движке (самописный) - brovin.1-info.ru - в индексе полностью.
vlav добавил 14.02.2009 в 23:44
Думается, что проблема связана с яндексом, а не со мной (может ошибаюсь???) - как поступить в этом ракурсе, учитывая стабильные позиции домена по ключевым запросам?
Думал просто еще ссылок попродавать, а тут из за того, что страницы не в индексе, с sape проблемы ...
Спасибо.
Проблема в том, что в индекс в итоге раньше попала куча динамических страниц. Сейчас они не нужны, но доступ по ним остался, причем сложно даже выяснить, какие именно (в яше).
Нужно, чтобы робот их безболезнено забыл.
Хочу уточнить еще - в роботс.тхт можно указать для запрета просто script.php и не указывать отдельно 3000 его вариаций с разными параметрами get ?
Ты, Академик, чего сейчас сказал? Что ты умный, а я дурак и ни слова по теме?
Я просто как то подумал, что если чел хочет, чтобы страница проиндексировалась, то он использует нормальный хтмл, а если он зачем то использует яваскрипт, то незачем роботам туда и лезть. Вроде бы логично, но видимо это не так.
И еще вопрос - если по упущению в индексе оказалось страниц так тыщи 3, по урлам, по которым их поисковик будет проверять и в следующий раз - как их оптом безопасно оттуда удалить?
У меня смутные ощущения, что ходит и гугль и яша, чего я как раз не хочу. Но ввиду сложности программы, чтобы сказать уверенно, нужно провести специальное расследование.
Я думал, что вопрос простой и это известно точно...