Да пусть хоть одну страницу Яндекс показывает в выдаче, но чтобы показывал ее по всем запросам пользователей: "вася пупкин", "песни васи пупкина", "певец вася пупкин"...
Текст заточен под ключевые фразы. Насколько возможно:)
Сделал внутреннюю перелинковку. По каждому запросу выделил самую релевантную страницу и направил на нее минимум по 2 ссылки с других страниц про Васю Пупкина...
Всем спасибо за советы!
Делаю бэкап, начинаю переговоры с хостером и попутно ищу нового хостера.
Я уже не против перейти на VDS. Но там вот такое условие:
При покупке услуги VDS следует помнить о том, что на виртуальных серверах установлены операционные системы Linux с базовыми комплектами программного обеспечения без дополнительных настроек. Это подразумевает необходимость наличия навыков администрирования Linux-сервера у вас или вашего технического специалиста.
У меня таких навыков нет, технического специалиста тоже нет...
То есть надо искать нового хостера, у которого за дополнительную плату можно попросить настроить систему?
Ответ без неожиданностей:
Да-да, в год конечно...---------- Post added 13-08-2012 at 09:52 ----------Ну вот, сегодня прислали очередное письмо, там уже цифры поменьше:
Жаль, что нельзя договориться о повышении нагрузки, например, до 80 минут - чтобы это зафиксировали в договоре (за дополнительную плату)...
Одним словом, получается, что нагрузка на виртуальный хостинг - один из важнейших моментов, на который надо обращать внимание при выборе хостинг-провайдера и тарифа? Но как заранее просчитать, какая может быть нагрузка через полгода-год?
Проверил свой robots.txt через указанный сервис. Ругается: мол, перед вторым блоком запрещенных страниц тоже должен стоять User-agent ! А Яндекс.Вебмастер не видит ошибок в моем файле. Кому доверять?
Вот мой robots.txt (часть его):
User-agent: * Disallow: /manager/ Disallow: /? Disallow: /*?print* Host: сайт.ru Disallow: /test.html Disallow: /tag55.html Disallow: /tag55.html? Disallow: /tag55& Disallow: /index.php$ Disallow: /index.html$ Sitemap: http://сайт.ru/sitemap.xml
Спасибо, попробую!
Мне надо на странице (в шаблоне) закрыть от робота Гугла, в частности, облако тегов. Не буду же я "мучить" robots.txt или создавать для этого новую страницу, специально для Гугла?
Про "ручками" всё понятно:)
А вот запрет в robots...
Disallow: /1235
... и еще 25 таких же Disallow - с конкретными НЕ нужными адресами страниц?
Я прав?