Slav Krivonos

Slav Krivonos
Рейтинг
146
Регистрация
08.12.2007
Str256:
Ссылочное потеряете. Или вас только гугл интересует?

подскажите, пожалуйста,

чтобы не потерять ссылочное, я должен новую или старую версию держать на обоих сайтах?

Просто ситуация такая: на новом домене планируется выкладка совершенно нового сайта (другая структура, другой контент)

Новая версия намного сложнее и разрабатывали ее разработчики иностранного родительского бренда по своим стандартам – в нее будет затруднительно вносить правки на обоих сайтах (ввиду необходимости привлечения разработчиков).

Старую же версию мы делали сами и можем в нее вносить любые правки без затруднений

Выкладывать старую версию на оба домена, переклеивать зеркала, а только после переклейки – выкладывать новую на новом домене (а со старого ставить 301-е редиректы со всех страниц на максимально соответствующие им страницы нового сайта)?

заранее спасибо большое за ответ

Str256:
Обычно так и делают. Все навигационные ссылки старого сайта поставьте на новый - ускорит склейку. Если боитесь санкций от гугла, можете сайт.уа до склейки в Я, запретить к индексации гуглом. Одновременно с 301 редиректом, снимете запрет. В ЯК - тоже 301 редиректом переклеивается.

понял

спасибо большое за помощь

Str256:
Ссылочное потеряете. Или вас только гугл интересует?

несмотря на то, что Яндекс по наблюдаемым мною сайтам дает максимум 25-30% трафика (Гугл – 55-65), но ссылочное терять не хочется

подскажите, пожалуйста, нет ли способа его сохранить?

(при условии, что сайт все равно переезжает)

держать на обоих сайтах (уа и ком.уа) одинаковую версию контента (обновлять одновоременно) и прописать Хост для Яндекса, а когда переклеится зеркало в Яндексе (и в ЯК – тоже) и основным станет сайт.уа – только тогда убирать со старого сайта все содержимое и ставить 301-й редирект?

Str256:
В общем, лучше не robots.txt, а что-нибудь помощнее. Так как robots.txt не даёт абсолютный запрет роботам на сканирование, только на индексацию. Но _Ad писал, что сайт попал под санкции за то, что было запрещено в роботсе. Поэтому попробуйте сделать, что-то вроде этого: http://alfainternet.ru/13.html#more-13

спасибо за помощь

правда, в моем случае выложить на одну вверх папку новый сайт нельзя – там же сайт родительского бренда...

и через .htaccess закрыть не получится – мне же надо оптимизировать новую версию под ПС – значит, новый сайт должен открываться и работать

ваш ответ натолкнул меня на идею, кроме закрытия от индексации через robots.txt, еще и впендюрить на все страницы сайта метатег (или тег – точно не помню, к какой группе он относится), который указывает ПС, какой сайт является первоисточником информации, ее владельцем и правообладателем. И прописать туда адрес основного сайта (где сейчас лежит старая версия сайта. Мне такой финт ушами пригодится и для другого сайта, который сейчас на запасном домене наполняется, а после наполнения будет выложен на основной адрес.

Надо покурить поиск – как найду название этого тега – отпишусь

Блин, чем дальше в лес, тем больше дров: решение пришло совсем из неожиданного места.

Адрес сайта будет меняться.

Сейчас основным доменом является site.com.ua, а в ближайшие недели основным адресом станет site.ua

Значит, сейчас выложим новый сайт на site.ua, закроем его от индексации на время работ по оптимизации сайта, пропишем как первоисточник инфы site.ua (хотя, при таком варианте действий это уже и излишне, наверное).

Когда страницы нового сайта будут оптимизированы, откроем его для индексации (и поможем ПС проиндексировать), а со страниц site.com.ua поставим 301-й редирект.

Даже если при запрете на индексирование новый сайт и проиндексируется на домене site.ua, где он и будет в дальнейшем располагаться, это не страшно (так как цель: избежать санкций за неуникальность, которые могли бы быть применены при публикации на домене site.com.ua страниц, ранее проиндексированных по другому адресу в сети – таким образом достигается совершенно без дополнительных усилий)

Поправьте меня, пожалуйста, если я где ошибаюсь

заранее спасибо

snoppy:
google.com/robots.txt

спасибо за попытку помочь, но я смотрел с помощью Гугла источники по этой теме. Однако они оставили ряд сомнений в толкованиях (описал их выше)

кстати, специально для вас – цитата из Правил:

Slav Krivonos добавил 02.11.2009 в 00:30

Kost:
Не сомневайтесь, ответ правильный.

понял

спасибо за ответ

Kost:
Хватит тупить, извините.

не понял...

и давайте, пожалуйста, без оскорблений

яндекс ясно пишет "начинающимся" – то есть, если на сайте есть в корневике файл, начинающийся с cgi-bin (cgi-bin-chto-ugodno.html) – доступ к нему будет запрещен. Или не так?

подскажите, пожалуйста, где я туплю?

Slav Krivonos добавил 02.11.2009 в 00:39

Kost:
Почитайте лучше википедию, а не устаревший и неавторитетный русскоязычный сайт с мутными и кривыми объяснениями. Или хотя бы справку Яндекса. Неужели ее не нашли?

спаисибо за ссылку

я читал Википедию (правда, русскую версию, но суть в ней та же, что в приведенной вами английской)

и хелп Яндекса (цитату из которого вы могли видеть в моем ответе) – само собой, тоже читал :)

P.S.: я не "туплю", как вы изволили выразиться – я ищу истину, критически оцениваю информацию, размышляю логически и не хочу ошибиться :)

В любом случае – спасибо за ответы.

Вопросов больше нет

Kost:
В прикрепленных темах - правила раздела.
На сайте Яндекса - Помощь - Владельцу сайта.
Как бы уже пора ознакомиться.
А ответ вам уже дали выше.

прежде всего, спасибо за ссылки на источники

прошу прощения, данный мне в этой теме ответ оставляет у меня ряд сомнений.

попробую описать суть сомнений, используя цитаты и источников.

1. справка Яндекса о robots.txt:

Следуя описанной выше логике, к моей ситуации якобы подходит

инструкция:

User-agent: *

Disallow: /ua

Но, если на сайте есть другие папки или файлы (не имеющие к моему сайту отношения) имя которых начинается с /UA, будут ли они запрещены к регистрации?

Вероятно, да.

Такой результат не устраивает.

2. http://robotstxt.org.ru/RobotsExclusion/guide

если написать:

User-agent: *

Disallow: /ua/ # с косой чертой в конце

будет ли запрещена индексация не только папки /ua/, но и всех вложенных в нее папок и файлов?

если да, то почему составители этого хелпа (и всех остальных, начиная с http://www.robotstxt.org/) написали о своем примере "трех директорий", а не "трех директорий и всех подвложенных в них папок и файлов"? Вряд ли поленились или экономят буквы (цель хелпа ведь – максимально ясно описать суть вопроса и не допустить двояких толкований...)

или будет запрещена индексация и файла /ua.html?

ведь:

Другие источники данных о файле robots.txt также не проливают свет на интересующий меня вопрос: какой инструкцией можно закрыть от индексации определенную папку и все ее содержимое (1, 2, 3 ...)

Итого:

если я верно понял логику составителей хелпа к файлу robots.txt,

они не делают различий между фразами "доступ к каталогу" и "доступ к каталогу и всем вложенным в него подкаталогам и файлам" или "папка" и "папка и все вложенные в нее папки и файлы".

Соответственно, выходов 2:

а) написать

User-agent: *

Disallow: /ua/

и надеяться (ведь ни в английском описании, ни в русском не сказано это точно), что роботы поймут, что имеются в виду и все вложенные папки и файлы – то есть, надежность этого варианта под вопросом...

б)написать:

User-agent: *

Disallow: /ua/файл1.html

Disallow: /ua/файл2.html

Disallow: /ua/файл3.html

#и так перечислить все-все файлы, индексацию которых надо запретить – что не есть самый удобный вариант

Вот, собственно, чем и был продиктован мой вопрос – допускающим двоякое толкование описанием директивы Disallow как на английских, так и на русских сайтах.

Ответ:

User-agent: *

Disallow: /ua #хоть со слешом, хоть без в конце

мне не кажется на 100% верным (а вам самому – кажется?)

Тем не менее, спасибо автору этого ответа за готовность помочь.

Если я где торможу – не пинайте сильно, плз

заранее спасибо за ответы по сути, не допускающие двоякого толкования :)

DiAksID:

User-Agent: *
Disallow: /ua/


слэш в конце - по желанию, не критично... но это в "своём" домене... Вы именно в "постороннем" хотите? ;)

Мне необходим блок инструкций, который бы иностранные разработчики поместили в созданном под эту задачу файле robots.xtx (сейчас у них на сайте нет такого файла).

Блок должен запрещать доступ для всех ПС не только к папке /ua/, но и к содержащимся в ней файлам и папкам (всем)

Зачем: боюсь, как бы ПС после публикации не посчитали новый сайт, выложенный на место нынешнего, копией лежавшей на сайте разработчиков версии (или неоригинальным контентом)

Полный анализ кода лень делать, но кое-что сразу бросается в глаза:

1. Код банально "грязный" — много мусора, который вообще не нужен:

<script></script>

<script></script>

<script></script>

<script></script>

<script></script>

2. JS (свыше 200 строк!) лучше вынести в отдельный файл

3. Заголовков 1-6 уровня нет, стронгов и em-ов нет — это не правильно

4. Слово "Игра" в тегах смыслового оформления страницы почти не упоминается (ввиду почти полного отсутствия оных) — кроме тайтла, 4 раза в обычном тексте страницы — это мало

В общем, сайт оптимизировать, оптимизировать и оптимизировать...

попробовал поработать с ТС (заказал 100 постов)

работа выполнена на очень высоком уровне (высший балл),

несмотря на узкоспециализированную тематику форума

после окончания выполнения первого заказа сегодня отправил в работу еще один.

если качество будет всегда на таком же высочайшем уровне, готов работать с ТС и дальше

ТС, спасибо за качественную работу!

Plazik:
1stat.ru/?show=trafficcast&search_name=ideaplus.ru

респект и уважуха вам за линк!

ряд сайтов показывает очень точно.

по ряду — ошибается на 20-50%, но, если объединить данные этого сервиса с другими — можно получить достаточно приемлемую погрешность в результатах и так узнать приблизительное количество посетителей в день на сайтах, на которых не установлено никаких счетчиков.

Спасибо!

Всего: 906