Алеандр

Алеандр
Рейтинг
208
Регистрация
08.12.2010
141c18
Vladimir #:
Вам лишь бы написать?
В вебмастере сразу появится 301 редирект или вы раз в месяц его просматриваете?
А, еще есть оповещения, для критически важных страниц. Они у вас тоже  не включены?

Я вам в прошлой теме еще ответил и повторюсь, вы предпочитаете решать созданную проблему, вместо того чтобы ее предупредить? Ну, без проблем. Наш подход отличается в том, что я НЕ допускаю появления проблем, а вы - начинаете решать их после того, как вам об этом напишут в вебмастере. В моем случае проблем у сайта не возникает, а в вашем - УЖЕ возникают и только потом вы начинаете что-то делать. Разницу ощущаете?

Никаких гарантий, что Яндекс не затормозит с оповещением, никаких гарантий, что эта ошибка УЖЕ улетит в индекс и выкинет ваши страницы. Вы предпочитаете "потом" решать? Спасибо, я предпочитаю просто не допускать таких ситуаций.

Именно потому у меня - работает и нет проблем, а у вас - беготня с решением того, что уже стало проблемой. Но, повторюсь, это ваши личные трудности и ваш подход, вот только других учить этому не советовал бы, не тому научите.

LevShliman #:
Не нравятся хостинги, когда видят проблему и начинают просто предлагать её решить тем, что купить более дорогой тариф

Могу ошибаться, но есть два пути, когда вам предлагают кастомное решение, да еще на хостинге: либо у хостера еще особо нет клиентов, но есть ресурс, который под вас можно выделить за рекомендации и вообще, лишь бы вы там были; и второй - это когда вы много платите. Во всех остальных случаях вы не интересны хостеру, у него и так достаточно заказов и нет проблем кого размещать, да еще с приоритетом ресурсов.

В остальном, раз сайты уже достигли нагрузки и соответствующих высот - они приносят деньги и, в этом случае, как по мне, вопрос стоит в надежности и стабильности хостинга, а не чтобы больше места за меньшие деньги.

Если сайты переросли плюс-минус стандартные хостинги, то да, или VPS, или делить. У меня, например, поделено. Ценник, так, конечно, подороже в итоге, чем все на один, но зато не надо заниматься администрированием. Умею, могу, но что-то я стал ленив в этом направлении в последнее время )

Так что, тут или самостоятельно над этим пыхтеть, либо оплачивать другим. Зависит лишь от того, стоит ли ваше личное время больше, чем если заплатите за эти услуги другим или, все же, ваше время стоит дешевле, а значит оптимально будет потрудиться самостоятельно, но во имя экономии бюджета )

webinfo #:
Это всего лишь Ваше личное мнение, основанное на каком-то Вашем личном опыте. 

И опыте тех, кто с момента внедрения стандарта robots им пользуется, без малого 29 лет.
Но да, нет смысла дальше это обсуждать.

temniy #:

Уже начали рассылать уведомления по емейлу. Много людей уже отписались на разных форумах, тут тоже было уже.
Так imap же ж

Значит еще не пришло, пока что последнее, что накидывали - попапы с тем, что они добавили новые тёмные темы в почту )
IMAP - само собой, это и имел ввиду. Я к тому, что на Яндексе я пока этим не утруждаюсь, хотя может тоже стоило бы, а вот на хостинге без синхронизации вряд ли рискну.

baas :
Нужен вариант для прием/отправка писем домена, доменов несколько.

Сам использую на Яндексе, а где почитать про платность и тарифах? Вроде бы не попадалось, обычно уведомляют в самой почте.

Альтернатива, как по мне - использовать почту на хостинге. Есть парочка где использую, плюс-минус нормально. Единственное что, наверное оптимально будет работать с синхронизацией на локальный диск, дабы ничего никуда не пропало в случае смены хостера или каких-то проблем.

alaev #:

Да, действительно работает. Проверил на одном сайте.
Так что респект Mik Foxi.
Лишь бы яшка не начал это негативно воспринимать. Надо посмотреть на его реакцию в вебмастере

Имхо, любые игры с прописыванием условий под блокировки ботов поисковиков, рано или поздно, могут вылезти боком. Сейчас это работает, завтра в Яндексе решат добавить lang, по какой-то из причин, естественно об этом никто никого оповещать не будет. Но о том, что бот перестал получать контент можете узнать слишком поздно, когда позиции уже отлетят.

Схема допустима, но нужно отдавать себе отчет, что требуется или постоянно за этим присматривать, либо доверять уведомлениям вебмастера и что сможете вовремя среагировать, если что.

webinfo #:

Ладно, будет. Соглашусь. Но страница всё равно может быть проиндексирована. Поскольку директивы файла роботс не запрещают индексирование.
Ноуиндекс рулит.

Они сами себе противоречат. С одной стороны они не будут индексировать страницу и ее содержание, с другой стороны они допускают размещение ссылки в выдаче с чужим сниппетом и тайтлом (что логично, ведь они не проиндексируют содержимое напрямую). При этом, у этой страницы, очевидно, нет уже проиндексированного и доступного урл, который бы он вывел как положено.

Если бы эти правила не запрещали индексирование, то при попытке добавить в индекс запрещенную страницу мы бы не получали сообщение:

Запрос на индексирование отклонен

Во время проверки были обнаружены ошибки индексирования URL.

То есть, все же, директивы в роботс на практике запрещают индексирование, независимо от того, что у них написано в помощи. Я же написал выше, можете лично это проверить в консоли. И это будет не написанное в хелпе, а практическое применение. Я ориентируюсь именно на него, а не на теорию.

Но, пусть, согласен, я допускаю такую возможность с его стороны, хотя это один фиг вариант исключения, которое еще попробуй создай: ссылка, которая размещена на очень трастовых сайтах, чтобы повлиять на это решение, с соответствующим контентом на этих чужих сайтах и не имеющая доступного разрешенного урл к индексации содержания страницы.

Во всех остальных, заведомо распространенных случаях, везде используется роботс без каких-либо проблем с индексацией или запретом индексации ненужных страниц или сокрытия дублей. А ноиндекс - вещь хорошая, но на динамических страницах с разными урл и одним содержанием - не практична. Там, где вам вообще нужно исключить попадание страницы в индекс - пароль, как они советуют, или ноиндекс. В обсуждаемом же случае закрытия дублей в виде get параметров - редко применимо и только роботс, в таких ситуациях - главное решение. И никаких проблем с его использованием, ибо, если не считать описанного исключения - все работает как положено и без проблем. Конечно, если не ошибаться в составлении правил роботс.

webinfo #:

В моих цитатах ни слова про сервер. Странная у Вас "логика".

Так это у вас гугл умудряется страницы в индекс забирать без их сканирования ) Не у меня.
Vladimir #:

В каком месте в теме, что Гугл игнорирует роботс? Не замечал на практике
Читать научитесь...внимательно

Попробуйте тоже, тогда вы сможете обратить внимание, что ответ был не на ваш пост.


https://searchengines.guru/ru/forum/1070455/page4#comment_16852301

никто ваш роботс с вашими запретами даже читать не будет
Будет, еще как будет.
Всего: 1471