Str256

Рейтинг
611
Регистрация
07.01.2008
Интересы
компьютеры, интернет
drg:
Если не отменяется директива
Disallow: /
и все страницы запрещаются, тогда новая дериктива Sitemap
Sitemap: sitemap.xml
- разрешает индексировать указанные страницы в sitemap.xml, новая директива сильнее, правильно? ппц.

Disallow: / # запрет доступа к сайту - робот отвернёт назад, что там дальше написано смотреть не будет - так понятно???

drg:
Блин, кто бы мог точно ответить, чтобы я не запортачил сайт своими экспериментами.

/ru/forum/comment/5700965

Lisa:
Да, и мне бы хотелось посмотреть на успешную компанию с довольными клиентами, которая никогда не идет навстречу в мелких доделках или пятой доработке дизайна вместо трех по договору. И при этом сама ни на час не ошибается в заявленных сроках, что становится для клиента предметом торговли о том, кто кому что должен простить по мелочи

Ээээ. Ну скажем так. Дизы у нас разной базовой стоимости в зависимости от количества согласований. Затяжки - в основном по вине клиента - непредоставляют вовремя материалы или доп. модули. Да мен. время тратят, но большинство сайтов потом нами же и раскручиваются, так что убытков не несём:)

drg:
запретить лишние страницы не пойдеть (их через чур много)

По маске запрещайте или 404 в хтакцессе отдавайте. Короче сайт давайте сюда выкладывайте и примеры урл, что надо запретить. Может проще структуру урл поменять, чтоб ненужные в отдельный кластер выделить.

kimer:
"Каша из топора" - классика 🙄
На фрилансе без ТЗ почти всегда такие ситуации.

Да ерунда. Если есть свободное время и чел нормальный, помогу за так. А если нет, выставлю дополнительный счёт и оплатит как миленький. И наоборот - говорю что нужно доп. сделать - спрашиваю сколько стоит - столько-то - далее говорю делать или нет. Не надо на заказчиков собак вешать, если не умеете общаться.

NutZ:
ЗЫ: Тому, кто минусовал советую подписаться, чтобы хотя бы в моих глаза конченым закомплексованым сыклом не быть.

Рано вас выпустили:) За обсуждение репы, скоро опять сядете. Кстати, неподписанный минус, вдвое меньше снимает:(

drg:
КАК написать в роботьсе так чтобы роботы сканировали только ситемап и выкидывали бы остальные страницы.

Никак. Надо запретить все ненужные страницы.

Давайте, я вам за Nekada отвечу:)

Они блин получают зарплату, из тех налогов, что мы платим. Т.е. они слуги народа, а народ это мы. Так что надо с ними общаться вежливо, но твёрдо, чтоб не забывали, что незаменимых нет:)

webcoder:
Договор был выслан формально, неподписанный и без печати по электронной почте, т.е. его никто не подписывал, была устная договоренность, сумма то небольшая.
webcoder:
Клиент платил на кошелек физического лица.

Тогда всё что они захотят предъявить вашей фирме будет клевета. Могут подать претензию на вмид, но тоже им ничего не светит думаю.

Был недавно очень похожий топик, с похожей ситуацией. Там всё это обговаривалось.

drg:
А как-нибудь более рационально разве НЕльзя?

robots.txt нормально составить...

drg:
Все-таки если возможность запретить все страницы кроме тех что в sitemap?

.htaccess Отдавайте 404 по всем ненужным урлам.

Всего: 15927