С чего ты решил, что не улыбаясь у меня кислое лицо?
Доброжелательность - это пожелание добра, а не улыбчивость.
Улыбку как раз может сопровождать ехидство и злонамеренность, а доброе деяние вполне может исходить от человека с умиротворённым лицом.
Меня напротив, настораживают люди с постоянной дежурной улыбкой и навязчивой доброжелательностью. Чаще всего это манипулятивная маска.
Улыбаться никто не требует. Важно не быть токсичным и в целом приветствуется доброжелательность.
Я рад 😊
Пожалуйста, только я не Анатолий, я - Антоний.
Всех благ! 😉
Сделайте ещё ряд доп. настроек,
И процесс пойдет,
Добрый вечер, пожалуйста.
Можно в настройках программы SF указать, чтобы программа следовала по страницам с noindex.
В Меню -> Configuration -> Crawl Config
вот здесь ставите галочку,
Либо снять со страниц запрет индексации в meta robots.
Значит как программист перестал быть востребованным.
Возраст 40+ действительно может стать причиной отказа, если команда молодая. Но если ты работаешь удалённо, то совершенно неважно какой у тебя возраст, если ты профессионально и производительно делаешь свою работу.
Некоторые действительно выгорают/вырабатываются/перестают развиваться/теряют хватку/теряют производительность. Тогда - да, приходится искать себе другое применение.
Формально - да, но на мой взгляд вы преувеличиваете потенциальную полезность XML для стороннего парсера.
Во-первых, мы изначально не знаем что/в каком объёме/какой периодичности будет парситься контент.
Я вообще сомневаюсь, что те кто занимаются парсингом нацеленно ищут XML файл хотя бы потому что:
а) он не всегда есть
б) он не всегда корректно сгенерирован
в) он не всегда содержит актуальные данные.
Во-вторых, при парсинге можно настроить рабочие критерии (рабочее пространство по URL, отсечь параметры и т.д.)
Это вызывает какие-то дополнительные сложности?
Условно, если мы несколькими кликами мышки запустим тот же доступный Xenu и пробежимся по сайту TC, какое-либо существенное кол-во запросов к сайту нас остановит?
Вы уверены, что будет какое-то дальше?
Я например думаю, что прочитав первые ответы TC вероятно и не вернется в тему (как это нередко бывает).
Роман, а ребята из Вебмастера не планируют более полно отвечать на те вопросы, которые были заданы в комментариях?
Далеко не все комментирующие получили ответы на свои вопросы и я в том числе.
Ссылка на мой вопрос.
Именно. Проблема мне тут видится в другом, проблема в том, что TC серьёзно уверен, что для парсинга нужна XML карта.
А дело не в ней, дело в том, то пользователь в любом случае может получить навигационную структуру сайта. А дальше уже хоть с XML картой, хоть без неё.
p.s. Вот определить квоту запросов для отдельного IP - это уже более серьёзная мера, хотя и она профессионалом своего дела решится (последовательным использованием прокси адресов).