Антоний Казанский

Антоний Казанский
Рейтинг
791
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Brat_Sergij #:
У меня приятель программист.  Последние 10 лет делал сайты, для себя и на заказ. Жил не тужил.  Сейчас ушел грузчиком. 50 лет, никто не хочет брать уже в таком возрасте на работу айтишником. 

Значит как программист перестал быть востребованным. 

Возраст 40+ действительно может стать причиной отказа, если команда молодая. Но если ты работаешь удалённо, то совершенно неважно какой у тебя возраст, если ты профессионально и производительно делаешь свою работу.

Некоторые действительно выгорают/вырабатываются/перестают развиваться/теряют хватку/теряют производительность. Тогда - да, приходится искать себе другое применение.

noobestseo :
У моего какая-то проблема
Kykapa4a #:
Совершенно не согласен, в карте парсер получает "очищенные" данные, которые необходимо скопировать без всякого мусора - страницы с пагинацией, фильтрами  и т.д..

Формально - да, но на мой взгляд вы преувеличиваете потенциальную полезность XML для стороннего парсера.

Во-первых, мы изначально не знаем что/в каком объёме/какой периодичности будет парситься контент.

Я вообще сомневаюсь, что те кто занимаются парсингом нацеленно ищут XML файл хотя бы потому что:

а) он не всегда есть

б) он не всегда корректно сгенерирован

в) он не всегда содержит актуальные данные.

Во-вторых, при парсинге можно настроить рабочие критерии (рабочее пространство по URL, отсечь параметры и т.д.)


Kykapa4a #:
Если закрыть доступ(спрятать) к карте, то парсеру придется сделать существенное кол-во запросов к сайту

Это вызывает какие-то дополнительные сложности?

Условно, если мы несколькими кликами мышки запустим тот же доступный Xenu и пробежимся по сайту TC, какое-либо существенное кол-во запросов к сайту нас остановит?


Kykapa4a #:
а дальше все просто - превышение запросов, врубаем подмену данных.  

Вы уверены, что будет какое-то дальше?

Я например думаю, что прочитав первые ответы TC вероятно и не вернется в тему (как это нередко бывает).

Роман Кузьминский #:
Подробнее о фильтре МПК ребята из Вебмастера рассказали здесь. Посмотрите, пожалуйста.​

Роман, а ребята из Вебмастера не планируют более полно отвечать на те вопросы, которые были заданы в комментариях?

Далеко не все комментирующие получили ответы на свои вопросы и я в том числе.

Ссылка на мой вопрос.

sergv #:
Кому нужна карта - забьют урл в сервис, тот пробежится по сайту, создаст карту и отдаст файлик запрашиваемому. Ну а дальше он сделает то, что собирался ) Поэтому, карта есть у нуждающихся даже в том случае, когда ее вообще не существует ) Дело нескольких минут.

Именно. Проблема мне тут видится в другом, проблема в том, что TC серьёзно уверен, что для парсинга нужна XML карта.

А дело не в ней, дело в том, то пользователь в любом случае может получить навигационную структуру сайта. А дальше уже хоть с XML картой, хоть без неё.

p.s. Вот определить квоту запросов для отдельного IP - это уже более серьёзная мера, хотя и она профессионалом своего дела решится (последовательным использованием прокси адресов).

WantNight #:
Это Вы так решили?)

Это рекомендация ПС предоставлять XML карту в свободном доступе.


WantNight #:

На многих проектах закрываю карту для обычных юзеров.

Я такого же мнения, что и ТС. Карта и другие системные разделы (для ПС) должны быть закрыты и быть только для ПС.

Отдельные персональные мнения и выводы иметь никто не запрещает :)

Можно направлять свои усилия в то, чтобы запретить пользовательский доступ к XML карте, к robots.txt и разным другим разделам, но это из разряда кто во что горазд.

Ключевой момент в том, что для более-менее серьёзного парсинга отдельный XML и не обязателен.

Программный парсинг рабочих страниц можно выполнить и Xenu, и Frog-ом в обход XML карты, - я уж не говорю о более серьёзных инструментах типа A-parser, Zennoposter-а и прочих экзотических вещей, включая самописные парсеры.

Да, коллеги выше порекомендовали варианты черeз CF, через соответствия User-Agent-а в htaccess и прочие варианты уже через php проверку, но это не спасёт от серьёзного намерения спарсить.

p.s. Если уж хотите спрятать XML карту от пользователей - используйте нестандартное название и не прописывайте её в robots.txt. Эта самая простая мера без всяких проверок и CF.

serval :
Мне кажется, что гораздо труднее, чем в благодатные нулевые. И на это есть объективные причины:

Конечно сложнее. И собрать сложнее и конвертировать сложнее.

Объёмы необходимых работ растут, конкуренция увеличивается, уровень требуемой экспертизы тоже резко возрос.

Раньше для трафика было достаточно уметь поставить WP и сканировать книги из библиотеки 😊


serval :
1) За последние десять раз количество сайтов в интернете выросло в десять раз.

Конечно. И в любительском ключе, и в профессиональном.


serval :
2) Многие пользователи сейчас висят в социальных сетях, в том числе в Youtube.

Это тоже источники трафика.


serval :
Если десять лет назад добиться 10 тысяч уников в сутки на сайте было не так и просто, то сейчас это вообще довольно серьёзная задача...

И требуется хороших ресурсов.

Правда вопрос какой трафик. Игровой/порно трафик - одна история, нишей тематический - совершенно другая. 

Djezzy #:
Обычным пользователям она не нужна, но нужна тем, кто хочет копировать информацию с сайта в большом объёме.

Тем кто серьёзно вознамерится копировать ваш сайт XML карта не нужна. 

Всё необходимое они и так скопируют по вашим навигационным ссылкам. Вы боритесь с ветряными мельницами.

jsmith820 :
Спросил у накрутчиков, сказали что типа в гугле ПФ начинают учитываться, если ссылками сайт там забит выше 10-го места.

Между учётом кликового фактора и методикой накрутки всё-таки есть существенная разница.

Говоря о накрутке просто привыкли, что в Яндексе ПФ резко перебивают все остальные факторы и поисковая видимость даёт резкий буст.

В Гугле учётов факторов более сбалансированный, поэтому "накрутка также как в Яндексе" там не работает.

Djezzy :
Подскажите как скрыть страницы карты сайта от посетителей, но оставить их для поисковых систем?  Нужно чтобы зайдя на страницу карты https://сайт.ru/sitemap_index.xml    посетители видели 404 ошибку, либо переадресацию на главную страницу. Сайт сделан на wordpres.

Вы придумываете себе совершенно ненужные задачи.

XML карта должна быть в свободном доступе. Обычным пользователям она и не нужна, при навигации по сайту они её не видят.

Всего: 12687