Ага, уходють они. С 2014 года уходють, токмо всё никак не уйдут.Особо отмечу: они официально говорят "О сокращении бизныса". А это дело непростое, спешки не терпит.Иные вон, кто с самого начала засобирались, до сих пор маются в поисках дистриба.К слову, тайваньские чипы на военку как шли, так и идут. "А как дысал, как дысал..." (С) (очень старый анекдот)
Яндекс, верни все обратно, либо вообще уберите роботность, она работает все хуже и хуже.
Ага, ща.Они пытаются в маркетинг. Ну типа этот зашёл инкогнито, явный бот. А это выпадает из паттернов нашей недонейросетки, чьи кураторы давно на берегу Красного моря мацу кушают халяльную, и бабки инвесторские давно потрачены.Жду более глобального припадка, чем наблюдается сейчас. Больно - заранее.
Ну вот, хороший старт уже есть. Я поздновато спохватился, нарвавшись на глобальный затык. Слишком много данных даже для рутинной работы, слишком много времени нужно тратить на обработку. С учетом того, что ПС работают на уровне структур, а не отдельных посадок - без автоматизации ловить в сеошке нечего. А готовых сервисов практически нету.
А можно еще примеры и поподробнее, где используется Питон в SEO?
Python - это про автоматизацию процессов. Парсить, фильтровать, сортировать, выводить в нужном формате - вот как минимум с чего стоит начинать работу с этим змеем.Да банально: вот мы выгрузили данные по сайту тем же Screming Frog, туда же - данные по API из GA и SC. Вручную ковырять - глазки ломать, мозги закипят. А если при этом речь о нескольких UA, да за период - крыша свернется однозначно, или о полноценной обработке данных и речи не будет.Для примера, простая задачка: вот у нас после очередного апдейта траф упал. На какие странички? Насколько? Как понять, что повлияло? У нас с десяток табличек каждая под пару-тройку сотен тысяч строк, файл серверных логов за квартал - и всего одна жизнь.Или посложнее: выдрать контент страниц по заданным зонам, найти нечёткие дубли, понять степень совпадения - притом по заданным словоформам, с отсевом мусорных слов. Вывести во внятном виде.Собственно, на гитхабе пачка готовых скриптов на многие случаи жизни, можно загуглить. Тема вообще активно развивается, и на ближайшие годы этот инструментец даже без всякого ML будет очень востребованным.
Почему нельзя? Вполне себе можно.Другое дело, что монобрендовое продвигать проблемнее.
Формально - да. Но он при парсинге не всегда успевает вытащить все ресурсы, да и речь о скриншоте. Реальный бот ведёт себя немножко иначе.Самое важное там - это оценка ресурсов, что недоступно из-за запрета в robots, а что просто не успел вовремя скачать.
После "Проксимы" и "Профицита" говорить о чистой и бескорыстной любви Яндекса к текстам нельзя. К текстовым метрикам - чуть больше.Он в принципе любит не тексты, а полноту соответствия запросу, большой ассортимент - на каждый чих аудитории, вероятность решения задачи. Спам любого рода - это только инструмент, с помощью которого Яндекс убеждают, что сайт таки оке.Ну, а анкоры внешние - тоже такой вот инструмент, с помощью которого решаются вполне конкретные задачки. Например, ключик переклеить куда нужно, или там "хвосты" какие-то подклеить. Кластер, скажем, красивый-здоровенный, ключей на 300, и ничего не выкинешь - а посадка не резиновая.