Антоний Казанский

Антоний Казанский
Рейтинг
796
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Romanov Roman #:
Если я блокирую ботов в файле .htaccess директорией, представленной ниже, существует дли вероятность того, что я ограничу доступ роботам Гугла и Яндекса?

Фактические вышеуказанным кодом вы блокируете любые заходы, которые в юзер агенте содержат следующие записи:

следовательно, если мы возьмём программу Screaming Frog и выставим там что-то из указанного, то сервер должен нас заблокировать (так как раз можно проверить, насколько это рабочая конструкция работает).

Теперь переходим к ответу на поставленный вопрос - нет, боты Яндекса и Гугла не используют ничего из представленного в перечне, поэтому блокировать не должно.

olegon #:
Всякие Semrush, даже Мылру и Bing, которые сканят все мои страницы, но приводят меньше 10 пользователей в месяц, зато могут быть источником каких-то совсем ненужных мне исследований сайта или выбора его для парсинга...

Они могут менять User-Agent и наверняка это делают, чтобы как раз не нарываться на явный запрет.

Robots.txt не решает данные задачи, роботс актуален для управления областями индексирования основными ПС.

olegon #:
Вопрос, наверное, больше к тем, кто пробовал или видит очевидную причину так не делать.

Вопрос в том, какую конкретно задачу вы решаете.

Избавить сайт от всех ботов вы всё равно не сможете, часть из них будет игнорировать правило User-agent: *, Disallow: /

Вы конечно можете взять известный перечень имён поисковых ботов, например, здесь и запретить их через User-agent, но никакой особой погоды это для вас не сделает.

bestbestbest :

Влияет ли название сайта в заголовке статьи на позиции?

Пример заголовка:

title статьи - Название сайта

или без заголовка:

title статьи

На позиции запросов, связанных с названием сайта - да, влияет. 

Это актуально для сайтов/проектов, где большой объём брендовых запросов, например крупные СМИ.

Если же мы говорим о каком-то неизвестном статейнике, который собирает трафик благодаря тестовой составляющей, то лучше использовать зону Title-а для более приоритетных запросов в контексте выбранной страницы.

Snake800 #:
Все эти, условно, big data, ML, GO или ява-программист - можно назвать навыками, которые специалист готов применить здесь и сейчас. Так-то по большому счету, со времён Паскаля и фон Неймана мало что поменялось. Гвоздь в том, что переключение (воспоминание) или обучение требует некоторого времени.

Думаю, затык только в том, что кому-то сложно принять существование отдельных специализаций.

Примерно тоже самое можно сказать, что нет никаких сеошников, контекстологов, smm-щиков - есть только вебмастера с готовностью применить те или иные навыки. 

Я же довольно демократично к этому отношусь, принимая даже более узкие специализации, такие как авитологи, зенноводы, специалист по e-mail рассылкам.

Знаю людей, которые уже несколько лет занимаются и зарабатывают только этим, выпуская при этом курсы и обучающие материалы.

Устраивать горячие споры и непримиримые дебаты, на мой взгляд, пустое занятие :)

Osmxnxn :
Подскажите, существует ли сервис, который показывал бы по каждой странице сайта динамику изменений. В метрике это делать неудобно. Хотелось бы следить на какой странице начал падать трафик за определенный период, а на какой расти. 

Используйте данные Вебмастера.


olegon :

А почему бы не запретить всех роботов, кроме Яндекса и Гугла в robots.txt? Какой в этом минус? Ну и всяким mailru, если кому-то это надо...

Почему не превратить robots.txt в белый список, перечисляя тех, кому можно, а остальным Disallow?

Потому что в robots.txt указываются инструкции для поисковых роботов.

К паразитному бот трафику (если именно он вам беспокоит) этот служебный файл не имеет никакого отношения.


olegon :
Почему не превратить robots.txt в белый список, перечисляя тех, кому можно, а остальным Disallow?

Формально в директиве  User-agent вы можете запретить индексацию любым поисковым роботам, но:

а) только поисковым

б) это лишь рекомендация, которая может быть поисковым ботом проигнорирована

geekboris #:
нам нужен именно что сеошник, а с клиентским сайтом ему работать или нет - это уже не важно. люди есть разные, навыки разные и я закрываю потребности своей компании а не потребности сеошника

Два момента.

Специалист по контекстной рекламе тоже занимается проработкой семантического ядра и поисковой аналитикой, но его не называют сеошником, потому что это другая специфика. Также и здесь. Cеошник не занимается продвижением на маркетплейсах, сеошник занимается продвижением сайта в поисковых системах.

Второй момент - успешная работа там, где интересы работодателя и работника в большей степени удовлетворены, поэтому люди конечно бывают разные, и брать они могут на себя разные функции, но формально, вы называете одного специалиста, а в содержании работы указываете другую специфику, поэтому я и захотел вам помочь советом.

В остальном, конечно, поступайте так, как считаете нужным, успехов! 

Devstory #:
Я ровно про это и писал. Поэтому никакой профессии bog data специалист не существует, как и не существует специалист по искусственному интеллекту и тд. 

Я думаю не столь принципиален спор - есть ли самостоятельные профессии, сколько очевидно, что задачи разработки и анализа данных по этим направлениям точно есть. 

alaev #:
Зачем их вообще слушать-то?

Не понял, кого конкретно программистов-блогеров или коллег - программистов? :)


alaev #:
Высокоуровневые языки программирования под узкие области применения.

Ну это смотря какие.

На Javascipt-е сейчас пришёл очень много от web приложений до систем управления УД.


alaev #:
Мы ж про айти говорим, а не про узкую отрасль.

Да про многое приходится говорить, раз заходит тема :)

Всего: 12806