Почему у сайта сетевого журнала Хакер такой пустой robots.txt?

12
Dmitriy_2014
На сайте с 01.07.2014
Offline
276
598

Всем привет!

Есть такой сайт xakep.ru и он вроде использует CMS WordPress, для сайтов на этой системе есть полно вариантов как сделать самый правильный robots.txt в 2020 году, но у них он какой-то пустой.

Неужели их не волнует вопрос с так называемыми дублями страниц? Обычно там блокируют лишние страницы, теги, архивы, авторов, поиск и т.п., а у них как будто все открыто и им все ровно.

Можно ли так делать для обычного смертного?

П.С.

Всем заранее спасибо за ответы!

LEOnidUKG
На сайте с 25.11.2006
Offline
1742
#1

robots.txt это рекомендация для роботов. Пока у вас нет траста ваш сайт надо вылизывать. А потом уже всем пофигу.

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/ ✅ Настройка и оптимизация серверов https://getmanyspeed.ru/
danforth
На сайте с 18.12.2015
Offline
153
#2

Потому что в 2020 году на robots срать всем, кроме сеошников, застрявших в 90х годах. Или вы думаете журнал выкинут из выдачи, потому что у них robots "подозрительно маленький", span не закрыли, а ещё у них нет оглавления как в сайтах Пузата?

Всегда умиляли люди, которые фапают на техническую оптимизацию, имея скучный, не уникальный (рерайт-рерайта в 3 поколении) контент, с украденными картинками, и при этом ещё удивляются почему сайт получает 3 калеки в месяц (и те боты).

Junior Web Developer
Vladimir SEO
На сайте с 19.10.2011
Offline
1788
#3
Dmitriy_2014:
Можно ли так делать для обычного смертного?

Конечно можно. Вообще без роботса спокойно можно жить

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
Solmyr
На сайте с 10.09.2007
Offline
501
#4

У меня в гугле 200000 страниц "проиндексировано несмотря на запрет в robots.txt" чихать им на роботс. Хотя meta на страницах вроде соблюдают.

donc
На сайте с 16.01.2007
Offline
668
#5

Потому что на нормальном сайте и не должно быть этого роботс тхт

Это костыль для криворуких ВМ. А Sitemap и так добавить можно.

Продвижение сайтов от 25 000 в мес, прозрачно, надежно https://searchengines.guru/ru/forum/818412 , но не быстро, отзывы
Z0
На сайте с 03.09.2009
Offline
774
#6

У меня в роботсе только сайтмэп 🍿

S
На сайте с 30.09.2016
Offline
469
#7
Почему у сайта сетевого журнала Хакер такой пустой robots.txt?

Потому что журнал Хакер знает, что основное назначение robots.txt – массовая фильтрация хакерами сайтов с нужной CMS.

Отпилю лишнее, прикручу нужное, выправлю кривое. Вытравлю вредителей.
donc
На сайте с 16.01.2007
Offline
668
#8
Sitealert:
массовая фильтрация хакерами сайтов с нужной CMS.

Ну это можно и по коду сделать. Анализируя названия папок стилей и тп. Их, в 99% не меняют. Даже если вырезают все упоминания, как на серче:

<!-- CSS Stylesheet -->
<link rel="stylesheet" type="text/css" href="/clientscript/vbulletin_css/standard_new.css" id="vbulletin_css" />
Dmitriy_2014
На сайте с 01.07.2014
Offline
276
#9

Но даже поисковики рекомендуют его использовать и даже проверка синтаксиса в вебмастере есть, так и даже хакеры его используют правда всего в три строчки, и если его не сделать, то реально всякие так называемые дубли индексируются.

Я понимаю, что там крутым сайтам это не нужно, наверное, но даже у YouTube.com есть robots.txt, кстати с указанием на sitemap.xml.

donc
На сайте с 16.01.2007
Offline
668
#10
Dmitriy_2014:
Но даже поисковики рекомендуют его использовать

То есть верить всему, что на заборе написано - твой предел?

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий