Иван Т

Рейтинг
13
Регистрация
27.02.2024
Sly32 #:
попробуй понять разницу между движком сайта и его конфигами и контентом сайта. Ты можешь не знать не то что про движок - даже на каком языке написан сайт. Роботс  и тэги отвечают не за ВИДИМОСТЬ а за ИНДЕКСАЦИЮ в поисковых системах.

Спасибо. Я новичок в СЕО. Погуглю, почитаю.

kalmarsw #:
А месье знает толк в извращениях

Хотел сделать хороший форум. 2 месяца развивал его подолгу и толку было ноль. Понял, что никому это не надо. Решил сделать сайт. Переделали с программистом и стал наполнять статьями. И трафик пошёл. Через 3 месяца после этого трафик был уже 500 человек в сутки с Яндекса. Это разве плохо?

Sly32 #:
Ну попробуй

Картинки я так открывал. Вообщем история такая с этим сайтом. Движок был изначально форумный. Потом я нанял программиста и он из него сделал сайт. Я настоял, чтобы форма ссылок была сохранена. В итоге он так и сделал. Ссылки статей такие https://site.ru/viewtopic.php?id=197 В файле роботс (старая версия) директивы не были прописаны отдельно для яндекса и гугла. Была одна и всё. И в самом низу вот это 

Clean-param: amp&pid&action&print&cid

Гугл мог из за этого не индексировать статьи? И правильно ли написан клин парам для Яндекса? И для гугла? И вообще оно надо для Гугла?

webinfo #:
Естественно, так. Аккуратнее надо писать сообщения, чтобы не создавать информационный шум.

Виноват, каюсь.

webinfo #:
При чём тут вообще трафик?

Я больше переживаю за дубли. У меня каждая статья доступна по 2-м урлам. Структура сайта такая.

Вообще дело было так. В 2021 году я всё и вся изучил и сделал хороший, правильный роботс. Яндексу он очень понравился. Гуглу вроде тоже. 200 статей в Гугле попали в индекс. Их столько и было. С тех пор я в Гугл вебмастер не заходил и траф с гугла не отслеживал. Вчера захожу в вебмастер гугла и там в индексе 78 страниц. И все эти страницы не статьи. То есть в индексе гугла не было ни одной статьи. Посмотрел ошибки. И там их 6 штук, в том числе парочка "проиндексировано несмотря на запрет в файле роботс тхт". Почему при тоже самом роботсе Гугл сначала проиндексировал все статьи, а потом стал нос воротить? В итоге психанул и сделал роботс, чтобы индексировал всё и вся. Ну и отправил все 6 ошибок на перепроверку.

webinfo #:
в строке с правилом - какой-то мусор.

Мусор не может давать трафик?

angel57 #:
Перед Allow уберите звёздочку и пробел 

Я неправильно скопировал. Вот правильно:

User-agent: *
Allow: /

Там так.

Sly32 #:
Даже интересно - как ты это предлагаешь сделать?

Как как? Пишется в адресной строке "домен папка папка папка и сам файл вот так файл.пхп".

bobolab #:

у тебя на файлах там же стоит запрет (наверное) на чтение их из внешнего мира.... ты их на хостинге только можешь смотреть... ты же их не можешь открыть в браузере? так и поисковик не откроет.... 

в роботсе прописывают допустим папки ибо на их 755 разрешение стоит.... а на файлы в папках  или в корне не нужно ибо там уже все запрещено для чтения поисковиками....

Наверное есть запрет. Не знаю. Спасибо, то есть при любом раскладе содержание файла конфиг не попадёт в поиск.

webinfo #:
Ну если у тебя конфиг в формате .txt, .xml и т.п. - то могут и попасть.

пхп вроде.

webinfo #:
И вообще роботс написан неправильно.

Почему? Пусть всё попадает в индекс. Чем это плохо?

Amigo_9876 #:
Php файлы недоступны для чтения или индексирования.

Спасибо.

Snake800 #:
ТСу: файл конфигов должен быть либо запрещен на скачивание, либо интерпретироваться на сервере (.php) и не отображать своё содержимое у клиента. Откройте напрямую в браузере файл настроек, загляните в исходный код. Если файл не открывается или не показываются настройки, то можно не переживать. Иначе никакой robots не поможет.

Спасибо.

bobolab #:
не знаешь... то просто удали файл.... он не обязателен...

Как это? Вы наверное не поняли моего вопроса? Есть в движке форума файл конфиг и в нём прописаны пароли к хостингу, к БД, имя сервера и прочее. При вышеописанной конструкции файла роботс они могут попасть в поиск Яндекса и Гугла?

stp2001 #:
Нетарапися.

Информация обновляется минимум сутки.
Платежи идут неделю.
Это нормально.

Вы ещё аналитику от гугла на сайт установите и удивитесь сколько нужно ждать инфу

Спасибо. Не знал.

Заработало. Информация появилась. Всё нормально.
Всего: 179