Спасибо. Я новичок в СЕО. Погуглю, почитаю.
Хотел сделать хороший форум. 2 месяца развивал его подолгу и толку было ноль. Понял, что никому это не надо. Решил сделать сайт. Переделали с программистом и стал наполнять статьями. И трафик пошёл. Через 3 месяца после этого трафик был уже 500 человек в сутки с Яндекса. Это разве плохо?
Картинки я так открывал. Вообщем история такая с этим сайтом. Движок был изначально форумный. Потом я нанял программиста и он из него сделал сайт. Я настоял, чтобы форма ссылок была сохранена. В итоге он так и сделал. Ссылки статей такие https://site.ru/viewtopic.php?id=197 В файле роботс (старая версия) директивы не были прописаны отдельно для яндекса и гугла. Была одна и всё. И в самом низу вот это
Clean-param: amp&pid&action&print&cid
Гугл мог из за этого не индексировать статьи? И правильно ли написан клин парам для Яндекса? И для гугла? И вообще оно надо для Гугла?
Виноват, каюсь.
Я больше переживаю за дубли. У меня каждая статья доступна по 2-м урлам. Структура сайта такая.
Вообще дело было так. В 2021 году я всё и вся изучил и сделал хороший, правильный роботс. Яндексу он очень понравился. Гуглу вроде тоже. 200 статей в Гугле попали в индекс. Их столько и было. С тех пор я в Гугл вебмастер не заходил и траф с гугла не отслеживал. Вчера захожу в вебмастер гугла и там в индексе 78 страниц. И все эти страницы не статьи. То есть в индексе гугла не было ни одной статьи. Посмотрел ошибки. И там их 6 штук, в том числе парочка "проиндексировано несмотря на запрет в файле роботс тхт". Почему при тоже самом роботсе Гугл сначала проиндексировал все статьи, а потом стал нос воротить? В итоге психанул и сделал роботс, чтобы индексировал всё и вся. Ну и отправил все 6 ошибок на перепроверку.
Мусор не может давать трафик?
Я неправильно скопировал. Вот правильно:
User-agent: * Allow: /
Там так.
Как как? Пишется в адресной строке "домен папка папка папка и сам файл вот так файл.пхп".
у тебя на файлах там же стоит запрет (наверное) на чтение их из внешнего мира.... ты их на хостинге только можешь смотреть... ты же их не можешь открыть в браузере? так и поисковик не откроет....
в роботсе прописывают допустим папки ибо на их 755 разрешение стоит.... а на файлы в папках или в корне не нужно ибо там уже все запрещено для чтения поисковиками....
Наверное есть запрет. Не знаю. Спасибо, то есть при любом раскладе содержание файла конфиг не попадёт в поиск.
пхп вроде.
Почему? Пусть всё попадает в индекс. Чем это плохо?
Спасибо.
Как это? Вы наверное не поняли моего вопроса? Есть в движке форума файл конфиг и в нём прописаны пароли к хостингу, к БД, имя сервера и прочее. При вышеописанной конструкции файла роботс они могут попасть в поиск Яндекса и Гугла?
Спасибо. Не знал.