- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Защел на cy-pr.com посмотреть на статистику моего сайт, и там заметил такую вещь см.прикреплённый файл. что это означает? 368 страниц проиндексировано 54 % под фильтром или что? Спасибо!
borockov, Тынц
borockov, Тынц
Спасибо,почитал несколько статей. Насколько я понял надо закрыть дополнительную фигню которую индексирует гугл, в роботс.тхт . А как это сделать? кто подскажет?
закрыть через robots.txt
закрыть через robots.txt
Это понятно, но что именно закрыть в роботс.тхт
дубли, теги и т.п.
все, что не нужно в выдаче.
%,* - все это от лукавого. Не вздумайте ничего закрывать исходя из этих данных!
потенциально 54%страниц у вас могут получить ПР в следующий АП.
это точно, но не значит, что нужно держать дубли на сайте и прочий шлак
это точно, но не значит, что нужно держать дубли на сайте и прочий шлак
конечно, но для их поиска нужно использовать другие методы и никак не вышеуказанные операторы
borockov, не делайте ничего в роботс если бот перейдет по ссылке с другого сайта он проидексирует страницу игнорируя правила в роботсе. Поставте на ненужные страницы noindex только в этом случае бот гугла не будет индексировать страницу. Это правило работает для гугла как у яши я не в курсе.