- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вот мой robots.txt
User-agent: *
Disallow: /mijireh-secure-checkout/
Disallow: /cart/
User-agent: Yandex
Disallow: /mijireh-secure-checkout/
Disallow: /cart/
Host: luckyknife.ru/
а вот компании, которая недавно провела сео-аудит сайта и указала, что robots.txt должен быть таким:
User-agent: *
Disallow: /mijireh-secure-checkout/
Disallow: /cart/
Host: luckyknife.ru
Вопрос прост: кто прав?
Вы, т.к. для google директива host - неправильная.
А что за SEO-компания?
гугл host игнорирует и за ошибку не считает, так что нет смысла из-за этой директивы делать отдельный раздел
Вы, т.к. для google директива host - неправильная.
А что за SEO-компания?
Регион Медиа в Краснодаре.
---------- Добавлено 28.09.2014 в 16:49 ----------
То что я для бота Яндекса прописываю отдельно правила, это правильно? Или уже времена изменились, и можно писать сразу для всех как написала данная SEO - компания?
Это у вас сейчас 2 раздела сайта запрещены к индексированию, а если бы их было 100? Тоже делать для каждого робота отдельно из-за одного Host?
Гугл просто не обращает внимания на эту запись и все.
Это у вас сейчас 2 раздела сайта запрещены к индексированию, а если бы их было 100? Тоже делать для каждого робота отдельно из-за одного Host?
Гугл просто не обращает внимания на эту запись и все.
На какую запись не обращает внимания Гугл? Я не понял ваш ответ.
На какую запись не обращает внимания Гугл? Я не понял ваш ответ.
Host: luckyknife.ru
Для яндекса вы потом еще "Clean-Param: orderby" захотите прописать, наверное.
Странно, что SEO-компания не обратила внимание на то, что в robots.txt остутствует sitemap и не закрыты от индексации обычные для wordpress URL'ы, типа http://luckyknife.ru/feed/, несуществующие URL'ы типа http://luckyknife.ru/about/?nonsense и пр.
В директиве Host должен быть домен, т.е. без "/" в конце, ежели что.
В директиве Host должен быть домен, т.е. без "/" в конце, ежели что.
а вот компании, которая недавно провела сео-аудит сайта и указала, что robots.txt должен быть таким:
User-agent: *
Disallow: /mijireh-secure-checkout/
Disallow: /cart/
Host: luckyknife.ru
seo компания сделала как раз корректно ежели че ;)
Для яндекса вы потом еще "Clean-Param: orderby" захотите прописать, наверное.
Странно, что SEO-компания не обратила внимание на то, что в robots.txt остутствует sitemap и не закрыты от индексации обычные для wordpress URL'ы, типа http://luckyknife.ru/feed/, несуществующие URL'ы типа http://luckyknife.ru/about/?nonsense и пр.
В директиве Host должен быть домен, т.е. без "/" в конце, ежели что.
Просто а тот момент sitemap был не готов и они об этом знали.
С HOST мне понятно, его нужно прописывать без "/" в конце. А для Яндекса , как в моем варианте, нужно правила отдельно писать, или придерживаться шаблона как написала SEO-компания. Народ отвечает загадками, спасибо конечно, что вообще отвечают, но я тупой и мне не совсем понятно)