- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте. Расскажу проблему подробнее:
Создал 10 сателлитов на уникальном контента с уникализированным дизайном. Зарегистрировал домены, поставил сайты. Прогнал по соц. закладкам для ускорения индексации. Сайты по-тихоньку вошли в индекс поисковиков.
Но сегодня с утра обнаружил, что у 9 из 10 сателлитов осталось по 1 странице в индексе. Был просто шокирован. Зайдя в панель вебмастера увидел такую картину:
Документ запрещен в файле robots.txt
Мол типа, я запретил индексацию всех страниц и индексируется только главная. Хотя я даже не создавал файл robots.txt и на хостинге в папках доменов у меня их нет.
Перед этим апом ставил генератор карты сайта Google XML map. В админке WP в настройках приватности индексация разрешена. Файла .htacess Также нет. Что странное 1 сателлит все таки остался в индексе. Хотя я делал все для всех одно и то же...
Что может быть? Подскажите плиз? Может кто-то сталкивался уже с таким.
И если все же создать robots.txt. И запретить там на некоторые страницы индексацию, нормализуется ли все?
За ранее спасибо за ответы!
Создайте файлы robots.txt для сайтов, в которых разрешите индексацию сайта, закройте ненужные страницы и посмотрите что получится!
Сбой видимо на стороне Яндекса. Попробуйте ничего не предпринимать и подождать пару апов, если в индекс не вернутся, то писать Платонам. Хотя смотря еще что за сайты, могли и сами попасть под санкции.
Сбой видимо на стороне Яндекса.
Возможно действительно сбой. У одного пользователя в сегодняшнем соседнем топике, например пишет, что страница закрыта от индексации мета тегом, хотя на странице тега нет!
Toan, а когда на сайт санкции накладываются. В вебмастере пишет что индексация запрещена потому что так указано в файле роботс.тхт. Как то не логично получается. Я просто не сталкивался с сайтами с санкциями и не видел что пишет в вебмастере чша для них.
Что может быть? Подскажите плиз?
Вы лучше сайт покажите, не тратьте попусту свое и чужое время.
Не вопрос, вот один из таких сайтов: voenmed.net
Не вопрос, вот один из таких сайтов: voenmed.net
Ну и надолго таких сайтов должно хватать? Еще больше меток создайте, дольше будут держаться в индексе. Кстати, Гугл к таким сайтам более лояльно относится, чем Яндекс, проиндексировано более 500 страниц. Впрочем трафика много все равно не ждите, потому что пользователям такой контент не нужен.
vitvirtual, вопрос по-моему стоит в другом. Мне и не нужна посещаемость на это сайте :) это сапо сателлит.
че т просто ожидание не помогает. Все также. Кто какое решение может предложить?
А при чем тут robots.txt, которого нет?
Моряк_вмф, вы про АГС слыхали? Почитайте.