- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Проверил на дубли через "Google Вебмастер". Пишет, что всё нормально. Единственное, что я сам заметил: мой сайт доступен по 2 адресам: "мой сайт" и "мой сайт/index.php". Но это я замечаю на всех сайтах. Это считается дублем главной страницы? Нужно ли ставить 301 редирект на страницу "мой сайт/index.php"? Поискал ответ на других сайтах - пишут, что это не дубль. Другие пишут, что нужно просто прописать в файле robots.txt строку "Disallow: /index.php"
Чему верить?
Это дубль. Кроме того дублем к странице вида: сайт.ру будут и www.сайт.ру и сайт.ру/
Поэтому ставят редиректы через модреврайт в хтаксес
Если "алгоритм принял решение не включать в поиск", то перерабатывайте контент. Уникальный контент, это не уникальный набор и порядок слов. Это информация, которая не повторяется в сети. Рерайт вещь не очень хорошая.
..Статьи уникальные, даже не рерайт, а уник.
В последнее время складывается впечатление, что статьи с уникальностью в 100% Яндексбот автоматически помечает, как генерируемые и выкидывает из индекса.. Делаю уникальность 70-80% -2 часа и в индексе. Х.з., что и думать🚬
Если "алгоритм принял решение не включать в поиск", то перерабатывайте контент. Уникальный контент, это не уникальный набор и порядок слов. Это информация, которая не повторяется в сети. Рерайт вещь не очень хорошая.
Хех, у меня абсолютно уникальный контент (мои переводы и мои же собственноручно написанные статьи), но сайт не индексируется с ноября. "Развивайте", и всё такое. Разговор - как со стенкой.
Рекламы нет, продажных ссылок нет. Нормальная структура, роботс, сайтмап - всё, как нужно. Гугл начал индексировать едва ли не на следующий день, и никаких претензий не предъявлял.
если платоны написали, что всё в порядке - всё в порядке.
Это по-вашему "все в порядке"?
...Пришло стандартное письмо, подписанное "Платон Щукин", мол, алгоритм решил временно не включать в поиск...
А что это если не дубль главной?
301 лучше сделать... и на внутренних такое может вылезти...
Поэтому решайте либо 301 либо каноникал...
А директива Host не поможет? Об этом как раз говорится на сайте Яндекса. ВОТ
Так вот, что если прописать в файл robots.txt строку:
Host: site.ru
По идее это должно помочь? Я правильно понимаю?
Так что, есть смысл в директиве Host?
И новые события. Даже не ожидал. Выше в сообщении №7 я описал проблему вылета не просто проиндексированных, а загруженных страниц. Так вот, написал в Яндекс, жду ответа. А заодно написал хостеру. Выяснилось, что около недели назад была произведена атака на мой сайт. В связи с этим были блокированы некоторые иностранные IP-адреса. Но IP Яндекса не был блокирован. Но всё равно я думаю, что проблема завязана на этом. Удивительно, ведь сайту 2 месяца, а уже атака и поиск уязвимостей.
>Яндекс загрузил 35 страниц, но в поиске - 0
Вот это чудеса! Бывает же такое!☝
ViZed, ищите дубли. Дубли появляются из-за всякого рода сортировок, в том числе и пагинации.
Если хостер сам сознался в состоявшейся атаке - меняйте хостинг. Ваш сайт, которого нет в индексе не нужен никому. Значит хакеры посутся на сетке айпишников хостинга. Следующая атака может стать совсем не к месту или не состояться вообще. Но это лишние экперименты.
У вас сайт больше на дорвей похож, бессмысленный текст, такие же картинки, перелинковка всего и везде, выделения жирным, названия страниц и т.д.
Убирайте всю эту ерунду, закиньте пару полезных статей а не бредотексты и подавайте на пересмотр.
Sterh, я думаю что проблема именно в дублях кроется.
ViZed, роботс не является обязательным для поисковых систем - это рекомендация для робота. Вам нужно переработать сайт и проанализировать дубли - склеить все что нужно. И немного пошаманить.
Пишите, помогу бесплатно если много времени не отнимите :)