- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всегда считал что неуник - зло. Но давно не занимался продвижением. Щас многие клиенты заказывают сайты с неуником (парсинг маркета, книжных магазов, других сайтов).
Как щас поисковики относятся к неуникальному контенту? На гугле часто вижу первую страницу с одинаковыми текстами. Яндекс банит, если сайт состоит только из неуникального контента?
Если я сделаю например магазин с инфой из маркета, есть шанс его раскрутить? Что для этого нужно?
У кого то опыт есть раскрутки сайтов с неуникальным контентом?
И последний вопрос. Если я создам например страницу-каталог, название товара, два предложения неуникального текста (и так штук 10 на странице) - это страница с уникальным контентом или нет для поисковиков?
Яндекс банит, если сайт состоит только из неуникального контента?
Нет, конечно. Главное, чтобы сайт был для людей.
Если я создам например страницу-каталог, название товара, два предложения неуникального текста (и так штук 10 на странице) - это страница с уникальным контентом или нет для поисковиков?
Вы же сами себе ответили на вопрос
Использование не уникального контента порой неизбежно, и не есть зло. И однозначно не скажешь, поможет ли это именно Вашему сайту. Некоторым из них помогает - и это факт :)
Нет, конечно. Главное, чтобы сайт был для людей.
Гуманный подход))
Авто-наполняемые сайты вполне комфортно живут и в гугле и в яндексе, делайте выводы :)
вот только неочень долго, но живут, ага
Мне кажется, что имеет значение, сколько копий контента существует.
В "сопли" попадает скорее всего те страницы, контент на которых существует в очень большом количестве на других ресурсах. Если же дублей не очень много или ссылки на вас стоят хорошие, тогда у вашего "неуника" есть очень хорошие шансы ИМХО (во всяком случае в гугле, в Яндексе не знаю)
Авто-наполняемые сайты вполне комфортно живут и в гугле и в яндексе, делайте выводы :)
неделю, месяц, полгода?
Яша посильнее гайки закрутит и будут дни считанные жить
Если я создам например страницу-каталог, название товара, два предложения неуникального текста (и так штук 10 на странице) - это страница с уникальным контентом или нет для поисковиков?
Вы же сами себе ответили на вопрос
В целом то, текст получается уникальный. Поэтому для меня ответ не так очевиден. Если экстраполировать, то получится что любой текст не уникальный, потому что состоит из неуникальных слов. Может кто знает, как определятся неуникальность?
И еще вопрос возникает. По поводу скопированных статей в принципе понятно. А как насчет материала, который по сути неуникальным не может быть. Например, я хочу разместить словарь на сайте. В словаре куча неуника, потому-то он размещен еще на 10-и сайтах. Могу я попасть под фильтр или нет?
Или другой пример. Хочу например создать магазин книжный. Описания как и у всех берутся из самих книг и неуникальные, потому что размещены в десятках других магазинах. Как отнесутся поисковики?
И пара технических вопросов. Вы уж извините щас разбираюсь очень со многим - настройка вдс, управление postgre, раскрутка, вопросов возникает очень много. Иногда хочется просто об стенку бится. И часто в нэте вразумительного ниче найти не могу.
Под фильтр Яндекса из-за неуника сайт попадает вручную (то есть кто то так посчитал) или програмно (прога так решила)? Можно вылезти потом из под фильтра? Как ? А если попытатся убедить Платона (или кто там щас) что сайт для людей, что приносит пользу и т.п.. могут вывести из под фильтра?
Не уникальный контент сидит в Яндексе плотно, только в том случае, если траст сайта высокий. По своему опыту знаю, создал сайт, заполнил сканом и через 5 месяцев получил АГС, все просто.
Делать сайты на неуникальном контенте, спарсенном с других сайтов, нехорошо. Займитесь лучше чем-нибудь более полезным для общества.
Сайты за неуник, конечно, попадают под фильтры автоматом. Платонам на самом деле пофигу, что там и почему попадает, они зачастую и сами точно не знают причину. А выводить из-под фильтра долго и упорно можно даже СДЛ с уникальным контентом, вывести же сайт с неуником, да ещё по паре предложений на странице - ну это абсолютно дохлый номер. Его можно только бросить.