- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В чём дело? Может белорусский домен приносит счастье?
Нет Ваш, извините за выражение д... приносит другим счастье...
ЗЫ: Не позорь бай нет, который состоит из 1 сайта :))))
наверное первый "неварезник" создали и жалуетесь теперь на ГС?
В чём дело? Может белорусский домен приносит счастье?
Определенно не от этого зависит.
А какой смысл Яндексу быть арбитром и определять кто у кого текст скопипастил. Яндекс всего-лищь "зеркало рунета". Естественно, алгоритмически большинство сайтов, которые копипастят контент, Яндексом вычисляются по совокупности факторов и могут попасть под фильтры. Но само наличие неуникального контента - не повод для бана.
Почему сайты на которых располагается не уникальный материал (то есть материал был взят с других сайтов) индексируется поисковиками и попадает в индекс поисковиков. А также сайт посещают люди через крупные поисковики, то есть наблюдается поисковый трафф
А почему всего этого не должно быть?
Ведь в интернете написано что сайты с неуникальным материалом не проиндексируются
Где это написано? Ссылку дайте.
или они это написали просто так, обманули нас. Да?
"Они" - это кто?
<!--WEB-->, +10 :)
По поводу:
Если я правильно понял, то здесь идет выяснение копипаст VS уник. Как уже сказали, неуник - не повод для бана. Да, будет несколько сложнее поднять новый сайт на неунике, да есть риск. Но, вдумайтесь. gsite.ucoz.ru был создан как раз для проверки - сколько продержится ПОЛНЫЙ ГС НА ЮКОЗЕ С ГРАБЛЕННЫМ КОНТЕНТОМ. Результат: полностью проиндексирован, переиндексация отличная, в индексе 1000+ страниц больше полгода вроде (не помню точно, но около того).
Вывод: Яша как океан. Огромный и темный. И какое ему дело до таких мелких рыбешек как мы и наши сайты? ;)
НО! Я считаю (заметил на опыте), что неуник сложнее продвигать в выдаче. НО! Опять же можно нормально оптимизировать страницу, не оптимизируя сам текст. Бывает и такое прокатывает.
С уважением, Никулин М.
ЗЫ: если что, все вышеописанное - мое ИМХО и доверять ему или нет личное дело каждого.
ЗЫЫ: только что заметил что там установлен код какойто... То ли я биржу ставил статейную, то ли граббер на автомате гнал... Это я к чему: ПОЛНОЕ УГ ДЕРЖИТСЯ В ИНДЕКСЕ БОЛЕЕ ЧЕМ УВЕРЕННО.
Plazmodina, смотрите соседние и другие темы.
УГ
ну г тоже много где плавает :)
Копипаст может ранжироваться выше, но только на трастовых ресурсах и тут есть определённые факторы. Но всё-таки в Яндексе уже не раз писали, что сейчас работают над тем, чтобы довольно чётко определять кто первоисточник контента. У меня с нулевиков воровали в последнее время уник, но в поиске я всё равно выше стою, думаю, алгоритмы работают. А вот Гугл вообще уже практически решил эту проблему. Скоро выйдет новый алгоритм. При добавлении нового контента, он будет моментально попадать к роботу индексатору (что-то похожее на rss поток) и моментально будет индексироваться (нужно будет только поставить специальный плагин). Таким образом, маленькие не трастовые сайты смогут себя защитить от копирования "большими" ресурсами. Уверен, что Яндекс в скором времени тоже к этому придёт и подобные проблемы отпадут сами собой.
выйдет новый алгоритм
Если есть ссылка на подобную инфу или есть источники подобных новостей, дайте урлы пожалуйста. Можно в ЛС, но думаю многим будет интересно :)
Копипаст может ранжироваться выше, но только на трастовых ресурсах и тут есть определённые факторы. Но всё-таки в Яндексе уже не раз писали, что сейчас работают над тем, чтобы довольно чётко определять кто первоисточник контента. У меня с нулевиков воровали в последнее время уник, но в поиске я всё равно выше стою, думаю, алгоритмы работают. А вот Гугл вообще уже практически решил эту проблему. Скоро выйдет новый алгоритм. При добавлении нового контента, он будет моментально попадать к роботу индексатору (что-то похожее на rss поток) и моментально будет индексироваться (нужно будет только поставить специальный плагин). Таким образом, маленькие не трастовые сайты смогут себя защитить от копирования "большими" ресурсами. Уверен, что Яндекс в скором времени тоже к этому придёт и подобные проблемы отпадут сами собой.
И что? Появляется контент на сайте 1 - появляется сразу же на сайте 2. Парсинг...
Если есть ссылка на подобную инфу или есть источники подобных новостей, дайте урлы пожалуйста. Можно в ЛС, но думаю многим будет интересно :)
Никаких проблем. Я уже писал об этой новости в чьей-то теме про "Воровство контента". Вот нашёл своё сообщение, читайте на здоровье 🚬
Гугл заявил, что скоро запустит новый алгоритм, который сможет моментально индексировать контент после добавления. Таким образом, выиграют маленькие сайты, к которым поисковые роботы приходят не чаще 1 раза в неделю. Сам принцип добавления контента будет в чём-то схож с технологией RSS, когда Вы публикуете новый пост и он сразу пересылается Вашим подписчикам. Кстати среди подписчиков часто бывают те, кто просто ворует контент (автоматически).
Но теперь, в первую очередь, Ваш вновь добавленный контент будет пересылаться не подписчикам, а индексирующему роботу, который будет его сразу индексировать.
Чтобы воспользоваться этой функцией Гугла, нужно будет установить у себя на сайте фичу, типа плагина RSS и после этого контент будет сразу после опубликования попадать в индекс.
Главной причиной, почему Гугл пока задерживает выход данного алгоритма, является то, что он пытается максимально защититься от возможного спама.
Кстати моментально проиндексированные Гуглом страницы будут общедоступны и их смогут индексировать другие поисковые системы, такие как Bing, Yahoo и т.п.
Лично меня эта новость очень порадовала, так как я лично пишу очень много уникального контента, а многие «умельцы», сразу же воруют его через RSS на автомате. Я уже нашёл действенные способы защиты от воровства, но моментальное попадание в индекс решит все проблемы и упростит эту задачу)).
Вот кстати оригинальный перевод самой новости с английского:
Третьего марта Google объявил, что скоро в его существовании откроется "новая глава". Он готовится запустить алгоритм, индексирующий контент практически сразу после его публикации. Об этом рассказал на конференции Search Marketing Expo менеджер продуктов Google Дилан Кейси.
Владельцы сайтов должны будут самостоятельно добавлять свежий контент в Google для мгновенной индексации. Аналитик Дэнни Салливан предположил, что Google придется серьезно поработать над отсеиванием спама на этой стадии.
Система будет работать на основе протокола синдикации в реальном времени PubSubHubbub (сокращенно - PuSH). Протокол основан на формате данных ATOM. Владельцам сайтов, которые желают воспользоваться возможностями мгновенной индексации, придется интегрировать этот протокол в свои сайты. Принцип работы аналогичен RSS: если сайт поддерживает протокол, Google получит возможность увидеть его поток и подключить к мгновенному индексу. PuSH не заменит традиционного краулинга – последний нужен как минимум для того, чтобы, обходя сайты, обнаруживать потоки данных.
Основную выгоду от нового протокола получат владельцы маленьких сайтов – среди них много таких, на которые индексирующий бот Google заходит не чаще раза в неделю. Кроме того, возможно, улучшится ситуация с определением первоисточника контента.
При этом PuSH – открытый протокол, и создаваемые им потоки (feeds) смогут видеть и Yahoo!, и Bing, и другие поисковики, которые захотят добавить мгновенную индексацию. Много интересного об устройстве протокола PuSH и о том, какую он пользу может принести, содержится в презентации, опубликованной на ReadWriteWeb.
Новость была опубликована в официальной рассылке SEO экспертов
"Ашманов и Партнеры"
Ruslan7 добавил 27.03.2010 в 17:55
И что? Появляется контент на сайте 1 - появляется сразу же на сайте 2. Парсинг...
Нет, вряд ли получится. Алгоритм не дураки разрабатывают. До поисковика информация о первоисточнике дойдёт первой, поверьте.