- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Угу, понимаю ваше беспокойство
беспокойства нет :)
а к плагиату это не имеет ни какого отношения, пс не может определить авторство - это может только суд :)
скажем так, на мой взгляд это направленно больше на ускорение индексации новых документов на страницах сайтов куда пс редко заходит. но и тут есть подводные камни - обнуление ПР за продажные ссылки :)
Мне кажется, это очередная попытка Гугла обратить на себя внимание, и не более того.
Давайте посмотрим на вещи здраво: почти 2/3 блогов делают пинги. RSS отдают (или могут отдавать) почти все современные CMS. Карты сайта sitemap.xml обновляются у многих ежедневно. Есть, наконец, и ручная аддурилка.
КТО МЕШАЕТ ГУГЛУ УЖЕ СЕЙЧАС ЭТО ИСПОЛЬЗОВАТЬ ?!
Нет же, давайте придумаем что-нибудь еще, но неприменно СВОЕ, заманим народ типа "теперь ваш текст никто не украдет", и понеслось по привычному стандарту...
И вот еще что: с какой это радости, скажите, Гугл будет показывать в поиске не ту страницу, которая ЛУЧШЕ ДЛЯ ПОЛЬЗОВАТЕЛЯ, а ту, что быстрее появилась? Кто-нибудь в это верит?
В обсуждении в блоге, где оригинал статьи, один чел говорит, что сам пишет статьи для своего сайта и G индексирует их буквально за 5 минут.
И сомневается - нужно ли такое нововведение вообще.
Вполне присоединяюсь.
В обсуждении в блоге, где оригинал статьи, один чел говорит, что сам пишет статьи для своего сайта и G индексирует их буквально за 5 минут.
И сомневается - нужно ли такое нововведение вообще.
Вполне присоединяюсь.
у меня даже быстрее 5 минут.
мне кажется это некий аналог rss пинга.
Принцип работы будет совсем другой.
Написала у себя на блоге, как примерно работать будет PubSubHubbub
Как я поняла - смысл не просто в быстрой индексации, а в экономии ресурсов. То есть бот придёт, ваш сайт внесут в "анналы гугля" - а потом вы просто отсылаете свой контент и всё. ТО есть стандартный бот не будет постоянно бегать на сайт
Потому и название - ПУШ - то есть Вы отсылаете к серверу
Кто про фичу знает, тот и первоисточник. Так что ли выходит?
У меня кстати тоже мнгнгвенно индексирует. А определить - кто первый, это не задача Гугля.
Некоторые вон статьи из печатных изданий публикуют.
Но ведь они не авторы и не имеют права на авторство
Пользуясь этой фичей, можно будет здорово спамить PR...
читайте - там спам-фильтр будет
Известно, что нет способа со 100% вероятностью определить первоисточник контента в автоматическом режиме. Если поднимается вопрос авторства/кражи контента на правовом уровне, то Гугл требует ряд доказательств авторства контента. Поэтому если контент ворованый добавить в ПуШ, по сути это ничего не изменит.
Кроме того как я понял, индексироваться страницы не будут быстрей - просто определённый набор текста будет ассоциироваться с определённым доменом в базе Гугла, а страницы домена будут индексироваться в обычном режиме.