- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
>>Получается тема бессмысленна
тщетно бытие))
однако, вернемся к этой теме через полгодика-год
имхо гугл будет поощрять авторов качественного, информационного контента.
hitboss, еще бы существовали рабочие методики определения качественного контента. На текущий момент кроме заданных вручную эталонов ничего в волнах не видно. Как результат - позиции Вики в выдаче, например.
У кого больше инфы по теме - тот и будет выше.
У кого парсер помощнее и мозгов больше, чтобы не тупо копировать ...
Мне кажется пока Гугл сможет только ручками, ручками ... если захочет. :)
Качество статей же должно проявляться в том, чтобы добавлять ценность информации - не просто переписать, а развернуть тему, добавить доп. инфу. И вместо битвы за уник будет битва за полноту информации. У кого больше инфы по теме - тот и будет выше.
Пользователь, таких как ты много:
hitboss, еще бы существовали рабочие методики определения качественного контента. На текущий момент кроме заданных вручную эталонов ничего в волнах не видно. Как результат - позиции Вики в выдаче, например.
пока - не видно, да
но это не значит, что не будет
распознавание изображений, речи - уже на потоке, нейронные сети вовсю пашут на корпорацию зла)
чуть ранее я сделал предположение как может быть определен качественный контент: путем отсеивания "воды" и извлечения фактов. больше фактов - лучше контент
на извлеченных фактах можно построить дерево связей.
банальный пример, статья о, например, орехах кешью
убирается вода, получается инфа
кешью растут там-то, такой-то внешний вид, цвет, такая-то калорийность, так-то обрабатываются, такие-то полезные свойства, содержание витаминов, жиров, углеводов,
бонусная инфа: применяются в таких-то блюдах, история открытия, завезены в европу в таком-то году (например), средняя цена за кг столько-то
далее можно посмотреть другие страницы сайта, есть ли там доп. инфа по теме
согласитесь, ничего экстраординарного в этом нет
педивикия в этом плане рулит, т.к. в ней куча перекрестных ссылок, расшифровка терминов
справочник как он есть, одним словом
---------- Добавлено 31.03.2016 в 02:32 ----------
У кого парсер помощнее и мозгов больше, чтобы не тупо копировать ...
Мне кажется пока Гугл сможет только ручками, ручками ... если захочет. :)
пока - да
ручками (по стуку конкурентов) и трастом
Мэт катс озолотит — если напишешь ему олгоритм... убивающий мотивацию ГСтроя великим Гуглом.
Только платный индекс спасет отца поисковой демократии.
:)
hitboss, С потоком новостей, к примеру, я интересуюсь в яндексе по заголовкам и снипетам, но читаю новости только на определенных ресурсах, и мне не нужен первоисточник, мне нужно качество изложения и предсказуемый процент политизированности в изложении. Тоесть класть на первоисточник. Тот же интерфакс меня не устраивает, а ведомости устраивают, и не важно кто из них мог быть первоисточником. Большинство также, процент маргиналов ищущих первоисточник не интересен будучи незначительным меньшинством для пс, которое работает на большинство.
пс. А степень подмешивания в серпе около похожих материалов и сейчас ПС сможет отрегулировать без проблем, если на то будет запрос пользователей или коммерческих интересов самой пс.
пс.пс. Получается тема бессмысленна)))
смотрите,
есть такая штука как персонализированная выдача
вас отследили по кукам, поняли что на таких-то сайтах вы частый гость
соответственно, для вас в поиске они будут выше
но
я бы на месте гугла поощрял сайты, на которых инфа появляется чаще и раньше, чем на других
---------- Добавлено 31.03.2016 в 02:38 ----------
Пользователь, таких как ты много: Мэт катс озолотит — если напишешь ему олгоритм... убивающий мотивацию ГСтроя великим Гуглом.
дык пишут же
думаю, через полгодика-годик к гугловому зверинцу добавится какая-нибудь пума или лама
которая существенно усложнит рерайты
думаю, через полгодика-годик к гугловому зверинцу добавится какая-нибудь пума или лама
которая существенно усложнит рерайты
Какой алгоритм сможет заявить, что "Волшебник Изумрудного города" есть рерайт книги "Удивительный волшебник из страны Оз"?
Если такой алгоритм появится у Гугла, то в интернете останется каких-нибудь 100 ... 500 сайтов. Все остальные - дубликаты!
😂 😂 😂
P.S. Производители "говноконтента" могут спать спокойно.
к гугловому зверинцу добавится какая-нибудь пума или лама
которая существенно усложнит рерайты
Нет, речь была об том, чтобы искоренить мотивацию ГСтроя самим Гуглом.
Для безыдейных вебмастеров — это вопрос выгоды — во что вкладываться? И всё.
Для мэтов катсов — это вопрос себестоимости и выполнимости (всего того, что человеку так легко сказать словами, ну про “смысл”, “извлечения фактов”. Дайте сначала определение факта).
Пока реализовать удалось поощрение самим же Гуглом всего того, против чего он агитирует (и эта агитация — лишь его попытка снижения себестоимости борьбы со спамом). Динамическое равновесие определяет реальные последствия. Дилеммы не радостные.
В принципе, гугл уже справляется с этой проблемой, введя Hilltop в ранжирование и собираясь внедрить RankBrain. Теперь ранжирование зависит от того, кто его написал, а скоро будет зависеть от того, правда ли там написана или нет. Ну и само собой - персонализация, кому-то надо показывать новости только на Эхе, кому-то - на НТВ, о чем новость - это неважно, важна подача и сделанные выводы.
А деление текстов на первоисточники и рерайт гугл оставил судам, и правильно сделал, потому что по текущим законам нельзя опубликовать фанфик "Властелина Колец", не заменив имена хоббитов, которые использовал Толкиен.