- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
По поводу Гугла - я все больше склонен ко мнению, что нужно просто делать много сайтов в каждой нише. Разного качества. В том числе генеренку.
Эврика! Давайте делать кучу дерьма и еще больше удивляться, почему же таки в выдаче гугла - дерьмо?
С Новым Годом :)
Эврика! Давайте делать кучу дерьма и еще больше удивляться, почему же таки в выдаче гугла - дерьмо?
С Новым Годом :)
Рост количества и доли гс - это необратимый процесс:)
За то же время, пока я сделаю 1 качественный сайт, я могу сделать штук 200-300 прилично выглядящих ГС. Шансы в Гугле у них почти идентичны. Спрашивается, зачем тратить больше времени, денег и сил?
Но, к примеру, даже если я буду делать только качественные проекты, жопотехники (gpt-техники) за этот же период сделают в сотни, тысячи и десятки тысяч раз больше ГС, которые ранжируются не намного хуже экспертных проектов.
В итоге, через какое-то небольшое время % сайтов сделанных людьми будет минимальным, а Джемини будет обучатся дальше на (в том числе своей же) генеренке и под генеренку.
Научить генеративный ллм отличать человеческий контент от генеративного от другой ллм при количестве человеческого контента в среднесрочной перспективе в 1-2-3%, - ещё та задача. Как по мне, она не особо решаемая с помощью ллм. Да и нужно ли ее решать? Если гугл хочет давать ответы прямо в выдаче без перехода на сайт.
Поэтому делать исключительно качественные проекты под гугл - это уже мартышкин труд.
Соответственно, поскольку ценность контента фактически обнулена или будет обнулена в ближайшие 1-2 года, ценность привычных вторичных факторов ранжирования таких как ссылки, цитирования, упоминания и пр. будет точно так же обнулена
не верно - ценность контента пытаются выставить как основу, но вот экспертность его проверить не могут, пофигу как он сделан
а если не могут отранжировать по текстовым - то растут другие факторы ранжа. Кстати ссылочное не вторичный фактор а основной.
ПФ - тоже оказывается бесполезным.
пф это не только отказ/ласт клик, у гугла есть еще активность и взаимодействие .
и ручную модерацию в условном будущем гугле
этого не будет естественно - ну какая нафиг ручная модерация растущего мегатоннами индекса ))))
А ллм - тот самый ящик Пандоры, открытие которого необратимо превращает интернет в мусорку.
Если не могут отранжировать по текстовым факторам (это логично), то ценность ссылок тоже равна нулю. Так как ссылка ставится из контента, у которого должна быть ценность, а если ценность невозможно определить, то и значимость ссылки - примерно равна нулю.
нет, не совсем верно. Ссылки строят на пр - ссылки на ссылки итд . Ссылки могут быть не только в контенте - они могут быть в рекламных блоках, сайдбаре, в шапке в футере, в коментах итд итп. Например По сути страница категории магазина это просто набор картинок и ссылок)и никакого текста ( хггг)
То что самая ценная ссылка стоит из текста топового сайта - это верно, но этот топовый сайт становится топовым обрастая ссылками) и не всегда из топовых сайтов.Но так же самая ценная ссылка. это сквозняк и морда.
хьюман-онли