- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хочу поднять тему относительно изменения гугла, последних годов.
Заранее прошу прощения, если мои наблюдения уже обсуждались на форуме, к сожалению, я не сильно слежу за последними сообщениями на серче и вообще в сообществе оптимизаторов.
Собственно, что я увидел за последний год:
1)Проблемы с индексацией гуглем.
В общем-то, это основное. То что раньше залетало на ура, теперь требует индексации и получение трафика, в срок минимум в полгода. Многое вообще не заходит в индекс.
Что я заметил.
Не заходит в индекс, неуник, причем основное нововведение относится к уникализированному контенту в независимости от его типа. Рерайт, мешанка, и прочие.
Мой вывод:
1) Разработана и внедрена нейросеть, причем такой сложности, что она может определять рерайт, и другой уникализированный контент.
2) Индексация умышленно делается с задержкой, чтобы позволить нейросети определить уникальность контента, и во-первых, произвести его анализ на уникальность и ценность, до выкладывания в индекс, а во вторых не дать скопировать его если он уникальный.
P.S. Зная внушаемость сегошников, все вышеописанное, прошу считать чистой теорией, что собственно так и есть.
Ну и кто и что по этому поводу сказать может? Тапками бросаться можно, и даже рекомендуется, этот вопрос надо осмотреть со всех сторон и найти в нем возможности.
А еще он уже пару лет как умеет определять авторство. Работает принцип, не можешь вытащить тексты сам, меняй копирайтера. Помогает.
Тоже наблюдение из серии бросайте в меня помидорами.
А вот с реальными униками - большие проблемы. Вот что очень странно.
У меня неуники входят в индекс почти без проблем. Собственно как год и два раньше - без изменений.
А вот с реальными униками - большие проблемы. Вот что очень странно.
Это зависит от траста ресурса. Или даже не от траста, а от возраста.
С копипастом кстати практически нет проблем, проблема с рерайтом, и уникализацией.
1)Проблемы с индексацией гуглем.
В общем-то, это основное. То что раньше залетало на ура, теперь требует индексации и получение трафика, в срок минимум в полгода.
Смотря в какой нише? Не говоря уже о языковом регионе.
Всё же есть разница между 1) дорвейными фармой, эссейкой, доунлоадом; 2) дорвейными же относительно белыми не попсовыми тематиками; 3) белыми товаркой, информационниками, продажниками. Ну и т.д. По некоторым темам до сих пор достаточно быстро выстреливает (в районе 1-2 месяцев).
Ну и о каких порядках по количеству трафа речь? А то был у меня разговор с одним дорввейщиком. Пожаловался, что Гугл не тот, траф даёт через 4-5 месяцев в среднем. В итоге оказалось, что под трафом подразумевается хотя бы 3-5к уников дейли, чтобы в районе 200$ в день капало, а иначе это не траф и вообще тоска.
1) Разработана и внедрена нейросеть, причем такой сложности, что она может определять рерайт, и другой уникализированный контент.
Без всяких нейросетей алгоритмов для проверки документов на похожесть несколько десятков.
Не занимайтесь примитивизацией алгоритмов поиска.
Там смесь кучи факторов, строить догадки о работе которых, исходя из опыта работы, мало что дает. А без опыта так вообще, фантастические сочинения и то лучше продуманы и поставлены на какие то фактологические рейки.
Еще года 3 назад можно было переносить истории успешных сайтов на другие, штамповать так сказать, по одному успешному кейсу все другие. Сейчас же все стало не предсказуемым каким то. Уже не ясно что причина успеха, что причина фиаско.
Собственно, самая рабочая схема: "делай больше, кидай дальше" (с) Классика.
Я бы ещё только добавил - охватывай "ширше".
Собственно, самая рабочая схема: "делай больше, кидай дальше" (с) Классика.
Я бы ещё только добавил - охватывай "ширше".
Делай качественно надо не забыть. А это дорого.
Тут всетаки большинство ловить легкие деньги хочет/умеет. И это нормально. Я и сам люблю это. Но что то сейчас начинать с 0 какой то сайт, для получаения денег, с себестоимостью меньше 4 нолей в долларах, это уже довольно странная идея. А окупиться ли это...боольной вопрос.
Я еще времена помню, когда сайт прибыльный делался за 2 копейки. И сколько, сколько влезет. Ограничивалось это не гуглами, а просто желанием работать. Т.е. вкладывать в это время, сильно не напрягаясь.
Я еще времена помню, когда сайт прибыльный делался за 2 копейки. И сколько, сколько влезет. Ограничивалось это не гуглами, а просто желанием работать. Т.е. вкладывать в это время, сильно не напрягаясь.
Да, было дело. Аж олдскулы свело 😩