- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день. Так как специалистом в этой области я себя назвать не могу, обращаюсь за помощью к Вам.
1) Запросы по которым идут переходы с гугла не определяются ни сайтом(wordpress) ни гугл аналитикс. С яндекса определяет, а вот с гугла нет. В чем причина?
2) Сайт достаточно часто обновляется и соответственно появляются новые статьи на которые переходят через поисковики. При этом старые статьи также не теряют актуальности и приносят посетителей. Но вот в чем загвоздка - общее количество приходящих с поисковиков не меняется, то есть это ежедневно примерно одни и те же цифры, несмотря на то что тут вроде как должен действовать накопительный эффект. Скажите это просто совпадение или гугл каким то образом ранжирует ссылки так что кол-во посетителей остается неизменным?
1. Гугл шифрует запросы , они отображаются как not provided (ничего поделать с этим нельзя)
2. совпадение, продолжайте наполнять, смотрите на какие страницы приходят, подкачивайте их вечными ссылками
blackcarrot, Большое спасибо. С п.1 все понятно, а второй попытаюсь перефразировать приведя временные отрезки.
Нормально ли, что в течение полугода кол-во переходов с гугл остается неизменным при том, что кол-во статей по которым переходят растет? Или это означает, что я все делаю неправильно и необходимо менять стратегию?
растет на новых падает на старых? устаревание информации? Иногда гугл дает пинок новым статьям, потом отбрасывает их назад, потом опять поднимает и этот секс может продолжаться бесконечно, если вы не укажете ссылками на страницы фавориты по трафику (любыми, но лучше вечными)
blackcarrot,беда в том что дело не в простом устаревании и потери актуальности, вообще то что происходит кажется нелогичным, к примеру в один день 80 процентов переходов может приходится на какую нибудь старую статью не вызывавшую никогда интереса. Еще раз спасибо, буду думать о покупных ссылках - никогда этим не занимался
это нормально, увеличение количества страниц не приводит к увеличению посетителей. Либо увеличивает незначительно. Могут быть проекты у которых за год тысячи новых статей и трафик падает... Если бы всё было так просто как вы описываете, не нужно было бы сео вообще.
основная масса посетителей обычно приходят на одни и теже страницы по схожим запросам. чтобы увеличивалось количество посетителей статьи должны обрастать ссылками и/или хотя бы соц. активностью (твиты на эти страницы, ссылки и переходы с соц. сетей).
Ark-of-Truth, ссылок много (на мой дилетантский взгляд), все ссылки естественные. Кол-во ссылок все время растет, а вот трафик нет)/UPD ах да, забыл упомянуть трафик на сайте порой оч. серьезный - до 10 килочеловек (в основном ссылочный), при этом траф с поисковиков не дотягивает даже до 1 процента
возможно фильтры, если ссылок и текстов много а трафика с ПС нет.
Тут очень много деталей и причин по которым может не быть трафика. Не правильный текст, переспам ключей, не правильная перелинковка, ссылки не оттуда и не с теми ключами, неправильно росли ссылки, и т.д. и т.п.
Это отдельный долгий разговор...
Могу сказать одно, п.2 - накопительный эффект в ПС не работает, или в очень низкой пропорции. Т.е. если загнать в индекс миллион уникальных страниц, то трафика конечно будет побольше чем когда их 100шт, но не в линейной пропорции. На 100стр может быть 1к трафика, а на миллион 10к. Одним словом дело не только в текстах.
Ark-of-Truth, Огромное Вам спасибо, буду разбираться
Могу сказать одно, п.2 - накопительный эффект в ПС не работает, или в очень низкой пропорции. Т.е. если загнать в индекс миллион уникальных страниц, то трафика конечно будет побольше чем когда их 100шт, но не в линейной пропорции. На 100стр может быть 1к трафика, а на миллион 10к. Одним словом дело не только в текстах.
Это по тому, что загнать в индекс миллион страниц практически не реально, если сайт не ломится от пиара с трастом и его посещаемость в десятки кило не бегает по этим страницам.
То, что гугл показывает по запросу site говорит лишь о количестве страниц, о которых знает гугл. Далеко не факт, что хотя бы половина из них находится в его индексе.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Sower, то есть Вы придерживаетесь того мнения, что кол-во трафика с поисковиков прямо пропорционально числу загнанных страниц в индекс? upd. я это к чему спрашиваю, если это так, то какие причины Вы видете в вышеописанной мною ситуации?