- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На самом деле и да и нет, но и конкуренты очень и очень - этот запрос про погоду, почему спрашиваю, потому что не нашел ответа тут, где изначально столкнулся с данной проблемой https://productforums.google.com/forum/#!topic/webmaster-ru/kytmCbyycpg
1) в некоторых тематиках ряд поставщиков данных считаются прям очень крутыми (это касается например гисметео и синоптик.уа в вашем примере, если про гисметео все понятно из названия: "государственная информационная служба", про синоптика сказать толком ничего не могу, тк тут нужно знать контекст. Пример не из вашей тематики: https://goo.gl/3Q2NpW тут несколько поставщиков имеют по несколько страниц)
2) не стоит забывать, что в ранжировании принимают участие ДОКУМЕНТЫ, не сайты, не порталы, а ДОКУМЕНТЫ, т.е. вполне нормальная ситуация, когда несколько документов на одну тему, но с отличающимся контентом, принадлежащих одному сайту получают места в топе выдачи.
---------- Добавлено 22.05.2017 в 19:47 ----------
melkozaur, и вот тут у меня появился вопрос, какой параметр из этого списка Вы в продвижение / оптимизации не учитываете и не используете? )
как минимум кейвордс слегка бесполезен
ну и заметил явную дичь про то что Использование бесплатных общедоступных CMS является негативным фактором
пробежал наискосок, особо в текст не вдавался
ну и заметил явную дичь про то что Использование бесплатных общедоступных CMS является негативным фактором
по моим наблюдениям аналогично, если и влияет то слабо.
По поводу Title - это то что видит человек в выдаче. Это важно безо всяких факторов.
Без разбора я открываю только топ#5 потом сужу по Title и Description и открываю релевантные.
Кстати, любопытный факт. Гугл понимает если ставить тайтл через document.title='abc' яндекс - нет. При желании яшу так можно обманывать. Только тссс
Хороший результат в продвижении сайта дают пользователи с историей посещения схожих ресурсов... Т.е. если мне надо продвинуть сайт допустим по SEO, то мне не надо привлекать на него потенциальных клиентов... лучше привлекать прямых конкурентов... Система считает таких пользователей более авторитетными что ли и если поведенческие факторы с них хорошие, то они дают большей плюс нежели хорошие поведенческие факторы с обычных пользователей.
б) скорость загрузки сайта, укладывающаяся в стандартные величины.
в) регулярная (постоянная) доступность сайта
1. Согласно аналитике MOZ - в Гугле есть незначительное прямое влияния параметра Time To First Byte (т.е. момента начала загрузки).
2. По другим исследованиям MOZ, а также статистике Амазона скорость влияет на конверсию.
Из-за связи с общим комфортом посетителя и возможностью его быстрее "зацепить".
Для поисковых систем ваша конверсия связана с параметрами, которые учитываются в рамках расчета Поведенческих Факторов.
3. Аптайм по аналогии имеет то же значение для посетителей, только более выраженное.
В том числе, и из-за того, что во время неработоспособности сайта практически все посетители с поиска становятся "отказами".
4. Пауки Гугла и других ПС имеют алгоритмы для расчета максимальной интенсивности индексации сайта.
Так делается, чтобы минимизировать шансы перегрузки сайтов из-за недостатка ресурсов.
Поэтому из-за появления медленных или ошибочных запросов сама индексация тоже может замедляться.
Как и в случае, если вы были вынуждены вручную ограничить скорость индексации с помощью Crawl-Delay.
* В плане ошибок, помимо просто их искоренения не лишней может быть отдача заголовка "Retry-After" вместе с ними.
Он не очень популярен, но бот Гугла и некоторые другие его учитывают.
------
Влияние HTTPS - большинством оценивается как существующее, но не значительное и зависящее от типа сайта.
Как обязательную необходимость можно воспринимать для коммерческих проектов или любых других, где происходит взаимодействие с персональными данными посетителей (есть регистрация, возможности заказа, приёма заявок или подобное).
Точно очень значимое и объективное влияние есть в случаях, когда из-за форм браузеры подписывают HTTP-сайт в адресной строке как "Ненадёжный".
Эта коварная формулировка многими посетителями может быть воспринята как предупреждение об опасности самого сайта. Что имеет шансы подорвать доверие и, как следствие, конверсию и ПФ.