- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
clearfy чем не угодил, им же убирается куча мусора?
clearfy чем не угодил, им же убирается куча мусора?
Йоаст и клеарфай, вроде как и полезные, но они делают скрытые редиректы и блокировки для краулеров. Я не могу это внятно объяснить, но доля правды в этом есть.
Вот вчера обнаружил проблему с картами мультисайта. Поменял несколько плагинов и нифига. Начал рыть и нашел в йоасте редирект с одного урл карты на другой. На взгляд, все правильно, но по факту карта недоступна. Пришлось вручную убирать редиректы. И то, из 19 карт, не во всех показывается количество найденных урл в серч консоли.
Я вообще молчу про петрушку с редиректами и блокировками ноиндекс, когда летом начал делать страницы авторов сайта для ymyl.
Требование гуглоыцев, чтоб страница автора была доступна для индексации и можно было посмотреть список всех его записей. Верно?. Так вот после деяний йоаста и клеарфай. Это сделать не удалось. Пришлось нанимать человека, чтоб он отдельные функции добавил в шаблон. Так как никакой откат изменений не помогал. Йоаст с клиарфаем повырезали все наглухо
У самого стоит плагин All In One SEO Pack. Почитав ветку понял, что он немного устарел и имеет лишний функционал. И чем же его заменить , скажем более легким? и как прописать тогда везде tittle и Description. Страниц то более 10к
А какой задают шаблон тайтла, для плагинов с автозаполнением метатегов? Чтоб тайтл не был равен H1, и желательно не превышал 70 символов?
Я экспериментировал с шаблонами добавления к тайтлу даты, названия сайта и остановился на варианте "взять заголовок в квадратные скобки"
У самого стоит плагин All In One SEO Pack. Почитав ветку понял, что он немного устарел и имеет лишний функционал. И чем же его заменить , скажем более легким? и как прописать тогда везде tittle и Description. Страниц то более 10к
И чем он устарел? Тем, что дает вам возможность прописать в отдельных полях Title, Description и Keywords? Вы правда в это верите?
Никто не замечал у себя на сайтах изменений в локальном поиске?
- новость от 2 Декабря
Последние 2-3 недели наблюдаю выход сайта в топ 3-1 по высокочастотным ключам вроде {key} near me, {key} in {city}... но это видит только Ахрефс, повторить выдачу можно только используя IP именного заданного места
Когда всё хорошо, то это редко кто видит. А так да - Neural Matching. Всё парни, расходимся.
Вот Nov. 2019 Local Search Update
И вот Neural Matching: что представляет собой новый алгоритм Google (от октября-18)
Новый алгоритм, опубликованный в ИИ-блоге Google, не основан на традиционных факторах ранжирования. Однако эти факторы используются в первую очередь. Затем в работу вступает та часть алгоритма, что связана с Ad-hoc retrieval. На этом этапе выполняется повторное ранжирование уже проранжированных страниц.
Это значит, что традиционные сигналы ранжирования по-прежнему используются, однако они не определяют то, какие страницы будут находиться в топ-10 поисковой выдачи.
Таким образом, можно сказать, что традиционные сигналы ранжирования выполняют функцию предварительного отбора. Они позволяют Google отсеять спам и выбрать самые релевантные документы.
Новый же алгоритм повторно ранжирует эти страницы согласно совершенно другому набору критериев для определения того, что Дэнни Салливан назвал «суперсинонимами».
Его цель – сопоставлять поисковый запрос с веб-страницей, используя только запрос и только страницу. Веб-страницы, ранжируемые таким алгоритмом, не будут продвигаться в топ поисковой выдачи благодаря ссылкам или ключевым словам, поскольку этот алгоритм по-другому определяет соответствие.
От этого и возможно, основное падение, когда был выкачен алгоритм и постепенное сползание при повторном ранжировании по новому критерию ранжирования для определения суперсинонимов
Ну прям как Яндекс с матрикснетом в лохматые годы. Гугл дозрел. Это значит что скоро продвигаться в нем станет очень сложно.
Королева от Яндекса напоминает. Кстати, страницы, заточенные под Яндекс как-раз и подросли. Думала, за счет возраста. Увы, простыни на 10 листов и биграммы в заготовках, похоже, рулят. Мрак(( Спасибо за инфу, ребят.
Гугл дозрел. Это значит что скоро продвигаться в нем станет очень сложно.
Эх... сколько раз я уже слышал подобное))
простыни на 10 листов и биграммы в заготовках, похоже, рулят
С добрым утром! В гугле давно уж простыни рулят))