Alexey SEO

Рейтинг
192
Регистрация
23.06.2008

— Какьие ваши доказательства?!

— Кокаинум!

Красная жара (фильм, 1988)

Боюсь себе даже представить как это будет работать, особенно если посмотреть на работу, к примеру, Google Переводчик (такое впечатление что он с каждым годом все хуже делает свое дело).

Но что-то мне подсказывает, что к этому новшеству прикрутят очередной фактор ранжирования. Сколько раз Ассистент прочитал страницу вашего сайта раз?

1000?

Отлично - иди в топ.

Накрутки ПФ нового уровня!

Посмотрел на проектов статистику и заглянув в сенсор понял - наконец-то, вот он родимый... долгожданный... апдейт чего-то-там.

aleksandrbol:
Пруфы будут?

На самом деле у поисковика нет конкурентом, чем он и пользуется. А если нет конкуренции, то зачем нужно качество поиска и так сойдёт.

Вся гугл технология работает на основах 90х годов (есть ссылки - есть трафик) + впаривания своего поиска (ОС Андроид) и манипулированием поиска (Европейский суд неоднократно делал гуглу замечания).

Всё искусственные интеллекты и прочая муть - это лишь для ушей акционеров, они конечно есть но придуманы для другого, а не для качества поиска. Посмотрите сколько стоят акции алфабета, ради таких показателей можно любые сказки выдумать.

Устроили в выдаче рандом и объясняют это влиянием своих ультра-супер-умных алгоритмов.

P.S. Меня вот удивляет, что до сих пор ни одно описание этого легиона алгоритмов, не стало достоянием общественности. Можно подумать за теми, кто их знает, постоянно следит SS Google, а в NDA прописаны вечные муки в аду.

Бумеранг777:
бюджет....

количество толковых доноров.

Brat_Sergij:
Помню времена, когда раздавались стоны на форуме типа: "Ну когда уже ап будет? Надоело ждать, всего лишь пару раз в год".
Сейчас в пору вопрос "когда уже не будет апов у гугла" ибо апы у них чуть ли не каждый день ))

Апы-факапы - простите, не удержался 😒

"Yes, we do use PageRank internally, among many, many other signals. It's not quite the same as the original paper, there are lots of quirks (eg, disavowed links, ignored links, etc.), and, again, we use a lot of other signals that can be much stronger."

- Ох уж этот Мюллер - подумал Штирлиц.

Повышение скорости загрузки улучшит позиции у тех сайтов, которые и так имеют хорошие места. А из грязи в князи за счет этих всех фитюлек не получится - проверено.

aleksandrbol:
Или в самом поисковике.

Заглянул в лог сервера и посмотрел куда ходит гугл бот. Оказывается он лазит по страницам, которые давным давно удалены (в кеше поисковика уже новые версии), и идёт глубже. Т.е. сканит скрипты библиотек и файлов js страниц которых уже нет (ни страниц, ни скриптов).

Или вот ещё забавно. Гугл консоль указала открыть страницы для индексации и поставить на них тег ноуфолоу. Сделал как просит. В итоге, запрещённые страницы всё равно регулярно обходятся, и даже чаще чем те, на которые есть ссылка с морды.

Т.е. на "мусорные" страницы тратит краулерный бюджет (хотя я ему прямо сказал этого не делать), а на нормальные страницы сайта забивает.

Для чего гугл так себя ведёт?

Потому что ему так хочется - вот и все. Они не парятся с настройкой. У меня тоже noindex регулярно переобходится. Я из-за этого Google по IP забанил на тестовом сайте, чтобы не лез куда не просят 🚬

Ну разметка для ассистента только для новостных и только для отобранных самим Google. Плюс США онли и спик инглиш. Правда загадка зачем документацию об этом перевели на русский)

У кого-нибудь еще нелокальный трафик увеличился?

Всего: 1245