Допрятались. Поисковики не любят играть в прятки..
Ну и по мелочам есть беды:
https://printdirect.ru/cache/sitemap/sitemap_index.xml (в роботс)
Слёта закрыть хочется.
Остальное надо сильно копать и доступ к аналитике, вряд ли на форуме решите проблему. Если просадка на двух ПС сразу, то, вероятно, техническая проблема.
У Кейсо тот же смысл, только не по запросам по маске, а по простому списку. Берёт топ страниц по запросам и отдаёт запросы, по которым они ранжируются, кроме указанных.
С помощью ИИ можно сгенерить базовый промпт, а потом его уже тюнить под свои нужды. для многоступенчатых задач уже нужно использовать цепочки с историей. Для источников - RAG.
Нет. Как оказалось, ЛЛМ не сильно умеет работать с тэгами. А вот Markdown формат - очень хорошо кушает.
Я, кстати, для себя переделал ситстему.
Отдаю промты кусками:
[ТЕМА]
[/ТЕМА]
[ДАННЫЕ]
[\ДАННЫЕ]
...
Изменяется только один кусок. А сам промт перечисляет шаги. Для контента очень быстро. Для отработки семантики всё ещё так себе. Но таким образом разделяются участки работы (тз, выписка) и можно сделать сколько угодно шагов + между собой нет противоречий.
Devvver #:Бесплатный скрипт, описание по установке и запуску.https://t.me/python_seo/43
Не удержался от ещё одного плюса тебе. Скрипт переделал под себя, но закидывать такое в паблик - thx )
Прикольно, но непонятно зачем.
https://docs.google.com/document/d/1LAUGJnUf6i_5rhqi9Zcv--5ikPYC8-AtHHD2YZ-SfUc/edit?usp=sharing
Слова в отдельной таблице со всем скорингом (в том числе позицией). Вхождение чекается на моменте выкладки текста, позиции аналогично. LSI слова страниц конкурентов также собираются. Так проще отслеживать. Ну и можно бота закрутить, который будет повторно анализировать вхождение слов в готовый текст.