На прошлой неделе наблюдался всплеск видимости и переходов по нерелевантным запросам, похоже временно был глюк в работе поисковых алгоритмов.
Нет, проблем быть не должно, поисковик нормирует релевантность и всё вернется на круги своя.
В идеале да, написание ботов под конкретные задачи, но вот в моём случае, нужно просто удобное заполнение форм, и последующий серфинг на сайте..
AllSubmitter мне сейчас не подходит, так как на некоторых сайтах, отображается уведомление что браузер устарел, и его нужно обновить..
Попробовал подобрать расширение для хрома, для автозаполнения форм, но это совсем не тот функционал который нужен, и не удобный...
Я вам в личку предложил альтернативу, там разработчик как раз решил вопрос с браузерной поддержкой.
Судя по скриншоту нет.
Примерно как AllSubmitter, где заполняются данные проекта, после чего уже формы в полуавтоматическом режиме заполняются?
Allsubmitter до сей поры и используется, как одна и самых авторитетных и заслуженно функциональных программ.
Другие были слабой пародией - помогали для регистрации на досках объявлений, но это было более 10 лет назад и тратить на них время не стоит.
Вообще в авангарде сейчас ручное написание ботов для отдельных задач, но это уже требует предварительный этап разработки.
К сожалению, варианты будут только для отсева служебных ботов не использующих куки, в остальном боты - нагульщики полностью имитируют пользовательские заходы (используя при этом пользовательские диапазоны IP адресов) и они будут фиксироваться как обычные пользователи.
Других комментариев Яндекс и не даст.
Не совсем так, это нагул профилей. Их задача - собрать тематические посещения (и вы для них являетесь донором).
Многие сталкиваются и для многих это волнительная проблема.
Но сайты - это публичная часть информации и все те заходы, который формально соответствуют пользовательским заходам (несмотря на то, что это боты) - будут фиксироваться как пользовательские сессии.
Продолжайте работать над сайтом. Все сайты, который имеют поисковый трафик так или иначе используются для нагула профилей, поэтому делайте поправку на объём накрученной трафика (если вы его чётко различаете) и работайте дальше.
Пробуйте:
Clean-param: etext /cat/
Посмотрите на ссылочное этого домена, если там несколько десятков хороших ссылок и эти ссылки на постоянной основе (как статьи или прямые рекомендации), то имеет смысл купить.
В плане ранжирования этого никакого заметного плюса не даст, но с другой стороны, если предположить, что допустим, вы часто читаете какое-то СМИ и в очередной раз, используя запрос видите рядом с заголовком названием сайта к которому вы лояльны, то это определённо может влиять на кликабельность.
Можно провести тесты и поэкспериментировать на этот счёт, но для этого должно быть зрелое, раскрученное СМИ c большой посещаемостью и с хорошей аудиторией.
Я имею ввиду (выше говорил и повторюсь), что файл robots.txt важно иметь физически на сервере, чтобы в считанные секунды внести в него изменения, когда это нужно, без необходимости заходить в CMS, запускать плагин, в плагине искать соответствующее поле...
Что касается общей практики использования - это быстрее и лучше.
см. ответы выше, предыдущие обоснования по плюсам/минусам приведены.
Нормально работающие плагины свободно работают с физ. файлом robots.txt и вносят изменения без проблем. Дополнительные условности о том, что у кого-то как-то иначе можно обсуждать бесконечно.
Тема исчерпана :)
Исправлено.